今天基辛格100岁对人类的未来发出39个警告:未来5年很关键!
来源:贝博足球app平台 发布时间:2024-10-19 15:53:10编者按:5月27日,是基辛格100岁生日。基辛格在国务卿任期间至少上了15次《时代》封面,被认为是 “世界上不可或缺的人”。他的一生横穿了二战、冷战历史,能够说是近代史上的一面镜子。在他最新的访谈和新书——《AI时代与人类未来》中对对人类的未来发出了最新警告,互联网思想特别为你划下重点:
“人工智能这项具有颠覆性潜力的技术可能在五年内成为影响全球安全的重要的条件,我们应该就技术对彼此的影响进行交流,朝着军备控制迈出一小步”
“纵观军事历史,由于地理和精确度的限制,过去一直做不到消灭所有对手。(而今)这些限制不存在了。每个敌手都100%暴露在攻击下。”
“人工智能将在五年内成为安全领域的重要的条件。其颠覆性潜力堪比活字印刷术,而正是后者传播思想引发了16、17世纪一系列毁灭性战争。”
“在人工智能军备控制方面的清醒努力与国家安全并不冲突,它是一种尝试,为的是确保在人类未来的框架下寻求实现安全。”
“战争一直是一个充满不确定性和偶然性的领域,但人工智能进入这样的领域将为其带来新的变数。”
“如果一个国家领导人的合成形象被对手操纵,以制造不和或发布误导性的指令,公众(甚至其他政府和官员)会及时识破这种骗局吗?”
“在灾难真正发生之前,我们应该克服,或者至少是遏制这种自动化的驱向。”
“当代领导人能够最终靠将常规能力、核能力、网络能力和人工智能能力广泛而动态地结合在一起,来实现控制武器装备的六大任务。”
“必须对核战略的未解难题给予新的关注,并认识到其本质正是人类在战略、技术和道德方面遭遇的巨大挑战之一。”
“网络与人工智能技术的领先大国应该努力界定其理论和限制(即使其所有方面均未被公开),并找出自身理论与竞争大国之间的关联点。”
“世界各国,特别是技术强国,应制定强有力和可接受的方法,在焦灼的事态加剧和极端情况下尽量延长决策时间。”
“主要的人工智能大国应思考如何限制军事化人工智能的继续扩散,或者依靠外交手段与武力威胁,开展系统性的防扩散工作。”
“要在最具破坏性的能力上实现相互制约,绝不能等到悲剧发生再去亡羊补牢。”
“由于大多数人工智能技术具有军民两用特性,我们有责任在这场技术研发竞赛中保持领先。但这也同样迫使我们去理解它的局限性。等到危机来临才开始讨论这些问题就为时已晚了。一旦在军事冲突中使用,人工智能技术的响应速度之快,几乎注定它将以比外交手段更快的速度产生结果。”
“我们正处于一个初级阶段,未来机器可能带来全球瘟疫或其他大流行病,给人类造成毁灭的不仅有核问题,任何领域都可能。”
“人类需要重新定义与 AI 这种新物种之间的关系,而且我们人类对于这一切还没有准备好。”
“生成性人工智能提出了一个自启蒙运动开始以来从未经历过的哲学和实践挑战。”
“启蒙运动试图使传统的真理让位于解放后的人的分析理性。而互联网的目的是通过积累和操纵不断扩大的数据,获取知识。人类的认知失去了个体特征。个体变成了数据,而数据变成了统治者。”
“人们有两种认识世界的传统方式:信仰和理性;如今又添上了第三种——人工智能。”
“我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人类的现实。”
“随着由人工智能提供和量身定制的教育被引入,普通人的能力既会有所提高,也会面临挑战。”
“具有讽刺意味的是,尽管数字化让越来越多的信息变得可用,但它却压缩了深入、专注思考所需的空间。”
“对机器的依赖将决定并因此改变现实的结构,产生一个我们还不了解的新未来,我们必须为探索和领导这个未来做好准备。”
为了厘清我们在这个世界上的地位,我们的侧重点可能需要从“以人类理性为中心”转移到“以人类尊严和自主性为中心”。
“每个社会必须首先确定人工智能在各个领域允许和不允许使用的全部范围。对某些强大的人工智能,如通用人工智能的使用权,需要严格把关,以防止被滥用。”
“限制在生物武器生产中使用人工智能,应该很容易达成一致,但需要国际合作。”
“目前,我们拥有一项新颖而壮观的成就——人工智能,它是人类思想的荣耀。我们还没有为它进化出一个目的地。”
“当我们成为技术智人时,我们迫切需要定义我们物种的目的。现在,我们有责任提供真正的答案。”
“当代既受人敬重又遭人痛恨的政治家自然也包括美国国务卿,而其中没有哪个人比得上基辛格。”
这句对美国前国务卿基辛格的辛辣评价来自著名历史学家尼尔·弗格森《基辛格:理想主义者》一书。
人们总是热衷于讨论基辛格传奇的人生经历。一方面,基辛格在国务卿任期间至少上了15次《时代》封面,被认为是 “世界上不可或缺的人”。他的一生横穿了二战、冷战历史,可以说是近代史上的一面镜子;
但另一方面,他也是各种阴谋论热衷的主角:释放病毒解决人口过剩问题,光明会中最权威的幕后操纵者之一,种族灭绝、大规模屠杀、暗杀、谋杀等罪状更是一应俱全。
5月27日,是基辛格100岁生日。当人们问到他长寿的秘诀时,他说,主要是遗传基因好。此前几天,他还接受了《经济学人》长达8个多小时的采访,思路之清晰让人惊叹:
“人工智能这项具有颠覆性潜力的技术可能在五年内成为影响全球安全的关键因素,我们需要就技术对彼此的影响进行交流,朝着军备控制迈出一小步”
在自己的生命历程整整走过一个世纪之际,继《论中国》《世界秩序》之后,基辛格再次推出了新书——《人工智能时代与人类未来》,对以上观点进行了深刻论述。
不过要想弄懂基辛格为何对人类前途发出如此告诫,我们首先还是需要回看过去100年,他的人生之路,去一一检视那些烙印在他身上的诸多标签,尽管其中不少甚至有些自相矛盾:“德裔犹太人”vs“美国国务卿”,“战争发动者”vs“诺贝尔和平奖得主”,“丈夫”vs“情人”,“知识分子”vs“政客”,“崇高的理想主义者”vs“冷酷的现实主义者”……
1923年的世界,动荡不宁:日本关东大地震、凯末尔宣布成立土耳其共和国、列宁被迫下台回到老家、德国马克变成一堆废纸……
当此乱世,5月27日,在德国巴伐利亚州中弗兰肯行政区的菲尔特,一座缺乏魅力的城市,海因茨·阿尔弗雷德·基辛格,出生了。日后,他将以另外一个名字为世界所熟知:亨利·基辛格。
父亲路易斯·基辛格,在菲尔特市的一所以犹太裔男生为主的私立学校当老师,他也像海涅一样感到自己既是犹太人,坚定不移地信仰正统犹太教,同时也是德国人,深深地爱着这个国家。
青少年时期,基辛格开始反抗父母的生活方式,叛逆心越来越重。父亲业余喜欢听贝多芬、读席勒和蒙森的名作、写地方志。而他的最爱是——足球。
足球之外,基辛格12岁就获得了女生的追求,不过他最后选择了一个漂亮的金发女孩做自己的初恋,成为当地家长口中的“好色之徒”。
菲尔特旁边就是纽伦堡——纳粹党一年一度的党代会会址就定在这里,而菲尔特则被定性为一座“犹太化”城市,这意味着各种反犹措施和“自发”行动首先会殃及菲尔特,其惨烈程度,举国之内无出其右。
路易斯·基辛格辛辛苦苦做到公立学校高级教员,受人尊敬,不到50岁却被强制退休,转瞬间体面全无,为了下一虑,母亲做出了最终的决定,离开德国!
1938年4月21日,官方认定为“德国公民、犹太裔、信仰犹太教”的基辛格的父母向慕尼黑移民咨询局提出正式移民申请。
一家人唯一的大问题是父亲找不到工作。作为长子,基辛格要开始挣钱养家了。为了能打整份工——一家远亲办的修面刷工厂,1940年开始,他改为夜晚上学,每周能赚11美元。
不过这个16岁的孩子的成绩并没有受影响。那学期他法语三级95分,美国史二级95分,美国史一级90分,英语六级90分,英语七级85分,高等代数75分。
到了新的环境,信仰也发生了变化。他回忆道,他“显然不再信正统犹太教了”。
除了信仰,另外一个变化就是昔日好兄弟因为一位从德国老家女孩伊迪丝的到来而反目。
基辛格那年16岁,来纽约不到两年。他陷入了炽热的少年之恋,对情敌有一种狂热的妒忌:
你是我们班头一个来美国的女生,而且相当漂亮,因此自然大家都想和你交朋友。除我之外,主要还有两个现在或者以前想和你交朋友的人:奥博斯和库尔特。我想有必要写信给你讲讲他们俩的缺点,因为你只看到他们的优点。我想提醒你提防库尔特,他这个人很坏,为了实现个人野心,根本不顾道德标准;跟奥博斯交朋友也要谨慎,他企图在思想上控制你,在身体上占有你。这不是说没法跟奥博斯交朋友,我只是劝你不要被他迷倒,否则你事事都要依着他。
多少聪明的年轻人在求爱被拒时给心仪对象写过同样炽热的情书!但是这封信非同一般:暂不论文中依然存在的日耳曼语标点和个别微小的拼写错误,这封信分析缜密,心思极深。
珍珠港事件时,基辛格已经在纽约城市大学念书,他学习成绩好,几乎门门优秀(滑稽的是,只有历史一门是良好)。课余他喜欢看美式足球或棒球比赛,也在乔治·华盛顿桥下的网球场打网球。跟安纳利斯·弗莱舍尔保持着稳定的关系,会计生涯似乎在召唤他。
1943年2月中旬,他受命乘坐火车前往克罗夫特营,基辛格熬过三个月的基本训练,按照1942年3月出台的《“二战”权力法》“允许在部队光荣服役至少三个月的敌方外国人成为美国公民”,获得了美国国籍。
基辛格从军之旅也使得他初步积累了政治人脉。而弗里茨·克雷默更堪称基辛格的人生导师,他是很具影响的政治理论家,早于基辛格进军美国政界。克雷默为基辛格在二战结束后申请哈佛大学的学位出具了热情洋溢的证明书。
基辛格在哈佛大学求学期间,几乎所有课程都获得了最高等级的分数评价。《历史的真义》这篇论文已经被载入史册,它是有史以来哈佛大四学生所写的最长的一篇论文——全文有388页,现在哈佛的毕业论文篇幅限制(35 000字,或者大约140页,被称为“基辛格规则”)即由此而来。
青年基辛格沉迷于哲学、历史和政治学课程,这一时期的他最具有理想主义情怀。他深受康德哲学的影响。
事实上,基辛格91岁时出版的《世界秩序》一书大量引用康德的观点即为明证。
基辛格对康德的解读深远地影响了他自己的思想,这不仅是因为他怀疑鼓吹资本主义优越性的各种唯物论,而美国社会科学家提出这些唯物论是想对抗马克思列宁主义。他对黑格尔提出的那种理想主义毫无兴趣;黑格尔的理论是一种历史综合论,正命题和反命题辩证融合,推动世界势不可当地向前发展。在基辛格眼里,最重大的历史问题是,康德对人类困境(个体会自由面对有意义的道德困境)的看法在多大程度上能与哲学家对世界终究注定走向“永久和平”的看法调和起来。
基辛格的博士论文(1954)就已经谈到了19世纪政治,特别是当时的欧洲著名政治家卡斯尔雷(英国外交大臣)和梅特涅(奥地利首相)对于欧洲政局、世界秩序带来的巨大影响。他后来还专门写成了一本《重建的世界》,认为正是卡斯尔雷和梅特涅在拿破仑战争结束以后为稳定欧洲秩序作出了种种努力,才使得19世纪的欧洲才能维持总体稳定。基辛格毫无避讳的指出,和平安宁未必总是正义的,为了实现这项目标,民族起义、进步革命都可以因为不符合稳定秩序以及大国利益的需要,而被无情倾轧——这项观点贯穿了基辛格的政治理念,影响了他的政治行动,也成为其声誉争议的起始来源。
1957年,他的两本著作《重建的世界》、《核武器与对外政策》相继出版,由此确立了他在美国国际关系学界的学术声誉。
基辛格的《重建的世界——梅特涅,卡斯尔雷与和平问题》一书,是以他在哈佛的博士论文为基础的历史著作。它的主要内容是研究拿破仑1812年入侵俄国失败后,特别是1814-1815年维也纳会议上结成神圣同盟以后,欧洲各君主国家为了恢复王统、兼并弱国、争夺霸权而开展的外交博弈,当时几乎控制欧洲外交舞台的奥地利外交大臣梅特涅是该书的主角。
基辛格的这部历史著作,对于梅特涅奉行的均势外交政策、权变机诈手腕,联系当时欧洲列强争霸的历史背景进行了深入研究。其“均势理论”初现端倪。
美国的外交战略在20世纪前半段经历过从孤立主义到理想主义的反复震荡,这两种看似矛盾的外交战略,都源于其清教立国精神,有着深层的理想主义底色。这并不足以让美国成为完整的超级大国,除非它能够学会老欧洲的均势政治。出身欧洲的基辛格,没有清教当中的那种道德洁癖,对均势政治极为熟稔;因其生活经历,他又对美国的价值观有着深刻认同。在基辛格的手上,理想主义与现实主义获得了一种有机的融合,带来了美国在20世纪后半段重要的外交转型。理解基辛格,是理解美国外交的重要入口。
从艾森豪威尔政府、肯尼迪政府、约翰逊政府,再加上之后的尼克松政府,在长达20多年的时间里,基辛格对于美国外交政策、国际关系的影响力与日俱增。
这产生了一个巨大的悖论,一方面,当时的基辛格,所展现给世人的是极度直接的现实主义智囊面目,他不惮于坦言“有限核战争”,建言用“全面战争”来迫使苏联在美国核心利益问题上作出让步,这使他连续遭到了苏联官方、美国知识分子界的连声谴责;另一方面,他不放弃任何机会来争取和平,虽然他在尼克松胜选总统以前,并没有获得总统授权来表达美国对于国际事务的态度,但是基辛格却频频以白宫政策顾问等边缘身份,表述实际上是他个人对于地缘政治等敏感问题的观点。
1973年9月22日至1977年1月20日,基辛格出任国务卿——以非美裔身份担任美国国务卿的第一人,行政权仅次于总统、副总统。
他是美国迄今历任国务卿中权力最大的一位,被不在少数的批评者认为是没有原则的现实主义者。与中国打破外交坚冰,在美国保守右翼和“自由主义”左翼的许多人看来,等同于出卖台湾;而代表美国政府与越南达成停战协议,这让基辛格获得了诺贝尔和平奖,但同样也遭到了批评。
而在基辛格通过与中国、越南谈判来缓解地区形势的同时,美国政府卷入了智利等拉美国家的军事政变,造成民主选举的政府被颠覆,许多知识分子在混乱中惨遭屠杀或离奇失踪,基辛格本人对于这方面劣迹也并未表示过任何悔意。
所以,从这个意义上讲,虽然中国人将基辛格定义为老朋友,热情接待,寄望甚高(希望他在推动中美关系友好发展的过程中发挥作用),但基辛格本人为了美国利益,向特朗普建言“联俄制中”也就不会生发任何心理负担。
卸任美国国务卿后,他一直对政界保持着极大的影响力。近年来,基辛格屡屡对中美关系提出各种层面的忠告。
着眼未来,基辛格认为,中美第二个需要对话的领域是人工智能。他说:“我们正处于一个初级阶段,未来机器可能带来全球瘟疫或其他大流行病,给人类造成毁灭的不仅有核问题,任何领域都可能。”
他表示,即使是人工智能专家也不知道它的力量究竟有多大(从这次访问来看,给基辛格浓重、沙哑的德国口音进行录音转写仍然超出了人工智能的能力)。但基辛格认为,人工智能将在五年内成为安全领域的关键因素。其颠覆性潜力堪比活字印刷术,而正是后者传播思想引发了16、17世纪一系列毁灭性战争。
“我们生活在一个破坏性空前的世界中,”基辛格警告道。尽管原则上人类要介入机器学习的反馈循环,但人工智能还是可能成为全自动的、不可阻挡的武器。“纵观军事历史,由于地理和精确度的限制,过去一直做不到消灭所有对手。(而今)这些限制不存在了。每个敌手都 100%暴露在攻击下。”
人工智能不能被废除。因此,中美两国需要在一定程度上对其潜力进行军事利用,将其转化为一股威慑力量。但反过来它们也可以限制人工智能构成的威胁,就像通过军备控制谈判限制核威胁一样。他说:“我认为我们必须就技术对彼此的冲击展开交流,必须开始朝军备控制一点点迈进,双方都向另一方展示有关(人工智能)能力的可控材料。”他认为,谈判本身就有助于建立互信,使两个超级大国有信心保持克制。要诀在于领导人有足够的定力和智慧,能理解为什么不能把人工智能推向极致。“如果你完全靠通过实力达成目的,你很可能会毁灭世界。”
2023年,亨利·基辛格已经100岁高龄,但是他头脑依然很清醒,思路依然很清晰。他还是一如既往的参加国际问题的讨论,并且还能给出令人佩服的预测。
《经济学人》在4月底与基辛格进行了长达8个小时的对话。在这次对话中,基辛格表示出了对中美两国围绕科技和经济领先地位日益激烈竞争的担忧,他还担心人工智能即将极大程度地加剧中美对立。基辛格认为,人工智能将在五年内成为安全领域的关键因素,其颠覆性潜力堪比活字印刷术。
“我们生活在一个破坏性空前的世界中”,基辛格警告道。尽管原则上人类要介入机器学习的反馈循环,但人工智能还是可能成为全自动的、不可阻挡的武器。
基辛格一直非常关注人工智能的发展,他曾经说过“搞技术的人关心的是应用,我关心的是影响”。最近,基辛格和谷歌前首席执行官埃里克·施密特、麻省理工学院苏世民学院院长丹尼尔·胡腾洛赫尔还共同完成一本书《人工智能时代与人类未来》,基辛格在这本书中提出,人工智能将重塑全球安全和世界秩序,并对人工智能发展对个体和人类自我身份认同的冲击进行了反思。
自有记载的人类历史起,安全始终是一个有组织的社会追求的最低目标。在每一个时代,寻求安全的社会都试图将技术进步转化为日益有效的方法,用以监视威胁,练兵备战,施影响于国界之外,战时则用于加强军事力量以取得胜利。对最早期的有组织社会来说,冶金、防御工事、战马蓄养和造船等方面的进步往往具有决定性的意义。到了近代早期,火器枪炮、海军舰船、航海工具和技术方面的创新也发挥了类似的作用。
随着力量的增强,主要大国之间会相互衡量,以评估哪一方会在冲突中获胜,取得这样的胜利会带来什么风险和损失,开战有什么正当的理由,以及另一个大国及其军事力量介入冲突会对结果产生什么影响。不同国家的战力、目标和战略至少在理论上被设定为一种平衡,或者说是一种力量的均衡。
在过去的一个世纪里,对手段和目的的战略调整已然出现了脱节。用于追求安全的技术层出不穷,破坏性也越来越大,而运用这些技术实现既定目标的战略却变得越来越难以捉摸。在当今时代,网络和人工智能的出现又为这些战略计算增加了超乎寻常的复杂性和抽象性。
在冷战结束后的今天,主要大国和其他国家都利用网络能力增强了本国的武器库,这些网络能力的效用主要源自其不透明性和可否认性,在某些情况下,也源自对其在散播虚假信息、收集情报、蓄意破坏和传统冲突的模糊边界上的运用——这构成了种种尚无公认理论教条的战略。与此同时,每一次进步都伴随着新的弱点被揭露。
人工智能时代可能使现代战略之谜更趋复杂化,这并非人类本意,也许还完全超出人类的理解。即使各国不广泛部署所谓的致命自主武器(即经过训练和授权可以自主选择目标,并在没有进一步人类授权的情况下进行攻击的自动或半自动人工智能武器),人工智能仍有可能增强常规武器、核武器和网络能力,从而使对手之间的安全关系更加难以预测和维护,冲突更加难以限制。
没有哪个大国可以忽视人工智能的安全维度。一场争夺人工智能战略优势的竞赛已经开始,尤其是在美国和中国之间,当然还有俄罗斯。随着对他国正在获得某些人工智能能力的认知或猜疑日益蔓延,将会有更多国家寻求获得这些能力。而一旦被引入,这能力就会快速扩散。虽然创造一种复杂的人工智能需要大量的算力,但对其进行增殖扩散或使用它通常并不需要。
解决这些复杂问题的办法既不是陷入绝望,也不是缴械投降。核技术、网络技术和人工智能技术已经存在,其中每一项技术都将不可避免地在战略中发挥作用。我们已不可能退回到这些技术“未被发明”的时代。如果美国及其盟友因这些能力可能产生的影响而畏缩不前,结果不会是一个更和平的世界。相反,那将是一个不太平衡的世界,身处其中的各国会竞相发展和使用最强大的战略能力,而不考虑民主责任和国际平衡。
今后几十年,我们需要实现一种力量平衡,这种平衡既要考虑到网络冲突和大规模虚假信息传播等无形因素,也要考虑到由人工智能辅助的战争的独特属性。残酷的现实迫使人们认识到,即使是在彼此竞争中,人工智能领域的对手们也应致力于限制极具破坏性、不稳定性和不可预测性的人工智能能力的开发和使用。在人工智能军备控制方面的清醒努力与国家安全并不冲突,它是一种尝试,为的是确保在人类未来的框架下寻求实现安全。
纵观历史,一个国家的政治影响力往往与其军事力量和战略能力大致匹配,这是一种即使主要通过施加隐性威胁也会对其他社会造成破坏的能力。然而,基于这种力量权衡的均势不是静态的或自我维持的。相反,它首先依赖于各方就这一力量的构成要素及其使用的合法界限达成共识。其次,维持均势需要体系内所有成员,尤其是对手,就各个国家的相对能力、意图和侵略的后果进行一致的评估。最后,保持均势需要一个实际的、公认的平衡。当体系中的一方以一种与其他成员并不成比例的方式增加自身力量时,体系将通过组织对抗力量或者通过适应新的现实来设法做出调整。当均势的权衡变得不确定时,或者当各国对各自相对实力的权衡结果完全不同时,由误算引发冲突的风险就会达到最大。
在当今时代,这些权衡的抽象性更进一步。带来这种转变的原因之一是所谓的网络武器,这类武器涉及军用和民用两个领域,因此其作为武器的地位是模糊的。在某些情况下,网络武器在行使和增强军事力量方面的效用主要源于其使用者未披露其存在或未承认其全部能力。传统上,冲突各方都不难认识到发生了交战,或者认识到交战各方是谁。对手间会计算对方的战力,并评估他们部署武器的速度。可是这些在传统战场上颠扑不破的道理却不能直接套用到网络领域。
常规武器和核武器存在于物理空间中,在那里,它们的部署可以被察觉,它们的能力至少可以被粗略计算出来。相比之下,网络武器的效用很大一部分来自其不透明性;若被公之于众,它们的威力自然有所减损。这些武器利用之前未曾披露的软件漏洞,在未经授权用户许可或知情的情况下侵入网络或系统。在“分布式拒绝服务”(DDoS)攻击(如对通信系统的攻击)的突发事件中,攻击者可能会使用一大堆看似有效的信息请求来压垮系统,使系统无法正常使用。在这种情况下,攻击的真实来源可能被掩盖,使人难以或无法(至少在当时)确定攻击者。即使是最著名的网络工业破坏事件之一——震网(Stuxnet)病毒破坏了伊朗核项目中的制造控制计算机,也没有任何政府对此事做过正式承认。
常规武器和核武器可以相对精确地瞄准目标,道德和法律要求它们瞄准的对象只能是军事力量和设施。而网络武器可以广泛地影响计算和通信系统,往往可对民用系统造成特别有力的打击。网络武器也可以被其他行为体基于其他目的而进行吸纳、修改和重新部署。这使得网络武器在某些方面类似于生物和化学武器,其影响可以非预期和未知的方式传播。在许多情况下,网络武器影响的是大范围的人类社会,而不仅仅是战场上的特定目标。
网络武器的这些用途,使得网络军备控制难以被概念化或被推行。核军备控制的谈判人员可以公开披露或描述一类核弹头,而不必否认该武器的功能。网络军备控制谈判人员(目前尚不存在)则需要解决以下悖论:一旦对网络武器的威力进行讨论,可能就会导致这种威力的丧失(允许对手修补漏洞)或扩散(对手得以复制代码或侵入方法)。
我们所处的数字时代的一个核心悖论是:一个社会的数字能力越强,这个社会就变得越脆弱。计算机、通信系统、金融市场、大学、医院、航空公司和公共交通系统,甚至民主政治的机制,所涉及的系统在不同程度上都容易受到网络操纵或攻击。随着发达经济体将数字指挥和控制系统整合到发电厂和电网中,将政府项目转移到大型服务器和云系统中,并将数据转誊到电子账簿中,它们在网络攻击面前的脆弱性也成倍增加。这些行为提供了更丰富的目标集合,因此仅仅一次成功的攻击就可能造成实质性的破坏。与此相对,如果发生数字破坏的情况,低技术国家、恐怖组织甚至个人攻击者可能会认为他们承受的损失相对要小得多。
各国正在悄无声息地,有时是试探性地,但又确凿无疑地发展和部署那些对各种军事能力的战略行动均有所促进的人工智能,这对安全政策可能产生革命性影响。
战争一直是一个充满不确定性和偶然性的领域,但人工智能进入这个领域将为其带来新的变数。
人工智能和机器学习将通过扩大现有武器类别的打击能力来改变行为者的战略和战术选择。人工智能不仅能使常规武器瞄得更精准,还能使它们以新的、非常规的方式进行瞄准,比如(至少在理论上)瞄准某个特定的个人或物体,而不是某个地点。通过研究大量信息,人工智能网络武器可以学习如何渗透防御,而不需要人类帮它们发现可以利用的软件漏洞。同样,人工智能也可以用于防御,在漏洞被利用之前定位并修复它们。但由于攻击者可以选择目标而防御者不能,人工智能即使未必让进攻方战无不胜,也可令其占得先机。
如果一个国家面对的对手已经训练人工智能来驾驶飞机、独立做出瞄准的决策并开火,那么采用这种技术将在战术、战略或诉诸升级战争规模(甚至是核战)的意愿方面产生什么变化?
人工智能开辟了信息空间能力的新视野,包括虚假信息领域。生成式人工智能可以创造大量似是而非的虚假信息。人工智能推波助澜的信息战和心理战,包括使用伪造的人物、图片、视频和演讲,无时无刻不在暴露出当今社会令人不安的新弱点,尤其是在自由社会。广泛转发的活动配上了看似真实的图片和视频,里面的公众人物发表着他们从未真正说过的言论。从理论上讲,人工智能可以决定将这些由人工智能合成的内容以最有效的方式传递给人们,使其符合人们的偏见和期望。如果一个国家领导人的合成形象被对手操纵,以制造不和或发布误导性的指令,公众(甚至其他政府和官员)会及时识破这种骗局吗?
各个主要的技术先进国家都需要明白,它们正处于战略转型的门槛上,这种转型与当年核武器的出现同等重要,但影响将更加多样化、分散化和不可预测。每个正在扩展人工智能前沿的社会都应致力于成立一个国家层面的机构,来考量人工智能的防御和安全,并在影响人工智能创建和部署的各个部门之间建立桥梁。这个机构应被赋予两项职能:确保维持本国在世界其他地区的竞争力,同时协调研究如何防止或至少限制不必要的冲突升级或危机。在此基础上,与盟友和对手进行某种形式的谈判将是至关重要的。
如果要对这一方向进行探索,那么世界两大人工智能强国——美国和中国——就必须接受这一现实。两国可能会得出这样的结论:无论两国竞争的新阶段可能会出现何种形式的竞赛,两国仍应该寻求达成一项共识,即不会同对方打一场前沿技术战争。双方政府可以委托某个团队或高级官员负责监督,并直接向领导人报告潜在的危险,以及如何避免这些危险。
在人工智能时代,我们应该对长期以来的战略逻辑进行调整。在灾难真正发生之前,我们需要克服,或者至少是遏制这种自动化的驱向。我们必须防止运行速度比人类决策者更快的人工智能做出一些具有战略后果的、不可挽回的行为。防御力量的自动化,必须在不放弃人类控制的基本前提下去实施。
当代领导人可以通过将常规能力、核能力、网络能力和人工智能能力广泛而动态地结合在一起,来实现控制武器装备的六大任务。
第一,对抗和敌对国家的领导人必须准备定期开展相互对话,讨论他们都想要避免的战争形式,就像他们的前任在冷战期间所做的那样。为对此有所助力,美国及其盟友应该围绕它们认为共同的、固有的和不可侵犯的利益与价值观组织起来,这些利益和价值观包括在冷战结束时及冷战后成长起来的几代人的经验。
第二,必须对核战略的未解难题给予新的关注,并认识到其本质正是人类在战略、技术和道德方面遭遇的巨大挑战之一。几十年来,对广岛和长崎被化为焦土的记忆迫使人们认识到核问题的不寻常性和严峻程度。正如美国前国务卿乔治·舒尔茨在2018 年对国会所说:“我担心人们已经失去了那种恐惧感。”拥核国家的领导人必须认识到,他们有责任共同努力,以防止灾难的发生。
第三,网络与人工智能技术的领先大国应该努力界定其理论和限制(即使其所有方面均未被公开),并找出自身理论与竞争大国之间的关联点。如果我们的意图是威慑而非使用,是和平而非冲突,是有限冲突而非普遍冲突,就需要以反映网络和人工智能独特层面的措辞来重新理解和定义这些术语。
第四,拥核国家应承诺对其指挥控制系统和早期预警系统进行内部检查。这类失效保护检查应确定检查步骤,以加强对网络威胁和在未经授权、疏忽或意外情况下使用大规模毁灭性武器行为的防范。这些检查还应包括排除对核指挥控制系统或早期预警系统相关设施的网络攻击的选项。
第五,世界各国,特别是技术强国,应制定强有力和可接受的方法,在紧张局势加剧和极端情况下尽量延长决策时间。这应该是一个共同的概念性目标,特别是在竞争对手之间,它可以将控制不稳定性和建立共同安全所需的步骤(既有当前的,也有长期的)联系起来。在危机中,人类必须对是否使用先进武器承担最终责任。特别是竞争对手间应该努力就一种机制达成一致,以确保那些可能不可撤销的决定是以有助于人类对其加以思考并有利于人类生存的方式做出的。
第六,主要的人工智能大国应该考虑怎么限制军事化人工智能的继续扩散,或者依靠外交手段与武力威胁,开展系统性的防扩散工作。那些野心勃勃地想要将技术用于不可接受的破坏性目的的技术收购者会是谁?有哪些特定的人工智能武器值得我们特别关注?谁来确保这条红线不被逾越?老牌的核大国探索过这种防核扩散概念,结果成败参半。如果一种具有颠覆性和潜在破坏性的新技术被用于武装世界上怀有最强烈敌意或道德上最不受约束的政府的军队,那么战略均势可能难以实现,冲突也可能无法控制。
由于大多数人工智能技术具有军民两用特性,我们有责任在这场研发技术竞赛中保持领先。但这也同样迫使我们去理解它的局限性。等到危机来临才开始讨论这样一些问题就为时已晚了。一旦在军事冲突中使用,人工智能技术的响应速度之快,几乎注定它将以比外交手段更快的速度产生结果。大国之间必须就网络和人工智能武器展开讨论,哪怕只是为了形成一套共同的战略概念话语,以及感知彼此的红线。
要在最具破坏性的能力上实现相互制约,绝不能等到悲剧发生再去亡羊补牢。当人类开始在创造新的、不断演化的、拥有智能的武器方面展开竞争时,历史不会原谅任何对此设限的失败。在人工智能时代,对国家优势的持久追求,仍须以捍卫人类伦理为前提。
2023年,ChatGPT引爆了全球对人工智能的广泛关注。科技界、知识界和产业界,围绕着AI(人工智能)的发展前景、影响冲击等发生激烈争论。而ChatGPT本身正引发一系列深刻的连锁反应,席卷至各个行业、企业、国家乃至个人。
著名外交家、美国前国务卿亨利·基辛格和谷歌前首席执行官埃里克·施密特、麻省理工学院苏世民学院院长丹尼尔·胡腾洛赫尔今年联名在华尔街日报发表文章《ChatGPT预示着一场智能革命》。文章中提出“一项新技术正试图改变人类认知过程,这是自印刷术发明以来从未经历过的震动。这项新技术被称为生成人工智能。OpenAI研究实验室开发的ChatGPT现在能够与人类交流。随着它的能力变得更广泛,它们将重新定义人类知识,加速我们现实构造的变化,并重组政治和社会。”
基辛格已经步入100岁高龄,但是他头脑依然很清醒,思路依然很清晰。一直非常关注人工智能的发展,他曾经说过“搞技术的人关心的是应用,我关心的是影响”。在这边文章中他强烈呼吁“人类要重新定义与 AI 这种新物种之间的关系,而且我们人类对于这一切还没有准备好。”
近期由基辛格、施密特和胡腾洛赫尔共同完成的新书《人工智能时代与人类未来》出版,从政治、经济、科技等维度探讨人工智能及其改变人类社会的方式,也提出了提出人类在未来几年所必须面对的问题以及解答工具。
1450 年,德国美因茨市的金匠约翰内斯·谷登堡用借来的钱研制了一台试验性的印刷机。他的努力难言成功,因为他的生意一度陷入困境,债权人还起诉了他。但在1455 年,欧洲的第一本印刷读物《四十二行圣经》问世了。最终,他的印刷机引发了一场革命,在西方乃至全球生活的各个领域都产生了强烈反响。
印刷机的发明使对经验知识的追求取代了礼仪教义,启蒙时代逐渐取代宗教时代。个人思想和科学知识取代信仰,成为人类意识的主要标准。信息通过图书馆的扩张得到存储和系统化。启蒙时代是塑造当代世界的诸多思想和行动的来源。
生成性人工智能提出了一个自启蒙运动开始以来从未经历过的哲学和实践挑战。印刷机使学者们能够迅速复制彼此的发现并分享它们。信息的空前整合和传播产生了科学方法。原本密不透风的东西变成了加速查询的起点。以宗教信仰为基础的中世纪对世界的解释逐渐被削弱。宇宙的深处可以被探索,直到达到人类理解的新极限。
启蒙运动试图使传统的真理让位于解放后的人的分析理性。而互联网的目的是通过积累和操纵逐步扩大的数据,获取知识。人类的认知失去了个体特征。个体变成了数据,而数据变成了统治者。
当信息被情境化时,它就变成了知识。当知识令人信服时,它就变成了智慧。然而,互联网让用户淹没在数以千计,甚至数以百万计的其他用户的意见中,剥夺了他们持续思考所需的独处感,而从历史上看,正是这种独处感催生了对知识的信念。随着独处感的消失,坚毅的精神也不复以往——须知不仅信念的形成需要坚韧不拔的毅力,保持对信念的忠诚也一样,当这种信念需要穿过未有前人踏足的,因此往往是孤独的道路才能获取时尤其如此。这种信念也只有与智慧相结合,人们才能进入和探索新的视界。
数字世界对智慧没有多少耐心,它的价值观是由赞许而不是自省塑造的。它从本质上挑战了启蒙运动认为理性是意识最重要因素的主张。数字世界消除了过去距离、时间和语言对人类行为的限制,它本身就提供了一种有意义的联系。
随着人工智能的崛起,对人类角色、人类愿望和人类成就的定义都将发生变化。在这个时代,人类的哪些品质值得颂扬?其指导原则是什么?人们有两种认识世界的传统方式:信仰和理性;如今又添上了第三种——人工智能。
在一个人工智能可以评估我们生活中的诸般事物,预测接下来会发生什么,并决定该做什么的时代,即一个现实可以被预测、近似和模拟的时代,人类理性的角色将会改变。我们对个人和社会的目标感也会随之改变。在某些领域,人工智能可能会增强人类的理性。在其他领域,人工智能则可能会让人类产生一种置身事外的感觉。
各个社会都有两个选择:一个是各自为战;另一个则是带着合作意向开始对话,举全人类的进步之力来界定人工智能的角色,同时明晰我们自己的角色。前一种路径是弃权式的默认,而后一种则需要领导人和哲学家、科学家和人文主义者,以及其他各种团体的清醒参与。
最终,个人和社会将不得不决定,生活的哪些方面应该留给人类智能,哪些方面则应交由AI或人类与人工智能的合作。人类与人工智能的合作并不是一种对等关系。归根结底,人工智能既由人类构建,也由人类指挥。但随着我们逐渐习惯和依赖人工智能,对其加以限制可能会导致更高昂的成本、更困难的心理挑战,甚至更复杂的技术。我们的使命将是了解人工智能给人类经验带来的变化、它对人类身份的挑战,以及这些发展变化的哪些方面需要由其他的人类义务来加以调节或制衡。人类未来将如何呈现,这取决于人类在人工智能时代的角定。
人工智能革命发生之迅猛,将超过大多数人的预期。除非我们发展出新的概念来解释、演绎和组织其所带来的转变,否则无论是对人工智能还是对其所产生的影响,我们都无法驾驭。在道德上、哲学上、心理上、实践上,可以说在各个方面,我们均发现自己正处于一个新时代的悬崖边,身后已无路可退。我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人类的现实。
人工智能时代的到来将改变我们与他人,以及我们与自己的关系。正如今天的“数字原生代”和之前的几代人之间存在代沟一样,“人工智能原生代”和他们的前辈之间也会出现差异。
未来,孩子们可能在比Alexas和谷歌Homes更先进的人工智能助手的陪伴下长大,这个助手集保姆、导师、顾问、朋友等多种角色于一身。这样的助手几乎可以教孩子任何语言,也可以训练孩子学习任何科目,并根据每个学生的表现和学习风格来因材施教,使他们获得最佳的学习效果。当孩子感到无聊时,人工智能可以充当玩伴;当孩子的父母不在时,人工智能又可以成为监护者。随着由人工智能提供和量身定制的教育被引入,普通人的能力既会有所提高,也会面临挑战。
人类和人工智能之间的界限将会惊人地模糊。如果孩子在年幼之时就用到了数字助手,他们就会对此习以为常。同时,数字助手将与它们的主人一起成长发展,并随着他们的成熟,将他们的喜好和偏见逐渐内在化。数字助手的任务是通过个性化最大限度地提高人类同伴的便利感或满足感,它们给出的建议和信息可能会被人类用户视为必不可少,即使人类用户无法准确解释为什么它们要好于其他任何替代资源。
长此以往,人们可能会更偏爱自己的数字助手,而不是人类。因为人类不懂得投其所好,而且更“令人讨厌”。结果,我们对彼此的依赖、对人际关系的依赖,可能都会被削弱。到那时,那些童年时代妙不可言的特质和无可替代的教训将变成什么样子呢?一种并不能感知或体验人类情感却给予无处不在陪伴的机器,将如何影响孩子对世界的感知及其社会化?它将如何塑造想象力?它将如何改变游戏的本质?它将如何改变交友或融入社会的过程?
可以这么说,数字信息的唾手可得已经改变了一代人的教育和文化体验。现在,世界正在开展另一项“伟大实验”,在这个实验中,孩子们将在机器的陪伴下成长,这些机器将在许多方面充当以前世代人类教师那样的角色,却没有人类的感觉、洞察力和情感。最终,实验参与者可能会问,他们的经历是否以他们未曾预料或不能接受的方式被改变了呢?
父母也许会因为担心这种接触会对孩子产生不确定的影响而排斥这种技术。就像上一代的父母限制孩子看电视的时间,现在的父母限制孩子使用数码设备的时间一样,未来的父母可能会限制人工智能陪伴孩子的时间。但那些希望推动孩子取得成功的人,或者没有意愿或能力让孩子得到人类父母养育或人类导师教导而只能依赖人工智能的人,或者只是想满足孩子结交人工智能朋友愿望的人,可能会赞成让孩子与人工智能为伴。因此,这些尚处在学习与发展阶段、易受影响的孩子,可能通过与人工智能的对话形成他们对世界的印象。
具有讽刺意味的是,尽管数字化让慢慢的变多的信息变得可用,但它却压缩了深入、专注思考所需的空间。今天几乎持续不断的媒体流增加了思考的成本,从而减少了思考的频率。算法为了回应人类对刺激的渴望而力推那些夺人眼球的事物,而能够夺人眼球的,往往也是戏剧性的、出人意料的和有感染力的。一个人能否在这种环境中找到思考的空间是一个问题,而如今占主导地位的交流形式不利于促进有节制的理性,这是另一个问题。
机器学习系统已经超越了任何一个人的知识。在有限的情况下,它们已经超过了人类的知识,超越了我们所认为的可知边界。这已经在取得这种突破的领域引发了一场革命。人工智能已经改变了生物学中确定蛋白质结构的核心问题和高级数学家做证明的问题,以及其他许多问题。
随着模型从人类生成的文本转向更具包容性的输入,机器可能会改变现实本身的结构。量子理论认为,观察创造了现实。在测量之前,没有任何状态是固定的,也没有任何东西可以说是存在的。如果这是真的,如果机器的观察也能固定现实,并且鉴于人工智能系统的观察具有超人的速度,定义现实的演变速度似乎会加快。对机器的依赖将决定并因此改变现实的结构,产生一个我们还不了解的新未来,我们一定要为探索和领导这个未来准备好。
传统的理性和信仰将在人工智能时代继续存在,但其性质和范围必将因为引入一种新的、强有力的、机器运作的逻辑形式而受到深刻影响。人类身份可能会继续停留在“生命智能”的顶峰,但人类理性将不再被视为致力于理解现实的智能的全部。为了厘清我们在这样一个世界上的地位,我们的侧重点在大多数情况下要从“以人类理性为中心”转移到“以人类尊严和自主性为中心”。
在特定领域,人类可能会对人工智能言听计从,更喜欢人工智能的数据处理过程,而非人类思维的局限性。这种遵从,可能使许多人甚至大多数人退回到一个个人的、过滤的、定制的世界。在这种情境下,人工智能的力量加上它的普遍性、隐蔽性和不透明性,将引发人们对自由社会甚至自由意志前景的怀疑。
在许多领域,人工智能和人类将成为探索事业中的平等伙伴。因此,人类的身份将反映出与新关系的和解,无论是与人工智能还是与现实。不同的社会将为人类领导权开辟不同的领域。同时,它们将形成必要的社会结构和习惯,以理解人工智能并与其有效互动。为了与人工智能融洽相处,社会需要建立相应知识和心理基础设施,并运用其独特才智,尽可能地造福人类。技术将迫使政治和社会生活的许多方面(实际上是大多数方面)做出调整。
一些社会和制度可能会逐步适应,然而,另一些却可能会发现,它们的基本假设与它们感知现实和自身的方式相冲突。由于人工智能促进了教育和信息获取,同时也增加了信息被夸大和操纵的可能性,这些冲突可能会愈演愈烈。个人的消息会更灵通、准备会更充分、观点会有更大影响力,他们可能据此对政府提出更多要求。
对此,可以给出一些原则。首先,为了确保人类的自主权,政府的核心决策应该脱离已被人工智能浸染的结构,并仅限于人类的管理和监督。我们社会固有的原则规定了对争端的和平解决。在这个过程中,秩序与正当性是互为关联的:没有正当性的秩序只是力量而已。
确保人类对政府基本构成部分的监督和决定性参与,对于维持其正当性至关重要。例如,在司法行政过程中,提供解释和道德推理是其正当性的关键要素,这使参与者能够评估裁决的公平性,并在其结论不符合社会所坚持的道德原则时对其提出疑问。由此可见,在人工智能时代,当涉及重大问题时,决策者都应该是具备相应资质、能够为所做选择给出理由的非匿名人类。
每个社会必须首先确定AI在所有的领域允许和不允许使用的全部范围。对某些强大的人工智能,如通用AI的使用权,需要严格把关,以防止被滥用。因为通用人工智能的构建成本可能相当高昂,只有少数组织能够负担得起,所以其使用可能会受到限制。某些限制可能违反一个社会关于自由企业和民主进程的理念。对于其他方面的限制,如限制在生物武器生产中用AI,应该很容易达成一致,但需要国际合作。
机器的发展速度将远远超过我们的基因,造成国内的混乱和国际的分歧。我们必须做出相应的反应,特别是在国家和全球范围内的哲学和概念主义。正如伊曼纽尔-康德在三个世纪前所预言的那样,全球协调将需要通过感知或灾难来出现。
欧盟已经勾勒出监管人工智能的计划纲要,目标是加强对企业和政府使用数据和人工智能方式的管理,并促进欧洲人工智能公司的创建和发展。该监管框架包括对人工智能的各种用途进行风险评估,并限制甚至禁止政府使用某些被视为具有高风险的技术,如人脸识别(尽管人脸识别有一些有益用途,如寻找失踪人口和打击人口贩运)。毫无疑问,这些初步概念会面临广泛的争议和修改,但这也是一个社会决定限制人工智能范围,并相信此举能够使其推动生活方式进步和未来发展的先例。
ChatGPT对很多问题给出的答案之所以令人回味,是因为它们提出的问题多于结论。目前,我们拥有一项新颖而壮观的成就——人工智能,它是人类思想的荣耀。我们还没有为它进化出一个目的地。当我们成为技术智人时,我们迫切地需要定义我们物种的目的。现在,我们有责任提供真正的答案。
AI时代来临,将带来划时代的变革。人工智能正改变我们的社会、经济、政治和外交政策,这一切影响远远超过任何领域的传统范畴,而我们为此做好准备了吗?
在《人工智能时代与人类未来》一书中,来自政府、企业和科技界的三位思想家——外交家基辛格、谷歌前CEO施密特和麻省理工苏世民计算机学院院长胡滕洛赫尔齐聚一堂,探讨人工智能及其改变社会的方式,以及这项技术对我们所有人的意义。
本书通过梳理人工智能的发展现状、人类思想及技术演进的历程,进一步讨论了人工智能赋能的网络平台给个人、企业、政府、国家和地区带来的影响,以及AI将在重塑世界秩序和安全格局方面所起的作用。同时,该书反思了人工智能的发展对于人类自我身份认同产生的巨大冲击,以客观的视角提出人类在未来几年所必须面对的问题以及解答工具。
哈佛大学博士、教授,美国前国务卿,外交家、国际问题专家。主要著作《论中国》《世界秩序》等。
谷歌前CEO、执行董事长,Alphabet公司(谷歌母公司)前执行董事长。2001—2011年,在他的协助下,谷歌成长为科技行业的全球领航者。
麻省理工学院苏世民计算机学院院长,曾担任康奈尔理工学院的创始院长和副教务长,这是一所由康奈尔大学创建的以数字技术为导向的研究生院。
- 上一篇: 印刷术改变了书、改变了人新文化中心形成“文艺复兴”随之开始
- 下一篇: 互联网:改变世界的“第五元素”