著名物理学家霍金(Stephen Hawking)认为,除非能够找到控制人工智能(AI)发展的方法,否则AI的出现可能是“人类文明史上最糟糕的事件”。
霍金周一在葡萄牙里斯本一场科技大会上讲话时谈到人工智能的潜力,例如帮助消除人类对自然界造成的损害、消除贫穷和疾病,社会的每方面都在被“改造”。他称,从理论上而言,电脑可以类比人类智慧,甚至超越人脑,但承认未来是不确定的。
霍金强调,成功创造有效的AI,可能是人类文明史上最重大的事件,但也可能是最糟糕事件,因为无法知道人类是否会得到AI的无限帮助,还是被藐视、被边缘化,甚至被毁灭。他认为,除非人类学会如何准备,并避免潜在风险,否则AI会带来危险,比如强大的自主武器,或者让少数人压迫多数人的新途径,亦可能给经济带来巨大破坏。
霍金解释说,为了避免这种潜在的现实,AI创造者需要“采取最佳实践和有效管理”。他又表示,自己是一个乐观主义者,相信人类能够创造对世界有益的AI,可以和人类和谐地工作,人类只是需要意识并找出危险,采取尽可能最好的实践和管理,并提前为可能的后果做准备。
这并非霍金首次警告AI风险,科技行业一些重要人物亦曾表达对AI的担忧。特斯拉(Tesla)首席执行官马斯克(Elon Mask)最近表示,AI可能导致第三次世界大战,甚至提出人类与机器相结合,进化成某种半机器人,才能避免被AI打败。

