示意图。(Oleksii Pydsosonnii/英文大.纪.元;)
人工智能(AI)界掀起前所未见的示警浪潮。周三(10月22日),包括苹果公司共同创办人史蒂夫‧沃兹尼亚克(Steve Wozniak)和维珍集团创办人理查德‧布兰森(Richard Branson)在内的850多位公众人物和专家,联名签署一份公开声明,呼吁各界立即停止研发“超级智能”(superintelligence),这是一种几乎在所有认知上都能超越人类的AI技术。
这份《超级智能声明》(Statement on Superintelligence),由AI领域的多位重量级学者率先发起,其中包括被誉为现代AI“教父”的两位电脑科学家:约书亚‧本吉奥(Yoshua Bengio)和杰夫‧辛顿(Geoff Hinton),以及加州大学伯克利分校的AI领域权威史都华‧罗素(Stuart Russell)等人。
声明警告,若不加限制地推进超级智能研发,恐将导致“人类经济地位被取代、自由和尊严丧失、国家安全受威胁,甚至可能造成文明灭绝”。
签署者呼吁全面禁止研发超级智能,直到各国能够获得强烈的公众支持和科学界共识,并确保相关技术能被安全建构和控制。
该声明获得了各领域人士的支持,签名者不仅有科技和学术界人士,还有宗教领袖、媒体名人和美国两党前政要。其中包括前参谋长联席会议主席麦克‧马伦(Mike Mullen)、前国家安全顾问苏珊‧赖斯(Susan Rice),以及保守派媒体人史蒂夫‧班农(Steve Bannon)和格伦‧贝克(Glenn Beck)。
英国的哈利王子和妻子梅根、前爱尔兰总统玛丽‧罗宾逊(Mary Robinson)也在联署名单中。截至周三,名单人数仍在不断增加。
目前,超级智能已成为人工智能领域的一个热门词,各家公司——从埃隆‧马斯克(Elon Musk)的xAI到山姆‧奥特曼(Sam Altman)的OpenAI——都在竞相发布更先进的大型语言模型;Meta公司甚至将其大型语言模型部门命名为“Meta超级智能实验室”。
值得注意的是,像马斯克和奥特曼这样全球AI产业的领军人物,过去也多次公开警告“超级智能”的风险。早在2015年,奥特曼就指出,“超人类机器智能(SMI)的发展,很可能是人类持续存在的最大威胁”。今年早些时候,马斯克在一个播客节目中表示,先进AI导致人类灭绝的概率“约有20%”。
《超级智能声明》引用“未来生命研究所”(Future of Life Institute)的一项最新调查指出,仅有5%的美国成年人支持目前“快速且不受监管”的超级智能开发,而大多数受访者认为,在证明“超级智能”技术安全和可控之前,不应继续推进,并呼吁政府加强对AI实施严格管控。
本吉奥在声明中指出,AI系统可能在几年内,在大多数认知中超越大多数人。它可能帮助人类解决全球问题,但也存在着巨大风险。“为了安全迈向超级智能,我们必须以科学方法设计AI,使其从根本上无法伤害人类。”他说,“我们还需要确保公众在决定我们共同未来的事项上拥有更大的发言权。”

