人工智能将拯救人类,还是终结人类?
关于人工智能未来的尖锐分歧
本周,四位杰出的技术专家与超人类主义者在辩论中展现了深刻对立:构建通用人工智能究竟是会拯救人类,还是将其摧毁。此次由非营利组织 Humanity 主办的讨论汇集了最为直言不讳的 AI “末日论者”之一埃利泽·尤德科夫斯基——他曾呼吁暂停** AI 的研发——与哲学家兼未来学家马克斯·莫尔、计算神经科学家安德斯·桑德伯格以及 Humanity 荣誉主席娜塔莎·维塔‑莫尔同台交锋。
他们的讨论揭示了根本性分歧:通用人工智能是否能够与人类生存目标保持一致,抑或其诞生将使得人类灭**可避免。
尤德科夫斯基警告称,现代人工智能系统从根本上是不安全的,因为其内部决策过程无法被充分理解或控制。“**黑箱系统都可能**面临与当前技术惊人相似的问题,”他指出。他认为,人类必须“**远离当前范式”,才能安全地发展**人工智能。
通用人工智能指的是能够在广泛任务中进行推理和学习的一种 AI 形态,而非专为文本、图像或视频生成等单一任务而构建。通用人工智能常与技术奇点的概念相关联,因为达到那种智能水平可能使机器以人类无法企及的速度自我改进。
尤德科夫斯基援引哲学家尼克·博斯特罗姆推广的“回形针**化器”比喻来说明风险。这一思想实验设想了一个假想的人工智能,它会将所有可用物质转化为回形针,为追求单一目标而牺牲人类。尤德科夫斯基表示,增加更多目标并不会实质性地提升安全性。
提及他近期关于 AI 的著作标题时,他说道:“我们的标题并非‘它可能杀死你’,而是‘如果有人建造了它,所有人都会死’。”
对谨慎路径的质疑
然而,莫尔对“极度谨慎能带来最安全结果”的前提提出了挑战。他认为,通用人工智能或许能为人类克服衰老与疾病提供**契机。“对我而言最重要的是,通用人工智能可能帮助我们防止每个因衰老而走向消亡的人灭绝,”莫尔表示,“我们都在死去,正一步一步地走向灾难。”他警告,过度的约束可能迫使政府采取威权控制,以此作为阻止全球 AI 发展的**手段。
桑德伯格则将自己定位在两种阵营之间,形容自己“较为乐观”,但仍比超人类主义的乐观者们更为谨慎。他分享了一次个人经历,当时他几乎利用大语言模型协助设计生物武器,他称这一事件“令人惊骇”。
“我们正走到一个节点,放大恶意行为者的能力也将造成巨大混乱,”桑德伯格说。尽管如此,他认为部分或“近似安全”是可以实现的。他反对“安全必须**才有意义”的观点,提出人类至少能在生存等**限度的共享价值上达成一致。
“所以如果你要求**安全,那你将无法得到它。从这个角度看,这非常糟糕,”他说,“但另一方面,我认为我们实际上可以实现近似安全。这就足够了。”
对“对齐”概念的批判
维塔‑莫尔批评了更广泛的“对齐”辩论本身,认为这一概念假定了一种共识水平,而即便在长期合作者之间,这种共识也并未存在。“对齐概念是一种盲目乐观的方案,”她说,“**无法对齐。我的意思是,即使在这里,我们都是好人。我们相识数十年,但我们并未对齐。”
她将尤德科夫斯基关于通用人工智能必然杀死所有人的论断描述为“**主义思维”,没有为其他结果留出空间。“我对‘所有人都会死’这种笼统断言感到不适,”她表示,“作为一名未来主义者和务实思考者来看待这个问题,这种说法没有留下**余地、**替代方案或其他可能场景。这只是一种生硬的断言,我怀疑它是否反映了一种**主义思维。”
人机融合的争论
讨论还涉及人机更紧密融合是否能缓解通用人工智能带来的风险——特斯拉**执行官埃隆·马斯克过去曾提出此类观点。尤德科夫斯基驳斥了与 AI 融合的想法,将其比作“试图与你的烤面包机融合”。
桑德伯格和维塔‑莫尔则主张,随着人工智能系统能力增强,人类将需要与之更紧密地整合或融合,以更好地应对通用人工智能出现后的世界。“这场完整的讨论是对我们人类本质的一次现实检验,”维塔‑莫尔总结道。
本文地址:https://licai.bestwheel.com.cn/qk/584757.html
文章标题:人工智能将拯救人类,还是终结人类?
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。






