以太坊联合创始人 Vitalik Buterin 对超级智能 AI 的风险以及强大防御机制的必要性发出了警告。布特林发表上述言论之际,人工智能正快速发展,人们对人工智能安全的担忧也显著增加。
在 1 月 5 日的一篇博客文章中,Vitalik Buterin概述了“d/acc 或防御性加速”背后的想法,即技术应该用于防御而不是造成伤害。然而,这并不是 Buterin 第一次公开谈论与人工智能相关的风险。
布特林在 2023 年表示:“人工智能出错的一种方式可能会让世界变得更糟,(几乎)是最糟糕的方式:它可能会导致人类灭绝。”
现在,Buterin 已经开始跟进他从 2023 年开始提出的理论。根据 Buterin 的说法,超级智能可能只需几年的时间就能实现。

看起来我们距离 AGI 的出现还有三年时间,距离超级智能的出现还有三年时间。因此,如果我们不想让世界毁灭或陷入不可逆转的陷阱,我们就不能只加速好事的发生,还必须减缓坏事的发生。
为了减轻与人工智能相关的风险,Buterin 主张创建与人类决策紧密相关的去中心化人工智能系统。通过确保人工智能仍然是人类手中的工具,可以**限度地减少灾难性后果的威胁。
布特林随后解释了军队如何成为“人工智能末日”的罪魁祸首。人工智能军事应用在全球范围内不断增加,乌克兰和加沙就是明证。布特林还认为,任何生效的人工智能法规都很可能将军队排除在外,这使得军队成为重大威胁。
以太坊联合创始人进一步概述了他对人工智能使用的监管计划。他表示,避免与人工智能相关的风险的第一步是让用户承担责任。
虽然模型的开发方式和最终使用方式之间的联系通常不清楚,但用户确实决定了人工智能的使用方式。
如果责任规则不起作用,下一步将是实施“软暂停”按钮,让人工智能监管减缓潜在危险进步的速度。
我们的目标是在关键时期内,将全球可用的计算能力减少约 90-99%,持续 1-2 年,为人类做好准备。暂停可以通过AI位置验证和注册来实现。
另一种方法是控制人工智能硬件。人工智能硬件可以配备芯片来控制它。只有每周获得三个国际机构的签名,芯片才能让人工智能系统正常运行。其中至少一个机构应与军事无关。尽管如此,Buterin也承认他的策略存在漏洞,只是“权宜之计”。
文章标题:超级人工智能可能比你想象的更快到来
文章链接:https://www.btchangqing.cn/670674.html
更新时间:2025年01月06日
本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。