当前位置:首页币圈资讯超级人工智能可能比你想象的更快到来

超级人工智能可能比你想象的更快到来

以太坊联合创始人 Vitalik Buterin 对超级智能 AI 的风险以及强大防御机制的必要性发出了警告。布特林发表上述言论之际,人工智能正快速发展,人们对人工智能安全的担忧也显著增加。

在 1 月 5 日的一篇博客文章中,Vitalik Buterin概述了“d/acc 或防御性加速”背后的想法,即技术应该用于防御而不是造成伤害。然而,这并不是 Buterin 第一次公开谈论与人工智能相关的风险。

布特林在 2023 年表示:“人工智能出错的一种方式可能会让世界变得更糟,(几乎)是最糟糕的方式:它可能会导致人类灭绝。”

现在,Buterin 已经开始跟进他从 2023 年开始提出的理论。根据 Buterin 的说法,超级智能可能只需几年的时间就能实现。

超级人工智能可能比你想象的更快到来

看起来我们距离 AGI 的出现还有三年时间,距离超级智能的出现还有三年时间。因此,如果我们不想让世界毁灭或陷入不可逆转的陷阱,我们就不能只加速好事的发生,还必须减缓坏事的发生。

为了减轻与人工智能相关的风险,Buterin 主张创建与人类决策紧密相关的去中心化人工智能系统。通过确保人工智能仍然是人类手中的工具,可以**限度地减少灾难性后果的威胁。

布特林随后解释了军队如何成为“人工智能末日”的罪魁祸首。人工智能军事应用在全球范围内不断增加,乌克兰和加沙就是明证。布特林还认为,任何生效的人工智能法规都很可能将军队排除在外,这使得军队成为重大威胁。

以太坊联合创始人进一步概述了他对人工智能使用的监管计划。他表示,避免与人工智能相关的风险的第一步是让用户承担责任。

虽然模型的开发方式和最终使用方式之间的联系通常不清楚,但用户确实决定了人工智能的使用方式。

如果责任规则不起作用,下一步将是实施“软暂停”按钮,让人工智能监管减缓潜在危险进步的速度。

我们的目标是在关键时期内,将全球可用的计算能力减少约 90-99%,持续 1-2 年,为人类做好准备。暂停可以通过AI位置验证和注册来实现。

另一种方法是控制人工智能硬件。人工智能硬件可以配备芯片来控制它。只有每周获得三个国际机构的签名,芯片才能让人工智能系统正常运行。其中至少一个机构应与军事无关。尽管如此,Buterin也承认他的策略存在漏洞,只是“权宜之计”。

温馨提示:

文章标题:超级人工智能可能比你想象的更快到来

文章链接:https://www.btchangqing.cn/670674.html

更新时间:2025年01月06日

本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。

币圈资讯

Ethena计划在2025年路线图中USDE来采用TradFi

2025-1-4 6:57:35

币圈资讯

Block即将成为首家进入标准普尔500指数的比特币财务公司

2025-1-10 8:48:55

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索