人工智能专家签署文件,比较“人工智能灭绝”与流行病、核战争的风险

中金网 阅读 33378 2023-5-31 16:34
分享至
微信扫一扫,打开网页后点击屏幕右上角分享按钮

数十位人工智能 (AI) 专家,包括 OpenAI、Google DeepMind 和 Anthropic 的首席执行官,最近签署了一份由人工智能安全中心 (CAIS) 发布的公开声明。

我们只是发表声明:

“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”

签名者包括 Hinton、Bengio、Altman、Hassabis、Song 等

(1 6)

— 丹·亨德里克斯 (@DanHendrycks) 30年2023月XNUMX日

该声明包含一个句子:

“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”

在该文件的签署者中,有名副其实的 AI 名人录,包括 AI 的“教父”Geoffrey Hinton; 加州大学伯克利分校的 Stuart Russell; 和麻省理工学院的 Lex Fridman。 音乐家格莱姆斯也是签约人,列在“其他著名人物”类别下。

虽然该声明表面上看起来无伤大雅,但潜在的信息在 AI 社区中颇具争议。

似乎越来越多的专家认为,当前的技术可能或将不可避免地导致能够对人类物种构成生存威胁的人工智能系统的出现或发展。

然而,他们的观点遭到一群持有截然相反意见的专家的反驳。 例如,Meta 首席人工智能科学家 Yann LeCun 曾多次指出,他不一定相信人工智能会变得无法控制。

超人人工智能远不及存在风险列表的首位。

很大程度上是因为它还不存在。

在我们为狗级别的人工智能(更不用说人类级别)制定基本设计之前,讨论如何使其安全还为时过早。

- Yann LeCun(@ylecun) 30年2023月XNUMX日

对于他和其他不同意“灭绝”论调的人,例如谷歌大脑的联合创始人、百度前首席科学家吴恩达,人工智能不是问题,而是答案。

另一方面,Hinton 和 Conjecture 首席执行官 Connor Leahy 等专家认为,人类级别的人工智能是不可避免的,因此,现在是采取行动的时候了。

所有主要 AI 实验室的负责人都签署了这封信,明确承认 AGI 灭绝的风险。

这是向前迈出的令人难以置信的一步,祝贺 Dan 所做的令人难以置信的工作,并感谢每一位签署者为更美好的未来做出的贡献!

— 康纳·莱希 (@NPCollapse) 30年2023月XNUMX日

然而,尚不清楚声明的签署者要求采取什么行动。 几乎所有主要 AI 公司的 CEO 和/或 AI 负责人,以及来自学术界的知名科学家都在签名者之列,这表明他们的意图并不是要阻止这些具有潜在危险的系统的开发。

本月早些时候,上述声明的签署人之一 OpenAI 首席执行官山姆·奥特曼 (Sam Altman) 在参议院举行的讨论人工智能监管的听证会上首次亮相国会。 在他用大部分时间敦促立法者规范他的行业后,他的证词成为头条新闻。

Altman 的 Worldcoin 是一个结合了加密货币和身份证明的项目,在筹集了 115 亿美元的 C 轮融资后,最近也获得了媒体的关注,使其在三轮融资后的总融资额达到 240 亿美元。

btcfans公众号

微信扫描关注公众号,及时掌握新动向

免责声明:
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
标签: 人工智能 OpenAI
上一篇:随着机构购买的早期迹象出现,比特币 (BTC) 将达到 3 万美元 下一篇:Nansen 解雇了 30% 的员工

相关资讯