OpenAI:人工智能将在 10 年内“在大多数领域超过专家技能水平”
如果您认为 ChatGPT 是智能的,请等到您听到 OpenAI 对“超级智能”AI 的设想。
图片:Shutterstock
振作起来:超级智能 AI 即将到来。
OpenAI 首席执行官 Sam Altman、OpenAI 总裁 Greg Brockman 和 OpenAI 首席科学家 Ilya Sutskever 共同撰写的一篇博文警告说,人工智能的发展需要严格监管,以防止出现潜在的灾难性情况。
“现在是开始考虑超级智能治理的好时机,”Altman 说,他承认未来的 AI 系统在能力方面可能会大大超过 AGI。“鉴于我们现在看到的情况,可以想象在未来十年内,人工智能系统将在大多数领域超越专家技能水平,并开展与当今最大的公司之一一样多的生产活动。”
为了回应Altman最近在国会作证时提出的担忧,三人概述了他们认为对未来战略规划至关重要的三大支柱。
“起点”
首先,OpenAI 认为必须在控制和创新之间取得平衡,并推动达成一项社会协议,“让我们既能维护安全,又能帮助这些系统与社会顺利融合。”
接下来,他们支持“国际权威机构”的想法,负责系统检查、审计执行、安全标准合规性测试以及部署和安全限制。将其与国际原子能机构相提并论,他们提出了全球 AI 监管机构的样子。
最后,他们强调需要“技术能力”来保持对超级智能的控制并使其“安全”。这意味着什么仍然是模糊的,即使是对 OpenAI 来说也是如此,但该帖子警告不要采取繁重的监管措施,例如对低于超级智能标准的技术进行许可和审计。
从本质上讲,这个想法是让超级智能与其训练者的意图保持一致,防止出现“foom scenario”人工智能能力快速、无法控制的爆炸,超过人类的控制。
OpenAI 还警告说,不受控制的 AI 模型开发可能对未来社会产生潜在的灾难性影响。该领域的其他专家已经提出了类似的担忧,从AI 教父到Stability AI 等AI 公司的创始人,甚至是过去参与 GPT LLM 培训的OpenAI 工作人员。这种对 AI 治理和监管采取积极主动方法的紧急呼吁,引起了世界各地监管机构的关注。
“安全”超级智能的挑战
OpenAI 认为,一旦解决了这些问题,就可以更自由地发挥 AI 的潜力。他们说,“这项技术可以改善我们的社会,每个人使用这些新工具的创造力肯定会让我们感到惊讶。”
作者还解释说,该领域目前正在加速增长,这一点不会改变。博客中写道,“阻止它需要类似全球监视制度的东西,即使这样也不能保证有效。”
尽管面临这些挑战,OpenAI 的领导层仍然致力于探索这个问题,“我们如何确保实现保持超级智能安全的技术能力?” 如果现在没有答案,但它肯定需要一个 ChatGPT 无法提供的答案。
微信扫描关注公众号,及时掌握新动向
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场