OpenAI CEO 呼吁成立新的 AI 监管机构
同时,IBM 和纽约大学的专家建议关注人工智能的安全性、透明度和风险。
图片:Sam Altman 在美国参议院司法委员会作证
本月第二次,OpenAI CEO Sam Altman 前往华盛顿与美国决策者讨论人工智能。Altman 与 IBM 首席隐私与信任官 Christina Montgomery 和纽约大学名誉教授 Gary Marcus 一起出现在美国参议院司法委员会。
当路易斯安那州参议员约翰·肯尼迪(John Kennedy)询问他们应该如何监管人工智能时,Altman 说应该成立一个政府办公室并负责制定标准。
Altman 说:“我将成立一个新机构,对任何超过一定规模能力的努力进行许可,并且可以取消该许可并确保符合安全标准,”他补充说,这个未来的机构应该要求对任何 AI 进行独立审计技术。
“不仅来自公司或机构,还有专家可以说该模型符合或不符合国家和安全阈值以及问题 X 或 Y 的这些性能百分比,”他说。
虽然 Altman 说政府应该监管这项技术,但他对自己领导该机构的想法犹豫不决。他说,“我热爱我目前的工作。”
Marcus 教授以 FDA 为例说,应该对人工智能进行安全审查,这类似于药物上市前的审查方式。
“如果你要向 1 亿人介绍一些东西,就必须有人关注它,”马库斯教授补充道。
他说,该机构应该灵活并能够跟进行业中正在发生的事情。它将对项目进行预审,并在向世界发布后对其进行审查,并有权在必要时召回该技术。
“这又回到了 AI 的透明度和可解释性,”IBM 的 Montgomery 补充道。“我们需要定义最高风险的使用,并且要求影响评估和透明度,要求公司展示他们的工作,并首先保护用于训练人工智能的数据。”
世界各国政府继续努力应对主流人工智能的扩散。去年 12 月,欧盟通过了一项人工智能法案,以促进公共当局建立的监管沙箱,以便在人工智能发布之前对其进行测试。
欧洲议会写道:“为了确保欧洲人工智能以人为本和符合道德的发展,欧洲议会议员批准了人工智能系统的新透明度和风险管理规则。”
今年 3 月,意大利以隐私问题为由禁止了 OpenAI 的 ChatGPT。在 OpenAI 更改其隐私设置以允许用户选择不使用他们的数据来训练聊天机器人并关闭他们的聊天记录后,该禁令于 4 月解除。
“关于我们是否需要一个独立机构的问题,我认为我们现在不想放慢监管以应对真正的风险,” Montgomery 继续并补充说道,监管机构已经存在,可以在各自领域进行监管。
她确实承认,这些监管机构资源不足,缺乏必要的权力。
Montgomery 说,“本质上,人工智能应该在风险点受到监管,这将是技术与社会相遇的时刻。”
Scan QR code with WeChat