首页AI 新闻
ChatGPT之父舌战国会山!OpenAI欲与政府联手,权力通天
4

ChatGPT之父舌战国会山!OpenAI欲与政府联手,权力通天

好说新闻
好说新闻
2023-05-17 16:11
Sam Altman 也迎来「周受资时刻」了,在国会山听证会上,他备受议员尊敬。OpenAI 和政府一联合,他是要成为 rulemaker、登顶硅谷之王了?

上次是周受资,这次,轮到了 Sam Altman。

不过这一次,国会议员对他的态度截然不同——友好,耐心,做足了功课,虚心请教。

北京时间昨晚,OpenAI CEO Sam Altman 在美国参议院就 AI 技术的潜在危险作证,并敦促立法者对制造先进 AI 的组织实施许可要求和其他法规。

Sam Altman 不用接受刁钻的问话,他坐在席位上游刃有余、侃侃而谈,再次向世界证明:作为全世界最受瞩目的初创公司 CEO,他在书写着科技世界的规则和未来。

面对美国国会,Sam Altman 再次斩钉截铁地保证:在未来六个月内,OpenAI 坚决不会训练 GPT-5。

同时, 他也对全世界发出警告:AI 有可能会对世界有害,为了应对日益强大的 AI 风险,我们需要加强监管和立法,而政府的干预极为重要。

为啥 Altman 对政府监管如此积极呢?

显然,只要成为规则制定者,就能在竞争中赢者通吃。

而对于在硅谷靠着「社牛」属性闯出一片天地的 Altman,和政府打交道,简直轻松得如同探囊取物。

用 AI 生成的开场演讲

作为科技界异军突起的新力量,OpenAI 在成立 8 年后,在今年以迅雷不及掩耳之势搅动了全世界,逼得所有科技公司都参与进了一场以 ChatGPT 为起点的全球内卷。

这场全球 AI 军备竞赛,让不少专家警铃大作。

不过这次听证会,参议院的议员们并没有批评 OpenAI 的技术带来的混乱,而是谦逊地就 ChatGPT 的潜在规则征求了证人们的意见,对 Sam Atlman 的态度是肉眼可见的友好和尊敬。

‍听证会一开始,参议员 Richard Blumenthal 使用了声音克隆软件复制自己的音色,让 ChatGPT 写了一段开场白,使用数小时的演讲训练了一个文本到语音生成器。

此举证明,国会「拥抱 AI」的态度旗帜鲜明。

AI 危险,请监管我们

这一场听证会上,立法者明显非常兴奋,与他们曾经对小扎和周受资步步紧逼的质疑形成了鲜明对比。

参议员们没有喋喋不休地谈论过去的错误,而是对 AI 可能带来的好处充满渴望。

而 Altman 开门见山地告诉参议院:AI 技术可能会出错。

他表示,自己很担心人工智能行业对世界造成重大伤害(cause significant harm to the world)。

「如果 AI 技术出错,造成的后果不堪设想。我们需要对此发声:我们希望与政府合作,防止这种情况发生。」

「我们认为,政府的监管干预对于减轻日益强大的 AI 模型的风险,至关重要。比如,美国政府可以考虑将许可和测试的要求结合起来,以开发和发布超过能力阈值的 AI 模型。」

Altman 表示,自己非常担心选举会受到 AI 生成内容的影响,因此在这方面需要有足够的监管。

对此,参议员 Dick Durbin 表示,大公司来到参议院「恳求我们的监管」,是很了不起的行为。

Altman 提出三点方案:

怎么监管?Altman 早就替政府想好了。

在听证会上,他提出一个成体系的方案。

1、成立一个新的政府机构,负责为大型 AI 模型颁发许可,撤销不符合标准的模型的许可。

而对于能力远达不到最先进的大模型的技术,他认为不需要使用这种许可监管制度。国会可以「定义能力阈值」,免除小型公司和研究人员可能遇到的监管负担,鼓励创新。

2、为 AI 模型创建一套安全标准,包括对其危险能力的评估。例如,模型必须通过安全测试,比如它们是否可以「自我复制」和「流出到监管之外」。

3、要求独立专家对模型在各种指标上的表现进行独立审计。

当参议员问他是否愿意担任这个角色时,Altman说:我对目前的工作感到满意,不过他很愿意提供一个名单供国会挑选。

Altman 说,因为 AI 模型可以「说服、操纵、影响一个人的行为、信仰」,甚至「创造新的生物制剂」,因此,非常需要许可。

对所有超过一定计算能力阈值的系统进行许可会更简单,但 Altman 表示,自己更愿意根据特定能力划定监管线。

那 OpenAI 自己的模型安不安全呢?

Altman 一再表示,大家可以放心。

他说,GPT-4 模型比其他任何类似模型做出的回应都会更有意、更真实,并且一定会拒绝有害的请求,因为 GPT-4 经过了广泛的预发布测试和审计。

「在发布任何新系统之前,OpenAI 会进行广泛的测试,聘请外部专家进行详细审查和独立审计,改进模型的行为,并实施强大的安全和监控系统。」

「在发布 GPT-4 之前,我们花了六个多月的时间进行广泛的评估、外部红队和危险能力测试。」

并且在上个月,ChatGPT 的用户已经可以关闭聊天记录,防止自己的个人数据被用来训练 AI 模型了。

不过呢,也有眼尖的群众发现了「华点」,Altman 的提议中,并没有涉及到公众热议的两点——

  1. 要求 AI 模型为其训练数据公开来源。
  2. 禁止 AI 模型使用受到知识产权保护的作品进行训练。

嗯,就是说,Altman 非常巧妙地回避了这两个争议点。

Altman 对于 AI 安全规则的提议,议员们大为赞许,并且偶尔会对他的证词表示感谢。参议员 R-LA 甚至向 Altman 抛出了橄榄枝,问他是否有意在国会创建的监管机构工作。

国会决心监管人工智能,早有前兆。本月初,Altman 同谷歌、微软和英伟达的 CEO 一同在白宫会见了副总统 Kamala Harris,讨论了负责任 AI 的发展。

而早在去年,白宫就曾提出「人工智能权利法案」,向业界提出各种要求,比如防止歧视。

类比原子弹,建议成立类似国际原子能机构的国际组织

参议员提出,把 AI 比作原子弹的说法。

而 Altman 参考世界各国政府监管核武器的做法,提出了组建一个类似于国际原子能机构的机构,来为该行业制定全球规则的想法。

OpenAI 在未来六个月内不会训练 GPT-5

在 4 月份 Lex Fridman 的第 2 轮访谈中,Sam Altman 言之凿凿地说:「我们现在并没有训练 GPT-5,目前只是在 GPT-4 的基础上进行更多的工作而已。」

这次听证会上,Altman 更是直接承认,OpenAI 在未来 6 个月内,没有训练可能成为 GPT-5 的新模型的计划。

而这应该意味着,谷歌将在今年晚些时候拥有其迄今为止最强大的人工智能系统——Project Gemini。

据说,Gemini 专为存储和调度等未来创新而设计,不仅从一开始就是多模态的,而且在集成工具和 API 方面效率很高。目前正由新成立的 Google Deepmind 团队研发。

马库斯:OpenAI 自称为了全人类,可数据不透明

纽约大学心理学和神经科学教授 Gary Marcus 也出现在了证人席上。

他的攻击性甚至比国会议员们还要强。

他对 Sam Altman 发出的提问,可谓「招招致命」。

OpenAI 成立的宗旨不是造福全人类么,如今为什么跑去和微软结盟?

OpenAI 不 Open,GPT-4 的训练数据不透明,到底是几个意思?

马库斯总结道:我们拥有前所未有的机会,但我们也面临着企业不负责任、广泛部署、缺乏适当监管和不可靠的可怕风险

在马库斯看来,Open 和微软的行事都大有问题。

曾经微软的必应 AI 悉尼,表现出了一系列令人震惊的行为。

「悉尼的问题很大,如果是我,会马上把它从市场上撤下,但微软并没有。」

马库斯表示,这件事给自己敲响了警钟——即使是像 OpenAI 这样的非盈利组织,也可能被大公司买下,然后想做什么就做什么。

但现在,人们的观点和生活都在潜移默化地被 AI 塑造和改变,如果有人故意利用 AI 技术,用于不良的目的呢?

马库斯对此表示非常担心。

「如果让一种技术官僚和寡头政治相结合,那少数公司就可以影响人们的信仰,这是真正的风险所在...... 让少数玩家使用我们根本不知道的数据来做到这一点,这让我感到害怕」

Altman 表示 AI 界并不存在垄断

针对一些常见的法律监管方面的问题,看得出来 Altman 早就成竹在胸,给各位参议员们安排得明明白白的。

参议员说,他对人工智能的「最大担忧」之一是「这种大规模的企业垄断」。

他举了 OpenAI 与科技巨头微软的合作为例。

Altman 表示,他认为能够制造大模型的企业数量相对较少,反而可能会更加方便监管。

例如,大型的生成式 AI,只有少数公司能够制造,但是竞争一直是存在的。

给大模型建立法律责任

美国国会 1996 年通过的第 230 条促进了社交媒体的兴起,该条款保护网站免于对用户的帖子承担责任。

Altman 认为:大模型现在没有办法受到 230 条的法律保护。应该制定新的法律保护大模型不会因为输出内容而承担法律责任。

巧妙回避最致命的问题

奥特曼最初回避了参议员提出的「AI 可能造成最严重的后果」。

但在马库斯友好地提醒 Altman 没有回答问题后,这位参议员重复了他的问题。

Altman 最终也没有正面回答这个问题。

他说,OpenAI 曾试图非常清楚人工智能的风险,这可能会以「很多不同的方式」对「世界造成重大伤害」。

他再次阐明。应对这个问题就是 OpenAI 成立的原因。「如果这项技术出了问题,它可能会大错特错。」

其实,在今年早些时候接受「StrictlyVC」采访时,Altman 称人类灭绝是最坏的情况。

最终,就连马库斯似乎也对奥特曼软化了。

在听证会快结束时,坐在 Altman 旁边的马库斯说,「他在谈论恐惧时的诚意非常明显,这种诚意在透过电视屏幕是没法感受到的。」

老练的科技领袖

跟小扎相比,Altman 此次听证会的表现十分老练,想来他作为社牛,对与政客们打交道早已游刃有余。毕竟,Altman 可是多年前就曾考虑过竞选加州州长的人物。

而且对比去听证会前因为数据隐私和虚拟货币已经「捅了大篓子 " 的小扎,Altman 背后的 OpenAI 不但几乎没有受到任何公众的指责,还是目前 AI 领域「万物竟发」局面的最主要开创者。

面对一上来就示好,呼吁对 AI 进行监管的 Altman,这些几乎都是「技术素人」的立法者自然在这位「权威」面前会显得温柔和蔼很多。

所以同样场合之下,Altman 身上的压力与小扎相比完全不是一个数量级。

大模型的商业模式

有参议院提出这种担心,如果像互联网社交平台一样,AI 产品如果采用广告为主的商业模式,会让操纵性的产品设计和令人上瘾的算法被滥用。

Altman 说自己「非常喜欢」订阅模式。

但是 OpenAI 确实考虑过在 ChatGPT 免费版中投放广告来从其免费用户那里赚钱的可能性。

参考资料:

https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/

https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai

转载自新智元查看原文

全部讨论

no data来都来了,坐下聊聊