2023.11.24

AI观察:OpenAI创始人突然被免职,安全担忧将如何影响AI未来

人工智能潜在风险如何管控?
 
 
【编者按】11月17日,OpenAI公司突然宣布罢免创始人Sam Altman的CEO职务。几小时后,OpenAI联合创始人、曾任董事会主席的Greg Brockman表示也将离开公司。
 
此消息震惊全球科技圈、投资圈。就在刚刚,媒体报道称,微软CEO纳德拉宣布,OpenAI创始人Sam Altman 和 Greg Brockman将加入微软。
 
Sam Altman与OpenAI董事会因何起纷争?今日,《互联网法律评论》转载一篇评论OpenAI公司突发人事变动的文章。 
 
在OpenAI首届开发者大会引发科技圈热议仅仅过去12天后,OpenAI于11月17日突然宣布,创始人Sam Altman被罢免CEO职务,再次震惊了全球科技圈。
 
走出去智库(CGGT)观察到,围绕此事件引发诸多猜测,目前业界普遍认为,最重要的分歧应该来自OpenAI未来的发展方向。目前,OpenAI在首届开发者大会公布了极具含金量的多项关键技术与产品,正要强力进行商业扩张,但OpenAI董事会部分董事更为看重AI未来的伦理和安全问题。因此,这一事件不仅对OpenAI的未来发展造成了巨大的不确定性,也将对整个AI行业的发展方向产生深远的影响。
 
OpenAI CEO被免职有哪些原因?AI未来发展何去何从?今天,我们刊发走出去智库(CGGT)特约青年专家黄辰的文章,供关注AI发展的读者参阅。
 
正 文
11月17日,OpenAI董事会突然宣布解雇其CEO Sam Altman,称其与董事会的沟通不够坦诚,因而对其领导能力失去信心。同时,OpenAI董事会宣布,曾担任CTO的Mira Murati将担任临时CEO。
 
在董事会发布消息后几小时内,OpenAI联合创始人、曾任董事会主席的Greg Brockman表示也将离开公司。
 
争议焦点:安全与商业
作为最受瞩目的人工智能平台,OpenAI突发领导层变动引起了相关领域强烈震动和众多媒体的关注。纽约时报称,Altman的突然退出是因为其与董事会在战略问题上的分歧:是否应控制人工智能的发展速度?限制速度是在保护用户还是剥夺人类发展的可能性?多家媒体提及,安全和商业化分歧是此前2018年特斯拉CEO Elon Musk与OpenAI断绝关系的原因,也是2020年一批OpenAI员工出走并创办竞争对手公司Anthropic的原因。相关争议不仅是OpenAI发展道路上的阻碍,也是人工智能领域长久以来面临的焦点争议,未来也将会是影响该领域发展方向与速度的重要因素。
 
根据彭博社报道,此次突发领导层变动还可能和Altman的创业野心有关。Altman一直在寻求从中东主权财富基金筹集数百亿美元创建一家人工智能芯片初创公司,该公司产品将对标英伟达公司生产的处理器。OpenAI联合创始人、首席科学家Ilya Sutskever和部分董事会成员对Altman以OpenAI名义筹集资金感到不满,并怀疑该公司是否有利于OpenAI发展前景。
 
国外媒体高度关注科技领域对OpenAI此次领导层变动的反应。根据金融时报、彭博社、路透社、福布斯的报道,OpenAI联合创始人Brockman表示震惊和悲伤;微软CEO Satya Nadella对该消息措手不及,非常愤怒,而消息公布后微软股价下跌约2%;预测投注平台Manifold Markets开始对该变动背后的原因开放投注;硅谷投资人和初创公司不得不面对行业剧增的不确定性。但也有部分公司持乐观态度,如比特币金融服务公司Swan的CEO Cory Klippsten表示,该变动不会动摇人们对科技的信心,反而有利于人们仔细了解OpenAI的运行规则和使用协议中存在哪些问题。
 
开发者大会:科技与监管
OpenAI此次领导层变动事发突然。Altman刚在该公司首次开发者大会(又称DevDay)上代表该公司发表了重大演讲,自豪地宣布了多项更新,其中最重要的是OpenAI现在允许用户构建定制的ChatGPT应用程序,且用户无需具备任何编程知识。此外,OpenAI还推出了现有GPT-4语言模型的turbo版本,并发布了使用其人工智能技术的应用程序商店。在会议上,OpenAI还宣布其旗舰产品ChatGPT已经拥有1亿用户。
 
根据媒体报道,科技领域,尤其是开发者社区,对DevDay的兴奋之情溢于言表。Octane AI CEO Matt Schlicht赞美OpenAI在大会上的表现为“大胆的梦想家”。开源组织Nous Research的战略与运营主管Baran Kavusturucu表示,人工智能是一个社区,所有公司正在共同推进该领域的高速前进。人工智能初创公司AgentOps联合创始人Alex Reibman称赞开发者大会是人工智能领域的“超级碗”,因为先进的技术成果将使全领域获益。然而,也有少部分从业者不赞同这种狂欢的情绪,呼吁找到更安全的AI运作路径。
 
人工智能从业者、投资人和媒体之间的讨论集中在以下问题:人工智能模型是否应该开源?有什么开源替代方案?是否应受到更严格的监管,如何监管?人工智能初创公司的前景如何?以及,自从ChatGPT走红市场以来就备受争议的问题:人工智能将如何影响人类的未来?
 
但人工智能正在高速发展中,这一点毋庸置疑。11月16日,即人事变动发生前,Altman还在旧金山举行的亚太经合组织峰会上详细谈到了生成式人工智能,表示人工智能模型的能力将在一年内取得“无人预料到的飞跃”。
 
中文媒体如新京报、新浪财经、第一财经、中国经济网等,都第一时间发布了OpenAI开发者大会和领导层变动的消息,称开发者大会显现了OpenAI在行业内的野心,并强调人事变动的突发性。尽管国内媒体的报道以记录信息和转载国外报道为主,也有部分媒体对此发布了评论,并搜集了业内人士的点评。中国经营报引用谦询智库评论称,GPT应用商店将会成为未来类似于苹果商店一样高封闭性和垄断性的强大生态。新浪则引用海银资本创始人王煜全的预测,表示在未来几年,OpenAI可能代替苹果发布会,成为AI时代最引人注目的“科技春晚”。
 
AI带来的风险与挑战
OpenAI推出的通用人工智能——ChatGPT,在惊艳了世界的同时,其可能带来的巨大风险也一直引发业内的强烈争议。
 
10月24日,包括图灵奖获得者杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)和清华大学交叉信息研究院院长姚期智在内的24名人工智能专家联合发表文章《在快速进步的时代管理人工智能风险》,呼吁各国政府采取行动管理人工智能带来的风险。
 
这是今年以来,人工智能专家签署的关于AI风险的第三份重要声明。
 
今年3月,包括特斯拉创始人埃隆·马斯克、本吉奥和罗素在内的数万人签署了一封公开信,呼吁人工智能实验室“立即暂停训练比GPT-4更强大的人工智能系统至少6个月”。
 
5月,非营利组织“人工智能安全中心”(Center for AI Safety)发布的声明只有一句话“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”该声明由350多名著名学者和行业领袖签署,其中也包括Sam Altman。
 
这些专家指出,AI的发展可能带来的灭绝级风险,需要对其保持高度警惕,采取必要措施以确保其安全发展。这是由于人工智能发展的迅速性与不确定性使其潜在风险难以完全预见,当推出高度先进的自主人工智能之后,就有可能创作出“恶意”的 AI 系统,一旦自主的AI系统被植入恶意目标之后,人类可能再也无法对其进行控制。
 
因此,AI企业与研究机构需要在个人利益与社会利益之间寻求平衡,避免过于片面追求个人与公司利益从而忽视可能造成“面向未来的”风险,这需要加强监管措施的研究。
 
首先,各国政府需要加强对人工智能发展的监管,建立科学合理的监管体系与审查机制,既要鼓励在AI方面的研究创新,也要明确企业与研究机构的责任与义务。
 
再则,开发人工智能需要明确人工智能发展的底线与限度,在研发过程中增加必要的控制与管理措施,禁止开发可能造成毁灭级后果的技术与应用,以最大限度降低风险。
 
最后,人工智能带来的风险是全球性的,需要各国在这一问题上加强深入合作。11月1日至2日,在英国举办的首届人工智能安全峰会,发布了《布莱奇利宣言》,达成了指导国际合作的原则性宣言,在管理AI风险和国际监管合作方面迈出了重要一步。
 
此次OpenAI董事会解雇CEO的事件,充分反映出人们对于AI未来发展前景的观念产生了激烈冲突,既是一个警钟,也是一个契机。如何确保AI的安全、可靠和道德的使用,成为谁也不能绕开的关键问题,AI企业需要汲取教训,以推动AI的健康和可持续的发展。


上一篇:五种隐蔽和危险的新型恶意软件

下一篇:这个1500块钱的黑客工具,正在让全球地铁里的iPhone崩溃