苏茨克维想走自己的路

伊尔亚·苏茨克维(Ilya Sutskever),作为OpenAI的联合创始人和前首席科学家,一直是人工智能领域的领军人物,他在深度学习领域的贡献,尤其是在生成式对抗网络(GANs)和神经网络架构上的创新,为OpenAI的早期成功奠定了基础。

不过,这位AI领域的巨星第一次被公众所熟知,却是因为OpenAI内部的一场震动业界的“宫斗”。

去年11月,苏茨克维与其他董事会成员一起,以对公司未来发展方向和安全问题的分歧为由,推动了对OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)的罢免。

这一事件在当时引起了不小的轰动,不仅是因为Altman在OpenAI的地位,更是因为这背后反映出的AI领域内关于安全发展与商业化的深层矛盾。

苏茨克维曾公开表达过对AI安全性的深刻担忧和对技术发展的谨慎态度,而Altman在公司内部所表现出的对商业利益扩大化的追求,恰好与苏茨克维的安全优先理念发生了冲突,最终导致了这场“宫斗”的爆发。

然而,这场试图改变OpenAI航向的行动并未以苏茨克维的胜利告终。

经过几天的反复和员工、投资者的强烈反对,Altman戏剧性地重返CEO职位,而苏茨克维的影响力似乎也因此遭到了削弱,在公司内部的地位反而变得有些微妙。

风波过后,苏茨克维更是罕见地在个人社交媒体上发帖认错道歉:“我很后悔参与了这次董事会的行动,我从未故意想过伤害OpenAI。我热爱我们一起创造的工作成果,会尽全力让公司重新团结在一起。”

Altman也转发了苏茨克维的这条帖文,并送上了三颗红心的表情。

图源:X(前Twitter)

尽管他与Altman在公开场合表示和解,但在不少业内人士看来,苏茨克维的退出似乎已成定局。

果不其然,2024年5月15日,苏茨克维在社交平台上宣布离开工作近十年的OpenAI。

图源:X(前Twitter)

并且,他还表示会在“适当的时候”告诉大家自己下一步的计划,会是一个对他个人很有意义的项目。

这一决定标志着苏茨克维对当前AI商业化路径的深刻反思和个人理念的坚持,他的下一步行动更是引起了业界的广泛关注。

不少人猜测他会回到老东家微软公司继续实现他的梦想,也有专业人士分析苏茨克维所言的这个项目会由他自己一手操办。

这不,就在时隔一个月以后,2024年6月20日,苏茨克维宣布成立了名为“安全超级智能”(Safe Superintelligence,简称SSI)的新公司,自己公布了答案。

并明确表示SSI的目标是追求安全超级智能的纯粹科研目标,成立初衷是想“一步到位”地创造一个足够安全的超级智能,这不仅是技术上的挑战,更是对AI安全性的一次深思熟虑的探索。

图源:X(前Twitter)

苏茨克维在SSI的公告中强调,公司将完全屏蔽外界的压力,不必应对复杂的大型产品,也不会卷入激烈的竞争之中。

另外,他还表示,公司将只有一个重点、一个目标和一个产品,团队的终极目标就是通过“小而精”的破解团队,去追求安全超级人工智能。

这种专注于科研和安全性的态度,与他在OpenAI时期所推动的理念一脉相承。

随着SSI的成立,苏茨克维不仅为自己的理念找到了一个新的舞台,也为AI领域的未来探索提供了新的可能性。

志同道合的人走到了一起

提起“小而精”的团队,就不得不说到这次与苏茨克维并肩作战的两位重量级的合作伙伴:丹尼尔·格罗斯(Daniel Gross)与丹尼尔·莱维( Daniel Levy)。

一位是前苹果公司机器学习主管、知名科技风险投资人,另一位则是与苏茨克维一同在OpenAI训练大模型的工程师。

前者不仅在苹果公司就职期间,推动了机器学习技术的集成与应用,还在AI初创公司领域具有前瞻性的投资眼光,例如他对GitHub和Instacart的早期投资,以及他目前持有着Perplexity.ai和Character.ai等公司的股份。

格罗斯的加入,为SSI带来了丰富的行业经验和资源,在这次公司成立过程中,格罗斯更是直接放话:“公司的确会面临许多问题,但找钱不会是其中之一。”

虽然目前并不清楚SSI这家公司未来到底能发展到哪个高度,但格罗斯的态度至少证明了这家公司有着不俗的经济实力。

工程师丹尼尔·莱维在OpenAI的助力自然也十分重要,他与苏茨克维共同训练过大模型,对深度学习和神经网络有深刻的理解。

作为行业内顶尖的研究员,莱维的专业背景和技术经验,为SSI的技术研发提供了坚实的支撑。

三位创始人因共同的愿景——创造一个安全、有益于人类的超级智能——而走到一起。

苏茨克维的前瞻性思维、格罗斯的行业洞察力和莱维的技术专长,三者的结合形成了一种强大的互补优势。

这种优势不仅为SSI提供了一个多元化的视角,也为实现其宏伟目标奠定了坚实的基础。

并且,SSI在创立之初就表达了其不追求短期商业利益,而是专注于科研的经营模式,这在当前以市场为导向的AI创业公司中实属少见。

这种模式的优势在于能够专注于技术的长期发展和安全性研究,避免了急于商业化可能带来的风险。

然而,这种模式同样存在隐忧。

缺乏即时的商业回报可能会对资金流和投资者信心造成压力。尽管有着格罗斯的承诺,但大家都明白SSI若是真实现了终极目标,所花费的人力财力很可能是一笔天文数字。

所以,如何在保证研究深度的同时,让社会和投资者看到实际的价值和进展,就是SSI需要考虑的问题。

与传统AI公司相比,SSI需要在科研与市场之间找到平衡点,以确保其愿景既宏伟又接地气。毕竟苏茨克维曾表达过,他要让超级AI造福所有人类。

AI安全性值得核安全级别的重视

正如新公司名字(Safe Superintelligence)所描述的那样,伊尔亚·苏茨克维将AI安全视为重中之重。

他将AI的安全性一定程度上视为核安全级别,而不是公众平常所简单理解的“信任安全”。

核安全强调的是对潜在灾难性后果的预防和控制,AI安全性在他看来也同样如此。这也意味着研究者在技术开发的每个阶段都需要对自己的AI重新进行严格的风险评估和预防措施。

这种级别的重视代表着从AI系统的设计、开发到部署,每一个环节开发者们都必须考虑到其对人类和环境的潜在影响。

如此高规格的重视,并非空穴来风。

AI技术的发展带来了前所未有的便利,但也同时带来了新的安全性风险。

中国工程院院士邬江兴、吴世忠等专家就在今年公开表示过人工智能带来的安全问题是前所未有的复杂问题。

首先,隐私侵犯问题就随着数据收集和分析技术的发展而日益突出。专家们表示,当下的网络安全威胁正在从信息扩大到数据加物理域、认知域。
其次,决策偏见也是AI领域的一个重要难题。由于训练数据的不均衡或算法设计的问题,AI系统可能会在投资、招聘等领域产生不均衡的决策结果。

而随着AI应用普及面越来越广,人们对AI技术的态度也比较复杂。

一方面,人们期待AI技术能够提高金融服务的效率和质量,例如通过大型语言模型(LLM)提供更加个性化的客户服务。

另一方面,人们也比较担心AI可能带来的风险,如数据泄露、算法偏见和网络安全威胁等。

以前,大家都比较担心自己的浏览记录被泄露,而在如今大数据算法的精准推送下,就连我们爱看什么视频、爱看谁直播都能清晰地在互联网上留下痕迹,自然会引起我们更深层次的担忧。

所以,对于苏茨克维的出走以及SSI公司的创立,业内外都有着不少支持者。

曾经苏茨克维还在OpenAI内部掀起变革时,纽约大学AI教授Gary Marcus就公开表示过支持,“他们一定看到了山姆所做的事情的危险性。”

作者 | 李迎