离开OpenAI后,苏茨克维搞了个SSI,估值已达 320 亿美元(离开小说)
4月14日 消息:在又一次筹集到 20 亿美元的资金后,由 OpenAI 联合创始人伊尔亚·苏茨克维(Ilya Sutskever)共同创立的 AI 初创公司Safe Superintelligence(以下简称 SSI)的估值达到了惊人的 320 亿美元。据悉,比较新一轮融资由绿橡树资本(Greenoaks)领投,科技巨头谷歌母公司 Alphabet 、英伟达(Nvidia)、安德森・霍洛维茨基金(Andreessen Horowitz)和光速创投(Lightspeed Venture Partners)也参与其中。
这笔巨额资金是 AI 行业迄今规模比较大的种子轮投资之一,对于一家尚未面向公众推出产品的公司来说,尤其令人瞩目。自最初获得 10 亿美元种子轮融资以来,SSI 的估值已经增长了六倍。就在七个月前的 2024 年 9 月,该公司当时的估值为 50 亿美元。
SSI 成立于 2024 年 6 月,创始成员包括前苹果公司 AI 负责人丹尼尔・格罗斯(Daniel Gross)和曾在 OpenAI 工作过的知名研究员丹尼尔・利维(Daniel Levy)。SSI 的主要工作是构建他们所谓的 “safe superintelligence(安全比较优秀智能)”—— 一种比人类更聪明、但符合人类价值观的人工智能。
苏茨克维在创立该公司时表示:“我们将以直接的方式追求安全比较优秀智能,保持单一的关注点、明确的目标和统一的产品。” 这一使命代表着有意摆脱影响许多科技初创公司的商业压力。
这家公司的网站内容仍然很少,主要起占位作用,尚未透露产品开发的技术细节或时间安排。随着竞争加剧,这种神秘的做法在前沿 AI 公司中越来越普遍。
SSI 做出了一个令整个行业都感到惊讶的举动,它选择使用谷歌的张量处理单元(TPU)来开发其模型,而不是使用行业标准的英伟达图形处理单元(GPU)。尽管英伟达也是该公司的投资者之一,但这一选择让 SSI 成为了谷歌云比较大的外部 TPU 客户。
苏茨克维创立 SSI 的历程,与他之前所在公司 OpenAI 的重大风波有关。他于 2024 年 5 月离开 OpenAI,而在这之前的 2023 年 11 月,他曾参与了一次“罢免CEO山姆・奥特曼(Sam Altman)”的行动,但最终失败了,那次危机几乎摧毁了这家开创性的 AI 企业。
虽然苏茨克维后来对自己在领导层斗争中所扮演的角色表示后悔,但他对人工智能安全的担忧一直没有改变,并且这些担忧现在构成了 SSI 的理念基础。这家初创公司运营团队精简,约有 20 名员工,分布在帕洛阿尔托和特拉维夫两个中心。
SSI 很高的估值超过了处于类似发展阶段的大多数 AI 初创公司,甚至超过了 Anthropic 公司的 180 亿美元估值,更接近 OpenAI 的增长轨迹。支持者认为,苏茨克维在 “superalignment”(确保先进的AI系统与人类意图保持一致)方面的专业知识,证明了投资者愿意为其支付溢价金额是合理的。
然而,怀疑者质疑 SSI 是否能够在不面临与其他 AI 企业相同的商业化压力的情况下,最终实现其雄心勃勃的目标。该公司尚未公开披露技术路线图或具体的安全框架,而是在很大程度上依赖苏茨克维尔作为变革性AI架构联合发现人的声誉。
SSI 的融资凸显了 AI 领域一个很有意思的趋势:大型科技公司越来越多地将投资分散到相互竞争的 AI 企业。Alphabet和英伟达现在都支持 SSI 和 Anthropic,而微软则在维持与 OpenAI 全力合作关系的同时、发力自家的AI产品。
目前,SSI 仍然坚定地专注于他们那个看似遥不可及的目标。正如苏茨克维所说:“我们的首先个产品便是Safe Superintelligence。在那之前,我们不会做任何其他事情。”
这种单一的专注是否会带来突破性的成功扔待观察,但投资者显然很自信 —— 他们率先押下了数十亿美元的赌注,并相信苏茨克维和他的团队能够实现他们雄心勃勃的愿景,即创造出“既有益又可控”的比较优秀智能AI。