新智元报道
编辑:桃子 好困
【新智元导读】就在刚刚,Ilya创业新公司SSI完成一笔10亿美元融资。公司仅仅成立3个月,10位成员,如此神速地拿到巨额融资。目前,公司估值高达50亿美金。
时隔三个月,失踪人口再次回归!
Ilya官宣,自家公司SSI(Safe Superintelligence)完成10亿美元首轮融资,估值高达50亿美金。
他发文称,「高山已确定,是时候往上爬了」。
另一位联创Daniel Levy表示,是时候开干了!
SSI首轮融资的投资者包括,Andreessen Horowitz、红杉资本、DST Global、SV Angel。
由Nat Friedman和SSI首席执行官Daniel Gross运营的投资合作伙伴关系NFDG,也参与了此次投资。
根据文件显示,SSI通过多轮融资活动,才筹集的这笔资金。公司已经授权了种子轮、种子扩展轮和A轮股份。
值得一提的是,SSI目前仅有10名员工,仅仅成立3个月,便深受资本的青睐。这背后,与最大的IP——Ilya有着密切关系。
不得不说,Ilya带领SSI一开局,就强的一批。
三位联创:Daniel Gross、Ilya Sutskever、Daniel Levy
3个月,50亿美金独角兽
路透独家报道称,此次融资最重要的目的,便是购买算力、聘请顶尖人才。
这家公司自成立伊始,性质便是一家传统的盈利性公司。
相比之下,OpenAI和Anthorpic都采用了创新的架构——前者是「利润封顶」模式,而后者是「长期利益信托」。
6月19日,离职OpenAI一个多月的Ilya,终于现身正式宣布了新公司。
他与前苹果AI项目负责人Daniel Gross,以及前OpenAI研究员Daniel Levy共同创立了SSI。
Ilya和Levy担任首席科学家,而Gross负责算力和公司的融资。
在SSI的官方介绍中,Ilya这样解释了公司的宗旨和愿景——目标唯有一个,就是「实现安全的超级智能」。
并且,Ilya同时广发英雄令,召集世界上最优秀的工程师和研究者前来。
有网友调侃道,快把Greg招过去,他正好在休假。
目前,SSI已经在两地——加利福尼亚Palo Alto,以及以色列Tel Aviv,建立了一个小型且高度可信的研究团队。
联创Daniel Gross在采访中再次表示:
对我们来说,拥有理解、尊重和支持我们使命的投资者是很重要的。这个使命是直接实现「安全的超级智能」,并在将产品推向市场之前花费几年进行研发。
从另一方面可以看出,一些资本家们仍愿意对,专注于基础AI研究的杰出人才投入巨资。
所有人更加关心的是,SSI究竟要打造出什么样的项目。
新的山峰
在OpenAI工作十年后,37岁的Ilya对创业愈加充满热情。
他认为,全新的创业项目是非常有意义的,因为发现了一座与之前工作,略有不同的山峰。
去年,作为OpenAI非盈利母公司董事会成员,他曾参与投票,决定罢免Sam Altman,理由便是「沟通破裂」。
几天后,他又改变了决定。
一起与几乎所有OpenAI员工一起签署了联名信,要求Altman回归和董事会辞职。
但这一系列事件,削弱了Ilya在OpenAI的角色。先是被移出董事会,然后在今年5月离职OpenAI。
因此,与OpenAI出于AI安全考虑,而采用的公司结构不同(这使得Altman罢免成为可能),SSI采用了传统的盈利性结构。
SSI对招聘的人才,也提出了一定的要求——必须与公司文化理念契合。
Gross表示,他们花费数小时评估候选人是否具有「良好品格」,并寻找具有非凡能力的人,而不过分强调AI领域的资历和经验。
他补充道,当我们找到对工作感兴趣,而不是对场景、炒作感兴趣的人时,才最令人兴奋。
算力候选
在算力方面,SSI计划与云服务提供商,以及芯片大厂合作,来满足计算能力的需求。
不过现在,他们尚未决定与哪些公司展开合作。
一直以来,OpenAI、xAI等初创公司都与微软、英伟达等公司合作,来满足对基础设施的需求。
作为大模型Scaling的早期倡导者,Ilya认为AI模型性能,与算力的提升呈正比。
正是这个想法施展,引发了AI在芯片、数据中心和能源方面的投资浪潮,为ChatGPT这样的生成式AI进步,奠定了基础。
与众不同
创业后的Ilya对Scaling Law有了不同的看法,并表示,他们将以不同于OpenAI的技术来处理Scaling,但并未透露出细节。
现在,他更愿将其称之为「Scaling Hypothesis」。
每个人都只是在说Scaling Hypothesis,却都忽略了要问:我们在Scaling什么? 有些人可以工作很长时间,他们只是沿着同一条路走得更快。这不太符合我们的风格。但如果你正做一些不同的事情,那么就有可能做出一些特别的事情。
更远的畅想是,未来一些人可能会与AI合并。
几年前,Ilya在一期播客采访中预测,与AGI互动可能帮助我们更好地观察世界,并认识提升自己。
随着世界的变化,一些人可能会选择与AI合并,以便理解这些变化,并去解决一些棘手的问题。
人类与AI合并的这个问题,也只有Ilya能回答。
「安全超级智能」的时代来了
超级智能,如何安全?看似一个矛盾的话题,Ilya团队如何实现?
所谓「安全的超智能」,意味着AI有着惊人的智能,但不会被「天网接管」。
想象一下,一个如此强大的AI,它可以应对气候变化、治愈癌症……并将人类视为真正的问题。这可不是我们想要的未来,对吧?
至于SSI,他们表示自己将安全放在了首位。这里没有「快速行动和打破常规」,一切都是关于「和平扩展」。就像训练你的狗:在放它出门之前,首先教会它遵守规矩。
但问题在于,构建安全超智能就像试图训练霸王龙使用茶杯,技术障碍巨大。其中就有我们熟知的「对齐问题」——确保AI的目标与我们的目标一致。你懂的,就是「不要毁灭人类」那件事。
那么,SSI是游戏规则改变者还是只是一个幻想?只有时间会告诉我们。但他们对安全的承诺以及与其他研究人员的合作,可以说是AI世界中的一股「清流」。
谁知道呢,也许他们就是最终破解代码,并开启AI黄金时代的人。
顺便,可以随时关注一下事情的进展,没准还可以藉此提升与机器人谈判技巧(以防万一)。
参考资料:
https://x.com/ilyasut/status/1831341857714119024
https://www.reuters.com/technology/artificial-intelligence/openai-co-founder-sutskevers-new-safety-focused-ai-startup-ssi-raises-1-billion-2024-09-04/
https://www.linkedin.com/pulse/safe-superintelligence-inc-era-begins-ghazi-khan-6czmc/
暂无评论,7人围观