新公司Safe Superintelligence诞生:前OpenAI大佬联手探索安全AI新纪元

各位科技迷们,大新闻来啦!Ilya Sutskever,这位OpenAI的联合创始人兼前首席科学家,联手前OpenAI工程师Daniel Levy和Y Combinator的投资者Daniel Gross,共同创办了一家名为Safe Superintelligence, Inc.(简称SSI)的新公司。从名字就能看出来,这公司主打的就是安全智能。


SSI在美国的帕洛阿尔托和特拉维夫都设有办公室,三位大佬在最近的一份公告中明确表示,他们希望通过同时开发安全性和功能,来推动人工智能(AI)的进步。他们还说:“我们专心做研究,不会受到那些繁琐的管理事务或产品周期的影响。我们的商业模式也确保了安全、保障和进步都不会被短期的商业压力所左右。”

苏茨克弗,也就是Sutskever,在5月的时候离开了OpenAI,据说还参与了解雇CEO山姆·奥特曼的行动。在奥特曼回归后,他辞去了董事会职务,在OpenAI里变得有点尴尬。而Daniel Levy则是苏茨克弗离开后不久也离开了OpenAI的研究人员之一。

苏茨克弗和Jan Leike之前还是OpenAI超级对齐团队的负责人,这个团队是去年7月成立的,专门研究如何“操控和控制那些比我们聪明得多的人工智能系统”。这种系统被称为通用人工智能(AGI)。OpenAI为了这个团队,还特意分配了20%的计算能力。不过,Leike也在5月离开了OpenAI,现在他是亚马逊支持的AI初创公司Anthropic团队的负责人。

而OpenAI这边呢,也在为他们的安全措施辩护,但在研究人员离职后,还是解散了超级对齐团队。

不仅仅是OpenAI的前员工们担心AI的未来,还有很多科技大佬也都有这种担忧。以太坊的联合创始人Vitalik Butertin就曾经说过AGI是“危险的”,但他也补充说,这种风险比其他一些风险要低。特斯拉的CEO埃隆·马斯克和苹果的联合创始人史蒂夫·沃兹尼亚克等2600多名科技领袖和研究人员,甚至呼吁暂停训练AI系统六个月,好让人类有时间思考它们所带来的“深远风险”。

现在SSI已经开始招聘工程师和研究人员了,看来他们是真的准备大干一场啊!让我们拭目以待,看看这家新公司能给我们带来什么样的惊喜吧!
下一篇 上一篇

币安官网注册链接: 币安(Binance)