前OpenAI首席科学官苏茨克维再次创业,成立超级智能公司SSI

来源:腾讯科技 更新时间2024-06-20 17:07:48 点击数:

腾讯科技讯 6月20日消息,据国外媒体报道,前OpenAI首席科学官、联合创始人伊尔亚·苏茨克维(Ilya Sutskever)周三宣布,与曾在OpenAI的同事丹尼尔·列维(Daniel Levy),以及前苹果人工智能部门负责人、Cue联合创始人丹尼尔·格罗斯(Daniel Gross)携手,共同成立致力于开发安全超级智能技术的新兴企业Safe Superintelligence(简称“SSI”)。该公司的宗旨是在一个纯粹的研究机构内开发安全、强大的人工智能系统,并声明近期无意销售人工智能产品或服务。

过去一个多月,人工智能领域内一个频繁被提及的问题是:“苏茨克维在哪里?”苏茨克维师从人工智能“教父”、计算机科学家杰弗里·辛顿(Geoffrey Hinton)。2012年,苏茨克维与辛顿等人构建了一个名为AlexNet的神经网络,他们训练该网络来识别照片中的物体,其效果远远好于当时的任何其他软件,甚至超过人类。这项研究被视为“深度学习的大爆炸时刻”。2015年,苏茨克维与山姆·奥特曼(Sam Altman)、特斯拉首席执行官埃隆·马斯克(Elon Musk)等人联合创办OpenAI,并担任研究总监一职。

对“宫斗”内幕守口如瓶

苏茨克维在人工智能界的地位几乎被神化。作为大学研究员,以及后来在谷歌担任科学家,他在推动多项关键人工智能技术发展中扮演了重要角色。在OpenAI创办之初,苏茨克维参与帮助公司吸引了关键的顶尖人才,这对公司的成功至关重要。苏茨克维因主张构建规模不断扩大的模型而声名鹊起--这一战略帮助OpenAI超越了谷歌,并在ChatGPT的崛起中发挥了关键作用。

2023年底,苏茨克维参与了时任OpenAI董事会罢免奥特曼的“宫斗”事件,但随后又协助奥特曼重返岗位。在此之后,苏茨克维变得低调,他在OpenAI的未来变得扑朔迷离。苏茨克维在5月中旬宣布,他将离开工作过近十年的OpenAI。他在社交媒体X上写道:“我对接下来的事情感到兴奋--这是一个对我个人非常有意义的项目,我将在适当的时候分享细节。”苏茨克维曾被奥特曼称为“世界上最受尊敬的研究人员之一。”马斯克评价苏茨克维尔,说他是一个正直的人,而且心地善良。

在周三的访谈中,苏茨克维对“宫斗”事件的具体情况仍守口如瓶。在被问及与奥特曼的关系时,他仅简洁地表示“关系良好”,并透露奥特曼对他的新项目有一个“大致的了解”。对于自己过去几个月的经历,他反复强调:“这非常奇怪。非常奇怪。我想我可能无法给出比这更准确的描述。”

在消息一个多月后,苏茨克维向外界正式展示了自己的新项目--Safe Superintelligence,一家致力于在纯粹的研究组织内开发安全且强大的人工智能系统的企业,且近期没有出售人工智能产品或服务的计划。换而言之,苏茨克维正尝试在一个没有OpenAI、谷歌和Anthropic等竞争对手所面临的诸多干扰的环境中继续他的研究。“这家公司的独特之处在于,它的首个产品将是安全的超级智能,在此之前它不会涉足其他任何事情,”苏茨克维在接受媒体采访时表示。“它将完全不受必须应对庞大复杂产品和必须参与激烈竞争的压力影响。”

超级智能究竟是什么

超级智能(Superintelligence)究竟是什么?它是一个假想的智能实体,其智慧远超最聪明的人类。苏茨克维之前在OpenAI的工作是这一项目的延续。他曾是OpenAI超级对齐团队的负责人,目标是提出一套用于构建和控制这种未来技术故障的安全程序。

在OpenAI,苏茨克维称他的优先事项不是“构建下一个GPT版本”,而是找出如何阻止超级人工智能“失控”的方法。他认为,ChatGPT可能是有“意识”的。他认为,世界需要认识到这种技术的真正力量,因为有一天,一些人类可能会选择与机器融合。然而,随着苏茨克维的离职,该团队已被解散。

苏茨克维之前在谈到“超级智能”时曾认为,具备超级智能的通用人工智能(AGI)可能会变得无法控制,从而导致灾难。这也是关注“有效利他主义”社会运动的科技工作者的担忧,他们认为,人工智能的进步应该造福人类。在苏茨克维尔看来,通用人工智能可以帮助人类做很多令人感到不可思议的事情,比如自动化医疗保健,成本可以便宜一千倍,效果可以提升一千倍。他认为,“超级人工智能”会更深入地看待事物,会看到人类看不到的东西,但人类并不确定这到底意味着什么。

研究人员和知识分子已经思考了几十年如何使人工智能系统更安全,但围绕这些问题的深入工程却鲜有出现。目前的技术现状是利用人类和人工智能共同引导软件朝着符合人类最佳利益的方向发展。至于如何确切地阻止人工智能系统失控,这基本上仍然是一个哲学上的探讨。

苏茨克维表示,他已经花费了多年时间深思熟虑安全问题,并已经考虑了一些方法。但SSI目前尚未公开讨论具体细节。“在最基本的层面上,安全的超级智能应该具备不大规模伤害人类的特性,”苏茨克维说。“在此之后,我们可以说我们希望它成为一股积极的力量。我们希望它能够基于一些关键价值观运作。我们考虑的一些价值观可能是过去几百年来支撑自由民主的非常成功的价值观,如自由、民主、自由。”

苏茨克维指出,主导人工智能的大语言模型将在SSI中发挥重要作用,但该公司的目标是追求更为强大的技术。对于当前的系统,他说,“你与它对话,进行交流,然后结束。”他所追求的系统将更加通用,能力更加广泛。“你谈论的是一个自主发展技术的巨型超级数据中心。这很疯狂,对吧?我们想要贡献的就是那个的安全性。”

不担心SSI募资问题

SSI的另外两位联合创始人分别是投资者、前苹果人工智能部门负责人格罗斯,以及在OpenAI与苏茨克维并肩训练大模型、享有盛誉的列维。格罗斯因支持包括Keen Technologies在内的多个知名人工智能初创公司而受到关注。Keen Technologies由著名程序员、电子游戏先锋、Meta的虚拟现实专家约翰·卡马克(John Carmack)创立,该公司正试图基于非传统编程技术开发通用人工智能。列维表示:“我认为现在正是启动这样一个项目的最佳时机。我的愿景与苏茨克维完全一致:组建一个精干高效的团队,所有成员都专注于实现单一目标--安全的超级智能。”

在SSI目前尚显空旷的官方网站上,创始人们表达了他们的观点:构建安全的超级智能是“我们这个时代最紧迫的技术挑战”。他们还表示,“我们同步推进安全性和能力,将这两者视为需要通过革命性的工程创新和科学突破来解决的技术难题。我们计划在确保安全性始终领先的前提下,尽可能快速地提升能力。”

苏茨克维并未透露SSI的财务支持者,或者募资情况。正如SSI公司名称所强调的,苏茨克维把人工智能安全置于最高优先级。当然,关键在于明确什么因素使得一个人工智能系统比另一个更安全,或者是否真的安全。目前,苏茨克维对此尚未明确表态,但他确实暗示,新企业将尝试通过将工程突破融入人工智能系统本身来实现安全,而不是依赖于在技术应用过程中即时增加的限制措施。“我们所说的安全,是指像核安全那样的严格安全,而不是仅仅基于‘信任与安全’的概念,”他解释说。

SSI在某种程度上是对OpenAI最初理念的一种回归:作为一个研究组织,致力于开发一种能够在众多任务上与人类相匹敌甚至超越人类的通用人工智能。但随着对巨大计算能力资金需求的日益明显,OpenAI的组织架构也随之发生了演变。这促使公司与微软建立了紧密的合作关系,并推动了公司开发能够创造收入的产品。所有主要的人工智能企业都面临着同样的难题:随着人工智能模型以指数级速度不断增长,他们需要承担日益扩大的算力需求的支出。

经济现实让SSI成为投资者的一场冒险,他们将赌注压在苏茨克维及其团队能够实现突破性进展,从而在与拥有更大团队和显著先发优势的竞争对手中占据上风。这些投资者将投入资金,但并不期望在此过程中创造出有利可图的热门产品。而且,SSI所希望实现的目标是否可能,这一点目前还远未明朗。尽管如此,鉴于创始团队的卓越背景和该领域的极大兴趣,SSI在筹集资金方面可能不会遇到太大困难。“在我们面临的所有问题中,筹集资本不会是其中之一,”格罗斯表示。

以下是Safe Superintelligence公司在其官网上发布的博客文章全文:

超级智能触手可及

构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。

我们启动了世界上第一个直击SSI实验室,目标和产品只有一个:安全的超级智能。

它的名字叫Safe Superintelligence Inc.。

SSI是我们的使命、名称和整个产品路线图,因为它是我们唯一的关注点。我们的团队、投资者和业务模式都是为了实现SSI而努力。

我们把安全和能力视为需要通过革命性的工程和科学突破来解决的技术问题。我们计划尽快提高能力,同时确保我们的安全始终处于领先地位。

这样,我们就能心平气和地扩大规模。

我们的业务模式意味着安全、保障和进步都不受短期商业压力的影响。

我们是一家美国公司,在帕洛阿尔托和特拉维夫(以色列)设有办公室。我们在这些地方根基深厚,有能力招聘到顶尖的技术人才。

我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干、精锐的团队,专门致力于SSI而非其他。

如果你是这样的人,我们将提供一个机会,让你完成毕生的事业,帮助解决我们这个时代最重要的技术挑战。

现在正是时候。加入我们吧!

伊利亚·苏茨克维、丹尼尔-格罗斯、丹尼尔·列维


Tag: OpenAI AI公司 AI创业者
首页 AI对话 资讯 我的