白送的人工智能来了,走进马斯克的公益”恶魔“

周五下午通常是发布坏消息的黄金时间,这是政客们和资本家热爱的公关传统。因此,当去年12月,特斯拉创始人Elon Musk和Y Combinator创始人Sam Altman在一周的AI会议后,在周五的末尾突然宣布成立一个新的AI公司,大家都感到诡异。

白送的人工智能来了,走进马斯克的公益”恶魔“的照片 - 1
图片来源:Michal Czerwonka / Redux

但是他们那么晚宣布消息也是有原因的。并不是因为没有人会注意到,而是因为关注太过火爆。硅谷一些最有权势的公司一听到风声,就开始向OpenAI新鲜组成的骨干研究员们抛出大把支票,目的是将他们占为己有。这些临时抱佛脚的支票——有一些就是在大会上开出的——太大了,以至于Musk和Altman得推迟宣布新公司的消息。“这钱多得快要疯掉了。”Wojciech Zaremba说,他在谷歌和Facebook都做过实习生,然后加入了OpenAI,他也在最后一秒收到了天价的工作邀请。

多少钱算“多得快要疯”?两年前,随着机器学习的市场真正开始火热,微软研究副总裁Peter Lee说,一个顶尖AI研究员的成本让美国国家橄榄球联盟的顶尖四分卫都黯然失色——他说的是通常情况下,如果硅谷的两个最出名的创业家想猎你的人才,那当然又是另一码事了。Zaremba说,随着OpenAI的成立,其他公司给他开出的薪水是他市场价值的二到三倍。

OpenAI并没有给出同等高的天价薪水。但是公司给出了另一种诱惑:一个纯粹为了未来而研究的机会,不为任何产品或季度收益,并且最终会与任何希望获得研究成果的人分享大部分——或者全部——的研究成果。对,你没听错:Musk、Altman和公司希望免费赠送可能是21世纪最能够改变世界的科技——免费赠送。

Zaremba说,那些高得发疯的薪水邀请实际上让他不舒服,尽管他对谷歌和Facebook抱有极大尊敬。他觉得,这钱是为了买他的人力,但是,同时也是为了阻止OpenAI的成立,这让他更喜爱OpenAI的大气。“我意识到,OpenAI是我能去的最好的地方。“Zaremba说。

这就是这个故事最大的讽刺:即使世界上最大的科技公司们想要保留住研究员,就像橄榄球队想留住他们的明星球员,研究员们自己还是想要分享在AI研究的纯净空气里,最睿智的头脑们想的并不是下一个产品周期和利润空间——至少,想得不只是这些。他们想让AI变得更好,而如果你把最新的发现都变成自己的小秘密,AI就没法变得更好。

今天,OpenAI将发布它的第一批AI软件,一个打造人工智能系统的工具包,利用一种叫做“增强学习”的技术——这也是打败围棋冠军的谷歌AlphaGo背后的关键技术之一。有了这个工具包,你可以建造系统来模拟新的机器人后代、玩Atari游戏、以及——对,你也可以——成为围棋大师。

但是玩游戏只是个开头。OpenAI是一个几十亿美元的项目,为了推动AI走向未来。你可以从公司创建的方式和未来的计划中,看到一种新的创新浪潮。我们还不知道OpenAI是否会成为这种变化的主力军。但是那些推动这个特殊公司的各种推力中,我们可以看到新一代的AI主力军不仅会带来新的科技,还会带来新的建造科技的方式。

白送的人工智能来了,走进马斯克的公益”恶魔“的照片 - 2
图片:OpenAI研究总监Ilya Sutskever。图片来源:Christie Hemm Klok / Wired

无处不在的AI

夸夸其谈在硅谷不算什么稀罕事。遇到任何口气不小的人,最好还是保持怀疑。但是在AI的领域,变革是来真的。在谷歌和Facebook,叫做深度学习的技术已经帮助他们实现在照片中识别人脸等各种各样的服务。这种技术不仅能让机器完成任务,还能让它们边干边学。一些人相信,这会让机器最终获得常识,一种能像人类一样思考的能力。

随之而来的是各种担忧。Musk和Altman担心,如果人们能造出做好事的AI,那么人们也能造出做坏事的AI。担心机器人统治人类的并不只是他俩,但是也许这很违反直觉,他俩认为对抗“坏”AI的最好方式,不是限制人们接触AI的渠道,而是扩大之。这为他们吸引了一批超级聪明的理想主义年轻人,来到他们的新项目。

OpenAI起源于去年夏天的某个夜晚,在硅谷Rosewood Hotel一间私人客房——一个农场风格的高档城市酒店,在Menlo Park的Sand Hill路,就在风投世界的中心。Elon Musk在和Ilya Sutskever一起吃饭,后者当时正在谷歌Brain工作。Sutskever是项目最顶尖的学者之一。当时,更大的想法正在萌发。

Sam Altman的Y Combinator帮助了例如Airbnb、Dropbox和Coinbase等公司成长,他安排了这次见面,将几位AI研究员和一位年轻但有实战经验的企业建设家Greg Brockman聚集到了一起。Brockman之前是硅谷数字支付创业公司Stripe(也是一家Y Combinator公司)的CTO。这是一个精选小组。但是他们都有一个共同目标:创造一种新的AI实验室,不仅不受谷歌的控制,而且不受任何人控制。“我想象中自己能做的最好的事情,”Brockman说,“就是让人类以安全方式建造真实AI。”

Musk来是因为他是Altman的老朋友——也因为AI对于他各项业务的未来非常关键,或者说,对整个未来非常关键。特斯拉需要AI来造它迟早要造的无人车。SpaceX,Musk的另一家公司,需要AI来将人送到太空,并让人在太空生存。但是,Musk也是AI批判者中音量最大的一个,警告人们如果系统强大到可以自主学习,也许有一天我们会失去控制系统的能力。

这件事的问题就在于:那么多最能够解决这些问题的人已经在为谷歌工作了(还有为微软和Facebook和百度和Twitter)。当晚,没有人确定这些学者能否被一个新公司吸引,即便这是Musk和Altman在背后支持的公司。但是一个关键人物至少对于跳槽还是保持开放的态度。“我感觉这里面有风险,”Sutskever说,“但是我还觉得,这是很有趣的事情,值得尝试。”

打破僵局

在与Musk、Altman和其他Rosewood的人们对话以后,Brockman壮了胆,很快下决心建造他们想要的这个实验室。他全力攻克这个项目,并前去找了Yoshua Bengio。Bengio是蒙特利尔大学的计算机科学家,也是深度学习运动的奠基人之一。领域内另外两名先锋——Geoff Hinton和Yann LeCun——目前分别在谷歌和Facebook工作,但是Bengio致力于学术界,大致上不参与行业活动。他列出了行业内最好的一些研究员,在接下来的几周,Brockman联系了名单上所有能联系的人,还有一些名单外的人。

很多研究员喜欢这个想法,但是他们也担心转变。为了打破这种僵局,Brockman选了10个他最想要的研究员,邀请他们周六来Napa Valley的一个酒窖喝酒、吃饭。对Brockman来说,连开车进入Napa Valley的这段路也是项目的催化剂。”人们都没意识到,这种情景非常能让人走到一块去,因为你没法让车子开得更快些。“他说,”你不得不去,所以,你不得不聊聊天。“当他们到达了酒窖,氛围也继续维持着。”你可以知道氛围很棒,“Brockman说。或者按Sutskever的话说:”跟聊天相比,酒是第二位的。“

最后,Brockman邀请了所有十位研究员加入实验室,并给了他们三周的考虑时间。到截止日期的时候,其中九位研究员加入了,并且一直留在项目中,尽管硅谷巨头们给他们开出了天价薪酬。“他们为了让我留下真的弄得很隆重,所以要辞职不是个简单的决定。”Sutskever说到他的前雇主谷歌,“但是最后,我决定去OpenAI,部分因为那帮实力很强的人,还有很大程度上,因为OpenAI的愿景。”

深度学习运动源于学术界。直到最近,类似谷歌、Facebook和微软的公司才将它应用起来,由于计算能力的进步让深度神经网络成为现实而不再是一个理论假设。Hinton和LuCun等人离开学术界进入企业,因为企业有大量的资源。但是他们也保留与其他学者合作的意愿。的确,正如LeCun所说,深度学习研究需要这种自由的思想流动。“当你偷偷地做研究,你就会落后。”LeCun如是说。

因此,大公司现在分享很多他们的研究。这是一个很大的改变,得多亏谷歌。谷歌一直以来都将技术视为核心机密。最近,谷歌将推动神经网络的软件做了开源。但是谷歌还是保留了未来竞争的内部核心。Brockman、Altman和Musk希望进一步推进开放度,说他们不想看见一两家大公司控制人工智能的未来。

白送的人工智能来了,走进马斯克的公益”恶魔“的照片 - 3

Greg Brockman,他是OpenAI的CTO和奠基人之一。图片来源:Christie Hemm Klok / Wired。

开放的限度

以上所有听起来都很棒。但是对于OpenAI的理想主义来说,很多研究者可能还是会面临同样的妥协。开放是有限度的。AI的长远考虑并不只是唯一的考虑。OpenAI不是一个慈善组织。Musk的公司们可以从OpenAI的研究中大大获益,同样还有Altman的Y Combinator支持的公司们。“当然有一些竞争目标。”LeCun说,“这不是公益组织,而且还有与Y Combinator的紧密联系。而且,人们就像在其他企业中一样,干活也是有钱拿的。”

据Brockman说,实验室给出的薪酬不像谷歌和Facebook那样高。但是他说,实验室的确希望给研究员”好的报酬“,同时也提供股权,先是在Y Combinator,然后也许在Space X(不像特斯拉,SpaceX还是一家未上市的公司)。

尽管如此,Brockman坚称OpenAI不会对姐妹公司们提供特殊待遇。OpenAI是一个研究组织,他说,不是咨询公司。但是在追问下,他承认OpenAI的理想主义也是有极限的。公司可能不会将所有的成果都开源,虽然最终希望会分享大部分研究,不论通过研究论文还是互联网服务。“公开进行所有研究不一定是最好的方式。你需要好好培养一个想法,看看它会发展成为什么,然后再发表它。”Brockman说,“我们会带来很多的开源代码。但是我们还要会有很多东西,还没有准备好发布出来。“

Sutskever和Brockman都补充道,OpenAI还可能给一部分成功加上专利。“我们不会在短期内做任何专利,”Brockman说,“但是我们队长期的策略改变还是保持开放的,如果我们觉得这是最好的方式。”例如,他说OpanAI可能会做抢先专利申请,一种防止其他人申请专利的策略。

但是对于一些人来说,专利意味着盈利动机——至少,相较于创始人的开源愿景来说,这项动机更弱一些。“这就是专利系统真正的意义,”艾伦人工智能研究院的负责人Oren Etzioni说,“这让我怀疑他们真正要做的是什么。”

超级智能问题

当Musk与Altman为OpenAI揭幕,他们将项目描绘为中和“恶意”超级人工智能的威胁。当然,他们所说的超级智能也可能从OpenAI的技术中诞生,但是他们坚持说,任何威胁都会被降低,因为技术可以被任何人使用。“我们觉得,更可能的是许多AI一起来组织偶然出现的坏AI。”Altman说。

并不是每个人都吃这一套。牛津哲学家Nick Bostrom像Musk一样警告了AI的危险,他指出,如果你毫无控制地分享研究,坏人就能在有人保证安全之前就获得技术。“如果你有一个按钮可以做坏事,”Bostrom说,“你不会想把它公开,给任何人使用。”另一方面,如果OpenAI决定保留研究,不让坏人接触到,Bostrom又怀疑OpenAI与谷歌或Facebook没有什么区别。

他确实是说,OpenAI的非盈利性质会带来改变——虽然不一定。他说,项目真正的力量在于他的确能对谷歌和Facebook之类的巨头带来制约。“这减少了超级智能被垄断的可能性。他减少了这种可能:某一集团可以比其他人拥有好得更多的AI。“

不过,就像这位哲学家在一份新的论中说的,一个类似OpenAI这样愿意免费分享其成功的组织,其首要的影响是加速AI的进展,至少在短期内。而且从长期来说它也能推进技术进步,如果它处于互助的原因“选择的开放度比商业运行所允许的更高。”

“不过,一个带着慈善目的研究资助者可以以公开进行科研的方式,更好地推进技术进展。”

就像Xerox PARC一样

1月初,Brockman的9位AI研究员在他旧金山的公寓碰头。项目还很新,以至于他们连白板也没有。他们买了几块白板,然后开始工作(你能想象吗这画面?)。

Brockman说OpenAI将开始探索增强学习,一种让机器学习任务的方式,通过让机器不停重复,追踪哪些方法能够带来最好的结果。但是另一个主要目标是“无监督学习“——创造可以真正自学的机器,不需要人类来指导。今天,深度学习是由仔细标注的数据驱动的。如果你想教一个神经网络识别猫咪的照片,你得给系统输入一些例子,这些例子必须注明”猫咪“。而且学习过程是由人类监督的。但是像很多其他研究员一样,OpenAI想创造的神经网络不需要这样标注的数据就能够学习。

Brockman说:“如果你有很好的无人监督学习,机器就能从互联网的这些知识中学习——就像人一样,通过到处看看就会学到知识——或者通过阅读书籍。”

他构想的OpenAI,是70年代科技研究实验室Xerox PARC的现代化身。就像PARC大部分公开和不受干扰的研究推动了从图形用户界面、激光打印机到面向对象编程语言,Brockman和工作人员希望,进一步深入之前被认为是科幻小说的领域。是的,PARC是属于Xerox的,但是它还支持了许多其他公司,包括最著名的苹果,因为例如乔布斯等人都参与它的研究。在OpanAI,Brockman希望每个人都参与它的研究。

本月,为了将这种动力推向极致,Brockman和公司揪住了其他几位出名的研究员,包括Ian Goodfellow,另一个谷歌Brain团队的前高级研究员。“PARC的特殊之处是,他们将一群聪明人聚在一起,让他们做自己想做的事情。”Brockman说,“你需要一个共同目标,没有中央控制。“

放弃控制就是开源理想的核心。如果足够多的人能致力于这个共同目标,最终结果会超过你偷偷研究的结果。但是如果AI成了我们预想中那么强大,情况就变了。我们必须确保新的AI也遵守同样的互助原则,那些让它们能够诞生于世的原则。Musk、Altman和Brockman将他们的希望寄托在群体的智慧中。但是如果他们是正确的,这个群体在未来就不完全是人类了。

via Wired

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: