高开180%市值超130亿,“宁王”收获一个IPO
高开180%市值超130亿,“宁王”收获一个IPO
携程Q3大“赚”,但还能更“赚”
携程Q3大“赚”,但还能更“赚”
较劲的Q3:乐观者李斌,“史上最强”何小鹏,李想开上法拉利
较劲的Q3:乐观者李斌,“史上最强”何小鹏,李想开上法拉利
捷豹重生改命,LOGO大变样,马斯克:你们还是卖车的吗
捷豹重生改命,LOGO大变样,马斯克:你们还是卖车的吗
立即打开APP
汤圆圆
私信
0

被AI取代的人类作家

2019-10-15
人物----
令人毛骨悚然的是,机器比作者本人想得更周到。

【猎云网(微信号:ilieyun)】10月15日报道(编译:商纣)

猎云网注:John Seabrook自1989年以来一直为《纽约客》撰稿,并于1993年成为特约撰稿人。他已经出版了四本书,包括最近出版的《The Song Machine: Inside The Hit Factory》。

我低头看了看我的左手拇指,它还在Tab键上。我做了什么?我的电脑成为我的合著者了吗?这是人工智能向前迈出的一小步,但对我自己来说,这也意味着我后退了一步吗?

我脖子后面的皮肤刺痛了,这是我对机器人专家所说的“恐怖谷效应”的一种不自觉的反应。所谓“恐怖谷”,指的是血肉之躯和过于人性化的机器之间的临界距离。

几天来,我一直试图忽视Smart Compose提出的建议。这是谷歌于2018年5月向15亿使用Gmail的用户推出的一项功能。Smart Compose会在你打字的时候给出一些句子结尾的建议,基于你所写的单词,以及数百万Gmail用户在这些单词后面添加的单词。“predictive text”可以猜测出你的写作思路,为了节省你的时间,它会在你尚未完成的句子后面用灰色的单词给出AI的建议。你只需要点按Tab键就行了,这样一来就省去了二十多次键盘敲击,而且在我个人的例子中,我第一次使用这一功能就用AI写出了一个完整的句子。

谷歌Smart Compose的负责人Paul Lambert告诉我,这个产品的创意来自于代码编写,软件工程师常使用这种语言编写计算机程序。代码由相同序列的长字符串构成,工程师会依赖于一种被他们称为“代码补全器”的快捷方式。谷歌认为,类似的技术也可以为G Suite的商业用户减少电子邮件编写时间。McKinsey的一项研究显示,如今,普通上班族一天中有四分之一的时间在收发电子邮件。Smart Compose每周为用户节省20亿次按键操作。

用户可以轻易地选择退出Smart Compose,但我选择了继续使用,尽管它经常分散我的注意力。我被AI似乎知道我要写什么的状态迷住了。也许是因为写作是我的天职,我倾向于把我写的句子看作是我最初思想的个人表达。因此,令人不安的是,AI能够准确地预测我的意图,甚至有些时候,AI似乎比我有更好的主意

然而,直到现在,我总是通过给这句话打一个句号来结束我的思考,就好像我是在捍卫人类独有的写作能力。我很乐意让谷歌帮我计算出从布鲁克林到波士顿的最快路线,但我如果允许算法来为我代笔我的想法,那么在多久的将来,它就可以开始替代我的一切思考活动了呢?

我也曾尝试过Smart Reply,这是Smart Compose的姊妹技术。根据邮件的内容,它为发件人的电子邮件提供了三种自动回复的菜单。在回复编辑对我的一篇文章的评论邮件时,我点了一下“明白了!”,但事实是我真的不明白,但回复菜单上没有这个选项。自动回复之后我感到有点愧疚,就像我是随便回了一封公函。几天以后,我的编辑也回了我的一封邮箱,简简单单的“收到了!”,他真的收到了吗?

除了美国总统可能是个例外,我和几乎所有发短信或推特的人一样,长期以来都依赖于拼写检查和自动纠错,而这些都是预测性文本的有限应用。我的拼写很糟糕。现在,拼写检查器在文字处理软件中无处不在,我甚至不再尝试拼写任何东西。我只要让我打的字母靠近我想要的单词,然后让机器猜出我想打的是哪个单词,就行了。

但Smart Compose远不止是拼写检查,它不是在纠正我头脑中已经形成的话语,它是在利用深度学习的预测能力把我还未想到的内容带给我。机器学习是在大型数据集中计算概率的复杂方法,它几乎是近年来所有非凡进步的基础,包括导航、图像识别、搜索、游戏和自动驾驶等等。在这种情况下,它会根据Gmail.com一年来发送的电子邮件中的单词模式,进行数十亿次闪电般的概率计算。

Lambert解释说:“在你写作的任何时候,我们都会对接下来可能会出现的无数个单词进行猜测。为了做到这一点,人工智能会将许多不同的概率计算因素考虑进你正在写的电子邮件中。你每次插入一个新词,系统都会更新状态并重新处理。例如,如果你在周五写了一个‘祝你’,那么高概率的预测会是‘周末愉快’。”

虽然Smart Compose通常局限于预测下一个短语,但人工智能可以做的更多。Lambert指出,这样做的代价是准确性。“我们离原文越远,预测就越不准确。”

然而,当我坐在键盘旁,我能感觉到恐怖谷效应一直围绕着我。并不是说我害怕Smart Compose准确定预测了我的想法,事实上,它并没有。令人毛骨悚然的是,机器比我想得更周到。

今年2月,人工智能公司OpenAI宣布,其名为GPT-2的人工智能作家的完整版将推迟发布,原因是因为这台机器太擅长写作了。批评家们认为OpenAI是在装逼,但这一举动实际上符合了OpenAI的一贯作风,徘徊在自相矛盾的边缘。正如OpenAI的首席技术官Greg Brockman所说,一边尽可能地推进AI的更新发展,一边准备应对AI可能带来的潜在风险。

OpenAI成立于2015年,彼得·泰尔和Reid Hoffman等人为OpenAI提供了种子资金。OpenAI创始人的想法是赋予非营利组织以专业知识和资源,与私营企业竞争,同时使其成果具有开源性,这样一来就可以阻止某几家企业坐拥无法估量的未来新世界。Brockman希望通过OpenAI确保人工智能为人类带来的利益得到尽可能广泛的分配。

到目前为止,OpenAI的项目包括一个游戏人工智能,今年早些时候在多人在线战略游戏Dota2上击败了世界上最好的人类团队。开源的电脑游戏为人工智能设计师提供了几乎无限的可能性,使他们成为有价值的试验场。该公司还为一只机械手开发了软件,这只机械手可以通过自学操作不同形状和大小的物体,不需要任何人类编程。与其他项目一样,GPT-2的设计初衷是为了推动一种散文写作机器的发展。

尽管OpenAI表示,它仍然致力于分享其研究成果。但它在3月份成为了一家有限合伙企业,以吸引投资者,从而使该公司的有财力跟上“计算”的指数增长,而“计算”是支持深度学习神经网络的终极动力燃料。这些“神经网络”本质上是由连接在一起的调光开关组成的,因此,就像我们大脑中的神经元一样,当它们受到刺激时,它们可以互相刺激。在大脑中,刺激是一些微量电流;在机器中,它是数据流。训练像GPT-2这样大的神经网络是昂贵的,部分原因是运行和冷却为云提供动力的地面“服务器场”所产生的能源成本。Emma Strubell领导的一项研究显示,通过训练一个巨大的神经网络产生的碳足迹,大致相当于五辆汽车的终生排放量。

OpenAI表示,未来几年它将需要投资数十亿美元。计算机的发展速度甚至比摩尔定律所预计的还要快,摩尔定律认为计算机的处理能力每两年翻一番。芯片设计、网络架构和基于云的资源方面的创新使得每年可用的计算总量增加了10倍——2018年,是2012年的30万倍。

因此,神经网络可以做各种各样的事情,这些事情是未来学家早就预测到的,但直到最近才得以实现。机器翻译一直是人工智能研究人员的一个梦想,但直到三年前,机器翻译还很容易出错。自2016年改用神经机器翻译以来,谷歌翻译已经开始在某些领域取代人工翻译,如医学领域。

OpenAI的首席科学家Ilya Sutskever今年33岁,是人工智能领域最受尊敬的年轻研究人员之一。监督学习(Supervised learning)曾经是训练神经网络的方式,包括给训练数据加上标签,这是一个劳动密集型过程。在无监督学习中,则不需要标记,这使得该方法具有可扩展性。例如,该机器不是学习从标有“猫”的图片中识别猫,而是通过反复试验来学习识别猫的像素模式。

GPT-2运行在一个比OpenAI的第一语言模型GPT大十倍的神经网络上。在OpenAI宣布推迟发布完整版之后,它在网络上发布了三个功能不那么强大的版本。该公司的研究主管、计算神经学家Dario Amodei向我解释了保留完整版本的原因:“如果你看到一篇文章,它就像是一张证明,证明有人类参与了其中。而现在它不再是一个真正的人类参与的证明。”

科学家对人类如何习得口语有不同的看法:许多人倾向于认为我们的语言技能是基于进化和生物的基础,而不是我们是“白板”的观点,但所有人都同意我们主要通过听来学习语言。写作当然是一种后天习得的技能,而不是一种本能——多年的专业经验告诉我,如果有什么本能的话,那就是浏览Twitter,或者做其他任何事情来避免不得已的写作。与写作不同,演讲不需要多次草稿才能“奏效”。“不确定、焦虑、恐惧和精神疲劳都会伴随写作,另一方面,交谈是很容易的,通常是愉快的,而且感觉上几乎是无意识的。

大英图书馆最近的一次关于文字的展览将楔形文字的出现追溯到公元前4000年在美索不达米亚。贸易变得复杂了,人们记不住所有的合同细节,所以他们开始把合同写下来。在随后的几千年里,文学艺术的发展远远超过了贸易记事的发展。众所周知,苏格拉底不赞成文学作品对记忆的有害影响,他把写作称为“看得见的语言”——我们知道这一点是因为他的学生柏拉图在老师死后把它写了下来。由语言学家Linda Flower和心理学家John Hayes提出的一个更现代的定义是“认知修辞”——即用文字思考。

1981年,Flower和Hayes为大脑在写作时设计了一个理论模型,他们称之为认知过程理论。近四十年来,它一直是文学创作的典范。

很少有关于写作时大脑的真实生理状态的科学研究。从历史上看,科学家们认为语言处理涉及到大脑的两个部分:一个负责解码输入,另一个负责生成输出。根据这一经典模式,单词是在Broca区形成的,对大多数人来说,它位于大脑左半球的前部,语言则是在Wernicke区被理解的。将Broca区和Wernicke连接起来的就是一个神经网络:一个由数十亿神经纤维组成的粗而弯曲的神经束,它整合了语言的产生和理解。

近年来,使用成像技术的神经科学家开始重新思考经典模型的一些基本原理。德国格赖夫斯瓦尔德大学的神经学家Martin Lotze领导了一项为数不多的专门针对写作而非一般语言使用的影像学研究。Lotze设计了一个小桌子,让研究对象可以在扫描大脑的同时手写。研究人员让受试者从一篇短篇小说中选择几句话逐字逐句地抄下来,以建立一个基准,然后让他们进行60秒的“头脑风暴”,然后再让他们“创造性地”再写两分钟。Lotze指出,在测试的头脑风暴部分,磁成像显示感觉运动和视觉区域被激活,创造性写作一旦开始,这些区域就被双侧背外侧前额叶皮层、左侧额下回、左侧丘脑和颞下回所连接。简而言之,写作似乎是一种全脑活动——可以理解为一场头脑风暴。

Lotze还比较了业余作家和那些把写作作为职业的人的大脑扫描结果。他发现,当业余作家在写“左尾状核”时,专业作家依靠的是大脑中一个没有在扫描仪中那么亮的区域,这与音乐家和专业运动员的专业知识有关。在业余作家中,神经元在枕骨外侧区域发射,这与视觉处理有关。据此可以得出这样的结论:写得好,就像弹钢琴或运球一样,主要是做得好。实践是精通的唯一途径。

有两种方法可以使机器智能化。专家可以通过传授某个特定领域的知识,并为机器设定执行一组功能的规则,从而将他们所知道的知识传授给机器。这种方法有时被称为“基于知识的”。此外,工程师还可以设计出一种具有自学能力的机器,这样,当使用正确的数据进行训练时,它就能自己找出完成任务的规则。人类对这两种智能的融合是如此的天衣无缝,以至于我们几乎无法区分它们。一旦你掌握了平衡和驾驶,你就不需要考虑如何骑自行车,然而,你需要考虑如何避开自行车道上的行人。

但是,如果一台机器可以通过这两种方法来学习,那么它需要的是几乎完全相反的系统:一种是可以通过遵循硬编码过程来演绎操作的系统,令一种则是归纳式的,通过识别数据中的模式并计算它们发生的统计概率。如今的人工智能系统擅长其中之一,但它们很难像人类大脑那样把这两种学习方式结合在一起。

人工智能的历史,至少可以追溯到50年代,是这两种制造能思考的机器的方法之间的一种龟兔之争。野兔是一种以知识为基础的方法,它在60年代人工智能充满幻想的青春期推动了它的发展,证明了AI可以解决数学和科学问题、下国际象棋、用一套预先编程的方法回答人们的问题。到了70年代,在所谓的“人工智能寒冬”中,前进的步伐逐渐弱了下来。

另一方面,多年来,机器学习在理论上比实际的人工智能方法更具可能性。 设计一个人工神经网络的基本思想(以一种粗略的,机械的方式类似于我们的头骨中的神经网络)已经存在了几十年,但是直到二十世纪初,都没有足够大的数据集可用于培训,也没有足够的研究经费。

这两种智能方法的优点和缺点在“自然语言处理”中表现得很明显:即机器理解和响应人类语言的系统。几十年来,N.L.P.和它的姊妹学科语音生成(Speech Generation)在语言理解领域产生了一系列基于知识的人工智能商业应用:亚马逊的Alexa和苹果的Siri综合了这些进步。语言翻译是一个相关领域,通过多年的研究也在逐步改进,其中大部分是在I.B.M.的Thomas J. Watson研究中心进行的。

在机器学习最近取得进展之前,N.L.P.的几乎所有进展都是通过手工编写控制拼写、语法和语法的规则实现的。“如果主语的数目和主语的动词数目不相同,则把它标记为错误”就是这样一条规则。计算语言学家将这些规则翻译成计算机可以用来处理语言的程序代码,这就像把文字变成数学。

Joel Tetreault是一位计算语言学家,还是Grammarly的研究主管,后者是教育写作软件的领先品牌。一封电子邮件中,他描述了基于规则的语言处理的Sisyphean特性。规则可以“涵盖很多容易实现的目标和常见的模式,”他写道。但是,“找到边缘情况和拐角情况并不需要很长时间”,在这些情况下,规则不太适用。

Tetreault于2007年在教育考试服务中心(ETS)开始了他的职业生涯,该中心使用一种名为e-rater的机器来为GRE论文评分。至今仍在使用的e-rater是一种部分基于规则的语言理解人工智能,它被证明非常容易操作。为了证明这一点,麻省理工学院教授Les Perelman和他的学生们创造了一个名为babel的论文撰写机器人,它能大量炮制旨在获得高分的荒谬论文。

离开ETS之后,Tetreault在Nuance Communication公司工作,这是一家总部位于马萨诸塞州的技术公司,该公司生产了一系列广泛的语音识别产品,这些产品在90年代处于AI研究的前沿。Tetreault于2016年加入Grammarly,这家公司于2009年由三位乌克兰程序员创立。Lytvyn和Shevchenko创建了一个名为MyDropBox的抄袭检测产品。由于大多数学生论文都是在计算机上撰写并通过电子邮件发送给老师的,因此写作早已经是数字形式。人工智能可以轻松地对其进行分析,以找出可能与Web上已经存在的模式匹配的单词模式,并标记所有可疑的段落。

他们认为,剪切和粘贴完成的段落比撰写一段要容易得多,这就是许多学生抄袭的原因。为什么不使用相同的模式识别技术来制作可以帮助人们更有效地书写的工具呢?硅谷风险投资家Brad Hoover想要提高自己的写作水平,他非常喜欢Grammarly,因此成为了该公司的首席执行官,并于2012年将总部迁至湾区。

与Spotify一样,Grammarly也采用“Freemium”模式。

此外,Grammarly每周还为用户提供一句鼓舞士气的讲话,这些讲话来自一个虚拟编辑器。这一编辑器不仅会称赞你的词汇量使用,还会为你颁发奖章。

然而,在语法方面,Grammarly的建议对有经验的作者帮助不大。写作是语法规则和作者想要说的内容之间的协商。初学写作的人需要规则来使自己被人理解,而有经验的作家则通过改变规则来赋予写作色彩、个性和情感。

Grammarly还使用深度学习来“beyond grammar”,使公司的软件更灵活、更适合个别作者。在该公司位于旧金山Embarcadero中心的总部,我看到了新的书写工具的原型,这些工具将很快被整合到该公司的高端产品中。

许多使用Grammarly的人都是ESL演讲者,谷歌的Smart Compose也是类似的情况。正如Paul Lambert所解释的那样,Smart Compose可以根据每个用户写过的所有电子邮件,为用户独特的写作风格创建一个数学表达式,并让人工智能倾向于这种风格来提出建议。

“我们对为你写作不感兴趣,”Grammarly的首席执行官Brad Hoover解释说:“Grammarly的使命是帮助人们成为更好的作家。”谷歌的Smart Compose也可以帮助非英语母语者成为更好的作家,尽管它更像是速记员而不是写作教练。Grammarly将机器学习和基于规则的算法结合到其产品中。然而,没有计算语言学家致力于将我们的语言规则传授给OpenAI的GPT-2。GPT-2是一个强大的语言模型:一个“学习算法”使其文学教育成为可能。

传统的算法根据人类工程师创建的程序执行编码指令。但是,智能不仅仅是制定一套处理已知问题的程序;它要通过学习如何适应新的情况来解决以前从未遇到的问题。David Ferrucci是Watson的首席研究员,他领导着IBM的Jeopardy!在2011年打败了Ken Jennings。为了创建Watson,基于知识的方法或演绎方法都行不通,试图用所有必要的知识对系统进行编码是不切实际的,以便它可以设计一种程序来回答游戏中可能遇到的任何问题。取而代之的是,他通过使用机器学习使Watson变得超级智能:他说Ferrucci为Watson提供了“大量数据”,并构建了各种语言和语义特征。然后将这些输入到机器学习算法中。Watson提出了自己的使用数据的方法来获得统计上最可能的答案。

像GPT-2这样的学习算法可以适应,因为它们根据自己计算的数据和人类为它们设置的任务,找出自己的规则。该算法会自动调整人工神经元的设置,或称“权重”,这样,每当机器尝试完成一项任务时,它正确完成任务的概率就会增加。

要理解GPT-2如何书写,请想像你从未学过任何拼写或语法规则,也没有人教你单词的意思。你所知道的只是你在Reddit上读到的800万篇文章,它们涉及的话题几乎无穷无尽。你有雨人一样的技能,可以记住你读过的每一个单词的组合。因为你的预测文本神经网络,如果给了你一个句子,让你写另一个类似的句子,你可以完美地完成这个任务,而不需要理解任何语言规则。你唯一需要的技能就是能够准确地预测下一个单词。

GPT-2被训练从一个四十亿字节的数据集中写出文章,这些文章是人们在Reddit上发布的链接,以及其他Reddit用户投票支持的文章。在没有人类监督的情况下,神经网络通过分析和计算训练数据中所有可能的单词组合的统计概率来学习语言的动态,包括规则驱动的边缘情况。GPT-2的设计目的是让人工智能通过一个相对简短的输入提示,就可以使用自己的语言技能来完成写作并生成大致围绕主题的整段文字。

完整版本的GPT-2之所以特别危险,是因为它可以“微调(Fine-tuning)”。微调涉及第二轮培训,该培训是基于机器已经从Reddit数据集中学到的通用语言技能。例如,向机器提供Amazon或Yelp注释,GPT-2可以生产出虚假的客户评论,这会比现在产生假评论的相对原始的机器人更有效地歪曲市场,并且比人类骗局便宜得多。由此推演,假新闻可能会淹没真新闻。

是的,但是GPT-2可以写《纽约客》文章吗? 那是我听到人类作者的世界末日论时最纯真的回应。 如果OpenAI在《纽约客》的数字档案库(请不要称其为“数据集”)上对GPT-2进行了微调,它能为《纽约客》撰写一篇足够好的文章吗?文明的命运可能不会取决于这个问题的答案,但我的命运会。

我和OpenAI提出了这个想法。首席技术官Greg Brockman承诺仅为实验目的使用这些档案。用于微调的语料库包括自2007年以来出版的所有非虚构作品,以及一些可以追溯到20世纪60年代的数字化经典作品。这是一个成年人几乎整整两周的无间断阅读量,而人工智能计算这一档案的时间则不到一个小时。

OpenAI占据了一座具有历史意义的三层阁楼建筑,它最初建于1903年,是一家箱包工厂,三年后发生了地震和火灾,摧毁了旧金山的大部分地区。它坐落在第十八街和福尔松街的拐角处,在城市的教会区。该公司有一百名员工,大多数都是受过良好教育的年轻人,他们身上都有一种高尚的使命感。员工们不仅仅是想发明一种超级智能机器,他们还致力于保护我们免受超级智能的伤害,试图为这项技术制定安全标准,类似于管理铀黄饼等核材料的国际协议。而最安全的方法——停止尝试制造像我们这样智能的机器——并不是OpenAI商业计划的一部分。

研究主管Dario Amodei在一楼一间玻璃墙的会议室里,用OpenAI笔记本电脑为我演示了在纽约接受过训练的人工智能。

为了本文所提出的目的,在对GPT-2进行微调时,神经网络对《纽约客》散文的独特方面进行了分类:其作者倾向于偏爱的词语;杂志的节奏;其叙事修辞的独特风格;其声音;以及学习该算法使用这些数据来自动调整神经网络的设置,从而使其预测更趋向于《纽约客》。 我们将要了解它的运作情况,我感觉好像我们在点燃保险丝,却不知道它引向何方。

笔记本电脑屏幕上的界面看上去很简单:一个窗口,你可以在其中粘贴或输入提示,左边有四个滑动条控件。刷新按钮是OpenAI的标志,在我看来就像曼荼罗,一种中世纪炼金术士的标志。

人工智能作家可能会提供许多积极的服务。IBM最近推出了一款名为“大众演讲(Speech by Crowd)”的人工智能,它是与以色列IBM研究员Noam Slonim共同开发的。它处理了近两千篇以“社交媒体弊大于利”为主题的文章,使用规则和深度学习相结合的方法,将双方最好的论据分离出来,总结成一对三至五段的评论式文章,一个赞成和一个反对。我读了觉得还算过去的,但大多数有社交媒体经验的七年级学生本可以把同样的论点说得不那么公式化。

Slonim指出,在民意调查中使用固定格式,主要依赖于调查者认为重要的问题。当被问道,这些调查是否带有开放式问题,可以让受访者可以以任何形式写下与自己有关的问题,然后Speech by Crowd可以通过阅读这些答案,融合成一些广泛的叙述。Slonim却表示:“这会扰乱民意调查。”

位于芝加哥的Narrative Science是由西北大学的计算机科学家Kristian Hammond联合创办的,该公司的主要关注点是使用一套人工智能技术,将数据转换成自然语言和叙述。例如,该公司的软件将有关盈亏或制造业运营的数字信息呈现为对数据模式有意义的故事,这是一项乏味的工作,以前是由人们钻研数字和制作报告来完成的。

Hammond的前同事Jeremy Gilbert,现在是《华盛顿邮报》战略倡议部主任,负责监督《华盛顿邮报》深度学习机器人新闻猎犬Heliograf。他告诉我,Heliograf的目的不是要取代编辑,而是针对那些数据量庞大的报道,这些报道受众面很窄,但用户粘性却很高。

GPT-2就像一个三岁的孩子,有着非凡的天赋,至少,拥有大学水平的写作能力。但即使是神童也有写作的目标,但机器的唯一目标是预测下一个单词。它不能支撑一个思想,因为它不能进行因果性思考。深度学习能够很好地捕捉句法中所有的前卫模式,但是由于它缺乏一个预先编码的程序性知识基础,所以它不能用语言技能来推理或概念化。一个真正智能的机器需要两种思维方式。

“这是一个纸牌戏法,”叙述科学的Kris Hammond说。“这是一个非常复杂的纸牌戏法,但本质上它仍然是一个纸牌戏法。没错,写作中也有很多技巧,所以在这一点上很难找到一个真正会耍把戏的人。”

人们可以想象像GPT-2这样的机器会吐出一些表面上很容易理解的胡言乱语,就像一条爆裂的水管道,充斥着大量的胡言乱语。互联网上充斥着大量的文字,这些文字很快就会淹没人类的声音,然后就会像一头反刍的牛一样训练自己写一些毫无意义的散文。但是,至少在目前,编写一个冗长散乱的叙述,以一种特殊的方式来推进这个故事,完全超出了GPT-2的预测能力。

然而,即使人类仍然是文学创作的必需品,但时光流逝,像GPT-2这样的自动化作家终将会做一些人类现在需要做的写作工作。那些不是专业作家的人可以利用各种各样的产品来为他们写电子邮件、备忘录、报告和演讲。在未来,AI写下的一些话可能比你想象中的还要高明,还有什么你认为是不可计算的呢?

在我采访OpenAI之前,我在YouTube上观看了Ilya Sutskever三月份在加州山景城计算机历史博物馆通过GPT-2做的演讲。当时他提出了一个在我听来像是GPT-2本身可能会冒险的主张,Sutskever说,“如果像GPT-2这样的机器有足够的数据和计算能力来完美地预测下一个单词,那就相当于理解了。”

在OpenAI,我问过Sutskever这个问题。他解释说:“当我说这句话时,我非正式地使用了‘理解’一词。我们真的不知道一个系统理解了一些东西意味着什么,当你看到这样一个系统时,真的很难判断。我的意思是:如果你训练了一个系统,它能很好地预测下一个单词,那么它就应该能理解。如果它不能很好地预测它,它的理解将是不完整的。”

然而,Sutskever补充说,“研究人员不能否认,当神经网络变得和大脑一样大时,我们就有可能达成理解。”

据估计,大脑中有1000亿个神经元,它们之间有数万亿个连接。完整版本的GPT-2所运行的神经网络大约有15亿个连接,即“参数”。以目前计算机发展的速度,神经网络可以在五年内与大脑的原始处理能力相匹敌。为了帮助OpenAI率先实现这一目标,微软在7月宣布,作为独家计算合作伙伴的一部分,它将向OpenAI投资10亿美元。

如果GPT-2的一些更晚的迭代,远比这个模型强大,可以与程序系统混合,这样它就能够随意地写作,区分真实与虚构,同时从其深度学习的源泉中汲取知识,那会怎么样呢?人们可以想象一位Joycean式的超级作家,他可以掌握任何一种写作风格,能写出令人毛骨悚然的悬疑小说,以及大量的研究传记,同时可以对巴以冲突进行细致的分析。那么人类会停止写作吗?因为那时候所有的读者都会成为AI作家的粉丝,然后又会怎么样呢?

在上一段话的提示下,GPT-2预测了下一句话:“在某种程度上,人类将取得进步。”

猎云网APP阅读全文

体验更加

猎云网

微信扫码关注猎云网

  1. 猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权;
  2. 转载时须在文章头部明确注明出处、保留官方微信、作者和原文链接,如:转自猎云网(微信号: lieyunjingxuan )字样;
  3. 猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
  4. 联系猎云,请加微信号:jinjilei
猜你喜欢
长按图片可以分享给好友
×