点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:张秀宁
在概率论中有一个著名的故事:让一只猴子在打字机上随机按键,只要赋予其无限的时间,猴子必然能打出一部莎士比亚全集;而若是有无限只猴子,则能立刻打出任何文章,此即“无限猴子定理”。作为一个比喻,“猴子”所指代的是一个可以无限生成随机文本的工具,“打字机”则代表了意义无限的语言本身,“打字行为”的实质则是利用两个无限的交集来生成一个有限的子集。
虽然“无限猴子定理”所主要阐释的是随机性,但它揭示了概率论视野下事件发生的基本前提——特定的选择机制和特定量级的内容库,而通过调节“随机”性和“数量”度,则能直接影响“莎翁全集”的生成速度。产生了巨大影响的ChatGPT之所以被命名为“大型语言模型”(Large Language Models),实际上就是通过降低“猴子”的随机性(提高正确语言答案出现的概率),提升“打字机”数量级(增加可学习的语言内容),进而提高生成“莎翁全集”的效率。
通俗地说,ChatGPT的基本原理,即通过训练程序来有目的地学习人类语言知识和模式,从而生成高质量的文本。这里的“学习”其实是一套利用奖励机制调整程序的策略——基于人类标准,程序所生成的语言有可能是正确的,也有可能是错误的,那么通过正确的累加和错误的摈除,程序就能够持续地生成正确的文本。OpenAI一方面使用了万亿级的语料数据,一方面创造性地使用了人类与程序对话的方式来训练程序,从而使ChatGPT能够实现开放域对话并生成创造性内容,这使它区别于已有的各种AI。这尤其表现为,ChatGPT既能够对不特定领域的问题予以较高质量的回馈,也能够生产出形式和内容都颇为像模像样的类型化文本,这些成就可以说都是里程碑式的。OpenAI公司在概率计算方面取得了极大的突破,这一进步使ChatGPT能够利用巨量的备选语料组合出正确率极高的回答,以满足人类的期许,堪称基于“无限猴子定理”所进行的非常成熟的应用。
ChatGPT能大量制造符合人类标准的文本,如果将这种表现定义为“创造力”,ChatGPT显然是成功的。当笔者向ChatGPT提问“你能够为文学研究提供什么帮助?”,其回答内容就包括“提供文学批评”,“提供有关文学作品的批评性评论,帮助研究者了解文学作品的优点和缺点。”当笔者进一步提问“你进行文学批评的原理是什么?”“你生成的文本是创造出来的吗?”,ChatGPT的回答是“根据问题的内容和上下文,搜索我学习的语料库,并选择最相关的信息作为回答。”而且,“我会根据问题的上下文和语境,使用我所学到的知识和技能,生成一段文本作为回答。因此,我生成的文本是根据我学到的知识和技能创造出来的,而不是直接从语料库中复制的。”显然,OpenAI公司对ChatGPT生成文本的能力高度自信。要进行“文学批评”必须要有相当的创造能力,这意味着ChatGPT基于概率控制能力的文本输出结果,要至少等同于人类大脑的输出结果。笔者曾试图让ChatGPT评价《阿Q正传》,其生成的文本基本可以达到中学语文论述题答案的水平。不难推论,随着算力、训练方法和语料库体量的进一步提高,其文本的水平还可以继续提升。
然而,ChatGPT之所以能够表现如此良好,在很大程度上依赖于内容和评价标准的模糊性,也就是说,生成对象的指涉越是模糊,ChatGPT的输出结果就越令人满意;相应地,对生成对象的精确度要求越高,其表现就变得非常不尽如人意了。例如,笔者要求ChatGPT进行七位数的加法运算,其输出结果就难有正确的,这是因为在语料库中很少会有“5948972+7458923”之类的问题答案。这也就意味着,评判标准越多元、价值尺度越模糊,机器文本获得的认可度就越高。反之,机器文本的漏洞就越多。ChatGPT恐怕只有依照概率进行“猜测”的能力,但仍然不具备最基本的推理能力。因此,ChatGPT所生成的文本难以应用于对真实性、准确性、逻辑性具有真正需求的场合,不论科研报告、学术论文还是统计报表,ChatGPT所提供的答案都是值得怀疑的。归根结底,ChatGPT仍然只是一个语言模型,它能够在语言层面上掌握“模糊”这一手段,令人比较满意地回答标准不甚清晰的问题,但这一切也都只停留在语言层面上,还不能触及推理、判断乃至情绪。
人类是拥有语言的动物,这一属性会令人对与其使用相同语言进行交流的对象(它甚至可以是一台机器)产生“人”的幻觉。ChatGPT一类的大型语言模型即有此能力,甚至让人类产生对方具有“灵感”“信念”“推理”能力的错觉。但实际上,目前这类程序使用语言的底层机制恐怕与人类截然不同,ChatGPT的语言能力仍然只是基于“猜测”(尽管其猜测的准确度已经非常之高),而人类显然并非如此。只是,语言属性引导着人类,使其发生误判。与其说是机器令人致幻,不如说是人类的语言属性令其入幻。
而且,人类早已天然性地习惯了各种模糊性文本。正如人类社会需要大量的寒暄、问候、铺垫,人们对程式化、礼仪性文本的需求总是普遍和刚性的,这就为ChatGPT的实际应用创造了巨大的市场空间。不难想象,这一工具能为开场白、祝福语、欢迎词之类的写作,提供非常具有实际性的帮助。这也导致“人工智能夺走人类岗位”的说法甚嚣尘上。但问题的实质在于,对于那些程式化、礼仪性文本,恐怕并没有人在意其内容、深究其含义,接受者只需对这一“文本发出行为”产生恰当的反应,此类文本就算完成了任务。正如人们在接到“恭贺新春”的短信时,并不会深究这四个字的修辞结构、语言搭配、所蕴深意,只是产生了“对方遵行礼仪”的认知。ChatGPT也正是在这种模糊的语言维度上取得了很大进步,使人机之间能产生比较顺畅的交流。但对于内容的创造力、感染力、深度等,尚不能期待更多。
由此可以看出,ChatGPT所生成的内容与基于自然语言所产生的内容之间恐怕还存在着巨大的质量差异,基于概率的“猜测”机制,决定了其生成的文本相对于原始语料,在语言之外的所有层面上仍然是匮乏的。哪怕ChatGPT真的拥有了“无限的猴子”和“无限的时间”,其生成的“莎翁全集”也依然只有语言这一个维度的意义,它所能产生的替代作用仍然是比较有限的。
(作者张秀宁系南京邮电大学期刊社副编审)
光明网文艺评论频道面向社会长期征集优秀稿件。诚邀您围绕文艺作品、事件、现象等,发表有态度、有温度、有深度的评论意见。文章2000字以内为宜,表意清晰,形成完整内容。来稿一经采用,将支付相应稿酬。请留下联系方式。感谢您的关注与支持!投稿邮箱:wenyi@gmw.cn。