从ChatGPT,看人工智能的无限前景与天花板

栏目:继续教育  时间:2023-03-23
手机版

  文/赵天希

  看到网上讨论火热的通用聊天机器人 ChatGPT,不由令人想起一件陈年旧事。

  ChatGPT

  很久以前,在个人计算机(PC)刚开始普及时,我接到局培训处安排的一个临时任务:为局领导做一次讲座,介绍一下电子计算机的应用前景,题目、内容自定。

  那个时候,局研究院用于科学计算的 DJS-130 小型机还在日夜运行,所使用的储存介质仍然以穿孔纸带为主。局计算中心刚筹建不久,引进了带多用户终端的 VAX-11 超级小型机,我们正在搭建覆盖局机关的 3COM 以太网,正在为计划处、财务处等单位开发相应的管理信息系统(MIS)。计算机在企业的应用,开始从科学计算走向企业管理领域。

  为了准备讲座内容,我花了大约一个星期的时间。最后苦思冥想,确定的讲座题目是《计算机不能做什么》。当时我想,不仅要告诉领导计算机能做什么,还应该试图说明白计算机的局限性及其对策。

  人工智能

  如今,计算机技术、尤其是芯片技术,以指数级高速发展了几十年,一切都已经时过境迁了,云计算、大数据、人工智能(AI)、5G等先进技术的迭代升级与深入应用,正在不断改善、冲击着我们的社会生活。与传统的搜索引擎相比,ChatGPT 的问世使 AI 的应用又上了一个大台阶,似乎又一次让我们看到了人工智能的无限可能。人们欣喜之余又开始忧虑,ChatGPT 的普及应用,会否替代人类的创作活动?会否造成大范围的失业?会否给人类带来新的伤害?等等等等。

  这些问题确实是问题。但是我想,不管科技如何发展,总有一些道理是相通的。过去是这样,将来还是这样。因为,事物的发展总是受一些底层逻辑所支配。具体到人工智能,我们在关注其强大的“智能”能力的同时,没有理由忽视它的天然属性——“人工”。

  ChatGPT

  要讨论这些问题,我们需要像当年面对计算机一样,了解 ChatGPT 能做什么,不能做什么。为方便叙述,下文会将 ChatGPT 简称为机器人。

  ChatGPT 的基本功能当然是聊天,有问有答。大多数情况下,聊天的载体是文字。输入的是文字,输出的也是文字。

  管中窥豹,我们先看一个简单的对话实例。下面的插图是当事人老胡亲自发布的,他本人确认了图中对话内容的真实性。下文会将当事人老胡简称为主角。

  中文对话实例

  第一个问题很简单,其形式是:

  张三是谁?

  以现在的人工智能发展水平,机器人要识别、理解这样的自然语言的含义,并不困难。机器人根据“谁”字应该能判断出,所问的张三是一个自然人,不是一般的物,接下来就要根据它自己的认知,用文字对张三进行刻画。

  描述张三之前,机器人遇到的难题是,重名的人很多,机器人要在古今中外的茫茫人海中,确定是此张三非彼张三,是提问者心中所关注的张三。然后就是,如何用精炼的文字,为张三画像。

  结果可能有很多种,从不同的角度可以有不同的答案。比如是否介绍其出生日期、工作经历等等。可以长篇大论,也可以三言两语。实例中,机器人的回答应该是很贴切到位的。短短几句话,不仅介绍了主角的职业、单位,还表明了主角的作品倾向及其社会影响力。而这些内容,可能就是提问者希望知道的关键点。

  美中不足的是,实例中的主角已经退休一段时间了。而机器人并没有披露这样一条关键信息,会让人误以为主角仍在原单位正常上班。这说明,机器人知识库的更新存在着时间延迟问题。

  英文对话实例

  第一个问题及其回答,有点侧重于知识检索,这是传统机器人的强项。比较而言,第二个问题更具有挑战性。其形式是:

  你能模仿张三的文笔吗?

  这个问题表面上看是一个闭合式问题,答案是能,或不能。但机器人没有敷衍了事、简单处理,而是按开放式问题作出了应答。它首先很自信,给出了肯定的答复,然后模仿主角的写作风格,组织了一段文字。

  熟悉主角的人都知道,这段文字所表示的内容,确实涵盖了主角经常关注的一些热点事件。而且,仔细阅读这段文字,还真的能隐隐约约品味到,主角特有的行文风格。除了文笔之外,更难得的是,文中表达的立场、观点,真的很难与主角自己的作品明确区分,完全可以以假乱真。

  这是真真切切的创作!

  人工智能发展到今天,不能不令人咋舌。难怪比尔盖茨说,ChatGPT 横空出世的历史意义不亚于PC或互联网的诞生。

  智能机器人

  上面两个简单对话,以文字为载体,展示了机器人在聊天情景下,对于自然语言的理解与表达能力。除了聊天之外,机器人还能协助人们撰写信件、邮件,起草报告、文案,编制图表,编写剧本,创作诗词、对联,甚至开发程序代码,等等。

  很显然,如果应用得当,人工智能可以帮助人们从重复的脑力劳动中解放出来,把时间用在更重要的创造性、决策性活动中。否则,如果应用不当,将极大地冲击社会秩序。一部分人对人工智能的过分依赖,会否造成其脑力退化,需要进一步观察。

  进一步思考,我们也许能发现一些有趣的现象。比如,回到上面第一个问题,如果李四女士的男友也叫张三,她向机器人提出相同的问题,会得到期待的答案吗?估计很难。

  如果李友张三的信息从来没有在互联网中出现过,没有进入机器人的知识库,那肯定没有现成的答案,即使拼凑出个答案那也是垃圾。

  或者,就算有相应的信息,但如果机器人不能准确识别此张三非彼张三,那么同样会得到失望的结果。不过,机器人对于上下文信息的搜集与理解,有助于解决这方面一部分问题。

  实际上,这有点难为机器人了。现实生活中,人们在面对面交流时,除了提出的问题本身之外,交流双方还拥有大量的、潜在的背景信息。而对于机器人来讲,它对提问者的了解非常有限。经过与提问者长时间的交流,机器人通过反复训练和深度学习,也许能获得对知识的更多积累。

  人工智能

  人工智能的发展是建立在数据、算法、算力基础之上的。其中数据,依赖于互联网全网大数据的不断积累以及对知识的准确标注,物理上还受制于存储能力;算法,包括大语言模型,集中反映了人的智慧,是一个不断迭代升级的过程;算力,与芯片等物质基础密切相关。在某些应用场景下,还要取决于网络传输能力。从这些约束条件中,我们很容易感觉到,人工智能的天花板客观存在。人工智能非常耗费资源。

  总体来看,智能机器人的逻辑思维与创作成果未必一定超过人类,但它的知识存储量与记忆力绝对超过任何一个自然人。人工智能的前景是无限的,因为人的欲望、需求没有止境,人的想象力没有边际。另一方面,人工智能所能提供的服务能力,却是要笼罩在一个天花板之下,因为人工智能赖以生存的物质基础是有限的,人创造人工智能的能力是有限的。

  文心一言

  GPT的含义是,生成型预训练变换模型。2022年11月30日上线的 ChatGPT 是基于 GPT-3 模型的一个子模型。据悉,国内开发了类似的文心一言云服务。应该值得期待,尽管道阻且长。

  【注】图自网络,感谢原图作者。

  #百家聊热点#

  将心比心,知易行难

  质量管理遇到挑战,宽严相济平衡难

  欣赏戏曲白蛇传,不能总把妖怪放在心中~豫剧祥符调的艺术欣赏

  对环境的适应、驾驭、改造,要注意风险管理~论白素贞的管理缺憾

  举报/反馈

上一篇:近期热门的高分书刊《古印度与拜占廷文明》,轻松有趣令人叹为观止!
下一篇:在广州,哪些景点适合老年人结伴出行?

最近更新继续教育