人工智能革新需用安全发展的眼光审视——我们应如何看待ChatGPT

栏目:教育平台  时间:2023-03-30
手机版

  前言

  继Stable Diffusion(一种能在几十秒内根据用户的文字描述或既有图片生成新的图像的AI绘画技术)后,全球人工智能的技术突破仍在持续涌现。最近一个月以来,一款聊天生成型预训练变换模型(Chat Generative Pre-trained Transformer)也引发了全球热议。“ChatGPT”已成为当下的热词。

  

  作为一款能够深度学习的语言生成模型,ChatGPT能够使用不同国家的语言以自然对话的方式回应人类的问题和要求。它的功能极为多元,包括回答问题、检查句式、文本翻译、文本摘要、文本分析、表格处理、文案写作等。

  这类语言生成模型与传统搜索引擎的原理完全不同,相较于搜索引擎通过高速运算搜索数据库找出用户想要的数据的方式,ChatGPT本身输出答案的方式并不是在数据库中进行检索,而是基于对海量文本的学习形成一个通用的“模型”,从而理解人类所提出的问题和要求(即使其数据库里并没有相关资料),并根据模型“逐字”生成回答内容。这个特性意味着它能够根据学到的语言规律创造性地生成数据库中不存在的内容,也意味着它会像人类一样,对于一些模糊的内容生成混淆、错误的捏造。

  即使如此,在发布后的短短几个月里,ChatGPT的表现超出了大多数使用者的想象。通过合理的提问方式,它能够帮助使用者将一段文本根据需求快速整理成逻辑严谨的表格;能够将一段文字以不输于专业软件的精度翻译成别的语言;也能根据具体的要求快速编写一段能够实现(或者至少能够提供给使用者实现思路)的代码;对于人类各大学科的知识,ChatGPT也可以知无不言,侃侃而谈。

  今年3月,OpenAI公司最新发布的可以付费体验的多模态模型GPT-4(此前ChatGPT使用的是GPT-3.5)已经能在一场高级考试中发挥出优于90%的人类应试者的表现。无论是其知识的丰富程度,还是对人类语言的理解能力,都仿佛已经可以媲美科幻电影《流浪地球》中的人工智能MOSS。

  一、ChatGPT之祛魅

  在文字领域,ChatGPT所体现出来的丰富而强大的处理效率足以撼动学术界、教育界、新闻界乃至各行各业的传统文字工作者的工作方式。学生们能用ChatGPT为自己快速生成一篇小论文,小说作者能用ChatGPT自然合理地续写自己的小说,新闻编辑能用ChatGPT快速生成一篇格式规范的新闻稿。当此种看似潜力无限的技术呈现在人们眼前,质疑的声音也绝无可能缺席。ChatGPT引发的学术诚信问题、AI创作作品的知识产权问题接踵而至,而如何合理应对诸如ChatGPT这样能够生成带有知识产权属性内容的人工智能所衍生的法律问题,也摆在了各国政府和法律学者们的面前。

  同样地,聚焦于国家安全领域,考虑到东西方意识形态博弈的现实背景,我们也应对ChatGPT的应用保持必要的省思:作为一款诞生于美国人工智能研究实验室OpenAI的语言模型,ChatGPT是否有国家立场而输出基于本国文化和意识形态倾向的答案?如果真如此,那这一技术的普遍应用是否会形成国家安全风险呢?我们又该如何防范?为了解释清楚这些问题,我们首先需要厘清几个问题。

  

  问题一:目前的ChatGPT总是能快速输出正确的回答吗?

  该问题的答案是否定的。ChatGPT看似能在很短的时间内对用户有问必答,但实则其自身对知识和数据的掌握仅来源于开发者有选择的、有限的提供,而且从原理上来说,语言模型无法对自己所说的话的实质意义加以思考。这意味着,当训练集所包含的内容或用户所提问的内容本身包含错误或不准确的信息时,人工智能也会因为其“符合自身模型的生成规律”而不加鉴别地将错误答案反馈给用户。此外,在实际体验中也可以发现,当你追问其不曾掌握的统计数据、资料来源或是特定知识时,ChatGPT甚至会“一本正经”地凭空捏造出一个看似正确,实则经不起考证的结果。质言之,现阶段的ChatGPT不能作为一个所谓的“升级版”搜索引擎来使用,它所提供的回答很有可能只是合乎程序算法规则,但与事实风马牛不相及的随机生成。

  问题二:ChatGPT输出的观点究竟属于人工智能,还是人工智能背后的人类团队?

  作为一个由人工筛选出来的海量文本所训练的语言模型,ChatGPT虽然可以根据用户的问题自主生成回答,但是其本身并不具备思考能力,自然也不能产生严格意义上的“观点”。其回答所根据的训练数据和算法源于背后的开发团队自身对语言和知识的理解,以及在训练集选择上的主观意志。可以说,这种训练是在一种“黑箱”状态下完成的。这意味着,即使是开发团队自己也很难对其训练结果直接进行检查和完善。换言之,ChatGPT所输出的“观点”,高度依赖于人类的灌输,而不能被视作AI自己的“意志”。基于此,人工智能技术生成内容(AIGC)的版权或著作权归属问题虽有争议,但在大方向上,学界的观点更倾向于“人工智能的创作作品虽应受版权保护,但其权益应归属于人工智能程序的开发者”。

  问题三:ChatGPT有道德观念和政治立场吗?

  如前所述,ChatGPT的训练模型来源于人类的选择,作为一个不能自主感知,自主思考,自主决策的程序,它本身并不具备情绪和意识,自然也没有道德观念。ChatGPT在回答问题时所体现出来的道德观念来自开发者的手动限制(如ChatGPT若检测到用户想要自己输出一些涉及政治、色情、暴力、恐怖主义等敏感内容时会拒绝回答)。换言之,现阶段人工智能的伦理与道德标准取决于开发者自己的伦理与道德标准。可想而知,ChatGPT的政治立场也无可避免地取决于开发者在训练模型选择上的偏见和局限性。如果训练数据或使用环境自身包含许多历史曲解、种族歧视或是特定的政治倾向,那么ChatGPT的回答也无疑会在一定程度上反映出这种倾向。作为对人们提出的质疑的回应,ChatGPT的开发者信誓旦旦地保证将永远遵守公正和中立的原则,避免将个人政治立场带入到ChatGPT的开发和使用之中。而这份承诺是否会受到美国政府等国家行为体或非国家行为体的裹挟,从而使ChatGPT成为一种潜移默化的意识形态传播媒介,则有待今后的实践检验。

  二、与ChatGPT相伴相生的机遇与风险

  通过对以上三个问题的梳理,我们得以对ChatGPT为我们揭示的一系列机遇与不可避免的风险有所认知:

  机遇:ChatGPT的诞生标志着人工智能技术取得了里程碑式的突破,而这种突破最终将为解放和发展社会生产力注入强劲的科技动能。

  ChatGPT之所以引起如此大的讨论,原因之一在于,它在人工智能与人类用户的交流方式上实现了突破性的进步。当使用ChatGPT时,许多用户反馈“感觉是在和一个无所不知的真人交流”。正如媒体融合生产技术与系统国家重点实验室生物感知智能应用研究部主任杨溟所说:“在充满不确定性的时代,寻求来自神秘力量的答案迎合了人类对未知的迷茫与恐惧,也满足了人类对未来的好奇与渴望。”尽管ChatGPT并不是一个拥有自我审视能力和自我决策能力的强人工智能,但它对人类用户语言的准确理解与礼貌回应足以慰藉那些渴求答案亦或只是需要陪伴的心灵。原因之二在于,在最新的GPT-4的使用过程中,人们发现这款语言模型确实可以在提升文字生产力方面成为人类的有力工具,而搭载了ChatGPT的文字生产力工具也正以月甚至周为单位地被各大互联网公司公布。以前仅存在于科幻作品里的强人工智能与通用型人工智能的开发,或许也会在不远的未来取得新的进展。最终,在知识储备和解答能力一流的未来人工智能的辅助下,人类认识世界和改造世界的能力也终将迎来划时代性的提升,对人类生产力的解放和发展产生积极影响,而这或许就是第四次工业革命所需的最后一块拼图。可以想见,在美国一直力图在科技领域领先中国的大背景下,我们将很有可能围绕人工智能领域展开新一轮的“军备竞赛”。

  风险:在国家安全视域下,ChatGPT将给文化、意识形态等领域带来新的风险。

  作为一款诞生于美国OpenAI实验室,被灌输了大量西方语境下的新闻报道、期刊论文与小说杂志的语言模型,我们不能期待ChatGPT在谈论关于中美关系、台海问题、一带一路倡议以及人类命运共同体等话题时站在中方的立场说话。ChatGPT的回答算法在很大程度上依赖于人为的数据训练,尽管在现阶段ChatGPT仍披着公平公正的外衣并礼貌地回绝着一切敏感话题,但我们必须清楚,随着中美博弈进行到新的阶段,要改变ChatGPT的算法并针对特定话题输出代表美国立场的价值观,对ChatGPT背后的开发团队来说并不是一件无法办到的事情。届时,中国乃至世界范围内的ChatGPT使用者都可能受到其意识形态的影响。

  

  三、如何实现对ChatGPT等人工智能新技术的“安全可控”

  通过上述分析,我们不难发现,ChatGPT及继其之后将涌现出的一系列迭代和基于大语言模型的程序会陆续投放在人类生产生活的各领域,如ChatGPT一样能改变人类生产生活方式的新技术将使我们应接不暇。我们要利用好创新技术给人类带来的全新动能,但面对其隐含的安全风险,我们也要思考如何实现“安全可控”。

  1.ChatGPT在解放生产力、提升人类学习与工作效率上所展现出来的潜力要求我们学会正视并善用它。ChatGPT为我们带来的震撼并不仅仅停留于其商业价值和技术创新,而在于它为人工智能技术的发展奠定了十足的信心。ChatGPT的问世无疑会进一步激发全球的AI研究者对大语言模型的研究热情,而未来真正能够颠覆人类社会的也并不是ChatGPT本身,而是紧随ChatGPT而来的一系列智能化应用带来的效率提升。无论是微软正在不断升级的搜索引擎New Bing,还是即将投入使用的基于GPT-4的办公软件Microsoft 365 Copilot,还是未来更多搭载大语言模型的智能应用,都将对人类的文字生产效率造成难以预估的变革。

  如前所述,ChatGPT并不拥有自主意识,不能主动配合人类实现生产力的提高,归根结底我们仍应将其视为帮助人类的工具,正确地使用才能发挥ChatGPT最大的价值。ChatGPT类语言模型发明的初衷,在于让机器理解人类的自然语言,进而协助人类从大量繁琐的文字类工作中解放出来。而面对人工智能发展,人类总是本能地抱持着恐惧或审慎的态度,这是我们面对一个肆意进化的未知黑箱时本能的不安。我们会担心ChatGPT取代我们的工作,造成更多的失业和社会问题,会担心未来人工智能“觉醒”后反过来威胁人类的安全,但这并不意味着我们要对现在是否踏上人工智能这条赛道有所犹豫。早在ChatGPT诞生前,大中型企业就已经开始使用人工智能相关技术提升生产力,而ChatGPT的诞生只会让更多企业认识到加速推动人工智能技术与自身工作流整合的必要性。否认它的价值无法改变它将带来深刻变革的现实,正视并学会善用人工智能才能防止在新的赛道上被甩在身后。

  2.为了在未来的国际竞争中占据优势,为了挣脱西方施加于我国的意识形态侵袭,我们必须率先克服对人工智能的抵触情绪,研究、发展自己的大语言模型。大语言模型的普及终将对社会产生一系列深刻影响乃至变革,我国的科技安全、网络安全、人工智能安全乃至意识形态安全也必将面临新的挑战。为了避免在人工智能领域受人掣肘,我们也必须深耕属于我们自己的大语言模型。

  日前,科技部部长王志刚谈到了对ChatGPT的评价,他指出,研究大语言模型就像踢足球,都是盘带和射门,但要做到梅西那么好很难。大语言模型的训练绝非敷衍了事就能实现的一日之功,顶尖的硬件、专业的软件、庞大的维护成本,三位一体,缺一不可。百度公司日前公布自己的类ChatGPT语言模型“文心一言”后股价应声下跌,在某种程度上也反映着资本在对比国内外人工智能发展状况后的消极判断。必须指出的是,在一项新概念出现后,无论其是否成熟,立刻想方设法搭配应用场景使其变现,这种过度的商业化思维恐怕并不高瞻远瞩。ChatGPT不可谓不是美国OpenAI公司十年磨一剑的产物,其诞生所消耗的各种显性成本和隐性成本是巨大的。数据显示,要训练出这样一个学习了45TB以上数据的语言模型,至少需要每天3亿元,每年近千亿人民币的成本投入。想要在人工智能领域实现重大科技创新不仅需要巨大的经济成本和科技成本来孵化,还需要从国家战略的宏观层面进行持续性的、高判断力的把控,只有摒弃功利性学术、功利性科研的心理,放弃在一个又一个“风口”的追赶中迷失自我,真正怀揣突破人类技术极限的浪漫理想和造福广大人民群众的崇高使命,方有在人工智能领域取得新突破并跻身世界一流的可能性。只有把握科技发展趋势,抓住战略机遇,作出科学决策,并沉下心来做好韬光养晦数载甚至数十载来深耕人工智能应用的准备,才能在这条尚未设定好规则的赛道上占得先机。显然,美国已经凭借数年的资本浇灌和技术探索迈出了关键一步。有美国芯片法案的前车之鉴,我们不能寄希望于美国将人工智能相关的一系列技术慷慨相赠,但我们仍有机会抓住ChatGPT所呈现的广阔前景,充分发挥我们集中力量办大事的国家优势,率先克服对人工智能的抵触,研究并迭代中国语境下的大语言模型,并在学习与改进的过程中,踏实推动国产人工智能技术有序落地,让我们的文化与价值观得以保护,乃至传播。

  

  3.对人工智能的管控体系不能缺位,甚至需要更具前瞻性的宏观部署。可以预见,大语言模型的迭代速度将越来越快,我们终将,甚至已经开始面对外国语言模型可能产生的文化意识形态输出所引起的国家安全风险和科技伦理风险。面对风险挑战,我们一方面需要始终保持清醒的头脑,秉持国家利益和国家安全立场,增强忧患意识,坚持底线思维;另一方面需要在一浪高过一浪的科技冲击下培养更具前瞻性的视角。如今,以ChatGPT为代表的人工智能技术正蓬勃发展并即将取得更为重大的突破,第四次工业革命会将人类文明带向何种方向已经很难予以预言。人工智能对人类社会产生颠覆性影响的时刻或许比我们的预期会更早来到,要想解决在这一阶段可能发生的系统性国家安全风险,就必须以未雨绸的态度及时跟进业界动态,尽早开始推动教育改革、规范科技伦理、科学合理地迎接并疏导大语言模型对人类工作岗位的进一步冲击、尽早研究并出台维护人工智能安全的法律法规。这正是党的二十大报告关于“深入推进国家安全体系和能力建设,全面提高维护国家安全能力”这一要求在高科技领域的生动体现。机遇往往从危机之中诞生,而越早做好应对危机的万全准备,我们就越有在风高浪急甚至惊涛骇浪的重大考验之中纵声高歌的底气。

  结语

  无论人工智能变得如何“智能”,适应与满足人类发展需要始终是其根本目的。面对新事物,新生态,围绕ChatGPT与其他能够产出内容的人工智能的一系列监管体系尚未建立,版权归属如何认定?社会伦理如何看待?法律漏洞如何弥补?个人隐私如何保护?未来人工智能对文字工作者们的岗位可能造成的结构性失业又该如何面对?这不是某个单一学科能够独立解答的问题,它需要社会各界在实践中不断思考、不断试错。这当然无异于在一条阴云密布、通往未知的艰涩道路上艰辛跋涉,但在中国已经错失了三次工业革命,而第四次工业革命又初露头角的时代背景下,为了从西方的围追堵截中保障我国高科技领域的安全发展,为了保持强大的国家竞争力并让我国在未来的国际竞争中获得优势,为了实现中华民族的伟大复兴,我们在人工智能这场对国家综合实力的考试上就不能缺席。

  本文作者

  倪春乐,西南政法大学白昃战略研究院研究员;

  刘佳宁,西南政法大学白昃战略研究院研究人员。

  编辑| 吕梦婷

  责编| 常宇豪

  审核| 马 方

  西南政法大学白昃战略研究院

上一篇:3月28日CBA比赛:江苏男篮vs吉林男篮,福建男篮vs广州男篮
下一篇:【团团普法】预防青少年违法犯罪

最近更新教育平台