数字治理朱悦:算法时代的媒体和社会转型

栏目:人物资讯  时间:2023-08-11
手机版

  第二个“异”和第一个“异”密切相关:具体写作的人,想象报道受众的方式。美国,来自职业共同体的赞誉,有相当号召力。商业考量有之,但对“商业侵蚀媒体”的警惕和批评,同样时时不绝;媒体内部从而通常存在报道部门和商业部门的分界。法国,从大革命以来的传统,到二战后公办模式的主导地位,都引向写作者的以下理念:报道的意义,在于引领公意。此时,理想中的媒体从业者,更加接近传统语汇中的“知识分子”。

  当然,这不是“泾渭清浊”般的断言,而应视为程度上的差异。在2008年金融危机的背景下,各类理想都得部分让位于一个趋同的方向:赚到钱,活下去。这里是作者比较的开端:设法弄来流量,成为两家网媒挥之不去的压力。于是,二者引入高度相似的流量监测软件,对每一报道,无论是商业部门,还是撰者本人,都可以实时追踪特定报道在不同平台的传播情况。每报道、每日或每周流量,则成为写作者考评指标之一。

  到这里,才能完整展开作者意欲回答的问题:在诸多“异”、“同”下,流量软件和优化人员的引入,如何在不同层面上,影响两家媒体的报道和人?这本书的特色之一,即是说明从不同角度看,“答案可能很复杂”。说得概括一点,技术,必须放在情境里研究。

  数字化时代的媒体“里世界”

  “表里世界”,按我的所见,是这本书的题眼之一。“表世界”,是我们通常看到的、“流量驱动”媒体的外在表现。比如,书中统计了两媒体数万报道的篇幅,发现平均长度都在显著变短。二者不停开设“分栈”,迎合细分群体的用户。为了把总的流量“做上去”,标题要够“辣”够“炸”,内容最好有点猫狗,再略掺点“下里巴人”。同时,报道断开几页,流量总比单开一页多,等等。这些“技艺”均属耳熟能详,也是现有研究对“流量驱动”的通常想象。

  相比之下,真正在写作,或者说生产报道的“里世界”,注目程度要少许多。然而,这里常常蕴涵“表世界”未及展现的诸多差异,以及,在流量时代,各种不同的可能性。这些歧异,又和前面提到的大小背景密切相连。

  美国,金融危机,母公司压力,网媒激烈竞争,都加重了日常氛围中的“流量味”。流量排行榜,不断更新;搜索引擎优化师,有专门工位;高层每周开会,主题离不开“增长”;硅谷发明的各色概念,在员工口头招摇。但是,锐意革新的氛围里,又有相当“顽固”的一面。既有新闻观下的位阶仍然存在:网站最显眼地带依然是可能长达上万字的深度报道;专业记者地位最高,占有单独的办公室;编辑对他们的殷切期待不是流量,而是新闻质量;相应的,这些“宠儿”在意的,仍旧是同业美誉。

  既然如此,时时更新的吸睛猫狗,又从哪里来?奔着微薄写作收入的自由写手负责填补这一空缺。他们没有稳定薪酬,更接近计件工;日常不是奔波采访,旬月成文,而是写写写写,一天最多更新十余二十篇;比起职业美誉,流量压力才是现实;也没有办公室,甚至连工位都不一定有;最后,在长久铸就的职业阶梯面前,他们未必能享受“新闻工作者”的“荣衔”。写手的梦想常常是积累经验,从而成为“坐办公室的人”。

  这是美国背景下,流量冲击媒体的方式。只要还在做媒体,长久因袭的职业规范和组织形式,就是引入变化时无法绕过的因素。新闻和流量逻辑,区隔犹在;报道和商业部门,界限仍存。于是,流量,更多是“穿西装放幻灯片”的家伙要管的事,是“漫灌水填充版面”的写手的生计,而不是“跑现场执鹅毛笔”的新闻人的职责。上上下下都接受,以至内化这一整套角色定位。流量时代的“惊涛骇浪”,因此被成熟的制度和分工“导流”至特定的部门和人员,远离核心地带以后,也不再像初看起来那么“颠覆”了。

  法国,类似的业绩压力,类同的流量导向,后续结果,却又有所不同。虽然,两边的特点之一都是“新锐”,素重批判的法国媒体内部组织,同样有些“后现代”的意蕴。职业规范的力度轻,部门之间的分界浅,制度规章的设置适用,同样相对随意。如果说,美国媒体的横向、纵向“规矩”都颇为森严,法国媒体,更像是创作者的联合体。

  此时,流量对媒体的影响,形式和后果更加微妙。一方面,对“流量资本主义”的批判,不绝于耳:按着数字“做”报道,折损深度、侵蚀行业、“降格人的主体地位”云云,远较彼岸犀利。另一方面,无论是“表”还是“里”,数字又实实在在地牵扯住了这些从业者的注意力。媒体首页的版面频繁变更。最终,流量导向的创作占据了最显著的位置。据作者的田野观察,在工作时间他们频繁查看流量软件,言谈之间满是点击量的高低、变化、趋势。最重要的一点,在一定程度上,流量多少,成了衡量新闻质量高低的指标。

  理解以上变动,还是要回到背景。公共的理念是直接动力之一。按从业者理解:流量软件的数字大,说明写作者对公众有号召力;媒体人对身份的认同,又牢牢立足在“引领公众”这一点。因此,写出“爆款”,屏幕上数字不停跳动,代表着从业者的“自我实现”。两相比较,如果像美国一样,将数字看作“商业的把戏”,这层动力,也将不复存在。

  扁平而缺乏约束的组织结构,是另一动力。在相对平等(值得插一句,这里没有办公室和工位的分野,大家开会都坐圆桌)的联合体里,写作者安排自如,待遇平等,承担分工,相应十分灵活。比如,早上在跑深度调查,下午可能就需要帮补空缺,写两个冲更新的短篇。此类安排不乏理想特性,但也将所有人直接暴露在商业逻辑的压力之下。没有“扛流量的”和“写报道的”分工,每个人都要既能对付数字,又能抱守文心。从理论角度看,这或许避免了“分工的异化”;从更加现实的角度看,流量的逻辑因此浸染其间每一个体。在具体的工作状态上,法国从业者,似更接近于对岸的“浮萍式”写手。

  现在,可以更好地理解上节末尾的“复杂”。即使数字来临,媒体所受冲击由表未必及里,自上未必而下,传统未必改易,观念未必统一。因情境不同,“颠覆”和“顽固”可以并存;不同层级对流量的看法可能存在分野;传统的职业规范角色不仅未必消失,尚有几率巩固。最后,你拥抱数字,我坚持笔墨,两头游弋,都是数字化下的可能性。

  一条容许逆行的单行道

  行到此处,尚余两关键问题。第一,研究为了什么?通常,是在纷繁复杂里抽象出简单。在简单现象里衍生复杂,除了满足好奇心,意义何在?毕竟,技术的影响需要依托具体情境考察,怎么看,都是个模糊得难堪实用的结论。第二,写到这里,焦点一直在“流量”。然而,本文标题和的书副标题(副标题为 “Journalism and the Contested Meaning of Algorithms”)都有“算法”二字,这个概念,又体现在哪里?

  这两点,都要结合作者的研究历程来回答。Christin研究的另一着力点,算法在司法系统内的作用。简言之,在部分国家,企业根据海量数据,训练模型,预测个体的未来行为,比如潜逃或再犯概率。法院采购这些软件,将预测结果作为法官裁决的标准或参考。引入算法的理由,通常非常充分:提高司法效率、统一裁判标准、减少监禁比率,林林总总……恰如对“流量颠覆媒体”的期许,此类智慧司法,同样备受瞩目。

  田野工作同样给出了更复杂的图景。在美国一所已列装算法的法院,法官对Christin如此开诚布公:“我不看数字……(各方面相同的案子,判决结果不同)那正义吗?当然。”在写作者不怎么看数字的媒体,她从记者处收获类似回馈:“……我能看到流量数字……我不看它,不希得花那个精力和时间……”她的观察,也得到了法学前沿的佐证。如Garrett和Monahan最近刊出研究所示:相当比例法官拒斥采纳此类算法,相当比例法官不认为这是革新。

  这便是这个小节开头两个问题的答案。在算法正静悄悄“进村”、渗透日常生活的前提下,把复杂性充分地讲出来,本身就是很大的意义。我们可以期待以算法引导变革,不过,除非对“大”、“小”背景有充分理解,不要对具体变动方向,加上太多信心;我们可以翘首以算法向人传递价值,或曰“基于价值的设计”,只是,人也会“反宾语为主语”;我们甚至可以幻梦,以算法“化六合而为一”,但是,倘若算法加大了已经有的差距,那也不必感到太过惊讶。诚然,有关算法,有太多“向下俯视”“一往无前”的豪言。拨转方向箭头,却也不是歧路死路。

  作者没有给出足够细致的论证,说明为何“流量监测软件”可以推出这么多关于算法的结论。当然,这不是错误,只是一个小小的遗憾。Loukissas已经做了这方面的工作:“(特定的)数字和(特定的)算法之间,总有不可卸除的关联”;“和数据的交互,总是重新赋予数据以情景”;“数字指向当时当地(而未必历时空不变)的知识”。如若《工位上的度量》结合阐述这些“貌合神更合”的观点,许多论述大概会更加流畅。

  “流量”和”内容”的分工

  在尚未充分开垦的田野上工作,不能巨细无遗,才是通常状况。实际上,这本书在“如何在线上线下耦合的场景里做田野”上,已是相当有贡献了。理论固然稍显叠架,和事实之间的卯接,犹可称足够“光滑”。只是,对一些读者大概会感兴趣的细节有所疏漏,令人实感遗憾。

  在比较的选择上,这本书保证了比较对象的一贯。不过,如果承认算法和数字确实加快了业界实践的迭代频率,如何说明“两家媒体在漫长时段内始终足够典型”,尤其困难。比如,如果两家媒体在各自生存的环境里已然是“异类”,至少本书对媒体下的许多推论就要打些折扣。如果这个环境发生变革的主要方式,是“一代新人换旧人”,类似本书的方法将面临更大的问题。二者财源上的差别,则是另一很难彻底排除的干扰项。

  在具体比较上,作者已然很细。恰恰是因为这份细致,不禁令人思忖:有无可能再进一步,深入到“如何写成报道”上?具言之,写手显然受流量驱驰;他们也不讳言;阶梯上的从业者倾向否认流量的牵动,且语气强烈。后者可部分归结为出于职业身份的自持。然而,从选题,到材料收集,再到具体行文,算法很有可能引起不自知的变化。如果有对个体写作流程的进一步刻画,或者,有对丰富语料的进一步量化分析,当属结论的有力强化。

  最后,本书在一定程度上实现了“流量”和”内容”的分工:笔墨全在报人,给到商业人员的比例较少。这很容易让读者忽略同期流量市场里“天地改换”般的变化。对于颇为依赖自动化广告投放市场的网媒,巨头崛起并垄断入口,上游投放的来源变更,流量交易“飞入寻常家”等等,对这类媒体一般不是小事。不过,这些在书中的存在感很弱。如果这些因素(及其在两地或有的差异)对“里世界”的影响,其实甚微,这一结论,相当惊人。

  总之,以上“惟恨海棠无香、刀鱼有刺”般的遗憾,与这本书的闪光实属“一体两面”。闪光之处,在于将数字和算法“嵌入”媒体内部这一具体情景研究;诸多苛求,根源亦是“嵌入”,当技术如此飞驰,媒体本身“嵌入”的更大生态,同样可能剧变。写好前者,用了一整本书;写出后者,大概得预留同样篇幅。不过,在组织层面做类似题目,这一难点,很难彻底脱逃。

  少点“势必”,多点“未必”

  如上,作为社会学领域备受称誉的新作之一,《工位上的度量》以媒体为出发点,借着相当令人信服的比较,阐明了数字(算法)应用和现实情景的复杂互动。这些宝贵观察,可以和Christin在法院等情景的观察互参,也可以与近年来更广泛的前沿趋势相印证。在这个领域,“势必”比我们想象的少很多,“未必”比我们想象的多许多。再具体一点,承袭的文化,业界的模式,组织和制度,等等,都在上述互动的元素之列。显然,这里有广袤的待开拓空间。

  在更加宏观的层面上,结合周围对数字化和算法的研究现状,或许可以下一些更为唐突的感言。近年以来,尤其是今年以来,数字化和算法成为每次出行都清晰可感的趋势。开发者,使用者,赞扬者,忧虑者,规制者,都有诸多判断。此刻,该是展开类似研究的好时机。在国内数字生态下,如此丰饶,但又未曾充分探索的地带不少。又如,一旦提及“内容”和“流量”,一度纷纷扰扰的网文平台演变,立即让人生出采用类似方法研究的兴趣。再比如,《工位上的度量》关于写手的讨论,容易让人联想到另外一群数字下谋生存、却又常常“不可见”的群体:为“智能”加上“人工”,形成“人工智能”的标注员(或其他类似称谓)。我们大可期待从中产出同样有所启迪的理论。在各方竭力为难以避免、却又争端丛生的全球数字社会贡献智慧的今天,有扎实田野的新理论,将是拨开迷雾的契机。此处所系,有讨生活的人,有用数字的智慧,以及,或有的、共通的数字化命运。

  技术面前,人真的没有还手之力了吗?——《算法时代》序

  姜奇平

  中国社会科学院信息化研究中心秘书长

  《互联网周刊》主编

  在当前的人工智能狂热中,自然科学家的声音正在显著压倒人文学者的声音。在人工智能面前,似乎一切都被预测准确,让自由意志失去栖身之地。尤其是3月8日至15日谷歌阿尔法狗与李世石的围棋人机大战,机器程序出人意料地以4比1战胜人类选手,引起人们对人工智能的一片膜拜。在技术面前,人难道真的只有招架之功,没有还手之力了吗?我将《算法时代》书序略作补充,结合最近的人工智能热点话题,谈谈这个问题。

  多梅尔是一位“数字人文”类型的作家。他眼中的技术,明显有别于工程师眼中的技术,更多从人的角度思考技术。《算法时代》最关注的问题是算法技术对人的影响,并从这个角度反思算法的内在结构。

  《算法时代》的主题词是公式(The Formula)。作者认为,公式是技术理性的象征,公式决定人的技术决定论,“反映围绕客观性建立起来的某种社会秩序”。与这种客观性相对的,是自我、爱、正义、创造性这些“主观性”的东西,围绕它们建立的社会秩序应是主体性的。以此推论,这里这个大写的“公式”的反义词,应是自由意志。认同、爱、正义和创造力可以认为是自由意志的四个分身。

  在中国古代哲学中,客观性被称为天理,主观性被称为灵明。认为二者合一的思想,称为天人合一;认为二者打架的学说,属于西方,如笛卡尔二元论。在算法时代,人类正来到二者正面相遇的奇点上。

  多梅尔在《算法时代》中,分别用四章一一探讨了“客观性”的公式与“主观性”的认同、爱、正义和创造力是否合拍的问题。

  第一章讨论公式与自我认同的关系,针对大数据根据过往记录将人们归入不同细分类别,作者援引德勒兹与瓜塔里的《千高原》一书指出,公式把人变成了“可分解动物”;而人本应具有多种自我,“多种主观性并存”,“以错综复杂、粒度极高而且常常十分隐晦的方式相互影响”。

  也就是说,人对意义的认同,很可能是机器的盲区。机器可以赢棋,但它赢了仍然不知是为了什么。

  第二章讨论公式与爱的关系。针对图灵测试,作者引用珀森的话说:“在‘浪漫’的眼中,理性主义爱情观是没有全心全意投入的爱情。”“浪漫主义者往往认为理性主义者的感情非常肤浅、受到抑制,而且他们害怕产生激情,小心翼翼地把自己囚禁起来。”认为“再先进的算法也无法复制真爱”。

  也就是说,在灵与肉之间,人工智能可以在肉的层面做得惟妙惟肖,但灵的层面差一点。对此,可能男同志比较满意一些,但女同志也许会不太满意。

  第三章讨论公式与正义的关系。法律主持正义,算法可以主持正义吗?作者认为,算法会倾向于死扣法律条文,不知变通,而人会更倾向于体现“法律意图”。

  也就是说,让机器断案,可能合理,但不一定合情。在合情合理方面,目前人工智能与人尚有不小差距。例如,美国法律规定邮递员在投递中受法律保护,但可不可以逮捕一名正在投递但有案在身的邮递员。这个案在真实判例中,经过人的权衡,答案是可以,但机器会判断不可以。

  第四章讨论公式与创造力的关系。对艺术创作,作者不否认象《纸牌屋》那样利用数据分析可以推出热门产品,但提出的疑问是:“艺术品们是否有统一的衡量标准”。

  也就是说,人的创造力,可能好坏标准并不唯一。《红楼梦》里,妙玉下围棋,用倒脱靴吃了惜春一个角,本来可以乘胜追击,但妙玉说,“再下罢”,不玩了,看轻输赢。而阿尔法狗下棋,如果离开输赢尺度,一定不知怎么下了,不会理解妙玉下棋的乐趣。

  决定论与自由意志(非决定论)之争,是人类争论的永恒主题。纵观全书,《算法时代》在大数据背景下,在重新讨论或者说升级这一话题。因而不是老调重谈,而透着时代精神。

  首先,算法问题是时代的问题。如果说,原子时代,对人起决定作用的是生产方式;那么比特时代,对人起决定作用的变成思维方式。因此,在信息时代讨论决定论与非决定论,当然应把重心放在思维方式上。算法是思维方式的技术基础。有什么样的技术基础,就有什么样的思维方式。这是讨论算法问题的现实价值。

  其次,算法问题也是人生的问题。生产方式与思维方式有一个共同之处,都是“通过可以利用的资源实现价值的整套方法”。利用资源是手段,实现价值是目的。《算法时代》讨论算法,不同于工程师的讨论,是把它当作一个人生问题来看待。要思考的是:“算法提供的答案真的是我们想要的吗?”

  当作者从认同、爱、正义和创造力这四个非决定论的方面质疑“公式”时,把算法的内在结构置于自由意志的对立面,即技术理性。

  算法真的只能属于技术理性吗?这可不一定。这个问题还可以比作者更深入地讨论。

  图灵当初提出算法问题,是从机器与人两个方面立论的,并非只谈机器和决定论。作者是记者和电影制片人,知识结构偏文科,对算法问题的内在结构只知其一,不知其二。其实我们可以反向设问,如果实现价值需要的话,为什么不能调整算法,从而建立新的思维方式——比如互联网思维呢?

  至少有三个视角,可以帮我们延展思考《算法时代》关于算法的内在结构的问题。

  一是“人-机”算法与“人-人”算法的视角。谷歌算法是典型的人-机算法,属于迷信数学决定论的方法。也就是多梅尔所说技术理性算法。十年前,我有一次同中国科学院搞软件的数学家讨论谷歌算法时,数学家们提出一个悖论:你说脸谱是什么算法?脸谱的算法从数学角度不值一提,但计算结果不比谷歌差。道理很简单,这是一个脑筋急转弯。谷歌的模式是人问机器,算法只在机器一端。而全世界计算机加在一起,也达不到一个人大脑的潜在计算力。为什么不能让人问人。这样的算法显然就不是技术理性了,而是“自由意志-自由意志”之间的P2P计算。这是价值观反作用于算法的例子。以此推论,有人认为人工智能不会打麻将,是不成立的。

  二是全局最优算法与情境最优算法的视角。傻瓜在什么情况下会战胜聪明人(臭皮匠在什么情况下会战胜诸葛亮)?这又是一个脑筋急转弯。佩奇实验实际把技术理性的算法颠覆了。答案应是人算不如天算时,傻瓜会战胜聪明人,因为傻瓜会具有解决方案多样性。从数学规划角度讲,当全局有唯一最优解时,诸葛亮往往胜于臭皮匠;但如果最优只在节点,即情境最优时,臭皮匠往往胜于诸葛亮。这又是价值观反作用于算法的例子。

  三是“深刻”算法与“肤浅”算法的视角。按技术理性,肯定是深刻好,而肤浅不好。能算到本质,比只算现象要强。尼古拉斯·卡尔发现,互联网可以让人们的思维变得“浅薄”。但这不一定是坏事。自胡塞尔提出现象学之后,注重当下、此在的价值,就成为一种新的思维方式。顾客来到小摊,第一秒的问题是,面前这个小贩是不是个骗子?深刻的教授未必能回答这个问题,拥有大量行为数据的阿尔法狗也不一定能回答这样的问题。最适合回答的,恐怕是头一天因头脑简单上了一回当的小保姆。如果有种算法(比如利用关系网络)能低成本内找到这世界上受骗上当过的小保姆们,这样的算法比“深刻”的算法可能要好得多。

  人在12级台风中,需要一个保存自我的家园。《算法时代》带你去寻找这一家园所在,这就是你需要阅读它的理由。灵明遇见天理,不等于秀才遇见兵,有理还是讲得清的。

  算法时代的「机器官僚主义」

  文| 刘兴亮

  首发 |新京报评论

  ?

  你有没有遇到过这种情况:刚刚在网络上搜索关于XX的信息,在另一个网页里就会发现与XX相关的商品广告推送。

  也许你只是肚子不舒服,随便搜了点什么信息,紧接着居然看到了肛肠科医院的电话。也许你浏览了一部关于婚姻的电影,就会看到一些情感咨询家的温馨问候。这种事情屡见不鲜。凭什么你要琢磨我的「心事」呢?经过我同意了吗?

  到大的电商平台购物,无论买了什么,平台都会贴心地为你推荐「关联商品」。它会告诉你,买了这本书的读者还买了什么?你赫然发现,似乎被推荐的这几本,也对你的阅读颇有助益的可能,于是加购。这时候我领教了「算法」的厉害。它是瞬间生成的,而且相当有效。

  当然,类似的行为也有例外,比如,我过去常想在搜索平台查一些专业性的知识,不管怎么搜索枯肠地选择关键词,出来的都是些风马牛不相及的页面。 一些搜索平台很长时间都不研究「消费者行为」,而是专注于输出自身的「价值谱系」。结果可想而知,我很生气。

  这种时候,我反倒对那些对我的网络行为进行分析的站点产生一丝尊重。

  ▎ 互联网时代的算法,扩展了统计广度

  商业行为遵循一种针对客户的规则:投其所好。

  如果商家能获悉顾客的消费喜好,行为习惯,经济水平,乃至审美标准,就能做出针对性的供应,以最大化地实现自己的营销目的。由此,在经济学中诞生了一门专门的细分专业:消费者行为学,也就是受众经济学。

  传统上的受众行为学是与媒介互为生成的,人们往往根据一个人对媒介的挑选而将之分割在不同的社会区域。在平面媒体,电视与广播时代,对消费者行为的分析往往是选择性的或者随机的「测量」引发的,它的不确定性一目了然。

  事情真正发生巨变,正是从互联网时代开始。作为受众市场的最重要的基础,媒介——互联网这一巨无霸的信息综合平台,把其他所有媒介都「兼并」之后,利用「算法」这一日趋智能化的工具,把所有「终端」纳入自身的控制中,并不断根据终端送来的信息进行优化组合,再将这种「加工后的信息」以商品媒介的形式返回给消费者。

  此时,算法成为了一种超越性的力量。 理论上,互联网的存储器可以抓取所有人的所有网络浏览信息,对这些足量的信息进行综合而得出的受众分析,比以往那种随机抽取调查的分析可靠得多。

  过去很长一段时间,在宏观经济学领域,有两种力量此消彼长,一是传统的遵循看不见的手的调节力量的自由市场经济;另一种则是主张国家干预和调节的计划手段。

  后者的主要依据即在于对各项经济指标数据的统计和分析。那时的统计数据来源,显然不如如今的互联网来得快和多,在准确度上当然也有所欠缺。

  个体消费者作为被分析的对象,在测量上的不确定性变量是不会消失的。因此,所有统计的有效性,就依赖于统计范围和数据的无限扩展。概率学是伴随着统计学几乎同时产生的。

  概率不是绝对,不是百分百的,它或多或少存在挂一漏万的可能性。因此,从理论上看,统计学不可能做出百分百的正确预估。但这不能否认其科学性。

  人们一度非常审慎地使用统计和计划的手段。

  ▎ 算法时代,会否产生机器官僚主义

  随着互联网的大面积普及,算法时代来临。过去的审慎态度面临着巨大的挑战。因为从经验出发的分析,往往带来可观的结果。更重要的在于,人工智能的不断发展,算法的不断升级,在很多领域取得了过去无法预计的进步。

  人们一度相信,人类的大脑是不会输给计算机的,这种偏执的观念如今显得非常陈腐。随着人工智能在诸多工业领域的发展,过去科幻电影中的镜头,正从屏幕上走下来,进入人们的日常生活。

  对一个病人而言,相信一台电脑几十年的案例分析与优化的治疗方案,肯定比相信一个初出茅庐的医学院毕业生更实际。 诸如此类的事件不断出现,让人们相信,算法时代,指导人们的行动纲领应该来自计算机,而不是几个人在办公室召开的会议结果。

  这让人产生一种隐隐的担忧,过度依赖数据和算法,是否会产生一种「算法时代的机器官僚主义」——凡事唯算法的马首是瞻,一切的生活方面与所有的行动都在算法中进行,且只以算法的结果为指导标准。并且这种情形已经在发生了。

  在这个算法时代,数据就如工业时代的石油,算法就如发动机,算法会越来越强大,但同时也导致人们对发动机的过度依赖。

  比如,一些新闻APP给终端客户推送的资讯,是以算法为基础的,如果你常看美女,它就只给你推送与美女相关的图片、文章或视频等信息。

  但你的需求就这么一次被固化了吗,难道别的信息就不需要了吗?非也。

  ▎ 对算法依赖,一定要有限度

  人之所以能成为万物之灵,在于他是能够运用自己理性的动物。从伦理学的角度而言,人具有普遍性的一面,即所谓共性,也有特殊性的一面,普遍性与特殊性结合,产生个体性。个体性是独一无二的。德国哲学家莱布尼茨说过的那句「世界上没有两片相同的叶子」,说的就是这个道理。

  人更重要的特性还在于,人的精神世界的图景极其广博深邃,每个人对外部世界的感受与做出的回应,必然与他人有不同之处,并且多种多样,不可穷尽。这正是人之为人的可贵性。

  英国哲学家贝克莱在分析因果律这一重要的哲学命题时,得出一个结论,那就是不能从一件有联系的且反复出现的前后事件而认定,这后一件事必然跟随前一件事出现。亦即说,因果规律本身是一个缺陷。

  就连我们自己的经验也告诉我们,基于算法的对个体做出的分析虽然有一定的依据,但它对人的全面的发展变化着的需求,远不可能做出详尽的判断。

  因此,对互联网时代的算法的依赖,一定要有所限度。否则的话,我总觉得,那是一种恐怖而疯狂的局面。

  人工智能与底线思维

  本文节选自《人类还有未来吗》

  文丨何怀宏

  01

  为什么人工智能需要底线思维?

  现在我想阐述一下我在研究人工智能问题上所秉持的一种基本方法或者说思维取向,即底线思维的方法和取向。

  

  何怀宏

  在一般意义上,“底线思维”或可说是一种优先考虑到最坏情况、防止和化解最坏情况出现的思维。而在道德层面, “底线思维”也可以说是从防止出现最坏情况的思考开始, 从伦理的角度而言,“底线”的进一步含义是防止社会不致崩溃的底线,是作为社会成员的人们必须遵守的最起码和最基本的道德规范,也就是底线伦理。(有关这方面的详细论述参见何怀宏《底线伦理》,辽宁人民出版社1998 年版;何怀宏《良心论:传统良知的社会转化》(修订版),北京大学出版社 2017 年版。)

  

  《良心论》

  著者:何怀宏

  所以,从道德底线的角度看,社会伦理应当主要考虑如何使人们普遍地成为守规则的人、有原则的人,而不是都成为英雄圣贤。虽然,在遵守规则的基础上,人们还可以继续努力。

  多年来,我一直倡导并重点强调底线伦理,借用流行的一句话说就是,“规则比道德更重要”。但这句话里的“道德”恰恰反映出即便是赞成底线伦理的人,对伦理道德的概念也还有一种因袭的误解,就是将“道德”理解为高尚乃至完美、至善的价值标准。所以,“规则比道德更重要”说法的更恰当的含义应该是,普遍遵守规则比要求人们高尚无私更重要。

  但是,在现代社会的伦理规范中,规则其实就是道德, 是道德的主要内容。而且,我强调的规则还不仅仅是指在公共生活中,诸如是否不要有占座行为这样的规则,而是关乎人类的生存、安全和基本权利的规则。

  不同领域的学者无论有意识还是无意识都在坚持和主张底线思维。例如,一位社会学家谈到“生存的底线”,这正是在最基本的层次上坚持的底线;有一位历史学家谈到“共同的底线”,他是在强调和寻求一种基本的共识;还有一位哲学家似乎不完全赞同底线伦理的理论观点,但他主张一种“说理”的态度,而这恰恰是底线伦理所主张的。为什么要说出理由而不是动刀枪?为什么要说服而不是压服?这正是基于底线伦理的理由,因为底线伦理正是坚决反对暴力强制的。

  对人工智能的思考也是如此。我基本上是秉持一种“底线思维”,也就是说首先在底线(这首先是生存)的层次上,考虑防止最坏的情况发生。然后,再考虑去争取最好,或者毋宁说是最不坏的一种情况。我对“最好”的理解可能和许多人不同,也就是指“还不坏”。其次,这一底线也是指基本的道德乃至法律的约束和规范,这是保存生命的最基本的原则。主要考虑的是如何确立人对机器伦理的规则,而不是考虑如何培养机器具有高尚的价值观。

  而且,人工智能的最坏情况很可能恰恰发生在人们认为最好或者说要求最好的时候,也就是说发生在这种智能变成通用的、超过了人类智能的超级智能时的临界点。过了这个临界点或者说奇点,世界上最聪明的存在就不是人类了,而是人类现在尚且不知、以后依然不知其究竟的某种超级智能存在。

  那个时候的超级智能不是上帝,却堪比上帝,甚至胜似上帝,因为上帝不直接干预人类社会。但超级智能却是由人而生,而且会反客为主。所以,这种通用的超级智能的出现,将是人工智能带来的最大问题,比起所谓的“算法歧视”,甚至失业、“无用阶层”来说,这是最大的挑战,也是最大的危险。

  02

  人工智能是福还是祸?

  谈到底线思维,是和高调理论相对而言,即对人工智能抱有一种很高的期待。有些人认为,智能机器将给人类带来极大的福祉和享乐,乃至带来“长生不老”以至于“永生”的可能。甚至还有一些富人,可能准备或者已经开始这种实践的尝试。

  

  《未来简史》

  著者:[以色列]尤瓦尔·赫拉利

  还有一种高调的认知是:一些人听说或者意识到人工智能可能带来危险,却依然执着地甚至有些盲目地认为,不管怎样,到时候人类还是能够有办法解决这些问题的,而且认为,这已经是被人类以往与机器打交道的经验所证明了的。人类可以依靠高智商加以应对,可以通过新的发明化解这些危险。

  然而,人类现在面临的可能是一种全新的情况。以前遇到的技术所带来的风险,比如,机器所带来的各种事故或者灾难,甚至包括环境污染和全球气候变暖等问题,或者因为机器本身不具备智能,或者发生的速度还比较慢,都容有一定的时间使人类能够运用高智商和技术手段加以应对。但现在面临的情况之新在于:超级智能是一种比人类更聪明的存在,是一种控物能力超过人类的真正的“超人”。这样,就像有的学者所指出的,超级人工智能将可能是人类“最后的发明”。

  

  《我们最后的发明:人工智能与人类时代的终结》

  著者:[美]詹姆斯·巴拉特

  还有一些科学家和哲学家认为,即便是面对这种超级智能,人类还可以预先培植和训练这种超级智能机器的价值观, 比如说,可以考虑给这种机器人预先植入一种对人类友好的价值观。美国加州大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell)认为,制造出一种比自身物种更为聪明的机器并不一定是好事。他建议,为了防止机器人“接管”人类, 人类必须制造出具有“无私心”的机器人。因此,在为机器人编程时,就应当将利他主义、谦虚谨慎的品质及其他一些人类的正确价值观编写进去。

  

  斯图尔特·拉塞尔

  颇有些讥讽意味的是,自私的人类为了自身的安全和福祉,想要设计出完全无私的机器人。而“无私心”或利他主义也并不完全是人类的价值观,至多是一部分或一个方面的价值观,这一方案的设想就是人性还有自私自利一面的证明, 恰恰是为了满足人类的自私自利的欲望。虽然,的确也不能否定这种在生死问题上的人类中心主义,但此举能否取得成功令人怀疑。

  还有人预感到智能机器的智商可能将超过人类的智商, 却从社会理想的角度得出了一个相当不同的甚至可以说是欢欣鼓舞的结论。这一比较罕见的观点是清华大学的冯象教授提出的。他在《我是阿尔法》一书中提出,人工智能的科技与经济有可能帮助共产主义提前实现。等到将来机器比人聪明的时候,或者说人机融合之日,电脑要重塑人脑,“革命将始于先进的电脑对落后的人脑的教育和启迪”。他设想将出现一种全新的文明:人机关系和谐而融洽,其社会关系,人与人、人与机器、机器之间都由共同的“大公无私”的世界观、价值观维系。这也就是“人机大同”的社会。

  

  《我是阿尔法》

  著者:冯象

  冯象教授似乎毫不担心人的机器化, 或者说人的硅基生物化。他似乎是对现实社会中的人类失望, 因为很难改造他们成为“全新的人”、完全“无私的人”。因而, 现在的人类很难配得上未来无比美妙的社会。但现在出现了机器人,人类似乎可以将它们改造和塑造成“ 全新的人”,而且,它们也可以反过来将人类改造或塑造成“全新的人”。

  我对此持深切怀疑的态度。怎么断定超级智能机器人能够继续听从人类呢?如果作为碳基生物的人都不存在了,人的社会理想还能存在吗?“对人类友好的价值观”和帮助人类实现最高社会理想的高度乐观的看法,遇到的最大的障碍在于硅基生物与碳基生物的根本区别。

  即使超级智能也具有自我意识和价值观,可能它们还是不懂人类,人类也不懂它们。因为人类的意识和价值观是从自身肉身的感受性而来,而超级智能并没有肉身,没有这种感受性。

  人类也不是太懂其他生物,不太懂鸟语花香,人类欣赏花朵的美丽和芬芳,但这些表征可能只是生物为了满足自身的生长和生命延续的要。人类欣赏孔雀开屏的美丽,但孔雀开屏并不是为了愉悦人类,可能只是为了吸引雌性的同类, 只是在和自己的同类交流,追求它们自身的“利益”。但人类毕竟和地球上的其他生物一样都是碳基生物,也都需要营养,所以,人类还是能够从同样具有的一些最基本的生命感知理解其他生物的一些生命感知。而机器则完全不一样,它们是一种完全异样的存在。

  比如说,要培养恻隐和怜悯的感情,恻隐是道德的源头,人们看到其他人遭受身体的痛苦,因为有自己的身体,所以能深切地感受到这种痛苦。人们看到其他人遭受自然灾难, 或者被人为地伤害甚至杀戮,就会产生提供援助的愿望,直至正义感油然而生。因为大家都是人,都有身体,能切身感受到这种苦痛。甚至在其他一些动物身上,比如看到同类受伤的大雁和大象等动物,也存在类似的情感,因为它们也是碳基生物。毕竟同为碳基生物,人类和其他生物是能够产生一些相通的感知的。

  但是,“阿尔法”,或者说硅基生物,甚至说半硅基生物能够感受到这些痛苦吗?如果说它们即便没有这种感受,却还是具有类似于人的正义感和倾向于人的价值观,那么它们的正义感和无私心从何而来?这种正义感和无私心是不是无本之木、无源之水?它们作为硅基生物对人类不应该是麻木的吗?即便说它们能够听从人的指令,但人不是有私心的吗?而且,可以说不同的人追求的理想价值观念其实是会相当不同的。如果机器具备了超越人的智能,它们是不是更倾向于形成自身的自我意识甚至价值观?这种自我意识和价值观会和人类一样吗?它们是否会倾向于保证自身的特殊目标,甚至发展自身的特殊利益?

  《我是阿尔法》的作者从社会理想的角度思考相关问题,可能对现实社会的人类、对真实生活中的人们感到失望,认为有太多的个人欲望,人不能够成为推动实现心目中的伟大崇高理想的主体力量,所以对智能机器寄予希望,认为它们有可能永不生锈,甚至成为永生的任劳任怨、无私奉献的“螺丝钉”式的人。但是,这个目标能够实现吗?人和机器能够互相改造甚至“融合”为一体吗?智能机器愿意“融合”吗?退一步而言,如果人机真的能够“融合”为一体,那么这一新的存在还能称为“人”吗?

  《我是阿尔法》的作者正确地认识到资本的贪婪和人类不断增强的物质欲望带来的危险,他寄希望于国家权力,寄希望于全盘公有化。但他似乎没有意识到,执掌国家和公有财产的也是人,他们也有自己的欲望和利益,他们之间也有价值理念和利益的竞争。

  如果说不相信普通人,为什么能够那么信心满满地相信那些掌握极大权力的人能够没有私心杂念而“天下为公”呢?如果说智能机器落入了资本之手是可怕的,那么被权力掌控就不可怕吗?或者说,未来的权力和公有财产将不由少数人执掌,但这种权力共享和共有又是通过什么途径和手段实现的呢?或者在这一过程中,是否还是会由少数人主导?作者或许还可以进一步探讨这些问题,我们愿闻其详。

  总之,在我看来,上述的一些高调方案都是靠不住的, 面对一种比人类更聪明的存在时,更是如此。还不如预设一种机器,一旦达到甚或接近某个超越人类智能的临界点,就启动预设的自毁装置的程序或许更为可能。当然,人类也会因此付出代价,要做好到那个时候,人类会失去大部分的舒适与方便的心理准备。

  更合理的一种思路是要提早预防,即我探讨过的规约和立法,使人工智能严格地只限于向小型化、专门化的方向发展,也就是不发展通用的超级人工智能。并且在此过程中,一直都严格地限制机器人使用暴力。

  03

  应该建立怎样的人机关系?

  过去,人们一般认为核武器是人类最大的威胁,但未来可能不再完全如此了。我将核能和人工智能做两点比较:首先,核能在一开始就使人们感到危险,它不仅是以核武器爆炸的形式在世界亮相,即便后来和平利用核能也发生了使世人警醒的大事故。而人工智能却是一直使人们感到舒适和便利,人们对人工智能充满好奇的赞叹。

  人工智能看上去很驯服、很温和,完全“人畜无害”,却可能突然对人类发出致命的一击,而其他的动物、植物等生物可能同样难逃此劫。其次,在核战争之后,人类还有可能劫后余生,即便打回石器时代,或者出现更糟糕的情况,也还可能有经过浩劫的人类存在,他们的继续生存虽然会很艰难,但他们毕竟有现代人的知识和记忆,甚至还有一定的设备和技术手段,他们还是很有可能努力生存,乃至缓慢地重建人类文明。

  但是,如果出现了一种比人类更聪明、更有能力的存在,那么人类大概就失去了希望,人类将无处逃遁,即便人类有能力像埃隆·马斯克(Elon Musk)所设想的那样移民火星,超级智能只要愿意,可能也有能力将人抓回或者毁灭掉。面对远比人类聪明和能干的“超人”,人类将无可遁形,躲在几十米深的防核地堡中也没用,把自己冷冻起来也没有用。

  因为人工智能不是像核武器那样单纯的手段工具,它可以比人类更聪明,也具有自主性。所以,它不仅毁灭人,也取代人。也许到那个时候,人类个别的肉身会被作为样本或者养在动物园供观赏而不致被毁灭,但人类的文明进程将被中断和结束。

  

  埃隆·马斯克

  所以,要充分理解人工智能可能带来的危险,需要深入细致地从历史到理论辨析什么是人,什么是物,辨析人工智能和人的关系为什么不再能够被过去人类所处理的人和物的关系所包括。这是一种全新的人机关系,人类究竟应该如何对待,如何处理这一关系,过去的经验是不够用的。这种新的超级智能属于人而又非人,源自人又可能反叛人,它和人类的关系将会同时带有人物关系和人际关系的一些特点,它在未来很有可能成为一种人类难以知晓的存在。

  人们可能会认为奇点来临的情况不会发生,但愿如此。但还是存在强大的动机和背景使这种情况有发生的可能,因为不难体察到人类强烈的物质欲望、商业利益、对名利的追逐和猎奇是奇点出现的根本动力。另外,还有人工智能本身发展的指数定理,以及其他同样迅速发展的科学技术,比如基因工程和纳米技术的结合,即所谓GNA。对于超级智能的出现时间,有人预言在 21 世纪中期,有人预言在 21 世纪末。即便是在下一个世纪出现,大概也只有百十来年的时间。对一个人来说,一百年的时间很长,但对于人类社会而言, 一百年不过是弹指一挥间。

  现实的社会背景之一是,大多数人要求过一种物质财富充分涌流、越来越便利的生活的希望似乎是合情合理的,而少数人的好奇心和创新精神是人们目前所向往和赞美的。这导致人类的高科技能力的发展已经远远超过人类自身控制能力的发展,尤其是在人的道德意识和能力方面,因而可能失控的问题是难以避免的,人工智能只是其中一个最有可能且会带来最大危险的领域。

  而且,和以前的文明危机意识有所不同,柏拉图痛感过雅典的衰落,奥古斯丁哀叹过罗马的陷落,中国的士大夫也说过“崖山之后再无中国”,但这些灾难都是在局部的文明中发生的。在过去,不仅一个固有的文明还可以再发新枝甚至再辟天地,不同的人类文明也可以此起彼伏。但如今,如果一旦发生大的灾难,就可能是全球性的和不可逆的。

  未来会出现越来越多的来自技术和社会的挑战,可能将使人类不得不增强人类同属于一个命运共同体的意识。我对“人类命运共同体”中“命运”这一概念的理解主要是来自古希腊,更多地带有一种悲剧的色彩,当然也有与悲剧抗争的意识。人类要谨防犯下那些不可逆的、颠覆性的错误。

  04

  如何防止最坏的情况发生?

  目前的关键还是人,是人类自身,主动权还掌握在人类的手中。

  那么,如何防止最坏的结果出现呢?为此,我不再谈人工智能的技术和路径问题,而只谈主体问题。在防止最坏结果方面主要依靠哪些人?尤其是在开始阶段。有一个观点见于先秦好几个学派的著述之中,这在某种意义上可以看作中国古代先哲的一种共识,或者说是一种古老的智慧。这句话大致就是:“民可与乐成(或安成),不可与虑始(或谋始)。”也就是说,在实行某些深谋远虑的举措时,在开始的时候,或者需要迅速做出某些决断的时候,可以说这些举措最终是为了大众或民众的利益,即便真的如此,但在当时并不一定能够得到大众或多数人的支持与关注。

  我认为,在采取有关预防人工智能发生最坏情况、具有深谋远虑的决策和举措方面,目前能够依靠或诉诸的是“关键的少数”,而不一定是多数。为了多数人和全人类的福祉,需要“关键的少数”,“让一部分人先明白起来”。这个“关键的少数”至少应该包括四种人,即目前掌握科技、经济、政治和舆论资源的四种人。

  第一种人是第一线的科研人员。他们是人工智能发展和取向的最直接和最重要的人,可以做什么,不可以做什么, 首先是他们的选择。但他们的确也有局限,一方面,他们过于忙碌,很可能没有空暇思考一些涉及人类生存的根本问题。另一方面,这些研究人员有强烈的对知识的探究和创新精神, 但与此同时,他们也有一定的希望“暴得大名”的功名心。

  第二种人是研发公司的拥有者和管理者以及投资者,或者说是提供资金的人。他们的资金投向会决定人工智能发展的方向。但他们也有局限,那就是追求利益和利润的最大化。

  第三种人是政治领导人。他们可以从法律和政策层面决定人工智能的发展,他们的确会考虑得比较全面,而且注重社会的稳定和安全。但他们也有局限,比如说,存在国际竞争与全人类利益的矛盾,狭隘的国家利益的考虑乃至个人的政治野心,有可能阻碍他们以关乎全人类福祉的公心对相关问题进行决策。

  第四种人就是观念人,比如艺术家、人文与社会科学学者、媒体人等。他们的思想比较独立,最无障碍,百家争鸣, 他们能影响前述的三种人,也能影响公众,凝聚民意。但他们的局限是离直接的实施领域和决策领导层较远。

  总之,防止出现人工智能方面的灾难还是要靠人类自身的危机意识和采取行动,想让机器来实现人类的价值观是不靠谱的。如果问我是持一种悲观主义还是乐观主义的观点来看待人工智能的未来,那么或许可以回答说:人们首先应该考虑的是预防最坏结果的出现。但也许正是基于此,最后反而能得到最不坏的结果。

  当前浏览器不支持播放音乐或语音,请在微信或其他浏览器中播放 痴情冢 (二胡版) 音乐: 小陈同学

  

上一篇:韩国女团成员排名(韩国女团成员人气排行榜)
下一篇:《命运方舟》上线、冒险岛新作测试 腾讯高光周来临?网易不甘示弱