迈向可持续的人工智能

栏目:人物资讯  时间:2023-08-11
手机版

  

  让人工智能迈向可持续,主要有两类措施:一是准确核算人工智能的碳排放量,二是在法律层面激励人工智能技术的提供者削减、中和碳排放,并且削减相应的障碍,由此,得以促进人工智能的提供者以可持续方式训练和使用其技术

  智道

  聚焦前沿科技与法律伦理的交汇碰撞

  栏目主持人:於兴中

  投稿邮箱:zhidao0101@163.com

  ?  未经授权 不得转载

  文丨朱悦

  责任编辑丨尹丽

  人工智能技术的训练和使用,需要调动大量算力。调动大量算力开展计算,同时也会制造可观的能量消耗和碳排放量。这些都和环境保护的可持续性原则相悖。人工智能的治理,因而不能忽略环境的可持续性。

  让人工智能迈向可持续,主要有两类措施:一是准确核算人工智能的碳排放量,二是在法律层面激励人工智能技术的提供者削减、中和碳排放,并且削减相应的障碍,由此,得以促进人工智能的提供者以可持续方式训练和使用其技术。

  核算碳排放量

  核算人工智能的碳排放量,意味着弄清楚人工智能的训练和使用开展了多少计算、又是在哪里计算。然后,即可将计算量换算为碳排放量。根据人工智能提供者的类型不同,核算的具体入手点也存在差异。

  实践入手开展核算,需要区分两种类型的提供者。如果是像OpenAI这样技术实力较强的人工智能技术提供者,情况相对简单。这些提供者都雇用了相当出色的工程团队和工具,随时监测、核算人工智能的训练和使用的各方面情况,计算量的消耗自然也不例外。这些提供者开发的核算方法和工具,通常也是整个行业的“金标准”。核算其计算量与其说是技术问题,不如说更多是数据调取中的权益平衡问题。

  如果涉及像LLaMA这样开源分发的人工智能,情况更加复杂。这些人工智能分发给了广泛且分散的企业和个人。上游训练和分发这些人工智能的提供者技术能力较强,同样有能力监测和掌握关于训练的计算数据。后续“接力”训练和使用的下游企业和个人,技术能力相对有限,很难监测掌握数据。对于这部分提供者,计算量的核算需要考虑到其规模、技术能力和成本负担等方面的特点。

  核算主要是弄清楚人工智能训练和使用的两方面事实。一是开展了多少计算;二是这些计算在哪些地区发生。如果有更加细致的数据,还有必要弄清楚支持计算的具体的能源类型。这些数据就是用来换算得到碳排放量的输入。

  对于人工智能的训练和使用开展了多少计算,根据情况的不同,核算方法也不同。如果是具备较强技术实力的单个提供者,其内部监测通常就是最准确的数据。实际上,由于这些提供者通常有着优化训练使用计算成本的秘密“机巧”,外界的估算很多时候只能是偏高的猜估。如果是技术能力较弱的企业和个人,可以根据人工智能的类型不同,提供一些经验公式或者开源工具来自行核算。也可以通过开源社区和云计算公司的有关数据,对这部分企业和个人的训练和使用所产生的计算量进行外部核算。

  人工智能的训练和使用在哪里开展,影响到如何将计算量转换为碳排放。通常来说,计算量乘上一个根据地区选择的转换系数,就得到了碳排放量。当地的能源越是“清洁”,这个转换系数就越小。当然,如果能够知道人工智能计算过程中具体的能量来源类型,可以开展更加具体的换算。这样的数据通常不易获取,所以一般只能按不同地区来转换。如果人工智能的训练和使用发生在不止一个地区,转换计算量时还需要考虑不同地区的不同权重。

  总之,对于具备出色工程能力的单个大型提供者,其碳排放量核算通常是“自给自足”的。如果是其他能力相对有限的企业和个人,可以通过开源社区和云服务提供商的数据来估算训练和使用的计算量,然后转换为碳排放量的核算结果。通过加总这些核算,还可以得到人工智能在社会层面的总体排放情况。

  法律上予以激励

  在能够比较准确地实践核算碳排放量以后,可以针对性地设计法律规则。法律层面不仅需要激励提供者削减、中和其碳排放,还要为其如此行事排除障碍。为了针对性地激励提供者,可以采取三种不同力度的措施。

  一是在人工智能立法中引入宣示性的可持续性条款。这也是欧盟议会在《人工智能法案》(以下简称《法案》)中采取的立场。今年5月3日版本的《法案》审议稿第4条规定了人工智能治理的“社会和环境福利原则”。具体来说,这一原则要求特定的人工智能提供者在训练和使用时“采取可持续且环境友好的方式”,并监测其技术的“长期影响”。这些原则通常不会引致非常具体的义务,提供者只需在其内部制度当中体现原则,并在训练和使用技术时适当考虑原则。

  二是通过立法或者法律解释的方式,通过有关社会责任或者环境、社会与治理(ESG)的法律规则激励提供者。例如,我国个人信息保护法第五十八条要求大型互联网平台处理者定期发布个人信息保护社会责任报告。在借助人工智能技术处理个人信息时,处理者核算、削减、中和碳排放量的努力理应属于其所履行的社会责任的一部分。ESG中的“E”代表环境,自然也包括了这些努力。

  三是进一步制定更加积极地激励提供者的法律。既可以通过施加义务来积极激励,也可以通过给予奖励来激励。由于人工智能碳排放量核算依然是技术性比较强的新兴领域,目前不宜施加过度的义务。欧盟《法案》第12条第2a段要求特定的人工智能提供者留存能够用于核算能源消耗和环境影响的日志,代表了目前能够施加的最严格义务。与此同时,如果人工智能提供者削减、中和碳排放量的努力能够方便地兑换为有交易价值的配额,能够对提供者形成显著的激励。

  法律上削减障碍

  人工智能提供者在核算、削减、中和碳排放时面临的障碍,包括个人信息、数据、算法和人工智能硬件跨国家和跨地区流动所面临的限制。对于个人信息和数据的流动限制,可能涵盖核算过程中需要留存、流动、加总的数据;对于算法和硬件的出口管制,足以导致无法将技术转移到能源更为清洁的国家或地区。

  无论是个人信息,还是数据、算法和硬件,对其流动的限制背后主要都是个人权益和国家安全。在对个人信息跨境流动的限制中,个人权益和国家安全都占据相当的比重。在对重要数据和核心数据流动的限制中,或者是对算法和硬件的出口管制,国家安全是主要的考虑。这里的国家安全更强调这些个人信息、数据、算法和硬件不能遭到域外敌对方的利用。出于地方发展的考虑,地区层面也有可能对数据的流动施加一定限制。

  这些限制本身都是适当且必须的,只是具体“松紧”程度可以进一步权衡。无论是个人权益,还是国家安全,能源消耗、碳排放和其他环境影响都是其重要组成部分。个人权益包括对可持续的环境的权益,民法典的绿色原则是这一点的体现。国家安全同样包括环境和生态的可持续性。鉴于可持续人工智能对个人权益和国家安全的意义,法律可以从两个角度排除其面临的限制。一是尽量避免对流动施加绝对的限制,留下基于场景和具体因素的考量空间,二是引入碳排放的核算、削减与中和,作为具体场景中倾向于放松限制的考量因素。

  总之,通过准确核算碳排放量和法律层面的激励措施,人工智能的提供者能够以可持续的方式训练和使用技术。准确核算碳排放量是基础。对于具备较强技术的提供者和技术实力较弱的提供者,需要采取不同的核算思路。然后是在法律层面予以激励、削减障碍。不仅需要通过宣示性条款、鼓励社会责任和引入具体奖惩的方式予以激励,也要排除留存核算与地域配置所面临的障碍。这样,人工智能的提供者既有具体的核算数字作为指引,又有激励以可持续的方式、在更清洁的区域训练和使用人工智能。由此,人工智能得以逐步迈向可持续的未来。

  (作者系北京科技创新中心研究基地研究员)

  END

  视觉编辑 | 马蓉蓉 王硕 

上一篇:《王朝的女人·杨贵妃》:大女子即视感的杨玉环
下一篇:猎人读后感(8篇)