互联网巨头的AI伦理实践

栏目:热点资讯  时间:2023-08-09
手机版

  

  

  智道

  聚焦前沿科技与法律伦理的交汇碰撞

  栏目主持人:於兴中

  投稿邮箱:zhidao0101@163.com

  在一个高度技术化、数字化的社会,在公司的治理版图上,技术伦理将成为与财务、法务等既有板块同等重要甚至更为重要的板块

  ?   未经授权 不得转载

  文 | 曹建峰

  责任编辑 | 尹丽

  科技创新与科技伦理是当前的热门话题。近年来,随着各界对AI(人工智能)伦理的日益重视以及各国对AI监管政策的持续推进,各大科技公司纷纷拥抱AI伦理,把可信AI(人工智能技术本身具备可信的品质)作为打造AI产品(服务)核心竞争力的引擎之一。

  国外主流科技公司在此方面谋划较早、布局较全,涉及原则、治理机构、技术工具和解决方案、AI伦理产品服务、行动指南、员工培训等诸多层面。笔者对微软、谷歌、IBM、Twitter这4家比较有代表性的公司的实践做法予以系统梳理,以期能够有所启示。

  01

  建立内部治理机构

  目前,业界主流科技公司都设有AI内部治理机构,专门负责践行AI伦理方面的事务。比如,微软主要有3个内设机构负责AI伦理事务,分别是负责任人工智能办公室、人工智能、伦理与工程研究委员会以及负责任AI战略管理团队。3个部门分别主要负责制定公司内部的负责任AI规则、为内部提出的AI伦理问题提供解决方案以及帮助工作团队落实负责任AI规则。通过这3个部门的通力合作,微软公司将AI伦理原则落到实处。

  2018年起,谷歌也成立了负责任创新中央团队,在人权、用户体验研究、伦理、信任和安全、隐私、公共政策、机器学习等领域逐步形成了一个AI原则生态系统。谷歌通过这个内部的AI原则生态系统来实施负责任AI的创新实践,帮助谷歌技术开发人员将负责任AI落实到他们的工作当中,形成了一个3层的治理架构,涵盖了产品团队、专门的审查机构和专家团队。

  近年来,谷歌的AI伦理团队在人工智能伦理方面发挥了重要的作用。比如2019年,谷歌云的负责任AI产品审查委员会评估了信用风险和信誉领域的产品,认为在当前的技术条件下,该产品可能在性别、种族和其他边缘化群体方面产生差别影响,并与谷歌“避免创造或加强不公平的偏见”的人工智能原则相冲突。

  2021年,先进技术审查委员会审查的其中一个主题是关于大型语言模型的发展。审查之后,先进技术审查委员会决定,涉及大型语言模型的研究可以谨慎地继续,但在进行全面的人工智能原则审查之前,此模型不能被正式推出。

  IBM、Twitter也相继成立AI伦理委员会、META团队,规避公司算法可能带来的伦理问题。在新冠疫情防控期间,IBM制定了数字健康通行证。委员会参与了通行证的开发阶段,认为通用的“疫苗护照”可能导致隐私问题或不公平的访问,最终作出决定“只有在个人同意后才能共享个人信息,并使每个人都受益”。

  Twitter的META团队正在对图像裁剪算法中的性别和种族偏见进行“深入分析和研究”。其中包括对图像裁剪(显著性)算法的性别和种族偏见分析,对不同种族亚群体的“主页”时间线推荐内容进行公平性评估以及针对7个国家不同政治意识形态的内容推荐分析,将算法的公平性原则落到实处。

  在一个高度技术化、数字化的社会,在公司的治理版图上,技术伦理将成为与财务、法务等既有板块同等重要甚至更为重要的板块。技术伦理作为商业伦理的新拼图,越来越多的科技公司开始将首席伦理官、伦理委员会等机制内化为常态化的组织架构,统筹推进相关工作。

  02

  开发技术和管理工具

  AI伦理和可信AI需要系统化的建设,抽象的原则和顶层的框架固然重要,但行胜于言,更重要的是将伦理原则转化为具体的实践,融入技术设计以打造负责任的技术应用。在此方面,各大主流科技公司还通过开发技术和管理工具,从模型的评估、开发、部署三个环节全面监督AI伦理原则的实施情况。

  例如,微软给出了一系列的技术解决方案,这些技术解决方案涵盖了技术工具和管理工具,同时,还包括了按照应用场景将需求特性集成到AI系统中的工具包。这些工具中有许多在业界形成了较大的影响力,如促进数据集创建者和数据集消费者之间沟通的Datasheets for Datasets、评估给定AI模型公平性的Fairlearn以及帮助人们理解/解释“黑箱”模型的InterpreteML。这些技术解决方案贯穿了人工智能从开发到部署的整个生命周期。

  谷歌方面也开发出了Fairness Indicators、Federated Learning、Real Tone等工具,用于帮助开发者在人工智能产品的开发过程中贯彻AI伦理原则。IBM则根据AI伦理的五大支柱:可解释性、公平性、鲁棒性(稳健性)、透明性、隐私性,提出了5种针对性的技术解决方案。

  03

  提供伦理AI解决方案和服务

  除了提供开发技术和管理工具,许多大公司还将本公司开发的AI伦理解决方案包装成产品或服务,盈利或公益性地外包给其他公司。比如谷歌公司的Google Cloud,它为各行业大规模应用可信赖AI模型,提供可靠的基础设施与高效的部署方案,并配套提供员工培训、集成相关开发环境等服务,使得各行业人员能更便捷地掌握和使用可信赖的AI工具模型。

  此外,IBM和微软也分别发布了《人工智能日常伦理指南》以及一系列行动指南,针对人工智能交互问题、安全问题、偏见问题、机器人开发领域问题,发布了6项行动指南,贯穿负责任AI的评估环节、开发环节,将道德、伦理贯彻在AI的全生命流程中。

  04

  搭建AI伦理黑客社区

  除此之外,为将AI伦理原则落到实处,上述科技公司还作出了许多创新性的尝试。颇有意思的一种路径是Twitter公司搭建的AI伦理黑客社区(类似于网络安全领域的白帽黑客)。这是为了解决ML图像裁剪的公平性问题,使用社区主导的方法来构建更好的算法,收集来自不同群体的反馈。

  2021年8月,Twitter举办了第一次算法偏见赏金挑战赛,并邀请人工智能开发者社区来拆解算法,以识别其中的偏见和其他潜在危害。算法赏金挑战赛帮助公司在短时间内发现了算法对于不同群体的偏见问题,成为公司征求反馈和了解潜在问题的重要工具。

  AI伦理不仅是理念原则,更是行动路线。各公司打造的内部治理机制、技术解决方案、伦理培训、伦理黑客社区、技术标准等传统的和创新性的方式日益发挥出重要作用。

  在这样一个新技术、新应用、新业态以指数级增长的数字化时代,由于技术与人之间的交互和相互影响不断加深以及技术越来越具有更高的自主性,技术伦理成为了数字商业伦理的最新命题。正如微软总裁兼副董事长布拉德·史密斯在其著作《工具,还是武器?》中所言,“如果你掌握了能够改变世界的科技,那么你就有责任帮助解决你创造的世界所面临的问题”。

  05

  科技向善如何实现

  我国的相关顶层政策文件和立法都对科技伦理提出了新的要求,强调科技伦理审查的重要性,塑造科技向善的文化理念。在这样的背景下,国外科技公司在AI伦理和可信AI的实践做法,可以提供很多有意义的启发。

  其一,在一个高度技术化、数字化的社会,在公司的治理版图上,技术伦理将成为与财务、法务等既有板块同等重要甚至更为重要的板块。技术伦理作为商业伦理的新拼图,越来越多的科技公司开始将首席伦理官、伦理委员会等机制内化为常态化的组织架构,统筹推进相关工作。

  其二,AI伦理和可信AI需要系统化的建设,抽象的原则和顶层的框架固然重要,但行胜于言,更重要的是将伦理原则转化为具体的实践,融入技术设计以打造负责任的技术应用。在这方面,内部治理机制、技术解决方案、伦理培训、伦理黑客社区(类似于网络安全领域的白帽黑客)、技术标准等传统的和创新性的方式日益发挥出重要作用。因为可信AI和AI伦理不仅是理念原则,更是行动路线。

  其三,正如可信AI和AI伦理的概念本身所表征的那样,需要反思技术人员主导的技术研发应用和部署过程,更多强调技术开发应用中的多元背景和多元参与。将政策、法律、伦理、社会、哲学等领域的人员引入开发团队,是将伦理要求嵌入技术设计开发的最直接的、最有效的路径。好的技术不仅关注结果,更要关注过程。

  科技向善是高度技术化社会的终极愿景。科技向善(tech for good)的理念至少包括两个路径,向外需要用技术解决各种社会问题挑战,向内需要关注技术本身,打造“善的/好的技术”(good tech)。AI伦理和可信AI正是聚焦于如何打造“善的/好的技术”,最终为向外发力的“科技向善”建立基础。

  END

  视觉编辑 | 王硕 赵瑞 

上一篇:杜仲功效和食用方法
下一篇:春酲岱雨