187、【机器人】谁为机器人承担伦理与法律责任?

栏目:学历教育  时间:2023-06-14
手机版

  谁为机器人承担伦理与法律责任?2017-09-25 机器人

  桑希尔:厂商、程序员还是用户?当机器人获得了更强的认知能力乃至有了意识,是否该由机器人自身来承担责任?

  

  《火魔战车》(Maximum Overdrive)作为有史以来最大烂片之一被载入影史。这部1986年的科幻恐怖喜剧片想象了这样一个世界:推土机、链锯和电吹风机等无生命的物体活了过来,并且开始屠杀人类。就连担任该片编剧和导演的畅销书作家斯蒂芬?金(Stephen King)都说该片是一部“愚蠢的电影”。

  但在这部电影拍摄期间,酷似电影剧情的一幕在现实中悲剧性地上演,一台无线电控制的割草机闯入摄影棚,导致摄影导演重伤,一只眼睛失明。他将金和其他17人告上法庭,以不安全的工作方式为由,索赔1800万美元,最终双方达成了庭外和解。

  从某些方面来说,这部电影的拍摄经历在一定程度上牵涉到了当下有关自动化、机器人和人工智能(AI)的热门辩论。虽然我们似乎对这类技术在遥远的未来可能给人类带来生存威胁感到恐慌,但我们有可能忽视了一个更加迫在眼前的问题:如何管理我们创造的机器?

  谁应该为日益普及的机器人的行为承担道德、伦理和法律责任?厂商、程序员还是用户?从更长期来看,当机器人获得了更强的认知能力乃至有了意识,是否该由机器人自身来承担责任?

  三个场景:出了这些问题会有什么结果?

  1.当聊天机器人出现反常行为

  问题

  去年3月,微软(Microsoft)被迫从Twitter下线其AI聊天机器人Tay,此前Tay因为在线用户的恶作剧而在Twitter上发出种族主义、性别歧视和仇外言论。今年8月,两个中国聊天机器人也离经叛道,对用户提出的有关南中国海和共产党的问题给出了反爱国主义的回答。

  结果

  考虑到有关假新闻的争议,人们不确定是否应该禁止AI聊天机器人传播政治观点。一些专家主张,聊天机器人的所有者应该享有言论自由,只要他们为诽谤言论承担法律责任。

  ————

  澳大利亚新南威尔士大学(University of New South Wales)从事AI研究的托比?沃尔什教授(Toby Walsh)在即将出版的新书《机器人之梦》(Android Dreams)中主张,开发思维机器就像人类过去尝试的种种冒险一样大胆和雄心勃勃。“就像哥白尼(Copernican)的日心说革命一样,这将从根本上改变我们在宇宙中看待自身的方式,”他写道。

  无人机、无人驾驶汽车,以及医疗、教育和家用机器人的数量正在爆炸性增长,在我们的天空、街道和家中嗖嗖地游移,这使这类问题变得更加紧迫。尽管机器人革命有望改善人类的生活状况,但也有可能释放出颠覆性的经济力量。

  华盛顿大学(University of Washington)的法学教授瑞恩?卡洛(Ryan Calo)表示,我们倾向于把机器人当做一种未来技术来讨论,却忽视了我们已经与它们共存几十年的事实。

  “如果你在上世纪20年代、40年代、80年代乃至2017年设想未来,你都会想到机器人。但事实上,自上世纪50年代以后,机器人就存在于我们的社会中了,”他说。

  在一篇标题为《美国法律中的机器人》(Robots in American Law)的论文中,卡洛研究了过去60年涉及机器人的九宗法律案件,发现大多数司法推理都建立在对科技贫乏(而且往往过时)的理解上。“机器人让法院面临独特的法律挑战,法官们还没有做好应对的准备,”他总结道。

  这些案件大多围绕着一个问题:机器人能否被视为替代人的角色的主体?比如,在征收进口关税的问题上,它们是否应被视为是“有生命的”?它们能否在音乐厅以艺人的身份“表演”?无人机器人潜艇能否“占有”一艘沉船,从而争取打捞权?

  卡洛发现,法官们有一种很强的思维模式,倾向于将机器人视为可编程的工具或者不能自己做出决定的机器。但随着机器拥有了具体形态(有时候是人形),呈现出机器人研究者所称的“突现行为”(emergent behaviour),这种观点看起来日渐陈旧。

  “突现是机器人以系统无法预测的方式行动的特质,”卡洛说,“这不是哲学意义上的自主。但这使没有肇事者的受害者成为可能。”

  比如,一些高速交易算法正从金融市场的模式中“学习”,并以算法编制者无法预测、甚至可能无法理解的方式进行回应。研究人员正在研发这样的无人驾驶车辆,让它们能够对各种状况做出实时反应(希望如此),而不是通过预编程来预测每一种路况。

  2.机器的发现

  问题

  1857年“中美洲号”(S.S. Central America)在大西洋沉没,船上载着从加利福尼亚州淘来的黄金。1987年,一艘无人潜艇帮助发现了这条海底沉船。该无人潜艇的运营者主张,根据海商法他们享有优先打捞权,他们的无人潜航器已经帮助他们实现“独家保管、控制和占有这条沉船。”

  结果

  法院裁定这些打捞者确实做到了“远程占有”,理由是他们找到了沉船位置,提供了实时影像,能够在现场操纵物体,并有意识地实施了控制。一位海事律师表示:“这几乎相当于法庭创造了一条新的法律依据,不用实际占有就可以证实为占有。”

  ————

  最近,116名来自机器人和AI公司的创始人签署了一份请愿书,呼吁彻底禁止杀手机器人,即“致命自主武器系统”(Laws)。他们称使用这种武器系统越过了道德红线。杀死人类的只能是人类。

  位于安大略的Clearpath Robotics的创始人瑞恩?加里皮(Ryan Gariepy)表示:“我们不应忽视一个事实,即与其他仍只出现在科幻小说中的潜在AI技术不同,自主武器系统就要开发出来了。发展致命自主武器系统是不明智、不道德的,应该在全世界被禁止。”

  然而,在这个快速发展的世界中,想在人类与机器人之间画出清晰的界线是很困难的。最新的技术正在模糊人与物之间的界限,让机器人起到代理作用——即使算不上扮演代理人的角色。虽然今天的机器人还无法通过犯罪意图的法律测试,但以一个外行人对这一术语的感觉,它们似乎仍应对其行为“负责”。

  ***

  机器人技术的第二大进展是让AI具有机器外观,有时还设计成人形,旨在与人类进行直接接触,这一进展让人与机器人的界线变得更加模糊了。

  卡内基梅隆大学(Carnegie Mellon University)机器人研究所助理教授亨尼?阿德莫尼(Henny Admoni)表示,以往大多数机器人都独立于人类作业,主要在工业环境中从事一些枯燥、肮脏和危险的工作。但随着聊天机器人、无人机和家用机器人的到来,上述情况正在迅速改变。

  她说:“过去10年里我们看到被设计为与人类直接接触的机器人的兴起。”

  3.如果自动驾驶汽车出车祸,责任在谁?

  问题

  去年5月,一辆半自动特斯拉(Tesla)的司机在佛罗里达州丧生,原因是汽车的自动驾驶系统在光天化日之下没有发现一辆卡车。该事故提出了一个问题:就算人类能在紧急情况下收回控制权,允许部分自动的汽车在公共道路上行驶究竟是否安全?

  结果

  美国国家公路交通安全管理局(National Highway Traffic Safety Administration)进行了为期六个月的调查,结论是没有足够的技术故障证据证明应该大量召回该款车。不过该部门补充说特斯拉应该加强对司机关于特斯拉局限性的培训。NHTSA表示:“把它印在用户手册中,希望司机去阅读并遵守是不够的。”

  ————

  这推动了一个快速发展的学术领域,即人机交互领域。大学和企业的机器人部门一直在聘请社会学家、人类学家、律师、哲学家和伦理学家,集思广益,研究此类交互功能应如何发展。

  阿德莫尼说:“从法律和道德的角度来说,机器人是由人类编程并由人类设计的机器。但我们希望机器人能自主行动。我们确实想制造出能够处理新情况的机器人。在围绕机器人的辩论中,伦理是新近才增加的一个元素,因为机器人现在可以独立做事。”

  总部位于香港的Hanson Robotics的创始人大卫?汉森(David Hanson)已经制造了一些极为引人注目的类人机器人。他最出名的作品是今年4月在吉米?法伦(Jimmy Fallon)主持的《今夜秀》(The Tonight Show)上亮相的索菲亚(Sophia),一个逼真到让人毛骨悚然的机器人。

  汉森表示得益于自然语言处理技术,AI系统在理解语言交流方面越来越好。但他认为机器人还应该学习非语言的交流方式,如面部表情和手势。我们还需要它们理解人类的行为、文化和价值观。而最好的方法就是让机器人像婴儿一样,通过与人类生活在一起、和人类互动来学习。

  汉森表示通过开发“仿生智能算法”,并让它们借助高级的传感器吸收丰富的社会数据,我们可以创造出更智能、反应更快的机器人。而这会不可避免地让这项技术变得“真正的充满生气、自给自足、有突现行为、有感觉、有意识。”

  他还说:“我想让机器人学会爱,懂得被爱的意义,而且不只是狭义上的爱。是的,我们想要机器人能理解友情和亲情,理解这种情感牵绊。”

  “但我们也希望机器人拥有大爱,希腊语‘agape’那种爱,也就是更高层次的爱。我们还希望它们学会重视信息、社会关系、人性。”

  汉森认为当机器开始理解其行为后果,并为其日常挑战创造解决方案时,深刻的转变就指日可待了。“当机器能够这样思考的时候,它们就能够开始做出具有道德想象力的行为。虽说只是推测,但我相信在我们有生之年这一幕会到来。”

  如果这样的“道德机器”真能造出来,那么就会产生一大堆新的问题和挑战。机器人或其所有者是否对其数据拥有权利?可以认为机器人将拥有它们自己的合法身份吗?是否像汉森所说,它们甚至能争取权利?

  ***

  在有关机器人的辩论中,汉森的观点只能算是边缘思想,在今天看来显得荒诞离奇,但我们有充分的理由开始关注这些问题。出于各种法律原因,所有美国公司和印度一些神圣的河流已被赋予人格地位。英国也为一种无脊椎动物——章鱼——提供了额外的法律保护,因为它具有较高的感觉形式。未来的机器人也会受到如此不同的对待吗?

  伦敦帝国理工学院(Imperial College)认知机器人学教授、谷歌(Google)DeepMind高级研究员穆雷?沙纳汗(Murray Shanahan)表示,到了现在,我们应该对我们创造的一些机器负起责任,就像我们要对那些伟大的艺术作品负责。

  他说:“我们有道德责任不能破坏《蒙娜丽莎》,因为它是一件非凡的艺术品,对史料、对人们寄托了强烈情感的任何物品也是如此。”

  但他认为将智能系统人格化会有很大危险,如果这导致人们对基础技术的误读和曲解的话。制造商不应试图欺骗用户相信机器人的能力超乎它们所具备的。他说:“人们不应受蒙骗以为机器人比它们实际上更聪明。”

  沙纳汗认为在确定我们对机器的责任方面,区分认知和意识至关重要。“目前我认为谈论机器人的权利是完全不合适的。我们在这方面没有任何道德责任。但我不是说这永远不合适。

  “我同意机器人或许有一天会有意识。但它们首先必须要有玩耍、制造东西,以及从架子上的罐子里拿一片巧克力饼干的能力。”

  目前几乎没有政治家对这一话题表现出兴趣,但学术界和企业家发起的草根运动正将这些问题推上议事日程。

  在美国,卡洛等学者一直呼吁成立一个“联邦机器人委员会”,以研究关于智能机器应用的道德和法律问题。卡洛表示这个想法开始在国会——即使不是在特朗普政府——引起一些有限的兴趣。

  今年欧洲议会成员通过了一项决议,呼吁欧盟委员会成立一个类似的由机器人与AI专家组成的机构,并制定全欧盟范围通用的规则。特别是议员们还敦促欧盟委员会重点关注安全和隐私问题,以及考虑赋予机器人一种“电子人格”。

  一些有影响的美国企业家似乎也打算发起讨论。特斯拉和SpaceX背后的科技创业者埃隆?马斯克(Elon Musk)近日就呼吁要实施更广泛的监管,他也支持禁止致命自主武器系统。

  他在推文上写道:“没有人喜欢受到监管,但一切会给公众带来危险的事物(汽车、飞机、食品、药物等)都是受到监管的。AI也应如此。”

  引自:谁为机器人承担伦理与法律责任?

  (2018.7.23)

上一篇:香港底色,许鞍华
下一篇:《群鸟》一代“悬疑大师”经典之作,成为灾难恐怖片的一个标准

最近更新学历教育