姚瑶:人工智能时代过失犯理论的挑战与应对 | 浙江社会科学202212

栏目:人物资讯  时间:2023-07-29
手机版

  【副标题】 以自动驾驶汽车交通肇事为例

  【作者】 姚瑶(浙江财经大学法学院讲师)

  【来源】北大法宝法学期刊库《浙江社会科学》2022年第12期(文末附本期期刊法学要目)。因篇幅较长,已略去原文注释。

  内容提要:以自动驾驶汽车为代表的人工智能产品致害所涉犯罪主体复杂多样、前置性规范缺失,以及人工智能产品固有的自主与黑箱特性等问题给过失犯理论带来了变革的压力与挑战。传统过失犯理论、新过失犯理论以及客观归责理论都无法解决人工智能产品致害所涉过失犯罪认定问题。人工智能产品致害所涉过失犯罪刑事责任的认定问题应当接受“法益保护优先,兼顾科技发展”刑事政策的约束与指引。坚持“法益保护优先”的基本定位,意味着要借鉴风险控制理论,以及客观归责理论中创设法所不允许危险与实现法所不允许危险的判断规则,进行客观层面是否入罪的判断;遵循“兼顾科技发展”的制约原则,则需要运用结果预见可能性理论中信赖原则等内容,进行主观层面是否出罪的认定。

  关键词:人工智能产品;自动驾驶汽车;交通肇事;过失犯理论

  目次 一、人工智能产品致害所涉过失犯罪的认定困境 二、现有人工智能产品致害所涉过失犯罪认定方案的不足 三、人工智能产品致害所涉过失犯罪认定的基本路径 结语

  人类社会已经从农业时代、工业时代走向了信息技术时代,以数字化为特征的算法技术给我们的生活生产、社会治理以及经济发展带来了深刻变革。其中,可提升驾驶便利性与安全性的自动驾驶技术,成为了国家重点关注和支持的对象。2020年2月,国家发改委等11部委联合印发了《智能汽车创新发展战略》,展望到2025年,实现有条件自动驾驶的智能汽车达到规模化生产,实现高度自动驾驶的智能汽车在特定环境下市场化应用。虽然自动驾驶汽车研发与市场化应用的态势高歌猛进,但自动驾驶汽车交通肇事也引起了严重的法益侵害,引发了公众对自动驾驶汽车安全性能的担忧。当技术的发展不可避免地进入快车道,更应当重视搭乘科技快车的社会大众的安全,将技术带来的风险限定在合理范围之内,以减少科技发展给社会带来的不确定风险,建立良好的智能技术生态环境。基于此,当自动驾驶汽车等人工智能产品给公众造成了重大法益侵害,而这种损害是由于人工智能产品领域相关主体所实施的法不允许的危险行为所致,就需要考虑追究相关主体的刑事责任,以发挥刑法的犯罪惩治与行为指引功能,促使人工智能技术在以人为本原则的制约下科学发展。

  一

  人工智能产品致害所涉过失犯罪的认定困境

  立足于当下科技的发展,我国正处于弱人工智能发展阶段,在此阶段,人工智能产品致害问题并未给故意犯罪的归责理论带来冲击,这是由于人工智能产品只具备工具属性而不具备主体资格,而行为人利用人工智能产品实施的故意犯罪,只是实现了犯罪手段的升级,从而造成法益侵害或者侵害危险指数倍的提升。而与故意犯罪不同,对人工智能产品致害所涉过失犯罪的认定具有障碍,这种障碍主要是由人工智能技术引起的。

  (一)人工智能产品致害所涉过失犯罪主体认定困惑

  人工智能产品领域分工与合作的进一步加剧,给过失犯罪刑事责任主体的认定带来了困难。一方面,专业分工尺度深化。相较于传统产品,人工智能产品旨在通过模拟、延伸人脑进行交流和行动的方式参与社会交互活动,以实现在特定领域内替代人类的目的。人工智能产品效用的实现都归因于数字化技术的不断深化,生产者的生产设计环节就如同基因一般决定着自动驾驶汽车的先天安全性能。随着人工智能由弱到强的发展态势,人工智能产品对研发设计的依赖性亦不断增强。另一方面,角色分工界限模糊。随着人工智能技术不断发展,人类的角色亦不断地被替代。伴侣机器人替代妻子的角色,自动驾驶汽车替代驾驶员的角色。以自动驾驶为例,使用者不需要对半自动驾驶汽车的运行进行全程控制,自动驾驶系统开启时,使用者只须履行部分驾驶职责;当自动驾驶技术不断发展并进入全自动驾驶阶段时,自动驾驶系统可以自行完成全部驾驶任务,不会向使用者发出接应请求,不需要使用者对车辆进行接管与控制。可见,随着智能化进程的不断向前发展,人工智能产品使用者的义务与人工智能产品研发设计者的义务呈现出此消彼长的关系。传统机动车责任事故主要是由于驾驶人员超速等违章行为引起的,自动驾驶技术的出现,使得驾驶错误的来源从驾驶员转向了设计和制造自动驾驶汽车的生产者。

  基于此,人工智能产品致害场景下,承担过失刑事责任的主体也随之发生了改变。传统产品致害,通常只需要考虑是否存在产品质量或者是否存在使用不当问题。然而,在人工智能产品领域分工与合作进一步深化的影响下,人工智能产品致害事故发生后,还需要考虑研发设计等主体是否实施了相关危害行为。例如,自动驾驶汽车发生交通事故后,不仅需要考量自动驾驶汽车的驾驶员是否需要承担交通肇事罪的刑事责任,还需要判断自动驾驶汽车研发设计者的设计缺陷、生产制造者的制造缺陷对危害结果贡献力的大小,在此基础上判断上述主体是否需要承担刑事责任以及承担刑事责任的大小。另外,在人工智能产品的使用需要人机互动的情形下,还要妥善界定过失犯罪成立的范围。例如,在自动驾驶汽车开启自动驾驶功能的同时,也需要驾驶者随时保持注意力集中以应对危险的场合,如果自动驾驶汽车对驾驶者未手握方向盘的行为应持续报警而未报警,同时驾驶者由于疏忽大意而未保持注意力集中,进而未对自动驾驶汽车进行接管控制而引发危害结果的情形下,需要对生产者与驾驶者的刑事责任的承担和分配问题进行深入探讨。

  (二)人工智能产品致害所涉客观注意义务认定标准缺失

  人工智能产品设计与使用环节的规范性标准的缺失给客观层面刑法注意义务的判定带来难题。违反相关的行政法律法规等规范的规定,造成刑法构成要件危害结果的,刑法应当对该行为进行规制,以弥补行政法规制不足,发挥保障法作用。与自动驾驶相关的法律法规或行政规章等规范性文件大致可以分为两类:第一类为自动驾驶汽车道路测试与示范应用管理规范,第二类为自动驾驶汽车公共道路行驶的管理规范。2021年9月1日起实施的,由交通运输部等部门联合印发的《智能网联汽车道路测试与示范应用管理规范(试行)》对自动驾驶汽车道路测试与示范应用管理机构、车辆、驾驶人等进行了规定,这些规定在行政管理层面具有重大意义,并不能满足自动驾驶汽车交通肇事后刑事归责的需求。虽然该规范在第六章“交通违法与事故处理”中规定了“公安机关交通管理部门应当依法对当事人的道路交通安全违法行为作出处罚,构成犯罪的,依法追究当事人的刑事责任”。但是现阶段,我国关于自动驾驶汽车在公共道路行驶的规定缺失,《道路交通安全法》(2021年修正)未明确自动驾驶汽车的法律地位,未肯定自动驾驶汽车在公共道路上行驶的合法性,未对自动驾驶汽车的驾驶条件进行特殊考量,与自动驾驶汽车相关的驾驶要求仍游离在法律规定之外。基于此,法律如何评价自动驾驶汽车减轻驾驶负担、提供驾驶便利的使用目的?是否允许自动驾驶者醉酒驾车?是否允许适当放宽自动驾驶者的年龄以及视力等要求?这些在立法层面仍是悬而未决的关键问题。目前,自动驾驶技术的日渐成熟和法律规制空白已经形成了鲜明的对比。正如学者指出,在自动驾驶技术接二连三造成事故,危害到公民的人身安全和公共安全的时候,我们没有一个行之有效的法律可以对这些风险进行良好的规制。过失犯也是不作为犯,以违反作为义务为前提,鉴于无法依据相关行政法律规范中的注意义务,对自动驾驶汽车等人工智能产品的设计、生产以及使用主体所具有的刑法上客观注意义务进行判断,从而对人工智能产品致害所涉的过失刑事责任认定产生严重阻碍。

  (三)人工智能产品致害所涉预见可能性认定障碍

  自动驾驶技术“自主决策”的特性,给刑法因果关系与预见可能性的判定带来争议。在刑事责任的认定中,因果关系占据了重要的地位,学界关于因果关系的探讨亦从来没有停止,双层次因果关系理论、相当性因果关系理论以及客观归责理论都是为了解决刑事归责中的因果关系问题而提出的。传统的危害行为与危害结果之间引起与被引起的因果关系理论已经无法适应现代社会刑事归责的需求,由此学界提出了疫学因果关系理论、危险升高理论等,将危害行为与危险结果的发生概率升高的关系纳入刑法学研究视野。随着人工智能技术的不断发展,智能产品获得数据信息并据此作出相应行动的事实过程,引发了学界关于因果关系理论的再次反思。以自动驾驶汽车为例,自动驾驶技术依据认识、决策、以及行动实现运行功能,详言之,自动驾驶系统通过接收实时的车辆、行人、交通指示信号灯以及交通指示标识等与交通环境相关的数据化信息,从而做出转弯、减速、停车让行等决策。鉴于交通环境复杂多变,加之自动驾驶技术自主的适应能力,因此有学者认为,自动驾驶技术的自主性也给预见可能性的判断带来障碍,学者指出,虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获得的信息的分析和判断而展开,而且,它们在不同情境中的反应和决策可能不是其创造者可能预料到或者事先控制的。无独有偶,也有学者指出,由于人工智能深度学习的应用,智能机器人的行为将是非线性的,实际上是不可预测的。

  自动驾驶汽车是具有代表性的人工智能产品,以自动驾驶技术给刑事归责问题带来的挑战为视角,可洞察人工智能时代刑事归责的困境。第一,人工智能产品以减轻使用者负担为宗旨,而为实现这一目的,研发设计者承担了部分使用者的注意义务。因此,与传统产品致害问题相较,人工智能产品致害不仅要考虑直接使用者的刑事责任,也要考虑研发设计领域主体的责任。在此影响下,人工智能产品致害场合中多因一果的过失犯罪问题突出,需要直面监管过失以及共同过失等过失竞合问题;第二,风险制造主体必须自觉规范自身行为,否则会触犯以违反前置性法律规范为前提的法定犯的高压线,然而人工智能领域规范缺失以及技术标准发展滞后的事实,给刑事归责带来挑战;第三,人工智能产品自主决策的特性给预见可能性、因果关系的判断带来难题,传统的过失犯理论已难以应对司法实践,过失犯归责路径面临着变革的压力与契机。

  二

  现有人工智能产品致害所涉过失犯罪认定方案的不足

  对自动驾驶汽车交通肇事过失刑事责任归责问题进行研究,不仅具有为自动驾驶汽车的发展提供法治保障的现实社会效益,在理论上创建符合人工智能时代背景的过失犯归责路径,亦可推动过失犯归责理论的升级与蜕变,为刑法理论寻求知识增量。正是为了实现上述愿景,学界以自动驾驶汽车为研究对象,围绕德国的客观归责理论、日本的新过失犯理论以及我国传统的过失犯罪认定理论对人工智能产品致害所涉过失犯罪的归责方案进行了深入探索。总体而言,现有方案存在以下漏洞。

  (一)对算法技术的误解导致过失犯归责理论构建具有缺陷

  自动驾驶汽车交通肇事过失刑事归责问题的探讨,需要建立在自动驾驶汽车的特性之上。有学者基于“技术黑箱”给预见可能性判断带来的障碍,主张通过回避预见可能性来构建自动驾驶汽车交通肇事所涉过失犯归责路径。在大数据和人工智能技术所依赖的算法系统中,输入数据和输出结果之间存在着无法洞悉的“隐层”,算法黑箱在事实上遮蔽了数据处理和交易决策的运行过程。然而,从“存在技术黑箱”的论据推导出“回避预见可能性”的结论并不具有合理性。事故发生后,不能直接回避预见可能性,这是由于算法的可解释性决定的。可解释性在数据挖掘和机器学习场景中被提及,被定义为向人类解释或呈现可理解的术语的能力。欧盟《一般数据保护条例》就规定消费者具有对自动化决策的解释权。实际上,也只有在算法具有可解释性的前提下,人类才可以掌控人工智能技术,这是自动驾驶等人工智能技术得以规范发展并持续造福于人类社会的必要条件。自动驾驶汽车所实施的按照交通信号指示灯行动、运行时与前车保持一定的间距等行为都是自动驾驶系统深度学习的结果,但是这种可控的结果一定是生产设计者事先设计好的,是具有可解释性的。在学界,已有学者敏锐指出,除自动驾驶汽车本身外,其余主体如果能够承担刑事责任,其可解释性虽比自然人驾车引发交通事故的可解释性稍复杂,但依然存在解释、验证的余地。自动系统的具体行动无法预测,取决于后天的学习和信息的处理,但是这并不意味着这些系统的风险在事前无法被认识到。

  当然,当自动驾驶汽车的运行没有满足人们的期待,发生了交通事故而引发了法益侵害后果时,事故发生的原因可能并不具有解释的可能,在可解释性例外地不发挥作用的场合,才能考虑免除自动驾驶汽车研发设计者的预见可能性。总而言之,在考量自动驾驶汽车交通肇事所涉过失刑事责任认定问题时,直接主张回避对预见可能性进行判断是不可取的。

  (二)对刑事政策的争议导致过失犯归责理论构建具有两面性

  学者基于人工智能技术的有用性指出,随着无人驾驶汽车的广泛运用,由于其所带来的社会利益巨大,因此其对社会造成的危险完全可能转化为一种“允许的风险”,从而不能将其所造成的损害归责于使用者、生产者或设计者。要排除研发人员承担责任的可能性,同时完全排除所有人和销售商承担刑事责任的可能。由此可见,学者是在强调刑法应当保障技术发展的立场上,提出排除自动驾驶汽车领域某一主体刑事责任的观点。但另一方面,也有学者基于风险社会的背景指出,权利保障让位于安全治理,自由刑法让位于安全性。这种观点认为应当强化刑法的风险预防功能,强调刑法应当重视维护社会大众的利益。实际上,在自动驾驶汽车交通肇事所涉过失犯归责问题上,基于被害人的权益得不到切实维护的担忧而提出的严格责任,便源于此种价值判断。例如,有学者指出,即便生产者缺乏主观罪责,也要根据严格责任的要求追究生产商的刑事责任,这是由于企业生产人工智能产品所获利润巨大,让人工智能的生产者承担严格责任是对公平的一种修正,同时也使得对科技研发产生的阻碍最小化。一方面,如果刑法对承受人工智能技术风险的社会大众的权益不进行保护,一味偏激地维护人工智能技术的发展,不仅会使人工智能的发展偏离为人类谋福祉的轨道,更在道义层面违背了“人是目的,而不是为了技术可以随时舍弃的手段”的根本要义。另一方面,基于重视风险防范与公众法益保护而提出的严格责任,不仅会限制人工智能技术的发展,也会背离刑法责任主义原则。由此可见,刑事政策目的不一定招致过失归责方案的争议。人工智能技术风险的不确定性与人工智能技术的有用性相伴而生,在此情形下刑法究竟应如何看待人工智能技术的两面性,会对人工智能产品致害场景下的过失犯归责方案产生决定性影响。

  (三)对基础理论检思不足导致过失犯归责理论构建偏误

  学者结合传统过失犯理论、新过失犯理论以及客观归责理论,对自动驾驶汽车交通肇事所涉过失犯归责路径进行探讨。但在搭建自动驾驶技术与过失犯归责理论结合的桥梁时,或缺少对基础理论的反思,或忽视与自动驾驶技术的契合。

  1.我国传统的过失犯认定标准已不足以指导司法实践

  有学者根据我国刑法总则关于过失犯罪的定义指出:“应当预见该无人驾驶汽车系统存在漏洞,但由于疏忽大意而没有预见,或者已经预见到技术漏洞存在却轻信可以避免,由此发生重大交通事故,应构成过失犯罪。”我国传统刑法理论中对犯罪过失的认定,主要依赖于对行为人心态进行考察。然而,若通过对行为人的主观心态进行探究从而得出归责与否的结论具有一定的恣意性,将导致犯罪圈的不当扩大或缩小。心理学虽然对揭示过失犯的心理概念具有一定的参照价值,但过失犯作为一种责任形式,还是应当从规范层面进行分析。另外,把犯罪故意的认识因素与意志因素引入犯罪过失,是与犯罪故意的定义相呼应的逻辑结果。然而,逻辑上的完美不能掩盖道理上的瑕疵,若认为故意犯罪的罪责体现在行为人对犯罪结果的“放任或者希望”的意志因素上,那么对于危害结果的发生完全持有反对态度的过失犯罪就不具有罪责可罚性。正如学者所言,从存在论的角度而言,过失犯主观上不希望甚至是排斥危害结果的发生,该意志非但不能体现行为人的主观恶性,相反恰好体现其主观善性。由此可见,依据我国刑法对犯罪过失的定义所提出的自动驾驶汽车等人工智能产品致害场合的过失犯归责路径并不具有可行性。

  2.客观归责理论忽视了主观因素对犯罪成立的限定作用

  客观归责理论之所以能够在过失犯中大行其道,正是由于它契合过失犯归责结构从主观向客观转变的需要。在考虑自动驾驶汽车交通肇事所涉过失犯归责的具体路径时,也有学者主张依据客观归责理论进行客观层面的判断。学者指出,在归因方面,将客观归责理论中对危害行为与危害结果的实质判断融入到条件说的判断之中,从而使因果关系的判断更加充实,在归责层面,认为即使主观过错难以证明,由于研发者、生产者与使用者违反了注意义务,就要对行为人进行刑事追责。可见,论者认为在客观层面只要研发者、生产者和使用者违背了注意义务,即使主观层面的罪过难以判断,也应当对其进行刑事追责。由此可见,论者没有考虑到主观层面对犯罪成立的限制作用。实际上,客观归责的路径虽然看到了主观归责的弊端,但是并不能因此否定主观要素在过失犯归责中的重要地位,结果预见可能性仍可成为排除犯罪的事由,以合理限定过失犯的成立范围。例如,要求自动驾驶汽车的研发设计者对于危害结果的发生具有具体的结果预见义务强人所难,故而,在构成要件层面无法将结果预见义务作为犯罪成立的必备要素。但是,为了体现罪责主义原则的要求,应在责任层面考量结果预见可能性的有无,将研发设计者确实无法预见的结果排除在犯罪之外。由此,在过失犯归责的路径选择中,通过客观归责理论进行了不法的判断之后,应当进一步对主观层面的罪责加以限制,若完全摆脱主观因素对犯罪认定的限制作用,将导致犯罪圈不当扩大,不仅具有结果责任的危险,也会对自动驾驶等人工智能技术的发展产生负面影响。

  3.新过失犯归责理论无法与自动驾驶技术相衔接

  在人工智能产品致害所涉的过失刑事归责的场合,除了主张借助客观归责理论外,借鉴新过失论的主张也已蔚然成风。例如,有学者认为,刑法认定人工智能产品的生产者违反了注意义务的前提是其违反了结果预见义务,而认定其违反结果预见义务的前提又是具有预见可能性。然而,以预见可能性为重心的归责机制,最大的缺陷便在于无法有效应对当代社会所面临的过失犯的归责难题,其所赖以构建的归责原理,即谁对风险有预见或预见可能性,便应对风险所造成的实害结果负责,日益与社会发展的现实相脱节。新过失犯论所主张的先主观、后客观的判断思路无法与人工智能技术相契合。依据新过失犯理论,危害结果发生后首先要对预见可能性进行判断,要求对结果必须有具体的预见可能性,在此基础上对行为人是否违反客观注意义务进行判断,而这种刑事归责的思路无法适用于自动驾驶汽车等人工智能产品致害所涉过失犯罪的刑事归责中。新过失论强调的是具体的预见可能性,而在自动驾驶汽车领域,除了在直接驾驶人违规行为引起的交通肇事的场合,可以对具体的预见可能性进行判断外,对于研发设计者、生产制造者的具体预见可能性是难以判断的。当发生了法益侵害结果时,不区分具体情形地一味强调对算法如何运行有具体的预见,具有强人所难之嫌。所以,若根据新过失论,在“行为人对危害结果是否具有具体的预见可能性”的第一层次判断上,就可能得出否定的结论,由此无法再进行“行为人是否履行了客观注意义务”的第二层次判断。由此可见,新过失犯归责理论在解决人工智能产品致害所涉过失犯归责问题时面临失效的困境。

  三

  人工智能产品致害所涉过失犯罪认定的基本路径

  自动驾驶汽车交通肇事所涉的过失刑事责任认定问题,是人工智能时代刑法如何介入规制人工智能刑事风险的缩影。无论是基于刑法的谦抑性原则主张的排除相关主体的刑事责任,还是基于刑法的预防性功能提出的严格责任原则的立场都过于极端,产生了矫枉过正的效果。应当坚守以法益保护为根本,兼顾技术发展原则的指引与约束,在此基础上构建人工智能产品致害所涉过失犯罪刑事责任认定的教义学解决方案。

  (一)人工智能产品致害情境下客观入罪三步曲

  人工智能产品风险现实化后,应当首先在客观层面进行是否入罪的判断:寻找风险控制责任主体,确定导致事故发生的危害行为,以及判定危害行为与危害结果之间的因果关系。这是以法益保护为根本,践行以人为本发展观的必然要求。

  1.利用合法则的条件说确立事实上的因果关系

  在风险制造主体之间的分工合作进一步深化的背景下,为了防止风险制造者不负责任的行为危害到公共安全,就需要风险制造方谨慎实施业务行为,通过控制自身业务领域的风险,满足社会大众对安全的期待。基于风险社会中分工合作的现实与风险控制理论,当发生了法益侵害结果,首先应当依据合法则的条件说确定引发危害结果发生的具体原因,寻找出相关责任主体。基于此,在自动驾驶汽车交通肇事后,首先应通过安置的行车记录仪还原事故发生过程,并查清事故的人为原因。在自动驾驶汽车交通肇事引发法益侵害后果的场合,通过科学技术所确定的人为原因无外乎有三类,即研发设计的原因、生产销售的原因以及使用运营的原因。通过判断引发事故的原因存在于设计研发领域、生产制造领域亦或是使用领域,有利于进一步限定“实施了法所不允许的危险”的成立范围。

  2.判断相关主体是否创造了法不允许的危险

  人工智能领域形式上客观注意义务的缺失并不能成为制止刑事手段介入的障碍,可以通过判断实质上是否创造了法所不允许的危险弥补形式上客观注意义务缺失的现状。实际上,即使前置法意义上的客观注意义务充分且完善,在进行刑事归责时也需要将这种形式上的注意义务借助于是否创造了法所不允许的危险的判断进行实质化。

  首先,在研发设计阶段,设计者创造的法所不允许的危险包括两种情形:一种是设计者根本没有履行结果回避义务,比如,在紧急情况发生前的适当时间点,报警系统应当报警而未报警,由此引发了法益侵害结果,设计者就应当基于此种设计缺陷对结果承担责任;另一种为设计者没有充分履行结果回避义务,例如,半自动驾驶汽车要求辅助驾驶人时刻保持警惕,以便于随时都可以接管车辆,在此要求下,不仅接管自动驾驶汽车的提示是必要的,也要求自动驾驶系统提示辅助驾驶人时刻保持警惕状态。如同机动车对没有系好安全带的行为进行报警一样,自动驾驶系统需要对于驾驶员没有将双手放在方向盘的行为进行持续且充分的警示,否则将认为自动驾驶系统具有设计缺陷,由此可以判定相关的研发设计者创造了法所不允许的危险。

  其次,在生产销售阶段,只要生产者的生产行为违反了设计的要求造成了制造缺陷,并由此引发了自动驾驶汽车交通事故的,就应当认为生产者制造了法所不允许的危险。此时,自动驾驶汽车生产者承担刑事责任的依据与传统机动车生产者承担刑事责任的依据并无区别。对于销售者而言,如果明知自动驾驶汽车存在缺陷而销售,最后由于此缺陷导致了交通事故发生的,应当认为销售者创设了法所不允许的危险。无论是自动驾驶汽车的生产者还是销售者,其所实施的法所不允许危险的行为并没有程度之分,即没有是否充分履行了结果回避义务的区分,而只有履行了结果回避义务与未履行结果回避义务的区分。例如,生产者没有按照设计的要求对自动驾驶汽车的传感器进行生产的行为,是不存在程度区分的。

  最后,在运营使用阶段,使用者或所有者也可能创设法所不允许的危险。即使是完全自动驾驶汽车,在其出厂后的运行过程中,也需要周期性的保养、维护、系统升级甚至是维修,汽车的操作系统需要定期校正以确保它所运行的是经过最新的数据库训练过的最新软件程序,而这些仍应由机动车的保有人来负责。另外,自动驾驶汽车的使用人在行车前应当履行开启自动驾驶系统的自检程序的义务,只有在经过系统的自检程序,确定自动驾驶汽车没有故障的前提下才能正常行车。除此之外,由于半自动驾驶汽车需要人机互动才能实现特定环境下的运行任务,这就要求使用者具有在紧急时刻接管自动驾驶汽车的义务。例如,半自动驾驶汽车进入复杂路况后,驾驶者仍一直疏忽大意,在车辆的报警系统响起后,应当介入而不介入,或者即使驾驶者介入及时,但由于应急行为不合理导致交通事故发生的,也认为驾驶者创造了法所不允许的危险。

  3.判断相关主体是否实现了法所不允许的危险

  是否实现了法所不允许的危险是判断结果是否可归责于行为人的必备步骤。这一层次的判断是通过对危害结果的实质性判断,来判断危害行为与危害结果之间是否具有刑法上的因果关系。笔者认为,是否实现了法所不允许的危险应当结合危害结果的大小,以及结果回避可能性大小进行判断。一方面,人工智能产品致害产生的法益侵害结果越严重,承担刑事责任的可能性越大。刑法对人工智能产品领域研发设计主体、生产销售主体以及使用操作主体的过失行为进行规制,目的是规范其自身行为,保障社会大众利益。但是,为了防止刑法过度介入,对自动驾驶等人工智能技术产生不良影响,应当注重发挥刑法谦抑性原则,只有当人工智能产品在使用中造成了严重的法益侵害结果时,才考虑发挥刑法的法益保障作用。另一方面,结果回避可能性越大,承担刑事责任的可能性越大。学界通常主张,若行为人履行了结果回避义务,也无法避免危害结果发生的,不能将结果归责于行为人。由此可见,结果回避可能性理论是为了检验规范的有效性而设立的。而在对结果回避可能性进行判断时,要考虑合义务替代行为的可行性问题。比如,2016年发生在美国佛罗里达州的特斯拉自动驾驶汽车事故,以及发生在我国京港澳高速河北邯郸段的特斯拉自动驾驶汽车事故的原因,皆为自动驾驶技术没有能准确识别障碍物,即自动驾驶汽车研发设计领域的问题导致了事故的发生。如果认为在研发当时,即使实施了其他的替代行为也并不具有效用与成本方面的可行性,那么就应当否认结果回避可能性,从而在客观层面排除违法性。另外,当危害结果的发生是由于两种或者两种以上的事实原因引起时,对于危害结果是否可归于危害行为的判断,也离不开对于结果回避可能性的判断。比如,由于自动驾驶系统设计缺陷,致使不能持续报警,而使用者在运行自动驾驶汽车前,也没有对自动驾驶系统的可用性进行检查的场合,认为研发设计主体与使用者都创造了法所不允许的危险,两者的过失行为都是导致危害结果发生的原因。根据结果回避可能性理论,若得出上述主体偏离标准的行为都实质性地升高了危害结果发生的危险,就认为行为人实现了法所不允许的危险,进而可以对其进行刑事归责。总体而言,只有在实施了合义务的替代行为可以避免危害结果的可能性较大,且法益侵害后果严重时,才可追究自动驾驶汽车领域相关主体的刑事责任。

  (二)人工智能产品致害情境下主观出罪三要素

  虽然以结果预见可能性为基础构建的过失犯归责理论已经不足以应对人工智能时代风险规制的需求。但是,在对过失犯进行归责时仍不能舍弃对结果预见可能性的判断,结果预见可能性在人工智能产品致害所涉的过失犯归责框架中承担着“避免过度关注法益保障而忽视人工智能技术发展”所提倡的限制犯罪成立范围的使命。在人工智能领域过失刑事归责问题中,阻却结果预见可能性成立主要涉及算法黑箱、异常因素以及信赖原则三要素。

  1.算法黑箱阻却结果预见可能性

  一方面,前文虽然已经通过算法的可解释性原则否定了“因算法黑箱的存在主张回避预见可能性”的观点;另一方面,也指出了算法黑箱的存在确实会对预见可能性的判断产生实质障碍,在人工智能产品致害领域无法依据新过失犯理论所主张的“预见可能性在先”的判断范式。另外,若取消预见可能性对过失犯罪成立的限制功能,具有扩大犯罪圈的危险。人工智能技术的认知系统与决策系统通过算法相关联,如果危害结果的发生是由于算法的深入学习所致,人工智能产品的研发设计者在事前可能确实无法具体预见到。正如学者所言,尽管制造商、程序员等尽量避免可能发生的危险,力图把危害降至最低限度,但受自动驾驶车辆自身性能决定,仍然存在无法预测、无法解释的危险,这种偶然出现的危险超出了制造商、程序员等的预料,难以预测和避免。基于此,虽然无法将结果预见可能性作为判断人工智能领域相关主体承担刑事责任的充分条件,但是可以将结果预见可能性作为判断相关主体是否具有刑事责任的必要条件,即如果没有预见可能性,就可以排除相关主体的刑事责任。质言之,基于自动驾驶技术的自主决策的特性,对研发设计者的预见可能性的有无需要通过排除法进行判断,可以通过否定研发设计人员的预见可能性而否定罪责,从而排除刑事归责。但应当注意的是,如果危害结果首次发生,经专家分析后证明危害结果确实难以预料,那么就可以否定相关设计生产者的预见可能性,但如果同种情形发生了两次或两次以上,此时就不能通过否定结果预见可能性而排除刑事归责。

  2.异常因素阻却结果预见可能性

  与具备技术属性的算法黑箱不同,异常因素是对介入因素进行价值判断而得出的结论。介入因素是指介于先前行为与最后结果之间的因素,如果某个介入因素被界定为异常因素,那么就可以通过否定先行行为人对最后危害结果的预见可能性来排除其对最后结果承担刑事责任的可能性。在人工智能产品致害领域,如果研发设计主体的危害行为与最后发生的危害结果之间介入了异常因素,就可以排除该主体的刑事责任。异常因素的认定需要根据案件事实进行价值判断。以自动驾驶汽车交通肇事为例,自动驾驶汽车研发设计主体应当对驾驶员未手握方向盘的行为进行持续警示而未警示,且同时介入了驾驶员因为疏忽大意而未按照规定及时接管自动驾驶车辆的场合,针对自动驾驶汽车交通肇事的危害结果,驾驶者的违规行为不能被称为异常因素。

  再如,在自动驾驶汽车行驶途中,在驾驶员心脏骤停而陷入昏睡状态的情况下,驾驶员的脚通常会离开加速踏板,汽车也会因此减速,并在道路拐弯的地方偏离道路从而停车,如果该车同时使用了车道居中功能和ACC,那么该车将高速地通过道路,最终可能导致驾驶员受伤。要实现道路居中功能,需要以驾驶者重复地确认居中功能指令为前提。如果间隔一段时间后,自动驾驶汽车未收到驾驶者的“道路居中”指令,自动驾驶汽车需要减速甚至停车,交通肇事的危害结果就不会发生。因此,不能直接将驾驶者心脏骤停认定为异常因素,应当对假定的替代行为的可行性进行判断,若认为设计出让驾驶者可以重复确认的道路居中功能是合理且可行的,那么就可以认为研发设计主体创造了法所不允许的危险,就不能通过主张心脏骤停为异常因素来排除其对危害结果的预见可能性。另外,如果囿于技术的发展水平,假定的替代行为不具有可行性,那么就不存在创造了法所不允许的危险,既然先行行为不存在,心脏骤停就不可能成为介入因素,更不可能被评价为异常因素。

  3.信赖原则阻却结果预见可能性

  日本学者深町晋指出,在信赖自动驾驶系统的妥当运转,但是其却没有妥当运转的情况下,如果能够信赖汽车厂商设计并制造了妥当运转的AI时,根据信赖原则,行为人不承担责任。虽然认为信赖原则可以在自动驾驶汽车领域适用得到共识,但是对于信赖原则在自动驾驶领域否定的是结果预见义务还是结果回避义务具有争议。这是因为,对于信赖原则否定的是结果预见义务还是结果避免义务本身就具有理论上争议,有学者认为信赖原则可以限制注意义务人的预见义务,也有的学者认为信赖原则的功能在于可以成为减轻结果回避义务之负担的理由。在自动驾驶汽车领域,笔者赞同信赖原则的适用可以否定结果预见义务。因为从使用人角度来说,自动驾驶技术的吸引力在于从驾驶员到乘客身份的转变,使用人不再需要时刻保持对周边环境的高度警惕,基于此,使用者可主张信赖自动驾驶技术而免除对危险结果的预见义务。但是,如果驾驶者在危险发生之前,已经发现自动驾驶汽车没有任何减速或者转向的迹象时,此时驾驶者就不能对自动驾驶汽车产生合理的信赖,而应当主动关闭自动驾驶系统,否则驾驶者就应当对结果承担责任。另外,站在自动驾驶汽车的研发设计主体的角度,如果其未夸大自动驾驶技术,就可以信赖使用者作为理性行为人可以在不同的自动驾驶技术级别的汽车中履行相应的配合措施,从而也可免除研发设计主体对危害结果的预见义务。

  结语

  人工智能技术的发展不可避免地会带来刑事风险在内的法律风险。而鉴于刑法具有最强的教育与行为指引功能,刑法对生产者与设计者在生产设计人工智能产品的过程中实施的不安全行为不能放任不管,否则将从反向强化风险制造主体集体不负责任现象,从而产生危害公共安全的危险。另外,自动驾驶技术的发展离不开包含刑事法律手段在内的法治手段的护航,通过刑事法律手段使自动驾驶的参与主体多一份严谨与认真是保证自动驾驶汽车等人工智能产品安全可靠发展,进而持续造福人类社会的前提。基于此,如何对人工智能产品带来的刑事风险进行规制,发挥刑法保障法的作用,不仅是社会大众对刑法研究的期待,也是刑法学者的时代使命。由此,刑法学者应尽力突破人工智能产品带来的过失刑事责任认定难题,探讨人工智能产品所涉过失犯罪归责的教义学解决方案,为人工智能时代过失犯理论的转型升级贡献智识。

  -向上滑动,查看完整目录-

  《浙江社会科学》2022年第12期法学要目

  1. 电车难题与自动驾驶系统算法设计中的伦理考量

  作者:郑戈(上海交通大学凯原法学院;上海交通大学中国法与社会研究院企划委员会;上海交通大学涉及人的科学研究伦理委员会)

  内容提要:自动驾驶汽车是人工智能技术得到全面、综合应用的产业领域,涉及到算法自动化决策与人的自主性和尊严之间的潜在冲突。由于法律本身的回应性和救济性特征,导致它无法提前介入到算法设计过程之中,因而无法为算法设计提供向善的指引。我国虽然越来越重视人工智能伦理问题,并为此设立了相关机构,制定了相关规则,但关于人工智能伦理的讨论却停留在科技向善、以人为本等抽象原则的层面,没有形成有针对性的自动驾驶汽车算法伦理。本文通过对德国交通与数字基础设施部伦理委员会报告、伦理学中的电车难题讨论和道德心理学领域的“道德机器试验”的介绍和分析,讨论了为自动驾驶汽车装上伦理方向盘的必要性和可能的推进方式。

  关键词:自动驾驶汽车算法伦理;电车难题;道德机器试验;伦理委员会;伦理原则

  2. 自动驾驶汽车产品缺陷的认定困境与因应

  作者:郑志峰(西南政法大学民商法学院;新科技法治研究中心;互联网知识产权治理创新研究团队)

  内容提要:相较于机动车交通事故责任,产品责任在解决自动驾驶汽车责任分担方面更具共识与优势,既高度契合自动驾驶汽车的事故特点,又可以直接督促生产者一方提高产品安全性能,并且能够更好地救济受害人和分散风险。自动驾驶汽车产品缺陷的认定面临技术与法律层面的诸多障碍,当前并无成熟的技术标准可供适用,而消费者期待标准与风险效用标准也各自存在适用困境。理性算法标准将注意义务对准自动驾驶系统本身,充分挖掘产品设计缺陷背后的过失属性,契合自动驾驶汽车的技术特征,增加了受害人救济的可能,同时也稀释了产品缺陷的负面评价,可以很好地缓解设计缺陷的认定难题。理性算法标准的适用需要区分不同阶段的自动驾驶汽车、不同类型的危险,同时应从功能安全、预期功能安全以及网络和数据安全三方面更新技术标准,完善生产者一方的警示义务与跟踪观察义务。

  关键词:自动驾驶汽车;产品责任;设计缺陷;理性算法标准;技术标准

  3. 人工智能时代过失犯理论的挑战与应对

  ——以自动驾驶汽车交通肇事为例

  作者:姚瑶(浙江财经大学法学院)

  内容提要:以自动驾驶汽车为代表的人工智能产品致害所涉犯罪主体复杂多样、前置性规范缺失,以及人工智能产品固有的自主与黑箱特性等问题给过失犯理论带来了变革的压力与挑战。传统过失犯理论、新过失犯理论以及客观归责理论都无法解决人工智能产品致害所涉过失犯罪认定问题。人工智能产品致害所涉过失犯罪刑事责任的认定问题应当接受“法益保护优先,兼顾科技发展”刑事政策的约束与指引。坚持“法益保护优先”的基本定位,意味着要借鉴风险控制理论,以及客观归责理论中创设法所不允许危险与实现法所不允许危险的判断规则,进行客观层面是否入罪的判断;遵循“兼顾科技发展”的制约原则,则需要运用结果预见可能性理论中信赖原则等内容,进行主观层面是否出罪的认定。

  关键词:人工智能产品;自动驾驶汽车;交通肇事;过失犯理论

  《浙江社会科学》Zhejiang Social Sciences(月刊),创刊于1985年(原名《探索》,1990年改为现刊名),由浙江省社会科学界联合会主办,主要刊登人文、社会科学领域的优秀学术理论文章,也是反映浙江社科学术研究动态的窗口。自创刊以来,质量稳步上升。《浙江社会科学》现为全国中文核心期刊、全国人文社会科学核心期刊、中文社会科学引文索引(CSSCI)来源期刊、首批国家社科基金资助期刊。《浙江社会科学》立足浙江,面向全国,面向世界,以改革开放及现代化进程中的重大现实与理论问题为组稿、发稿重点,坚持学术性、时代性、思想性,以推动学术发展、繁荣社科事业为己任。

  责任编辑 | 金梦洋

  审核人员 | 王纪元 张文硕

  本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

上一篇:韩国电影《母亲》:母爱酿成连环案中案
下一篇:第45章未成年人禁止入内。