月度归档 2023年9月11日

众益研究|智能医疗民事侵权责任研究

内容提要

本文首先界定智能医疗的民法地位,在得出智能医疗在当今阶段仍具客体地位的结论后对其进行认定和论证;其次分析传统侵权责任制度在法律适用上的不足,吸取经验,并且从责任主体、违法行为、损害事实、因果关系和过错方面提出人工智能医疗的侵权责任构成要件,进而进一步研究人工智能侵权责任归责原则的扩张适用,分析出医疗损害责任、产品责任和高度危险责任三种模式。律师在处理相关实务问题的时候,要具体问题具体分析,选取最佳的归责模式,以维护当事人的合法权益。

关键字:智能医疗产业 侵权 民事责任

一、人工智能的民法地位研究

从1956年人工智能概念提及开始,经过40多年的发展,人工智能已经在医疗领域取得了长足的发展。科技的发展带来机遇,也带来挑战。人工智能并不是完美的存在,它在给现代医疗带来便利的同时,也会不可避免的产生侵权损害的结果。俗话说“知己知彼,百战不殆”,面对智能医疗这类新兴产业时,作为律师,应当在充分了解智能医疗机器人在实践中运行模式的基础上,提前做好风险估计和防范,在实务中遇到该类新兴事物的侵权案件时才可以更加从容的分析和应对。从民法的角度出发,想要研究由智能机器人引发的一系列民事侵权责任问题,首先就需要界定人工智能的民法地位。人工智能在法律关系中是否具有主体地位?还是仅仅作为一种“工具”供人类使用,人工智能是否具有独立人格,它的权利义务和我们现行法律规定的民事主体权利义务是否等同,这些问题直接关系到智能医疗民事侵权责任的归责等问题。

(一)人工智能的民法地位学说

由于人工智能的快速发展,目前的法律体系中,有关人工智能法律地位的规定尚且缺失,人工智能发展在带来更多科学上新进步同时,也会带来更多不确定的危险,所以更加迫切的需要通过法律确认其法律责任归属问题。在理论界,关于人工智能的民法地位,尚无最终的定论。人工智能由于其具有智能性以及拟人化的特征,导致其主客体性质在法学研究上一直久悬不决。结合域内外观点,大体可以分成三类:

1.否定说

学界目前大多数人持此观点。该学说否定人工智能的主体地位。持该说的学者认为,人工智能只能在某些方面帮助人类从事法治活动,而根本改变不了人在法治中的主导作用,因为它不是人,是人造的机器。随着科技的发展,人工智能逐渐会拥有高度的自主决策能力,独立判断能力,能够独立的从事民事活动。但是在现阶段人类依旧将人工智能当做一种工具来使用,其还是难以摆脱自身的“工具”属性。如果此时激进的赋予其主体地位,容易引起传统民法框架的混乱。

2.肯定说

这种观点明确了人工智能的主体地位。该学说认为,在法律系统的发展史上,法律主体逐渐从自然人扩展至法人和组织,法人通过法律人格拟制的方式参与法律关系,并作为法律关系的主体,为社会经济做出了积极而重要的贡献。人工智能可能会产生独立的意志,甚至产生和人类相同的情感。随着人工智能和人类的差距日益缩小,采用法律人格拟制的方式,从而赋予其民事主体资格,使其参与到民事活动中来。

3. 折中说

该学说采用中立的态度,主要包括“有限人格说”、“电子人格说”等,认为人工智能享有部分人格。“有限人格说”认为,人工智能应当具有法律人格,但是其仅具有有限的权利,仅具有有限的法律人格。“电子人格说”认为,应当将人工智能认定为电子人,并且赋予该类电子人法律人格。

(二)人工智能具客体地位的认定和论证

以上观点站在不同的角度得出不同的结论,皆有各自的利弊。在对各方面进行权衡后,笔者认为肯定说和折中说过于理想化的分析人工智能的发展趋势,忽略了哲学及伦理对于法学理论的影响,过分夸大了人工智能在其发展中可能产生的影响。人工智能是权利的客体,不能赋予人工智能以法律人格。人工智能和人最根本的不同在于,人工智能没有人权,而我们人具有。我们尊重人的个性,希望人能够个性化的发展,但对于人工智能,设计师没有赋予他们自由选择的权利,它们被设计出来的初衷就是为了完成某一种特定的工作,而且从工业生产的角度出发,人类生产者和设计者同样希望同一型号的人工智能造出来都是一样的,这样如果一台机器坏了,很快就可以用另一台机器来替换。由于机器与生物学上的人类有巨大的不同,即使将来人工智能将会发展到一个相当的高度,人工智能依然难以跳出其“客体地位”的本质。在对人工智能地位讨论之时,不可对人工智能的拟人特征进行过度投射,进而过度的去关注其拟人性,其结果可能会产生法律上的误判。与人类不同,人工智能根据算法做出决定,它们所产生的自主性纯粹是技术层面的。就拿沃森医疗人工智能为例,沃森由IBM公司开发,与美国癌症治疗领域的权威医院共同制成,是肿瘤学界的“阿尔法狗”。其拥有强大的医疗数据库,能够在十分钟内阅览所有的医疗数据,并且在针对诊断的条件下迅速给出医疗初步诊断数据。在2017年,沃森医疗人工智能与上海的几名著名的肿瘤领域专家展开了一场“人机大战”,比赛结果出乎意料,沃森机器人给出的诊疗方案,与人类医生基本一致。不同的是,人类医生依赖的是多年以来的专业知识和临床经验,而沃森机器人是通过对全球范围内的病例进行大数据的识别和分析。除此以外,沃森机器人还有一项特异功能:即根据人类医生选定的治疗方案,能够结合数据信息迅速分析出该方案的不良反应、病例数,快速总结出该治疗方案的可行度,帮助医生总体评估此方案的诊疗和风险。沃森的表现如此出色,是否在未来可以彻底代替人类为患者看病呢?笔者认为不能。在采用Bloom认知法分析后,可以清晰的反应沃森与人类认知上存在的差距。Bloom认知法是由六种不同认知呈次的思维水平所组成,包括识记、理解、应用、分析、综合以及评价。识记是最低层次的认知水平,它需要回忆信息、事实识别、定义和规则。与之相对应的,沃森可以存储和更新医疗数据、过滤医疗数据,并创建知识索引或图谱来吸收内容。理解要求可以改变交流的形式的能力,传递或重新组织所学过的知识。与之相对应,沃森可以向人类专家学习、继续学习、识别问题并产生不同的诊断假设。应用要求将事实、原则和已知的概括应用到新的环境中,与之相对应,沃森可以找到支持或反驳假设的证据,并对每一项加权证据进行统计建模。分析需要将问题分成几个部分并且在每个部分之间建立起联系的能力。与之相对应,沃森能够熟练的分析证据。但是作为次高级和最高级的认知水平:综合和评价,沃森却找不到可以相对应的功能。沃森只具备理解问题的功能,却无法独立综合和评价医疗问题,也难以思考和搜寻新的信息。而且,它与人类的情感、感动与顿悟的判断力之间还有差距。医学实践需要人情味,与冷冰冰的数据处理不一样。像医学这种以人为本的职业,需要的并不仅仅是快速准备的数据处理能力,对患者和家属的情绪照顾和人文关怀,才是让医院不再“寒冷”的关键。而我们永远也没有办法教会机器人去理解、共情病人的情绪。综上所述,人工智能医疗仍然是医疗器械,作为医疗活动中的工具来使用。它不能离开人类而“单干”,只能作为医生的助理而存在,最终的方案选择仍然落在医生手中。综上,应当明确智能医疗的客体地位。
二、人工智能医疗侵权责任构成

(一)传统侵权责任制度法律适用的困境

1.人工智能主客体定位混乱 

关于人工智能主客体定位问题,已在第一章中详细论述,为避免重复论述,本章将不再探讨。

2.过错责任原则的适用困境

人工智能可能由于其强大的自主决策和深度学习能力导致原定程序复杂化,一旦智能医疗机器人超过预定程序造成无法预见和因果关系混乱的意外,关于过错责任原则的适用将出现困境。使用者无需直接操控,也无需监控周边的环境状况,如果使用者不存在主观上的过错,即使发生了智能医疗侵权案事件,也不需要使用者承担责任。可见,智能医疗实现无人化操作时,人类的操作者也许将不再有主观的“注意义务”,这样一来,过错归责原则最终会变得无力。而对于生产者和销售者来说,人工智能医疗自身出现故障而导致的纠纷,如果根据现有《民法典》,在排除了使用者的过错前提之下,将追究生产者和销售者的无过错责任和不真正连带责任。那么智能医疗所具备的技术特性,其不可读性和不可理解性,无疑对生产者和销售者而言是不公平的。甚至可能会影响生产者、研发人员和设计人员的积极性,最终将会妨碍人工智能的创新。显然,现行的侵权责任编主要是以行为人的过错和损害的填补为基础建立的规范体系,在人工智能医疗的应用上存在着相当多的问题,僵硬的去套用传统有关普通产品的侵权责任过错责任认定并不足够。

3.引起责任事实难以查明

人工智能医疗实施侵害的原因可划分成很多类,有可能是研发设计人员在生产过程中出现技术失误,也可能是销售者在管理过程中存在失误,也有可能是医生和医疗机构在使用过程中操作不当所致,甚至可能是由于人工智能自身高度的自主决策能力和判断能力而造成的失误。每一事实都对应着不同的因果关系,这也直接决定了责任主体之间的责任过错比例分担。但是,证明事实并不容易,具体体现如下:

首先,人工智能系统自身的缺陷很难证明。根据《产品质量法》第46条规定,产品是否有缺陷主要参照两个标准:其一,该产品是否存在危及人身、财产安全的不合理危险;其二,产品是否符合保障人体健康和人身、财产安全的国家标准、行业标准。而根据民事诉讼法的相关规定,受害方对产品存在缺陷承担证明责任,生产者则需要证明法律规定的免责事由。在此前提下,由于人工智能医疗技术相当复杂,其缺陷证明的困难程度不是区区受害人可以证明的,而如果将人工智能的缺陷完全归因于设计者,由于人工智能具有高度的自主性,显然也是不公平的。此外,我国仍未制定有关人工智能的国标和行标,受害方举证时将存在法条缺失。其次,人工智能致损的原因认证困难。人工智能系统内部程序极其复杂,它所具备的高度决策能力和判断能力并不是依靠设计师手动编程演算学习,而是利用大数据进行采集、分析,完成一项项复杂的任务。人工智能根据算法完成自主学习、自主分析、自主推理的过程难以解释。自主决策和深度学习将原过程复杂化,甚至连研发设计人员也不具有可理解性和可预测性,更别提法官和普通民众这种连技术专业知识背景也不了解的社会公众。

(二)人工智能医疗侵权责任构成要件

本块将对人工智能医疗侵权责任构成要件进行分析,主要包括责任主体、违法行为、损害事实、因果关系以及过错五大构成要件。

1.责任主体

根据民法典的相关规定,如果非人工智能自身的原因造成侵权事实,责任主体是设计者、生产者和销售者。如果医生在进行操作或发布指令时有过错,责任主体还包括操作者。如前文所述,民法典调整的都是人的行为,而人工智能具备民事法律客体地位,所以侵权责任的责任主体必然不包括人工智能本身。但是,随着人工智能技术不断发展,也许会在未来的某天,人工智能不再是受人类控制的工具,完全有能力自主行为。人类仍然会对人工智能进行设计、制造,但其实施的医疗活动将不像现在,如达芬奇手术机器人一样完完全全受制于人类的控制,它们对于信息有更为灵活的判断和分析能力,其自主决策性很高,在不同情境中做出的反应及决策可能是设计者、生产者、操作者不可预见的。如果发展到那个地步,就需要重新认定承担民事侵权责任的主体。如果导致损害的是人工智能自身的原因,其就有可能成为责任主体。综上所述,人工智能民事侵权责任主体可以分为以下类别:其一,如果是生产设计者在生产设计过程中出现问题,责任主体无疑就是生产者和设计者。其二,如果是医疗机构操作不当,存在管理上的故意或重大过失,导致患者人身和财产遭受巨大损害,医疗机构也可以成为责任赔偿的主体。其三,人工智能自身就有成为责任主体的可能,如果它们能够具备和创造财产,将其列为责任赔偿的主体就更加名正言顺了。

2.违法行为

人工智能参与医疗活动,构成侵权责任须有一定的违法行为。尽管如今人工智能已经具有极高的诊断效率和准确率,但是在其参与医疗活动中,仍然需要人类医生对其诊断过程和结果进行监督和管理,以免发生意外。由于其自身的自主性和智能性,使其状态难以预测,难免会存在误诊情况。如果医生不尽到合理的审核义务,完全信任的听信人工智能的诊疗结果,有可能会造成严重后果。所以,即使是高诊断准确率的人工智能在下达诊断结果后,仍需医生对该结果进行监督管理并决策。未经医生检测的行为就是导致人工智能诊断过失损害的违法行为。不同事实对应不同因果关系,直接决定了设计生产者、销售者、医生之间的过错比例、责任分担。医疗侵权的损害结果可能是由多个事实交织而成。此时,除了追究其相应的产品责任,为了避免对病人造成损害,人类医生必须介入和控制。

3.损害事实

侵权责任的产生需要对于当事人具有损害事实。违法行为导致患者在人身、财产和等方面受到不合理的侵害,造成了一定程度的损害,以至于患者在权利的行使上受到阻碍,所应当具有的利益遭受损失。但是引发损害事实的主体需要进行判别,人工智能违法对于危害结果的产生可能并非直接因素,比如沃森系统在做出错误的诊疗方案以后,在错误诊疗方案用在患者身上前被医生及时地发现并得以纠正,或者未被医生所采纳,就不构成医疗侵权。为了更好地界定人工智能引发的损害事实,以下将对智能医疗侵权的侵害形式给出阐释分析。首先,患者的人身权利首当其冲更易受到侵害,在智能医疗的过程中患者的生命权、健康权和身体权往往无法得到保证,人工智能引发医疗事故的不可控性远远高于正常的医疗过程,导致患者的一系列权益无法得到保证。在身体和生命之外,患者的精神状况也可能受到创伤,进而引发精神上的损害事实,所造成的后果不可估量。其次,在医疗过程中患者的财产权利遭受损害,这一方面的判别较为简单,诸如治疗费、误工费以及防止损失扩大而支付的所有财产损失都可以归结其中。

4.因果关系

医疗侵权责任需医疗违法行为与患者的损害结果之间具有因果关系。人工智能是科技高速发展的产物,想认定其因果关系并不容易。按照《产品质量法》的规定,只要产品存在缺陷并导致损害结果就由生产者承担无过错责任。如果认定人工智能产品存在缺陷是实践中的一大问题。此外,根据《最高人民法院关于民事诉讼证据的若干规定》第4条规定,由医疗机构就医疗行为与损害结果之间不存在因果关系及不存在医疗过错承担举证责任。这种因果关系在减少患者诉讼负担的同时,却扩大了医疗机构的举证压力。有以下几种情况:首先是操控人工智能的人类医生在给患者实行由人工智能辅助或参与的医疗行为时存在过失或者医疗机构在采购中存在选任过失等违法行为;其次,可能是来自于设计环节存在过失,制造环节导致缺陷或者在管理方面存在一定的过失,证明因果关系的难度会随着人工智能在运行过程中的复杂性的增大而增大。一刀切地采取举证责任倒置,完全由医疗机构完成举证责任,会极大地增强医疗机构举证压力,显然,这并不有利于医疗事业的积极发展。

5.过错

过错分为故意和过失两种。主要表现形式是医疗机构在诊疗活动中存在过失。医疗过失主要指在医疗活动中,从事医疗活动的主体未能提供与当时的医疗水平相当的医疗服务或者未按照医疗伦理及良知提供诚信合理的医疗服务,未尽到高度注意义务的主观心态。责任主体应当在侵权责任中具备高度注意义务,高度注意义务须结合现有的医疗条件,医生对于医学的认知程度以及人工智能实施的技术水平来确定。如果违反了高度注意义务,就认为存在过失。人工智能的出现是为了方便人们的生活,所以默认创制是遵守法律和道德的。自动排出人类在预设程序中不会让人工智能“故意”实施违法行为,这也符合人类发明人工智能的初衷。那么就可以将人工智能实施的违法行为当做的“偶然”的因素,在其没有受到人类恶意控制条件下的违法行为的主观心态界定为“过失”,更符合伦理道德和人类发明的初衷。

(三)人工智能侵权责任之归责原则的扩张适用

智能医疗侵权责任归责原则解决在侵权发生时责任在责任主体之间如何分配的问题。归责原则的核心不仅要尽可能的救济受害者,还应该最大限度的满足社会公众的利益。如今,人工智能侵权纠纷尚未常态化,扩张适用已存在的侵权责任类型,包括医疗损害责任、产品责任和高度危险责任,也不失为一种好方法。

1.医疗损害责任

智能医疗如今还是处于客体地位,反应在我国现行侵权责任体系为医疗损害责任。根据《民法典》侵权责任编第1218条以及第1221条规定,医疗损害责任属于一般的过错责任范围,即存在医疗违法行为,由行为而导致的损害后果,违法行为和损害后果之间存在的因果关系以及医疗机构在诊疗活动中的主观过错四个要件。但是,人工智能的发展也可能带来诊疗活动的难以预测性。我们无法简单的将使用智能医疗的行为认定为违法行为,如果在诊疗活动中,医生能够尽到合理的注意义务,在规范下正确操作,很难认定其存在过错。且智能医疗由于高度决策力可能带来无法预测的结果,会中断医院的违法行为与患者损害之间的因果关系。

2.产品责任模式

涉及到医疗产品的开发和使用,可以用产品责任原则来解释。将智能医疗机器人归类于产品的范畴,不仅明确了智能医疗的客体地位,而且使得受害人可以在其自身受到损害时用产品责任模式来填补。并且随着智能医疗的发展程度不断增强,责任从操作者转为生产者的可能性就会不断变大,为受害者权益保驾护航的同时妥善解决纠纷。随智能医疗的发展,其行为带来的不可预测性也随之变高。带来的风险引发的可能性有可能会影响到整个产业的新兴发展。比如,使用无过错的产品责任归责模式会使生产者遭受巨大的风险预算成本,严重打击其积极性,从而阻碍企业的市场活力,阻碍技术创新进步。况且,这种生产风险带来的风险成本将会转化成价格成本,智能医疗机器人的售价会不断抬高,普通大众面对昂贵的成本只能望尘莫及,也难以享受到技术发展创新带来的生活便利。除此以外,对医疗机器人适用产品责任可能会导致过去的产品责任失灵,而使受害人处于一种危难的境地。智能医疗的高度发展性和自主决策能力使产品在生产出来以后,《产品质量法》第44条规定的三种生产者免责事由,免责事由适用可能性的提高,很可能使得消费者处于一种不利的境地,让受害者陷入一种无法弥补损失的风险之中。

3.高度危险责任

高度危险责任因自身风险极大的特点对侵权人适用无过错责任。高度危险责任存在的危险超出了一般人的预测能力,即使尽到了合理注意义务也难以防范。随着科技发展,智能医疗的自主性不断提高,其难以防范性和高度危险物如出一辙。所以将智能医疗机器人纳入高度危险责任是合理的。但仍存在几个方面的问题,首先,高度危险责任包括高度危险物致损责任与高度危险作业致损责任。智能医疗致损归于哪类亟需研究。其次,高度危险责任属于自己责任,高度危险物的占有者、使用者以及经营活动者为其责任主体,而医疗机器人的生产者就会在该制度的漏洞之下侥幸逃脱,而这显然是不合理的。综上所述,以上三种模式,如果单独适用,都无法完全契合智能医疗侵权责任。三种模式在适用中各存在利弊。智能医疗作为民事客体,需要医疗机构在操作过程中尽到合理的监督和审核作用,否则就要承担过错责任。如果人工智能在刚创制出来时就存在缺陷,那么设计者和生产者就需要承担无过错责任。随着智能医疗的发展,融合了自主学习和自助决策的人工智能也会带来风险的不可预测性,使用者在享受其带来的便利的同时也要具有风险承担的能力,该风险的不可预测性适用高度危险责任。作为律师在处理该类实务问题时,要具体问题具体分析,选取最佳的归责原则,以此最大限度的维护当事人的利益。

本文荣获2022年律师实务研讨会论文二等奖