NG体育娱乐2023年7月,国家网信办联合国家发展改革委等部门公布《生成式人工智能服务管理暂行办法》(以下简称《办法》),进一步促进生成式人工智能健康发展和规范应用,这是我国首个针对生成式人工智能产业的规范性政策。生成式人工智能以算法、模型和规则为核心,以大规模数据库为基础得出文本、图片等多种类型的内容,具有强大的数据处理和分析能力,目前已用于医疗领域,在现代医学上发挥着重要作用。医疗卫生事业关系着人民群众生命安全和身心健康,需要从法律角度分析人工智能在开发、适用、责任承担等方面存在的不足与完善措施,在不过分抑制人工智能发展前提下保护患者合法权益。
人工智能自应用于医疗领域后取得了显著成效,主要体现在影像分析、医学诊断和智能问诊三个方面。
影像分析。传统医学影像分析主要依赖医生的知识储备和肉眼观察识别X光片、CT和超声等影像中的异常,既耗时又容易误诊。医疗人工智能通过设定算法对CT、MRI等医学影像进行自动分割、检测、分类、定量分析等,辅助医生更快、更准确地检测出病变部位,大大提高了诊断准确率。例如,人工智能技术可以通过图像识别算法,自动检测和标记潜在的乳腺病变或肿块,并为医生提供快速、可靠的诊断建议。
医学诊断。医学诊断是医疗人工智能应用的重点环节。医疗人工智能技术可以对患者的病历、临床数据、基因组数据等信息进行智能化分析和处理,辅助医生进行诊断,主要用于细胞学筛查、免疫组化、组织学分析等方面。例如,医疗人工智能通过对大量病历数据的学习和分析,可以自动分类和诊断患者的病情,还可以对患者身上采集的样本进行分类、离心、推片、染色、划片等步骤后与数据库中的数据进行比对,帮助医生进行病理诊断和鉴定。
智能问诊。智能预问诊是医疗人工智能应用中最为直接的一项服务。医疗人工智能可以模拟临床医生的诊疗思维对患者进行提问和引导,在收集大约10-15个问题后,可以根据对话内容快速完成症状、既往史、家族史等信息的采集,也可以通过接收患者拍照上传的检验检查报告单等自动生成预问诊病历并同步至医生工作电脑端,方便医生在患者进入诊室前了解病史和就诊需求。此外NG体育,医疗人工智能问诊还可以实现对患者健康状况的自动化评估和预测,提供个性化的健康管理和干预方案。智能问诊不仅提高了医生的问诊效率,还在患者与医生之间建立了更加紧密的纽带,提高了医疗服务的温度和人性化程度。
人工智能在医疗领域的广泛应用,虽然提高了医疗服务的效率和精准度,但也带来了诸多法律风险。这些风险不仅涉及患者个人隐私保护,还关系到患者的人格尊严、自主权及算法透明度和公平性等问题。
患者人格尊严和自主权受到威胁。在医疗人工智能应用过程中,患者的人格尊严和自主权可能受到严重威胁。传统医疗诊断过程强调医生对患者人格尊严和自主权的尊重与保护,医生在作出医疗决策时,需综合考虑患者的既往病史和当前症状,并依照相关法律法规与伦理规范,制定适宜的治疗方案。然而,医疗人工智能的介入改变了这一过程。首先,自动化偏见可能带来法律风险。世界卫生组织发布的《卫生领域人工智能的伦理与治理:多模态大模型指南》指出,医疗人工智能存在“自动化偏见”风险,即医生在诊断过程中可能会过度依赖人工智能技术,从而忽略自身专业判断和对患者个体需求的考虑。这种过度依赖可能导致医生将困难的医疗决策不恰当地交给人工智能处理。其次,当医生过度依赖人工智能时,患者的治疗决策可能被剥夺,转而交由机器进行处理NG体育,导致患者失去对自身健康管理的自主权。最后,医疗人工智能应用可能引发新的伦理挑战。医疗人工智能应用在处理涉及患者人格尊严和自主权的问题时,可能需要进一步调整现有医疗伦理规范,以适应人工智能技术的特点和应用需求,确保患者的基本权利不因技术的进步而被削弱,保障患者合法权益和医疗决策自主权。
可能存在侵犯患者个人隐私权的风险。医疗健康信息相比其他个人信息更具有敏感性和私密性,确保这些数据安全使用是人工智能用于医疗诊断面临的重要挑战。医疗人工智能多为生成式人工智能,核心在于算法和模型系统。不法行为人可能通过攻击大规模语言模型提取数据库中的核心隐私和敏感个人信息,导致大规模泄露形成“大规模微型侵害”,引发身份盗窃、欺诈或声誉损害风险。此外,也不能排除开发公司利用其收集个人数据的优势地位向外倒卖信息以获利的情况。首先,数据收集过程中可能存在合法性问题。在医疗领域,患者数据的收集应当遵循知情同意原则。患者应被告知数据收集的目的、范围和可能的风险NG体育,并在充分了解的基础上同意数据的使用。违反这一原则的收集行为构成对患者隐私权的侵犯。其次,数据收集应遵循最小必要原则,仅收集实现特定医疗目的所必需的数据。超出必要范围的数据收集行为,如收集与当前医疗需求无关的个人信息,则构成对患者隐私权的侵犯。最后,数据匿名化和去识别化的问题NG体育。即在使用患者数据进行人工智能训练和分析时,应尽可能采用匿名化和去识别化技术,防止患者身份直接或间接识别。如果未能有效去除患者身份信息,导致隐私泄露,则构成对患者隐私权的侵犯。
算法透明度不足和算法歧视问题显著。一方面,可能存在因算法透明度不足侵犯患者的权益问题。虽然《办法》等文件提出了算法透明性要求,但在具体实施过程中,算法的实际工作原理和决策过程难以被外界理解和监督。这是因为由于算法透明度不足,患者无法了解医疗人工智能是如何得出诊断结论的,导致其知情权和选择权无法得到充分保障,这一问题在法律上则侵犯患者的知情同意权和自主决定权。另一方面,算法歧视问题会导致不同地区在医疗资源上的不平等现象。不同开发者在训练算法时可能无意间引入偏见,导致生成式人工智能在面对不同群体患者时作出歧视性决策。例如,某些医疗人工智能系统在筛查病人时,诊断结果不准确或存在系统性低估。再比如,算法模型的训练数据如果主要来自某些特定群体,可能导致其面对特殊群体时产生偏见。总体而言,算法透明度直接影响患者能否得到医疗人工智能对其病情诊断过程的清晰阐释,以及医生能否深度了解算法应用程序的安全性和数据准确性。
医疗人工智能归责原则不确定。目前,人工智能在医疗领域的应用仍处于探索阶段,易因误诊、数据泄露等行为引发问责和归责问题。我国民法典规定医疗损害责任适用过错责任原则,也考虑到医疗器械所致损害的责任承担问题。但人工智能能够独立生成医疗诊断结果或建议,因此在现行法律框架下,对医疗人工智能应用的追责十分复杂:就主体而言,考虑到人工智能发展现状是否应当严格规制医疗人工智能开发者的责任;就归责原则而言,是继续适用过错责任还是确定无过错责任原则更有利于受害者得到足额赔偿;就法律责任承担形式而言,传统的责任形式也难以简单套用到医疗人工智能上。
为了有效应对医疗人工智能带来的法律风险,需要从法律和政策两个层面进行系统化完善。只有建立健全法律框架和监管机制,才能在推动医疗人工智能发展的同时,切实保障患者的合法权益。
建立完善的医疗人工智能法律框架。首先,制定医疗人工智能管理办法。目前,《办法》未涉及医疗领域人工智能规定,需要在《办法》的基础上结合医疗领域的特点制定相关法律法规,突出强调医疗人工智能的辅助作用。其次,配套出台医疗人工智能使用指南。为了帮助医疗工作人员、患者更好地使用人工智能系统、了解人工智能得出诊断结果的运行机制,我国可以配套制定医疗人工智能使用指南,以增强医疗人工智能系统及其结果的可解释性。最后,完善其他法律规定。《中华人民共和国数据安全法》《办法》《涉及人的生命科学和医学研究伦理审查办法》等为制定医疗人工智能管理办法提供了基础,应依据人工智能发展现状出台适用医疗人工智能的管理办法。
强化医疗人工智能算法监管。一方面,建立算法审查制度。具有缺陷的医疗人工智能一旦投入使用会产生难以估量的社会影响。因此,为确保医疗人工智能的安全性和可靠性,应成立算法审查专门机构,对医疗人工智能进行严格的安全性、透明性、伦理性审查。同时,借鉴《互联网信息服务算法推荐管理规定》中的算法备案制度,要求医疗人工智能开发者应在提供服务之日起十个工作日内履行备案手续以便出现风险后精准追责。另一方面,定期进行算法审计。基于数据的动态性和人工智能技术的不断迭代升级,为了确保医疗人工智能系统的安全性和公平性,应要求开发者提前研判算法应用过程中产生的安全风险并提出针对性应对措施,在算法生命周期内定期开展算法风险监测工作,针对算法的数据使用、应用场景、影响效果等进行自我安全评估。此外,开启公众监督举报、监管部门巡查等多种算法审计措施。
明确医疗人工智能的法律责任。首先,明确医疗人工智能开发者、使用者及患者的权利义务关系。建议在医疗人工智能管理办法中对开发者、使用者(如医生)及患者的权利义务进行详细规定,确保各方在医疗人工智能的开发、应用和使用过程中依法行使权利和履行义务。其次,建立责任分配机制。鉴于医疗人工智能的应用涉及公民生命健康权、隐私权等重要权利,应在现行法律框架下对医疗人工智能开发者、使用者(如医生)及患者的责任进行重新划分,建立科学合理的责任分配机制。例如,可以考虑在医疗人工智能与患者发生纠纷时采用过错推定原则,即推定开发者承担责任。但因医生或患者使用不当造成损害结果等情况时可以减轻或者免除开发者的责任。最后,探索新型法律责任形式。传统的法律责任形式可能难以应对医疗人工智能带来的新型法律问题,建议在立法过程中探索新的法律责任形式,如“算法责任”“数据责任”等,以适应医疗人工智能的发展和应用需求。
随着人工智能技术的不断进步和应用的深入,人工智能在医疗领域的应用前景广阔,但人们在享受技术带来便利的同时,也必须关注其潜在的法律风险。通过建立完善的法律框架NG体育,强化算法监管,明确责任分配,可以在保障患者权益的同时,推动人工智能技术在医疗领域的健康发展。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。