可解释人工智能医疗应用的伦理问题-.docx
《可解释人工智能医疗应用的伦理问题-.docx》由会员分享,可在线阅读,更多相关《可解释人工智能医疗应用的伦理问题-.docx(13页珍藏版)》请在优知文库上搜索。
1、可解释人工智能医疗应用的伦理问题*江蜻,曹东,鄢来均(1广州中医药大学马克思主义学院,广东广州510006;2广州中医药大学医学信息工程学院,广东广州510006;3广州中医药大学研究生院,广东广州510006)0引言可解释人工智能已成为学术界、产业界和政府部门研究的热门话题。全世界范围内都在积极探索可解释性的人工智能,例如2022年美国国防部高级计划署(DARPA)就启动了一项名为“可解释人工智能”的大型项目(explainableartificialintelligence,XAI)o2022年欧盟委员会发布人工智能道德准则(EthiCSGuidelinesforTrustworthyAl
2、),强调要提高人工智能的透明度和实现可追溯性。2022年我国也在新一代人工智能发展规划中,明确将“实现具备高可解释性、强泛化能力的人工智能”作为未来我国人工智能布局前沿基础理论研究。由于医学领域的高风险性,人工智能在医疗领域的可解释性受到了更加广泛的关注。在医疗领域,人工智能的可解释性有助于提高模型的安全性和可靠性,增强目标用户的信任度等,但是,可解释性方法可能引发的医疗伦理问题也日益凸显。探究可解释人工智能医疗应用伦理问题的意义关乎用户的安全和公平问题。伦理学界从不同的角度对其进行了伦理辩护。其中有两种代表性观点:一种观点认为,在医疗领域中,事后可解释人工智能有助于增强用户信任、提高系统的安
3、全性等。另一种观点认为,人们应该警惕甚至是避免在医疗领域中使用事后可解释人工智能,因为事后解释可能会引发潜在的风险。尽管伦理学界对此不能取得一致意见,但他们都认为探讨可解释人工智能医疗应用伦理问题对患者的安全和公平具有重要意义。本文试图从科技伦理视角审视可解释人工智能医疗应用伦理问题的新挑战,以期寻求合理的解决之道。1可解释人工智能医疗应用伦理问题的新挑战由于考察视角的不同,可解释人工智能并没有一个标准的定义Q可解释人工智能来自英文EXPlainableArtifiCialIntelligence,该术语由VanLent等于2022年首次创造,用来描述他们的系统在模拟游戏应用中解释人工智能控制
4、实体行为的能力1。自2022年DARPA启动关于可解释人工智能的研究之后,该术语开始被普遍接受,DARPA将可解释人工智能定义为一种系统,它可以向人类用户解释其基本原理,描述其优缺点,并传达对其未来行为的理解2。Arrieta等3认为,可解释人工智能指的是,针对特定的受众,通过给出细节和原因,使模型运转更清楚和更容易,被受众所理解的一项技术。本文认为可解释人工智能可以定义为:针对不同背景知识的目标用户,以其可以理解的方式,对模型决策过程的根据进行解释的一项技术Q目的就是帮助人类理解机器为什么会作出这样的决策以及决策是否可靠。人工智能的可解释问题源于深度学习的“黑盒”属性。所谓“黑盒”属性,指深
5、度学习算法是不透明的。不同于传统算法输入和输出之间的确定性,深度学习模型通过反向传播不断调整自己内部的参数和规则,所以人类无法理解它们的内部工作机制。在某些应用领域,比如说人脸识别、文字翻译,可解释性并不是关键的要求,只要这些系统的整体性能足够好,即使系统在运行过程中出现错误,也不会造成很大的影响,因此,这些领域对人工智能系统可解释性的要求相对比较低。但是,医疗领域则不同,医疗中的许多决策实际上是生死攸关的问题,微小的错误都可能会威胁到患者的生命安全,这时缺乏可解释性就成为人工智能走向临床应用的限制性因素。所以,越来越多的专家学者将目光投向了人工智能在医疗领域的可解释性,各种解释方法应运而生。
6、目前,可解释人工智能在医学影像处理、疾病诊断、风险预测等方面都取得了不错的成绩Q例如,Nafisah等4利用可解释人工智能处理胸部X光片检测结核病,Thimoteo等5研究出通过血液检测诊断COVlD-19的可解释人工智能,CUria6利用可解释人工智能预测患宫颈癌的风险。通过给出决策依据,为临床医生提供有效的辅助信息,增加了用户的信任,改善了模型的性能。尽管可解释人工智能给医学带来了很多好处,但其在医疗应用中也引发了不同以往的伦理挑战,具体而言,可解释人工智能医疗应用引发的伦理新挑战主要表现在以下两个方面。1.1 事前解释可能导致的医疗伦理问题针对深度学习的“黑盒”属性,人工智能专家创建了不
7、同的解释方法。根据不同的标准,这些方法又分为不同的类别。DU等7根据获得可解释性的时间,将可解释性方法总体上划分为两类:内在解释和事后解释。这是两种不同类型的解释方法,它们以不同的方式处理不透明问题。内在解释指的是模型本身可解释,因为可解释性发生在模型训练之前,所以也称为事前解释,即无需事后引入另一个解释模型就可以理解预测模型的决策依据。根据解释的实现途径,又可将事前解释进一步分为两种:自解释模型和内置可解释模型。自解释模型就是指传统机器学习中的简单模型,例如决策树、线性回归等。无论是从理论上还是理解上,这些模型都具有比较好的可解释性0内置可解释模型指的是,利用某些方法构建可解释的深度神经网络
8、模型。目前,关于事前解释性的研究多局限于决策树、线性回归等结构简单的传统机器学习算法,而内置可解释模型由于对技术要求很高,暂时未取得突破性进展。事前解释可能会导致医疗安全问题,其表现为以下两种情况:一方面,事前解释的人工智能系统预测准确性较低,导致模型自身存在安全隐患。学术界一般认为,人工智能系统的准确性和可解释性之间存在一定的矛盾,即模型的准确性越高,可解释性就越低;相反,模型的准确性越低,可解释性就越高8。尽管在RUdin9看来,在数据结构化并具有良好的特征时,复杂模型和简单模型之间的性能通常并没有显著差异。例如,利用决策树算法构建区分感冒和咳嗽的预测模型也具有较高的准确率,基本达到诊断要
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 可解释 人工智能 医疗 应用 伦理 问题
