人工智能 (AI) 发展迅速,将成为临床护理的重要支持工具。研究表明,人工智能算法可以准确检测黑色素瘤并预测未来的乳腺癌。
但在将 AI 整合到常规临床使用之前,我们必须解决算法偏差的挑战。人工智能算法可能存在固有偏见,可能导致歧视和隐私问题。人工智能系统也可以在没有必要的监督或人工输入的情况下做出决策。
人工智能潜在有害影响的一个例子来自一个国际项目,该项目旨在通过开发突破性的医疗方法,利用人工智能来拯救生命。在一项实验中,该团队颠倒了他们的“好”人工智能模型,为新的人工智能模型创造了“伤害”的选项。
在不到六个小时的训练中,反向 AI 算法生成了数万种潜在的化学战剂,比目前的战剂危险得多。这是一个关于化合物的极端例子,但它可以作为评估人工智能已知和可以想象的不可知伦理后果的警钟。
临床护理中的人工智能
在医学领域,我们处理人们最私密的数据和经常改变生活的决定。强大的 AI 道德框架势在必行。
澳大利亚癫痫项目旨在改善人们的生活并使临床护理更广泛。基于来自数千名癫痫患者的先进脑成像、遗传和认知信息,我们计划使用人工智能来回答目前无法回答的问题。
这个人的癫痫发作会继续吗?哪种药最有效?脑部手术是可行的治疗选择吗?这些是现代医学努力解决的基本问题。
作为该项目的 AI 负责人,我主要担心的是 AI 正在快速发展,而监管监督却很少。这些问题就是为什么我们最近建立了一个使用人工智能作为临床支持工具的道德框架。该框架旨在确保我们的人工智能技术是开放、安全和值得信赖的,同时促进临床护理的包容性和公平性。
那么我们如何在医学中实施 AI 伦理以减少偏见并保持对算法的控制?计算机科学原则“垃圾输入,垃圾输出”适用于 AI。假设我们从小样本中收集有偏差的数据。我们的 AI 算法可能会存在偏差,并且无法在其他临床环境中复制。
在当代人工智能模型中不难找到偏见的例子。流行的大型语言模型(例如 ChatGPT)和潜在扩散模型(DALL-E 和 Stable Diffusion)显示了关于性别、种族和社会经济地位的明显偏见是如何发生的。
研究人员发现,简单的用户提示会生成使种族、性别和阶级刻板印象永久化的图像。例如,医生提示主要生成男性医生的图像,这与现实不符,因为经合组织国家约有一半的医生是女性。
医疗人工智能的安全实施
防止偏见和歧视的解决方案并非易事。在临床研究中实现健康平等和促进包容性可能是对抗医疗 AI 偏见的主要解决方案。
令人鼓舞的是,美国食品和药物管理局最近提议在临床试验中强制实施多样性。该提案代表了朝着更少偏见和基于社区的临床研究迈进。
另一个阻碍进步的障碍是有限的研究经费。人工智能算法通常需要大量数据,这可能很昂贵。至关重要的是建立强化的资助机制,为研究人员提供必要的资源,以收集适合 AI 应用的临床相关数据。
我们还认为,我们应该始终了解 AI 算法的内部工作原理,并了解它们是如何得出结论和建议的。这个概念在人工智能中通常被称为“可解释性”。它涉及人和机器必须协同工作以获得最佳结果的想法。
我们更愿意将模型中预测的实施视为“增强”而不是“人工智能”——算法应该是过程的一部分,而医学专业必须保持对决策的控制。
除了鼓励使用可解释的算法外,我们还支持透明和开放的科学。科学家应该公布人工智能模型及其方法的细节,以提高透明度和可重复性。
新西兰 Aotearoa 需要什么来确保 AI 在医疗保健中的安全实施?人工智能伦理问题主要由该领域的专家领导。然而,已经提出了有针对性的人工智能法规,例如基于欧盟的人工智能法案,以解决这些伦理问题。
欧洲人工智能法受到欢迎,并将保护在“安全人工智能”中工作的人。英国政府最近发布了他们对 AI 监管的主动方法,作为其他政府对 AI 安全的回应的蓝图。
在 Aotearoa,我们主张对 AI 安全采取主动而非被动的态度。它将建立一个在临床护理和其他领域使用人工智能的道德框架,产生可解释、安全和公正的人工智能。因此,我们将更加相信这项强大的技术可以造福社会,同时保护社会免受伤害。
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除