绕过基于人工智能的临床决策支持的影响测试

导读 如果不能对早期AI的CDS工具对现实世界临床决策的影响进行早期和彻底的评估,那么它们在临床试验中会表现出色。因此,警告由英国牛津大学的

如果不能对早期AI的CDS工具对现实世界临床决策的影响进行早期和彻底的评估,那么它们在临床试验中会表现出色。

因此,警告由英国牛津大学的一个团队领导的学者和临床医生。签署者对此事的评论正在《自然医学》杂志上写给编辑。

外科科学教授Peter McCulloch及其同事还认为,算法创建者必须考虑目标患者群体与用于训练,测试和验证基于AI的CDS工具的患者群体之间的差异。

作者写道:“由于不能假设用户的决定会反映算法的建议,因此,至关重要的是,不仅要以计算机方式测试新算法的安全性,而且还应将其用于影响人类决策时,对新算法的安全性进行测试。” “跳过这一步骤,直接进入大规模试验,将使相当多的患者遭受未知的伤害风险,这在伦理上是不可接受的。在药理试验的初期,次优的安全标准导致了灾难性的后果。临床AI无需重复这些错误。”

为此,作者建议在用于评估新药安全性和有效性的分阶段试验中对医学AI研究进行建模。

在新闻稿中,该研究的主要作者牛津博士候选人巴蒂斯特·瓦西(Baptiste Vasey)补充说,应立即监视已批准和安装的算法在实际患者中的表现。

“我们坚信人类临床医生应该并且将继续处于患者护理的中心,因此,[我们]旨在改善基于AI的临床决策支持系统在用于增强而不是替代人类智能时的评估方式。 ”,瓦西说。“此过程的关键阶段是临床医生在现实生活中首次使用此类系统时对其进行评估。”

该信函由DECIDE-AI指导小组签署,其缩写代表基于人工智能的决策支持系统的开发性和探索性临床研究。该小组正在为从实验室到诊所的开发以及基于AI的CDS机制的实施创建指南。

版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。