博客

Waldo场景下的医疗公平

Lorry Weaver, MT(ASCP), CLS(NCA)
看过Paul Hoseit 的Qserve 博客之后,我被吸引着考虑Waldo场景下的医疗公平,FDA最近举办的关于人工智能透明度的研讨会则引起了我的共鸣。[https://www.fda.gov/medical-devices/workshops-conferences-medical-devices/virtual-public-workshop-transparency-artificial-intelligencemachine-learning-enabled-medical-devices] 

与监管机构、医生和患者在算法(AI/ML器械)工作原理方面的透明度对于获得所有利益相关方的信任至关重要。正如Paul所讨论的那样,监管机构的任务是确保安全性和有效性。而患者相信算法得出了正确的结果(灵敏度和特异性)。此外,医生要知道“这个(器械)在我的工作中对我的病人有用吗”?

后一个问题涉及器械开发以及设计定型后用以临床确认的患者群体。这是FDA和公告机构考虑的一个关键因素,因为他们认为器械或诊断的预期用途,包括了预期的使用人群。监管机构会问,“用于测试的人群对于使用该器械或诊断的人群是否具有代表性?疾病/临床状况的患病率是临床研究中可接受准则的一个要素,因此必须要问,研究中的人群是否与确立可接受准则的人群表现出相同的患病率?

再次使用”寻找Waldo"的插图:这是预期的使用人群吗?

 

 

更进一步,我们需要考虑医疗公平,每个人都有公平和同等的获得健康的机会。这个想法是为了消除医疗方面的差异,并为所有人群提供相同质量的护理和使用医疗器械及诊断服务的机会。作为开发者和制造商,我们通过为不同的患者群体研发和测试产品来参与其中。训练数据中的偏差可能导致系统无意中再现或将种族、性别、年龄、经济和/或合并症偏见正常化。在这些预期适用的人群中进行的临床确认对于促进医疗公平至关重要。

 

FDA会议期间举的一个例子是关于一种算法,该算法用于观察慢性病并确定它们是否会在未来几年变得更糟,并立即将资源分配给它们以防止未来住院治疗或使其疾病恶化。算法学习的方式是查看基于资源使用的数据,并将其作为医疗需求的代表。由于获得医疗保障方面的不平等,这个工具也学习了这些偏见。结果发现,如果只改变数据集中的种族,该工具将更多的资源用于白人患者,而不是黑人患者。

你能描述一下你是怎么知道Waldo是谁的吗?Wilma呢?

 –如果人群中有几个不同发型的Wilma怎么办?又或者,Waldo所处的环境掩盖了他?
我们需要尽早提问以解决公平问题:我们是否包括了不同的患者?我们是否在向不同的社区部署工具?我们能否向我的病人灌输对AI/ML工具适用性的信心?  
 
Qserve可以帮助您验证、分析和设计临床研究。我们可以帮助解决训练集、人口代表性、预期用途等难题。我们的临床研究组织 (CRO) 可以在完全符合GCP和监管要求的条件下协助您设计、实施、记录和报告临床研究的全部或部分内容。让我们一起促进各地区的医疗公平,并帮助提供安全有效的医疗器械和诊断方法。
标签

Need more information?

Do you have questions, or do you need more information about this topic? Please contact us.

联系我们
帮助 联系我们