研究人员建议加强人工智能医疗产品的监督
发布时间:2025-06-19 13:26
人工智能(AI)帮助医生诊断,对美国医院的临床记录进行了分类和转录。但是,在公共图书馆 - 数字健康中发表的最新报告中,研究人员指出,医疗产品的法规并未保持在快速采用的速度下。作者指出了这些设备的美国食品和药品管理(FDA)批准的局限性,并提出了更广泛的跨机构战略,以确保医疗AI工具安全有效。 FDA已批准了1,000多名医生,医院立即采用了它们。与大多数其他由FDA调节的产品不同,人工智能工具在批准后继续发展,因为它们会根据新数据进行更新或重新培训。这种增加的是需要持续监督,而当前的法规在这方面具有有限的安全能力。没有足够的监督,医学算法C提供欺骗性的建议和损害患者。麻省理工学院临床研究人员兼报告作者之一Leo Anthony Seri说:“必须有保障。” “我认为提出所有安全措施的FDA信任FDA是不现实的,也许是不可能的。” FDA审查和批准AI医疗工具的标准通常不如药物严格。例如,根据FDA的规定,只有可以代表患者风险更高的工具需要临床试验。另一个问题是,当医疗算法适用于不同培训的人群时,绩效往往会降低。 Seri说,由于这些限制,监管许可并不能保证产品对他们想要支持的目标群体有益。理想情况下,医院应评估患者人群算法的性能,并培训医生在采用这些技术之前正确解释生产结果并做出正确的反应。 “ BI之一GIGT挑战是缺乏在大多数医院和诊所中雇用AI团队的资源。 Seri说,“影响。这绝不是做出的,但是鉴于技术开发的速度,我们认为传统结构不满足需求。 “ FDA无权要求医院在产品获得许可后进行这些测试。”这根本不是法律管辖区的一部分。问题是FDA参与了他们的工作。Mello说,美国联邦机构的Medicare和Medicaid(CMS)向老年人和低收入人士提供公共卫生保险。对AI工具的更严格的评估和通过公共保险计划获得付款的条件。他还强调了健康保险公司可以通过激发最深入的AI工具测试来发挥的作用。他认为,保险公司可能需要更严格的评估作为覆盖条款。他说:“保险的测试标准实际上高于FDA的证据。” “因此,还有其他使用AI的保障措施。”相关文档中的信息:https://doi.org/10.1371/journal.pdig.0000866