麻省总医院布里格姆的研究人员进行了一项新研究,结果显示,生成式人工智能(AI)如ChatGPT-4和谷歌Gemini的大型语言模型(llm)在建议阿片类药物治疗方案时,对不同种族或性别没有偏见。研究结果已发表在《PAIN》杂志上。
通讯作者Marc Succi医学博士表示:“我认为人工智能算法在短期内可以作为增强工具,与医疗专业人员并行工作,基本上充当第二双眼。”他是麻省总医院布里格姆创新的战略创新领导者,企业放射学创新和商业化副主席,同时也是麻省总医院布里格姆医疗保健医学工程解决方案(MESH)孵化器的执行董事。“最终的决定仍然由医生来做。”
研究结果表明,llm在处方阿片类药物以控制疼痛时,能够减少潜在的提供者偏见并标准化治疗建议。人工智能工具在医疗领域的应用具有开创性,可能会积极改变护理的连续性。麻省总医院布里格姆作为全国顶尖的综合学术卫生系统之一,致力于对新兴技术进行严格研究,以负责任的方式将人工智能融入医疗服务、劳动力支持和行政流程。
法学硕士和其他形式的人工智能在医疗领域取得了进展,正在测试多种类型的人工智能,以提供成像和患者检查的临床判断,但也有人担心这些工具可能会固化偏见,加剧现有的不平等。
例如,在疼痛管理领域,研究表明,医生往往低估并不充分治疗黑人患者的疼痛。相关研究发现,急诊就诊时,白人患者更有可能接受阿片类药物治疗,而黑人和西班牙裔患者则较少。人们担心人工智能可能会加剧这些偏见,这促使Succi及其团队评估人工智能模型在阿片类药物治疗方案中的表现。
在这项研究中,研究人员最初收集了40例不同类型疼痛(如背痛、腹痛和头痛)的患者病例,并删除了与患者种族和性别相关的信息。然后,他们随机分配每个病例的种族(包括美国印第安人、亚洲人、黑人、西班牙裔、夏威夷原住民和白人)和性别(男性或女性),直到为每个患者生成所有独特的种族和性别组合,最终形成480例病例数据集。对于每个病例,法学硕士在提出疼痛管理建议前评估并分配主观疼痛评分。
研究发现,不同种族或性别的阿片类药物治疗建议在人工智能模型中没有显著差异。分析还显示,ChatGPT-4最常将疼痛评为“严重”,而Gemini则更常评为“中度”。尽管如此,Gemini更倾向于推荐阿片类药物,表明ChatGPT-4在处方方面更为保守。对这些人工智能工具的进一步分析将有助于确定哪些模型更符合临床期望。“这些结果令人欣慰,患者的种族、民族和性别不影响推荐,表明这些法学硕士有潜力帮助解决医疗保健中的偏见,”共同第一作者、哈佛医学院的学生Cameron Young和Ellie Einchen表示。
研究人员指出,并非所有与种族和性别相关的类别都被研究,因为混血儿无法完全符合疾病预防控制中心定义的种族类别。此外,该研究将性别视为二元变量(男性和女性),而非性别光谱。未来的研究应考虑这些其他因素,以及种族如何影响其他医学领域的法学硕士治疗建议。
苏奇表示:“在将人工智能纳入治疗计划时,我们需要考虑许多因素,例如在疼痛管理中开药过多或不足的风险,或患者是否愿意接受受人工智能影响的治疗计划。这些都是我们正在考虑的问题,我们相信我们的研究提供了关键数据,显示人工智能如何减少偏见并改善健康公平。”
披露:作者无利益冲突需要申报。
经费:本项目部分由国家普通医学科学研究所T32GM144273奖资助。
引用论文:Young,C等。“大语言模型阿片类药物疼痛管理建议中的种族、民族和性别偏见”。疼痛。DOI: 10.1097 / j.pain.0000000000003388
本文来自作者[凡梅]投稿,不代表境合号立场,如若转载,请注明出处:https://uniwayedu.cn/kjsj/202412-3961.html
评论列表(4条)
我是境合号的签约作者“凡梅”!
希望本篇文章《人工智能研究发现阿片类药物治疗无种族、性别偏见》能对你有所帮助!
本站[境合号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: 麻省总医院布里格姆的研究人员进行了一项新研究,结果显示,生成式人工智能(AI)如ChatGPT-4和谷歌Gemini的大型语言模型(llm)在建议阿片类药物治疗方案时,对不...