评论
分享

新研究:AI生成的X光片可欺骗放射科医生,识别准确率低至41%

好的牙口腔行业研究

2026-03-27 19:37 广东

22857 0 0

图源:The Rise of Deepfake Medical Imaging: Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs

图源:The Rise of Deepfake Medical Imaging: Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs

好的牙·讯|2026年3月24日,发表于北美放射学会(RSNA)会刊《Radiology》期刊的一项研究显示,放射科医生及多模态大语言模型(LLMs)均难以分辨真实的X光片与AI生成的“深度伪造”图像。在未获知包含伪造图像的情况下,放射科医生识别AI生成的X光片准确率仅为41%。

该项研究由纽约西奈山伊坎医学院研究团队完成,共纳入了来自6个国家的12家机构的17名放射科医生,涵盖了从初学者到执业40年的资深专家。研究共测试了264张X光片,其中包括由ChatGPT生成的身体各部位影像,以及使用斯坦福大学开发的开源生成式AI扩散模型RoentGen生成的胸部影像。

实验数据显示,当医生被告知存在合成影像后,其平均识别准确率提升至75%。而在AI模型表现方面,GPT-4o、GPT-5、Gemini 2.5 Pro及Llama 4 Maverick的准确率在57%至85%之间。值得注意的是,尽管ChatGPT-4o表现优于其他模型,但作为图像生成工具的它,仍无法完全识别出所有由其生成的伪造影像。

研究人员指出,这些高度逼真的伪造影像不仅可能在虚假诉讼中作为证据,还存在严重的信息安全风险。若黑客侵入医院网络并注入合成影像,可能导致误诊并破坏数字病历的可靠性。目前,伪造影像在视觉上呈现出“过于完美”的特征,如骨骼过滑、脊柱异常笔直、血管分布过度均匀等,但在未来的AI演进中,这些特征可能进一步消失。

此前,好的牙曾报道韩国延世大学牙科学院实习课程中出现篡改X光片的学术造假事件:部分学生使用Photoshop修补或替换影像,以掩盖操作失误。彼时造假依赖人工,尚有痕迹可查。而本次发表于《Radiology》的研究进一步提示,在生成式AI介入后,伪造影像的逼真度可能持续上升,欺诈与误导的潜在风险随之扩大。

制度层面的应对同样滞后。根据好的牙此前报道,纽约州已拟立法禁止AI聊天机器人直接提供医疗建议,将AI风险纳入监管视野;但针对影像真实性的系统性保护机制,目前仍属空白。为此,研究建议医疗影像领域在图像捕获时嵌入不可见水印及加密签名,以验证来源真实性。

研究人员同样指出,该研究目前仍存在一定局限性:样本量相对较小且实验环境与真实临床场景存在差异,深度伪造技术在CT和MRI等3D影像中的影响仍有待进一步验证。

【特别鸣谢】如果本文有错漏之处需要勘误,请联系我们的客服,届时我们会为您准备小礼物,感谢!

【免责声明】上述内容源于公开信息,可能存在不准确性,仅供参考。本文不构成对任何人的投资与决策建议,好的牙不对因使用本资料而导致的损失承担任何责任,并对本内容拥有最终解释权。文中图片均已获版权方授权

@好的牙口腔行业研究

# 口腔医学
# 深度伪造
# Ai生成
本文为凯迪网自媒体“凯迪号”作者上传发布,代表其个人观点与立场,凯迪网仅提供信息发布与储存服务。文章内容之真实性、准确性由用户自行辨别,凯迪网有权利对涉嫌违反相关法律、法规内容进行相应处置。
举报
投喂支持
点赞
发表评论
请先 注册 / 登录后参与评论
推荐阅读