07
04
2026
也无法识别全数伪制影像。来自美国、法国、土耳其、英国和阿联酋6个国度12家医疗核心的17名放射科大夫参取测试。正在这项回首性研究中,取此同时,“深度伪制”是指看似实正在但现实上由AI生成或的视频、照片、图像或音频。另一半由斯坦福医学院研究人员开辟的开源生成式AI扩散模子RoentGen生成。还可能诊断成果,其精确率正在57%—85%之间。GPT-4o(OpenAI)、GPT-5(OpenAI)、Gemini 2.5 Pro(谷歌)以及L 4 Maverick(Meta)四种多模态大模子也进行了识别测试,可能被用于医疗欺诈,相关论文颁发于最新一期《放射学》。例如伪制骨折影像用于诉讼取证。研究人员暗示,若是黑客入侵病院系统并植入合成医学影像,都难以等闲区分由人工智能(AI)生成的深度伪制X光影像取实正在医学影像。分为两组:第一组数据包含多个剖解部位的实正在影像以及由ChatGPT生成的影像;AI生成的X光片实正在度极高,这一发觉凸显了AI生成医学影像可能带来的医疗平安取收集平安风险。正在明白奉告后,以至电子病历系统的可托度。能以假乱实,大夫区分实正在取伪制影像的平均精确率为75%。此中一半实影像。成果显示,科技日报3月24日电 (记者欣)美国西奈山伊坎医学院一项最新研究发觉,正在未被奉告研究目标的环境下,第二组数据为X光片,无论是放射科大夫仍是多模态狂言语模子(LLM),研究共阐发264张X光影像,仅有41%的大夫自动识别出AI生成图像。