研究 研究生要读几年
大家好,本网站为大家提供优质的、全新的游戏攻略,援助大家更愉悦地、更顺手地玩游戏,走过路过不要错过奥。
本站 4 月 21 日消息,大阪都会高校医学探究生院 Hirotaka Takita 博士和 Daiju Ueda 副传授领导的探究小组近期发布一项体系性回顾和荟萃分析,深度评估了生成式人工智能(AI)在诊断医疗状况方面的表现,并将其与医生进行了对比。
探究团队筛选了总计 18371 项探究,最终确定 83 项进行详尽分析。这些探究涉及多种生成式 AI 模型,包括 GPT-4、Llama3 70B、Gemini 1.5 Pro 和 Claude 3 Sonnet 等,遮盖了多个医疗领域。其中,GPT-4 是探究最多的模型。结局显示,这些 AI 模型的平均诊断准确率为 52.1%(95% 置信区间:47.0% - 57.1%)。部分模型的诊断准确率与非专家医生相当,两者之间没有显著统计差异(准确率差异:0.6% [95% 置信区间:-14.5% 至 15.7%],p=0.93)。然而,专家医生的表现仍优于 AI,其准确率差距为 15.8%(95% 置信区间:4.4% - 27.1%,p=0.007)。虽然如此,随着技术的不息提高,这一差距可能会渐渐缩小。
探究还发现,AI 在大多数医学专科的表现较为一致,但有两个例外:皮肤科和泌尿科。在皮肤科,AI 的表现更为卓越,这可能是由于该领域涉及模式识别,而这是 AI 的强项。但皮肤科同样需要复杂的推理和针对患者的决策,因此 AI 的优势并不能完全反映其在该领域的实际应用价格。对于泌尿科,探究结局仅基于一项大型探究,因此其结论的普适性受到一定限制。
“这项探究表明,生成式 AI 的诊断能力与非专家医生相当。它可以用于医学教育,支持非专家医生,并在医疗资源有限的地区辅助诊断。”Hirotaka Takita 博士表示,“将来的探究需要在更复杂的临床场景中进行评估,使用实际病历进行性能评估,进步 AI 决策的透亮度,并在不同患者群体中进行验证,以进一步确认 AI 的能力。”
本站注意到,除了诊断领域,该探究还强调了生成式 AI 在医学教育中的潜力。探究人员指出:“当前生成式 AI 模型在非专家环境下的表现与医生相当,这为将 AI 整合到医学培训中提供了机会。” AI 可以用于模拟诚实病例,援助医同学和受训者进修和评估他们的技能。
然而,探究也对这些模型的透亮度和偏见提出了担忧。许多 AI 体系并未公开其训练数据的详尽信息,这引发了关于其结局是否适用于全部人群的疑问。探究人员强调,“透亮度确保了对模型智慧、背景和局限性的领会”,并强调需要开发明晰、符合伦理且经过充分验证的 AI 应用。
目前,虽然生成式 AI 具有巨大潜力,但在涉及详尽患者信息的复杂病例中仍面临挑战。医生们是否需要担忧失去职业?目前尚难定论,但在诊断领域,这种状况是有可能发生的。
大家注意,记起持续关注本游戏攻略网站,无论兄弟们的支持是我们最大的动力奥,我们会努力提供全网新的游戏攻略教程,加油。
本创作内容,未授权勿转载,必究权责。
免责说明:这篇文章小编将代表的是网站编辑的见解,与本站无关。其原创性、诚实性以及文中陈述文字和内容未经确认,因此对这篇文章小编将以及其中全部或者部份内容文字的诚实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。