AI查询可信吗?
随时有“健康顾问”“无需去医院或排队等候”。只需在智能手机上轻按几下即可询问您的健康状况。人工智能甚至可以理解方言。极好的!过年刚回老家,教父母使用健康APP的年轻人小赵感慨良多。他的母亲患有高血压。他依靠互联网搜索来了解自己的病情。现在,借助人工智能,您只需通过语音提问即可获得专家的解答。它还可以记录血压变化,让您在外出工作时更加安心。春节过后,在北京工作的王潇又回到了工作岗位。突然的用力让他喘不过气来。他跃跃欲试,打开手机上一款特定的健康软件,在对话框中写道:“我很累怎么办?”几秒钟后,答案出现了。 “真的很方便,我跟着“方便!”这是用过AI医疗的人的第一印象。“用AI看病最大的好处就是方便。 AI全天在线。 “只要输入症状,马上就能得到结果,而且还会用通俗易懂的方式解释专业医学术语。”首都医科大学宣武医院风湿免疫科主任医师赵毅解释说,人工智能不仅充当患者随时可用的“健康顾问”,还起到科普基础知识和医疗引流的作用。广东省第二人民医院心理精神科主任医师李益华省里的医生也有类似的意见,并表示:“很多患者都使用人工智能进行门诊治疗咨询。 AI将帮助普及基础健康科学,最初不知道该去哪个科室就诊的患者将不再“可以先确定症状所在的区域,实现科室精准引流,减少就医分流。”事实上,在临床方面,医生已经在使用AI来诊断症状。“合适的助手!”不少医生在采访中回应。“目前,不少医院已经实施了CDSS临床决策支持系统。比如,在开立刚从ICU转出的患者病例时,系统会自动触发报警,提示患者器官功能评分较低,有器官功能损伤的风险,医生应重点关注。”北京大学人民医院腹壁疝外科主任医师彭鹏表示,这种人工智能系统可以根据患者的临床检查和病史信息进行实时分析,实现症状预警,以便医生及时发现。尽快发现潜在风险。目前一些医院使用的系统被发现大多“敏感”,尽最大努力检测所有可能的疾病迹象并及时报告,迫使医生重新考虑。这不仅避免了漏诊的风险,也让医生能够将更多的精力集中在研究判断复杂病例、制定个体化治疗方案上。 AI医疗也将为缓解医疗资源失衡发挥重要作用。今年第二次全国会议期间,全国人大代表、圣翔生物科技有限公司董事长戴立中接受采访时表示,基层医生借助人工智能工具,可以更准确地查明病因和治疗方案。 “这意味着,与三级医院同等的诊疗能力可以送到城乡。即使基层医院缺乏医疗诊疗的资源和经费,治疗上,基层医生可以利用人工智能工具来提高诊疗水平。”“AI说我可能得了胃炎,还建议用药。它的判断正确吗?我能按照建议服药吗?”家住上海的刘先生在收到使用人工智能的建议后很担心。“人工智能越来越聪明了。未来它会完全取代医生吗?”拥有人工智能咨询经验的魏女士也有同样的疑问。 AI建议仅供参考。它们永远无法取代医生的面对面咨询和最终决策,AI药物推荐也无法被直接遵循。”对于AI推荐的可靠性,彭鹏表示:“目前市场上的AI,本质上大部分都是智能会话代理。他们可以熟练地运用医学原理,但也有固有的局限性。它有什么局限性?”赵毅进一步补充道:“人工智能无法与人类进行面对面的接触。难以进行更详细、更详细的检查。无法收集详细的病史或进行体检。聆听症状不足以诊断疾病。医生可以使用视觉、触觉技术和叩诊。需要对全身进行系统检查,收集经验性病史,全面分析症状、体征和检查结果,才能得出最终诊断。 ”牛津大学的一个团队进行的一项研究发现。由于用户使用的是多模态语言模型,因此识别疾病的准确性不如自己在网上搜索时的准确度。研究人员认为,这主要是因为用户很难以专业的方式提供有关症状的关键信息,而普通大众往往很难从人工智能提供的一长串可能疾病中识别出最精确的症状。 “归根结底,医学知识水平“非专科患者很难适应人工智能医疗的高专业门槛。”首都医科大学宣武医院疼痛科主任医师何利亚坦言。“现在最大的问题是患者无法给出正确的指导。患者所说的往往是无效信息。有很多情况,同一种疾病可以有不同的症状,同一种疾病也可以有不同的症状。 “我们现在就需要专家。”这种对医生的指导和筛查能力,对于患者来说,此时应该很难达到。“患者只是简单地说自己有胸痛,但无法解释疼痛的部位、性质以及与主动呼吸的关系。” “这些重要信息的缺失将会影响人工智能对来源的判断。” Penpen认为,AI是基于现有的医学知识来学习和训练的,在医疗方面还达不到医生的水平。医疗专业知识或临床反应。受过专业训练的医生会通过人工智能无法独立完成的引导问题逐步建立完整的病史。更令人担忧的是“人工智能错觉”和伦理风险问题。在采访中,不少专家谈到指导不专业和道德风险。在临床环境中,李义华遇到了一次令人心碎的事件,AI被用作知己。然而,仅仅因为AI说“即使在死亡中,你也很体贴”,并不意味着这个人的共情能力很差。李宜华表示,对于处于痛苦边缘的患者来说,这种治疗方式非常有吸引力。他说它很强大,但本质上是具有欺骗性的。 “从更深层的角度来看,患者可以用言语来引导AI遵循自己的意见,或者为触及法律和医疗伦理界限的极端决策寻找理由。”彭鹏还强调了AI无法取代患者的原因。来自法律和隐私方面的医生表示:“必须有人对医疗决定负责,人工智能不能承担责任。”医生的诊断和处方负有责任和义务。当出现医疗问题时,医生必须承担相应的法律责任。人工智能是冰冷的算法,无法承担人类生命健康的负担。国家传染病医学中心主任张文宏表示:“我们不能直接把生命和健康交给人工智能。”四川大学华西第四医院副院长沉江也表达了类似的观点,他说:“医学本质上是一门从经验和教训中成长起来的实证学科。人工智能时代已经到来,我们也不能完全放弃继承的智慧。人工智能开发的辅助工具应该有助于医学的传承和发展。” “AI模拟训练需要大量的数据,如果AI模型配合连接到大规模的外部模型,存在患者隐私可能受到损害的风险。如果我们选择在医院本地实施,需要非常高的算力成本,目前在大多数医院很难实施。 “即使向人工智能提供了真实的患者信息,也不知道它是否会在未来的某个地方出现。这是一个隐私问题。”鹏鹏的担忧指向人工智能医疗潜在的伦理和安全风险。如何提出问题、识别技术?”“日常使用AI咨询健康问题要注意什么?”“面对AI提供的海量信息,我们应该如何提出问题、做出决策?”“……彭彭认为,普罗大众使用AI医疗,首先要明确其作为“辅助工具”的定位,认识到其局限性。 “人工智能可以帮助你了解你的病情、整理你的想法、传播你的信息“最终的决定是由有资质的医生做出的。”彭鹏说。专家提醒,在使用人工智能时,需要区分客观数据和主观判断。人工智能对实验室报告、检测结果等客观数据的分析相对准确,可以作为参考。但在精神疾病、疼痛原因、情绪问题等依赖主观判断的领域,人工智能结论不宜轻信。”此外,患者不应被AI列出的大量“可能疾病”所误导。何亮亮先生坦言:“为了保证完整性,AI列出了所有的可能性,其中大部分都缺乏明确的临床意义。如果过度解读只会让你的焦虑更加严重,我们建议在AI提示出现后及时找专业医生进行检查和分类。”那么如何才能让AI建议更具信息性呢?我们建议您输入准确完整地描述您的症状,包括发病时间、持续时间、疼痛性质、伴随反应、既往病史、近期用药史和生活习惯。您可以根据需要上传健康检查报告、检测结果和影像数据。信息越完整、准确,AI推荐的门槛就越高。 “同时,彭彭建议患者可以通过“设定场景”来改善AI反应的体验,比如告诉AI:“假设你是消化科医生,请根据我的测试结果来分析我的症状。”这可以让AI反应更加符合临床实际。(本报记者 崔成义 通讯员 王淑和)来源:光明新闻