爆料网探秘 985猎奇研究所的惊人发现

爆料网探秘 985猎奇研究所的惊人发现

AI查询可信吗?

在北京,到2025年底,人工智能医疗咨询的广告将铺天盖地,从电视节目、手机软件到公交车站、商楼电梯,随处可见。被神奇广告语“洗脑”的刘宇今年将年满30岁,但他却患有大大小小五六种慢性病。他每个月都要去大三甲医院两三次,每次要花四五个小时。为了尝试一下,他下载了广告中的人工智能咨询软件,并尝试接受“人工智能医生”的治疗。图片来源:受访者刘宇点击屏幕打开软件。 AI咨询界面简洁明了,操作直观。她按照说明进行操作,详细说明了她的皮肤症状,上传了一张红疹的照片,并询问这是特应性湿疹还是过敏。一分钟之内,AI就给出了“特应性湿疹”的初步诊断以及推荐的药物治疗ns 和购买链接。受访者刘宇供图 以前需要几个小时的咨询、开药、买药的整个流程只用了几分钟就完成了。他对它的效率感到惊讶,但他也对人工智能是否真的值得信任心存疑虑。在他们看来,人们可以进行日常健康检查,但当自己得了重病时,他们会选择去医院,找真正的医生来证实AI的判断。人工智能咨询在这个国家并不新鲜。 2025年以后,随着国内大型模型技术取得长足进步,多家企业开发了医联的“未来医生”、京东健康的“AI医生大为”、蚂蚁集团的“阿福”、阿里巴巴的“夸克健康”、百度健康的“问心健康管家”、科大讯飞医疗的“科大讯飞小医”、字节跳动等医疗智能产品。 “小河AI医生”等。不过,问题来了,AI问诊是否真的靠谱。我这是“废话”吗?它能在多大程度上替代真正的医生?用户的医疗数据如何保护?这些问题正在受到公众的关注。为什么人工智能可以给医生治病? “事实上,自搜索引擎时代以来,医生对专业知识的垄断已经结束。”北京大学医学人文学院教授王悦表示,人工智能医疗的出现并不突然。这类似于搜索引擎的“高级版本”,可以提供适合患者的答案。与DeepSeek、豆宝等常见的大型模型相比,医疗AI产品应该更加专业、可靠。京东健康探索研究院专家刘辉表示,AI能够“像医生一样检查”的关键在于它“提供”医学知识和来自真实医生的“建议”。在人工智能医生“成为专家”之前,他们必须经历两个主要阶段的培训。第一个是像医生上学一样“上学”。通过输入人工智能通过教材、指南、药品手册、学术文章、医院病例数据等大量公共医疗信息,获取基础医学知识和诊断方法。然后是“实习”,类似于医院医生的“培训”。通过数万个现实医患咨询的例子,A​​I可以学习标准的咨询流程,锻炼AI的推理能力和表达水平,让交互更接近真实的医患沟通。最后,在模拟环境中与虚拟患者进行互动。使用真实医生评分反馈的迭代优化可以提高准确性。目前,市场上各家公司的AI咨询产品功能相似,大致可分为“针对普通患者”和“针对医生”两类。以京东健康产品为例,第一类是健康AI专家的角色,即AI健康辅助人工智能医生、人工智能营养师等,适应疾病症状咨询、健康管理、用药、保健品选购指南等线上场景。在这些“普通病人”产品中,用户按照产品界面上的AI指令记录症状、患处照片等。只需一步步输入信息,AI就会告诉你症状的严重程度、症状、应该做哪些检查、应该服用什么药物以及日常生活中应该注意什么。第二类是医疗助手,类似于DeepSeek专业版。当医生在诊断或科研中遇到问题时,AI医疗助手产品会查阅相关指南和文章,根据这些专业资料解答医生的疑问,帮助医生做出科学决策。医生在线诊疗过程中,医疗还可以自动生成记录摘要、推荐检测项目、药物相互作用预警等,可以提高医生的诊疗效率。 “人工智能问诊的优势总结起来就是两个字:便捷。”王悦多年来一直在研究医患关系。他说,由于国内尚未建立完全分级诊疗制度,人们生病时不会尝试去看全科医生,而是直接跑到三级医院。结果,三级医院人满为患,医疗技术落后。这被戏称为“排队2小时看病5分钟”。 “病人在抱怨,医生很累。”因此,人工智能咨询成为了自然的选择。 “24小时在线,随时可用,无需排队,也不用担心有问题。”王悦认为,AI将l 不仅方便患者,还减轻了医生的工作量,可以处理常见疾病的诊断,为医生腾出精力来解决更复杂的问题。 “无论AI帮助检查还是手术,实际上都为医生提供了便利,缩短了学习曲线。”北京海淀医院院长张富春认为,对于年轻医生和诊疗技术不足的基层医院来说,如果能利用人工智能“获取”资深医生的经验和技能,将是千载难逢的机会,将他们“逼入绝境”。 AI误诊该怪谁?很多人都遇到过人工智能看起来很专业但提供的信息不正确的情况。那么问题就变成了:“人工智能诊断结果可信吗?误诊谁负责?”是普通人——医生普遍关心的问题。对此,刘辉认为,有必要首先澄清一下:y 的基本了解。 AI的目标不是取代线下问诊,而是模拟真实医生的远程问诊。 “在线问诊不能取代验血、CT扫描和草药等医疗检查。即使有真正的医生,远程医疗仍然存在这些局限性。”因此,目前来看,AI会诊适合“看影像电影”、“看体检报告”,治疗夜间发烧、腹泻、处理小伤口等轻微症状和紧急情况。还可以用于慢病管理、分类建议等,即使遇到复杂或疑难疾病,也需要去实体医院治疗。对于大型模型所固有的“幻觉”,严重的无稽之谈,刘辉解释说,这是由于一代技术本身的特性造成的,这是医学领域的致命伤。解决这个问题最直接的方法就是o 使用专为医疗领域开发的人工智能模型,并且在恢复和知识增长(RAG)阶段仅使用基于医学证据的知识库,而不是搜索公开的在线资源。这确保了决策是基于医学文献和实际病例记录。刘辉还表示,与其他“黑盒”AI产品不同,医疗AI应该像“白盒”一样透明。换句话说,所有人工智能得出的参考建议都必须有可追溯的明确证据支持,才能验证结论的正确与否。然而,另一个挑战是患者可能无法清晰表达自己的想法或非正式地说话,这可能会错过重要信息。这造成人工智能在早期阶段误解你的可能性。然而,经过大量真实医患交互数据的训练,AI能够更好地理解意思刘辉表示,对用户表达的歧义词语进行主动澄清。例如,如果用户说:“老年人经常吐白痰”,大模型会主动询问他们是呕吐还是吐痰,并解释两种行为的特点和区别。 “呕吐”和“预期”预示着不同的全身性疾病,因此必须明确区分。关于准确率评估,刘辉表示,目前京东健康AI辅助诊断的前五名准确率(即给出的5条诊断建议包含正确答案的概率)达到97%,第一个建议的准确率约为80%。该测试使用了数以万计的历史病例和线下医疗诊断数据作为标准答案。目前,对于人工智能做出错误诊断由谁负责的问题,还没有具体的法律规定。赵景武 北京航空航天大学副教授市法学院指出,人工智能咨询无法单独完成诊断和治疗。它更像是一名医疗助理。由于最终诊断仍由医生决定,因此医疗事故的责任由医生或相关医疗机构承担。赵景武进一步解释,人工智能诊断结果不准确是技术开发过程中的客观现象,法律上不可能让开发者对技术无法实现的目标负责。然而,如果开发商或服务提供商在促销中夸大人工智能的准确性,而患者因相信错误结果而遭受损失,则可能需要承担产品责任。目前市面上几乎所有的AI咨询软件都会显示类似的信息:“建议仅供参考,如有健康问题,请及时就医。”刘辉先生介绍,当前行业“AI+医疗”的共识仍然是“辅助诊疗”。 “医生们担心人工智能会变成这样。” “如果人工智能足够可靠,未来会有更多人愿意接受它。”刘会展表示,长期目标是让AI成为用户的全周期健康助手,类似于欧美的家庭医生、全科医生。从疾病预防到诊断支持和康复,这使我们能够提供高质量的服务并减少医疗资源的配置。 ANDl​​ 分配不均的问题。然而,高质量的医疗数据对于训练可靠的人工智能模型至关重要。但多位行业专家指出,目前全国医疗数据共享不足、缺乏统一标准正在限制医疗AI行业的发展。事实上,中国并不缺乏医疗数据。据国家卫健委发布的《健康年鉴》显示,2019年全国游客总人数预计到2024年,全国医疗机构的数据量将达到101.5亿人次,从医疗机构获取的医疗数据预计将超过100亿条。但问题是,各医院的数据标准不统一、质量不统一,很多数据仍然存在错误、遗漏或不完整。此外,大量数据以文本和图像等非结构化格式存储,使得管理和集成极其困难。目前,京东健康的医疗数据主要来自京东互联网医院、有项目合作的大型公立医院以及区域数据中心。在更大程度保护隐私的基础上,刘辉提出,需要提高数据一致性和质量,实现不同医院之间患者病历的互联互通,以支持AI模型的持续学习。我们在政治层面也在积极推动这一点。 2025年12月,北京市卫健委ion发表文件总结医疗数据,制定高质量的数据标准,并明确这些数据将在合理评估后分阶段公开。上海、浙江等地也出台了类似政策。在监管方面,王跃建议采取政府、行业协会和企业的社会共治模式。 “人工智能的技术壁垒如此之高,政府管理者往往很难深入理解复杂的算法,因此仅仅依靠政府监管是不现实的。”他认为人工智能运营商应该践行“不责备原则”。这意味着,除非可以证明存在疏忽并且保险可以分配风险,否则您将对造成的任何损失负责。刘辉先生强调要明确各方责任。例如,开发者必须考虑算法和数据安全。医疗保健组织将负责数据管理合规性,医疗保健组织将监控患者的使用情况和安全,监管机构将监督执法,并制定标准,用户也需要理性查看AI参考建议。他提议利用自动驾驶评级系统来制定医疗人工智能的法规。例如,L1 可以使用信息提示,L2 可以快速使用,但需要注意。校准的标准是 IA 应用的线性限制,并且是基本产品的设计。王悦先生分享了他利用人工智能进行医疗的经验。去年我抱怨喉咙痛并咨询了人工智能。当人工智能说这可能是肿瘤时,我很惊讶。您立即注册了一个离线专家帐户。 “El médico lo examinó con un depresor de lengua y termó queera un dolor de garganta común. Como docente, este es王跃认为,忽视个体差异是人工智能最大的局限性。比如,如果多个患者主诉相同的症状,人工智能可以提供统一诊断,但医生会分析每个人的情况,得出不同的结论。不过,最让他担心的是,“目前有些医生过于依赖化验报告和影像片,不注重临床经验和技能,把病人当作‘流水线上的工人’来对待。”这种机械性的工作完全可以被人工智能取代。我们应该害怕医生变成AI,而不是AI变成医生。”(中央视网微信公众号)

Leave a Reply

邮箱地址不会被公开。 必填项已用*标注