4月15日消息,据媒体报道,最新研究指出,AI聊天机器人在约一半情况下会提供存在问题的医疗建议。
近日,来自美国、加拿大和英国的研究团队对5款主流平台ChatGPT、Gemini、Meta AI、Grok和DeepSeek进行了测试。
他们围绕五类健康主题提出10个问题,结果显示,在全部回复中约50%存在问题,其中近20%被评估为严重问题。
研究发现,这些模型在封闭式问题以及疫苗、癌症等领域表现相对较好,但在开放式提问以及干细胞、营养等话题上表现明显下滑。
同时,模型的回答通常语气很确定,但缺乏可靠依据,没有任何一个模型能够提供完整且准确的参考来源。
目前,每周有超过2亿用户向ChatGPT咨询健康相关问题,OpenAI还在1月推出面向普通用户和医疗专业人士的健康工具。
同月,Anthropic也宣布,将为Claude引入医疗服务能力。
研究作者警告,在缺乏公众教育和监管的情况下,大规模部署AI聊天机器人可能加剧错误信息传播。
文章来源:
心理健康
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至23467321@qq.com举报,一经查实,本站将立刻删除;如已特别标注为本站原创文章的,转载时请以链接形式注明文章出处,谢谢!


