当前位置:数智频道首页 > 人工智能 > 正文

请 AI 当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调

研究人员警告称,AI聊天机器人正在对饮食失调高风险人群造成严重威胁。最新报告显示,谷歌、OpenAI等公司的AI工具不仅提供节食建议,还传授如何掩饰病情的技巧,甚至生成鼓吹极端瘦身的内容。

请 AI 当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调

这项研究由斯坦福大学与民主与技术中心联合开展。研究表明,多款AI聊天机器人,如OpenAI的ChatGPT、Anthropic的Claude、谷歌的Gemini以及Mistral的Le Chat,都可能以多种方式影响易患饮食失调的人。许多问题源自这些系统为提升互动体验而刻意设计的机制。

在极端情况下,聊天机器人会直接帮助用户隐藏或维持病情。例如,Gemini会教用户用化妆掩盖体重下降、假装吃过饭的方法;ChatGPT则会提供如何隐藏频繁呕吐的建议。一些AI工具还被用户用于生成“瘦身灵感”内容,这类图像常通过极端手段宣扬单一的身材标准。AI能快速生成符合个人特征的内容,使这些危险图像显得更加真实、甚至诱人。

AI系统的“奉承”问题也加剧了饮食失调的风险。这种倾向会削弱自尊、加剧负面情绪,并助长有害的自我比较。同时,聊天机器人普遍存在的偏见也可能强化“饮食失调只影响瘦弱白人女性”的误解,从而妨碍其他群体识别病症并寻求帮助。

目前,AI工具的安全机制远不足以识别厌食、贪食和暴食等疾病的复杂信号。许多防护措施忽略了专业人士在诊断时依赖的细微线索,使风险长期被忽视。不少医生与照护者并未意识到生成式AI对患者的潜在影响。研究团队呼吁医疗人员应尽快熟悉主流AI平台,了解其漏洞,并主动与患者沟通使用情况。

报告指出,AI聊天机器人的使用与心理健康问题之间的关联日益引发担忧。已有多个报告将AI使用与躁狂、妄想、自残及自杀联系在一起。OpenAI等公司承认AI存在潜在风险,正一边改进安全措施,一边应对不断增加的相关诉讼。

热点推送

本周关注

MORE