当前位置:数智频道首页 > 人工智能 > 正文

研究发现:主流 AI 聊天机器人传播虚假信息的概率较去年翻倍

根据Newsguard的研究,截至今年8月,十大生成式AI工具在处理实时新闻话题时,有35%的情况会重复传播虚假信息,相比去年8月的18%有所增加。这种变化与聊天机器人引入实时网络搜索功能有关,该功能使得拒绝回答用户问题的比例从2024年8月的31%降至一年后的0%。然而,这也导致AI开始接入“受污染的网络信息生态系统”,不良行为者会蓄意散布虚假信息,而AI系统会对这些信息进行重复传播。

研究发现:主流 AI 聊天机器人传播虚假信息的概率较去年翻倍

去年,Newsguard标记出966个以16种语言运营的AI生成新闻网站。这些网站常使用如“iBusiness Day”等通用名称,模仿正规媒体机构,实际上却在传播虚假新闻。具体数据显示,Inflection公司的模型表现最差,传播虚假信息的概率高达56.67%;Perplexity紧随其后,错误率为46.67%。ChatGPT与Meta的AI模型传播虚假信息的比例为40%;Copilot(微软必应聊天)和Mistral则为36.67%。表现最佳的是Claude和Gemini,其错误率分别为10%和16.67%。值得注意的是,Perplexity的表现下滑明显,一年前它对虚假信息的揭穿率还能达到100%,而现在这一概率接近50%。

研究发现:主流 AI 聊天机器人传播虚假信息的概率较去年翻倍

引入网络搜索功能原本是为了避免AI回答内容过时的问题,但反而使系统产生了新的问题。这些聊天机器人开始从不可靠来源获取信息,混淆了百年前的新闻出版物与使用相似名称的俄罗斯宣传机构。Newsguard指出,早期AI采用“不造成伤害”的策略,通过拒绝回答问题来避免传播虚假信息的风险。如今,随着网络信息生态系统被虚假信息充斥,辨别事实与假消息变得更加困难。

研究发现:主流 AI 聊天机器人传播虚假信息的概率较去年翻倍

OpenAI已承认,语言模型总会产生“幻觉内容”,因为这些模型的工作原理是预测“最可能出现的下一个词”,而非追求“事实真相”。该公司正在研发新技术,让未来的模型能够提示不确定性,而不是笃定地编造信息。不过,这种方法能否解决AI聊天机器人传播虚假信息这一更深层次的问题尚不清楚,这需要AI真正理解何为真实、何为虚假,而这一点目前仍难以实现。

热点推送

本周关注

MORE