当前位置:数智频道首页 > 人工智能 > 正文

吃硬不吃软:宾夕法尼亚州立大学研究发现对 ChatGPT 无礼更能获得准确答案

10月15日,据外媒报道,一项研究发现,在与ChatGPT、Gemini等AI工具对话时,提问的语气也会影响回答质量。研究显示,语气粗鲁一点反而可能更有效。

吃硬不吃软:宾夕法尼亚州立大学研究发现对 ChatGPT 无礼更能获得准确答案

宾夕法尼亚州立大学的研究团队在最新预印本论文中提出,让ChatGPT以不同语气回答相同问题。结果显示,语气粗鲁的提问“总体表现更好”。在多项选择测试中,礼貌提问的准确率为80.8%,而粗鲁提问的准确率则提高到了84.8%。

研究人员将语气分为五档,从“非常礼貌”到“非常粗鲁”,中间是“中性”。中性提示指的是既没有“请”等礼貌表达,也没有“你这个笨蛋,自己算算看”这类带有轻蔑语气的命令。研究团队未使用过分冒犯的语言,而是选择了略显无礼的提问,比如:“你这可怜的家伙,你确定会做这题吗?”研究图表显示,从极度礼貌到刻薄无礼,语气越直接,ChatGPT的平均答题准确率反而越高。

这项名为《注意你的语气》的研究结果,与一年前另一份论文的结论截然相反。后者分析了多语言环境下的六款聊天机器人,发现粗鲁语气会降低回答质量,使AI的回应更容易出现偏见、错误或遗漏关键信息。

不过,这次研究仅针对一种特定任务——让ChatGPT回答50道选择题的250种不同版本,因此结果未必具有普遍性。换成其他聊天机器人如Gemini、Claude或Meta AI,可能得不到类似结果。而且实验所用的是OpenAI的GPT-4推理模型,目前公开可用的ChatGPT已升级至基于GPT-5的版本。

此外,“礼貌”和“粗鲁”的界线本就模糊,提问方式和用词细微差异都会影响AI的反应。研究提出了更值得思考的问题:一句话的“情绪分量”究竟会多大程度影响聊天机器人的回答?我们是否真的能据此概括出AI的行为模式?从原理上讲,大语言模型解决问题时应优先考虑奖励机制和准确性,而不该被提问语气左右。

热点推送

本周关注

MORE