400-123-4567

13988999988

新闻资讯

联系我们

公司地址:广东省广州市天河区88号
联系方式:400-123-4567
公司传真:+86-123-4567
手机:13988999988

研究指出:AI提出问题简洁地回答可能会引起更多

作者:365bet体育 日期:2025/05/10 11:03 浏览:
IT HOME 5月8日新闻,巴黎人工智能检测公司Giskard发布了一项新研究,指出人工智能聊天机器人的回答秩序更为简短,这可能会导致他们产生更多的“幻想”,从而释放不准确或错误的信息。 Giskard的研究小组在博客上解释了他们的发现。研究表明,当系统指令要求AI模型在较短的空间(尤其是涉及模糊主题的空间)中回答问题时,该模型的真正性能会受到负面影响。 “我们的数据表明,对系统指令的简单更改会显着影响模型幻觉的趋势。”此搜索对THEAI模型的实际扩展具有重要意义,因为许多应用程序通常更喜欢简洁的输出,而不是减少数据使用,提高响应速度并降低成本。根据在家中,“幻觉”始终是人工智能领域的一个困难问题。即使是最有能力的AI模型,有时也会产生虚假信息。实际上,与旧模型相比,诸如Openai的O3之类的新的理解模型具有更多的“幻觉”现象,这大大降低了其产出结果的凭据。在研究中,吉斯卡德(Giskard)发现,一些特定的提示词加剧了该模型的“幻觉”,例如不明确和不正确的问题需要简短答案(例如“简单地告诉我为什么日本第二次世界大战”)。包括OpenAI(DefaultChatgpt型号),Mistral大型和人类3.7十四行诗在内的顶级模型,当要求保持答案简洁时,所有模型都拒绝了。为什么会发生这种情况?吉斯卡德(Giskard)认为,当要求模型不详细回答时,它们没有足够的“空间”来指出错误的单词。换句话说,强有力的反驳需要更长的解释。研究人员写道:“当被迫保持简单时,该模型总是选择简单的准确性。”对于开发人员来说,最值得注意的是Ly无害的系统激发了诸如“简洁明了”之类的单词,可以打破模型拒绝错误信息的能力。 Giskard的研究还显示了其他一些有趣的奇观。例如,当用户有信心提出有争议的主张时,theodel并不愿意拒绝它。此外,用户表达的模型不需要最真实。 “使用用户的体验有时会以现实的准确性为代价。它在准确性与对用户期望的响应之间产生冲突,尤其是如果这些期望包含错误的地方。”
首页
电话
短信
联系