[丽莎]人工智能聊天机器人可以“产生幻觉”并编造事情——为什么会发生以及如何发现它

WB3交流加微信:WX-93588,⬅️此处为全站广告位,与正文项目无关
注册并登录App即可领取高达 60,000 元的数字货币盲盒:点击此处注册OKX

当您听到“错觉”这个词时,您或许会想到听到其他人好像没有听到的声音,或许想象您的同事在您与他们交谈时忽然长出了第二个头。

但关于人工智能来说,错觉的含义有些不同。

当人工智能模型发生“错觉”时,它会依据用户的提示生成伪造的信息,但将其呈现为真实且正确的信息。

假设您要求人工智能谈天机器人写一篇关于自在女神像的文章。

如果谈天机器人说纪念碑坐落加利福尼亚州而不是纽约,那么它就会发生错觉。

但过错并不总是那么明显。

为了呼应自在女神像的提示,人工智能谈天机器人还或许会编造参加该项意图设计师的名字,或许声明该项目是在过错的年份制作的。

发生这种状况是因为大型言语模型(一般称为人工智能谈天机器人)接受了大量数据的训练,这便是它们学习辨认单词和主题之间的模式和联系的方法。

他们利用这些知识来解释提示并生成新内容,例如文本或相片。

但由于人工智能谈天机器人本质上是在预测句子中最有或许出现的单词,因此它们有时会生成听起来正确但实际上并不正确的输出。

实际世界中的一个例子是,一名起诉航空公司的客户的代表律师向曼哈顿联邦法官提交了一份由 ChatGPT 编撰的法令摘要。

该谈天机器人在案情摘要中包括虚假导言并引用了不存在的法庭案子。

AI 谈天机器人变得越来越流行,OpenAI 甚至允许用户构建自己的定制谈天机器人以与其他用户同享。

跟着咱们开端在市场上看到更多的谈天机器人,了解它们的工作原理以及知道它们何时出错变得至关重要。

事实上,人工智能意义上的“错觉”是 Dictionary.com 的年度词汇,之所以被选中是因为它最能代表人工智能或许对“言语和日子的未来”发生的潜在影响。

“‘错觉’好像很合适历史上的某个时期,在这个时期,新技术感觉就像是梦想或小说中的东西——尤其是当它们创造出自己的小说时,”一篇关于这个词的帖子写道。

此时快讯

【亿万富翁Tim Draper向比特币开发组织Brink捐赠15万美元】金色财经报道,据Bitcoin Magazine消息,亿万富翁Tim Draper已向非营利比特币开发组织Brink捐赠15万美元,以支持比特币开发人员。Tim Draper及其Draper基金会今年已向该组织捐赠了25万美元。

版权声明:本文收集于互联网,如有侵权请联系站长删除。
转载请注明:[丽莎]人工智能聊天机器人可以“产生幻觉”并编造事情——为什么会发生以及如何发现它 | 币百度

相关文章