巴以冲突中的生成式AI与信息真伪

WB3交流加微信:WX-93588,⬅️此处为全站广告位,与正文项目无关
注册并登录App即可领取高达 60,000 元的数字货币盲盒:点击此处注册OKX

注:本文不预设立场,写作目标是让大家思考生成式AI这项技术,与信息时代舆论、算法和新闻之间的关系。

一、关于新闻的真伪

很多人担心,巴以冲突会成为世界上第一次在局势升级的同时,还充斥着机器制造的虚假图像的战争,而社交媒体会成为第二个战场。

不过,就目前看来,在社交媒体上流传的所有图片和视频中,人工智能工具生成的内容还没有成为主流。尽管很多专家认为,本次巴以冲突,人工智能的作用会被放大,但目前还没有做到能在信息传播中发挥核心作用的程度(Digital Forensic Research Lab-Layla Mashkoor)

但是未来一旦技术成熟,如果再次发生类似的冲突或者战争,又会怎么样呢?

二、生成式人工智能与新闻真伪的思考

如果我们跳出本次巴以冲突事件,去思考更多“信息”带给人类的影响。就笔者个人经历而言(2019年秋,笔者在香港读书,亲眼目睹了新闻信息对人们思维的影响),未来时代,辩证地思考生成式AI这项技术,和这些内容对社会的作用,无疑是非常重要的。

近期,哈佛大学肯尼迪学院《Misinformation Review》发表了一篇论文,探讨了生成式人工智能在全球虚假信息传播中扮演的潜在角色。从理论上讲,生成式人工智能可以让人们以飞快的速度传播虚假信息,但愿意相信虚假信息的人——通常是那些 “对机构信任度低”或者”本身就有强烈倾向 “的人,并且已经有大量耳熟能详的虚假信息可供选择。

生成式人工智能系统,能够通过对大量训练数据进行机器学习来生成新形式的数据。这种新数据可以包括文本(如谷歌的 Bard、Meta 的 LLaMa 或 OpenAI 的 ChatGPT)、视觉(如 Stable Diffusion 或 OpenAI 的 DALL-E)或音频。根据不同的指令,这些系统可以为大多数用户快速、轻松地生成输出内容,其复杂程度足以让人类认为这些内容与人类生成的内容无异。

包括一些领先的人工智能研究人员都认为,生成式人工智能,将使大规模创造逼真但虚假或误导性的内容变得更容易,具体问题可分为四类。

1. 伪造信息数量增加:由于易于获取和使用,生成式人工智能可用于大规模制造错误/虚假信息,对个人和有组织的行为者来说几乎不需要任何成本。错误信息数量增加使得居心不良的行为者可以用错误或误导性信息 “充斥整个区域”,从而淹没事实内容和/或制造混乱。

2. 容易误导信息的质量提升:由于人工智能的技术能力和易用性,生成式人工智能可用于制造更高质量的误导信息 提高误导信息的质量可增加其说服力,因为它制造的内容更可信、更难揭穿或验证。这要么会导致虚假信息的传播,要么会(随着错误信息数量的增加)导致认识危机,即用户们对所有类型的新闻普遍失去信任。

3. 错误信息的个性化程度提高 :生成型人工智能可以生成有用的内容(例如,聊天机器人生成代码)。然而,它们也能生成看似可信、实则完全不准确的信息。因此,用户可以在无意中生成错误信息,而错误信息有可能传播误导消费者的信息。

4. 非自愿生成似是而非的虚假信息:生成型人工智能可以生成有用的内容(如聊天机器人生成代码)。然而,它们也能生成看似可信、实则完全不准确的信息。因此,用户可能无意中生成错误信息,而这些错误信息有可能传播给使用生成式AI工具的用户,也有可能传播给与他们分享信息的人。

三、提高辨证思考能力,怎么识别假新闻?

我问了一下ChatGPT怎么识别假新闻,它是这么说的:

识别假新闻是一个复杂的过程,因为制造假新闻的技术和方法不断进步。下面是一些帮助你识别假新闻的方法:

  1. 检查来源: 查看发布新闻的网站或媒体是否可靠。查看它的域名,是否使用了模仿知名媒体的域名。同时,查看该网站是否有联系方式,版权声明等正式的信息。

  2. 核实内容: 检查新闻报道中的事实信息。你可以使用搜索引擎,查看其他可靠媒体是否也报道了同样的新闻。

  3. 注意作者: 查看作者的其他文章,看他们是否有发布虚假或误导性内容的历史。

  4. 检查图片和视频: 有时候,假新闻会使用经过修改的图片或视频。你可以使用反向图片搜索工具,查看这些图片或视频是否在其他地方以不同的上下文出现过。

  5. 分辨言辞: 假新闻通常会使用煽动性或极端化的言辞来吸引读者的注意。

  6. 检查时间线: 确认事件的时间线是否合理,有时候假新闻会故意扭曲时间线来制造误导。

  7. 查看来源链接: 假新闻通常不会提供可靠的来源链接,或者链接到不相关或同样可疑的网站。

  8. 检查评论: 查看其他读者的评论,有时候他们会指出新闻中的错误或提供更多信息。

  9. 留意专家意见: 假新闻往往会引用不存在或不可靠的专家意见。你可以搜索所引用的专家,看他们是否真的存在,以及他们的背景是否可靠。

  10. 保持怀疑态度: 对任何看似异常或夸张的新闻保持怀疑态度,特别是当它激起强烈情绪时。

记住,即使是真实的新闻来源也可能偶尔犯错误。关键是要有批判性的思维,不要轻信任何未经验证的信息。

其他方法:

科瓦奇和罗森斯蒂尔在《真相》一书中向公众提出了六项必备的“新闻素养”,需要多问自己几个问题:

1. 我碰到的是什么内容?

2. 信息完整吗?假如不完整,缺少了什么?

3. 信息源是谁/什么?我为什么要相信他们?

4. 提供了什么证据?是怎样检验或核实的?

5. 其他可能性解释或理解是什么?

6. 我有必要知道这些信息吗?

参考资料:

1.Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown | HKS Misinformation Review (harvard.edu)

2.《真相——信息超载时代如何知道该相信什么》

3.Generative AI Is Playing a Surprising Role in Israel-Hamas Disinformation | WIRED

此时快讯

【FLOKI:Bitget下架TOKEN代币因未获授权且上架假代币】金色财经报道,FLOKI 官方发布 Bitget 下架 TOKEN 代币的澄清说明,FLOKI 表示此前已要求 CEX 在代币发布后 7 天才能上市,但Bitget违背了FLOKI的要求,在代币正式上线之前上架了一个声称与 Floki 相关的假代币,而且还在TOKEN代币正式上线之前欺骗性地交易了数千万美元的TOKEN,没有任何区块链证据表明他们的钱包中有单个单位的实际代币来代表用户在其交易所购买这些代币。FLOKI表示要求 Bitget 发布可验证的钱包链接,以便用户可以查看他们的TOKEN持有量和历史记录。
版权声明:本文收集于互联网,如有侵权请联系站长删除。
转载请注明:巴以冲突中的生成式AI与信息真伪 | 币百度

相关文章