Post by account_disabled on Apr 16, 2024 3:48:16 GMT
近年来我们接收信息的方式以及感知信息的方式发生了 360 度的转变。随着互联网和社交网络上新闻的即时性,也带来了区分真实信息和虚假信息的困难。今天,我们分析假新闻的出现,以及它的出现如何改变了用户的行为并增加了他们对媒体的不信任。
从假新闻到深度伪造
今天,每个人都知道“假新闻”这个词,这是一个病毒式传播的概念,指的是为了宣传观点并寻找支持该观点的受众而创建的虚假新闻,其程度足以在环境中产生巨大的信念。给她。
最早产生全球影响的案件之一是剑桥分析公司和 Facebook 丑闻,其中恶作剧和假新闻的传播导致数百万人的意见被操纵。其中,对特朗普竞选活动的大规模支持尤为突出,获得了必要的支持以实现英国脱欧或以令人恼火的方式使加泰罗尼亚进程的意见两极分化。
假新闻
自 2017 年以来,此类欺诈内容已 英国手机号码清单 转移到视听媒体,并且出现了深度伪造视频,其中主角的面部经过操纵,以非常逼真的方式呈现另一个人的面部,使动作看起来像是名人在主演。 。
去年,华盛顿大学的研究人员在 YouTube 上发布了一段视频,其中最受欢迎的深度假货之一被公开,其中前总统巴拉克·奥巴马 (Barack Obama) 出现——或者更确切地说,是模拟奥巴马的蒙太奇——对着镜头特写讲话。你能发现欺骗吗?这似乎是不可能的,对吧?
该视频是由数千张他的脸部静态图像和屏幕左侧播放的几个旧视频中奥巴马的音频创建的。目标是学习同步动作,并以这种方式能够创建一个几乎完美的视频,只包含一个错误:它是假的。
自诞生以来,深度伪造技术已经突飞猛进,并且变得越来越容易实现,因为制作看起来真实的视频所需的图像更少。此外,由于人工智能的使用,音频和视频之间的同步几乎是完美的,使我们不仅可以在点播视频中看到深度伪造,而且可以在直播中看到。然而,虽然这可能代表着通信能力的残酷进步,但它是一把非常危险的双刃剑,因为它使得区分真假视频几乎不可能。
在 Deepfake 的世界中,人工智能最近还做出了另一个贡献:语音钓鱼,或者说相同的是,如何从一个人的一小部分声音样本中 复制整个对话,非常容易地冒充他们的声音身份。 您能识别给您打电话的人是您的母亲 还是具有相同声音的机器人吗?另一个几乎无法察觉的真人模拟。
目前,与您可能想象的不同,大多数 Deepfake 视频都用于色情行业,根据安全公司 Deeptrace 的数据,比例高达 96%。在这些深度假货中,真实女演员的面孔被名人取代,其中大多数是英国和美国女演员和歌手。尽管将它们用于政治目的可能会构成巨大威胁,但我们绝不能忘记深度伪造品对于色情行业中的身份盗窃意味着什么,该行业已导致互联网上深度伪造品的数量在过去九个月内翻了一番。
环境和行为的变化:即时性的增加损害了真实性
我们都知道社交网络的发展和用户在社交网络上的活动,但我们不太清楚这所带来的沟通方式的变化。有几个因素在起作用,所有这些因素的结果是信息消费的巨大变化。
我们对社交网络感兴趣的第一个因素是新闻消费的即时性。几乎所有媒体机构都在社交网络上存在,以便能够快速传播信息,因此今天必须等待或必须搜索不同来源才能获取特定新闻是不可想象的。在大多数情况下,公众对他们最初收到的反馈感到满意,并根据这些信息形成自己的意见。
因此,这种范式转变似乎代表了沟通的实质性改进,因为除了能够以传统方式(离线媒体)获取信息之外,还可以选择访问适应数字甚至新出版物的渠道原生于数字环境,可以更有效地为我们提供信息。然而,并非所有这些都是优势,因为不幸的是,在许多情况下,即时性与真实性相反。以至于从用户的角度来看,即使在与持怀疑态度的接收者打交道时,也很难确保消息来源完全真实。
从假新闻到深度伪造
今天,每个人都知道“假新闻”这个词,这是一个病毒式传播的概念,指的是为了宣传观点并寻找支持该观点的受众而创建的虚假新闻,其程度足以在环境中产生巨大的信念。给她。
最早产生全球影响的案件之一是剑桥分析公司和 Facebook 丑闻,其中恶作剧和假新闻的传播导致数百万人的意见被操纵。其中,对特朗普竞选活动的大规模支持尤为突出,获得了必要的支持以实现英国脱欧或以令人恼火的方式使加泰罗尼亚进程的意见两极分化。
假新闻
自 2017 年以来,此类欺诈内容已 英国手机号码清单 转移到视听媒体,并且出现了深度伪造视频,其中主角的面部经过操纵,以非常逼真的方式呈现另一个人的面部,使动作看起来像是名人在主演。 。
去年,华盛顿大学的研究人员在 YouTube 上发布了一段视频,其中最受欢迎的深度假货之一被公开,其中前总统巴拉克·奥巴马 (Barack Obama) 出现——或者更确切地说,是模拟奥巴马的蒙太奇——对着镜头特写讲话。你能发现欺骗吗?这似乎是不可能的,对吧?
该视频是由数千张他的脸部静态图像和屏幕左侧播放的几个旧视频中奥巴马的音频创建的。目标是学习同步动作,并以这种方式能够创建一个几乎完美的视频,只包含一个错误:它是假的。
自诞生以来,深度伪造技术已经突飞猛进,并且变得越来越容易实现,因为制作看起来真实的视频所需的图像更少。此外,由于人工智能的使用,音频和视频之间的同步几乎是完美的,使我们不仅可以在点播视频中看到深度伪造,而且可以在直播中看到。然而,虽然这可能代表着通信能力的残酷进步,但它是一把非常危险的双刃剑,因为它使得区分真假视频几乎不可能。
在 Deepfake 的世界中,人工智能最近还做出了另一个贡献:语音钓鱼,或者说相同的是,如何从一个人的一小部分声音样本中 复制整个对话,非常容易地冒充他们的声音身份。 您能识别给您打电话的人是您的母亲 还是具有相同声音的机器人吗?另一个几乎无法察觉的真人模拟。
目前,与您可能想象的不同,大多数 Deepfake 视频都用于色情行业,根据安全公司 Deeptrace 的数据,比例高达 96%。在这些深度假货中,真实女演员的面孔被名人取代,其中大多数是英国和美国女演员和歌手。尽管将它们用于政治目的可能会构成巨大威胁,但我们绝不能忘记深度伪造品对于色情行业中的身份盗窃意味着什么,该行业已导致互联网上深度伪造品的数量在过去九个月内翻了一番。
环境和行为的变化:即时性的增加损害了真实性
我们都知道社交网络的发展和用户在社交网络上的活动,但我们不太清楚这所带来的沟通方式的变化。有几个因素在起作用,所有这些因素的结果是信息消费的巨大变化。
我们对社交网络感兴趣的第一个因素是新闻消费的即时性。几乎所有媒体机构都在社交网络上存在,以便能够快速传播信息,因此今天必须等待或必须搜索不同来源才能获取特定新闻是不可想象的。在大多数情况下,公众对他们最初收到的反馈感到满意,并根据这些信息形成自己的意见。
因此,这种范式转变似乎代表了沟通的实质性改进,因为除了能够以传统方式(离线媒体)获取信息之外,还可以选择访问适应数字甚至新出版物的渠道原生于数字环境,可以更有效地为我们提供信息。然而,并非所有这些都是优势,因为不幸的是,在许多情况下,即时性与真实性相反。以至于从用户的角度来看,即使在与持怀疑态度的接收者打交道时,也很难确保消息来源完全真实。