
电视媒体报道,Rishabh Das博士对深度造假
2025年5月1日
随着人工智能算法变得越来越强大,我们必须像对待指纹一样对待我们的声音,并保护我们分享它的方式。 在威廉希尔亚洲真人平台哥伦布市10tv电视台的独家报道中,斯克里普斯传播学院的里沙伯·达斯博士讨论了这一新兴威胁,并概述了识别深度假威胁的潜在防御措施。
人工智能是一种可以模仿人类智能的计算机程序。 该算法可以研究大量现有数据,发现模式或开发特定的认知能力。 经过训练后,该算法可以加速人类的工作流程,使我们更有效率。 这些都是积极的,问题在哪里?
如果人工智能学会了你的声音呢? 人工智能可以冒充你,欺骗你的朋友。 如果人工智能学会了你在虚拟变焦或团队式电话会议中如何移动和说话呢? 然后,该算法可以执行更广泛类型的模拟。 这些被称为深度造假。 Deepfakes是由生成式人工智能制作的合成音频或视频剪辑。 只需几秒钟的公开语音或图像,犯罪分子就可以克隆一个人的肖像并将其嵌入电话中。
在通话过程中,输出的声音听起来很真实,受害者可能会被骗向罪犯转移资金或提供机密信息。 这些骗局正变得越来越普遍。 在最近的一项研究中,斯特林银行发现,28%的人在过去一年中至少一次成为人工智能语音克隆骗局的目标。 46%的人甚至不知道这种骗局的存在,8%的人表示,即使他们认为亲人打来的电话看起来很奇怪,他们也可能会按要求汇款。 [1]
![]() |
直接链接到电视报道:
人工智能深度造假不仅仅是在愚弄个人。 它们已经被用来渗透企业环境,实施高风险欺诈。 犯罪分子冒充香港一家银行的高级职员,骗走了该组织2000万英镑。 据悉,这名犯罪分子下载了公开的视频,并使用人工智能算法来实施骗局。
参考:
b[1]卫报新闻与媒体。 (2024年9月18日)。 警告社交媒体视频可能被骗子利用来克隆声音。 《卫报》。 https://www.theguardian.com/money/2024/sep/18/warning-social-media-videos-exploited-scammers-clone-voices?
The 麦克卢尔学校 of Emerging Communication Technologies strives to offer the best academic programs in the IT(信息技术),网络安全, the 游戏开发 and the 虚拟现实/增强现实 (VR/AR) industries. Our programs and certificates cover numerous aspects of the rapidly changing industries of information networking, 网络安全操作 , data privacy, 游戏开发 , digital animation and the academic side of 电子竞技。