保护你的声音不被伪造

人工智能的最新进展刺激了现实语音生成式合成的发展。虽然这项技术有可能通过个性化语音助手和增强可访问性的通信工具来改善生活,但它也导致了深度伪造的出现,在这种情况下,合成语音可能被滥用来欺骗人类和机器,达到邪恶的目的。

为了应对这种不断演变的威胁,圣路易斯华盛顿大学麦凯维工程学院(McKelvey School of engineering)计算机科学与工程助理教授张宁(Ning Zhang)开发了一种名为AntiFake的工具,这是一种新的防御机制,旨在在未经授权的语音合成发生之前阻止它。

11月27日,张在丹麦哥本哈根举行的计算机与通信安全协会会议上展示了AntiFake。

与传统的深度伪造检测方法(用于评估和发现合成音频作为攻击后缓解工具)不同,AntiFake采取了积极主动的立场。

它采用对抗性技术,使人工智能工具更难以从录音中读取必要的特征,从而防止欺骗性语音的合成。

代码是免费提供给用户的。

张说:“反假软件确保当我们把声音数据放到网上时,犯罪分子很难利用这些信息合成我们的声音并冒充我们。”

“该工具使用了一种对抗性人工智能技术,这种技术最初是网络罪犯工具箱的一部分,但现在我们正在用它来防御他们。我们只是把录制的音频信号弄乱一点,扭曲或干扰它,使它对人类听众来说仍然是正确的,但这对人工智能来说是完全不同的。”

为了确保AntiFake能够抵御不断变化的潜在攻击者和未知的合成模型,Zhang和第一作者Zhiyuan Yu (Zhang实验室的研究生)构建了一个一般化的工具,并对五个最先进的语音合成器进行了测试。

AntiFake达到了超过95%的保护率,甚至对看不见的商业合成器。

他们还让24名参与者测试了AntiFake的可用性,以确认不同人群都能使用该工具。

目前,AntiFake可以保护简短的语音片段,针对最常见的语音模仿类型。

但是,张说,在与虚假信息的持续斗争中,没有什么可以阻止这个工具被扩展到保护更长的录音,甚至是音乐。

“最终,我们希望能够完全保护录音,”张说。“虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发中——但我确实认为我们利用对手的技术来对抗他们的策略将继续有效。人工智能仍然容易受到对抗性扰动的影响,即使工程细节可能需要改变,以保持这一策略的制胜性。”


作者:圣路易斯的华盛顿大学

链接:https://www.sciencedaily.com/releases/2023/11/231127180707.htm

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com