英国通讯管理局 (Ofcom) 的一份新讨论文件探讨了如何使用不同的工具和技术来识别深度伪造。

“深度伪造是指人工智能生成的视频、图像和音频内容,故意使其看起来像真的。它们对网络安全构成了重大威胁,我们已经看到它们被用于金融诈骗、描绘非自愿的性爱画面以及传播有关政客的虚假信息,”媒体监管机构解释道。
2024年7月,英国通信管理局(Ofcom)发布了首篇《Deepfake Defences》论文,这篇最新的后续论文深入探讨了四种“归因措施”的优点:水印、来源元数据、AI标签和上下文注释。这四种措施旨在提供有关AI生成内容如何创建的信息,并且在某些情况下可以指示内容是准确的还是具有误导性的。
与此同时,Ofcom 的一项研究显示,85% 的成年人支持网络平台在内容上贴上人工智能标签,尽管只有三分之一(34%)的人见过这种标签。
归因措施的优势和劣势
Ofcom 的最新讨论文件借鉴了其新的用户研究、专家访谈、文献综述以及对三项开源水印工具的技术评估,评估了这些识别深度伪造的措施的优点和局限性。
分析揭示了八个关键要点,可供行业、政府和研究人员参考:
- 证据表明,如果谨慎部署并进行适当的测试,归因措施可以帮助用户更批判地参与内容。
- 不应让用户自己识别深度伪造内容,平台也应避免将检测误导性内容的全部负担都放在个人身上。
- 在向用户传达有关人工智能的信息时,在简单性和细节之间取得适当的平衡至关重要。
- 归因措施需要适应既不是完全真实也不是完全合成的内容,传达人工智能是如何被用来创建内容的,而不仅仅是它是否被使用过。
- 归因措施可能容易被删除和操纵。Ofcom 的技术测试表明,水印通常可以通过简单的编辑从内容中删除。
- 个人归因措施的更高标准化可以提高这些措施的有效性和采用率。
- 变化的速度意味着对归因措施做出全面的断言是不明智的。
- 归因措施应与人工智能分类器和报告机制等其他干预措施结合使用,以解决最大范围的深度伪造问题。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/59706.html