使用人工智能抵抗人工智能图像篡改

当我们进入由人工智能驱动的技术开创的新时代,这些技术可以精确地创作和操纵图像,模糊了现实和虚构之间的界限,滥用的阴影弥漫而来。

最近,像DALL-E和Midjourney这样的先进生成模型因其卓越的精确性和用户友好的界面而备受赞誉,使得生成超逼真图片相对容易。由于门槛降低,即使是没有经验的用户也能够根据简单的文本描述生成和操纵高质量的图片,从无辜的图像修改到恶意的更改。

使用人工智能抵抗人工智能图像篡改
图片来源:MIT CSAIL

类似水印的技术提供了一种有希望的解决方案,但是滥用问题需要采取预防性(而不仅仅是事后)措施。

在努力寻找这样一种新的措施的过程中,麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种名为“PhotoGuard”的技术,该技术利用微小的像素值扰动,这些扰动对人眼来说是看不见的,但是对计算机模型来说是可检测的,有效地破坏了模型对图像的操纵能力。

PhotoGuard使用两种不同的“攻击”方法来生成这些扰动。更直接的“编码器”攻击针对AI模型中图像的潜在表示,使得模型将图像视为随机实体。更复杂的“扩散”攻击定义了一个目标图像,并优化扰动,使最终图像尽可能地与目标图像相似。

在实践中使用PhotoGuard,AI模型对图像的视角与人类不同。它将图像视为一组复杂的数学数据点,描述了每个像素的颜色和位置,这就是图像的潜在表示。编码器攻击在这个数学表示中引入微小的调整,使得AI模型将图像视为随机实体。

结果,任何试图使用该模型操纵图像的尝试几乎是不可能的。引入的改变微小到人眼看不见,从而保护了图像的视觉完整性同时确保了其安全性。

第二种、更复杂的“扩散”攻击则从始至终针对整个扩散模型。这包括确定一个期望的目标图像,然后启动一个优化过程,旨在使生成的图像与预选目标尽可能地相似。

在实施过程中,研究团队在原始图像的输入空间内创建扰动。然后,在推理阶段使用这些扰动,并应用于图像,提供对未经授权的操纵的强大防御。

扩散攻击计算更加密集,并需要大量的GPU内存。研究团队表示,通过减少步骤来近似扩散过程可以缓解这个问题,从而使技术更具实用性。

为了更好地说明这种攻击,以艺术项目为例。原始图像是一幅绘画,目标图像是另一幅完全不同的绘画。扩散攻击就像对第一幅绘画进行微小而不可见的修改,使得对于AI模型来说,它开始像第二幅绘画一样。然而,对于人眼来说,原始绘画保持不变。

通过这样做,任何试图修改原始图像的AI模型现在都会无意中做出改变,就好像处理目标图像一样,从而保护原始图像免受意图操纵。结果是对于人类观察者来说,图片保持视觉上未经改变,但可以防止AI模型的未经授权的编辑。

关于PhotoGuard的一个真实例子,请考虑一张有多个脸的图像。你可以遮挡任何你不想修改的脸部,然后提示“两个参加婚礼的男人”。提交后,系统将相应地调整图像,创建一个能够让人信服的描绘两个男人参与婚礼仪式的图像。

现在,考虑保护图像不被编辑;在上传之前向图像添加扰动可以使其对修改具有免疫力。在这种情况下,最终输出与原始的非免疫图像相比,缺乏真实感。

研究团队表示:对抗图像操纵的关键盟友是图像编辑模型的开发者。为了使PhotoGuard发挥作用,需要所有利益相关者的综合响应。

—煤油灯科技victorlamp.com编译整理—

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论