我最近写了一篇报道,描述了一个由一些主要科技和媒体公司支持的项目,该项目试图帮助识别人工智能制作或修改的内容。
(资料图片)
(来源:AI 生成)
随着人工智能生成的文本、图像和视频的爆炸式增长,立法者和普通互联网用户都在呼吁提高透明度。尽管简单地添加标签似乎是一个非常合理的要求(事实也确实如此),但实际上这并不容易,而且现有的解决方案,如人工智能检测和水印,存在一些严重的问题。
正如我的同事梅丽莎·海基拉(Melissa Heikkilä)所写的那样,目前的大多数技术解决方案“都不是最新一代的人工智能语言模型的对手”。尽管如此,标记和检测人工智能生成内容的竞赛仍在继续。
这就是 C2PA 协议存在的价值。C2PA,以创建该协议的组织“内容来源和真实性联盟(Coalition for Content Provenance and Authenticity)”命名。它创建于 2021 年,是一套新的技术标准和开源代码,可以明确而安全地标注内容来源的信息。
这意味着,图像会自带其来源设备(如手机摄像头)、任何编辑工具(如 Photoshop)以及最终上传到的社交媒体平台的标记信息。随着时间的推移,这些信息会形成一系列历史记录,所有这些都会被记录下来。
C2PA 技术本身比其他人工智能标注工具更安全,尽管有点复杂。在我之前文章中,我对它进行了更详细的介绍,但也许最容易理解的方式是把它想象成一个营养成分表(这是我采访过的大多数人喜欢的比喻)。
负责公共事务的副总裁穆尼尔·易卜拉欣()表示:“这个溯源的想法是以一种可互操作和不可篡改的方式标记内容,这样它就可以以这种高透明度和类似营养成分表的方式在互联网上传播。”
C2PA 刚推出时得到了包括 和在内的几家知名公司的支持,但在过去六个月里,其参与者数量增加了 56%。就在上周,主流媒体平台 宣布将使用 C2PA 为其所有人工智能生成的媒体贴上标签。
它基于一种可选择是否加入的规则,因此那些想要核实和披露内容来源的团体,如报纸或广告商,可以选择将证书添加到媒体中。
该项目的负责人之一、 公司的安迪·帕森斯()将 C2PA 的新兴趣和紧迫性归因于生成式人工智能(内容)的激增,以及美国和欧盟对立法的期望,这些立法将要求把透明度提高到新的高度。
这一努力背后的愿景是远大的,它是否能真正成功,取决于其是否能被广泛地采用。参与该项目的人表示,希望所有主要内容公司都采用这一标准。
为此,说,可用性是关键:“你想确保无论它在互联网上放在哪里,都会以同样的方式读取和接收,就像 SSL 加密一样。这就是你如何在网上扩展一个更透明的生态系统。”
随着我们进入美国大选季,这可能是一个关键的发展态势,届时所有的目光都将关注人工智能产生的错误信息。该项目的研究人员表示,他们正在竞相发布新功能,并在大概率会到来的虚假信息攻击之前争取覆盖更多的社交媒体平台。
目前,C2PA 主要处理图像和视频,不过成员们表示,他们正在研究处理文本内容的方法。该协议还有其他一些缺点,但真正重要的是,我们必须理解,即使披露了人工智能的使用,它也可能无法阻止其生成的错误信息的危害。社交媒体平台仍需要决定是否在其网站上保留这些信息,用户也必须自己决定是否信任和共享这些内容。
这有点让人想起过去几年科技平台为错误信息贴标签的举措。在 2020 年美国大选之前,脸书将超过 1.8 亿条帖子标记为错误信息,但显然还存在相当大的问题。尽管 C2PA 不打算为帖子指定准确性指标,但很明显,仅仅提供更多关于内容的信息并不一定能让我们摆脱困境。
作者简介:T·瑞恩·莫斯利(T.Ryan-Mosley )是《麻省理工科技评论》的高级技术政策记者。她关注的是新技术对政治制度、人权和全球民主国家健康的影响。她还参与了许多播 客和数据新闻项目。在她成为《麻省理工科技评论》的记者之前,她是一名研究员。在从事新闻工作之前,她是大公司新兴技术战略的顾问。2012 年,她曾任凯洛格国际研究所的研究员,专门研究冲突和战后发展。 支持:Ren 运营/排版:何晨龙关键词: