极客前沿

极客资讯 正文

科技巨头一边造AI垃圾,一边假装打扫?

2026-02-24 00:30 | The Verge AI ...

当Instagram老板开始“末日发帖”

2025年底,Instagram负责人亚当·莫塞里在社交媒体上发出了一声叹息:“真实性正在变得无限可复制。”他担心,那些让创作者与众不同的东西——真实感、连接性、无法伪造的声音——现在只要有了合适的工具,人人都能模仿。莫塞里提出的解决方案听起来很技术流:让相机厂商在拍摄时对图像进行加密签名,建立一条可信的“监管链”。但讽刺的是,这套方案其实早就存在了,它叫C2PA,而且Instagram已经在用了——可惜,它似乎没什么用。

C2PA:一个“皇帝的新衣”式解决方案?

C2PA全称“内容来源与真实性联盟”,由Adobe、英特尔、微软等巨头在2021年创立。它的逻辑很直接:不直接标记假内容,而是给非AI生成的内容“发身份证”。通过附加不可见的元数据,记录谁在何时何地以何种方式创作了某段媒体,并注明是否使用了AI。听起来很美好,对吧?Meta在2024年9月加入C2PA指导委员会时还高调宣称,理解数字内容对“维护数字生态系统健康至关重要”。

News Image

但问题来了:这套系统依赖用户主动去“验明正身”。想象一下,你在刷短视频时,每看到一个可疑的内容都得停下来,像侦探一样寻找隐藏的元数据——这现实吗?更何况,大多数用户根本不知道C2PA是什么。结果就是,科技公司们一边高喊“我们在努力”,一边继续开足马力生产AI生成内容。这就像一边往河里倒垃圾,一边发给居民几个滤水器,然后说:“看,我们解决了污染问题!”

AI“模仿秀”正在杀死社交媒体的灵魂

AI的模仿能力已经强到令人不安。它可以复制舞蹈趋势、模仿摄影风格,甚至凭空制造出不存在的艺术家和网红。更可怕的是,它还能快速生成关于重大事件的虚假信息,比如明尼苏达州的ICE抗议活动,或者雷内·妮可·古德和亚历克斯·普雷蒂的遇害事件。创作者们试图用“粗糙美学”来对抗——故意让内容看起来不完美、更真实。但AI学这个也很快,毕竟它的训练数据里充满了人类的不完美。

News Image

社交媒体平台多年来围绕内容创作者建立的文化和商业模式,正面临前所未有的挑战。当“真实”变得可批量生产,那些靠 authenticity(真实性)吃饭的创作者该怎么办?平台又该如何维持用户的信任?

科技巨头的“两手策略”:左手认证,右手造“垃圾”

除了C2PA,科技公司们还推出了其他解决方案,比如谷歌的SynthID水印系统,或者通过算法扫描合成内容的细微特征。但这些方案都有一个共同点:它们把责任推给了用户或第三方技术,而不是平台自己。

News Image

与此同时,这些公司却在疯狂投资生成式AI工具。Instagram全力推进AI功能,其他平台也不甘落后。这就像一家工厂一边排放浓烟,一边给附近居民发放口罩,然后说:“我们在环保方面取得了重大进展。”用户被淹没在AI生成的“内容垃圾”中,而平台则用技术术语为自己开脱。

真正的解决方案在哪里?

认证技术当然有价值,但它不能成为平台逃避责任的挡箭牌。如果科技巨头真的想对抗AI垃圾,他们需要:

News Image
  • 主动过滤,而非被动认证:平台应该利用自己的算法优势,主动识别和限制虚假内容的传播,而不是等用户自己去发现。
  • 透明化操作:公开AI生成内容的比例、识别机制的效果,让用户知道自己在看什么。
  • 重新思考商业模式:如果“真实性”成为稀缺资源,平台该如何调整推荐算法和激励机制?

莫塞里的担忧是对的,但他的解决方案可能跑偏了。问题不在于如何给真实内容“发证”,而在于如何阻止虚假内容泛滥。当科技巨头们还在为C2PA站台时,普通用户已经在AI的海洋里呛水了。或许,是时候问问这些公司:你们到底是在解决问题,还是在制造问题的同时,顺便卖解决方案?

毕竟,在数字世界里,最难清理的垃圾,往往是那些还在被不断生产出来的东西。