​别让创作者反复证明“我是我”

文|杨琳

“咱照片纯纯人类手工匠心打造,不是AI流水线产物呀。”网友茉茉在社交平台发布了一张漂亮的个人工作照,却很快被系统打上“疑似使用AI生成”的标签。她当即提交申诉,两个半小时后,标签撤下。

茉茉笑称,仿佛赢了一场“人机审美辩论赛”。

很多人和她一样,正在算法世界里经历一场“身份质疑”。人类创作者的作品被误认为是AI产物,创作者不得不陷入证明“我是我”的曲折。从手敲剧本的编剧、论文作者到普通网民的视频、照片,一场场因AI误判引发的分歧和争执,挑战着创作者的耐心,也追问着平台的责任与边界。

当人类创意遭遇算法“傲慢”

“我辛苦跑去拍照你说我是AI?”

“不会判就别判了,你才是AI……”

社交平台上,此类吐槽屡见不鲜,揭示了创作者的无奈。更有意思的是,有网友晒出与平台申诉的对话截图,结果这条内容又被系统标记为“疑似AI生成”,令人哭笑不得。

误判为何频发?这与算法机制、内容特征、审核流程等多方面因素有关。目前,多数平台采用“以AI识别AI”的模式,通过分析大量已知的AI生成内容和人类创作内容来建立模型,以此判断新内容是否为AI生成。

然而,AI技术本身迭代迅速,算法模型未必能实时跟上所有新型生成模式。同时,算法通常侧重于画面局部特征分析,难以理解内容上下文和创作意图。当照片风格统一、构图精致、滤镜效果明显时,便容易被误判为“过于完美”的AI产物。

网友莉莉的照片正是典型例子:学院风制服、精致妆容、二次元风格滤镜,这些元素叠加,恰好触发了算法的“AI怀疑机制”。平台建议她“调整滤镜后重新发布”,莉莉忍不住反问:“明明是你误判,却要我再发?”

除了风格化处理,内容中的规律性构图、重复元素等,也可能被算法视为“批量生成”的特征。

真正令人无奈的是,算法决策过程如同一只黑箱,用户不清楚判定依据,难以预判哪些创作会“踩雷”。算法之下,一篇结构严谨的论文可能因“过于规范”被AI质疑,一段精心打磨的脚本又可能因“句式工整”被标记。

寻找守门人与裁判员的平衡

在申诉描述中,有人一句“不是AI,大哥”,两小时后平台便撤销了AI生成提示。但也有人申诉不过,被迫接受了AI标签;还有的像莉莉一样,被建议删除视频重新发布……

这些参差的处置结果,折射出平台在AI审核机制上的不成熟。算法“裁判员”的误判难以避免,而申诉机制的不透明,加剧了创作者与平台之间的信任危机。

如何建立一套高效、公正、透明的复核和申诉机制,成为平台待解的一道难题。

有人忍不住问,能不能设立专门的人工审核通道,提供快速、有效的申诉途径?平台可否公开AI检测的标准、加强算法的“可解释性”,让创作者了解判断依据?

这些问题看似简单,实操却面临一系列挑战。

复杂的深度学习模型本身存在“黑箱问题”,即使是开发者也很难完全、清晰地解释某一个具体判断是如何作出的,它可能是成千上万个特征节点共同作用的结果。而且,若详细公开识别标准,可能催生规避手段,甚至变成一场反复循环的“猫鼠游戏”,反而增加技术成本和安全风险。

对于人工审核通道,先抛开人力成本,即使大面积铺开,平台依然面临审核标准的主观性与一致性难题等。

尽管建立完美的审核申诉机制面临现实挑战,但这不是平台推诿责任的理由。平台作为内容生态的“守门人”,有责任在技术效率与用户权益之间找到平衡。这考验的不仅是平台的技术能力,更是其平衡商业利益与社会责任的智慧。

我们正处在一个AI技术狂奔的时代,算法不应抹杀创作者的温度。一个健康的内容生态,应让内容生产者回归创作本身,而不是在算法面前陷入“我是我”的循环。

(本文作者系本刊记者)

顶部