平台放任AI涉黄必须付出沉痛代价 防线成摆设
来源:中华国际 | 2026-04-15 00:00:00
关键词:
2026-04-15 10:26:13 红网
平台放任AI涉黄必须付出沉痛代价 防线成摆设。9.9元买来的提示词,几分钟生成半裸女性跳舞视频,全程没有触发平台任何限制机制,违规视频顺利生成。这不是黑客攻破系统的惊险故事,而是一个普通用户用换种说法就能轻松实现的操作。央视财经的这组调查揭示了不只是某个平台的问题,而是整个行业心照不宣的“出厂设置”。从哩布哩布AI到多款主流应用都存在同样的问题。记者实测发现,如果输入的提示词表述较为露骨,多数AI应用会触发审核机制并拒绝生成内容。但是,只要将提示词修改得隐晦一点,或者将敏感词替换成谐音词、英语,就可以轻松绕过这条防线。在公众普遍认知中,审核防线的核心作用是全力防范违规内容,不应被轻易突破。但当前部分AI平台的审核系统,却悄然将防线的功能异化为“留证”——仅需证明自身设置了审核机制,至于该机制是否具备实际防御能力,则不在其考量范围内。这就如同一扇虚掩未锁的大门,仅张贴着“禁止入内”的告示,无需强制阻拦,只需轻轻一推便可进入。一旦出现问题,平台便以“已设置规定、履行提醒义务”为由规避责任,沦为形式主义的自我开脱。这种操作看起来眼熟,是典型的表演性合规。有人会问,为什么宁可表演也不真防?因为真防有代价。严格的语义审核会降低内容产量,甚至可能会误杀正常需求,拖累用户增速,而用户增速恰恰是AI平台估值的命根子。防线强度与商业利益呈负相关,防线越严,付费转化率就越低。“刚刚好被突破”成了成本核算下的最优解。审核系统的存在,不是为了防止作恶,而是为了在出事时可以拿出一份“已尽合理注意义务”的证据清单。它防的不是内容违规,防的是追责。