□蒋璟璟
如今,“AI脱衣”技术已生成一条黑色产业链。上游不法分子通过AI技术生成图片,并对这些图片进行整合,打包成图集,通过成套售卖的方式出售给下游买家,使一些无辜人士、甚至未成年人陷入“黄谣”漩涡。记者对此进行了调查采访。一名卖家声称自己“资源众多”,发来了一整套价目表,详细地将图集分为“明星”“网红”“模特”“漫画”等多个种类,在他发来的样张图片中,甚至还出现了穿着校服的高中生。(中国青年报)
今年以来,AI实现爆发式发展,而这也在一定程度意味着,一批AI工具、AI技术的白菜化。当傻瓜式操作和一键生成,取代了原先较高的专业技术门槛,各类由AI衍生的灰黑产,也进入了新的发展周期。在这其中,AI生成不雅照、批量遭黄谣等行径,更是呈现出失控、泛滥之势。
将照片放入一款AI软件中,不到几分钟就能将原照片中人物穿好的衣服“脱下”。它不需要使用者掌握复杂的算法知识,只需要按照其提示,就能完成给照片“换脸”“去衣”等操作。这一机器人(13.300, -0.19, -1.41%)还有详细的精细化设置,能像美颜相机一样调整图片的各项参数。从其画面效果来看,几乎可以以假乱真。而除了此类心怀不轨的专门“AI脱衣”,市面上很多通用的预训练大模型,只要被用心人稍加调教,也同样能做同样的事情。
所谓“生成式人工智能”,是开放的庞大生态,甚至在某种意义上说,其意味着无限的可能性。这种“可能性”的终极形态,就是“无所不能”——通过用户的素材投喂、“意图掩饰”和定向引导,AI俨然“没什么不敢做”。没有善恶意识、没有对错观、没有道德架构,自诩技术中立的AI,在很多时候,在很多时候,事实上已成为作恶的帮凶。
面对AI爆棚的“生产力”,在两元就能P不雅照、黑色产业链批量造黄谣的新语境下,个体的辟谣、自证,往往显得无助、无力。这是一种彻底不对等的博弈,在“AI巨人”面前,那些受害者是如此渺小。时至今日,我们依旧没有一种对等的、普及的、便捷而低成本的可以迅速识别“AI合成图”的技术解决方案。随着类似的案例越来越多发,从源头出发、补上技术短板,越发显得刻不容缓。