这几天,X(前推特)上的「Grok」频频上热搜。
事情的起点其实很简单,就是之前有大量网友开始用 Grok 的图片编辑功能,把现实中的 Coser、网红、偶像的正常照片,强行生成成高暴露度的泳装、比基尼、内衣照。
甚至有一个漫画家生成偶像的清凉照,结果上了热搜,其本人也被编辑社开除,造成了巨大的舆论。

如今,平台也终于开始管制这个功能。
在1 月 9 日,有人在回复区里指示 Grok 进行图片编辑,得到的只会是一句冷冰冰的提示:「目前,图片生成与编辑功能仅限付费会员使用。」

我刚刚去看那了一下,在评论回复区里指示 Grok,确实是显示仅限付费用户使用。

不过如果是你使用PC版本,直接点图片编辑的按钮那依然是可以生成对应的照片。所以这个功能确实是上线了,但只上线一半!

当然这种付费才可以用的功能,根本“治标不治本”,网友就开始质疑这样的做法,这到底是在防止骚扰,还是在顺便赚钱?
网友的看法,可以说是两极分化。
有人觉得,这是“试用期结束”的正常商业操作:先让大家体验一轮,再收钱,很会做生意。
也有人认为,这根本不是为了保护受害者:真想防止泳装加工,为什么不是直接限制这种内容?看起来更像是单纯想赚钱。
当然也有人表示,因为有付费信息,至少能更快锁定责任人,所以现在的结果,很可能只是,免费跟风的少了,付费作恶的继续。

我是觉得这种提高门槛的做法有一点用,但不大!
真正要防止被骚扰,只需要让创作者有选择权。比如在发布时可选择「禁止 AI 编辑」,或者有人要编辑照片,必须获得原作者许可,这才能真正的保护创作者免于被骚扰。

其实说到底,“生成比基尼”这件事本身,并不是什么高难度技术。
现在市面上随便一个成熟点的生成式 AI,只要你愿意折腾指令、愿意换平台,想生成什么风格的泳装图,基本都做得到。
所以Grok 最大的争议点,并不是它会不会画泳装,而是它被直接嵌在了评论区里。只要对着一张现实人物的照片,喊一句指令,不雅图片就能当场生成、当场展示、当场被围观。
图片来源清清楚楚,指令公开可见,生成结果直接挂在评论区,对当事人来说就是贴脸式的骚扰。
所以这次把功能改成付费,并不能真正解决问题。
它顶多只是让“顺手玩的人”少一点,却并没有改变平台在结构上,为骚扰提供了极其便利的路径。
只要这种“对着你本人,现场生成不雅内容”的机制还在,换成谁能用、要不要付费,其实都只是绕着问题走了一圈而已。