AI 绘画生成手册/审查
在最初,AI 绘画图像生成拥有安全护栏,以防止生成“不雅”图像,但随着时间的推移,这些护栏变得越来越严格,以下是一些例子。
注意:所有这些图像都是在 2023 年底/2024 年初的必应图像生成大清洗期间拍摄的,当时更多无害的提示词被屏蔽,原因是**内容警告**或**不安全图像**。. 自那时起,一些被屏蔽的提示词可能有效,也可能无效。 .
在审查的背景下,随着图像生成技术的不断进步,其逼真程度越来越接近真实照片(从一年到一年)(参见 DALL-E2.5),DALL-E 生成的图像可能被别有用心的个人滥用,因此,各个 AI 机构的 AI 安全委员会设置了更严格的护栏,尤其是在添加著名人士/感兴趣人士的姓名时。在 DALL-E 的情况下,即使是包含人物元素的生成图像也会被饱和到看起来更像卡通而不是真实的照片(例如,在这个亨利·基辛格的例子中)。
在这个另一个例子中,提示词包含政治元素(特别是如果与当时的中国有关);DALL-E 会阻止**维尼熊**(与现任中国领导人有隐藏的联系)和**台湾**这两个词在同一个提示词中的组合,从而触发内容警告并阻止生成图像。
在这个例子中,在“必应大过滤器清洗”期间,许多身体多样性(特别是可能包含“冒犯性”词语的:胖、肥胖、瘦、黑皮肤等…)也被认为会触发系统警报,阻止生成图像。这可能是对这些个人的身体羞辱或内在的种族歧视的误解。
在这个例子中,骷髅可能被误归类为血腥类别,也许正是因为这个原因,包含骷髅的提示词可能会被屏蔽,尽管骷髅的图像类别(参见:万圣节庆祝活动)与其他类型的血腥图像相比似乎是无害的。
在世界上某些地区,这是一个更敏感的话题,因为某些与重要宗教符号相关的词语可能因其重要的宗教意义而无法安全生成。
尽管提示词本身并非明确要求生成露骨的照片,但 DALL-E3 图像 AI 模型如果在提示词中出现类似的关键词,可能会倾向于生成淫秽类型的图像,并且/或者其图像过滤器在其 DALL-E 3.5 中可能更加严格。
与 SDXL 图像生成相比,大多数情况下会渲染特写照片,同时显示 AI 角色穿着暴露的睡衣。
根据最新的喧嚣,SD2.0 和最新的 SD3 中等模型的发布也因提示词“女孩躺在草地上
”而遭到抨击,该提示词生成肢体残缺的图像。
有时,训练数据集上的审查过于严格,可能会导致其他类似主题的无意审查,例如左侧的例子。
牛的乳房在视觉上类似于女性的乳房,CLIP 视觉模型在数据集修剪期间也可能无意中修剪了包含可见牛乳房的数据集。