tpgf 发表于 2025-5-20 09:36

半岛聚焦|平台如何识别AI生成?使用时要注意什么?

随着AI技术的不断发展,其生成的文章、图片和视频作品越来越多,比如我们在刷短视频时,常常会看到这样的提示:内容疑似AI生成。每次看到这,有人难免产生疑问,平台是怎么识别出来的?肉眼看到的明明是真人啊,为啥怀疑是AI作品呢?
AI生文
一般情况下,单纯由AI生成的文章可能较难被直接识别出来。然而,AI生成的文字往往在语言表达和逻辑结构上展现出一种模式化的特征,一旦大量复制此类内容,或是作品的语言风格、结构等与AI生成的典型模式高度吻合,就有可能被识别出来。
机器的思考偏向“统计性”,而人类的思考里除了“统计性”,还有“因果性”。人类能从经验中提炼因果逻辑,而AI缺乏这种认知深度。具体体现在当遇到困难,人类会反思,但这种能力大模型尚不具备。
以写文章为例,AI的写法是学习现有的数据,从中挑选最“安全”的词,也就是按照概率高低来选词,这和人类写作的创造性有本质区别。例如在“我吃了一顿……”这个句式中,机器往往会在“吃”这一动词后使用搭配概率较高的“饭”,但人类可能会说:“我吃了一顿美味。”
AI生图
早期,AI生图的技术并不完美,经常会留下操纵迹象。信也科技算法科学家吕强表示,通过肉眼分辨图片是否为合成,可以重点观察图片中的细节,例如观察图片中的手指数量是否正常、眼神是否怪异、发丝看起来是否真实等,如果一个眼睛看前、一个眼睛看左就有问题。另外,生成的照片通常在光影上存在瑕疵,并缺乏照片基本参数,例如曝光等。但随着AI的进步,这种观察变得困难。


不过,研发这些AI图片检测软件的工作人员尤其注意到,如果要辨别一张人像的真伪,通过分析图像中人物的眼睛细节会是一种非常有效的方法。
人类的眼睛构造非常复杂,在光的折射下,人眼的反射角度、瞳孔的变化都会有很多细节的不同。现在的技术已经发展到可以从一段真实视频中的人物眼睛反射的“镜中像”,来分析人物所处环境甚至看到人物对面站着的人脸等细节。但目前“AI生成”的图片中,人像的眼睛是不可能保存这样的细节的,简单地说,看一张“AI生成”人像的眼球瞳孔的形状就可以一眼辨别真伪,因为真实的照片中人眼瞳孔形状通常是规则的圆形或者椭圆形,而AI照片中瞳孔形状大多是不规则的。


一种更高效的方法是采用AI对抗AI。通过AI识别,首先需要构建一个包括真图和假图的训练数据集,再利用大模型学习两类图片的不同特征,例如用AI学习图片曝光细节,“一张很灰暗的图片出现了一张整体偏白的人脸,这张图片可能就是经过人脸替换的。但有些人对光线不敏感,人眼可能就识别不出来。”当大模型拥有了各类细节的识别能力后,“把这些能力汇总起来,就构成了一个真假图片的辨别矩阵,然后对矩阵结果打分,最终给出来一个真假图片的评判结果。”不过,他也表示,利用AI识别生成图片,算法复杂度并非难点,挑战在数据:一是可能没有那么多假样本,二是要想让假样本覆盖到很多领域也有挑战。
AI生视频
目前,大多数视频都可以用AI生成,只不过这里很让人头疼的当属“换脸”视频,令人防不胜防,特别是对那些不太了解AI的人,一骗一个准儿,事后还要摇着脑袋说,这肯定不是AI。
事实上,AI 伪造视频所用的技术并不是最近才出现的,上世纪九十年代学术界就开始了面部替换和图像生成相关技术的研究。2014 年,伊恩·古德费洛(Ian Goodfellow)提出了生成对抗网络(GAN,Generative Adversarial Network),使得计算机可以生成更为逼真且高质量的图像。随着相关技术不断进步,AI不仅生成的视频分辨率更高、面部表情同步更自然,而且所需的数据更少、训练时间更短。


那么如何识别和检测一段视频的真伪呢?最简单的方法还是我们的“经验判断”——即用肉眼仔细分辨,还是能看出视频中人物的一些异常,比如面部表情的扭曲或眼神的不自然、眨眼次数过少、人物面部边缘模糊或者与背景的过渡明显不自然,甚至是人脸的光影效果与周围环境的光线情况不符等。
另外,在视频通话时,如果你无法分辨眼前与你视频通话的人是真是假,可以要求对方用手指按一按自己脸颊或鼻翼,因为目前已知的人脸仿冒技术,还不能仿冒人脸在受到外部压力时产生的变形,如果变形明显不正常,就可以判定对方是“换脸人”。或者可以在自己的手机上安装相关的“打假”软件,来检测视频的对方皮肤的颜色是否会随正常的人类心跳频率保持一致地有规律变化。
在国内,有些企业将特定信息嵌入到多模态的数字载体中,支持图像、视频、音频、文本等多模态数字载体,可以隐蔽嵌入水印信息,不影响原始内容质量和用户感知,同时抵御攻击,以免被删除或修改。这类技术应用到软件中,那么识别AI视频就会变得更加容易。
尽管当前的技术大幅提高了对AI生成文本识别的准确性,不久的将来,AI可能会发展出“反侦察”技术,从而提高内容识别难度,人与机器之间这种“矛”与“盾”的攻防角色会不断互换、演进。
令人担忧的是,当人类吸收的语料中越来越多混杂入AI生成内容,人类的语言会不会越来越接近AI?随着互联网上AI生成内容的不断增加,一批与AI相伴而生的年轻人可能会逐步学习AI的表达风格。但人类的表达始终具有“因果性”,目前与AI还存在本质区别。而未来,AI可能学会像人一样思考,届时识别难度可能更高。
用AI生成的图片,著作权归我吗?
在前一个问题基础上,如果生成的图片属于“作品”,那么,它的著作权属于我吗?
《著作权法》对作者的定义是:“创作作品的自然人是作者。由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。” 故人工智能模型本身无法成为我国著作权法上的作者。
排除了人工智能模型本身,那么是不是就意味着我就是作者了呢?不一定,还要看人工智能模型的使用协议。“春风案”中,原告使用的Stable Diffution软件在用户使用协议中明确,“除非在本许可证中另有规定,许可证人不对您使用模型生成的输出声称任何权利。您对生成的输出及其后续使用负有责任。输出的使用不得违反许可证中的任何规定。”笔者使用的某AI软件亦规定,“在你和公司之间,在适用法律允许的范围内,你提供的输入的知识产权归属于你或者依法享有这些知识产权的权利人。公司不主张输出内容的所有权。如果输入和/或输出本身包含了公司享有知识产权或其他合法权益的内容,则前述无输入和/或输出的相应权利仍由公司享有,不因包含在输出当中而改变其权属。”当然也有AI软件或模型是主张权利的,还有的需要购买会员才能享有输出内容的所有权,不一而足,需要仔细阅读用户协议。除此之外,这些软件、模型往往都保留了对输出内容免费使用的权利。
用AI生成的图片,可能涉及侵权吗?
可能。这里存在两方面的侵权可能。
一是选用的图片本身侵权。AI生成图片,本质上是原图片的修改,所以如果选用的图片没有得到相应的授权,那么在用该图片生成新图片的过程中,就可能涉嫌侵权。当然,如果AI生成的图片跟原图已经大相径庭,估计原作者也很难认出是自己的图片改编而来。
二是用的AI模型侵权。AI生成的效果一定程度上看训练的内容,需要AI的运营方前期“喂”图片给它。这就导致AI模型生成的图片,跟训练的图片风格有很高的相似度。如网友“弱冠年华”在社交平台个人主页以“插画师的悲哀,我被Ai刺(赤)裸裸地抄袭了”为题,讲述了自己作品被AI生图侵权的经历,插画博主“CZH-时光机”也发文称,自己创作的童年插画系列,被AI“抄袭”了。当然,这种情形AI模型是否真构成侵权还尚无定论,至于用户侵权,笔者认为更是小概率事件。

页: [1]
查看完整版本: 半岛聚焦|平台如何识别AI生成?使用时要注意什么?