目前,人工智能大语言模型发展迅速,各行各业已经开始尝试与AI语言模型进行交叉。AI医生、AI文档助手、AI文献阅读等工具层出不穷。但随着AI语言模型的迅速崛起,一些衍生出的问题也越来越多了起来。
2023年9月14日,澎湃新闻报道了一篇题为“第一篇因为ChatGPT而撤稿的SCI论文诞生,AI加速学术不端问题的恶化”的文章,该篇文章的正文中出现了ChatGPT的一个按钮的标签,从而被发现使用了AIGC(Artificial Intelligence Generated Content,人工智能生成内容)。
这一新闻的出现不禁令人产生联想,若没有这样的乌龙事件产生,使用AIGC进行学术论文写作与发表,是否不会被大家所发现?
为了避免这样的情况出现,AIGC检测服务应运而生。现如今,AIGC检测服务主要提供给高校及各个编辑部使用,以此服务的检测报告来评判是否使用了AIGC内容。今天我们便来谈一谈AIGC的检测原理。
AIGC检测的原理是通过分析文本特征,利用机器学习或深度学习模型来区分AI生成的文本内容与人类创作的内容。根据现有的技术手段及部分开源代码总结,主要可以分为以下几种技术原理:
1. 基于统计特征的检测方法
- 高频词汇:不同的人工智能语言模型具有不同的高频词汇,它们经常使用一些词汇致使这些词汇成为了他们的特征,这一现象可能与模型在训练时的训练样本有关。相较之下,人类的词汇多样性更高,而且,人类因为教育经历、生活经历、宗教信仰等情况的不同,常用的词汇也不相同。
AI语言模型常常使用的一些词汇:
“根据分析,我们发现…”,“研究表明,…”,“数据表明,…”,“基于当前的信息,…”,“一般来说,…”
“为了改善…,建议…”,“考虑到…,推荐…”,“建议采取以下措施,…”,“为了优化…,可以考虑…”
“由于…,因此…”,“之所以…,是因为…”,“…导致了…”,“…的结果是…”
“如果…,那么…”,“在…的情况下,…”,“只有当…时,…才…”,“只要…,就…”
“虽然…,但是…”,“尽管…,仍然…”,“…然而,…”,“…不过,…”
“与…相比,…”,“…比…更…”,“在…和…之间,…更…”,“类似地,…也…”
“首先,…;其次,…;最后,…”,“包括…、…和…”,“具体来说,…、…以及…”,“有…、…等多种…”
“综上所述,…”,“因此,我们可以得出结论,…”,“总的来说,…”,“简而言之,…”
“特别重要的是,…”,“确实,…”,“无疑,…”,“显然,…”
- n-gram概率:AI生成的文本在n-gram概率分布上更为平滑,而人类写作的n-gram更不规则。
- 重复性与连贯性:AI文本在长段落中会出现过高的连贯性、逻辑性,这不同于人类,人类的长文本或多或少地具有跳跃性。
基于该原理的技术:统计模型(如TF-IDF、词向量聚类)、概率模型(如困惑度模型Perplexity),最终通过分类器(SVM、随机森林等)进行判断。
2. 基于神经网络的深度学习检测方法
这种方法就相当于“用魔法打败魔法”,训练AI模型,使其学习掌握AI生成的文本与人类写作的差异。这也是目前最主流的方法,常见的AIGC检测模型有:
- 预训练模型:基于BERT、RoBERTa等预训练好的语言模型,通过标注数据来进行进一步训练,使其具有分类的AI写作和人类写作的能力。
- 对比学习:让模型学习区分人类写作和AI写作的表达差异,通过Siamese网络或Triplet Loss增强区分能力。
- 生成对抗检测:通过生成对抗网络的原理,训练一个“判别器”专门来识别生成文本所具有的缺陷。
这种方法的优势在于,深度学习模型能够捕捉更为复杂的语言模式,能够轻松识别语义逻辑矛盾、上下文一致性检查等传统算法方法难以做到的事情。
3. 基于水印或隐写水印的检测方法
水印很好被理解,我来说一说隐式水印。一些AI语言模型(比如GPT-4)会主动向生成的文本中加入隐式水印,这些隐式水印的加入方式有很多种,比如:
- 特定词汇选择:在进行语言表达时,在同义词选择的时候具有系统性偏差,比如在需要表达“可能”的意思时候,可能在“似乎”和“也许”之间持续地选择“似乎”,而这种持续性地选择一种词汇进行该含义的表达成为了AI模型为自己添加的隐式水印。
- 随机性控制:通过调整生成时的温度参数或Top-p采样,使AI写作的文本留下固定的随机模式。
- 高频词汇出现率:AI模型可以控制在第一点中提到的特定词汇的出现频率来达到水印的效果。
但这种方式具有一定的局限性,因为AI模型提供商若不主动添加这些水印,是没有办法进行技术实现的,并且这些水印可以被人为破坏。
4. 基于语义和逻辑的检测方法
人类在写作时常常因为自身的教育经历、生活经历、情感经历、宗教信仰等产生不同的表达,并且人类在写作时无法达到完全理性,文中或多或少的会出现一些非理性的表达,比如情感波动、思维跳跃、上下文不连贯等等,相较之下,AI写作的文本就显得过于“完美”了,因为比较AI是由数据训练后撰写出的文本,而不包含自己主观性的内容。通常采用的方法如下:
- 事实一致性检查:AI生成的文本可能包含看似合理但实际上有错误的“事实”,比如虚构的数据、虚构的参考文献等。
- 逻辑漏洞分析:人类写作可能会存在着一定的逻辑断层,而AI文本的逻辑链条过于线性,较好分辨。
技术实现方法:结合数据库验证内容真实性,或者通过逻辑推理模型(如NLI、自然语言推理等)对文本的合理性进行分析。
5. 多模态融合检测方法
对于混合内容,比如文本+图片、文本+表格等,可以结合多模态特征进行检测,比如:
- 文本与图像关联性:AI生成的图文存在和文本事实一致性问题相同的情况,缺乏深层语义关联,图片描述和正文脱节。
- 跨模态一致性:检测文本与其他模态(代码、公式、注释等)的生成风格是否匹配。
目前市面上现有的所有AIGC检测技术,无论如何宣传,都存在着无法完全检测出AIGC的情况,只能靠“经验”识别AI生成的内容。而如果使用者通过对抗性攻击、模型迭代等方式进行“去AI率”,那么AIGC检测工具将无法识别。并且,AIGC检测工具存在一定的伦理争议,因为毕竟一些作者的写作是具有很强的逻辑性的、语言很谨慎很理性的,AIGC检测工具可能会误伤这一类作者,导致其AI率过高但实际不存在AIGC内容。
AIGC检测技术在今天依然还有很大的空白等待填补。呼吁科研工作者、文学作家爱惜自己的羽毛,不要在禁止包含AIGC的场景使用AI工具。
评论0
暂时没有评论