假新闻检测的前沿研究与技术演进:架构、基准与2024-2025年最新进展技术报告
1. 执行摘要 (Executive Summary)
在数字化信息传播呈指数级增长的当下,虚假新闻(Fake News)的泛滥已成为破坏社会信任、操纵公众舆论及引发政治动荡的重大威胁。针对这一挑战,假新闻检测(Fake News Detection, FND)领域在2024年至2025年初经历了深刻的技术变革。本报告旨在全面梳理并深度剖析该领域的最前沿进展,重点响应关于高精度检测架构的探究,特别是结合了GloVe嵌入与双向长短期记忆网络(BiLSTM)的混合模型,同时也涵盖了基于Transformer的大型语言模型(LLM)、多模态融合架构以及对抗性攻防机制的最新突破。
当前的文献与实证研究表明,FND技术正处于从单一文本特征工程向深度语义理解与多模态推理转型的关键阶段。虽然传统的深度学习模型如RNN及其变体在特定数据集(如Curpos)上展现出了惊人的效能,准确率突破98.9% 1,但面对更加复杂、细粒度标注的基准测试(如LIAR),即便是最先进的Transformer模型(如RoBERTa、DeBERTa)也面临着巨大的性能瓶颈。
本报告将分为八个主要部分进行详尽阐述:首先回顾FND的技术演进脉络;随后深入解构在2024年备受关注的GloVe+BiLSTM架构及其在Curpos数据集上的卓越表现;紧接着探讨以RoBERTa和DeBERTa为代表的Transformer模型在复杂语境下的应用;第四部分将聚焦于多模态检测的前沿,特别是引入最优传输理论的MCOT框架;第五部分分析大型语言模型(LLM)在检测与生成虚假信息中的双重角色;第六部分对数据集生态进行批判性分析;第七部分探讨对抗性攻击与鲁棒性防御;最后总结未来的技术走向。
2. 假新闻检测的技术演进与架构范式 (Technological Evolution and Architectural Paradigms)
假新闻检测的研究历程可以被视为自然语言处理(NLP)技术发展的一个缩影。从早期的基于人工特征(如n-grams、标点符号统计、情感词典)的机器学习方法,逐渐过渡到能够自动提取特征的深度学习时代。2024年的研究前沿并非是对过往技术的全盘否定,而是呈现出一种“适用性分层”的态势:轻量级的高效模型处理大规模流式数据,而重量级的认知模型处理高难度的语义欺诈。
2.1 从浅层特征到深度表征
早期的检测系统主要依赖于内容的表面特征。例如,虚假新闻往往倾向于使用煽动性的语言、过多的感叹号或特定的句法结构。然而,随着造假手段的智能化,特别是大模型生成内容的出现,单纯依赖文体学特征已不足以应对。深度学习引入了分布式的词向量(Word Embeddings)和层次化的神经网络结构,使得模型能够捕捉词语之间的语义关联和长距离依赖。
2.2 2024年的主流架构分类
在2024年的研究图谱中,SOTA模型主要集中在以下三个范式:
- 基于递归神经网络的序列建模:以BiLSTM和GRU为代表,结合静态嵌入(GloVe, Word2Vec),在处理具有序列特征的新闻文本时表现出极高的效率和准确性,特别是在特定领域的二分类任务中 2。
- 基于Transformer的预训练语言模型:BERT、RoBERTa、DeBERTa等模型通过自注意力机制(Self-Attention)捕捉上下文感知的动态表征,是处理复杂语义推断和多分类任务(如6分类的LIAR数据集)的主力军 4。
- 多模态融合网络:随着视觉假新闻的兴起,结合CLIP、ResNet与GNN(图神经网络)的跨模态模型成为新的研究热点,旨在解决“图文不符”或“移花接木”类的高级造假 6。
3. 递归架构的复兴:GloVe与BiLSTM的高效结合 (The Renaissance of Recurrent Architectures)
尽管Transformer架构在NLP领域占据统治地位,但在2024年,Abualigah等人提出的基于GloVe嵌入和BiLSTM的混合架构再次证明了递归网络在特定场景下的不可替代性。该方案在Curpos数据集上达到了98.974%的惊人准确率,成为业界关注的焦点 1。
3.1 核心组件深度解析
要理解该架构为何能取得如此高性能,必须深入剖析其两大核心组件:GloVe嵌入与BiLSTM网络,以及它们如何协同工作。
3.1.1 GloVe嵌入:全局统计特性的捕捉
GloVe(Global Vectors for Word Representation)是由斯坦福大学开发的一种无监督学习算法。与Word2Vec关注局部上下文窗口不同,GloVe旨在通过分解“词-词共现矩阵”来捕捉语料库的全局统计信息 8。
- 数学机制:GloVe的核心思想是,词义的相似性可以通过共现概率的比率来体现。模型通过训练将词向量映射到一个几何空间,使得向量的加减运算具有语义意义(例如:
)。 - 在FND中的优势:对于假新闻检测而言,GloVe生成的静态词向量具有极高的计算效率。它能够将新闻文本中的关键词迅速映射为高维空间中的稠密向量。研究表明,在Curpos数据集中,假新闻往往包含特定的词汇模式(如特定的情绪词、绝对化用语),GloVe能够有效地固化这些模式 2。此外,由于其是静态嵌入,在推理阶段无需像BERT那样进行复杂的上下文计算,极大地降低了资源消耗。
3.1.2 双向LSTM(BiLSTM):时序依赖与上下文感知
长短期记忆网络(LSTM)是为了解决传统RNN在处理长序列时出现的梯度消失问题而设计的。它引入了精巧的“门控”机制(遗忘门、输入门、输出门)来控制信息的流动 1。
- 双向机制(Bidirectionality):Abualigah等人的模型并未采用单向LSTM,而是使用了BiLSTM。在新闻文本中,一个词的含义往往不仅取决于它的上文,还取决于它的下文。BiLSTM包含两个独立的LSTM层,一个按正序(从前向后)处理文本,另一个按逆序(从后向前)处理。
- 特征融合:在每个时间步,模型将正向隐状态
和逆向隐状态 进行拼接(Concatenation),形成最终的上下文向量 。这种机制确保了模型在对新闻中的每个词进行编码时,都拥有了全句的上下文视野 2。
3.1.3 架构流程与实验表现
该SOTA模型的典型处理流水线如下:
- 预处理:清洗文本,去除停用词、特殊符号,并利用GloVe预训练向量(通常是Wikipedia/Gigaword语料库训练的glove.6B.50d或更高维版本)进行词向量初始化 12。
- 序列编码:通过BiLSTM层处理词向量序列,提取深层语义特征。
- 分类决策:将BiLSTM的输出通过全连接层(Dense Layer),通常结合Dropout防止过拟合,最后通过Softmax或Sigmoid函数进行分类。
实验结果显示,该架构在Curpos数据集上达到了**98.974%**的准确率,显著优于传统的卷积神经网络(CNN,主要捕捉局部特征)和单向RNN 1。这一结果揭示了在处理中短篇幅、具有明显语言学特征的假新闻时,BiLSTM对序列模式的捕捉能力是至关重要的。
3.2 性能归因与局限性分析
虽然98.974%的数据令人印象深刻,但深入的对比分析揭示了其性能的高度情境依赖性。
- 数据集依赖(Curpos vs. LIAR):Curpos数据集通常被归类为二分类任务(真/假),且数据来源可能具有较强的领域特征(如特定的政治新闻或网络谣言),这使得真假新闻在词汇分布上存在显著差异(即“线性可分性”较强)13。相比之下,在LIAR等包含6个细粒度标签的数据集上,该模型的表现并未达到同等水平,这说明GloVe+BiLSTM更擅长捕捉“显性造假”的特征,而非“隐性误导”的细微差别。
- OOV问题:GloVe作为静态词表模型,面临未登录词(Out-Of-Vocabulary, OOV)的挑战。社交媒体上的假新闻常包含新造词、变体词或表情符号,这可能导致信息的丢失,而基于子词(Subword)切分的Transformer模型则能更好地应对这一问题 14。
4. Transformer时代的语义巅峰:BERT及其变体 (The Transformer Era)
如果说BiLSTM是序列建模的高峰,那么Transformer则是语义理解的基石。2024年至2025年的研究表明,在处理更加复杂、含蓄或基于长文本的假新闻检测任务时,基于Transformer的预训练模型(Pre-trained Language Models, PLMs)占据了绝对的统治地位。
4.1 RoBERTa与DeBERTa:稳健性与解纠缠注意力
在众多BERT变体中,RoBERTa(Robustly Optimized BERT Approach)和DeBERTa(Decoding-enhanced BERT with Disentangled Attention)在2024年的各项基准测试中表现尤为突出。
4.1.1 RoBERTa的优化策略
RoBERTa通过去除BERT的下一句预测(NSP)任务、使用更大的批次(Batch Size)和更多的数据进行更长时间的训练,显著提升了模型的鲁棒性。
- ISOT数据集上的表现:研究显示,RoBERTa在ISOT数据集上能够达到**99.9%**的准确率 15。ISOT数据集包含数万条真实与虚假新闻,RoBERTa之所以能接近满分,是因为它深刻理解了新闻语体中的微观语义结构,能够识别出极其细微的逻辑断裂或风格不一致。
- LIAR数据集的挑战:即便强如RoBERTa,在LIAR数据集的6分类任务(Pants-on-Fire, False, Barely-True, Half-True, Mostly-True, True)上,准确率通常也只能维持在**60%-70%**之间 16。这凸显了假新闻检测中的“语义鸿沟”:区分“完全虚假”与“部分真实”需要极其深厚的背景知识和常识推理,这超出了单纯语言模型的范畴。
4.1.2 DeBERTa的创新
DeBERTa引入了“解纠缠注意力机制”(Disentangled Attention),将词的内容嵌入和位置嵌入分开处理。这意味着模型在计算注意力权重时,会分别考虑“词的内容是什么”以及“词在哪里”,从而更精准地捕捉词与词之间的依赖关系 18。
- 性能对比:在2024年的多项对比实验中,DeBERTa-v3在准确率和F1分数上往往略优于RoBERTa,特别是在处理长文本或需要跨句推理的场景中。
4.2 轻量化与绿色AI:DistilBERT与量化技术
随着移动端应用的需求增加(如浏览器插件实时检测假新闻),2025年的研究开始向轻量化模型倾斜。
- DistilBERT:作为BERT的蒸馏版本,DistilBERT保留了BERT 97%的性能,但参数量减少了40%,推理速度提升了60%。在COVID-19假新闻数据集上,DistilBERT达到了约97.26%的准确率 20,证明了在资源受限环境下进行高效检测的可行性。
- 4-bit量化(Quantization):最新的研究探索了将大型Transformer模型进行4-bit量化,使其能在消费级显卡甚至CPU上运行,同时保持与全精度模型相当的检测能力 21。这对于FND技术的普及化应用具有重要意义。
5. 多模态检测前沿:跨越图文的语义鸿沟 (Multimodal Frontiers)
虚假新闻的形态已不再局限于文本,图片、视频及其配文的组合(如“移花接木”——用真实的图片配上虚假的描述)成为了新的重灾区。2024年的多模态检测研究(MMD)致力于解决跨模态的语义对齐问题。
5.1 MCOT框架:最优传输与对比学习
在2024年发表的MCOT(Multimodal Fake News Detection with Contrastive Learning and Optimal Transport)框架是该领域的里程碑式工作 7。
- 核心痛点:传统的多模态模型通常简单地拼接图像特征和文本特征,忽略了两者之间的细粒度对齐关系。
- 解决方案:
- 对比学习(Contrastive Learning):将匹配的图文对(正样本)拉近,不匹配的(负样本)推远,迫使模型学习图文之间的本质关联。
- 最优传输(Optimal Transport, OT):MCOT引入OT理论来计算图像区域与文本单词之间的最小传输代价。这意味着模型会尝试将图片中的视觉对象(如“人群”)与文本中的实体(如“抗议者”)进行一一对应,从而精准判断图文是否相符 24。
- 实验结果:MCOT在微博(Weibo)和GossipCop数据集上均取得了SOTA性能,证明了在细粒度语义对齐方面的优越性 25。
5.2 CLIP-GCN:引入社交传播图
另一项重要进展是Clip-GCN 26。该模型结合了CLIP(Contrastive Language-Image Pre-training)强大的零样本分类能力和图卷积网络(GCN)的传播结构分析能力。
- 机制:除了分析内容本身,Clip-GCN还构建了新闻的“传播图”(Propagation Graph),分析新闻是谁转发的、评论区的用户关系网络如何。这种方法能够识别出即使内容看似真实,但传播行为呈现异常(如水军操控)的假新闻。
6. 大型语言模型(LLM)的双重角色:矛与盾 (The Role of Large Language Models)
2024-2025年,LLM(如GPT-4, Llama 3)彻底改变了FND的格局。它们既是强大的检测工具,也是高风险的造假引擎。
6.1 FND-LLM框架:LLM作为推理增强器
FND-LLM框架提出了一种混合范式 28。与其直接让LLM进行二分类,不如利用LLM强大的世界知识和逻辑推理能力来生成“解释”或“理由”。
- 工作流:
- 输入新闻给LLM,要求其分析新闻的逻辑漏洞、事实错误或情感倾向,生成一段辅助文本(Rationale)。
- 将这段辅助文本与原始新闻的BERT嵌入、CLIP图像嵌入融合。
- 通过一个小型的分类网络进行最终判别。
- 成效:这种方法在GossipCop上带来了6.8%的准确率提升 28,表明LLM生成的推理过程为检测模型提供了宝贵的“常识”补充。
6.2 风格化攻击与SheepDog防御
LLM生成假新闻的一个显著特点是“去风格化”——它们可以写出语法完美、风格严谨的假新闻,这使得依赖文体特征(如拼写错误、情感宣泄)的传统模型(如BiLSTM)失效 30。
- SheepDog模型(KDD 2024):为了应对这种“披着羊皮的狼”,Wu等人提出了SheepDog架构 31。该模型采用对抗性训练,特意让模型对“风格”特征不敏感(Style-Agnostic),强迫模型关注内容的事实性(Veracity)而非写作风格。这是从“文体学检测”向“证据学检测”的重要转折。
7. 数据集生态与基准测试分析 (Dataset Ecosystem and Benchmarking)
技术报告必须客观审视数据。2024年的研究表明,不同数据集上的准确率存在巨大的不可比性。
| 数据集名称 | 类型 | 任务类型 | SOTA 准确率参考 (2024/2025) | 备注 |
|---|---|---|---|---|
| Curpos | 文本 | 二分类 (真/假) | 98.974% (GloVe+BiLSTM) 1 | 样本可能具有明显的词汇特征,易于被GloVe捕捉。 |
| ISOT | 文本 | 二分类 | 99.9% (RoBERTa) 15 | 题目领域区分度大(如世界新闻vs讽刺新闻),较易分类。 |
| LIAR | 短文本 | 6分类 (细粒度) | ~60-70% (Transformer Ensembles) 16 | 极具挑战性。区分"Half-True"与"Mostly-True"极其困难。 |
| GossipCop | 多模态 | 二分类 | ~86-91% (MCOT/FND-LLM) 25 | 需要结合图像和社会网络信息才能达到高分。 |
深入洞察:用户提到的98.9%准确率是真实存在的,但它特指在Curpos这类二分类数据集上的表现。在LIAR这种模拟真实世界复杂语境(包含断章取义、半真半假)的数据集上,即便是最先进的LLM也难以达到90%以上的准确率。这提示我们在评估FND系统时,必须关注“误报率”和“任务难度”,而不仅仅是单一的准确率指标。
8. 对抗性攻防与系统鲁棒性 (Adversarial Attacks and Robustness)
随着检测器的进化,攻击者也在进化。2024年的研究揭示了多种新型攻击手段 33。
- 评论区投毒(Comment Injection):攻击者在真实新闻下发布虚假或恶意评论,或在假新闻下发布支持性评论,以此干扰依赖“用户反馈”特征的检测模型。
- 对抗性防御:针对此类攻击,研究者提出了基于强化学习的防御策略,以及在训练数据中加入对抗样本(Adversarial Training)的方法,以提高模型在面对恶意干扰时的鲁棒性。
9. 结论与未来展望 (Conclusion and Future Outlook)
综上所述,2024年至2025年的假新闻检测研究呈现出多元化、深层化和对抗化的特点。
- 架构的分野:对于特定领域、对实时性要求高的应用,GloVe+BiLSTM架构凭借其高达**98.9%**的准确率和低计算成本,依然是极具竞争力的选择。它证明了并非所有任务都需要大模型,经典的递归网络在合适的特征工程下仍能焕发新生。
- 语义的深挖:对于复杂的、含糊不清的误导性信息(如LIAR数据集),RoBERTa、DeBERTa以及最新的FND-LLM混合架构是目前的SOTA。它们虽然计算昂贵,但提供了必要的深度语义推理能力。
- 未来的方向:
- 神经符号AI(Neuro-Symbolic AI):将深度学习的感知能力与知识图谱(Knowledge Graphs)的逻辑推理能力结合,以实现可解释的假新闻检测。
- 零样本跨语言检测:利用多语言预训练模型(如XLM-R)解决非英语环境下的数据匮乏问题 35。
- 多模态取证:不仅仅判断“是与非”,还要定位图片被篡改的区域或视频被深度伪造的帧,这是MCOT等模型开启的新篇章。
技术在进步,但造假手段也在迭代。假新闻检测将是一场长期的、动态的博弈,而构建混合型、具备常识推理能力且鲁棒的检测系统,将是未来几年的核心议题。
附表:主要模型架构特性对比
| 架构名称 | 核心技术 | 适用场景 | 优势 | 劣势 |
|---|---|---|---|---|
| BiLSTM + GloVe | 递归网络 + 静态嵌入 | 实时过滤、二分类 | 推理极快,Curpos上准确率极高 (98.9%) | 处理OOV能力弱,难以捕捉超长距离依赖和细微语义 |
| RoBERTa / DeBERTa | Transformer + 自注意力 | 复杂语义、多分类 | 理解深层语境,ISOT上准确率99.9% | 计算资源消耗大,推理延迟高 |
| MCOT | 对比学习 + 最优传输 | 图文多模态检测 | 解决图文语义对齐问题,抗干扰强 | 模型复杂,训练数据要求高(需成对图文) |
| FND-LLM | LLM推理 + 小模型分类 | 需要解释性的场景 | 提供检测理由,融合常识推理 | 依赖LLM接口,存在幻觉风险,成本高昂 |
Works cited
- A Review of Automatic Fake News Detection: From Traditional Methods to Large Language Models - MDPI, accessed November 26, 2025, https://www.mdpi.com/1999-5903/17/10/435
- Fake news detection using recurrent neural network based on bidirectional LSTM and GloVe | Request PDF - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/378128137_Fake_news_detection_using_recurrent_neural_network_based_on_bidirectional_LSTM_and_GloVe
- Evolving Techniques in Fake News Detection: From Human Expertise to Large Language Models - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/391261209_Evolving_Techniques_in_Fake_News_Detection_From_Human_Expertise_to_Large_Language_Models
- Enhancing fake news detection with transformer-based deep learning: A multidisciplinary approach | PLOS One, accessed November 26, 2025, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0330954
- Towards Reliable Fake News Detection: Enhanced Attention-Based Transformer Model - MDPI, accessed November 26, 2025, https://www.mdpi.com/2624-800X/5/3/43
- [2205.14304] Multimodal Fake News Detection via CLIP-Guided Learning - arXiv, accessed November 26, 2025, https://arxiv.org/abs/2205.14304
- Multimodal Fake News Detection with Contrastive Learning and, accessed November 26, 2025, https://doaj.org/article/cdb5b5653dcc4ac89f9bbcfd4ed69b2e
- Harnessing AI to Identify and Combat Fake News - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/395324682_Harnessing_AI_to_Identify_and_Combat_Fake_News
- A study on the Detection of Fake news in Spanish - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/381417050_A_study_on_the_Detection_of_Fake_news_in_Spanish
- Differentiating Authentic News from Fabrications using Deep Learning: A New Approach, accessed November 26, 2025, https://www.researchgate.net/publication/396408134_Differentiating_Authentic_News_from_Fabrications_using_Deep_Learning_A_New_Approach
- Fake news detection using recurrent neural network based on bidirectional LSTM and GloVe, accessed November 26, 2025, https://nchr.elsevierpure.com/en/publications/fake-news-detection-using-recurrent-neural-network-based-on-bidir/
- Stance Detection in the Context of Fake News—A New Approach - MDPI, accessed November 26, 2025, https://www.mdpi.com/1999-5903/16/10/364
- Multimodal Fake News Detection: Integrating OCR and Deep Learning Models for Text and Image Analysis - NORMA@NCI Library, accessed November 26, 2025, https://norma.ncirl.ie/8833/1/jayaramvennapu.pdf
- Analysis of the Effect of Attention Mechanism on the Accuracy of Deep Learning Models for Fake News Detection - MDPI, accessed November 26, 2025, https://www.mdpi.com/2504-2289/9/9/230
- Mitigating Misinformation: A Comparative Analysis of Machine Learning Models for Fake News Detection - Atlantis Press, accessed November 26, 2025, https://www.atlantis-press.com/article/126016778.pdf
- Detecting Fake News using Advanced Language Models: BERT and RoBERTa, accessed November 26, 2025, https://ieeexplore.ieee.org/document/10533352/
- Fine-Tuning RoBERTa for Truthfulness Classification: A Case Study on the LIAR Dataset, accessed November 26, 2025, https://www.researchgate.net/publication/383041703_Fine-Tuning_RoBERTa_for_Truthfulness_Classification_A_Case_Study_on_the_LIAR_Dataset
- Misinformation Detection using Large Language Models with Explainability - arXiv, accessed November 26, 2025, https://arxiv.org/html/2510.18918v1
- ANN: adversarial news net for robust fake news classification - PMC - PubMed Central, accessed November 26, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10991274/
- A Hybrid DistilBERT-BiGRU Model for Enhanced Misinformation Detection: Leveraging Transformer-Based Pretraining Language Model | IEEE Conference Publication | IEEE Xplore, accessed November 26, 2025, https://ieeexplore.ieee.org/document/10752290/
- CUET-NLP_MP@DravidianLangTech 2025: A Transformer and LLM-Based Ensemble Approach for Fake News Detection in Dravidian Languages - ACL Anthology, accessed November 26, 2025, https://aclanthology.org/2025.dravidianlangtech-1.75.pdf
- Detecting Fake News Using BERT Word Embedding, Attention Mechanism, Partition and Overlapping Text Techniques - TEM JOURNAL, accessed November 26, 2025, https://www.temjournal.com/content/142/TEMJournalMay2025_1152_1165.pdf
- Fake News Detection Based on Contrastive Learning and Cross-Modal Interaction - MDPI, accessed November 26, 2025, https://www.mdpi.com/2073-8994/17/8/1260
- Multimodal Fake News Detection with Contrastive Learning and Optimal Transport, accessed November 26, 2025, https://scispace.com/papers/multimodal-fake-news-detection-with-contrastive-learning-and-54eeqwqru9q6
- Identifying fake news in political discourse behavior using machine learning methods, accessed November 26, 2025, https://www.researchgate.net/publication/395624184_Identifying_fake_news_in_political_discourse_behavior_using_machine_learning_methods
- Clip-GCN: an adaptive detection model for multimodal emergent fake news domains, accessed November 26, 2025, https://www.researchgate.net/publication/379985753_Clip-GCN_an_adaptive_detection_model_for_multimodal_emergent_fake_news_domains
- Clip-GCN: an adaptive detection model for multimodal emergent fake news domains, accessed November 26, 2025, https://www.semanticscholar.org/paper/Clip-GCN%3A-an-adaptive-detection-model-for-emergent-Zhou-Pang/79e170edde2b7f981ad0375e80b5951b32f20a57
- LLM-Enhanced multimodal detection of fake news | PLOS One - Research journals, accessed November 26, 2025, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0312240
- LLM-Enhanced multimodal detection of fake news - PMC - NIH, accessed November 26, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11500920/
- Real-time Fake News from Adversarial Feedback - arXiv, accessed November 26, 2025, https://arxiv.org/html/2410.14651v1
- Fake News in Sheep's Clothing: Robust Fake News Detection Against LLM-Empowered Style Attacks | Request PDF - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/383492238_Fake_News_in_Sheep's_Clothing_Robust_Fake_News_Detection_Against_LLM-Empowered_Style_Attacks
- Fake News in Sheep's Clothing: Robust Fake News Detection Against LLM-Empowered Style Attacks - arXiv, accessed November 26, 2025, https://arxiv.org/pdf/2310.10830
- Evaluating the Robustness of Fake News Detectors to Adversarial Attacks with Real User Comments (Extended Abstract) | IEEE Conference Publication, accessed November 26, 2025, https://ieeexplore.ieee.org/document/10722837/
- Evaluating the robustness of fake news detectors to adversarial attacks with real user comments, accessed November 26, 2025, https://d-nb.info/1372057978/34
- Cross-lingual Social Misinformation Detector based on Hierarchical Mixture-of-Experts Adapter - ACL Anthology, accessed November 26, 2025, https://aclanthology.org/2025.coling-main.484.pdf