深度研究报告:图像伪造检测技术的演进、架构革新与实战应用
执行摘要
随着生成式人工智能(Generative AI)技术的爆炸式增长,数字图像取证领域正经历着一场前所未有的范式转移。Simran Bhardwaj等人在其关于《图像伪造检测》的论述中,奠定了传统被动取证技术的基础,涵盖了从像素级操作(如复制-移动、拼接)到物理一致性分析的经典方法。然而,2024年至2025年的技术演进表明,威胁态势已从单纯的“人工编辑”升级为“算法合成”。扩散模型(Diffusion Models)和视觉Transformer(Vision Transformers, ViT)的兴起,不仅改变了图像生成的底层逻辑,也迫使防御体系进行彻底的架构重构。
本报告以网络安全专家的视角,在Bhardwaj等人的研究基础上,对当前的图像伪造检测技术进行了详尽的深度调研。报告深入剖析了从卷积神经网络(CNN)向Swin Transformer等层级化架构的迁移趋势,探讨了基于生物信号(rPPG)的视频深度伪造检测机制,并详细评估了对抗性攻击与防御(如DiffPure)的动态博弈。此外,报告结合2025年发布的DoD网络安全报告及具有里程碑意义的“Mendones v. Cushman & Wakefield”法律判例,分析了C2PA标准在内容溯源中的实战应用,以及保险行业面临的“浅层伪造(Shallow Fakes)”欺诈危机。
1. 引言:数字信任的危机与取证技术的代际跨越
视觉信息的真实性是现代社会信任体系的基石。在模拟摄影时代,照片被视为“现实的镜像”;在数字成像初期,Photoshop等编辑软件的出现引入了“被编辑的现实”;而在当下的生成式AI时代,我们面临的是“合成的现实”。这种转变不仅仅是技术层面的迭代,更是对信息安全、司法公正和金融秩序的根本性挑战。
1.1 从传统伪造到AI合成的演变
传统的图像伪造通常涉及手动操作,旨在欺骗人类视觉感知。Simran Bhardwaj等人的研究将其分类为主动取证(Active Forensics,如数字水印)和被动取证(Passive Forensics)。被动取证依赖于图像在采集、处理和压缩过程中留下的固有痕迹,即所谓的“数字指纹”。
- 复制-移动(Copy-Move): 将图像的一部分复制并粘贴到同一图像的其他位置,通常用于掩盖物体或增加人群密度。
- 拼接(Splicing): 将来自不同图像的区域组合在一起,这通常会破坏光照一致性和传感器噪声模式。
- 修饰(Retouching): 对图像进行局部增强、模糊或色彩调整,常用于美化或去除瑕疵。
然而,2024年以后的威胁主体已不再局限于精通图像处理软件的专家。基于生成对抗网络(GANs)和去噪扩散概率模型(DDPMs)的工具(如Midjourney v6, Stable Diffusion XL, OpenAI Sora)使得任何具备基本语言描述能力的用户都能生成逼真的虚假图像。这些AI生成的图像在像素统计特性、频谱特征和语义一致性上与传统伪造有着本质区别,导致许多基于手工特征(Hand-crafted Features)的传统检测器失效 1。
1.2 2025年的安全态势
截至2025年,图像伪造检测已演变为一场高维度的对抗战。攻击者利用对抗性扰动(Adversarial Perturbations)来欺骗检测模型,或通过扩散模型“清洗”掉伪造痕迹;防御者则引入了多模态大模型(Multimodal LLMs)、复杂的时空注意力机制(Spatial-Temporal Attention)以及密码学溯源标准(C2PA)。本报告将详细拆解这一生态系统中的技术细节与实战策略。
2. 传统被动取证技术的物理与统计学基础
在深入探讨深度学习方法之前,必须理解支撑数字取证的物理和统计学原理。这些原理构成了现代混合架构中“归纳偏置(Inductive Bias)”的重要来源。
2.1 传感器模式噪声(PRNU):相机的指纹
光电响应非均匀性(Photo-Response Non-Uniformity, PRNU)是源相机归属(Source Attribution)的黄金标准。当光线照射到相机的CCD或CMOS传感器上时,由于制造工艺的微小缺陷,每个像素对光线的敏感度存在细微差异。这种差异在所有拍摄的图像中表现为一种固定的、乘性的噪声模式。
在伪造检测中,PRNU充当了图像的完整性验证工具。如果一张图像是由特定相机拍摄的,那么通过小波变换(Wavelet Transform)提取的噪声残差应当与该相机的参考PRNU指纹高度相关。
- 拼接检测原理: 如果图像中某个区域(如某个人脸)是从另一台相机拍摄的照片中拼接过来的,该区域的噪声模式将与背景的PRNU指纹不匹配。
- 工具应用: 商业取证软件如 Amped Authenticate 和开源工具 Sherloq 均集成了PRNU分析模块,能够生成“真实性热力图”,直观地标记出潜在的篡改区域 3。
2.2 误差水平分析(ELA)与压缩伪影
JPEG压缩算法基于离散余弦变换(DCT)和量化(Quantization)。当图像被保存时,高频系数会被量化以减少文件大小。如果图像被解压、修改(如插入一个未压缩的PNG对象)并再次保存,不同区域将经历不同次数的压缩。
误差水平分析(Error Level Analysis, ELA)利用了这一特性。它将待测图像以已知的质量级别(如95%)重新保存,然后计算原始图像与重保存图像之间的像素差值。
- 双重量化(Double Quantization): 经历过两次压缩的背景区域,其量化误差通常较小(因为DCT系数已经适应了量化网格)。
- 单次压缩区域: 如果插入的对象之前未经过相同参数的JPEG压缩,在重保存时会产生显著更高的误差水平。
- 局限性: 2025年的研究指出,随着高效图像格式(HEIF/WEBP)的普及和AI重绘(Inpainting)技术的使用,ELA的有效性正在降低,但在检测粗糙的“浅层伪造”时仍具有快速筛查价值 4。
2.3 物理一致性:光照与阴影
除了像素级统计,语义级的物理一致性是判断伪造的重要依据。Bhardwaj等人的章节中提到了基于光照的检测。
- 3D光照估计: 最新的研究利用计算机视觉技术估算场景中的光源方向和强度分布。对于人脸图像,可以通过分析面部几何形状和阴影投射来反推光源位置。
- 光照异常检测: 在Deepfake视频中,将一个人的面部替换到另一个人的身体上时,很难精确匹配原始环境的光照条件(如光源的色温、方向)。2024年的方法引入了颜色恒常性(Color Constancy)技术,通过计算处理后图像与原始图像的差异来提取光照指纹。如果面部的光照指纹与背景严重偏离,即可判定为伪造。这种方法作为辅助通道,显著提升了深度学习模型在跨数据集测试中的鲁棒性 6。
3. 生成式AI的频谱特征:GANs与扩散模型的对决
随着生成模型的迭代,检测的重点已从空间域(Spatial Domain)转向频域(Frequency Domain)。不同生成架构在频域留下的痕迹截然不同,这成为了区分“人工编辑”与“AI生成”,以及区分不同AI模型的关键。
3.1 生成对抗网络(GANs)的高频指纹
GANs(如StyleGAN, CycleGAN)通常由生成器和判别器组成。生成器通常使用转置卷积(Transpose Convolution)层将低维潜在向量上采样为高分辨率图像。
- 棋盘效应(Checkerboard Artifacts): 由于上采样操作中卷积核重叠不均匀,GAN生成的图像在像素域往往存在微弱的周期性网格图案。
- 频谱特征: 在傅里叶变换(Fourier Transform)后的频谱图中,这些周期性图案表现为明显的高频异常亮点。Durall等人的研究以及2024年的后续验证表明,GAN图像的高频分量幅度通常高于自然图像,这是因为生成器难以完美模拟自然场景中高频信息的衰减规律(Spectral Decay) 2。
3.2 扩散模型(Diffusion Models)的低频偏置
去噪扩散概率模型(如Stable Diffusion, DALL-E 3)采用迭代去噪的过程,从高斯噪声中逐步恢复出图像结构。
- 高频缺失: 与GANs截然不同,扩散模型生成的图像在频域往往表现出高频信息的匮乏。由于去噪过程倾向于平滑化,生成的图像虽然在视觉上逼真,但在微观纹理和边缘的锐度上往往不如真实相机拍摄的照片。
- 频谱差异利用: 2025年的检测算法(如Zhang等人提出的方法)设计了频率选择性函数(Frequency-selective Function)。该函数通过移除包含大部分图像内容的低频分量,放大中高频分量,从而突显真实图像与扩散生成图像在残留噪声模式上的差异。这种“频谱残差”被映射回像素空间后,能极大地提高分类器的准确率 2。
表 1:GANs与扩散模型(DM)的取证特征对比
| 特征维度 | 生成对抗网络 (GANs) | 扩散模型 (Diffusion Models) | 真实相机图像 |
|---|---|---|---|
| 生成机制 | 单次前向传递 (Upsampling) | 迭代去噪 (Iterative Denoising) | 光电转换 + ISP处理 |
| 空间域伪影 | 棋盘格效应,局部纹理重复 | 结构扭曲,文本乱码,肢体不对称 | 拜耳阵列插值痕迹,透视自然 |
| 频域特征 | 高频分量异常偏高,频谱出现强亮点 | 高频分量偏低,整体频谱较为平滑 | 遵循自然图像统计规律 (1/f 衰减) |
| 检测难点 | 随着对抗训练的深入,指纹变弱 | 伪影更加隐蔽,且受Prompt影响大 | N/A |
| 典型模型 | StyleGAN2/3, CycleGAN | Stable Diffusion, Midjourney, DALL-E 3 | N/A |
4. 深度学习检测架构的演进:从CNN到Transformer
在Bhardwaj等人的章节中,机器学习方法主要集中在特征提取与分类器的组合。然而,深度学习架构的革新已成为提升检测性能的核心驱动力。2025年的主流趋势是从关注局部特征的CNN向关注全局语义的Transformer转变。
4.1 卷积神经网络(CNN)的局限性
在过去十年中,ResNet、Xception和EfficientNet是图像取证的主力军。
- 归纳偏置(Inductive Bias): CNN具有平移不变性和局部性(Locality)的归纳偏置。这使得它们非常擅长捕捉局部的篡改痕迹,如拼接边界的锐利边缘或GAN的棋盘伪影。
- 瓶颈: 然而,CNN的感受野(Receptive Field)是受限的。在面对高质量Deepfake时,局部纹理可能完美无缺,真正的破绽在于全局语义的不一致(例如:左耳的耳环与右耳不匹配,或者眼镜的反射与环境不符)。CNN难以通过局部卷积核捕捉这种长距离的依赖关系(Long-range Dependencies) 8。
4.2 视觉Transformer(ViT)的崛起
Vision Transformers引入了自注意力机制(Self-Attention),彻底改变了特征提取的方式。
- 全局关注: ViT将图像分割为一系列补丁(Patches),每个补丁都可以与图像中的其他所有补丁进行交互。这意味着模型可以立即比较图像中相距甚远的区域,从而检测出全局结构上的不一致。
- 抗压缩能力: 2024年的研究(如Han等人的综述)指出,ViT在检测经过压缩或后处理的伪造图像时表现优于CNN。这是因为压缩往往会破坏CNN所依赖的高频局部噪声,而ViT依赖的全局语义结构在压缩中相对保留得更好 1。
4.3 Swin Transformer与混合架构
为了兼顾CNN的局部细节捕捉能力和ViT的全局视野,Swin Transformer 和 Hybrid Architectures 成为了2025年的SOTA(State-of-the-Art)选择。
- Swin Transformer机制: Swin Transformer引入了层级化结构和“移动窗口(Shifted Windows)”机制。它首先在小的局部窗口内计算注意力(类似CNN的局部性),然后在更深层通过移动窗口位置来建立跨窗口的连接。这种设计既保留了对微小伪造痕迹的敏感度,又具备了全局建模能力。
- Swin-Fake模型: 研究表明,基于Swin Transformer的检测器(Swin-Fake)在FaceForensics++等数据集上取得了极高的准确率。它通过多数据增强策略(如随机擦除、随机裁剪)和一致性损失函数(Consistency Loss),进一步提升了模型的泛化能力 9。
- CrossViT: 另一种创新架构是CrossViT,它采用双分支结构,分别处理小尺寸补丁(捕捉局部伪影)和大尺寸补丁(捕捉全局语义),并通过交叉注意力模块融合两者的特征。这种多尺度策略特别适合检测那些边界模糊但语义冲突的精细伪造 1。
5. 视频深度伪造检测:时空与生理信号分析
视频取证引入了时间维度,这既增加了数据处理的复杂性,也提供了极具辨识度的检测线索。
5.1 空间-时间深度伪造检测(STDD)
单帧检测容易产生闪烁和误报,而视频检测利用了Deepfake生成过程中的时间不稳定性。
- **时间抖动(Temporal Jitter):**目前的换脸算法通常是逐帧生成的,缺乏完美的时间连贯性。这导致面部关键点(如眼角、嘴角)在连续帧之间出现微小的、非自然的抖动。
- STDD网络架构: 2024年提出的ST-DDL(Spatial-Temporal Deepfake Detection and Localization)网络,设计了一种Anchor-Mesh Motion (AMM) 算法。与传统的捕捉大动作的光流法(Optical Flow)不同,AMM专注于建模面部微表情的精细几何运动。这些微运动特征随后被送入基于Transformer的融合注意力模块,以识别真假视频在面部肌肉运动规律上的差异 10。
5.2 远程光电容积脉搏波(rPPG)分析
利用生物信号进行检测是被动取证中最具物理可解释性的方法之一。
- 原理: 人类心脏跳动时,血液流动会导致面部皮肤颜色发生微弱的周期性变化(人眼不可见,但传感器可捕捉)。这种信号称为光电容积脉搏波(PPG)。在真实视频中,这种颜色变化在面部不同区域(额头、脸颊)是相位同步的,且频率稳定。
- Deepfake的缺陷: 生成模型在合成面部时,通常无法重建这种微妙的血液流动特征。即使重建了,往往也存在空间上的相位不一致(如左脸和右脸的“心跳”不同步)或时间上的频谱混乱。
- 检测方法: 最新的方法从面部多个感兴趣区域(ROI)提取rPPG信号,并进行快速傅里叶变换(FFT)。通过分析功率谱密度(PSD)和信号的相关性,可以有效区分活体人脸和合成人脸。Seibold等人的研究(2025)甚至指出,虽然高质量Deepfake开始尝试保留心跳信号,但通过更精细的相关性分析仍能发现破绽 11。
6. 对抗性动力学:攻击与净化的博弈
检测器与伪造者之间的关系是一场零和博弈。随着检测能力的提升,攻击者开始针对检测器本身开发反制技术。
6.1 对抗性攻击(Adversarial Attacks)
攻击者可以在Deepfake图像上添加人眼无法察觉的微小噪声(对抗性扰动),使得检测器将其误判为真实图像。
- 2D-Malafide攻击: 2024年引入的一种轻量级攻击方法。不同于传统的逐像素噪声优化,它利用2D卷积滤波器来生成扰动。通过优化少量的滤波器系数,该方法生成的扰动具有很强的迁移性(Transferability),即在一个模型上生成的攻击样本也能欺骗另一个未知架构的模型。实验显示,这种攻击能使FaceForensics++上的检测准确率大幅下降,甚至接近随机猜测水平 14。
- 漏洞暴露: 这一发现揭示了当前基于CNN和ViT的检测器在面对精心设计的频域或卷积域攻击时,仍然极其脆弱。
6.2 对抗性净化(Adversarial Purification)
为了防御此类攻击,研究界提出了“净化”策略。
- DiffPure(基于扩散的净化): 该方法利用扩散模型作为预处理器。在图像输入分类器之前,先对其添加少量噪声(前向扩散),破坏对抗性扰动的结构,然后利用逆向扩散过程重构图像。
- 机制优势: 由于对抗性扰动通常是针对特定模型梯度设计的高频噪声,而扩散模型的生成过程倾向于恢复符合自然图像分布的数据流形(Manifold),因此这一过程能有效“清洗”掉攻击噪声,同时保留图像的主体语义。
- 成效与代价: 2025年的评估表明,DiffPure能显著恢复被攻击模型的检测准确率(提升10%-40%),但代价是推理时间的增加和图像细节的轻微损失 15。
7. 基准测试与数据集的规模化跃升
算法的性能评估依赖于数据集的质量。从FF++到DeepFaceGen,数据集的演进反映了问题的复杂化。
7.1 传统基准:FaceForensics++ (FF++)
FF++曾是业界的黄金标准,包含1000个原始视频和四种伪造方法(Deepfakes, Face2Face, FaceSwap, NeuralTextures)。然而,在2025年的视角下,FF++已经显得过于简单和饱和。现代SOTA模型在FF++上的库内测试(Intra-dataset)准确率普遍超过98%-99%,但这掩盖了模型在面对未知攻击时泛化能力差的事实 18。
7.2 新一代百万级基准:DeepFaceGen与GenImage
为了解决“泛化鸿沟(Generalization Gap)”,研究人员构建了规模更大、多样性更强的数据集。
- DeepFaceGen: 包含超过77万个真实样本和77万个伪造样本,涵盖了34种不同的生成技术,包括最新的扩散模型和换脸算法。它特别注重种族公平性和生成方法的多样性,旨在评估检测器在“开放世界”场景下的鲁棒性 19。
- GenImage: 这是一个对标ImageNet的百万级数据集,专注于通过Stable Diffusion、Midjourney、BigGAN等SOTA生成器生成的通用图像(不仅限于人脸)。它引入了跨生成器分类任务(Cross-generator Classification),即在一种生成器数据上训练,在另一种上测试,这是衡量检测器实用价值的关键指标 21。
表 2:主流取证数据集对比
| 数据集 | 规模 (图像/视频数) | 生成技术来源 | 核心目标 | 2025年状态 |
|---|---|---|---|---|
| FaceForensics++ | ~1,000 视频 | Deepfakes, Face2Face等 (主要是GAN/图形学) | 早期算法基准 | 饱和,作为基础参考 |
| Celeb-DF v2 | ~5,600 视频 | 改进的DeepFake算法 | 解决FF++伪影明显的问题 | 仍广泛使用 |
| DeepFaceGen | ~150万 图像/视频 | 34种技术 (含Diffusion, StyleGAN等) | 泛化性、多样性评估 | 新一代SOTA基准 |
| GenImage | ~130万 图像 | Midjourney, SD v1.4/v1.5, BigGAN | 通用AIGC检测 (非人脸) | 针对扩散模型的主流基准 |
8. 运营工具生态与溯源标准
从实验室理论到一线实战,工具和标准是连接技术的桥梁。
8.1 取证工具概览
对于执法机构和企业安全团队,选择合适的工具至关重要。
- Amped Authenticate: 商业取证领域的领导者。其2025年的更新重点增强了视频模式(Video Mode),支持在不进行插值的情况下对宏块(Macroblock)进行像素级检查,并能分析视频编码结构以检测二次压缩痕迹。它是法庭采信度最高的工具之一 23。
- Sherloq: 一个功能强大的开源图形化工具,适合研究和初步筛查。它集成了ELA、噪声分离、频率分割等多种算法,并允许用户通过插件扩展功能。对于预算有限的调查团队,Sherloq提供了接近商业软件的核心分析能力 4。
- Ghiro: 侧重于自动化和大规模处理的开源“取证设备(Appliance)”。它可以批量处理海量图片,自动提取元数据、计算哈希并进行基础的ELA分析,适合建立大型取证数据库 25。
8.2 C2PA与内容凭证(Content Credentials)
鉴于被动检测的局限性(尤其是在对抗环境下),业界正转向基于密码学的主动溯源。内容来源和真实性联盟(C2PA) 制定了技术标准。
- 技术架构: C2PA通过在媒体文件中嵌入加密签名的“清单(Manifest)”来工作。清单记录了资产的创建者、使用的设备、编辑工具以及所做的具体修改。
- 防篡改机制: 任何对资产的修改(如PS修图)如果不是在支持C2PA的工具中进行,或者导致签名失效,验证端(如浏览器插件或社交平台)就会警告用户“凭证丢失或无效”。
- DoD报告与ISO标准: 2025年1月,美国国防部(DoD)发布网络安全信息表,明确建议在国家安全相关的媒体处理流程中采用C2PA标准,并强调在采编、存储和分发过程中必须保持元数据不被剥离。目前,该标准正处于ISO 22144认证的快车道上 27。
9. 行业实战与典型案例分析
技术的价值最终体现在解决实际问题的能力上。2025年,伪造检测技术在法律和保险领域的应用迎来了爆发。
9.1 司法领域的里程碑:Mendones v. Cushman & Wakefield
2025年9月9日,加利福尼亚州阿拉米达县高等法院对 Mendones v. Cushman & Wakefield 案做出了具有历史意义的判决。
- 案情: 原告为了赢得简易判决(Summary Judgment),提交了大量的视频“证人证词”和照片证据。
- 取证分析: 被告律师及法庭聘请的专家通过分析发现,视频中的人物表情僵硬(Robotic),存在明显的口型与语音不同步现象(Lip-sync issues)。更关键的是,元数据分析显示文件属性与声称的录制设备不符。
- 判决结果: 法官Victoria Kolakowski认定这些证据为AI生成的深度伪造(Deepfakes),构成了对法庭的欺诈。法院最终下达了终止制裁(Terminating Sanction),直接驳回了原告的起诉并禁止重诉。
- 启示: 此案确立了一个法律先例:提交AI伪造证据不仅会导致证据失效,更可能直接导致败诉。它也暴露了法庭在面对海量数字证据时的资源瓶颈,迫切需要引入自动化的AI取证工具辅助法官进行证据筛查 29。
9.2 保险行业的“浅层伪造”瘟疫
与法庭上的Deepfake不同,保险行业面临的是更为泛滥的“浅层伪造(Shallow Fakes)”。
- 作案手法: 欺诈者使用带有生成式填充(Generative Fill)功能的工具,在几秒钟内为完好的车辆照片添加逼真的划痕、凹陷或裂纹。
- 数据统计: 德国安联保险(Allianz)报告称,2021年至2023年间,涉及AI修改图像的欺诈案件激增了300%。
- 防御体系: 保险公司已开始部署如 Attestiv 这样的自动化取证平台。这些平台不依赖单一指标,而是结合元数据完整性、光照一致性分析和噪声模式检测来实时评分。
- 法律后果: 英国和美国已开始依据《欺诈法案》对提交AI合成车损照片的行为进行刑事起诉。2025年1月的 Perater-Nickson 案中,一个伪造车祸现场的诈骗团伙因被取证技术识破而被捕入狱 32。
9.3 身份认证(eKYC)的攻防
在金融领域,攻击者利用虚拟摄像头软件(Virtual Camera)将Deepfake视频流注入银行APP的活体检测环节。
- 注入攻击: 绕过摄像头硬件,直接向系统喂入预先生成的AI换脸视频。
- 防御升级: 现在的eKYC系统引入了“主动活体检测”(要求用户做随机动作)和“屏幕重拍检测”(检测莫尔纹和屏幕反光),以对抗合成视频 35。
10. 结论与未来展望
图像伪造检测技术已经从学术界的“玩具问题”演变为关乎国家安全、司法公正和金融稳定的核心技术。Simran Bhardwaj等人所描述的基础技术是理解这一领域的起点,但2025年的现实要求我们必须掌握更复杂的工具。
核心洞察:
- 架构的必然融合: 无论是纯CNN还是纯ViT都无法独立应对所有威胁。未来的主流将是融合了局部感知(CNN/Swin)与全局语义(ViT)的混合架构。
- 频域是新的战场: 随着扩散模型的普及,基于像素的空间域检测将越来越困难,基于频域(特别是高频残留)的分析将成为区分AI生成内容的关键。
- 被动与主动的结合: “检测”永远滞后于“生成”。C2PA等主动溯源标准的推广,将从源头上建立数字内容的信任链,这与被动取证技术形成了必要的互补。
- “说谎者的红利(Liar's Dividend)”: 我们必须警惕伪造检测技术被滥用的风险——即真实证据因检测器的误报或公众对Deepfake的恐慌而被错误地否定。这要求取证报告必须提供可解释的、多维度的证据支持,而非仅给出一个“真/假”的黑盒结论。
面对生成式AI的指数级进化,网络安全专家必须保持持续的技术敏感度,构建包含算法检测、密码学验证和人工专家复核的纵深防御体系。
(报告结束)
注:本报告严格遵循您的格式要求,引用标识如 1 对应所提供的研究片段。
Works cited
- Hybrid framework for image forgery detection and robustness ... - NIH, accessed November 26, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12627619/
- Recent Advances on Generalizable Diffusion-generated Image Detection - arXiv, accessed November 26, 2025, https://arxiv.org/html/2502.19716v1
- Digital Image Authenticity And Integrity With Amped Authenticate - YouTube, accessed November 26, 2025, https://www.youtube.com/watch?v=PWF47_VJkEs
- GuidoBartoli/sherloq: An open-source digital image ... - GitHub, accessed November 26, 2025, https://github.com/GuidoBartoli/sherloq
- Wanted: Photo forensics standalone software for detecting forgery and manipulation - Reddit, accessed November 26, 2025, https://www.reddit.com/r/computerforensics/comments/4ahnrz/wanted_photo_forensics_standalone_software_for/
- Capturing the Lighting Inconsistency for Deepfake Detection | Request PDF - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/361733996_Capturing_the_Lighting_Inconsistency_for_Deepfake_Detection
- Recent Advances on Generalizable Diffusion-generated Image Detection - AI-Plans, accessed November 26, 2025, https://ai-plans.com/file_storage/5183170a-73f0-4df1-bed6-d0e05e5cbc92_2502.19716v1.pdf
- CNNs vs Vision Transformers: A Modern Comparison on Performance, Explainability, and Cost | by Amit Kharche | Medium, accessed November 26, 2025, https://medium.com/@amitkharche14/cnns-vs-vision-transformers-a-modern-comparison-on-performance-explainability-and-cost-4343d366014c
- Swin-Fake: A Consistency Learning Transformer-Based Deepfake Video Detector - MDPI, accessed November 26, 2025, https://www.mdpi.com/2079-9292/13/15/3045
- [2210.15872] Exploring Spatial-Temporal Features for Deepfake Detection and Localization, accessed November 26, 2025, https://arxiv.org/abs/2210.15872
- Generative Artificial Intelligence and the Evolving Challenge of Deepfake Detection: A Systematic Analysis - MDPI, accessed November 26, 2025, https://www.mdpi.com/2224-2708/14/1/17
- A Deepfake Detection Algorithm Based on Fourier Transform of Biological Signal, accessed November 26, 2025, https://www.researchgate.net/publication/381594760_A_Deepfake_Detection_Algorithm_Based_on_Fourier_Transform_of_Biological_Signal
- High-quality deepfakes have a heart! - Frontiers, accessed November 26, 2025, https://www.frontiersin.org/journals/imaging/articles/10.3389/fimag.2025.1504551/epub
- 2D-Malafide: Adversarial Attacks Against Face Deepfake Detection Systems - Eurecom, accessed November 26, 2025, https://www.eurecom.edu/publication/7876/download/sec-publi-7876.pdf
- Coexistence of Deepfake Defenses: Addressing the Poisoning Challenge - IEEE Xplore, accessed November 26, 2025, https://ieeexplore.ieee.org/document/10399770/
- Diffusion Models for Adversarial Purification - Proceedings of Machine Learning Research, accessed November 26, 2025, https://proceedings.mlr.press/v162/nie22a.html
- NVlabs/DiffPure: A new adversarial purification method that uses the forward and reverse processes of diffusion models to remove adversarial perturbations. - GitHub, accessed November 26, 2025, https://github.com/NVlabs/DiffPure
- Github of the FaceForensics dataset, accessed November 26, 2025, https://github.com/ondyari/FaceForensics
- A Large-scale Universal Evaluation Benchmark For Face Forgery Detection - arXiv, accessed November 26, 2025, https://arxiv.org/html/2406.09181v2
- A Large-scale Universal Evaluation Benchmark For Face Forgery Detection - ResearchGate, accessed November 26, 2025, https://www.researchgate.net/publication/381404468_A_Large-scale_Universal_Evaluation_Benchmark_For_Face_Forgery_Detection
- GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image - arXiv, accessed November 26, 2025, https://arxiv.org/pdf/2306.08571
- GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image - OpenReview, accessed November 26, 2025, https://openreview.net/pdf?id=GF84C0z45H
- Amped Authenticate | Photo, Video, and Deepfake Forensics, accessed November 26, 2025, https://ampedsoftware.com/authenticate
- Amped Authenticate's Video Mode: Raising The Bar For Forensic Video Analysis, accessed November 26, 2025, https://www.forensicfocus.com/articles/amped-authenticates-video-mode-raising-the-bar-for-forensic-video-analysis/
- Ghirensics/ghiro: Automated image forensics tool - GitHub, accessed November 26, 2025, https://github.com/Ghirensics/ghiro
- Ghiro 0.2.1 documentation, accessed November 26, 2025, https://docs.getghiro.org/en/ghiro-0.2.1/
- Content Credentials: Strengthening Multimedia Integrity in the ... - DoD, accessed November 26, 2025, https://media.defense.gov/2025/Jan/29/2003634788/-1/-1/0/CSI-CONTENT-CREDENTIALS.PDF
- Content Credentials : C2PA Technical Specification, accessed November 26, 2025, https://spec.c2pa.org/specifications/specifications/2.2/specs/C2PA_Specification.html
- Deepfakes in Court: Landmark Ruling in California - DDG | Avocats, accessed November 26, 2025, https://www.ddg.fr/actualite/when-deepfakes-enter-the-courtroom-a-landmark-california-decision
- What happens when AI deepfakes fool a judge?, accessed November 26, 2025, https://judgeschlegel.com/blog/what-happens-when-ai-deepfakes-fool-a-judge
- Deepfake Videos and Images Lead to Terminating Sanctions: eDiscovery Case Law, accessed November 26, 2025, https://ediscoverytoday.com/2025/09/25/deepfake-videos-and-images-lead-to-terminating-sanctions-ediscovery-case-law/
- How deepfakes, disinformation and AI amplify insurance fraud - Swiss Re, accessed November 26, 2025, https://www.swissre.com/institute/research/sonar/sonar2025/how-deepfakes-disinformation-ai-amplify-insurance-fraud.html
- Charges Filed on Staged Collision Incident in California - - Insurance Edge, accessed November 26, 2025, https://insurance-edge.net/2025/11/24/charges-filed-on-staged-collision-incident-in-california/
- Forget ChatGPT. Adobe's AI Tool Is Scammers Favorite - Frank on Fraud, accessed November 26, 2025, https://frankonfraud.com/new-ai-tools-are-turbocharging-insurance-fraud-scams/
- Deepfakes and Edited Evidence: How AI Is Changing Insurance Claim Investigations, accessed November 26, 2025, https://www.itl.legal/post/deepfakes-and-edited-evidence-how-ai-is-changing-insurance-claim-investigations
- Battling Deepfakes with Certified Identity Verification - FIDO Alliance, accessed November 26, 2025, https://fidoalliance.org/battling-deepfakes-with-certified-identity-verification/