订阅以接收新文章的通知:

通往更安全互联网的更简单路径:我们对 CSAM 扫描工具进行了更新

2025-09-24

3 分钟阅读时间
这篇博文也有 English 版本。

建立网站或在线社区会将人们聚集在一起,共同创造和分享。然而,令人遗憾的是,这些平台的运营者还必须应对不良行为者试图滥用这些平台传播儿童性虐待内容 (CSAM) 等最恶劣内容的后果。

我们始终致力于帮助互联网上的所有用户保护其平台免遭此类滥用行为侵害。几年前,我们率先推出了儿童性剥削内容扫描工具 (CSAM Scanning Tool),携手美国国家失踪与受虐儿童援助中心 (NCMEC)、国际刑警组织及数十家致力于保护儿童权益的组织,让全球任意网站都能通过编程方式扫描用户上传内容中的儿童性剥削内容。该工具的发布,将原本仅大型社交媒体平台可用的技术,普及到了所有网站。

然而,我们提供的工具仍然需要一些设置工作,这给其推广带来了阻力。为了帮助客户向 NCMEC 提交报告,他们需要创建自己的凭据。对于小型网站所有者来说,创建凭据并共享凭据的步骤过于繁琐,工作量也太大。我们尽力帮助他们处理辅助报告,但我们需要一种无缝衔接的方法,以鼓励他们采用。

今天的这项发布让网站运营者执行该流程变得大为简便,即使投入更少的人工操作,也能为保障互联网安全贡献力量。该工具不再要求网站运营者自行创建并提供专属的 NCMEC 凭据。自今年 2 月推出这一改进以来,该工具的月度使用率提升了 1,600%。

工作原理

致力于标记并阻止 CSAM 传播的服务,依赖于 NCMEC 等合作伙伴组织,这些组织维护着已知 CSAM 的哈希值列表。这些哈希值是图像的数值表示,依靠某种算法为照片创建一种数字指纹。运营这些工具的合作伙伴(例如 Cloudflare)会将提供的内容哈希值与 NCMEC 等组织维护的列表进行比对,以查看是否存在匹配项。您可以在此处阅读我们之前的公告,详细了解该操作。

我们采用模糊哈希技术,这是一种超越简单一对一匹配的先进检测手段。即便 CSAM 照片仅经过轻微改动(例如添加滤镜、裁剪画面或混入噪点),其生成的感知指纹也会彻底改变。

而模糊哈希则会生成一种“感知指纹”。即便图像经过修改,其模糊哈希值仍与原始图像相近。这就使得我们的工具即便面对试图伪装内容的滥用者,也能高度自信地识别出匹配内容。

不再需要与 Cloudflare 共享凭据,这减少了部署和启用我们工具的一个步骤。但网站运营商仍应继续向 NCMEC 或其所在地区的对等机构提交报告。

现在流程是什么?

使用该工具的流程现在简单明了:

启用工具:在您的 Cloudflare 区域中激活 CSAM 扫描工具,并验证您的通知电子邮件地址。

扫描和检测:我们的工具会对您缓存的内容进行扫描,检测其中是否存在潜在的 CSAM,并为每张图片生成模糊哈希值。若找到与已知不良哈希值匹配的项目,系统将生成一条检测事件记录。

处置措施:Cloudflare 会拦截所有已识别匹配项对应的 URL,并向您发送通知,以便您采取进一步行动。

后续规划

我们认为,更安全互联网的工具应该向所有人开放,而不仅仅是少数大型企业。

我们邀请您立即在您的网站上启用 CSAM 扫描工具。有关其工作原理的更多技术详情,请访问我们的开发者文档。我们也欢迎您加入我们的社区,讨论相关技术,并帮助我们继续构建更完善的互联网。

我们保护整个企业网络,帮助客户高效构建互联网规模的应用程序,加速任何网站或互联网应用程序抵御 DDoS 攻击,防止黑客入侵,并能协助您实现 Zero Trust 的过程

从任何设备访问 1.1.1.1,以开始使用我们的免费应用程序,帮助您更快、更安全地访问互联网。要进一步了解我们帮助构建更美好互联网的使命,请从这里开始。如果您正在寻找新的职业方向,请查看我们的空缺职位
生日周Trust & SafetyAbuse法律问题

在 X 上关注

Cloudflare|@cloudflare

相关帖子

2025年9月29日 14:00

15 年来帮助建设更好的互联网:2025 年生日周总结

Rust 驱动的核心系统、后量子升级、学生免费使用开发人员平台、PlanetScale 集成、开源合作伙伴关系,以及我们有史以来最大规模的实习计划——2026 年招聘 1111 名实习生。...