建立网站或在线社区会将人们聚集在一起,共同创造和分享。然而,令人遗憾的是,这些平台的运营者还必须应对不良行为者试图滥用这些平台传播儿童性虐待内容 (CSAM) 等最恶劣内容的后果。
我们始终致力于帮助互联网上的所有用户保护其平台免遭此类滥用行为侵害。几年前,我们率先推出了儿童性剥削内容扫描工具 (CSAM Scanning Tool),携手美国国家失踪与受虐儿童援助中心 (NCMEC)、国际刑警组织及数十家致力于保护儿童权益的组织,让全球任意网站都能通过编程方式扫描用户上传内容中的儿童性剥削内容。该工具的发布,将原本仅大型社交媒体平台可用的技术,普及到了所有网站。
然而,我们提供的工具仍然需要一些设置工作,这给其推广带来了阻力。为了帮助客户向 NCMEC 提交报告,他们需要创建自己的凭据。对于小型网站所有者来说,创建凭据并共享凭据的步骤过于繁琐,工作量也太大。我们尽力帮助他们处理辅助报告,但我们需要一种无缝衔接的方法,以鼓励他们采用。
今天的这项发布让网站运营者执行该流程变得大为简便,即使投入更少的人工操作,也能为保障互联网安全贡献力量。该工具不再要求网站运营者自行创建并提供专属的 NCMEC 凭据。自今年 2 月推出这一改进以来,该工具的月度使用率提升了 1,600%。
致力于标记并阻止 CSAM 传播的服务,依赖于 NCMEC 等合作伙伴组织,这些组织维护着已知 CSAM 的哈希值列表。这些哈希值是图像的数值表示,依靠某种算法为照片创建一种数字指纹。运营这些工具的合作伙伴(例如 Cloudflare)会将提供的内容哈希值与 NCMEC 等组织维护的列表进行比对,以查看是否存在匹配项。您可以在此处阅读我们之前的公告,详细了解该操作。
我们采用模糊哈希技术,这是一种超越简单一对一匹配的先进检测手段。即便 CSAM 照片仅经过轻微改动(例如添加滤镜、裁剪画面或混入噪点),其生成的感知指纹也会彻底改变。
而模糊哈希则会生成一种“感知指纹”。即便图像经过修改,其模糊哈希值仍与原始图像相近。这就使得我们的工具即便面对试图伪装内容的滥用者,也能高度自信地识别出匹配内容。
不再需要与 Cloudflare 共享凭据,这减少了部署和启用我们工具的一个步骤。但网站运营商仍应继续向 NCMEC 或其所在地区的对等机构提交报告。
使用该工具的流程现在简单明了:
启用工具:在您的 Cloudflare 区域中激活 CSAM 扫描工具,并验证您的通知电子邮件地址。
扫描和检测:我们的工具会对您缓存的内容进行扫描,检测其中是否存在潜在的 CSAM,并为每张图片生成模糊哈希值。若找到与已知不良哈希值匹配的项目,系统将生成一条检测事件记录。
处置措施:Cloudflare 会拦截所有已识别匹配项对应的 URL,并向您发送通知,以便您采取进一步行动。
我们认为,更安全互联网的工具应该向所有人开放,而不仅仅是少数大型企业。
我们邀请您立即在您的网站上启用 CSAM 扫描工具。有关其工作原理的更多技术详情,请访问我们的开发者文档。我们也欢迎您加入我们的社区,讨论相关技术,并帮助我们继续构建更完善的互联网。