2022.08.26

把儿子裸照发给医院检查后,父亲被谷歌举报儿童色情

科技公司需要一个“强大的程序”来清除和恢复被错误标记的无辜者。

常在河边走,哪有不湿鞋。

冲浪这么多年,谁的社交账号还没有被私信警告过,或者被禁个三五天(叉腰)。

但是相信很少有人遇到因为一张并没有在社交媒体上分享的照片而遭到调查,甚至是起诉

最离谱的是,这个照片还是医生要求拍的??

事情是这样的。

让我们先把时间拨回2021年2月份,新冠病毒还在全球肆虐,人们还胆颤心惊不敢出门,更别提去医院了。

也正是在这个时候,居住在洛杉矶的全职爸爸Mark注意到他刚学会走路的孩子有点不大对劲。

儿子的丁丁看上去有点臃肿,而且儿子自己也表现出了十分明显的不适感。

在紧急电话咨询医生后,他们让Mark发张照片给医生检查。

于是妻子拿出Mark的手机,对着儿子的腹股沟区域一阵猛拍,然后同步分享到了自己的iPhone上,将照片上传到医院提供的系统中。

很快,医生对症下药,给儿子开了抗生素,情况也迅速好转了。

但也正是因为这张照片,让Mark陷入了一个更大的麻烦当中。Mark被谷歌的算法标记为一个旨在使用儿童性虐材料进行交易的危险分子,于是谷歌很理所当然地删除了Mark手机上的联系人、电子邮件和照片,并且协助警方锁定了他。

“谷歌不会容忍儿童性虐材料在平台传播”

当Mark知道自己被卷入了一起儿童色情案件之后,他感到十分困惑。

随后他意识到,可能是儿子的那张照片被错误标记了。

由于此前在一家大型技术公司中担任软件工程师,Mark知道在审核过程中通常还会有一个工具,能删除被标记为可疑的视频。

Mark心想,只要被人工审核后,事情自然会真相大白。

于是Mark填写了一份表格,解释了儿子患病的事实,并要求谷歌对自己的处决进行核实。

但随后,不好的事情就开始像多米诺骨牌那样接踵而来。Mark不仅失去了电子邮件、朋友和前同事的联系信息,以及儿子最初几年的生活记录,他的Google Fi账户也被关停了,这意味着他必须从另一家运营商那里获得新的电话号码。但是由于无法使用旧手机号码和电子邮件地址,Mark无法获得登录互联网账户所需的验证码。

于是,Mark就这么被封锁在了自己的数字生活之外

当然谷歌并没有完全不回信,但他们只是说到,“儿童性虐材料是无法容忍的,我们正在防止这些材料在我们的平台上传播”。

几天后,谷歌回应表示,不会恢复Mark的账号,但并没有进行进一步的解释。

与此同时,谷歌的审查团队标记了他制作的一个视频,旧金山警察局已经开始调查他。

谷歌如何标记图片

就在谷歌把Mark“打”得措手不及的第二天,同样的情景在德克萨斯州上演了。

休斯顿的一名幼儿因“内脏部位”被感染,他的父亲在网上发帖写道,在儿科医生的要求下,他也用自己的手机拍摄了照片,这些照片被自动同步到了谷歌系统上,然后他通过谷歌将这些照片发给了妻子。

最恼人的是,这位父亲当时正在买房子,签署了无数文件。Gmail账户被禁用后,他要求抵押贷款经纪人更换电子邮件地址,这让经纪人起了疑心,直到房地产经纪人为他做担保,才平息下来。

儿童被剥削或性虐待的图像每年都会被科技巨头标记数百万次。2021年,谷歌提交了超过60万份虐待儿童材料的报告,禁用了超过27万名用户的账户。

这么看来,Mark的经历就像是水桶里的一颗水滴。

科技公司最常使用的工具是PhotoDNA,一个已知的虐待图片数据库,被转换为独特的数字代码或哈希值;它可以用来快速梳理大量的图片,以检测出匹配的图片,即使照片被细微地修改过也逃不过它的法眼。

微软在2009年发布PhotoDNA,在此之后,Facebook等科技公司都在借助PhotoDNA来根除传播非法和有害图像的用户。

当Mark的照片从手机自动上传到谷歌服务器时,该技术对他们进行了标记。数字公民自由组织电子前沿基金会的技术专家Jon Callas称,这种扫描具有侵入性,在打击网上猖獗的性虐待图像的传播时可能会窥视到私人档案,比如相册。这种毫无警戒的入侵正在使这样的行为变得不正当起来。

在照片被人工智能标记后,谷歌的人类内容管理员会审查这些照片,以确认它们符合联邦对儿童性虐待材料的定义。当发现这种情况时,谷歌会锁定用户账户,搜索其他剥削性材料,并根据联邦法律的要求,向国家失踪和被剥削儿童中心的网络热线进行报告。

这个非营利性组织已经成为虐待材料的交流中心;去年该组织收到了2930万份报告,每天约8万份报告。管理网络热线的Fallon McNulty说,大部分都是以前报告过的图像,这些图像仍然在互联网上传播。因此,40名分析员会专注于潜在的新受害者

McNulty表示,谷歌在这方面的能力是毋庸置疑的,这是“系统发挥应有作用的经典例子”。CyberTipline工作人员将任何新的滥用图像添加到哈希数据库中,该数据库与技术公司共享,用于扫描。

当Mark的妻子得知这一情况后,她从iPhone中删除了马克为他们儿子拍摄的照片,因为担心苹果会对她的账户进行标记。去年苹果宣布计划扫描iCloud上已知的对儿童的性虐待描述,但在隐私团体的抵制下,该计划被无限期地推迟。

被认为无罪,但“必须自己和谷歌谈”

2021年12月,Mark收到旧金山警察局寄来的信。

信中通知他,他已被调查,以及对谷歌和他的互联网服务提供商的搜查令的副本。一名调查员提供了联系信息,他要求获得马克的谷歌账户中的所有信息,包括互联网搜索记录、位置记录、信息以及他在谷歌存储的文件、照片和视频。

马克给调查员Nicholas Hillard打电话,Hillard却说,这个案子已经结束了。此前他曾尝试联系Mark,但电话号码和电子邮件地址都无法连通。

Hillard在报告中写道:“我确信该事件不符合犯罪要素,没有发生犯罪。”警方在查阅了Mark的谷歌信息后,也表示,这并不能成为虐待或剥削儿童的证据。

Mark问Hillard是否可以向谷歌证明自己是无辜的,这样他就可以拿回他的账户,但Hillard表示,“你必须自己和谷歌谈”

于是Mark再次向谷歌提出上诉,并提供了警方的报告,但无济于事

两个月前,在收到账户被永久删除的通知后,Mark与一位律师讨论了起诉谷歌的问题,以及可能的费用。

Mark表示:“我觉得这可能不值得花7000美元。”

圣约翰大学的法律教授Kate Klonick说,要“考虑到照片中看不见的东西,比如分享图片的人的行为或拍摄者的意图”,这是一个挑战。虽然大多数人会考虑到识别受虐待儿童的好处,但科技公司显然需要一个“强大的程序”来清除和恢复被错误标记的无辜者

谷歌仍然坚持自己的决定

并非所有裸体儿童的照片都是色情、剥削或虐待行为。

北卡罗来纳大学的法律教授Carissa Byrne Hessick说,从法律上界定什么是性虐待的图像很复杂。对于Mark的案例,Hessick也站在警方一边,即医疗图像不符合性虐待条件

在机器学习中,计算机程序通过被输入“正确”和“错误”的信息进行训练,直到它能够区分这两种信息。为了避免标记婴儿洗澡或儿童不穿衣服跑过洒水车的照片,谷歌的人工智能在训练中既使用了谷歌过去在用户账户中发现的潜在非法材料的图片,也使用了不表明虐待行为的图片,以使它更准确地理解应该标记什么。

对于Mark的事,在谷歌任职的Lilley表示,审查人员在他给儿子拍摄的照片中没有发现皮疹或红肿,并在对Mark的账户审查时,发现了一段六个月前的视频,视频中一个年幼的孩子和一个没有穿衣服的女人躺在床上。

Mark表示并不记得自己拍过这段视频,当然他也再也没有机会看到它了,他说这听起来是一个很私密的视频,没有意识到会被其他人观看或评判。

“我可以想象,在一个早晨醒来,我和我的妻子和儿子在一起,我想记录这一刻。如果我们穿着睡衣睡觉就好了,这一切就可以避免了。”

谷歌的一位女发言人说,谷歌仍然坚持自己的决定,尽管执法部门已经为Mark洗清了罪名。

Hessick表示,技术公司与执法部门合作,以解决和根除儿童性虐待问题是十分重要的,但这也应该被允许纠正

“从谷歌的角度来看,直接拒绝这些人使用他们的服务更容易”,否则,该公司将不得不解决更困难的问题,“什么是对孩子的适当行为,然后什么是适当的拍摄或不拍摄”。

但好消息是,Mark有希望取回自己的信息。旧金山警方在一个优盘上保存了他的谷歌账户的内容。Mark现在正试图获得一份副本。

一位警方发言人表示,他们也希望能够帮到他。




上一篇:车企的付费订阅被吐槽,但“正义黑客”就能信吗?

下一篇:CEO被判6年:编写「木马病毒」入侵金融机构,控制设备获利