Facebook吹哨人表明身份:他们牺牲社会利益赚取利润

新浪科技讯 北京时间10月5日下午消息,据报道,一名向美国执法部门举报Facebook的前雇员日前接受CBS《60分钟》栏目采访时表示,她在Facebook目睹了“公众利益和Facebook利益之间的冲突”。
 
她叫弗朗西斯·豪根(Frances Haugen)。事实上自从上个月遭到前员工的匿名举报以来,Facebook一直都想知道这名神秘举报人的身份。
 
举报信显示,Facebook的内部研究表明,这个全球头号社交网络对仇恨心理、错误信息和政治动荡都起到了推波助澜的作用——但他们却对此秘而不宣。
 
其中的一项指控称Facebook旗下的Instagram对青春期少女构成伤害。豪根的这封举报信的破坏力堪称史无前例,原因是她在5月份离职时带走了Facebook的大量内部研究报告。上个月这份文件被媒体曝光。而在10月4日晚间,豪根则通过CBS的《60分钟》节目首次公开了自己的身份,还亲自解释了她为何要充当Facebook不端行为的“吹哨人”。
 
豪根:我在Facebook反复目睹了公众利益与Facebook利益之间的冲突。而Facebook则一次又一次地选择追求自身利益,努力赚钱就是其中最典型的一项。
 
豪根今年37岁,是一位来自爱荷华州的数据科学家,她拥有计算机工程学位和哈佛商科硕士学位。她曾为谷歌和Pinterest等公司效力了15 年。
 
豪根:我见过很多社交网络,从没见过Facebook这么糟糕的公司。
 
主持人:其他人离职以后可能不会“多管闲事”。我想知道你为什么要这么做。
 
豪根:换位思考一下,如果你是我,你知道Facebook内部发生了什么,你还知道外界对此一无所知。我知道如果我继续留在Facebook,我的未来会是什么样子,那就是不断在内部消化这个问题,然后彻底躺平。
 
主持人:你是什么时候把这些文件带出公司的?具体是怎么做的?
 
豪根:2021年的某个时候,我意识到,“我必须采取系统性的方式来做这件事,而且我必须要拿出足够的证据,让这件事情无可置疑。”
 
她偷偷复制了好几万页的Facebook内部研究报告。她说,有证据表明,该公司欺骗公众,让人们以为它在打击仇恨、暴力和虚假信息方面取得了重大进展。她今年发现的一项研究报告里面提到:“我们估计,尽管我们在这方面处于全球顶尖水平,但我们可能只会在对Facebook上3%至5%的仇恨内容和0.6%的暴力和煽动性内容采取行动。”
 
主持人:你提供的另一份文件写道,“我们从各种来源获得的证据表明,Facebook以及旗下的各类应用程序上的仇恨言论、分裂性政治言论和错误信息正对世界各地的社会产生影响。”
 
豪根:当我们生活的信息环境中充斥着愤怒、仇恨、极端的内容时,就会侵蚀民众的信任,侵蚀我们对彼此的信心,侵蚀我们相互关怀的能力,Facebook目前的这种形态正在撕裂我们的社会,并在世界各地引发种族暴力。
 
“种族暴力”包括2018年缅甸军方使用Facebook发动的种族灭绝行动。
 
豪根表示,她于2019年加入Facebook。她加入Facebook是为了打击错误信息,因为她曾因为网络阴谋论而失去了一位朋友。
 
豪根:我从不希望任何人遭受我这样的痛苦经历。确保Facebook呈现高质量信息事关重大。
 
在Facebook总部,她被分配到公民诚信(Civic Integrity)部门,负责处理包括错误信息在内的选举风险。但在美国大选之后,事情却发生了转折。
 
豪根:他们告诉我们,“我们准备解散公民诚信部门。”他们的意思是说,“哦,太好了,我们过了大选这一关。没有发生骚乱。现在可以解散公民诚信部门了。”但几个月后却发生了暴乱。当他们解散公民诚信部门时,我心想:“我不相信他们愿意投入应该投入的资源来防止Facebook变成危险的地方。”
 
Facebook表示,公民诚信部门的工作已分配给其他部门。豪根则表示,Facebook问题的根源在于它在2018年对算法进行的调整——正是这个算法决定了你能在Facebook信息流上看到什么内容。
 
豪根:所以,如果你您坐下来刷5分钟手机,可能只会看到100条内容。但这确是Facebook从成千上万的备选项里面挑选出来的。
 
这套算法根据你过去互动率最高的内容进行选择。
 
豪根:Facebook的这种内容筛选方式存在很多弊端,其中之一就是它会针对我们所参与的内容或引发我们反应的内容进行优化。但它自己的研究表明,仇恨、分裂、极端的内容更容易引发人们的愤怒情绪,而不太容易激发其他的情绪。
 
主持人:错误信息、愤怒的内容——这些都很吸引人,而且……
 
豪根:非常诱人。
 
主持人:……能加强用户的粘性。
 
豪根:没错。Facebook已经意识到,如果他们把算法调整得更加安全,人们在它网站上停留的时间会减少,点击的广告也会减少,他们赚的钱也会减少。
 
豪根说,Facebook明白2020年大选蕴含的危险。因此,它开启了安全系统以减少错误信息——但她说,其中许多变化都是暂时的。
 
豪根:选举一结束,他们就把系统关掉了,或者把设置改回原来的样子。这时的重点是增长,而不再是安全。
 
在我看来,这简直是对民主的背叛。
 
Facebook表示,该公司仍然保留了一些安全系统。但在大选结束后,一些人利用Facebook来组织1月6日的暴乱。检察官引用了一些Facebook的帖子作为证据——包括武装人员的照片以及许多文字内容,例如“赶紧通过子弹或投票来恢复共和吧!”极端分子使用了许多平台,但Facebook是主要阵地。
 
根据豪根保留的内部留言板副本,Facebook员工在袭击发生后情绪激动。“……难道我们没有足够的时间来弄清楚如何在不助涨暴力的情况下管理言论吗?” 我们搜寻其中的积极的评论后,发现了这一条,“我认为我们的领导团队没有无视数据,无视异议,无视真相……”但却引来了这样的回复:“欢迎来到Facebook!我发现你是2020年11月才入职的……我们多年来一直都在目睹……公司领导层不痛不痒的行动。”“……同事们……不能问心无愧地为一家没有采取更多措施减轻平台负面影响的公司工作。”
 
主持人:Facebook本质上放大了人性中最阴暗的一面。
 
豪根:这是这些不幸的后果之一,对吧?Facebook没有人是恶意的,只是激励措施错位了,对吧?问题在于,你看的内容越多,Facebook赚的钱就越多。人们喜欢参与引起情绪反应的事情。他们接触到的愤怒越多,互动就越多,看的内容也就越多。
 
正因如此,欧洲的一些主要政党才投诉Facebook。豪根获得的这份2019年的内部报告称,各方“……强烈认为算法的变化迫使他们在Facebook上的沟通中产生了负面情绪……导致他们采取更极端的政策立场。”
 
主持人:欧洲政党其实是在对Facebook说:你编写算法的方式正在改变我们领导国家的方式。
 
豪根:是的。你在强迫我们采取我们不喜欢的立场,众所周知,这对社会有害。我们知道,如果我们不采取这些立场,就无法在社交媒体行业胜出。
 
她说,有证据显示,Facebook的这种负面影响已经蔓延到Instagram上。
 
主持人:你发现的Facebook内部研究中,有一份谈到了Instagram如何伤害青春期少女。一项研究表明,13.5%的少女表示,Instagram会使强化她们的自杀念头;17%的少女表示,Instagram会使饮食失调更为严重。
 
豪根:Facebook自己的研究表明,当这些年轻女性开始观看这种强化饮食失调的内容时,她们会变得越来越沮丧。这实在令人心痛不已。实际上,这能让她们更多地使用这款Instagram。因此,他们最终进入了这个反馈循环,让她们越来越讨厌自己的身体。Facebook自己的研究表明,Instagram不仅对青少年构成危险,而且还对青少年构成了实实在在的伤害,这种情况比其他社交媒体更为严重。
 
就在上周,Facebook宣布推迟为年幼的儿童创建Instagram帐号的计划。
 
上个月,豪根的律师向负责金融市场执法的美国证券交易委员会(SEC)提交了至少8项投诉。这些投诉将Facebook的内部研究与公司的公众形象进行了对比——主要是其CEO马克·扎克伯格(Mark Zuckerberg)的公众形象,他在3月通过远程方式出席了美国国会的听证会。

dawei

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注