他让Facebook迷上了人工智能。现在他无法纠正错误其信息成瘾
7026字
2021-03-31 08:22
8阅读
火星译客

Facebook人工智能总监Joaquin Quiñonero Candela正在向听众道歉。

就在2018年3月23日,就在披露剑桥分析公司(CambridgeAnalytica)的消息后几天,一家为唐纳德·特朗普2016年总统大选活动工作的咨询公司,暗中从Facebook账户中窃取了千万美国人的个人数据,试图影响他们的投票方式。这是Facebook历史上最大的隐私泄露事件,此前奎尼诺曾被安排在公司召开的“AI、道德和隐私交叉”会议上发言。他考虑取消,但在与他的通讯主管辩论之后,他保留了他分配的时间。

当他走上前去面对房间时,他开始入场。“我刚刚在Facebook度过了我任期内最艰难的五天,”他回忆说。“如果有批评,我会接受的。”

剑桥Analytica丑闻将引发Facebook有史以来最大的宣传危机。更让人担心的是,决定人们在这个平台上看到什么的算法放大了假新闻和仇恨言论,俄罗斯黑客把它们武装起来,试图在选举中对特朗普有利。数百万人开始删除应用程序;员工们在抗 议 中离开;公司的市值在七月的财报电话会议后下跌了1000亿美元。 

在接下来的几个月里,马克·扎克伯格开始了自己的道歉。他为没有对Facebook的责任采取“足够广泛的观点”而道歉,并为自己作为CEO所犯的错误道歉。在内部,首席运营官谢丽尔•桑德伯格(Sheryl Sandberg)启动了一项为期两年的民权审计,以建议公司如何防止利用其平台破坏民主。

最后,Facebook首席技术官迈克•施罗普费尔(Mike Schroepfer)要求奎尼奥诺(Quiñonero)组建一个团队,制定一个有点含糊不清的指令:检查公司算法的社会影响。该组织将自己命名为Society and AI Lab(SAIL);去年,它与另一个致力于数据隐私问题的团队合作,形成了负责任的AI。

奎尼奥诺是这份工作的自然人选。他和其他人一样,是Facebook作为人工智能强国地位的负责人。在Facebook的六年时间里,他创造了一些最早的算法,这些算法针对的是用户,内容完全符合他们的兴趣,然后他将这些算法推广到整个公司。现在他的任务是让他们的危害更小。

 

Facebook一直在指出奎尼奥诺和其他人为修复自己的声誉所做的努力。它定期派出不同的领导人向媒体讲述正在进行的改革。2019年5月,该公司接受了《纽约 时报》对施罗普费尔(Schroepfer)的一系列采访,该公司获得了一个人性化的形象:一位敏感、善意的高管,努力克服从每天数十亿篇的内容流中过滤掉错误信息和仇恨言论的技术挑战。《泰晤士报》写道,这些挑战如此艰难,让施罗普费尔情绪激动:“有时这会让他落泪。”

2020年春天,显然轮到我了。Facebook的人工智能通信总监Ari Entin在一封电子邮件中问我是否想更深入地了解该公司的人工智能工作。在和它的几位人工智能领导人交谈之后,我决定把重点放在奎尼奥诺身上。恩廷高兴地表示感谢。作为负责任的人工智能团队的领导者,同时也是将Facebook打造成人工智能驱动型公司的人,奎尼奥诺是一个可以作为海报男孩的可靠人选。

对我来说,他似乎也是一个自然的选择。自从他在剑桥分析公司丑闻后组建团队以来,人们对Facebook上谎言和仇恨言论传播的担忧与日俱增。2018年末,该公司承认,这一活动在缅甸推动了数年的反穆      斯林种族灭绝运动。2020年,Facebook开始对否认大屠杀者、反瓦克斯主义者和卡农阴谋运动采取行动,行动姗姗来迟。由于奎尼奥诺帮助建立的人工智能能力,所有这些危险的谎言正在转移。支撑Facebook业务的算法并不是为了过滤掉虚假或煽动性的内容;它们的设计目的是让人们尽可能多地分享 和参与内容,向他们展示他们最可能感到愤怒或兴奋的东西。在我看来,解决这个问题就像是人工智能领域的核心责任。

我开始定期给奎尼奥诺打视频电话。我还与Facebook高管、现任和前任员工、业界同行以及外部专家进行了交谈。许多人匿名发言,因为他们签署了保密协议或担心遭到报复。我想知道:奎尼奥诺的团队是如何控制仇恨和谎言的?

Joaquin Quinonero Candela

WINNI WINTERMEYER

但恩廷和奎尼奥诺有不同的议程。每次我试图提起这些话题时,我的发言请求都会被删除或重新定向。他们只想讨论负责任的人工智能团队解决一种特定问题的计划:人工智能偏见,即算法歧视特定的用户群体。一个例子是广告定位算法,它向白人而不是少数民族显示某些工作或住房机会。

到今年1月,数千名暴乱者冲进美国国会大厦时,他们部分是在Facebook上组织起来的,并因有关选举失窃的谎言而火上浇油,这些谎言在整个竞选平台上散播开来,从我的谈话中可以清楚地看到,负责任的人工智能团队未能在反对错误信息和仇恨言论方面取得进展,因为它从未将这些问题作为主要焦点。更重要的是,我意识到,如果它试图这样做,它将被设置为失败。

原因很简单。公司所做和不做的一切都来自一个动机:扎克伯格对增长的不懈渴望。奎尼奥诺的人工智能专业技术推动了这一增长。正如我在报告中了解到的那样,他的团队将目标锁定在人工智能偏见上,因为防止这种偏见有助于公司避免拟议中的监管,如果通过,可能会阻碍这一增长。Facebook的领导层也一再削弱或停止了许多旨在清理平台上错误信息的举措,因为这样做会破坏这种增长。

换言之,负责任的人工智能团队在解决人工智能偏见这一具体问题上所做的工作,无论其优点如何,都与解决更大的错误信息、极端主义和政治两极分化问题基本无关。是我们所有人付出了代价。

“当你从事最大化参与度的工作时,你对真相不感兴趣。你对伤害、分裂、阴谋不感兴趣。事实上,这些都是你的朋友,”加州大学伯克利分校的教授HanyFarid说,他与Facebook合作,以了解该平台上基于图像和视频的错误信息。

“他们总是能把新闻稿发出去。但除了少数例外,我认为这并没有转化为更好的政策。他们从来没有真正处理过根本问题。”

2012年3月,奎尼奥诺拜访了海湾地区的一位朋友。当时,他是微软研究公司英国办事处的经理,领导一个团队,利用机器学习让更多的访问者点击该公司搜索引擎Bing显示的广告。他的专长很少见,而且这个团队成立还不到一年。机器学习,人工智能的一个子集,还没有证明自己能解决大规模工业问题。很少有科技巨头在这项技术上投资。

Quiñonero的朋友想炫耀他的新雇主,硅谷最热门的初创公司之一:Facebook,当时只有8岁,每月活跃用户已经接近10亿(即过去30天内至少登录过一次的用户)。当奎尼奥诺在门罗公园总部转悠时,他看到一位孤独的工程师对网站进行了重大更新,这将涉及微软的繁文缛节。这是对扎克伯格“快速行动,打破现状”精神的一次难忘的介绍。奎尼奥诺对这些可能性感到敬畏。不到一周,他就接受了面试,并签署了加入公司的意向书。

他来的时候再合适不过了。Facebook的广告服务正处于快速扩张之中,当时该公司正在为5月份的IPO做准备。该公司的目标是增加收入,与在在线广告市场占有最大份额的谷歌竞争。机器学习可以预测哪些广告最能引起哪些用户的共鸣,从而使他们更有效,它可能是一个完美的工具。刚开始工作不久,奎尼奥诺就被提升为一个类似于他在微软领导的团队的管理者。

Joaquin Quinonero Candela

WINNI WINTERMEYER

与传统的由工程师硬编码的算法不同,机器学习算法对输入数据进行“训练”,以学习其中的相关性。经过训练的算法,即机器学习模型,可以自动进行未来的决策。例如,一个针对广告点击数据的算法可能会发现,女性点击瑜伽紧身裤广告的频率高于男性。由此产生的模式将为女性提供更多的广告。如今,在Facebook这样一家基于人工智能的公司,工程师们生成了无数个模型,这些模型略有变化,以确定哪一个模型在给定的问题上表现最好。

Facebook的海量用户数据给了奎尼奥诺很大的优势。他的团队可以开发出一些模型,这些模型不仅可以推断出“女性”和“男性”这样的大类,还可以推断出“25岁到34岁之间喜欢与瑜伽相关的Facebook页面的女性”这样的细粒度类别,并将广告定向给她们。目标定位的粒度越细,点击的机会就越大,这将给广告商带来更大的回报。

一年之内,他的团队就开发出了这些模型,以及用于更快地设计和部署新模型的工具。在此之前,奎尼奥诺的工程师们花了六到八周的时间来建造、训练和测试一个新模型。现在只花了一次。

成功的消息很快传开了。致力于确定个人Facebook用户在其个人新闻提要上看到哪些帖子的团队希望应用相同的技术。就像算法可以被训练来预测谁会点击什么广告一样,他们也可以被训练来预测谁会喜欢或分享什么帖子,然后给那些帖子更突出的位置。例如,如果模型确定一个人真的喜欢狗,那么朋友关于狗的帖子就会出现在该用户的新闻提要的更高位置。

奎尼奥诺在新闻提要方面的成功,加上在公司外进行的令人印象深刻的新人工智能研究,引起了扎克伯格和施罗普费尔的注意。Facebook现在只有10多亿用户,是其他社交网络的8倍多,但他们想知道如何继续增长。高管们决定在人工智能、互联网连接和虚拟现实领域投入巨资。

他们创建了两个人工智能团队。一个是FAIR,这是一个基础研究实验室,将提升这项技术的最先进能力。另一个是应用机器学习(AML),它将把这些功能整合到Facebook的产品和服务中。2013年12月,经过数月的讨价还价和劝说,高管们聘请了业内大牌之一的Yann LeCun担任FAIR的负责人。三个月后,奎尼奥诺再次升职,这次是领导反洗钱。(后来改名为FAIAR,发音为“fire”)

“这样你才知道他在想什么。几年来,我总是离马克的办公桌只有几步之遥。”

华金·奎尼奥诺·坎德拉

在他的新角色中,奎尼奥诺建立了一个新的模型开发平台,供Facebook的任何人访问。称为FBLearner Flow,它允许没有人工智能经验的工程师在几天内训练和部署机器学习模型。到2016年年中,超过四分之一的Facebook工程团队都在使用它,并且已经用来培训超过一百万个模型,包括图像识别、广告定位和内容调节模型。

扎克伯格对让全世界都使用Facebook的痴迷找到了一个强大的新武器。团队以前使用过设计策略,比如试验通知的内容和频率,试图更有效地吸引用户。除其他外,他们的目标是增加一个称为L6/7的指标,即在过去7天中有6天登录Facebook的用户所占的比例。L6/7只是Facebook衡量“参与度”的众多方式之一,即人们以任何方式使用其平台的倾向,无论是通过发布、评论、喜欢或分享,还是仅仅看一眼。现在每一个曾经被工程师分析过的用户交互都被算法分析过。这些算法正在创建更快、更个性化的反馈循环,用于调整和定制每个用户的新闻提要,以不断推高订婚人数。

扎克伯格坐在门罗公园总部的主办公室20号楼的中心,他把新的交易会和反洗钱小组安排在他旁边。许多最初的人工智能雇员都离得很近,以至于他的办公桌和他们的办公桌几乎是触手可及的。人工智能组织(Facebook的分支机构,包含所有人工智能团队)的一位前领导说,这是“内部圣殿”,他回忆起这位首席执行官在人们获得或失去他的好感时,把他们从他周围的人中拖来拖去。奎尼奥诺说:“你就是这样知道他在想什么的。”。“几年来,我总是离马克的办公桌几步远。”

随着新的机器学习模型每天上线,该公司创建了一个新的系统来跟踪它们的影响,并最大限度地提高用户参与度。今天的过程还是一样的。团队在FBLearner上训练了一种新的机器学习模式,无论是改变帖子的排名顺序,还是更好地捕捉违反Facebook社区标准的内容(Facebook关于什么是和不允许在平台上的规则)。Krishna Gade在2016年至2018年期间担任news feed的工程经理,她说,然后他们在Facebook的一小部分用户上测试新模型,以衡量它如何改变参与度指标,比如喜欢、评论和分享的数量。

如果一个模型减少了太多的参与度,它就会被丢弃。否则,它将被部署并持续监控。在Twitter上,Gade解释说,他的工程师们每隔几天就会收到一次通知,当喜欢或评论等指标下降时。然后,他们会解释是什么导致了这个问题,以及是否有模特需要再培训。

但这种做法很快引起了一些问题。最大化参与度的模式也有利于争议、错误信息和极 端主义:简单地说,人们喜欢无耻的东西。有时这会加剧现有的政治紧张局势。迄今为止最具破坏性的例子是缅甸的情况,在那里,有关罗兴亚穆     斯林少数民族的虚假新闻和仇恨言论将该国的宗教冲突升级为全面的种族灭绝。在多年淡化自己的角色后,Facebook在2018年承认,它没有做足够的工作“帮助防止我们的平台被用来煽动分裂和煽动线下暴力”

虽然Facebook一开始可能对这些后果一无所知,但到2016年,它正在研究这些后果。该公司研究员莫妮卡•李(Monica Lee)在《华尔街日报》(Wall Street Journal)审查的一份当年的内部报告中发现,Facebook不仅接待了大量极端组织,而且还向其用户宣传这些组织:“64%的极端组织加入都是由于我们的推荐工具,”报告说,主要是感谢“你应该加入的组”和“发现”功能背后的模型。

“领导力的问题是:如果你发现有人处于脆弱的心理状态,我们是否应该优化参与度?”

曾任人工智能研究员,于2018年加入


2017年,长期担任Facebook首席产品官的克里斯•考克斯(Chris Cox)成立了一个新的工作组,以了解Facebook用户参与度最大化是否会导致政治两极分化。研究发现,确实存在相关性,减少两极分化意味着打击参与度。在《华尔街日报》审查的2018年年中的一份文件中,工作组提出了几个可能的解决方案,比如调整推荐算法,为人们提供更多样化的群体。但它承认有些想法是“反增长”的,大多数提议没有进展,特别工作组解散了。

此后,其他员工证实了这些发现。一位在2018年加入Facebook的前人工智能研究人员说,他和他的团队进行了一次又一次的研究,证实了同一个基本观点:最大化参与度的模型会增加两极分化。他们可以很容易地跟踪用户在不同问题上的同意或不同意程度,他们喜欢接触什么内容,以及他们的立场如何因此而改变。不管是什么问题,这些模型都学会了向用户灌输越来越极端的观点。他说:“随着时间的推移,它们的极化程度越来越明显。”。

研究人员的研究小组还发现,倾向于发布或接触忧郁内容的用户——抑郁的可能迹象很容易演变为消费越来越消极的物质,从而有可能进一步恶化他们的心理健康。该团队建议调整这些用户的内容排名模型,以停止单独最大化参与度,这样他们就不会被显示出令人沮丧的东西了。“领导的问题是:如果你发现某人处于脆弱的心态,我们是否应该优化参与?”?“他记得。(Facebook发言人说,她找不到这项提案的文件。)

但是,任何降低参与度的行为,即使是出于不加剧某人抑郁等原因,也会导致领导层之间的许多纠结和支吾。由于他们的绩效考核和工资与项目的成功完成挂钩,员工很快学会了放弃那些受到阻碍的工作,继续按照自上而下的要求工作。

一个由公司领导大力推动的项目涉及预测用户是否会因为一些人已经做过的事情而面临风险:在Facebook直播自己的自杀。这项任务涉及建立一个模型,分析其他用户在视频上线后发布的评论,并提请经过培训的Facebook社区评审人员注意高危用户,这些人可以致电当地应急响应人员进行健康检查。它不需要对内容排名模型进行任何更改,对参与度的影响微不足道,有效地抵御了负面新闻。研究人员说,这几乎不可能,“这更多是公关特技。根据前10秒的视频分析,试图确定是否有人会在接下来的30秒内自杀的效果,你不会很有效。”

Facebook对此表示异议,称参与此项工作的团队已经成功预测了哪些用户存在风险,并增加了健康检查的次数。但该公司并没有公布其预测准确性的数据,也没有公布多少健康检查结果是真正的紧急情况。

与此同时,这位前雇员不再让女儿使用Facebook。

奎尼奥诺在2018年4月创建了SAIL(后来的负责任人工智能)团队时,应该完全有能力解决这些问题。作为应用机器学习主管,他对公司的算法非常熟悉,尤其是那些用于向用户推荐帖子、广告和其他内容的算法。

Facebook似乎也准备认真对待这些问题。尽管之前的工作分散在整个公司,但奎尼奥诺现在被授予了一个集中的团队,他的任务是在人工智能和社会的交叉点上从事任何他认为合适的工作。

当时,奎尼奥诺正在进行自己的再教育,学习如何成为一名负责任的技术专家。人工智能研究领域正越来越关注人工智能偏见和责任问题,例如,一项引人注目的研究表明,一种算法对黑人被告的重新逮捕可能性评分高于因同样或更严重罪行被捕的白人被告。奎尼奥诺开始研究有关算法公平性的科学文献,阅读有关伦理工程和技术史的书籍,并与民权专家和道德哲学家交谈。

Joaquin Quinonero Candela

WINNI WINTERMEYER

在我和他相处的几个小时里,我可以看出他很认真。他在阿拉伯之春(Arab Spring)期间加入了Facebook,这是一系列反对压迫性中东政权的革命。专家们称赞社交媒体传播的信息助长了起义,并为人们提供了组织的工具。奎尼奥诺出生于西班牙,但在摩洛哥长大,在那里他亲眼目睹了言论自由受到的压制,他感到Facebook作为一股向善力量的潜力与之密切相关。

六年后,剑桥分析公司曾扬言要推翻这一承诺。这场争论迫使他正视自己对公司的信心,审视留下来对自己的诚信意味着什么。他说:“我认为,在Facebook工作的大多数人身上发生的事情肯定是我的故事,那就是Facebook和我之间没有界限。”。“这是非常私人的事情。”但他选择留下来,继续领航,因为他相信通过帮助公司扭转乾坤,他可以为世界做更多的事情,而不是把公司抛在脑后。

Quiñonero的老朋友Zoubin Ghahramani是谷歌大脑团队的负责人,他说:“我认为,如果你在Facebook这样的公司工作,尤其是在过去几年里,你会真正意识到你的产品对人们的生活产生的影响,包括他们的想法、他们的沟通方式、他们之间的互动方式。”。“我知道华金非常关心这一切。作为一个努力实现更好和改善事物的人,他看到了他在围绕负责任的人工智能塑造思想和政策方面所能发挥的重要作用。”

起初,SAIL只有5个人,他们来自公司的不同部门,但都对算法的社会影响感兴趣。创始成员伊莎贝尔·克鲁曼(Isabel Kloumann)是一位来自该公司核心数据科学团队的研究科学家,她带来了一种测量人工智能模型偏差的工具的初始版本。

团队还集思广益地讨论了许多其他项目的想法。这位人工智能组织的前领导人出席了SAIL的一些早期会议,他回顾了一项反对两极分化的提议。它涉及到使用情感分析,一种机器学习的形式,在文本中解释观点,以更好地识别表达极端观点的评论。这些评论不会被删除,但默认情况下会被隐藏,并提供一个选项来显示它们,从而限制看到它们的人数。

曾讨论过SAIL在Facebook中可以扮演什么角色,以及它应该如何随着时间的推移而发展,他们的观点是,团队将首先制定负责任的人工智能指导方针,告诉产品团队他们应该做什么或不应该做什么。但希望它最终能成为该公司评估人工智能项目和阻止那些不遵守指导方针的项目的中心枢纽。

然而,前雇员描述说,当这项工作不能直接促进Facebook的增长时,要获得认可或财政支持是多么困难。从本质上讲,团队没有考虑增长,在某些情况下,团队提出的是与增长背道而驰的想法。结果,它得不到多少资源,而且萎靡不振。它的许多想法基本上停留在学术上。

2018年8月29日,情况突然发生了变化。在美国中期选举之前,美国总统唐纳德•特朗普(Donald Trump)和其他共和党领导人纷纷指责Facebook、Twitter和谷歌(Google)存在反保守偏见。他们声称,特别是Facebook的版主,在应用社区标准时,压制保守声音的力度大于压制自由声音的力度。这一指控后来被揭穿,但由特朗普推特推动的“停止偏见”标签在社交媒体上迅速传播。

对特朗普来说,这是在该国主流信息发布渠道散布不信任的最新努力。对扎克伯格来说,这可能会疏远Facebook保守的美国用户,使该公司更容易受到共和党领导的政府的监管。换句话说,它威胁到了公司的发展。

Facebook没有给我一个采访扎克伯格的机会,但此前的报道显示他越来越迎合特朗普和共和党领导层。特朗普当选后,Facebook全球公共政策副总裁、最高级别共和党人乔尔·卡普兰建议扎克伯格在新的政治环境中谨慎行事。

2018年9月20日,在特朗普发布“StopTheBias”推特三周后,扎克伯格与奎尼奥诺举行了自赛欧创立以来的首次会晤。他想知道奎尼奥诺学到的关于人工智能偏见的一切,以及如何在Facebook的内容节制模型中消除这种偏见。会议结束时,有一件事很清楚:AI偏见现在是奎尼奥诺的首要任务。负责人工智能的工程总监拉查德·阿劳(Rachad Alao)于2019年4月加入,他说:“领导层一直非常、非常积极地确保我们积极地扩大规模。”。

房间里的每个人都赢了。扎克伯格有办法避开反保守偏见的指控。而奎尼奥诺现在有了更多的钱和更大的团队,让整个Facebook的用户体验更好。他们可以利用Kloumann现有的工具来衡量和纠正所谓的内容调节模型中的反保守偏见,以及纠正平台上绝大多数模型中的其他类型的偏见。

这有助于防止平台无意中歧视某些用户。到那时,Facebook已经有数千个模型同时运行,而且几乎没有一个模型被测量为偏差。这将使它在几个月后与美国住房和城市发展部(HUD)陷入法律纠纷,后者声称,该公司的算法是从用户数据中推断出种族等“受保护”属性,并向他们展示基于这些属性的住房广告,这是一种非法的歧视形式。(诉讼仍悬而未决)施罗普弗还预测,国会将很快通过法律来规范算法歧视,因此Facebook无论如何都需要在这些努力上取得进展。

(Facebook对这样一种观点提出异议,即它在人工智能偏见方面的工作是为了保护增长,还是为了监管。一位发言人说:“我们建立了负责任的人工智能团队,因为这是正确的做法。”

但将SAIL的关注点缩小到算法公平性上,将使Facebook的所有其他长期存在的算法问题处于次要地位。它的内容推荐模式将继续向用户推送帖子、新闻和群组,以最大限度地提高参与度,奖励极端主义内容,并促成日益分裂的政治话语。

扎克伯格甚至承认了这一点。在与奎尼奥诺会面两个月后,他在一份概述Facebook内容节制计划的公开说明中,用一个简化的图表说明了公司参与战略的有害影响。研究表明,帖子越有可能违反Facebook的社区标准,用户参与度就越高,因为参与度最大化的算法会奖励煽动性内容。

FACEBOOK

但随后他又展示了另一张具有相反关系的图表。扎克伯格写道,与其奖励那些接近违反社区标准的内容,Facebook可以选择开始“惩罚”它,让它“更少的分发和参与”,而不是更多。怎么做?更多的人工智能。他说,Facebook将开发更好的内容控制模型来检测这种“边缘内容”,这样就可以追溯到新闻提要中的较低位置,以扼杀其病毒性。

A chart titled "adjusted to discourage borderline content" that shows the same chart but the curve inverted to reach no engagement when it reaches the policy line.

FACEBOOK

问题是,尽管扎克伯格做出了种种承诺,但这一战略充其量也是脆弱的。

错误信息和仇恨言论不断演变。新的谎言冒出来;新的人和团体成为目标。为了在病毒传播之前捕获内容,内容调节模型必须能够高精度地识别新的不需要的内容。但是机器学习模型不是这样工作的。一个已经学会识别否认大屠杀的算法不能立即发现,比如说,否认罗兴亚种族灭绝。在学习过滤一种新内容之前,它必须接受数千个,甚至数百万个例子的训练。即便如此,用户也可以通过改变帖子的措辞,或者用委婉语取代煽动性的短语,让自己的信息对人工智能来说难以辨认,而对人类来说仍然显而易见,从而很快学会超越这个模型。这就是为什么新的阴谋论会迅速失控,部分原因是,即使在这些内容被禁止之后,各种形式的阴谋论仍能在平台上持续存在。 

在《纽约  时报》的简介中,施罗普费尔提到了公司内容节制策略的这些局限性。《泰晤士报》写道:“每次施罗普费尔先生和他的150多名工程专家创造出一种人工智能解决方案来标记和压制有害物质时,就会出现人工智能系统以前从未见过的新的、可疑的帖子,因此不会被发现。”。施罗普费尔在接受媒体采访时说:“它永远不会归零。”。

同时,推荐这些内容的算法仍然可以最大限度地提高参与度。这意味着,每一个逃脱了内容审查过滤器的有毒帖子都将继续被推到新闻提要的更高位置,并被提升到更大的受众群中。事实上,纽约大学最近的一项研究发现,在党派出版商的Facebook页面中,那些经常发布政治错误信息的出版商在2020年美国总统大选和国会大厦骚乱之前的参与度最高。一位曾在2018年至2019年从事诚信问题工作的前员工说:“这让我有点受不了了。”。“我们完全承认这一点,但我们仍在增加参与。”

但奎尼奥诺的帆船队并没有解决这个问题。由于卡普兰和扎克伯格对疏远保守派的担忧,研究小组继续关注偏见。即使在它并入更大的负责人工智能团队之后,它也从未被授权开发可能限制错误信息传播的内容推荐系统。在恩廷和另一位发言人给了我一份完整的名单,上面列出了Facebook在诚信问题上的所有其他举措之后,我证实了没有任何其他团队,这是Facebook对错误信息、仇恨言论和两极分化等问题的总称。

Facebook的一位发言人说:“这项工作不是由一个特定的团队来完成的,因为这不是公司的运作方式。”她说,这项工作是由那些拥有特定专业知识的团队来完成的,这些团队负责处理内容排名如何影响他们所在平台的错误信息。但施罗普弗在早些时候的一次采访中告诉我的恰恰相反。我问过他为什么要建立一个集中负责的人工智能团队,而不是指导现有团队在这个问题上取得进展。他说这是公司的“最佳实践”。

他说:“(如果)这是一个重要领域,我们需要在这一领域快速推进,这一领域没有很好的界定,(我们建立)一个专门的团队,并获得正确的领导。”。“随着一个领域的发展和成熟,你会看到产品团队承担更多的工作,但仍然需要中心团队,因为你需要跟上最先进的工作。”

当我向其他人工智能伦理和人权方面的专家描述负责任的人工智能团队的工作时,他们注意到该团队正在解决的问题与Facebook最臭名昭著的错误信息等问题之间的不一致。Rumman Chowdhury的初创公司Parity为公司提供人工智能的负责任使用建议,他在接受我们的采访后被Twitter收购。我给乔杜里看了奎尼奥诺小组详细说明其工作的文件。她说:“我感到惊讶的是,我们将谈论包容性、公平性、公正性,而不是谈论今天发生的真正问题。”。

“似乎‘负责任的人工智能’框架完全取决于公司决定要关心什么。“这就像‘我们先编好条款,然后再执行,’”Ellery Roberts Biddle说,他是Ranking Digital Rights的编辑总监,这是一家研究科技公司对人权影响的非营利组织。“当他们谈论公平时,我甚至不明白他们的意思。他们认为建议人们加入极端组织,比如那些袭击国会大厦的组织,公平吗?如果每个人都得到了推荐,这是否意味着这是公平的?”

Biddle补充道:“我们所处的地方有一个(缅甸)种族屠杀事件,联合国有大量证据,能够特别指出Facebook和该平台推广内容的方式。”。“赌注能提高多少?”

在过去的两年里,奎尼奥诺的团队建立了克鲁曼最初的工具,称为公平流。它允许工程师测量不同用户组的机器学习模型的准确性。他们可以比较不同年龄、性别和肤色的人脸检测模型的准确性,或者不同语言、方言和口音的语音识别算法的准确性。

公平流还附带了一套指导原则,帮助工程师理解培训“公平”模型意味着什么。使算法公平的一个更棘手的问题是,公平有不同的定义,这可能是相互不兼容的。公平流列出了工程师们可以使用的四个定义,根据这些定义,哪一个最适合他们的目的,比如一个语音识别模型是以相同的准确度识别所有口音,还是以最小的准确度阈值识别所有口音。

但在Facebook,测试算法的公平性在很大程度上仍然是可选的。直接在Facebook的新闻提要、广告服务或其他产品上工作的团队都不需要这样做。薪酬激励仍然与敬业度和增长指标挂钩。尽管在任何特定情况下都有关于使用哪种公平定义的指导方针,但它们并没有得到强制执行。

 最后一个问题在该公司不得不处理反保守偏见的指控时凸显出来。 

2014年,卡普兰从美国政策主管晋升为负责政策的全球副总裁,他开始在内容审核和决定如何在用户新闻源中对帖子进行排名方面扮演更为严厉的角色。2016年共和党人开始发表反保守偏见的言论后,他的团队开始手动审查错误信息检测模型对用户的影响,以确保他们不会过分惩罚保守派。

所有Facebook用户的个人资料中都有大约200个“特征”。这些包括用户提交的或机器学习模型估计的各种维度,如种族、政治和宗教倾向、社会经济阶层和教育水平。卡普兰的团队开始使用这些特征来组合反映大部分保守兴趣的定制用户群:例如,那些从事保守内容、组和页面的用户。然后,他们会进行特别分析,看看内容适度的决定会如何影响这些部分的帖子,据一位前研究人员说,他的工作受到这些评论的影响。

负责的人工智能团队稍后编写的公平流文档中包含了一个关于如何在这种情况下使用该工具的案例研究。研究小组写道,在判断一个错误信息模型在政治意识形态方面是否公平时,“公平”并不意味着该模型应该平等地影响保守派和自由派用户。如果保守派发布的错误信息比公众一致认为的要多,那么该模型应该标记出保守派内容的更大比例。如果自由主义者发布更多的错误信息,它也应该更频繁地标记他们的内容。

但是卡普兰团队的成员却采取了完全相反的方法:他们认为“公平”意味着这些模式对保守派的影响不应超过对自由派的影响。当模型这样做时,他们会停止部署并要求更改。这位前研究员告诉我,有一次,他们封锁了一个医疗错误信息探测器,这明显减少了抗疫苗运动的范围。他们告诉研究人员,直到研究小组修正了这个差异,这个模型才能被应用。但这实际上使模型失去了意义。“那就没有意义了,”研究人员说。以这种方式修改的模型“实际上对错误信息的实际问题没有影响”。

“当他们谈论公平时,我甚至不明白他们的意思。他们认为建议人们加入极端组织,比如那些袭击国会大厦的组织,公平吗?如果每个人都得到了推荐,这是否意味着这是公平的?”

Ellery Roberts Biddle,《数字权利排名》编辑总监


这种情况发生了无数次,不仅仅是为了内容节制。2020年,《华盛顿  邮报》报道说,卡普兰的团队破坏了缓解Facebook内部选举干扰和两极分化的努力,称他们可能助长反保守偏见。据《华尔街日报》报道,2018年,该公司用同样的理由搁置了一个编辑Facebook推荐模型的项目,尽管研究人员认为这将减少平台上的分歧。他对政治偏见的说法也削弱了一项修改新闻提要排名模型的提议,Facebook的数据科学家认为,这将加强该平台,对抗俄罗斯在2016年美国大选期间使用的操纵策略。

据《纽约 时报》报道,在2020年大选之前,Facebook的政策主管们利用这个借口否决或削弱了几项原本可以减少仇恨和破坏性内容传播的提案。

Facebook在随后的博客文章中反驳了《华尔街日报》的报道,并在接受《纽约 时报》采访时对其定性提出了质疑。卡普兰团队的一位发言人也向我否认了这是一种行为模式,他说《邮报》、《华尔街日报》和《泰晤士报》报道的案例“都是我们认为当时被错误描述的个别案例”。他拒绝就重新培训错误信息模型一事发表评论。  

许多这样的事件发生在公平流被采纳之前。但是,他们展示了Facebook在为增长服务中追求公平的过程中,已经付出了巨大的代价来应对平台的其他挑战。如果工程师们使用卡普兰团队所采用的公平定义,公平流可以简单地将奖励错误信息的行为系统化,而不是帮助打击错误信息。

通常,“整个公平的事情”只是作为维持现状的一种方便的方式发挥作用,这位前研究人员说:“这似乎与马克在公开场合所说的公平和公正的话背道而驰。”

我最后一次和基尼奥诺谈话是在美国国会大厦骚乱一个月后。我想知道国会的风暴是如何影响他的思想和工作方向的。

在视频通话中,一切如常:奎尼奥诺在一个窗口从家里办公室拨通电话,他的公关经理恩廷在另一个窗口拨通电话。我问奎尼奥诺,他觉得Facebook在骚乱中扮演了什么角色,它是否改变了他所看到的负责人工智能的任务。在长时间的停顿之后,他回避了这个问题,开始描述他最近为促进人工智能团队的多样性和包容性所做的工作。

我又问了他这个问题。他的Facebook门户摄像头使用计算机视觉算法来跟踪说话人,当他长得一动不动时,开始慢慢放大他的脸。“我不知道我对这个问题有一个简单的答案,凯伦,”他说。“这是一个非常难问的问题。”

安廷,他一直用一张结实的扑克脸快速踱步,抓住了一个红色的压力球。

我问奎尼奥诺,为什么他的团队之前没有考虑过如何编辑Facebook的内容排名模型,以压制错误信息和极端主义。他告诉我这是其他团队的工作(尽管我证实,没有一个团队被授权完成这项任务)。“负责任的人工智能团队自己研究所有这些东西是不可行的,”他说。当我问他是否会考虑让他的团队在未来处理这些问题时,他含糊其辞地承认,“我同意你的看法,那将是此类对话的范围。”

在我们长达一个小时的采访接近尾声时,他开始强调,人工智能经常被不公平地描绘成“罪魁祸首”。他说,不管Facebook是否使用人工智能,人们仍然会吐出谎言和仇恨言论,这些内容仍然会在整个平台上传播。
 

我又按了他一次。我说,他肯定不相信算法对改变这些问题的本质毫无作用。

“我不知道,”他结结巴巴地说。然后他更坚定地重复道:“这是我诚实的回答。对上帝诚实。我不知道。”

更正:我们修改了一句话,说Facebook全球政策副总裁乔尔卡普兰(joelkaplan)使用了公平流。他没有。但他的团队成员利用公平的理念,要求以直接违背人工智能指导方针的方式对错误信息模型进行再培训。我们还澄清了负责人工智能的工程总监Rachad Alao加入公司的时间。

0 条评论
评论不能为空