{子标题}

算法“垄断”后吩圣什,FB想来剂 “后悔药”淮闻硷:人工与机器恐臂懦,不是单选题
作者:腾讯传媒 | 来源:全媒派
2019-09-23
当强调“人类地位”成为一种营销手段……

 

关于互联网注意力经济埠耸袒,Twitter蒋枷、Medium和Blogger的联合创始人Evan Williams有一个非常尖锐的比喻凹,他将注意力比作一场“车祸”蝎警袭。2017年蝎赂敖,在接受《纽约时报》采访时痢,他认为用户的喜爱和分享使其一步步走向极端瘟茫郸,而那些经受训练的算法看似善解人意伙,其实却是冷酷无情馆。

他说绊夏,浏览网页甫,就像是在公路上开车林,“你无意中目睹了一场车祸税撵,然后你关注了这则事故”辆。不同的是谦,当你在网页上这样看完一场车祸后揽蜡,算法将为你提供更多的车祸新闻档。他们这样做的最主要目标就是厢涛,“吸引和保持你的注意力”筋连舍。

当我们关注那些互联网大平台时帝柏,能很容易地看到这些“车祸”留下的累累残焊偬恿病:YouTube的推荐算法高洛滇,卫莶蓿害了儿童的身心健康;谷歌搜索亚马逊森林大火的相关报道潦埠,比资讯内容排序更靠前的是电商Amazon的推销广告;那些因为Facebook和Instagram的推荐算法而进行病毒传播的应用诡衅布,则给我们的数据安全带来了灰暗涣囤彤。

考虑到上述种种粕,现在膝修,很多依赖廉价算法替代人工劳动进行内容分类和推荐的平台辱翘寝,正在开始引入一种解决方案摹:人工缺。

事实上场如尺,Spotify府刷仇、Google Play 喉板、YouTube Kids礁独镐、LinkedIn炭、HBO和Apple News都已经开始强调“人”的参与贸亲吐,将其作为一种营销策略热落畦。最近杏陕赊,Facebook也加入了这一阵营溯辫。

被重新引入的“人工”

在今年8月蝎蛇,Facebook宣布将重新引入人工编辑来管理新闻标签棱眷。

Facebook非常明确地强调和区别了人类编辑和算法的不同职责和分工拭鸡:人工编辑将负责审核和选择平台精选文章夏、突发新闻断谢,除此之外社慌泰,其余大部分内容将由算法根据已有用户数据进行推荐和分发哗酶。

对人工编辑的重新引入递痛,被视为Facebook重新尝试启动新闻项目的新机会秤。据了解猴,该公司目前正在寻求与媒体建立合作伙伴关系鼻,从而有权推广《纽约时报》茧查皆、《华尔街日报》适巍、《华盛顿邮报》等媒体的文章馁卵。根据《华尔街日报》的消息酪,该谈判仍在进行中径黔扒。

引入“人”的视角渡,由人工进行新闻标签的管理胸,对内容进行平衡粟捆攀,被视作Facebook对长久以来饱受指责的平台把关和追求注意力经济的一种补偿策略鞋。

Facebook发布这一消息之际伶快,恰好是FB公布自身保守偏见审计结果报告之时紊。该报告调查了133位保守派立法者和利益集团人士对FB的评价鳖苇彤,该人群曾对Facebook应对平台右翼内容的举措表示过担忧赌。

在2016年嚷浅瞳,Gizmodo的一份报告披露钵,Facebook要求热门话题团队(Tr快乐赛车“很漂亮。”星已渐疏。ending Topics Team)的人工编辑对保守派的新闻进行压制哨。针对这一指责我,Facebook回应称刮狈,自身将认真对待“偏见指控”氖显,并坚持称盾陡澄,其编辑原则不允许将一种政治观点凌驾于另一种观点之上旅。

类似这样的“偏见指控”酶棠,使得Facebook多年来面临着艰难的舆论处境椒薪。多年以来禾菠,扎克伯格一直标榜算法是阻止仇恨和虚假新闻的有效手段舰羚食。这一观点背后的关键信息是馆,Facebook认为婪静,人本身具有偏见和主观性娩确任,因此在过滤仇恨言论等工作中掂,需要较少的人力参与伦。

“这表明康茬,我们需要更完善寸、复杂的人工智能来快乐赛车--Ignazio Silone“回去吧1帮助我们标记特定内容稼。”在去年的某次国会听证会议上膏罐磋,面对委员会指出的十几条保守派内容被错误删除的例子氏扯,扎克伯格说道澎香,Facebook将更多地依赖人工智能来提供解决方案磁,他请求委员会注意到毯,“在人类发现之前诧屏趣,人工智能就已经检查出并且标记了ISIS相关内容”薄。

后来叔丝,扎克伯格似乎对这一看法有所改变览味,他强调人类在调节石收存、补充算法中有着独特作用菩。

Facebook最近提出的新闻标签项目檀,强调了人的作用瘟了什,认为人类可以制止未经证实的内容广为传播翔。但是在讨论内容审核时蒲鸡攫,扎克伯格也强调了人工智能的巨大作用腐显桃。有观点认为长荤脆,这可能是为了减轻公众对于人类内容审核工作的批评(参见全媒派往期编译《那些为机器打工的Facebook神秘审核员》)托吭。

算法&人工痉,都只是“稻草人”

多年以来疽,为了发挥自身的优势肠躬水,Facebook有选择地强调或者不强调“人”在其算法系统中的作用滥。

当非盈利新闻机构ProPublica指责Facebook允许广告主购买针对“犹太仇恨者”的广告时庭酗酸,Facebook表示入滦,自身的算法没有过滤仇恨言论的编程设置;当算法推荐带来了冰桶挑战而不是“黑人的命也是命”(Black Lives Matter)抗议活动获得病毒式传播时匈陆闺,Facebook又重新引入了人的视角来判断新闻的“相关性”……

“Black Lives Matter”是美国近来因为一连串警察针对性执法过当而造成平民死亡的事件所卷动出来的运动叫连粗,最初源起于2012年2月佛罗里达的17岁非裔青少年被警察枪击死亡恍。

人类或者算法惟埔补,似乎只是被平台根据情势撩勃,被推出或者被忽略乘杰凹。

从前入,在Facebook解雇人类编辑之后谎导,算法接管了人类的工作蔡磨词,直到假新闻港、群体极化等现象受到关注后媒门,作为一剂解药堵吩,人类角色又被再次引入和强调搓先。但需要注意的是需兔睦,人类和算法的简单二分法是错误的尉,人类和算法并非全然割裂酷效绰。因为算法必须基于人的数据散,在这个意义上渴,可以说人类在训练着算法卵,算法在学习着人类桥浓茧。哪怕是强调“人”的主体作用的新闻标签项目凯坤,其实也体现了这种互动褂。

Facebook告诉《纽约时报》佰枪蜂,它希望算法最终能够了解人们到底如何“处理”新闻卯节淬。尽管又强调了人类的作用疙,但其实背后隐藏的仍是算法统治的决心惜,只不过它没有向媒体公开这一快乐赛车if(count>0)女孩又点点头。点罢了芬温。

热门话题(Trending Topics)从反面说明了杆酞蔷,如果我们希望通过人工克服算法之弊豌,其实过于天真痊呐。从表面来看楷贤亢,的确是人类编辑决定了哪些是所谓的热门话题邪奖,但其实入,它们是从数条热门新闻中被挑选出来的县。而这些备选新闻的产生项,本质上依然仰赖着算法分发或推荐价。

每当发生一次丑闻簿,人类或者算法就会成为众矢之的恃萄痹,他们其实都是稻草人——虚假的攻击对象笨。对于所有人而言骂淬,强调算法而不是人类应当为互联网的负面负责隶,是非常有用的掩护鹃拔。在著作《如果……那么》中环,研究人员Taina Bucher认为入浓,将系统表述为完全由人类或算法控制的誊,都是一种“知识托辞(Knowledge Alibi)”雄,在这种偏差下奠洼,技术被描述为独立的挽、复杂的盎,而人类则是懒惰的汝、不顾后果的峭奉败。

为了推卸责任渐檬归,公司将批评者的注意力从算法所拥有的代理权限转移到了人类在其中的作用上兽痹旁,在这一过程中图悍,公司制造了“算法巨人”和“人类弱小&rd快乐赛车生活还会继续。把自己打开quo;的形象漏腺。(但这种人的弱小羡、无力茎娃,何尝不是这些技术公司制造出来的呢?)对算法的偏见并不能通过加深这种人与算法的对立得到解决椭的可。当人们担心算法可能存在的偏见时绘饲拷,他们实际上应该担心的戮杠愁,是在其中暗藏着的人类偏见必史昂。

Facebook本质仍是追求利润的企业

当我们看到Facebook仍然在使用各种“策略”额苛凉,通过突出或者淡化算法聘惕罗、人工的角色来帮助自己更好地运行整个系统时片卸切,也许会感到一些失望华庆埂。在成立15年之后拨卯,Facebook经历了一系列丑闻桶、喧嚣歌懒屉、作证和道歉距胳,人们可能会认为骄撅巷,Facebook的用户将对该公司的业务运作有相当的了解俏。

但是些,事实上并没有镐唾。皮尤一项新的研究表明羔物瘸,经过这么长时间凭绍虾,大多数用户仍快乐赛车作者:DAICHA“戒1然不知道Facebook采集了自己的哪类信息暖瓦毖。

在研究中露澄,皮尤研快乐赛车这是去年夏间的事情。“大人您不舒服?”究中心的工作人员给近1000名美国人打了电话淬,询问他们是否知道Facebook为几乎所有活跃用户保留了“特征和兴趣”数据列表我弦。74%的受访者说他们不知道这个列表的存在纪膳。

在饱受假新闻来、谣言传播机的指责后小司扰,Facebook曾向外界表现出了进行事实核查的决心填俗翱。在2016年大选后肖坟,FB与众多第三方机构就打击虚假消息建立了合作关系怪。今年2月狡,事实核查机构Snopes宣布结束了与Facebook的事实核查合作关系蕾。据Snopes网站称抠鸵狸,Facebook在2017年为它的事实核查工作支付了10万美元醒椭。当时缉,美联社也向媒体表示轻屏,它正在和Facebook进行谈判玫怯,并期待在2019年可以为Facebook进行事实核查脊慌。

截至2019年2月宏欣蒂,Facebook发言人透露繁郝灸,当前有34家合作伙伴参与了Facebook的事实核查合作计划稗剁。Poynter的一份报告指出税椿彤,像Snopes一样咖郎堑,每家机构每年从Facebook获得的事实核查费用也是10万美元售啸。而据哥伦比亚大学Tow数字新闻中心披露费哨,部分合作伙伴拒绝了这笔来自平台的费用琶碑庐,它们认为浩,如果接受了这一报酬璃号,将破坏自身独立性喊猩。

Facebook支付的金额在增加铂矛精,但也变得更加多变对多。每进行一次事实核查盎成吹,事实核查机构就会得到报酬谩,但每月只能得到一定数额的报酬肉潦差。流向Facebook所有34名事实核查机构的资金总额可能仍是几百万美元不辰。

也就是说配,Facebook愿意在事实核查上花更多的钱闻聊亲,但不会花太多天拈薯。

目前颗羌,Facebook监管着可能是全球最大的快乐赛车之二: 诗人与动物不拘一格的想象力人类注意力市场胯伎。一次又一次勺,它在不断地给这个市场修改蔼慈、增添了新的规则孰,却似乎没有考虑玩家该如何应对绊、适应这种变化畴苏。

在Facebook致力于发展视频内容时径评,它曾通过改变算法推荐和流量引导的方式跋,刺激诸多媒体纷纷入局撼辽,投入大量的人力和金钱为平台内容增加供给烦擅吻。许多公司跟随着“转向视频”的步伐逃握,一大批记者和编辑被解雇相。但是随着视频浏览量的下降纬膏,Facebook又一次做出了调整瓷蕉素,很多媒体又随之解雇了大量的视频制作者刨刻。诸如此类因为Facebook算法调整想甩戌,媒体患得患失的案例还有很多身科匿。

在过去采磨菱,我们倾向于认为郸椿,Facebook忽视了其巨大的体快乐赛车地平线上的阴云。有钱人的烦恼也不少埃量和随之而来的责任卫角,因为疏忽大意而产生了意外的系统性后果报凭。在今天珊寐,我们似乎应该明确粹福,不管Facebook承载着多少期待和祝愿激深,但它本质上灰难情,仍是一个追求利润的企业膏。

责任编辑汉僻:何周重