最近两个月 MIT Technology Review 和 Buzzfeed 各有一篇采访 Facebook 多位员工的长文,从算法和组织结构角度介绍了 Facebook 在内容审核方面的争议做法。

算法方面,Facebook AI 团队 2019 年创建了 Fairness Flow 内容审核程序,但 Joel Kaplan 领导的高管团队发现审核对保守用户的帖子影响更大,于是要求模型必须对保守和自由用户的影响相同。可问题在于,如果你相信信息确实有真假之分,那么保守用户确实更多地分享假信息(“假信息”由记者和学者标注)。一个审核不实信息的模型要对保守和自由用户影响相同,根本不可能。(当然,前提是你认为信息一定程度上有绝对的真假。)

打个比方,Facebook 和中文社交网络一样,也是老年人分享不实信息更多。一个审核“喝糖水降血压”这种文章的模型,肯定对老年用户的影响比对年轻用户要大。

另外一篇文章讲的是 Facebook 组织架构带来的冲突。Facebook 负责内容政策和负责政府关系的同一个人(Joel Kaplan)。Kaplan 和保守派关系很好,Brett Kavanaugh 听证会他坐 Kavanaugh 正后方。同一人负责内容和对外关系,很容易出现内容政策与对外策略冲突的情况。Buzzfeed 引用多位员工,介绍了几个 Kaplan 为保护公司对外利益而推翻现有内容审核程序的故事。

文章一:http://t.cn/A6t8iscR

文章二:http://t.cn/A6t8isc8

论文一(图一):http://t.cn/Aid2SmzB #科技圈大小事
 
 
Back to Top