编者按:本文来自“腾讯科技”,审校:承曦,36氪经授权转发。
包括脸书在内的社交网络公司,因为各种极端主义、网络仇恨、灰色内容引发了全球舆论的担忧,被认为给人类社会带来一定的负能量。社交网络正在采取各种措施,加强用户内容监管和删除。据外媒最新消息,周四,脸书公司周四公布了其与外部专家就用户内容审查过程进行磋商后得出的结论,让外界得以一窥其拟议设立的“外部用户内容监督委员会”计划如何实施。
据国外媒体报道,在过去6个月里,脸书一直在88个国家地区的不同研讨会上征求650多人对内容监管委员会计划草案的反馈意见。
该公司表示,内容监管委员会将成为脸书公司一个独立的“上诉法院”,就有关删除用户内容的纠纷和争议做出最终裁决。简而言之,一些涉嫌争议的用户帖子或视频是否需要删除,将由这个独立的委员会定夺。
之前,脸书首席执行官马克·扎克伯格表示,在脸书旗下各种社交网络产品上,用户到底可以发表怎样的内容,这个决定权不应该完全由社交网络公司来决定,政府部门也应该发挥影响力。
需要指出的是,在用户内容监管上遭到外部质疑和批评的社交网络公司,除了脸书之外,还有推特、谷歌旗下YouTube等平台。之前,因为平台上出现大量极端主义视频,许多广告主对YouTube发起了抵制活动,YouTube被迫对用户原创视频加强了监管和删除。
脸书旗下拥有脸书、WhatsApp、Instagram、Messenger等四大用户超过十亿人的社交工具,这样庞大的用户规模,让脸书在用户内容上的监管举措引发了舆论的高度关注。
周四,脸书也表示,将会在八月份确定内容监管委员会的章程。
根据脸书周四公布的报告,与会者在研讨会上普遍认为,脸书员工不应该成为内容监管委员会的成员。他们表示,该公司也不应无缘无故地解除委员的职务,并应对解除委员职务的原因给出明确的定义。
其他受欢迎的建议包括,监管委员会应当能够选择自己详细“审判的案件”,并且通过一些先例为后续的用户内容纠纷提供裁决的指引。
另外,内容监管委员会应该有权影响脸书的内容政策。
据国外媒体报道,与会者对监管委员会的独立性表达了担忧,即未来是否能够保证不受到脸书公司或者美国政府部门的影响。
长期以来,脸书一直面临批评,称其在屏蔽仇恨言论、煽动暴力、欺凌和其他违反其“社区标准”的内容方面做得太少。
在过去一年里,该公司加大了这些标准的执行力度,雇佣了三万多名员工来监控用户发表的内容,并专注于改善平台“安全和保障”,据称,这些审核内容的员工很多是低薪的外部承包商。
今年初,新西兰一座城市的两座清真寺发生了枪击事件,枪手射杀了大量民众,并且在脸书视频直播服务进行了现场直播,相关的视频也大量上传到了YouTube网站。
这一事件引发了全球震惊,社交网络公司再一次面临舆论的拷问。