YouTube 打算仿照 Twitter 的做法,在用户发送可能会伤害到别人的言论前,再三思考是否真的要将它公开出来。
YouTube 称这项新的机制不会阻止用户对视频内容发布留言,仅仅是提醒一下,要不要继续发布依然取决于用户自己,并且这样的提醒也不会在用户每次留言时都会出现,只有系统判断该发言内容可能有问题时,才会提醒用户多考虑一下。
对于创作视频内容的 YouTuber,YouTube 则会在它的后台——也就是 YouTube Studio——推出增强版的留言过滤系统,新的系统会自动表示不适当的言论,并给予创作者进一步审核,决定它是否继续存在于视频的留言区域。
目前这项功能已经向美国的 Android 版用户推出,日后再扩展到其他平台和国家。
根据 YouTube 统计数据,目前官方“每天”通过自动过滤机制删除的仇恨言论为 2019 年初的 46 倍。上一季,YouTube 封锁了全球 180 万个频道,其中有 54000 个涉及仇恨言论,这也是 YouTube 历来最多的一次,相比 2019 年初更是增加了 3 倍。
为了深入了解各种同温层对于创作者和观众的影响力,YouTube 也会从明年开始,要求用户自愿提供性别、性取向和种族等较为隐私的信息。这可能是由于之前 LGBTQ 族群指控 YouTube 通过演算法,减少推荐此类内容给观众的争议有关。YouTube 还希望通过这些信息,用来寻找可能的仇恨、骚扰与歧视模式。
至于收集个人信息的隐私疑虑,YouTube 承诺只会用于公司内部研究,用户可以随时选择删除,并且不会用于任何跟广告相关的目的。