近日谷歌公开表示将继续使用机器学习技术开发高级程序,旨在打击极端主义内容。通过一段时间的测试证明,人工智能确实能够更快、更精准的清理YouTube上的非法内容。下面上海谷歌推广小编带大家深入了解一下谷歌的这项实验。
据上海谷歌代理商了解到,七月谷歌正式发布了人机协作计划“PAIR”(People + AI Research),该项目主要由谷歌大脑团队的研究员Fernanda Viégas和Martin Wattenberg带队,为AI开发者提供新工具,希望能让AI技术对每个人都带来好处。
将AI作用于YouTube,主要是让机器学习和人类审查人员分工合作,作为跨部门途径的一部分,解决YouTube上出现的极端主义和争议性视频内容。此外还要为视频设立更加严格的审核标准,聘请更多人力对审核的内容进行标记。英国内政部呼吁科技公司还需要开展更多的工作打击极端主义内容,而谷歌旗下的YouT也表示利用机器学习系统,这一问题得到了很大的改善。
YouTube发言人表示,“最初我们使用机器学习来排除暴力极端主义内容,数据表明是人类排除数量的两倍。而在减少此类内容的速度上,机器同样是我们的两倍。过去一个月内,有超过75%的暴力视频内容被清理。”尽管这些工具还不完美,也无法匹配所有的设置,但是实验过程证明了这一系统能够比人类更加准确地标记出需要删除的视频内容。
YouTube方面也表示,目前在监管非法内容时遇到了一个问题,用户上传的内容极大,速度达到了每分钟400小时,对于实时过滤极端主义内容工作,这无疑是一项巨大的挑战。目前Youtube已经和15个NGO和机构合作,包括反诽谤联盟、无仇恨言论运动(the No Hate Speech Movement)和战略对话研究所,旨在提升对极端主义内容的理解,从而更好的处理这些视频内容。
谷歌将对视频内容执行更加严苛的标准,这些视频可能包含令人反感却不违法的内容。尽管Youtube上有些内容会被标记为不适当,但是这并不违反公司对仇恨言论或暴力极端主义的政策,因此这些内容会被放置于“被限制的区间”。
上海谷歌推广代理商在思考,谷歌会如何处理这些被限制的内容?一位YouTube发言人表示,“这些视频依然会留在YouTube的插页式广告中,不会被推荐,也不会有盈利,更不会有评论、推荐、喜欢等关键功能。”作为预防激进主义的一部分,YouTube也开始对某些视频页面的特定关键词进行重新定向搜索,这些页面直达暴力极端主义内容。