这个AI可以从无害的玩笑中讲出真正的仇恨言论


C.J. Burton / Getty By Douglas Heaven互联网存在个性问题滥用行为是互联网大多数角落的祸害,从网站评论部分到社交媒体再到在线游戏中的聊天会话试图压制已经产生了令人沮丧的结果 - 这个概念太滑了但是,一种自动识别真正仇恨言论的微妙语言指纹的新方法 - 并将其与类似词语的更良性使用分开 - 最终可以帮助打击最严重的罪犯 “众所周知,仇恨言论难以察觉,”纽约康奈尔大学的Dana Warmsley说简单地使用冒犯性语言并不会使某人辱骂人们因各种原因发誓朋友们互相称呼名字以获得乐趣大多数平台依赖其用户举报滥用行为但人类主持人无法跟上令人反感的内容另一种选择是自动检测仇恨言论今年早些时候,谷歌试图根据人们之前认为具有攻击性的其他短语的相似程度,将评论分为“有毒”分数然而,缺点压倒了积极的影响 “你对一个女孩很聪明”被认为与人们认为有毒的评论相似18%,而“我喜欢Fuhrer”则相似2%因此,加拿大蒙特利尔麦吉尔大学的哈吉·穆罕默德·萨利姆和他的同事采取了不同的方法他们没有专注于孤立的单词和短语,而是通过了解仇恨社区成员如何说话来教授机器学习软件来发现仇恨言论他们在数据转储上训练他们的系统,其中包含2006年至2016年期间向Reddit发布的大部分帖子他们关注的是三个经常成为虐待目标的群体:非洲裔美国人,超重人群和女性对于其中的每一个,他们选择Reddit上最活跃的支持和滥用组来训练他们的软件他们还收到了Voat的评论 - 一个类似于Reddit的论坛网站 - 以及致力于仇恨言论的个人网站该团队发现他们的方法比基于关键词的探测器包含更少的误报例如,它能够标记不包含令人反感的关键字的评论,例如“我在这里看不到问题动物一直攻击其他动物,“其中”动物“一词被用作种族主义诽谤康奈尔大学的托马斯戴维森说:“将仇恨和非仇恨的社区进行比较,找到区分他们的语言是一个聪明的解决方案”他与沃姆斯利一起训练机器学习软件,通过喂食来讲述攻击性和无害性语言之间的区别它精心挑选了两者的例子但他不相信解决方案与萨利姆和他的同事们所建议的一样广泛适用该团队在Reddit评论中测试了他们的系统,但他们没有表明它会在Twitter或Facebook上捕获有针对性的滥用行为英国巴斯大学的乔安娜布赖森说:“这是一种明智的做法,但不会抓住一切”该系统仍然错过了明显的攻击性言论,例如“黑人是可怕的”和其他显然是种族主义或羞辱的人 Bryson指出基于关键字的方法会抓住这些评论但它可能是主管版主手中的另一个工具尽管存在困难,但可能无法避免让人类陷入困境 “最终,仇恨言论是一种需要人类判断来识别的主观现象,”戴维森说期刊参考:arXiv.org/abs/1709.10159有关这些主题的更多信息:
  • 首页
  • 游艇租赁
  • 电话
  • 关于我们