为什么AI无法修复内容审核

释放双眼,带上耳机,听听看~!

内容审核是大型科技公司长期面临的挑战。围绕内容审核的许多问题已被The Verge广泛报道,他们现在成为加州大学洛杉矶分校教授Sarah T. Roberts的新书“屏幕背后:社交媒体阴影中的内容审核”的焦点。以下是Roberts和Verge总编辑Nilay Patel关于为什么人工智能不是内容审核问题的解决方案的简短编辑摘录。

我的同事和硅谷编辑Casey Newton对我说:“如果你生活在一个你的梦想是用数学取代人类的世界,那么你当然会把人类对待得很差。”AI旨在服用人的地方。这就是为什么这些内容主持人是承包商。您是否遇到过这种内容审核的AI愿景?你有没有看到建立它的尝试?你觉得它有效吗?

首先,这是工作的基本文化和政治方向。有一种固有的信念,即这些系统在某种程度上不那么偏颇,它们可以更好地扩展,而且它们在某种程度上更为可取。我认为在这种态度中有很多未说明的事情。以下是算法不做的一些事情:他们没有形成一个联盟,他们不鼓励更好的工作条件,他们不会向记者和学者泄漏故事。所以我们必须对这个概念非常批评。

但是,是的,自2010年以来,当我看到工作生活和主持人在工作中的行为以及他们被要求做的事情时,我很清楚他们所采取的过程是二元决策树。如果那时,如果存在,则执行此操作。如果没有足够的数量,那么请离开并转到第20行。这是一种算法,它不仅是文化特有的,而且非常容易构建可以复制的计算系统工具。

因此,我最近看到的一个趋势是,我认为是商业内容审核工作的全新口袋已经开放,可能会有另一个名称。现在我们看到的是一群人,他们的全职工作,而不是处理系统上的实时内容,是训练机器学习工具的数据集,以便他们对特定内容或一组内容做出决定。然后捕获预先筛选的图像并将其放回计算系统中,希望使用它来复制。然后,最终,取代人类。

也就是说,如果你与真实的业内人士交谈,他们会坦率地说话并且直接在这个领域工作,他们会告诉你他们没有时间想象人类完全脱离这个循环。我相信这是真的。如果除了我刚才描述的其他原因外,我们需要人工智能来正确训练机器。

人们总是试图打败算法。

他们打算试图打败它。他们打算尝试游戏。我们无法想象所有即将上线的场景。当然,这些决策需要在决策链的各个方面进行审查。充其量,我们将拥有的和我们将继续拥有的是混合体。但在过去的几年里,我所看到的只是招聘人数增加而不是减少。

人已赞赏
安全新闻

关于Apple的未来只有一个重要的问题要问

2019-11-15 0:55:51

安全新闻

50美元的平板电脑可以处理基础知识

2019-11-15 0:55:57

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索