OpenAI公司以每小时不到2$的价格雇佣肯尼亚工人降低ChatGPT输出不适宜内容的几率

为了构建这一安全系统,OpenAI借鉴了Facebook等社交媒体公司的做法,后者已经证明了构建一个AI以检测仇恨言论等不适宜内容的可行性,以帮助其从平台当中移除这些内容。方法很简单:向AI提供带有暴力,仇恨言论和性虐待标签的内容,AI就可以学习在不受控制的环境中检测它们。该检测器内置在ChatGPT当中,以检测其输出内容是否与不适宜内容相匹配,并在其输出给用户之前将其过滤。它还可以帮助清除未来训练AI所使用的数据集当中的不适宜内容。

而为了给不适宜内容打上相应的标签,OpenAI从2021年11月起向肯尼亚的一家外包公司Sama发送了数万个文本片段,其中大部分内容似乎是从互联网最黑暗的地方采集而来。而一些内容则以生动的细节描述了各种情况,例如儿童性虐待、兽交、谋杀、自杀、酷刑、自残和乱伦。


一位负责为OpenAI阅读和标记文本的Sama工作人员告诉时代周刊,他在阅读一名男子在幼儿在场的情况下与狗发生性关系的详细描述后,反复出现幻觉。“那是一种折磨”,他说:“整个星期你都会读到很多这样的内容。而到周五的时候,你会因为想到那张图片而感到不安。”这项工作带来的创伤最终导致Sama在2022年2月取消了所有OpenAI的委托,比计划提前了八个月。

https://time.com/6247678/openai-chatgpt-kenya-workers/

from 新•世界观察日志 via NPGamma
 
 
Back to Top