肯尼亚的数据标注人员为ChatGPT的创建者OpenAI标注可怕的内容,每小时获得34兰特的报酬

一家公司与OpenAI断绝了关系ncern担心与潜在的非法公司合作据《时代周刊》报道,ntent用于人工智能培训。
据报道,肯尼亚工人被支付高达每小时34兰特的工资来标注明确的标注ntent用于培训ChatGPT。
员工们告诉《时代周刊》,他们接触到了杀虫剂兽交的手稿和涉及强奸的同人小说。
欲了解更多故事,请转www.BusinessInsider.co.za.
据《时代周刊》在一项调查中报道,在一年多一点的时间里,总部位于旧金山的人工智能公司Sama与OpenAI合作,OpenAI开发了热门的会话式人工智能ChatGPT,以识别和标记敏感图像和文本,这些数据随后被用于训练ChatGPT,使其能够发出令人印象深刻的回应,而不产生毒性。
但根据《时代》杂志查阅的内部文件,在2022年2月,Sama终止了与OpenAI的合作关系,因为它发现OpenAI据称为一个与ChatGPT无关的人工智能培训项目请求并接收了价值14000张潜在非法内容的图像,其中包括儿童性虐待、兽交、强奸和其他形式的暴力。
据《时代》杂志的一份声明称,OpenAI证实,它利用肯尼亚工人帮助开发了一个标记有问题内容的工具。
从本质上讲,为了训练人工智能识别和删除可怕的内容,需要一个带有标签的恐怖内容数据库,这是Sama承包商任务的一部分。
《时代周刊》获得的内部文件显示,根据Sama的合同,数据标签师是从肯尼亚外包过来的,他们的任务是在各自的团队中标记性虐待、仇恨言论和暴力等文本。根据四名匿名的Sama员工对《时代》周刊的采访,根据资历和工作效率的不同,员工在浏览大量图形内容时的报酬在每小时1.32美元到2美元之间(22到34兰特)。
OpenAI和Sama在文章发表前没有回应Insider的置评请求。
OpenAI在《时代》杂志的一份声明中表示:“我们的使命是确保通用人工智能造福全人类,我们努力建立安全有用的人工智能系统,限制偏见和有害内容。”“分类和过滤有害(文本和图像)是必要的一步,可以最大限度地减少训练数据中包含的暴力和性内容,并创建可以检测有害内容的工具。”
尽管如此,报告称,这项工作的性质给一些数据标签商带来了严重的痛苦。一名员工称他的工作是“折磨”,因为他被分配读一段摘录,内容是一名男子在有孩子在场的情况下与一只狗发生性行为——这段经历如此创伤,以至于让他反复出现幻觉,他告诉《时代》杂志。
据《时代周刊》报道,在极少数情况下,一些数据标签商表示,他们没有得到如何对他们审查的内容进行分类的明确指导方针。据报道,其中一人的任务是阅读一个淫秽的故事,蝙蝠侠的助手罗宾(Robin)被强奸了,他不确定是否应该将其定性为性暴力,因为罗宾最终与他发生了性行为。
Sama在接受《时代》杂志采访时表示,该公司为员工提供一对一的心理健康咨询和健康项目,以缓解压力。
《时代周刊》调查结果出炉之际,许多采用人工智能技术来改善服务和业务流程的公司,仍在继续将低薪员工从美国以外的地方外包来从事内容审核工作,一些承包商报告称,这对他们的身心健康产生了负面影响。
例如,据Verge报道,亚马逊等公司在印度和哥斯达黎加雇佣了数千个视频评审员,让他们观看数千个视频,导致头痛和眼睛疼痛等身体疾病。2019年,脸书的一些承包商表示,他们在审核工作中患上了创伤后应激障碍,首席执行官马克·扎克伯格称这些投诉的报道“有点夸张”。
在OpenAI事件发生近一年后,Sama(该公司还为谷歌和微软提供数据标签服务)告诉《时代》杂志,它将在2023年3月前结束所有与图形内容有关的工作,包括与Facebook签订的390万美元的合同。
Sama在声明中表示:“在与我们的全球团队进行了多次讨论后,Sama做出了战略决定,退出所有(自然语言处理和内容审核工作),专注于计算机视觉数据注释解决方案。”