手工小作坊,终究敌不过工厂流水线。
如果说,当下的生成式AI,是一个正在茁壮成长的孩子,那么源源不断的数据,就是其喂养其生长的食物。
而数据标注,就是制作这一“食物”的过程。
然而,这一过程真的很卷,很累人。
进行标注的“标注师”不仅需要反复地识别出图像中的各种物体、颜色、形状等,有时候甚至需要对数据进行清洗和预处理。
随着AI技术的不断进步,人工数据标注的局限性也日益显现。人工数据标注不仅耗时耗力,而且质量有时难以保障。
为了解决这些问题,谷歌最近提出了一种用大模型替代人类进行偏好标注的方法,称为AI反馈强化学习(RLAIF)。
研究结果表明,RLAIF可以在不依赖人类标注的情况下,产生与人类反馈强化学习(RLHF)相当的改进效果,两者的胜率都是50%。同时,RLAIF和RLHF都优于监督微调(SFT)的基线策略。
这些结果表明,RLAIF不需要依赖于人工标注,是RLHF的可行替代方案。
那么,倘若这一技术将来真的推广、普及,众多还在靠人工“拉框”的数据标注企业,从此是否就真的要被逼上绝路了?
01 数据标注现状
如果要简单地总结目前国内标注行业的现状,那就是:劳动量大,但效率却不太高,属于费力不讨好的状态。
标注企业被称为AI领域的数据工厂,通常集中在东南亚、非洲或是中国的河南、山西、山东等人力资源丰富的地区。
为了控制成本,标注公司的老板们会在县城里租一块场地,摆上电脑,有订单了就在附近招人兼职来做,没单子就解散休息。
简单来说,这个工种有点类似马路边上的临时装修工。
在工位上,系统会随机给“标注师”一组数据,一般包含几个问题和几个回答。
之后,“标注师”需要先标注出这个问题属于什么类型,随后给这些回答分别打分并排序。
此前,人们在谈论国产大模型与GPT-4等先进大模型的差距时,总结出了国内数据质量不高的原因。
但数据质量为何不高?一部分原因,就出在数据标注的“流水线”上。
目前,中文大模型的数据来源是两类,一类是开源的数据集;一类是通过爬虫爬来的中文互联网数据。
中文大模型表现不够好的主要原因之一就是互联网数据质量,比如,专业人士在查找资料的时候一般不会用百度。
因此,在面对一些较为专业、垂直的数据问题,例如医疗、金融等,就要与专业团队合作。
可这时,问题又来了:对于专业团队来说,在数据方面不仅回报周期长,而且先行者很有可能会吃亏。
例如,某家标注团队花了很多钱和时间,做了很多数据,别人可能花很少的钱就可以直接打包买走。
面对这样的“搭便车困境”,国内大模型纷纷陷入了数据虽多,但质量却不高的诡异困境。
既然如此,那目前国外一些较为*的AI企业,如OpenAI,他们是怎么解决这一问题的?
其实,在数据标注方面,OpenAI也没有放弃使用廉价的密集劳动来降低成本,
例如,此前就曝出其曾以2美元/小时的价格,雇佣了大量肯尼亚劳工进行有毒信息的标注工作。
但关键的区别,就在于如何解决数据质量和标注效率的问题。
具体来说,OpenAI在这方面,与国内企业*的不同,就在于如何降低人工标注的“主观性”、“不稳定性”的影响。
02 OpenAI的方式
为了降低这样人类标注员的“主观性”和“不稳定性”,OpenAI大致采用了两个主要的策略:
1、人工反馈与强化学习相结合;
这里先说说*点,在标注方式上,OpenAI的人工反馈,与国内*的区别,就在于其主要是对智能系统的行为进行排序或评分,而不是对其输出进行修改或标注。
智能系统的行为,是指智能系统在一个复杂的环境中,根据自己的目标和策略,做出一系列的动作或决策。
例如玩一个游戏、控制一个机器人、与一个人对话等。
智能系统的输出,则是指在一个简单的任务中,根据输入的数据,生成一个结果或回答,例如写一篇文章、画一幅画。
通常来说,智能系统的行为比输出更难以用“正确”或“错误”来判断,更需要用偏好或满意度来评价。
而这种以“偏好”或“满意度”为标准的评价体系,由于不需要修改或标注具体的内容,从而减少了人类主观性、知识水平等因素对数据标注质量以及准确性的影响。
诚然,国内企业在进行标注时,也会使用类似“排序”、“打分”的体系,但由于缺乏OpenAI那样的“奖励模型”作为奖励函数来优化智能系统的策略,这样的“排序”和“打分”,本质上仍然是一种对输出进行修改或标注的方法。
2、多样化、大规模的数据来源渠道;
国内的数据标注来源主要是第三方标注公司或科技公司自建团队,这些团队多为本科生组成,缺乏足够的专业性和经验,难以提供高质量和高效率的反馈。
而相较之下,OpenAI的人工反馈则来自多个渠道和团队。
OpenAI不仅使用开源数据集和互联网爬虫来获取数据,还与多家数据公司和机构合作,例如Scale AI、Appen、Lionbridge AI等,来获取更多样化和高质量的数据。
与国内的同行相比,这些数据公司和机构标注的手段要“自动”和“智能”得多。
例如,Scale AI使用了一种称为 Snorkel的技术,它是一种基于弱监督学习的数据标注方法,可以从多个不精确的数据源中生成高质量的标签。
同时,Snorkel还可以利用规则、模型、知识库等多种信号来为数据添加标签,而不需要人工直接标注每个数据点。这样可以大大减少人工标注的成本和时间。
在数据标注的成本、周期缩短的情况下,这些具备了竞争优势的数据公司,再通过选择高价值、高难度、高门槛的细分领域,如自动驾驶、大语言模型、合成数据等,就可不断提升自己的核心竞争力和差异化优势。
如此一来,“先行者会吃亏”的搭便车困境,也被强大的技术和行业壁垒给消弭了。
03标准化VS小作坊
由此可见,AI自动标注技术,真正淘汰的只是那些还在使用纯人工的标注公司。
尽管数据标注听上去是一个“劳动密集型”产业,但是一旦深入细节,便会发现,追求高质量的数据并不是一件容易的事。
以海外数据标注的独角兽Scale AI为代表,Scale AI不仅仅在使用非洲等地的廉价人力资源,同样还招聘了数十名博士,来应对各行业的专业数据。
数据标注质量,是Scale AI为OpenAI等大模型企业提供的*价值。
而要想*程度地保障数据质量,除了前面提到的使用AI辅助标注外,Scale AI的另一大创新,就是了一个统一的数据平台。
这些平台,包括了Scale Audit、Scale Analytics、ScaleData Quality 等。通过这些平台,客户可以监控和分析标注过程中的各种指标,并对标注数据进行校验和优化,评估标注的准确性、一致性和完整性。
可以说,这样标准化、统一化的工具与流程,成为了区分标注企业中“流水线工厂”和“手工小作坊”的关键因素。
在这方面,目前国内大部分的标注企业,都仍在使用“人工审核”的方式来审核数据标注的质量,只有百度等少数巨头引入了较为先进的管理和评估工具,如EasyData智能数据服务平台。
如果在关键的数据审核方面,没有专门的工具来监控和分析标注结果和指标,那对数据质量的把关,就仍旧只能沦为靠“老师傅”眼力见的作坊式水准。
因此,越来越多的国内企业,如百度、龙猫数据等,都开始利用机器学习和人工智能技术,提高数据标注的效率和质量,实现人机协作的模式。
由此可见,AI标注的出现,并不是国内标注企业的末日,而只是一种低效、廉价、缺乏技术含量的劳动密集型标注方式的末日。