最新研究:百度贴吧「弱智吧」特训AI大模型效果超强,完爆知乎、小红书、百度百科…

图片

离大谱!百度贴吧的「弱智吧」首登国际性AI论文。

根据“吧主”的介绍,还宣称是最好的中文大模型训练数据集❓

图片

简单滴说,使用「弱智吧」的数据训练出来的大模型,其中文能力得分远超百度百科、知乎、豆瓣、小红书等知名的知识性平台。

甚至超越了大模型研究团队精心筛洗的数据集。

据悉,研究论文显示,「弱智吧」在知识问答、头脑风暴、分类、生成、总结、提取等8项测试中,战胜其他的训练集取得最高分。

图片

文论中的「Ruozhiba」就是「弱智吧」一个充满荒谬、离奇、不合常理发言的中文社区。

更离谱的是,「弱智吧」的AI代码能力也超过了那些专业的编程技术社区数据训练出来的AI,这让「弱智吧」的吧友们自己都闹不明白了……

图片

推特(X)上的围观网友纷纷蚌埠住了。

图片

大家直呼,「弱智吧」YYDS!

这份研究报告,来自中科院深圳先进技术研究院、中科院自动化研究所、滑铁卢大学等众多高校、研究机构组成的联合研究团队。

图片

该项研究旨在挖掘中文训练集里边的训练思路,找出更适合中国宝宝体质的大模型训练手段。

那么,「弱智吧」的数据集究竟如何达成这一“遥遥领先”的成就?

我们具体到论文中看。

网友「弱智发言」成为大模型调校神器

这项研究初衷是为了解决目前中文大模型训练数据集难觅的困境。

我们说的“难觅”是指优质的数据集,而不是网上那些网友毫无逻辑的言论。

研究团队在比较了知乎、豆瓣、百科、小红书等平台后,经过一系列严谨的数据清洗和人工内容审核,打造成一套高质量、多样化的中文指令微调数据集:COIG-CQIA。

结果在研究的中途发现,在众多数据来源中,「弱智吧」成了最特别的那个。

图片

研究团队分别使用各种数据集训练李开复团队的“零一万物”Yi系列开源大模型,并以BELLE-Eval测试集开展GPT-4的评分测试作为对标基准。

在规模较小的“零一万物”Yi-6B模型上,纯「弱智吧」数据集训练的版本总分排名第三,小参数模型的表现并不算突出。

图片

但是到了Yi-34B模型,「弱智吧」版本表现就一骑绝尘了。

虽然在文本改写和数学任务上没能取得最高分,但成绩也比较靠前。

图片

另外在安全性评估上,「弱智吧」版本竟然能冲到第二名,颇为惊讶。

莫非是因为脱敏训练做足了吗?

图片

对于这类现象,研究人员在分析中也给出简单的推测:

“可能是「弱智吧」的问题增强了AI的逻辑推理能力,从而使指令遵循任务受益。”

图片

当然「弱智吧」并不是这项研究的全部,它的真正贡献在于为中文大模型的开发,提供了一个高质量的指令微调数据集子集。

往后开发者进行中文大模型训练的时候,就可以直接采纳「弱智吧」赋予的逻辑思维训练数据。

图片

推动国产模型变强,「弱智吧」上大分

研究论文一经发出,网友集体笑不活。

除了“XSWL”的弹幕评论刷屏,也有网友认真讨论起了「弱智吧」为了有如此疗效的原因。

大伙儿目前比较认可的一个原因是「弱智吧」题目的“异质”。

换句话说,「弱智吧」不按套路出牌,提供了脑筋急转弯等题材,增加了大模型指令的多样性,最终也提升了模型性能。

图片

还有人提及类似的观点:

传统的通用数据集多半已经被初步训练用过一次,大模型再拿通用数据集再训一遍,只会加重“过拟合”。

图片

说人话就是,大模型反复训练一套相似的数据集只能变成“鹦鹉学舌”,而「弱智吧」打开了新思路。

另一个原因是,「弱智吧」数据文本质量很高,用词精准且简洁明了。

图片

千言万语汇成一句话:

只把「弱智吧」当成段子,真的是严重低估了它的价值!

「弱智吧」很早就被用于大模型训练

事实上,从ChatGPT(GPT-3.5)诞生之初,「弱智吧」就深度参与这项人类21世纪最伟大的工程。

可以算是这一波AI浪潮的重要见证者了。

一开始就有不少测评玩家拿着「弱智吧」来“拷打”AI的智商,一阵“入院”“出院”营造节目效果。

图片

后来大家发现,「弱智吧」问题中充满语言陷阱,刚好可以用来分辨AI系统能力的高低。

2023年3月,百度文心一言刚刚诞生的时候,还不能很好地对付「弱智吧」的问题。

图片

后续升级版本渐入佳境,到了2023年8月,文心一言已经对答如流。

图片

直到今天,「弱智吧」测试是每一个大模型必过的一关。

甚至被网友戏称为:弱智吧Benchmark。

图片

当初网友为了调戏大模型专门整理的「弱智吧」测试集,没想到有一天也能摇身一变成为大模型的正统数据训练集。

图片

已经有开发者将清洗整理过的「弱智吧」数据集上传GitHub开源社区。

图片

Emmm…思路确实是被打开了~