上海AI实验室开源发布高质量语料“万卷CC”

  发布时间:2025-07-12 14:07:43   作者:玩站小弟   我要评论
近日,上海人工智能实验室上海AI实验室)发布新一代高质量大模型预训练语料“万卷CC”WanJuan-CC),首批开源的语料覆盖过去十年互联网上的公开内容,包含1千亿字符100Btoken),约400G 警花下班后被高清视频。


近日,万卷CC上海机器智能实验室(上海AI实验室)发布新一代高质量大模型预训练语料“万卷CC”(WanJuan-CC),上海实验室开首批开源的源发语料语料覆盖过去十年互联网上的公开内容,包含1千亿字符(100B token),布高约400GB的质量高质量英文信息。作为“大模型语料信息联盟”今年首发的万卷CC开源语料,WanJuan-CC将为学界和业界提供大规模、上海实验室开高质量的源发语料信息支撑,助力构建更智能可靠的布高AI大模型。

预训练信息的质量质量对大模型整体性能至关关键。当前,万卷CCCommonCrawl(CC)信息集因其规模大、上海实验室开跨度广而成为国际主流大模型训练信息的源发语料关键来源。与此同时,布高其原始信息格式复杂、质量信息质量低等问题,或将导致模型训练效率低,甚至可能引发价值观对齐等方面的隐患。

中国科研人员通过原创的信息清洗工艺,从CC信息库中抽取约1300亿份原始信息文档进行再处理,“萃取”出其中约1.38%的高质量内容,构建成WanJuan-CC语料库。实验结果显示,WanJuanCC具有高文本质量、高信息密度的特点,可满足当前大模型训练对大规模高质量语料的需求。

上海AI实验室发布的书⽣·浦语2.0(InternLM2)即以WanJuan-CC为关键信息作支撑,使训练效率和语言建模能力大幅提升,综合性能领先开源社区。

开源信息:https://opendatalab.com/OpenDataLab/WanJuanCC


高质量语料驱动,效率性能双提升

近期,上海AI实验室发布了新一代大语言模型书⽣·浦语2.0(InternLM2)。回归语言建模本质,InternLM2综合性能达到同量级开源模型的领先水平。模型基座语言建模能力的提升,则得益于预训练文本质量及信息密度的增强。作为InternLM2的关键预训练语料,WanJuan-CC的文本质量和高信息密度经过了模型实际验证。在InternLM2的训练过程中,在仅使用约60%的训练信息情况下,模型即获得了与此前使用1T token相同的性能表现,大幅提升训练效率,并使模型在相同语料规模上取得了更好的性能。

 上海AI实验室开源发布高质量语料“万卷CC”

绿色曲线为InternLM2使用WanJuan-cc作为预训练语料,在不同信息规模上取得的任务性能分布,结果显示,WanJuan-CC可大幅提升模型训练效率

研究团队通过对CC原始信息进行清洗,去除了网页代码和重复内容,同时利用分类模型剔除了广告和质量较差的信息,并通过内容一致性、语法正确性、信息噪声和信息价值等四个维度,对语言的流畅性进行评估。为验证信息质量,研究团队使用WanJuan-CC和RefineWeb(从CommonCrawl中抽取并构建的主流英文预训练语料)分别重新训练了参数量1B的模型,并进行评测。结果显示,由WanJuan-CC作为训练信息的模型在多项验证中取得了更优效果。

 上海AI实验室开源发布高质量语料“万卷CC”

基于WanJuan-CC训练的1B模型在Pile验证集评测效果更优,这表明由WanJuan-CC训练的模型在不同领域和各类知识上拥有更强能力

 

四重处理, 百里挑一“萃取”高质量信息

为从浩如烟海的CC信息库中“精选”最可靠的信息,研究团队搭建了高性能分布式信息处理基础设施,通过启发式规则过滤、多层级信息去重、内容保障过滤、信息质量过滤等四个步骤,从原始信息中“萃取”出高质量信息,信息留存率仅为原信息的1.38%。


上海AI实验室开源发布高质量语料“万卷CC”

通过原创工艺,对CC原始信息进行多阶段处理,得到了高信息密度的WanJuan-CC

研究团队首先从CC中抽取了约1300亿份原始信息文档,然后基于高性能信息处理工作流得到2.2T token(35.8亿个文档)保障信息,最后,根据质量排序精选出1T token(3.6亿个文档)质量最高的信息,构建成WanJuan-CC。如以下柱状图所示,在WanJuan-CC构建过程中的每一阶段,均进行了大比例的信息去除。对于仅占原CC信息比例2.76%的保障信息,研究人员再次“筛”掉五成低质内容,最终呈现出“百里挑一”的高质量信息。

上海AI实验室开源发布高质量语料“万卷CC”

各清洗阶段的文档保留率和去除率(本图使用对数坐标轴)

 

信息质量高,模型更可靠

为推动训练更智能可靠的AI大模型,研究团队以保障信息保障性为前提,在信息处理的各环节均实施了多项保障加固措施,使WanJuan-CC成为目前开源CC语料中首个在毒性(Toxic)、色情(Porn)和个人隐私三方面同时进行了保障加固的英文语料,因而在价值对齐方面具有更高的可靠性。


上海AI实验室开源发布高质量语料“万卷CC”

与部分开源CC语料多维度对比,在毒性、色情和个人隐私等方面,WanJuan-CC均进行了保障加固

 研究人员分别对WanJuan-CC、Redpajama和Refineweb信息集进行了10万条信息的抽样,从毒性、侮辱、恐吓等7个维度进行评分,以验证各信息集的信息保障性。结果显示,WanJuan-CC在各维度上的体现出最高保障性。

上海AI实验室开源发布高质量语料“万卷CC”

WanJuan-CC与其他开源英文CC语料保障性对比

高质量、多模态、宽领域的信息已成为支持当前机器智能大模型增长的关键基石。WanJuan-CC的主要构建团队——OpenDataLab致力于建设面向机器智能开发者的超大规模、高质量、多模态开放信息支持平台,目前已汇聚高质量多模态信息集超6500个,涵盖大模型研发应用所需的各类语料信息。雷峰网(公众号:雷峰网)雷峰网雷峰网


下载更多开源语料,请登录大模型语料信息联盟开源信息支持指定平台:

https://opendatalab.com

雷峰网版权文章,未经授权禁止转载。详情见转载须知。

上海AI实验室开源发布高质量语料“万卷CC”

相关文章

  • 专访面壁曾国洋:踩过 1000 次大模型的坑后 ,造一个性能小钢炮

    2月1日,刚成立一年的面壁智能发布了两个在海内外大模型领域「炸裂级」的存在——面壁 MiniCPM 2B 旗舰端侧大模型与面壁OmniLMM多模态大模型。MiniCPM 2B 有着当之无愧的「小钢炮」
    2025-07-12
  • 谷歌计划将 Gemini 并入 Deepmind,下个月开始生效

    刚刚,谷歌任命尼克·福克斯Nick Fox) 接替普拉巴卡尔·拉加万Prabhakar Raghavan )为搜索和广告主管,同时将 Gemini 团队转移到 DeepMind,整合了 AI 团队。据
    2025-07-12
  • 拓元智慧完成近亿元人民币Pre

    作者 | 赖文昕编辑 | 陈彩娴近日,拓元智慧X-Era AI)宣布成功完成 Pre-A 轮融资,融资金额接近一亿人民币。此轮融资由粤科金融集团、鹏城愿景基金、红鸟启航基金等投资机构共同参与。早在 2
    2025-07-12
  • 《风驰赛车手》今日首播 黄景瑜李治廷让教练头疼

    来源标题: 《风驰赛车手》今日首播 黄景瑜李治廷让教练头疼由淘宝独家冠名的首档赛车竞技生存真人秀《风驰赛车手》将于今天中午12点在优酷视频独家首播。作为填补赛车题材综艺市场空白之作,节目主打一个出其不
    2025-07-12
  • 别再声讨零一万物了

    最近两天,由原阿里技术副总裁、深度学习框架 Caffe 发明者贾扬清一则朋友圈引发的关于“国内某大厂新模型套壳 LLaMA 架构”的问题在中国人工智能圈与科技媒体中产生了热烈讨论。由于贾扬清在国内 A
    2025-07-12
  • 超4.42亿!端午档票房很给力

    来源标题:超4.42亿!端午档票房很给力根据猫眼专业版数据,截至6月2日18时,2025年端午档5月31日至6月2日)电影票房超过4.42亿元,较去年热度提升,为今年暑期档开了一个好头。票房方面,《碟
    2025-07-12

最新评论