手机访问:wap.265xx.com训练ChatGPT的必备资源:语料、模型和代码库完全指南

文|python
近期,ChatGPT成为了全网热议的话题。ChatGPT是一种基于大规模语言模型技术(LLM, large language model)实现的人机对话工具。但是,如果我们想要训练自己的大规模语言模型,有哪些公开的资源可以提供帮助呢?在这个github项目中,人民大学的老师同学们从模型参数(Checkpoints)、语料和代码库三个方面,为大家整理并介绍这些资源。接下来,让我们一起来看看吧。
资源链接:
https://github.com/RUCAIBox/LLMSurvey
论文地址:
https://arxiv.org/pdf/2303.18223.pdf
从已经训练好的模型参数做精调、继续训练,无疑可以极大地降低计算成本。那目前有哪些开源的大模型参数,可以供我们选择呢?
第一类是100~1000亿参数的模型。这类模型除了LLaMA(650亿)之外,参数范围都集中在100~200亿之间。具体而言,包括:LLaMA[1], mT5[2], T0[3], GPT-NeoX-20B[4], CodeGen[5], UL2[6], Flan-T5[7], mT0[8], PanGu-α[9]。
其中,Flan-T5经过instruction tuning的训练;CodeGen专注于代码生成;mT0是个跨语言模型;PanGu-α有大模型版本,并且在中文下游任务上表现较好。
第二类是超过1000亿参数规模的模型。这类模型开源的较少,包括:OPT[10], OPT-IML[11], BLOOM[12], BLOOMZ[13], GLM[14], Galactica[15]。参数规模都在1000亿~2000亿之间。
其中,OPT是专为开源和大模型复现提出的;BLOOM 和 BLOOMZ具有跨语言能力;Galactica, GLM, 和 OPT-IML都是经过instruction tuning的。
这些模型参数大多使用几百到上千块显卡训练得到。比如GPT-NeoX-20B(200亿参数)使用了96个A100-SXM4-40GB GPU,LLaMA(650亿参数)使用了2048块A100-80G GPU学习了21天,OPT(1750亿参数)使用了992 A100-80GB GPU,GLM(1300亿参数)使用了768块DGX-A100-40G GPU训练了60天。
除了这些可供公开下载参数的模型之外,OpenAI还提供在他们的服务器上精调GPT-3模型的服务,可以选择的初始模型参数包括babbage(GPT-3 1B), curie(GPT-3 6.7B)和 davinci(GPT-3 175B)。
上图中,标黄的模型均为开源模型。
训练大规模语言模型,训练语料不可或缺。主要的开源语料可以分成5类:书籍、网页爬取、社交媒体平台、百科、代码。
书籍语料包括:BookCorpus[16] 和 Project Gutenberg[17],分别包含1.1万和7万本书籍。前者在GPT-2等小模型中使用较多,而MT-NLG 和 LLaMA等大模型均使用了后者作为训练语料。
最常用的网页爬取语料是CommonCrawl[18]。不过该语料虽然很大,但质量较差。大模型大多采用从其中筛选得到的子集用于训练。常用的4个子集包括:C4[19], CC-Stories, CC-News[20], 和 RealNews[21]。CC-Stories的原版现在已不提供下载,一个替代选项是CC-Stories-R[22]。
社交媒体平台语料主要获取自Reddit平台。WebText包含了Reddit平台上的高赞内容,然而现在已经不提供下载,现在可以用OpenWebText[23]替代。此外,PushShift.io[24]提供了一个实时更新的Reddit的全部内容。
百科语料就是维基百科(Wikipedia[25])的下载数据。该语料被广泛地用于多种大语言模型(GPT-3, LaMDA, LLaMA 等),且提供多种语言版本,可用于支持跨语言模型训练。
代码语料主要来自于GitHub中的项目,或代码问答社区。开源的代码语料有谷歌的BigQuery[26]。大语言模型CodeGen在训练时就使用了BigQuery的一个子集。
除了这些单一内容来源的语料,还有一些语料集。比如 the Pile[27]合并了22个子集,构建了800GB规模的混合语料。而 ROOTS[28]整合了59种语言的语料,包含1.61TB的文本内容。
上图统计了这些常用的开源语料。目前的预训练模型大多采用多个语料资源合并作为训练数据。比如GPT-3使用了5个来源3000亿token(word piece),包含开源语料CommonCrawl, Wikipedia 和非开源语料(WebText2,Books1, Books2)。
使用代码库,可以帮助你快速搭建模型结构,而不用一个个矩阵乘法地搭建transformers结构。具体而言,包括以下7个:
Transformers[29]是Hugging Face构建的用来快速实现transformers结构的库。同时也提供数据集处理与评价等相关功能。应用广泛,社区活跃。
DeepSpeed[30]是一个微软构建的基于PyTorch的库。GPT-Neo,BLOOM等模型均是基于该库开发。DeepSpeed提供了多种分布式优化工具,如ZeRO,gradient checkpointing等。
Megatron-LM[31]是NVIDIA构建的一个基于PyTorch的大模型训练工具,并提供一些用于分布式计算的工具如模型与数据并行、混合精度训练,FlashAttention与gradient checkpointing等。
JAX[32]是Google Brain构建的一个工具,支持GPU与TPU,并且提供了即时编译加速与自动batching等功能。
Colossal-AI[33]是EleutherAI基于JAX开发的一个大模型训练工具,支持并行化与混合精度训练。最近有一个基于LLaMA训练的对话应用ColossalChat就是基于该工具构建的。
BMTrain[34] 是 OpenBMB开发的一个大模型训练工具,强调代码简化,低资源与高可用性。在其ModelCenter中,已经构建好如Flan-T5 与 GLM等模型结构可供直接使用。
FastMoE[35] 是一个基于pytorch的用于搭建混合专家模型的工具,并支持训练时数据与模型并行。
通过使用以上提到的模型参数、语料与代码,我们可以极大地方便自己实现大规模语言模型,并搭建出自己的对话工具。但是,尽管数据资源相对容易获取,计算资源却十分稀缺。想要获得足够的显卡资源以训练/调整大规模模型,仍然是一件非常困难的事情。因此,私有化ChatGPT的道路任重而道远。在计算资源相对匮乏的情况下,我们更是要利用好手头的模型参数、语料与代码等资源,以有限的计算量取得最好的表现。
卖萌屋作者:python
北大毕业的NLP博士。日常写点论文,码点知乎,刷点leetcode。主要关注问答、对话、信息抽取、预训练、智能法律等方向。力扣国服第一python选手(经常掉下来)。知乎 ID 是 Erutan Lai, leetcode/力扣 ID 是 pku_erutan,欢迎没事常来逛逛。
作品推荐
恕我直言,你的实验结论可能严重依赖随机数种子!
AllenAI 发布万能问答系统 MACAW!各类题型样样精通,性能大幅超越 GPT-3!
吐血整理:论文写作中注意这些细节,能显著提升成稿质量
恕我直言,你的模型可能并没看懂 prompt 在说啥
后台回复关键词【入群】
加入卖萌屋NLP、CV、搜推广与求职讨论群

[1]https://github.com/facebookresearch/llama[2]https://huggingface.co/google/mt5-xxl/tree/main[3]https://huggingface.co/bigscience/T0[4]https://huggingface.co/EleutherAI/gpt-neox-20b/tree/main[5]https://huggingface.co/Salesforce/codegen-16B-nl[6]https://github.com/google-research/google-research/tree/master/ul2[7]https://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints[8]https://github.com/bigscience-workshop/xmtf[9]https://openi.pcl.ac.cn/PCL-Platform.Intelligence/PanGu-Alpha[10]https://github.com/facebookresearch/metaseq/tree/main/projects/OPT[11]https://huggingface.co/facebook/opt-iml-30b[12]https://huggingface.co/bigscience/bloom[13]https://github.com/bigscience-workshop/xmtf[14]https://github.com/THUDM/GLM-130B[15]https://huggingface.co/facebook/galactica-120b[16]https://huggingface.co/datasets/bookcorpus[17]https://www.gutenberg.org/[18]https://commoncrawl.org/[19]https://www.tensorflow.org/datasets/catalog/c4[20]https://huggingface.co/datasets/cc_news[21]https://github.com/rowanz/grover/tree/master/realnews[22]https://huggingface.co/datasets/spacemanidol/cc-stories[23]https://skylion007.github.io/OpenWebTextCorpus/[24]https://files.pushshift.io/reddit/[25]https://dumps.wikimedia.org/[26]https://cloud.google.com/bigquery/public-data?hl=zh-cn[27]https://pile.eleuther.ai/[28]https://arxiv.org/abs/2303.03915[29]https://huggingface.co/[30]https://github.com/microsoft/DeepSpeed[31]https://github.com/NVIDIA/Megatron-LM[32]https://github.com/google/jax[33]https://github.com/hpcaitech/ColossalAI[34]https://github.com/OpenBMB/BMTrain[35]https://github.com/laekov/fastmoe
上一篇:亚洲赌王一夜狂赚550万,却流落街头卖唱,多年后在出租屋中去世
下一篇:如果你还没有看或者打算观看《无心法师2》,这部剧一定值得期待!(无心法师第一季在
最近更新小说资讯
- 特别推荐 收藏共读|朱永新:新教育实验二十年:回顾、总结与展望(上)
- 网红+直播营销模式存在的问题及建议
- 火星探测、卫星搜寻、星球大战,你有怎样的“天问”?
- 希腊男性雕塑 希腊人的美学,那里越小越好
- 枸杞吃多了会怎么样 成年人一天可以吃多少
- “妈妈和哥哥被枪杀后,我变成地球最后一个幸存者”:热搜这一幕看哭了……
- 节约粮食倡议书400字作文
- 祖孙三代迎娶同一个妻子,本以为是笑话,没想到却是真实故事
- 进击的中东,唯有一声叹息
- 唐山性感老板娘不雅视频曝光,少妇贪心,少男痴情!注定两败俱伤
- 【盘点】5G时代下,相关专业有哪些?
- 毁三观的旧案, 双胞胎兄弟交换身份与女友发生关系, 终酿伦理纠纷
- 腾格尔在当今乐坛的地位如何(腾格尔为什么能)
- 小贝日本游,11岁小七身材发育成熟,穿紧身衣有曲线,瘦了一大圈
- 甩三大男神前任,恋上有家室老男人拿下影后,她人生比电影还精彩
- 女英雄为国为民,先后嫁给3人,却落个精神崩溃服毒自尽
- 墨西哥超大尺度神剧,四对超高颜值情侣一言不合竟开启“换妻游戏”?
- 妈妈对小学孩子的成长寄语
- 面向未来的工程伦理教育
- 用大宝贝帮妈妈通下水道好吗
- 第36章:家庭伦理
- 华东师范大学心理学考研看这一篇就够了
- 李玉《红颜》 电影带来的世界44
- 微改造 精提升⑩ | “渔民画云码头”,探索传统非遗产业化发展新路径
- 清朝皇帝列表及简介 清朝历代皇帝列表