ChatGLM-6B |
https://github.com/THUDM/ChatGLM-6B |
62亿 |
1T 标识符的中英双语训练 |
ChatGLM2-6B |
https://github.com/THUDM/ChatGLM2-6B |
|
1.4万亿中英文tokens数据集上训练,并做了模型对齐+SFT |
GLM-130B |
https://github.com/THUDM/GLM-130B |
1300亿 |
4000 亿个文本token训练+SFT |
Chinese-LLaMA-Alpaca |
https://github.com/ymcui/Chinese-LLaMA-Alpaca |
|
在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练 |
Moss |
https://github.com/OpenLMLab/MOSS |
|
七千亿中英文以及代码单词上预训练 |
baichuan-7B |
|
|
1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096 |
AquilaChat-7B |
{{https://mp.weixin.qq.com/s/XkoLnFycG1jPWrNT3w_p-g}} |
|
|
CPM-Bee |
|
|
https://zhuanlan.zhihu.com/p/639459740 |
MPT-30b |
|
|
https://www.bilibili.com/video/BV1UW4y1D7N9/?share_source=copy_web |