想要探索最新的人工智能技术吗?以下是一些开源的AI项目,它们或能成为你研究或开发的得力助手:
1. Colossal AI:基于LLaMA预训练模型的大规模并行AI训练系统,开源了完整的RLHF流水线,是ChatGPT的优秀替代品。
2. ChatGLM:智谱AI研发的中英双语对话机器人,基于千亿参数大模型,开源等你来探索。
3. LLaMa:Meta推出的650亿参数大语言模型,面向政府、社区和学术界的研究人员,现已开源。
4. BELLE:基于斯坦福Alpaca项目的中文对话大模型,70亿参数,精通中文。
5. PaLM-rlhf-pytorch:Phil Wang在PaLM架构上实现的RLHF,近似于PaLM版本的ChatGPT。
6. OpenAssistant:致力于让每个人都能访问基于聊天的大语言模型,开源项目等你来参与。
7. OpenChatKitk:由前OpenAI研究员及多个团队合作打造,包含200亿参数,用GPT-3的开源版本GPT-NoX-20B进行微调。
1.Colossal AI
“夸父”AI,大规模并行AI训练系统,基于LLaMA预训练模型。作为ChatGPT的平替,开源了完整的RLHF流水线,包括,监督数据收集、监督微调、奖励模型训练和强化学习微调等。
开源地址
2.ChatGLM
智谱AI研发,基于千亿参数大模型的支持中英双语的对话机器人。
开源地址
3.LLaMa
Meta打造的一个650 亿参数的大语言模型,可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者。
开源地址
4.BELLE
精通中文,基于斯坦福 Alpaca项目,70 亿参数的中文对话大模型。
开源地址
5.PaLM-rlhf-pytorch
作者Phil Wang,在 PaLM 架构之上实现 RLHF,它基本上是使用 PaLM 的 ChatGPT
开源地址
6.OpenAssistant
旨在让每一个人都可以访问基于聊天的大语言模型。
开源地址
7.OpenChatKitk
前OpenAI研究员所在的Together团队,以及LAION、Ontocord.ai团队共同打造,包含200亿个参数,用GPT-3的开源版本GPT-NoX-20B进行微调
开源地址