从GPT到ChatGPT有哪些核心技术演进?
-
玄姐聊AGI
2023-12-26 13:28:50
-
数据库开发技术
-
原创
▼最近直播超级多,预约保你有收获
今晚直播:《教你动手做出一个ChatGPT》
—1—
从 GPT 到 ChatGPT 的技术演进
从 GPT-1 到 GPT-3,它的技术原理是比较类似的,但参数量增长了1000+倍,预训练数据量增长了10000倍,完美诠释了暴力美学,大力是可以出奇迹的!GPT 模型是一种 NLP 模型,通过在大型预料库上学习到的语言模式来预测生成下一个 token。GPT-1 只支持特定类型的生成,比如对话类型,并利用一些有标签数据进行微调,比如一篇文章是科技类型的,把科技类型和这篇文章内容拼接在一起:(文章内容,科技类型)进行微调,如下所示。
GPT-2 在预训练时考虑各种类型的任务,就会更加通用化,如下所示:
task 就是任务的类型:问答任务、翻译任务等,比如:翻译任务,[翻译为中文]即是 task。
GPT-3 在 GPT-2 的基础上继续微调升级,使用了 45TB 的预训练数据,并拥有了 1750亿的参数量,开始有了涌现能力,真正诠释了什么叫暴力出奇迹。GPT-3 引入了 in-context learning 情景化学习优化,使用更自然的人类沟通交流方式和大模型进行对话,比如 Prompt:请把以下英文翻译成中文:Today is a good day,GPT-3 就能够基于这一场景做出回答。ChatGPT 在 GPT-3 基础上进行演进,GPT-3 在文本生成的时候,需要进行人类的一些指导,让人类告诉它,什么样的回答才是我最好的,这就是基于人类反馈的训练(RLHF)的核心思路。
RLHF 训练微调过程主要有三步:第一步、有监督调优 GPT-3,得到 Supervised Fine-tuned Model;第二步、使用奖励模型和 PPO 强化学习算法实现 SFT 模型的自我迭代和持续进化。那么到底如何动手实现一个 ChatGPT 呢?更详细的技术实现,放在今晚直播进行,直播精彩看点:请同学点击下方按钮预约直播,咱们今晚20点直播见!带你全面掌握 AIGC 技术体系:大模型架构内核、Fine-tuning 微调、LangChain 开发框架、Agent 开发、向量数据库、部署治理等核心技术,扫码一键全部预约直播!