从GPT到ChatGPT有哪些核心技术演进?

最近直播超级多,预约保你有收获

今晚直播:教你动手做出一个ChatGPT

 1

从 GPT 到 ChatGPT 的技术演进

从 GPT-1 到 GPT-3,它的技术原理是比较类似的,但参数量增长了1000+倍,预训练数据量增长了10000倍,完美诠释了暴力美学,大力是可以出奇迹的!
GPT 模型是一种 NLP 模型,通过在大型预料库上学习到的语言模式来预测生成下一个 token。
第一、GPT-1 技术演进
GPT-1 只支持特定类型的生成,比如对话类型,并利用一些有标签数据进行微调,比如一篇文章是科技类型的,把科技类型和这篇文章内容拼接在一起:(文章内容,科技类型)进行微调,如下所示。

第二、GPT-2 技术演进
GPT-2 在预训练时考虑各种类型的任务,就会更加通用化,如下所示:

task 就是任务的类型:问答任务、翻译任务等,比如:翻译任务,[翻译为中文]即是 task。

第三、GPT-3 技术演进
GPT-3 在 GPT-2 的基础上继续微调升级,使用了 45TB 的预训练数据,并拥有了 1750亿的参数量,开始有了涌现能力,真正诠释了什么叫暴力出奇迹。
GPT-3 引入了 in-context learning 情景化学习优化,使用更自然的人类沟通交流方式和大模型进行对话,比如 Prompt:请把以下英文翻译成中文:Today is a good day,GPT-3 就能够基于这一场景做出回答。
第四、ChatGPT 技术演进
ChatGPT 在 GPT-3 基础上进行演进,GPT-3 在文本生成的时候,需要进行人类的一些指导,让人类告诉它,什么样的回答才是我最好的,这就是基于人类反馈的训练(RLHF)的核心思路。

RLHF 训练微调过程主要有三步:第一步、有监督调优 GPT-3,得到 Supervised Fine-tuned Model;第二步、使用奖励模型和 PPO 强化学习算法实现 SFT 模型的自我迭代和持续进化。
那么到底如何动手实现一个 ChatGPT 呢?更详细的技术实现,放在今晚直播进行,直播精彩看点
1、GPT 核心技术演进剖析
2、如何离线预训练+微调一个 ChatGPT
3、ChatGPT 在线工程架构设计与实现
请同学点击下方按钮预约直播,咱们今晚20点直播见!

带你全面掌握 AIGC 技术体系:大模型架构内核、Fine-tuning 微调、LangChain 开发框架、Agent 开发、向量数据库、部署治理等核心技术,扫码一键全部预约直播

END


请使用浏览器的分享功能分享到微信等