ChatGPT(一):揭秘智能对话技术的奇妙世界



ChatGPT,作为一座巨大的智能模型,犹如一把无比强力的锤子,为大家所倾倒,看到什么都是钉子。它在众人眼中,显得无所不能,仿佛世间难题无法摆脱它的掌控。那么,它究竟有何过人之处呢?穿越这篇文章的行文,我们将解开它神秘的面纱,揭示它真正的魅力所在。让我们一同探寻其中的奥秘,尽享智慧的盛宴。




01

关于chatGPT的基本知识



1、ChatGPT是什么?
ChatGPT指的是Generative Pre-Training Transformer的对话场景应用。它是一个经过预训练的模型,能够将输入的文本转化为输出的文本。


2、关于ChatGPT的一些有趣概念
自然语言处理(Natural Language Processing,简称NLP):AI领域的一个子领域,旨在使计算机能够理解、处理和生成自然语言。
大语言模型(Large Language Model,简称LLM):是自然语言处理领域的一项技术。它是通过深度学习算法建立的模型,通过学习大量文本数据的模式,能够对文本进行学习和预测。在这里,“大”意味着模型的参数多、语料丰富。
特定语言模型(Specific Language Model):这是一种针对特定语种和领域的自然语言处理模型。它在大语言模型的基础上,使用特定领域的文本数据进行训练和优化,以提高模型在该领域中的预测和生成能力。
意图检测(Intention Detection):是NLP领域的一项技术,旨在识别和理解文本中用户的意图。在应用中,意图识别通常与语音识别和语音合成等技术相结合,以实现智能对话和交互。
实体检测(Entity Detection):同样是NLP领域的一项技术,旨在从文本中识别出具有特定意义的实体,例如人名、地名、组织机构、日期和数字。
提示词(Prompt):是一段文本片段,包含了对输入数据进行处理的指令或提示。系统可以根据提示词生成相应的输出。通常在生成文本、回答问题等任务中使用。
人工智能幻觉(AI hallucinations):指的是人工智能系统在生成输出时产生的一些错误或不合理的结果。这些结果通常是由于模型在训练过程中接受的数据不足或不平衡所导致的。这里就是我们常见的看见ChatGPT一本正经的在那边胡说八道‍‍
但是这个现象如果你明确的告诉GPT,如果不知道就回答不知道的话,那么它大概率会说不知道,不会胡说八道。
涌现(Emergence):是指从简单的算法、模型或数据中出现的意想不到的结果或行为。当神经网络的复杂性和训练样本的多样性超过一定规模后,会有抽象的推理结构在神经网络中自发涌现,它是一种非线性的、量变促使质变的过程。这个是我们需要的chatGPT的创造力!!!‍‍
思维链路(Chain of Thought,CoT):用于描述神经网络中的信息流动和计算过程。这一概念试图模拟慢思考模式的过程。
通用人工智能(Artificial General Intelligence,AGI):与大多数目前的人工智能系统只能解决特定领域问题不同,AGI可以具备类似人类的智能,能够学习和应用跨领域的知识,处理和理解不同类型的信息,并具备自我学习和自我改进的能力。AGI被认为是人工智能领域中最具挑战和科学意义的目标之一。这个是我们大家的终极目标哦!‍‍
AIGC(Artificial Intelligence Generated Content):由人工智能生成的内容,这些内容可以是文字、图像、音频、视频等。


3、GPT1 到GPT3.5(chatGPT)的版本都有哪些特性了?

自GPT-3.5发布以来,作为一款基于GPT(Generative Pre-trained Transformer)模型的交互式产品,ChatGPT引起了全球范围内的热议。了解对方,才能在百战中不败,让我们先来看看它是如何变得如此强大的。

GPT-1于2018年6月发布,基于Transformer架构,拥有1.17亿个参数,预训练数据约为5GB。GPT-1采用生成式预训练来提升语言理解能力,它提出了使用未标记数据进行生成式语言建模的方法,并通过提供下游任务(例如分类、情感分析、文本推断等)的示例来微调模型。无监督学习作为监督微调模型的预训练目标,因此称为生成式预训练。

GPT-1是基于Transformer架构的语言模型,具有以下特点:

1、统一的编码和解码机制:GPT-1能够接收输入序列,并利用自注意力机制对其进行编码,然后生成相应的输出序列。

2、上下文感知:GPT-1能够理解输入序列中的上下文信息,并根据此生成适当的输出,从而提升语义理解和语言生成的准确性。

3、预训练和微调:GPT-1在大规模语料库上进行了预训练,使其具备丰富的语言知识。然后,通过在特定任务上进行微调,使其适应具体应用场景。

4、可解释性:GPT-1能够生成易于理解和解释的文本,使用户能够理解其生成文本的基础和逻辑。

5、自动合理性:GPT-1具备一定的逻辑推理和常识判断能力,能够生成有条理、合理的文本。

GPT-2于2019年2月发布,拥有15亿个参数,预训练数据量为40GB。GPT-2采用了更大规模的预训练数据,并在预训练阶段使用了更复杂的任务,即无监督地预测下一个句子。GPT-2在多个自然语言处理任务上表现优于GPT-1。

与GPT-1相比,GPT-2引入了一些新的特性:

1、增加了模型规模:GPT-2具有更多的参数,使其语言生成能力更强,能够生成更连贯、更自然的文本。

2、无监督学习:GPT-2通过使用无需人工标注的海量数据进行训练,提高了其泛化能力和学习能力,在处理多样化语料时表现出色。

3、更深层次的网络结构:GPT-2添加了更多的隐藏层,能够更好地捕捉句子和文本之间的复杂关系,提高了模型的表达能力和理解能力。

4、增加了上下文窗口:GPT-2能够更好地处理长文本和语境,理解整个句子或段落的语义,并生成更连贯、上下文一致的文本内容。

总的来说,相较于GPT-1,GPT-2在语言生成能力、泛化能力、深层网络结构和文本理解能力等方面都取得了显著提升,使其成为一款更优秀、更出色的语言模型。

GPT-3于2020年5月发布,拥有1750亿个参数,预训练数据量为45TB。GPT-3采用了更大规模的预训练数据和更多的参数,在多个自然语言处理任务上取得了非常出色的性能,甚至在一些任务上超过了人类水平。

相较于GPT-2,GPT-3具有以下新特性:

1、模型规模更大:GPT-3是目前最大的语言模型之一,具有1750亿个参数,接近GPT-2参数数量的百倍。巨大的模型规模使得GPT-3拥有更强的表达能力和更丰富的语言理解能力。

2、训练数据量增加:GPT-3使用了大规模的训练数据,包括互联网上的各种文本数据、书籍、文章等,使得模型能够学习到更广泛的语言知识和语境信息。

3、语言生成能力提升:由于模型规模的增加和更丰富的训练数据,GPT-3在语言生成方面表现更出色。它能够产生更自然、连贯且富有逻辑性的文本,并且能够处理更复杂的语言任务,如文本摘要、翻译、对话生成等。

4、理解能力增强:GPT-3在语言理解方面也有显著提升。它能够更好地理解上下文、语义和语法结构,并能够根据语境生成更准确的回答和建议。

GPT-3.5于2022年11月发布,即ChatGPT的底层模型,拥有千亿级的参数,预训练数据量达到百T级。它更接近人类的对话和思考方式,引起了全球的关注。

ChatGPT相对于GPT3.0有以下改进之处:
1、提升了对话理解能力:ChatGPT在对话理解方面进行了增强,能够更好地理解上下文和用户意图,从而更准确地回答问题和提供信息。
2、加强了对多模态数据的处理:ChatGPT在处理多种媒体的能力上有所增强,包括文字、图片、声音等多种形式的输入,从而提供更丰富的交互体验。
3、增加了实体和意图检测功能:ChatGPT可以更好地识别和理解用户提供的实体信息和意图,以便更准确地回答和满足用户的需求。
4、改进了回答的连贯性和逻辑性:ChatGPT通过改进生成答案的算法和模型训练方式,可以更好地保持回答的连贯性和逻辑性,使得对话更加自然流畅。
5、增强了对提示词的理解和利用:ChatGPT可以更好地理解用户提供的提示词,并将其纳入到生成答案的过程中,从而更准确地回答用户的问题或完成用户的任务。
这些改进使得ChatGPT在对话交互中能够提供更准确、流畅、富有表达力的回答,使用户体验更加出色。 

4、ChatGPT的基本原理是什么了?


ChatGPT是基于对数十亿人类写作的网页文本进行训练的,它通过找到下一个合理的单词来生成连贯的文本。这种合理性是以概率的形式表现的。然而,如果我们总是选择排名最高的单词,结果可能会变得平淡乏味,甚至出现重复。相反,如果偶尔选择排名较低的单词,可能会出现意料之外的结果。这种随机性带来了文章每次生成时的差异性。为了控制使用排名较低的单词的频率,我们引入了一个名为"温度"的参数,并发现在0.8的值时效果最佳。

ChatGPT在翻译生成文本的时候主要是用到Transformer的三个特性:位置编码、注意力机制,自注意力机制。‍‍‍‍‍‍‍‍‍‍

位置编码:是指在输入大模型的语料是采用数字为单词的位置的方式将语料喂给大模型的,意思是例如一段话,hi,this is lilei,how are you? 喂给大模型的时候是这样的.

[("hi",1),("this",2),("is",3),("lilei",4),("how",5),("are",6),("you",7),("?",8)]‍‍‍‍‍‍‍‍‍‍‍

注意力机制:是指大模型在翻译输出文本内容的时候允许它查看原来的单词,具体查看多少个单词,由模型自己学习知道,因此,模型在此时已经学会了什么类型的单词是相互依赖的。

自注意力机制:是指大模型在训练模型上自动学习了词性、语法规则、以及单词是否同义。‍‍‍‍‍

这么看来是否chatGPT拥有了理解能力和语言能力了,它的这种行为从表象来看跟我们人类学习语言的方式是一样的


02


关于 ChatGPT / LLM 的迷惑


1、chatGPT 和搜索引擎有什么区别?

ChatGPT 是一个基于语言生成技术的聊天系统,它旨在通过自然语言的方式与用户进行交互和对话。它的设计目的是提供有趣、互动和有声有色的对话体验。
而搜索引擎则是一个用于检索和获取信息的工具。它通过索引互联网上的网页,并根据用户输入的关键词,返回相关的网页和资源。搜索引擎通过算法来确定网页的相关性和排序。用户通常使用搜索引擎来寻找特定的信息、答案或资源。
因此,ChatGPT 和搜索引擎在目标和功能上存在明显的区别。ChatGPT 旨在提供对话和交互式体验,通过生成回复来与用户进行对话。而搜索引擎则更侧重于从广大的网页资源中检索相关信息,并将其呈现给用户。
重要的区别:
1、chatgpt 可以是生成内容,搜索不能生成新的内容
2、chatGPT 可以对输入的内容进行意图检测,并且可能根据提示次出现人工智能幻觉或者涌现,而搜索不会。
3、 chatGPT 是交互式的,可以根据用户的提示词不停的逼近真实的内容,可以对话。搜索按照既定的算法排序,排序规则不变。

5、chatGPT 有认知吗,它可以理解吗?

百度上说:
认知包括感觉知觉记忆思维、想象和语言等。
具体来说,人们获得知识或应用知识的过程开始于感觉知觉感觉是对事物个别属性和特性的认识,如感觉到颜色、明暗、声调、香臭、粗细、软硬等。而知觉是对事物的整体及其联系与关系的认识,如看到一面红旗、听到一阵嘈杂的人声、摸到一件轻柔的毛衣等。
人们通过感知觉所获得的知识经验,在刺激物停止作用之后,并没有马上消失,它还保留在人们的头脑中,并在需要时能再现出来。这种积累和保存个体经验的心理过程,就叫记忆
人不仅能直接感知个别、具体的事物,认识事物的表面联系和关系,还能运用头脑中已有的知识和经验去间接、概括地认识事物,揭露事物的本质及其内在的联系和规律,形成对事物的概念,进行推理和判断,解决面临的各种各样的问题,这就是思维
人们还能利用语言把自己思维活动的结果、认识活动的成果与别人进行交流,接受别人的经验,这就是语言活动。
人们还具有想象的活动,这是凭借在头脑中保存的具体形象来进行的。

理解是指对信息、概念或事物的认识和领悟。它涉及到对所接收到的内容进行解析和解释,从而能够理解其含义、关系和上下文。理解不仅仅是对表面意思的理解,还包括对隐藏意义、背景知识和情感推断的理解。通过理解,人们能够更好地把握信息、与他人交流和做出正确的决策。

从输入提示词,到输出答案来说,从表象来说chatgpt 是有认知中的记忆、思维、语言能力的,并且对于输入的内容有理解能力,但是你说过程它倒是看到我们输入一段文字给它,它是否能想象出来一副画的场景来说,不知道。表象来说它是有认知的,而且是可以理解我们输入的文字内容的。
对于它以有的知识库,它可以很好的回答,但是对于知识库没有或者错误的知识库,它并不能知道回答的对错。即它有一个很大的知识库,但是这个知识库里面可能会有错误的知识。所以对于它的回答可能是错误的。
这里说ChatGPT可以理解它有一定的认知以及理解能力的。至少从表象来看的话。



欢迎加入【数据行业交流群】社群,长按以下二维码加入专业微信群,获取最新的行业信息




往期历史热门文章:

基于DataOps的数据开发治理:实现数据流程的自动化和规范化

数据平台:湖仓一体、流批一体、存算分离的核心问题及原因解析

数据治理体系该怎么建设?

实时数仓&流批一体技术发展趋势

数据仓库、数据中台、大数据平台的关系?

数字化转型如何促进业务的发展

数据中台中的核心概念解析

数据治理中的数据标准的作用?

全面数字化转型:打造全新营销模式





请使用浏览器的分享功能分享到微信等