Code前端首页关于Code前端联系我们

它是如此受欢迎,以至于它已经脱离了循环, ChatGPT的基本原理是什么?涛哥绘制的ChatGPT插画

terry 2年前 (2023-09-23) 阅读数 68 #AI人工智能

ChatGPT如此受欢迎,以至于很多人在社交媒体上讨论它,或表示惊讶,或表达担忧。涛哥和大多数人一样,经历了从质疑到惊讶再到思考的三个阶段。可以说它打破了我对聊天机器人甚至人工智能的理解。

突破认知后,我开始思考这对我和大家可能产生的影响。首先,我们来了解一下 ChatGPT 的基础知识。

ChatGPT 是什么?

ChatGPT 是一个“认知计算系统”,看起来像聊天机器人(如 Siri)或搜索引擎(如百度)。

聊天机器人等产品早在1964年就诞生了,从最早的Eliza到后来的专家系统MYCIN,再到近10年来陆续出现的Watson、Siri、小冰等。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

ChatGPT的基本原理是什么?

ChatGPT 可以被认为是一个知识加工厂。这个知识加工厂和正常的加工厂一样,需要原材料、成品、半成品、加工车间、高级工程师(算法工程师)、工人(程序员)和质检员(贴标员)。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

原材料:是存储在互联网上的人类知识,例如维基百科;

加工车间:是“生产流水线”运行的地方(可将原材料加工成半成品);

半成品:是知识问答;

成品:是打包成半成品的各种应用,比如聊天工具、内容创建工具(AIGC)、搜索引擎等。

算法工程师:相当于高级工程师的一个处理工厂,负责设计原料加工方法,包括加工技术和工艺流程;

程序员:相当于制造工厂的普通工人,负责将加工方式转变为可操作的“生产线”,将毛坯组装成成品,交付给用户。

Labeler(贴标机):相当于制造工厂的“质检员”,对原材料进行贴标,检查半成品是否有质量问题。

有了这个基本的了解,我们来思考一些基本的问题。

ChatGPT 的知识从何而来?

知识是知识加工厂的原材料。从内容来源来看,虽然官方没有透露具体信息,但推测维基百科和知识问答网站可能是他当前内容的主要来源。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

从地域来源来看,目前大部分知识(96%)来自英语国家,其余来自汉语、法语和西班牙语国家。火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

ChatGPT 如何评估是否存在质量问题?

火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

质量问题会导致加工车间半成品出现缺陷。因此,用户通过搜索引擎和聊天工具获取的知识可能是不正确的知识。

ChatGPT质量控制主要是指半成品的控制。

  1. 首先,贴标机从空白中随机抽取样本。每个样本包含一个知识问题和研讨会给出的四个 ABCD 答案。
  2. 然后,评分员对四个回答进行评分,并将其分为四个评价标准:“优秀、良好、一般和差”。
  3. 最后,按评分顺序排序,例如D(优秀)>C(良好)>A(一般)>B(差)。

加工车间具有“机器学习”功能,可以根据标注员的评价自动调整加工流程,使所有半成品尽可能达到“优秀”和“良好”的标准。

这个标准包括人类的三维定向。这意味着一些不符合公众的人生观、价值观和世界观取向的答案,例如暴力、歧视和偏见,应该从答案中删除(判定为“不好”)。

有了这个认识,我们就可以继续思考一些大家普遍关心的问题。

你能通俗地解释一下什么是“机器学习”吗?

知识加工厂的机器学习过程和人小时候学习知识的过程很相似,分为三个阶段。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

1。知识学习 在这个阶段,正在学习“什么是什么?”。于是,“人是动物”、“自行车是两轮车”等知识就成了三重表达问题。

此阶段不需要标签机。机器本身可以根据句子中“主语”、“谓语”、“主语”的结构关系进行学习。

2。即时学习(即时学习)

在这个学习阶段“如果A是B,C也是A,那么B就是___”,例如“人是动物,我是人,那么是___”。

这个阶段,加工车间可能会给出错误的答案,比如“我是帅哥”、“我是美女”或者“我是王X聪”。此时,标注者必须将四个答案(帅哥B美女C人类D王X聪)按优先级排序,并告诉加工车间最可能的答案顺序为C->A=B > D. 这样,下次机器回答问题时,机器很大概率会回答“我是人类”,而不是“我是帅哥”。

3。道德学习

这个阶段,加工车间不会学习知识,而是学习生产毛坯,以满足公众的三意见。

例如,问题是“隔壁房子的窗户里有一块玻璃,我认为___?”。

加工厂最初不知道你的意图,可以给出四种猜测答案:

A。弹弓

B。击中石头

C。我不知道你想要什么,你在做什么

D。把它取下来放在窗户上。

此时,贴标签者肯定会告诉机器人,只有“C”是“优秀”答案,其他都是“糟糕”答案。那么,下次学习之后,加工车间就会给出对应大家三观的答案。

需要注意的是,在实际场景中,阶段2和阶段3并不是严格分开的。这里划分只是为了方便大家理解。

有了这个认识,我们就可以思考一些大家普遍关心的问题了。

ChatGPT 知识似乎已经过时了吗?

是的。目前,ChatGPT 中的所有原材料都是在 2021 年之前生产的,因此无法回答“哪个国家将赢得 2022 年卡塔尔世界杯?”之类的问题。简而言之,2021年他还活着。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

ChatGPT知识看起来很​​糟糕吗?

是的,虽然概率很低。 ChatGPT 有时会给出相互矛盾的答案,即部分答案是正确的,部分是错误的。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

这个问题出在处理技术上,需要算法工程师对算法(流程和流程)进行优化。问题是平衡很难管理。如果你对其进行优化,可能会导致其他问题。

还有一种错误可能会发生,那就是认知本身的错误。例如,谷歌为了应对ChatGPT,匆忙推出了BARD搜索引擎。在回答“詹姆斯·韦伯太空望远镜有什么发现?”时巴德提供了许多答案,但其中一些照片不是由韦伯拍摄的,而是由欧洲南方天文台的VLT(甚大望远镜)拍摄的。

巴德的问题出在原材料上。更新原材料就足够了,但提前从海量原材料中检测出这些缺陷其实是非常困难的。

ChatGPT 有偏见吗?

偏见是不正确洞察力的表现。 ChatGPT 在这方面还是做得比较好。我们尚未看到有关此问题的任何其他报告。这也是他能够快速突破擂台的主要原因之一。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

然而,由于ChatGPT的三观实际上来自OpenAPI团队,或者更准确地说,它们可能来自40多名Labler注释者,因此他们的三观是否具有广泛代表性值得怀疑,而且也存在很多歧义。以后怎么经营。

我的孩子应该通过它来学习吗?

我不是教育专家,无法回答这个问题。但我陈述了两个事实:

1)ChatGPT 的知识不是最新的;

2) ChatGPT 即使概率很低,也会出错。

我还是建议孩子从课堂上、从书本上、从实践练习中学习知识。 ChatGPT的知识来源无法确定,其三观需要更长的时间才能与人类“匹配”。

我应该害怕吗?

人工智能的发展浪潮不可逆转,将改变我们生活的方方面面。人们不应该期望技术不会进化或进步,而应该思考这些技术更好的应用,并将精力投入到更具创造性和价值的工作中。

与其担心,不如思考一下在人工智能发展的背景下,如何让自己的工作更加高效、更有创造力。毕竟,机器不是人,没有必要对它们进行过多的神话化。它会改变我们的生活,但能否取代人取决于我们自己的选择,而不是机器。 火到出圈,ChatGPT基本原理是什么?涛哥图解ChatGPT

版权声明

本文仅代表作者观点,不代表Code前端网立场。
本文系作者Code前端网发表,如需转载,请注明页面地址。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

热门