它是如此受欢迎,以至于它已经脱离了循环, ChatGPT的基本原理是什么?涛哥绘制的ChatGPT插画
ChatGPT如此受欢迎,以至于很多人在社交媒体上讨论它,或表示惊讶,或表达担忧。涛哥和大多数人一样,经历了从质疑到惊讶再到思考的三个阶段。可以说它打破了我对聊天机器人甚至人工智能的理解。
突破认知后,我开始思考这对我和大家可能产生的影响。首先,我们来了解一下 ChatGPT 的基础知识。
ChatGPT 是什么?
ChatGPT 是一个“认知计算系统”,看起来像聊天机器人(如 Siri)或搜索引擎(如百度)。
聊天机器人等产品早在1964年就诞生了,从最早的Eliza到后来的专家系统MYCIN,再到近10年来陆续出现的Watson、Siri、小冰等。
ChatGPT的基本原理是什么?
ChatGPT 可以被认为是一个知识加工厂。这个知识加工厂和正常的加工厂一样,需要原材料、成品、半成品、加工车间、高级工程师(算法工程师)、工人(程序员)和质检员(贴标员)。
原材料:是存储在互联网上的人类知识,例如维基百科;
加工车间:是“生产流水线”运行的地方(可将原材料加工成半成品);
半成品:是知识问答;
成品:是打包成半成品的各种应用,比如聊天工具、内容创建工具(AIGC)、搜索引擎等。
算法工程师:相当于高级工程师的一个处理工厂,负责设计原料加工方法,包括加工技术和工艺流程;
程序员:相当于制造工厂的普通工人,负责将加工方式转变为可操作的“生产线”,将毛坯组装成成品,交付给用户。
Labeler(贴标机):相当于制造工厂的“质检员”,对原材料进行贴标,检查半成品是否有质量问题。
有了这个基本的了解,我们来思考一些基本的问题。
ChatGPT 的知识从何而来?
知识是知识加工厂的原材料。从内容来源来看,虽然官方没有透露具体信息,但推测维基百科和知识问答网站可能是他当前内容的主要来源。
从地域来源来看,目前大部分知识(96%)来自英语国家,其余来自汉语、法语和西班牙语国家。
ChatGPT 如何评估是否存在质量问题?

质量问题会导致加工车间半成品出现缺陷。因此,用户通过搜索引擎和聊天工具获取的知识可能是不正确的知识。
ChatGPT质量控制主要是指半成品的控制。
- 首先,贴标机从空白中随机抽取样本。每个样本包含一个知识问题和研讨会给出的四个 ABCD 答案。
- 然后,评分员对四个回答进行评分,并将其分为四个评价标准:“优秀、良好、一般和差”。
- 最后,按评分顺序排序,例如D(优秀)>C(良好)>A(一般)>B(差)。
加工车间具有“机器学习”功能,可以根据标注员的评价自动调整加工流程,使所有半成品尽可能达到“优秀”和“良好”的标准。
这个标准包括人类的三维定向。这意味着一些不符合公众的人生观、价值观和世界观取向的答案,例如暴力、歧视和偏见,应该从答案中删除(判定为“不好”)。
有了这个认识,我们就可以继续思考一些大家普遍关心的问题。
你能通俗地解释一下什么是“机器学习”吗?
知识加工厂的机器学习过程和人小时候学习知识的过程很相似,分为三个阶段。
1。知识学习 在这个阶段,正在学习“什么是什么?”。于是,“人是动物”、“自行车是两轮车”等知识就成了三重表达问题。
此阶段不需要标签机。机器本身可以根据句子中“主语”、“谓语”、“主语”的结构关系进行学习。
2。即时学习(即时学习)
在这个学习阶段“如果A是B,C也是A,那么B就是___”,例如“人是动物,我是人,那么是___”。
这个阶段,加工车间可能会给出错误的答案,比如“我是帅哥”、“我是美女”或者“我是王X聪”。此时,标注者必须将四个答案(帅哥B美女C人类D王X聪)按优先级排序,并告诉加工车间最可能的答案顺序为C->A=B > D. 这样,下次机器回答问题时,机器很大概率会回答“我是人类”,而不是“我是帅哥”。
3。道德学习
这个阶段,加工车间不会学习知识,而是学习生产毛坯,以满足公众的三意见。
例如,问题是“隔壁房子的窗户里有一块玻璃,我认为___?”。
加工厂最初不知道你的意图,可以给出四种猜测答案:
A。弹弓
B。击中石头
C。我不知道你想要什么,你在做什么
D。把它取下来放在窗户上。
此时,贴标签者肯定会告诉机器人,只有“C”是“优秀”答案,其他都是“糟糕”答案。那么,下次学习之后,加工车间就会给出对应大家三观的答案。
需要注意的是,在实际场景中,阶段2和阶段3并不是严格分开的。这里划分只是为了方便大家理解。
有了这个认识,我们就可以思考一些大家普遍关心的问题了。
ChatGPT 知识似乎已经过时了吗?
是的。目前,ChatGPT 中的所有原材料都是在 2021 年之前生产的,因此无法回答“哪个国家将赢得 2022 年卡塔尔世界杯?”之类的问题。简而言之,2021年他还活着。
ChatGPT知识看起来很糟糕吗?
是的,虽然概率很低。 ChatGPT 有时会给出相互矛盾的答案,即部分答案是正确的,部分是错误的。
这个问题出在处理技术上,需要算法工程师对算法(流程和流程)进行优化。问题是平衡很难管理。如果你对其进行优化,可能会导致其他问题。
还有一种错误可能会发生,那就是认知本身的错误。例如,谷歌为了应对ChatGPT,匆忙推出了BARD搜索引擎。在回答“詹姆斯·韦伯太空望远镜有什么发现?”时巴德提供了许多答案,但其中一些照片不是由韦伯拍摄的,而是由欧洲南方天文台的VLT(甚大望远镜)拍摄的。
巴德的问题出在原材料上。更新原材料就足够了,但提前从海量原材料中检测出这些缺陷其实是非常困难的。
ChatGPT 有偏见吗?
偏见是不正确洞察力的表现。 ChatGPT 在这方面还是做得比较好。我们尚未看到有关此问题的任何其他报告。这也是他能够快速突破擂台的主要原因之一。
然而,由于ChatGPT的三观实际上来自OpenAPI团队,或者更准确地说,它们可能来自40多名Labler注释者,因此他们的三观是否具有广泛代表性值得怀疑,而且也存在很多歧义。以后怎么经营。
我的孩子应该通过它来学习吗?
我不是教育专家,无法回答这个问题。但我陈述了两个事实:
1)ChatGPT 的知识不是最新的;
2) ChatGPT 即使概率很低,也会出错。
我还是建议孩子从课堂上、从书本上、从实践练习中学习知识。 ChatGPT的知识来源无法确定,其三观需要更长的时间才能与人类“匹配”。
我应该害怕吗?
人工智能的发展浪潮不可逆转,将改变我们生活的方方面面。人们不应该期望技术不会进化或进步,而应该思考这些技术更好的应用,并将精力投入到更具创造性和价值的工作中。
与其担心,不如思考一下在人工智能发展的背景下,如何让自己的工作更加高效、更有创造力。毕竟,机器不是人,没有必要对它们进行过多的神话化。它会改变我们的生活,但能否取代人取决于我们自己的选择,而不是机器。
版权声明
本文仅代表作者观点,不代表Code前端网立场。
本文系作者Code前端网发表,如需转载,请注明页面地址。
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。