第1讲 计算机回答问题、写诗难吗?

对计算机来说,容易的问题,就是跟事实有关的问题,比如”是谁“、”什么时候“、”在哪里“、”发生了什么事“等,容易问题的回答早在2008年前后就实现了;难的问题,是指”为什么“和”怎么做“这两大类问题,2014年,机器能够完美回答40%的”难的“问题。

chatGPT的能力

人们使用chatGPT的目的大致归结为三个:

  1. 信息查询。google出有答案的网页 -> gpt直接给出答案
  2. 帮助写作业。大中学生
  3. 应付差事的汇报。职场人士。

这三件事的核心是两个:

  1. 理解自然语言
  2. 产生自然语言文本

第2讲 chatGPT的本质是什么

新技术往往不神秘,世界上很多爆红的产品和服务,其实使用的技术是半个世纪之前的。

什么是语言模型?

对人类语言建立数学模型。

如何消除不确定性?

利用更多的上下文信息,消除所有的不确定性。

模型的概率怎么计算?

统计相同上下文条件下,每个词具体出现了多少次。因此,语言模型也被称为是统计语言模型,因为他的模型的参数,也就是用来计算各种概率的参数,都是靠统计得出的。
为了避免小概率事件带来的噪音,我们要增加数据量。
提高语言模型的准确性,光增加数据量不够,还需要保证数据的质量。

第3讲 语言模型是如何进化的

阶段一

上世纪90年代之前,贾里尼克等人用语言模型解决了语音识别的问题。

阶段二

用语言中更深的知识和信息建立语言模型
挖掘语言中更深层的信息,能有效提高语言模型的能力,但计算量变得巨大。

阶段三

2010年前后,Google开发了深度学习工具Google大脑:

第4讲 ChatGPT的能力边界在哪?

语言模型能做的事情分为三类

第5讲 ChatGPT的回答从哪里来?

对于计算机来说,除了“为什么”和“怎么做”的问题属于复杂问题,其他问题都属于简单问题

回答简单问题

利用语言模型回答问题,不是一个问题对一个答案这样简单的匹配,而是对于问题给出多个答案,然后根据答案的概率排序,返回一个最可能的答案。

回答复杂问题

人处理简单问题:

第6讲 ChatGPT有哪些固有缺陷?

有些问题可以通过改进解决,有些问题是chatGPT固有的问题,甚至是机器学习方法固有的问题,很难解决

哪些问题能够改进

垃圾输入,垃圾输出

语言模型的本质:利用已有信息预测其他信息的模型
两种做法解决:

人工干预的边界

很难通过认为调高或者调低一些参数来控制chatGPT的输出结果
人工干预的隐患:把人主观的好恶加进了原本应该客观的语言模型中,可能导致更大的不公平。

第7讲 ChatGPT需要什么资源?

三个方面

第8讲 今天人工智能的边界在哪里?

chatGPT的边界是人工智能的边界,而人工智能的边界是数学的边界,数学是有边界的。
计算能力增加,原来可以计算的问题会计算得更快,瞬间解决,但是不可算的还是不可算。

第9讲 ChatGPT为什么会被热炒?

第10讲 ChatGPT能替代什么人?

会被chatGPT取代的人有三个特点:从事不费体力的工作,不动脑子的工作,或者不产出信息的工作。
不创造新知识的职业,收入从高到低:
1.金融分析师
2.大部分财经媒体记者
3.律师助理
4.普通文员
5.短视频制作人
6.大部分公众号写手
……
真正费脑力的工作不会被取代
不会被取代的:
基础的科研工作

第11讲 理性看待ChatGPT

但凡能成为趋势的技术,都会有几十年的发展机会
把新技术当做意外的惊喜,或意外的奖励(Bonus),对我的事业有帮助,固然好,没帮助也没关系,没有太高的期望,也不会太失望。
具有把握机会的能力,任何时候都有机会,没有这个能力,好事是轮不到大多数人的,参与的人太多,就可能没有利润了。
如果大环境不好,技术再进步,红利也落不到大家身上。大家看看今天的拉美、俄罗斯和南非就知道了。相反,如果大环境好,任何技术进步都会变成新的就业机会。面对一个自己看不清楚的事情,不妨多观察一段时间,再做结论。对于自己不懂的事情,要搞清楚,不要和别人一同去造神。

第12讲 还有哪些人工智能和科技值得关注?

多任务人工智能