未来几年,谁先被淘汰?ChatGPt的回答让人深思

2023-02-17 15:17:27 阅读 536 次

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

关于ChatGPT的出现,很多人最初都在质疑它的智能性,认为它和那些“傻瓜”智能一样,但是当大家尝试过后就会发现,它和其他的AI真的不太一样,它似乎能解决很多我们无法解决的问题。

也就是因为它过于聪明,人们又开始担心,我们会不会有一天被人工智能替代?它们会不会有一天统治我们?

结合现在的社会情况,的确很多工作已经开始使用人工智能,替代了一部分人,但不代表他们会代替甚至统治我们。

有人针对这个问题还提问了ChatGPT,对此,ChatGPT是这样回答的:“作为一个 AI 模型,我并不会有意识地去做会对人类造成伤害的事情。

我的目的是帮助人们获得信息,提高生产力,并在某些情况下替代重复性工作,从而使人们能够将更多精力投入到更有价值的工作中。

然而,人工智能技术的发展可能会对一些行业产生影响,并使某些工作变得过时。

但是,历史上,技术的进步总是带来新的机会和工作,并且人类通常都能通过转移到新的行业和职业来应对这种变化。

因此,我并不会直接导致年轻人失业,但是人工智能技术的发展可能会带来一些挑战,需要人类通过教育和职业转型来应对这些挑战。”

其实无论人工智能有多出色,它都不会真正完全的取代人类,关于这一点,梅拉妮·米歇尔在她的书《AI3.0》中写了两点人工智能无法取代人类的原因。

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

01

人工智能无法学会自主学习

ConvNets的开拓者杨立昆已经获得了许多奖项和荣誉,但他最为人熟知的“荣誉”可能是成为一个名字叫“Bored Yann LeCun”(无聊的杨立昆)的推特账号的恶搞对象。

这个账号经常以滑稽的方式来模仿杨立昆,并使用“在杨立昆的闲暇时间里深思机器学习的崛起”作为账号描述,还经常以“#FeelTheLearn”(感受学习)为标签来巧妙地结束其搞笑的推文,因此得到了广泛的关注。

DNN这种“从数据中学习”的方法已被逐渐证实比“普通的老式人工智能”策略更成功,老式人工智能使用的是人类程序员对智能行为构建的显性规则。

然而,与某些媒体报道的情况恰恰相反,ConvNets的学习过程与人类的学习过程并不是很相似。

正如我们看到的,最为成功的ConvNets通过一种监督学习算法进行学习:ConvNets在多个周期中一遍又一遍地在训练样本上处理图像示例并逐步调整自身权重,来学会将每个输入划分为一个固定类别集合中的某个类别。

相比之下,即便是年幼的孩童,都是在一个开放式的类别集合上学习,并且在观察少数几个例子后就可以识别大多数该类别的实体。

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

此外,孩童不是被动地学习,而是主动提出问题,他们想要了解自己感兴趣的事物的信息,他们会推断抽象概念的含义及其联系,并且最重要的是,他们积极地探索这个世界。

说如今大获成功的ConvNets能够自学是不准确的。正如我们在前一章看到的,为了让ConvNets学会执行一项任务,需要大量的人力来完成收集、挑选和标注数据,以及设计ConvNets架构等多方面的工作。

虽然ConvNets使用反向传播算法从训练样本中获取参数(即权重),但这种学习是通过所谓的超参数(hyperparameters)集合来实现的,超参数是一个涵盖性术语,指的是网络的所有方面都需要由人类设定好以允许它开始,甚至“开始学习”这样的指令也需要人类设定好。

超参数包括:网络中的层数、每层中单元感受野的大小、学习时每个权重变化的多少(被称为“学习率”),以及训练过程中的许多其他技术细节。

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

设置一个ConvNets的过程被称为“调节超参数”,这其中需要设置许多参数值以及做出许多复杂的设计决策,而且这些设置和设计会以复杂的方式相互作用,从而影响网络的最终性能。此外,对每个新的训练任务,网络的这些设置和设计必须被重新安排。

调节超参数听起来可能像是一项非常普通的工作,但调节的好坏对于ConvNets及其他机器学习系统能否良好运行是至关重要的。

由于网络设计的开放性,通常不可能自动设置网络的所有参数和设计,即便使用自动搜索也是如此,它往往需要一种神秘的知识,机器学习领域的学生通常会从他们追随的专家那里,以及自己来之不易的经验中获取它。

正如微软研究院主任埃里克·霍维茨所说:“现在,我们所研究的不是一门科学,而是一种炼金术。”根据DeepMind的联合创始人戴米斯·哈萨比斯的说法,这些能做到“网络低语”的人们形成了一个小型且排外的群体,“这几乎是一种集各种系统之优点为一体的艺术形式……世界上只有几百人能够真正做好这项工作”。

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

02

长尾效应常常让机器犯错

这种需要大型数据集和大量人类分类员的监督学习方法,至少对自动驾驶汽车所需的某些视觉功能是有用的,许多公司也正在探索利用类似于视频游戏的模拟驾驶程序来强化有监督的训练。那么对于生活的其他领域呢?几乎所有从事人工智能研究的人都认同,监督学习方法并不是一条通往通用人工智能的可行途径。正如著名的人工智能研究者吴恩达所警告的:“对大量数据的需要是目前限制深度学习发展的主要因素。”

另一位知名的深度学习专家约书亚·本吉奥表示赞同,他说:“实事求是地讲,我们不可能对世界上的所有事物都进行标注,并一丝不苟地把每一个细节都解释给计算机听。”

这一情况由于“长尾效应”的存在而进一步恶化,所谓的“长尾”,就是指人工智能系统可能要面临各种可能的意外情况。

遇到红灯或停车标志等都是常见的情况,被评定为具有高可能性;中等可能性的情况包括遇到碎玻璃或者风吹过来的塑料袋,这些情况并非每天都会遇到,但也不是不常见,这取决于你驾驶的区域;不太常见的情况是自动驾驶汽车遇到了被水淹没的道路或被雪遮挡住的车道标志;而在高速公路的中央遇到一个雪人,则是更加不常见的情况了。

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

如果我们单纯依靠监督学习来提升人工智能系统对世界的认识,那么就会存在一个问题:尾部的情况并不经常出现在训练数据中,所以当遇到这些意外情况时,系统就会更容易出错。

人类具有一种当前所有的人工智能系统都缺乏的基本能力:运用常识。

我们拥有关于这个世界的体量庞大的背景知识,包括物质层面及社会层面。我们对现实世界中的事物会如何行动或变化有充分的了解,无论它是无生命的还是有生命的,我们广泛地运用这些常识来决定如何在特定情况下采取行动。

即使从未在暴风雪天开过车,我们也能推断出道路铺设盐线的原因。我们知道如何与其他人进行社交互动,因此能够使用眼神、手势和其他肢体语言交流来应对电源故障期间交通信号灯无法使用的情况。

我们也知道,应该尽量避让大型公共汽车,即便从严格意义上来说我们拥有路权。这里我举的只是汽车驾驶方面的一些例子,其实人类通常在生活的方方面面都会本能地运用常识。

许多人认为,除非人工智能系统能像人类一样拥有常识,否则它们将无法在复杂的现实世界中实现完全自主。

未来几年,谁先被淘汰?ChatGPt的回答让人深思-湛庐

03

我们人类倾向于高估人工智能的进步,而低估人类自身智能的复杂性。目前的人工智能与通用的、人类水平的智能还相距甚远。

我们应该感到害怕的不是智能机器,而是“愚笨”的机器,即那些没有能力独立做决策的机器。相比于机器的“智能”,我们更应关注如何规避“愚笨”机器的潜在风险。

人工智能现在正深刻地影响着我们的生产与生活,甚至关系到人类未来的前途命运,但究竟

什么是人工智能?人工智能背后的原理是什么?从问世到演化至今,人工智能经历了怎样的

历史变迁?当下人工智能的能力边界在哪里?人工智能与人类智能的差异是什么?未来人

工智能又将面对什么样的挑战和机遇?关于这些疑问,《AI3.0》将为你一一揭晓答案。