人工智能,福兮祸兮?- 半杯清茶社人工智能讲座后记 金晔
今年,ChatGPT以其火爆全球的表现创造了一个又一个令人惊叹的成绩。它能够通过人类需要多年学习才能通过的考试,撰写学术论文、小说,进行艺术创作,生成程序代码,并用多种语言回答各种问题。然而,人工智能 (Artificial Intelligence, 简称 AI) 的发展并非始于近年。早在1997年,由IBM开发的Deep Blue国际象棋计算机程序就成功地击败了当时的世界国际象棋冠军加里·卡斯帕罗夫(Garry Kasparov), 引起了全球的轰动和关注。2016年,DeepMind公司开发的人工智能围棋程序AlphaGo更是成功地战胜了围棋世界冠军李世石,在围棋领域引起了轰动。然而,这些成功的人工智能程序都只擅长于特定的任务。而最新版本的GPT-4以数千万美元的训练成本拥有1.8万亿参数,可以生成似乎具有人类智慧的文本回答各种问题,但同时也会生成虚假信息。
当人工智能应用于自动驾驶、科学研究、国防和办公系统等领域时,可以大大提高人类的工作效率,甚至替代许多人类的工作。人工智能似乎已经到了量变到质变的飞跃节点,具备了人类智慧和创造性。这也引发了一系列问题:人工智能是否会接管人类的工作?是否需要立法监管人工智能?人类是否将有能力制造智能机器?我们能否确保智能机器成为人类最安全、最有益的技术之一?
为了解答这些疑惑,半杯清茶社非常荣幸地邀请到从八十年代就开始人工智能研究的国际著名人工智能专家,国际通用人工智能的主要倡导者和组织者, 通用人工智能学会副主席, 美国天普大学(Temple University)教授王培博士, 于2023年7月15日举办了一场精彩而通俗易懂的人工智能讲座。讲座由半杯会员金晔主持,有70多位听众参加了这次云讲座。王教授用深入浅出的语言和比喻,给大家解答了许多关于大语言模型(Large Language Model, 简称LLM)的问题,让外行人也能够理解人工智能 的工作原理,拨开了围绕AI的迷雾。
王教授在人工智能的基本问题和理论上具备独到的见解,他创建了在通用人工智能领域代表性非公理推理系统“NARS”(Non-Axiomatic Reasoning System)。他以通俗易懂的语言深入浅出地阐述了人工智能的四个基本问题,这些问题在任何科学研究领域都需要回答:(1) AI要做什么?(2) 能够做到吗?(3) 如何做到? 哪种途径可以实现?(4) 是否应该做?有什么社会后果?王教授介绍了人工智能领域的主要观点和他自己独特的见解。
王教授在谈到AI要做什么时指出, AI的目标是让计算机能够像人脑一样工作。大家对人类的智能的理解非常不一样,是不是人类的-切智能和心理行为,计算机都能实现呢?我们希望AI在哪些方面和人脑-样?而在哪些方面不必要和人脑-样? 这条界限的划定决定了AI研究者的目标。由于AI的研究目标不同,导致了许多不同的研究流派, 如类脑计算、行为主义、功能主义和智能科学等。是盲人摸象?还是条条大路通罗马?这也是目前AI研究没有共识的基本问题。
AI可以实现吗?虽然无法登顶珠穆朗玛峰,并不意味黄山爬不上去。AI能够实现类似人类的智能,只是程度的问题。王教授指出,有些让人怀疑计算机做不到的事情,比如拥有创造性、情感和自我意识,实际上在他多年的研究中发现是有可能实现的,只是程度上可能存在差异。这展示了AI令人振奋的前景。但同时,王教授也进一步分析AI不可能做出具有完全生物性特征的系统, 比如说人类的感官和社会经验。当前的大语言模型仅是对人类经验的总结,假装有人类经验。由于受知识和资源的限制,人工智能无法预知未来。
在探讨如何实现AI时,王教授首先介绍了他当初以造思维机器为初心,参与提出通用人工智能(Artificial General Intelligence, 简称AGI)的概念。 接着,王教授用三张积木图,形象生动地介绍三类AI实现的技术途径:Hybrid, Integrated and Unified。这些方法都在不同程度上让人工智能实现了一定的智能水平。他以通俗易懂的语言,生动地向听众介绍了他创造的通用人工智能领域的代表性研究成果NARS理论和实现的实用系统。
关于AI面临的危险和监管问题,王教授指出,真正适应性的AI系统不会完全受限于初始设计,它有先天和后天部分。就像人类无法完全控制自己后代的成长和行为一样, 在这种情况下,我们如何要求AI设计者确保AI系统不会对人类造成危害?如果无法保证,为什么还要继续研究和发展AI呢?了解我们人类自身的思维和精神活动是人类求知欲望的驱动力,而这种求知欲望也驱动着AI的发展。AI作为一个实验平台,停止这种探索是不合理的。并非所有人都认为AI的目标是代替人类,还有许多科学家更加有兴趣应用人类的思维规律来解决人类目前无法解决的问题,比如人类无法获得的智慧经验和超出人类智力范围的任务。这将引起产业技术结构的调整, 造福于人类。在未来,造出安全的AI系统将成为研究者的长期努力目标。我们需要法律规范,以确保人类与AI和谐相处。权衡利弊时不应忽视潜在弊端,并采取措施降低危险性。只有这样,我们才能在科技发展中获得最大的利益,同时最大限度地减少风险。
讲座结束后,听众们提出了许多深入有趣的问题,包括有关生物学意义上人类智能的主流共识以及与AI研究的关系。
王教授还特别详细回答大家关心关于大语言模型实现方式、ChatGPT中胡说八道, 以及大语言模型的某些行为看似无法得到合理解释是否可能属于“涌现”现象。大语言模型通过使用大规模的人类语料库,训练深度学习神经网络得到,并根据当前文本用统计分析方法预测下文的最大可能性。然而,由于大语言模型是基于统计相似性而给出答案的,无法判断对错,因此有时会出现一些莫名其妙的答案。这些限制是大语言模型的基因决定的。 此外,王教授还回答了关于人工智能是否可能具有情感和自我意识、是否能预测未来以及科幻作品对人工智能研究的影响。他认为未来是不确定的,适应性对于生命和智能的发展都是至关重要的,符合达尔文的进化论。有情感的人工智能可能更安全,因为“让系统爱人类,比给它们设置种种规章制度要更好”。 此外,王教授强调了与人类有相似问题,人工智能系统也需要遗忘功能,摒弃旧经验,有意识地淘汰旧知识避免知识结构固化。 王教授认为情感是一个系统在复杂环境中对环境和自身所处的位置一个快速评价机制和在这个评价机制影响下所做出的响应机制, 情感是系统自我认识、自我控制、交流合作等功能的自我要求,是高级智能所需要的。这些理性而深刻的观点让听众深受启发。他欢迎对NARS感兴趣的朋友继续与他深入探讨。
王教授的精彩演讲和通过从智能科学、哲学、心理学、语言学等多个角度对问题进行解答,让大家对人工智能有了比以往更深入清晰的理解。
讲座录像链接: 半杯官网:http://tea4soul.org/misc/new2023/AITalk071523.mp4 油管:https://youtu.be/TFjubcm82AY
|