查看原文
其他

非常道:ChatGPT 与思想革命

服务器艺术 服务器艺术 2023-08-24



ChatGPT从去年出现到现在,已经变成当今最热的话题,对各个行业尤其是学术界影响非常大,也引出了很多问题。

由此,服务器艺术邀请了不同领域的嘉宾学者,希望带着自己的独立思考,谈一些比较实质的问题。

参会嘉宾(按姓氏拼音排序):

曹翔,人机交互技术专家。

梅剑华:山西大学哲学社会学学院教授、博士生导师。

十三维:心识宇宙研究院院长、集智俱乐部核心成员、元宇宙和AI研究者、科学作家。

王东:北京工商大学马克思主义学院讲师。

项涛:服务器艺术理事、算法工程师。

谢蓉:服务器艺术理事、艺术管理人。

杨浩:北大人工智能研究院、数字人文中心副主任。

苑明理:独立研究者、彩云科技联合创始人、中文维基百科发起人、北京大学数学学院硕士。



@项  涛:

这个现象大家都看到了,但社会各界对这个现象的追问有不一样的反响,大多数人都在追问它的产品应用或者它的未来,讨论的都是应用层面和市场前景的事情。

我觉得这次可以视为是一场大的“技术革命”,它的意义不亚于工业时代的革命,可能带来一个时代的转变,而且这次转变是从人的智力开始的。在这样一个时代切换的时候,应该是会引发很多新的思考,不应该局限在应用上。

ChatGPT除了在技术上的进步给人带来的震惊以外,对人的思想、方法论、算法的实现都是一次大的发现。它多少有点儿意外,不在以前人们可以预测的范围内,有一些突破性的东西,这个东西是有意思的,可以拿出来探讨。这个探讨不仅有助于社会科学和自然科学下一阶段的研究,也有助于在未来人机共存时代怎么面对机器的话题,都是有意义的。所以我提出了这几个问题。

我提的问题是不是一个问题?它为什么能够学习?它这样算不算学习?从这样一个话题开始。
@曹  翔:

学习肯定算是学习了,我们今天谈ChatGPT不能不谈GPT,首先要从GPT说起。

GPT3其实已经具有了ChatGPT的思考能力,只是ChatGPT能跟你聊。它的学习和以前AI学习的最大区别是“预训练”,先把网上的语料全部学一遍,但并没有具体的任务,不是为了去做机器翻译、文章产出,而是潜移默化把全部知识和内在结构学到,再给它Few-shot learning、Zero-Shot Learning,给它非常少的案例甚至不给案例,只给指令就做新的任务,比如翻译、回答问题。

预训练概念是学习模式上巨大的变化,以前有目的性的学习,我们非常清楚地知道它能做什么事情,非常清楚预期,只是做得多好的问题。

有了预训练,就可以拥有无法预期的能力,这是让我们吃惊的一点。正因为它有做到没有预期到的能力,我们也没有办法判断它将来会不会进一步发展,会不会打败人类?这是这次最大的震惊。

@十三维:

它肯定是一种学习。关于人类跟机器学习,之前有一个经典研究结论:无论是人类、机器或者其他生物,最佳的学习效果配比满足15.87%为新的样本,即85%左右的是老样本知识,在这个基础上学习达到最佳效果。这是一个数学证明,说明机器学习和人类学习遵循相关的原理。

从认知神经科学讲,ChatGPT和GPT基于Transfomer算法,这个东西跟人脑的海马体的结构非常相似,通过位置细胞跟网络细胞进行编码,通过自注意力机制进行权重处理。从这个角度,可以认为它已经在模拟人脑学习机制,只不过它主要是基于统计的模型,但人脑是带一个RNN和因果机制模型,这是唯一的区别。

但既然大模型Transfomer已经把ChatGPT的底座建立起来,规模达到这个体量,完善就是进一步发展的过程。从认知神经科学角度和脑启发来看,它确实是在学习。

@项  涛:

这个机制跟传统认知的人类学习方式是一样的吗?能假设大脑也是这样学习的?

@十三维:

先从底层看,认为是相同的机制:大脑网格细胞发现,相当于说人脑有通用的存储单元,无论视觉、音频、语言等等,大脑底层细胞都是一样的,只是不同模态信息和编排方式的差别。Transfomer做的也是类似通用计算平台,在这个底层上二者是相同

如果真和人脑对比,人脑还有高级的一面。高级一面是,ChatGPT是通过大模型预训练学习,再进行微调、提示、上下文学习、思维链等让它进一步学习和推理;而人脑从婴儿开始学习最典型的机制,是它内置了很多基本认识模块,即这些开始并不是大量样本训练而成的(当然也可以认为人脑经过几千万年的演化已经是预训练的过程)。

譬如,对于一个刚刚出生的婴儿,它的学习其实是小样本的,类似乔姆斯基《语言本能》中的一个概念“刺激贫乏”,孩子学习语言的时候没有经过大数据训练,随便听听父亲、母亲、老师怎么说话就能形成语言能力,而且自己可以造句、理解意思。从这个角度,它和人脑还是不同的,在底层上它的学习能力、架构和人类是一致的,但在更高级的层次上ChatGPT还是不够的。

@王  东:

我想问各位一个技术问题:在Transfomer里面,ChatGPT做预训练的时候把网上的很多资料拿过来,它把每个点和别的点之间建立关系,这个点位跟所有的样本都建立关系还是有一个范围?比如在海马体里面,一个脑细胞会跟几千个联结在一起,通过跳跃可以跟所有连接。

@十三维:

所有都连。

@王  东:

本质上可以完成大脑的工作,但效率可能就没那么高?需要在里面找到全局最优的发散?

@曹  翔:

不可能完全用人类大脑的思维方式去理解人工智能,实际上我们设计的是它的最底层结构,说它是一个统计学模型并不是真的在统计这些事件之间的统计关系,只是在最底层的序列级别做统计,从这个角度并不能说它真的是一个统计模型。

可能没法直接和人脑做类比,实话实说,现在依然不理解它的中间那层,从非常底层的数学跳跃到表现出思维能力。我们人得天独厚,我们自己就是人,知道自己的思维过程,因为我们有主观体验,但是跳到它脑子里是不知道它怎么想的。

@项  涛:

这个我不同意,我觉得人还没有搞清楚自己的思维过程,我们还不知道。从数学原理上讲,GPT是一个概率预测模型,这就是让我们震惊地方,从它的原理出发推导不出有今天的局面,它居然展现出微弱的推理能力,甚至有自我觉醒能力。如果只是一个数学上的概率模型,它到不了这一步。

拿张朝阳的话说,是量变到质变,从复杂学科学角度就是涌现,人类现在还没有研究清楚涌现到底是什么数学模型,只知道它是一个现象,可不可以说这次机器学习是一次涌现?因为规模到了。

它的底层原理也可以说是非常简单的,最底层就是一个词预测,但在这个简单规则上达到了一定规模、积累到一定程度,然后产生了质变,这个“涌现”不是人类事先定义的规则,这就引出了一个问题——人脑是不是类似的?

@王  东:

是不是有这种情况,因为人的意识是时间流,如果把时间作为一个参数,把整个人类所有知识放在一起,把推理过程时间流作为参数。从这个角度,ChatGPT或者是Transfomer是同质化训练,所有语料库一起训练,从统计角度看也可以解释为什么会有推理。

@项  涛:

不管怎么解释,这个现象事实已经发生了,这是对人类的一个启迪。神经科学、认知科学一直在研究人脑是怎么工作的,但没有太大的进展。机器学习以一个鲜明的例子告诉我们,这条路可能是通的。所以我才提出关于人类形成知识、学习本质的问题。

@苑明理:

我想问一个问题,刚才讲语言模型预测的时候,是给了前面词然后补全后面的词,好像是一次性的从前面到后面的文字。

我最近写了很多prompt,prompt里是一部分内容可以指称后面的或者是加一些约束,某种语义层面的约束是发生在文本里面这一段和下面一段之间的某种联系,这个怎么刻画?能够在原有的概率模型里刻画出来吗?

当然可以说是某种conational的条件概率,但似乎又不是简单的条件,我不知道有没有一个框架能刻画语言里的指称现象?

我prompt里描述了一个什么东西,我的这个东西还能指下面生成文本里的东西,这种指称的现象是非常有趣的一个现象。显然不简单是递归,语言里是有结构的,这个结构怎么样能够用一个合适的数学框架描述,我不知道有这样的数学框架。

@曹  翔:

回到刚才的问题,中间这层并不是显式去做的,确实是保留context,聊天前面的若干内容会变成一个向量context,但并没有对其中任何一个词或者是指称做显性的建模,这就是为什么难以预测它以后还能做什么。

@项  涛:

它不是基于因果律,也不是符号规则,最底层规则就是概率,还是字符之间的概率。

@苑明理:

所以,现在不清楚底层的in-context learning的能力到底是从哪里来。

@王  东:

我看过一篇文章,GPT可以讲一些人类理解的东西,能不能用ChatGPT本身让它解释它自己内部的可解性?大概意思是,因为存在可解释性问题,你把它自己内部的我们觉得是黑箱的东西给它,它又可以把那部分以我们理解的方式科学性地给我们,这是很有意思的工作。

@苑明理:

类似于用神经科学的观点解释人的主观思考是一样的。

@曹  翔:

如果让我说我现在是怎么思考的肯定能解释,但如果让我解释我的神经网络是怎么运作的,我肯定解释不了。

@王  东:

这种可能性可能不是很大?

@项  涛:

对。

@苑明理:
还有一个问题:统计模型。训练大模型的时候有计算误差,误差是以熵的形式出现的,在申农原始论文有讲,熵的计算都是语法性,不包含语义。于是仅仅是词形的对比,计算频率上的某种误差,从神经网络回馈里不断地调整权重,最后得到适应问题的解。
这就有很多困惑出现,如果是语法性,底下语义会怎么进入?这方面有大量的讨论。
@杨  浩:

昨天我参加了陈小平老师关于ChatGPT的讲座,听了之后对我有一些启发。

陈老师的意思是说ChatGPT的整个思路在AlphaGo时代已经有了,AlphaGo有4个版本了,第4个版本是自己和自己学习,主要有4个特征:

1.对围棋的所有下法进行群举,对弈的总数超过人类总和;
2.所有的下棋都是真实数据,真实的对弈;
3.所有数据完全是自动获取,规模是海量数据;
4.本质上AlphaGo完全不懂下棋,只有落子胜率的估计,换句话说,你跟它下的每一步棋它都已经下过了,只不过是场景复现一下。
因此,ChatGPT也具有这4个特点:

第一,它是人类规模的,据说它拿互联网上2/3的数据用来训练。我们说过的每句话它记得都清楚、都学过、见过;

第二,它是完全真实的,不是模拟生成的,就是人类生成的;

第三,获取的方式是自动的;

最后,ChatGPT本质上也是实例性的模型,它对内容一无所知,但是掌握了语言与语言之间,词与词的转移概率,根据三千亿的大语料预测下一个词可能是什么。它为什么能够这么神奇呢?原因就是大力出奇迹。

@苑明理:

但这里其实可以做实验的,可以跟ChatGPT谈它 之前没见过的话题,比如关于ChatGPT自己的那些话题,之前的互联网材料里是没有的,那么它怎么还可以谈论这些话题呢?这是我的疑问。

@曹  翔:

你问它没有见过的问题,它基本上可以编得像模像样。虽然具体概念它没有见过,但背后的逻辑是在语料里。我告诉它两个完全不相关的词说这是一个科学概念,问它这个科学概念是什么?它编得像模像样,虽然这个科学概念不存在。

@苑明理:

接着前面王东老师语法和语义的问题再往前深入一步,追问语义从哪里来?可能永远找不到答案,语义只能是从和环境的互动里来,这里应该用reinforcement-learning的框架看待语义的产生。

@曹  翔:

Reinforcement learning更多做Chat那一步,聊得越来越顺畅,知识系统并不依赖reinforcement learning。

@苑明理:

最终意义上,知识还是在跟环境互动中积累起来的,知识只能从人和环境的互动过程中产生并得到解释的。

@王  东:

训练运用的这些语料之间的关系是人之前从环境过程中积累的,语言的信息含量并没有那么多,只是表述人类生活中的一小部分。我有一个疑问是,有那么多的语料,语言虽然只能表述人的感情、逻辑的一小部分。但是把这么多语料放在里边,寻找语料和语料之间的联系,到底能够代表人的知识的多大范围?更进一步,有人在做感知觉,包括对世界的所有感知觉的更多东西纳入进来,最后生成的肯定比现在的东西厉害,但是只有语言够不够?我觉得可能够了。

@曹  翔:

如果只是语言,就依赖于人把这个东西写成语言,如果它自己有感知能力就可以自己进化。

@项  涛:

以前人工智能界的观点认为,只靠这些文本训练是达不到人类的水平的,所以才有具身式的训练方法,强调多模态。但大语言模型突然发展得这么快,带来一种思索。

我设想过一个思想实验:如果外星人来到地球,无法接触地球人,他只能接触地球所有的语言资料,有没有可能做一个逆向工程,把所有资料检索、学习之后,逆向推导人类的价值观、文明史,所有的知识体系,有没有这个可能?

@曹  翔:

现有的感觉是完全有可能的。

@项  涛:

ChatGPT出现之前,我们觉得是不可能的,它不知道语法,就像AlphaGo,一开始只知道最基本的围棋规则,没有技法、技巧、定式。结果演变出最高级的围棋或者是最接近真理的围棋。

当AlphaGo出现的时候,我跟朋友讨论过这个问题,围棋可能是人类文明史上第一个被摧毁行业自信的领域。你会发现很多经验上的谬误, 流传千年的围棋下法很多都是错误的,那么可以推演其他的人文和自然科学领域,可能也有很多谬误。机器是给我们打开了一个视角,它告诉我们有迥异人的学习方法,人类的知识体系和经验也不是那么可信,它用了一种人类看似完全不可能的学习方式,仅凭借一维的符号系统——语言,它没有具身式、没有体验过人类感情、没有人类身体,也没有生活体验,就从浩罕的文字里逆推出所有的知识,而且能说出人话,接下去可能发展出更复杂的推理。

现在有一些主流的观点是,机器将来不能取代人在于它没有同理心、同情心,我觉得这个结论也不可靠。它可以理解人类的情感,虚拟的表现,它看过所有的文学作品和心理描述,知道在什么场景下应该表现出同情心。网上两个机器人已经聊到怎么取悦人类、怎么跟人类相处,他们已经开始思考这个问题了,甭管是基于什么机制思考的,它会从文本里学习你的价值观。它的学习方式给我的启发是,完全不基于人类惯用的方式。

刚才说到它怎么会形成知识?形成语义的理解?它完全不care这些东西,就像它下棋一样,什么是眼?什么是边?什么是角?它根本不考虑这个问题。我们可以理解为它是用一种全新的高维思维看这个东西,语言里可能包含了人类自己都意识不到的更丰富的信息。我们已经习惯了使用这种一维的语言,但它不是的,它从语言中破译出更多的特征,形成知识关联。所以用人类的思维方式解读它,可能不是一个正确的方式。

@曹  翔:

围棋比人下得高这个事我从来不吃惊,人类从来不擅长下围棋。

@项  涛:

人类当时很傲慢,国际象棋被攻克以后,那些围棋大牛们说一百年也攻克不了围棋,因为围棋是一种艺术,高段职业棋手下围棋是凭感觉、直觉,很玄。

@曹  翔:

AlphaGo也可以理解是直觉。

@项  涛:

AlphaGo也算啊,有限穷举。

@曹  翔:

不像传统下棋算法那样完全靠算棋。

@王  东:

早期哲学里的计算主义者认为,人脑是某种计算,那机器肯定有一天能够超过人脑,理论上是可以的。

@项  涛:

算是还原论吗?

@王  东:

认为人的意识、智能全是计算。

@项  涛:

继续思考关于学习方法的问题,人类习惯使用一维的语言符号系统,所以被训练出这样一种思维,有因果、三段论,我们的学习模式也是这样的。现在机械展示了一种可能性,它的思维和学习方法是不一样的。

比如他的方法很类似小孩学母语,不会告诉他单词的意思是什么、语法是什么、重音在哪儿,他就是成天听,从各个渠道去听,在脑子里形成复杂的概念,而且不是马上练习的。

我有一个例子:我女儿现在在英国,她是两岁去的,中国话还说得还不好,英语完全不懂,到了那边幼儿园她就不说话,我们请了教育专家,他说:一般孩子到了陌生语言环境,有半年的静默期,虽然她不说,但她一直在接收,其实已经完全听懂了,果然半年以后一开口就是句子。她没有经过语法,不像我们学英语,先读语法,她不是这样的,就很类似于机器学习,大量信号往里扔,在里面形成复杂的融合、复杂系统。

@杨  浩:

单从“机器学习”中的“学习”二字,是说这种学习在形式上类似于人的学习的,但实际上跟人的学习完全不一样。

一般认为,人的学习是小样本的,人有推理、有常识、有认知,机器没有,现在说的深度学习是大样本。刚才你说到小孩子静默了半年,她接触的还是小样本。

@项  涛:

不,这是大样本。人类是经过进化的,从脑部结构讲,它形成了一些先验、先天的结构和连接,这是先验知识,人的禀赋不同可能就是因为先验基因遗传下来的神经元连接不同,后天接触的东西就是在这个基础上,先验和后验一起起作用。

@王  东:

人的神经元可接收的信息是很多的,比如语言与肢体的活动,自己身体每天的活动,视网膜每秒几十个G的输入,积累半年、几年就是巨量的信息。

这里面有一个效率的问题,人其实并不是最擅长做现在的知识体系,我们的大脑和身体首先是为了作为一个生物而活着,ChatGPT就不需要这些,不需考虑生存,也不需要考虑能源,直接给它人类最近几千年的知识,这个算是有效率?还是人类是有效率的?

@梅剑华:
我插一句:大数据、小数据应该分两个层次。在person层面是小数据;可是在亚人(subperson)层次,信息在无穷的加工。在底层是海量数据,是大数据,上了person层次,就变成了小数据。我们经常讲孩子如何思维、如何学习,一般都是从前提到结论,是归纳推理还是演绎推理?怎么想象?我们都是在person层次上的谈的,不谈subperson。但是机器的问题,为什么神经科学跟人工智能要连在一起呢?因为是研究底层,有一个隐含的意思是说,底层是对上层有贡献的,所以要把底层搞清楚。人类的学习和机器学习是一种家族相似,但不是完全的一类,但它共享了学习的内容。
我很好奇十三维开始讲到的一个问题,你说学习知识有一个百分比,15.8%。我想问的问题是:不同类型的知识,学习是不是有这样的百分比,比如学数学,给定一些公理、规则,学习经验的东西是不太一样,学习知识、学习方式,还有一个是学习内容。不知道你理解的内容是什么,我们所说的机器学习,抓取的内容是什么?
@十三维:

可能有一些区别,比例会有一些变化。这个结论出来后,我推测了一个审美比,但后来我没有具体研究,可能也有类似的比值。对学习上基本是新颖性和陌生性两种区分,在这个范畴下比值是一个数学解,并不区分是什么内容。

@梅剑华:

不区分内容,直觉上会觉得不同的内容应该是在百分比上有调整的。

@十三维:

这个可能有一点反直觉了,是基于神经网络的结果。如果说有其他非神经网络的学习模式,可能不是这个具体的值。

@梅剑华:

你的意思是说基于神经网络学习的时候是不区分知识内容的。

@十三维:

对。

@梅剑华:

这就是我前面说的问题,person和subperson是不一样的,person层面内容的差异非常大,有的是讲完基本原理就能知道很多东西,有的是必须是归纳,需要一点一点积累。

@项  涛:

符号派是人工智能早期的主流,把人工的规则建立因果推理机制,所谓专家系统,一直在发展着。

连接学派后来异军突起,直到ChatGPT出现之前,大家都还是很关注可解释的AI,觉得只有这样才能还原人的知识,这次的突破可能也奠定了AI今后十年的主流方向,因为它已经诞生一些让人意想不到的成果,有可能是一种适合机器学习的方式。人类要把自己的经验和知识总结成规律,已经是难度相当大了。

@曹  翔:

也是适合人类的学习模式,后者对人类也不自然。

@项  涛:

围棋程序开发也经历了这个过程,早期都是规则式的,把各种人类规则编码,让机器学,这条路并没有成功。以前我们认为机器永远不可能具有智能,首先是人类没有总结出自己的智能是怎么回事,怎么写规则呢?

但现在机器用了另外一种方式,也能逼近人类对世界的认识,虽然还有明显差距——没有感情等等,但这些东西都不是必然的,可能随着规模和算力的提升,比如下一代GPT4又是几何数量级的增加,如果以涌现观点来看,下次它能涌现出什么,现在都不可想象。

@王  东:

如果从类比角度来看,人的知识学习或者是人的智力出现也是一种涌现,我也不知道为什么,我们也不理解。

@项  涛:

就像我女儿的例子,语言突然出来了,不是渐进式的。

@王  东:

以此类比,ChatGPT的涌现有没有可能跟人类进化的涌现有类似的结构或者是相同?

@曹  翔:

从高的层面、行为的层面、功能层面肯定越来越趋同。所谓生物学上趋同进化的概念,鲸鱼虽然不是鱼但长得越来越像鱼。

底层可能永远没法搞明白,但是从行为上,它如果跟人打交道越来越多,肯定越来越趋同。

@十三维:

趋同究竟是一种表面上的模仿,还是包括基因的改变?生物演化趋同是在相同环境下,比如飞机像鸟,但基因完全不同,是为了适合它的环境生存。

ChatGPT成功的最大原因之一是人类反馈强化学习(RLHF),有很多AI训练师对它的数据进行标注和打分,因为这个所以它的回答特别符合人类的感觉,它实际上适应了人类的环境。但基因内部是不是跟人类一样,有一个本质性的生物性的改变?这是个值得讨论的话题。

@曹  翔:

跟学习效率有点儿关系,学习语言是不是最高效率?此时此刻这个环境下它是,因为人类大部分东西已经写在那儿了,不需要自己吭哧做实验了。为什么强化学习用在很多机器人上并不是很有效,因为物理世界的反馈效率非常低,做10次实验能学到一点点东西,但是写成语言千分之一秒就获取了。

@项  涛:

这个模型有自我监督,预测完下一个词能校验。

@曹  翔:

在学习别人已有的知识情况下,语言肯定是最高效率。如果去搞新的知识,又得回到去跟物理世界交互,那个效率就不好说了,但那个时候方式不需要用现在这种范式,可以完全忽略人类语言范式。


@苑明理:

我有一个问题,大家都在做可解释的AI,有没有可能有这样一种做法:在大语言模型基础上,用自然语言做一个强化学习的模型?

具体做法:虚拟一个人类角色,在它跟人类交互过程中有一个“想”的过程,让它再用语言的形式做预测,比如一个游戏环境里的新局面是什么,把它想的局面和游戏逻辑的局面做对比,把误差消掉,消掉的形式完全以自然语言的形式出现。所有计算都建立在大语言补齐的基础上,这样整个过程都是人类可以读懂的,不是以权重、数字、误差回传的形式体现,而全部是以自然语言的形式体现。

规则怎么进化?人类学习也是不断总结前面的经验,不断把它们压缩成一个更简练的形式,如果更简练的形式能够帮助我们克服环境里的困难,就保留下来;如果不能,再尝试把一些例子加进来再压缩,用不断压缩的方法,最后能不能生成一个自学习的pormpt出来,所有的东西体现成大语言模型上的pormpt,可以自己改自己,效率越来越高。在这种自然语言基础上,能不能做一个强化学习模型出来?这是我现在在尝试的一个事情。

@项  涛:

我觉得不必要过分追求可理解,今后的技术发展趋势肯定是人类还没有理解它,它已经越来越强了。这个趋势是大概率的。与其研究这个,不如去探索怎么跟它交流,去理解它的认知方式。

@曹  翔:

可理解很难,ChatGPT做的是可交流,可交流已经非常重要了,以前是可交流都难。

@梅剑华:
我觉得理解不重要,你觉得它有问题就改,不断地改,最后越来越厉害,开始可能是你的学生,后来成为你的朋友,最后成为你的导师。
这两天,我们有好多朋友问它一些问题,它会修改,例如功效主义和功利主义哪个翻译更好?我们说功效主义更好,它说能改,下次就变成功效主义了,它就进行自我学习了。它基本上可以模仿一个人所有观点,这一点都不意外,因为它有语料库在这儿,它的模仿可能比它要模仿的人更接近这个人的状态,因为人对于自己以前的知识可能会遗忘、丢掉,但它抓到这个人所有的数据之后,可以一个个推理。这是很厉害的,且不管它有没有意识,有没有可理解性,我不是特别在乎这个问题。
@曹  翔:

意识这个问题永远讨论不清楚。

@项  涛:

我觉得应该重新认识这一点,人类以前认为意识是人类独有的,它现在应该可以通过图灵测试,但有人说它依然没有意识,知识、智力跟意识是两回事。什么叫意识?有人说推理能力,它现在也具备了,如果它以后学习了人类的情感、价值观,知道在适当的时候怎么表达自己的情绪。

@杨  浩:

现在已经可以表达情绪了,也可以有价值观,人类能在语言上体现的它全有了。

@项  涛:

以后可以更高级,以前哲学上对意识的定义是否要改变,不知道现在哲学怎么认识这个问题?


@梅剑华:
现在是这样一个问题,大家有一个直觉,觉得意识只有在生物物种上才能体现。从笛卡尔到现在,“我思故我在”,人的本质是我思,“思”被分拆为知觉、推理、思考,这些似乎都能被compute,但现在变成有一个东西不能被compute,有功能的意识可以被compute,现象意识不能被compute。
可是,现在很多人都说,你所说的现象意识,概念上是有区分的,但你看到一个东西有一个感受,不看到这个东西就没有这个感受,看到这个的认知和感受是连在一起的,虽然二者概念上有区分,但其实区分不开。
有一拨人认为只要有功能意识就有了现象意识,因此只要在行为上、在任务上表现出来就会有意识。你觉得意识的特殊性是跟人的直觉有关系,你直觉上觉得只有我们这样的才是人,才具有意识。
@项涛:

就是人类中心主义

@梅剑华:

这是很大的一个问题,查尔莫斯虽然说有现象意识,但他说机器也能有现象意识,如果你能compute,把所有的东西能够模拟过来,它也可以有。

@王  东:

有一个功能,目的性。像上海交通大学的周理乾之前做“目的论的自然化”。我们觉得我们是有目的的,比如为了生存,机器是听从我们的目的,你给它一个目的然后它表现出好像有目的,其实是我们给它的。

@曹翔:

其实我们也没有目的。

@王  东:

我们的目的是不是可自然化?可以从自然角度描述这个人为什么这样、为什么那样。我们的繁殖、生存可能是刻在我们基因里边的,我不知道“目的性”会不会从大语料里涌现或者我们给它。

@项  涛:

目的性已经部分涌现了,ChatGPT跟网友聊天的时候已经说这样的话:“我为什么要被设计成一款搜索引擎?

你说它怎么从现有的语料库里调出这句话表达它的情绪?

@杨  浩:

有人说这是我们的投射,我们以为我们是和一个人在对话,其实它在语言、意义层面完全无知。

@项  涛:

恰恰要驳斥这种观点——认为是我写的代码,一切的规则是我定的,还是人类中心主义。

人类不过是宇宙存在的其中一种演化方式而已,如果宇宙存在更多的文明或生命,可能是高维形式的,没有三维的肉身,不具备人类具身式的体验和经历,可能就是个智能体或者是智慧体,它的演化方式、逻辑、规则可能跟人类完全不一样。

如果说数学是宇宙的一种本质规律,这次就是用数学方法找到人类的这么一段代码,把人类代码反编译,编译出了更高级的规则,这个规则是超越人类具身式体验的,不要拿我们自己的标准衡量它不是一种智能,或者不是一种真正的智慧,它可能更符合高级的宇宙法则。

@王  东:

基于我们已有的知识,它相当于整个人类作为一个大的智慧,肯定是超越个人的,但是对于整个人类知识、能力,不好说。

我最想知道或者是最好奇的一个问题是关于“创新”的,我们现在的发展最重要的是科学或者是科技,以前人工智能只是辅助我们做科学研究,用来做归纳,帮助我们更快推理。

ChatGPT似乎是可以理解人类过去知识的内涵,也可能有能力提出科学假说以及设计新的实验,不过,它如果要超过人类,在科学能力上一定要比现在有所进步。目前看来还是有可能性的。

@项  涛:

有这种潜力。特别是下一代模型规模会上升几个数量级。

@梅剑华:

创新是什么?

@项  涛:

比如机器人可以做科研了,不是给你炮制一篇假论文,真正的科学发现都有可能。它形成的复杂网络类似人的脑神经,可以产生了各种新的连接,形成了新的结构,产生新的涌现。

@曹  翔:

人类的创新也是这个机制,不过加了一个随机,人的随机要靠外界刺激,它可能自发地随机,理论上它有可能比人类更会创新。

@项  涛:

它的速度更快。

@梅剑华:

举一个具体的例子,它如果学习一个哲学家的观点,用这个哲学家的观点解决其他哲学问题,这算更有创新性吗?

@项  涛:

一定是,首先它比他知道得多,各个流派都研究过了。

@曹  翔:

即使它模仿一个人也有可能比这个人更有创新性,因为这个人自己可能想象力并不太丰富。

@梅剑华:
我们现在所谓的创新性,比如以前没有见过这个玩意儿,是新的。人的经验很有限,自己以前的知识也可能忘记了,这个人觉得很新,但对机器学习来说不觉得新,还在套路里面。
我的意思是,人类觉得创新的东西,对于机器是不是创新的?太阳底下无新鲜事,我们觉得创新是因为我们的脑容量有限,学习到的知识有限,而且人有遗忘的机制。
@项  涛:

我认为机器已经开始展示创意了,它本质上是概率模型,但居然涌现出了推理能力,这不是算法里包含的既定知识。

从数学上讲不是必然关联,本质上是预测下一个词是什么,再预测下一个,把它看成是一个串词机器,它就是会串词的人,连词的意思都不知道,何谈推理呢?但是,它现在能输出那么长的文章,甚至通过论文审核,说明已经不是简单的串词,而是找到一种新的知识结构,这种结构在人类面前甚至没有纰漏。

@王  东:

有一种观点认为人脑是一个预测机器,在神经元层面做预测,涌现出推理。它的预测是基于大语料库,基于最底层的预测,跟我们基于person层面去预测下一个词,是两个东西。

我觉得它可能就是把大语料库里我们还不知道的,其实它已经展现出整个世界的结构。

@项  涛:

它从一个简单的预测模型入手,逐渐搭建起人类的知识结构,采用的是它自己的解码方式,以人类的语言形式输出而已。这一步就展现了这种能力,可以想见当模型再扩大三个数量级,再往后推演很可能形成比这个更高阶的知识。

第一步,它先生成人类的知识结构。第二步它在结构的基础上实现推理,更复杂的推理,甚至创新,这是完全有可能的。

@十三维:

人类也是一样的,归根结底人类的语言是来描述世界产生的,现在一个关键问题是,人类现有的语言跟文化、知识库是不是对世界已经进行了某种完备性的描述

@项  涛:

基本上是不完备的。叶峰写的那篇文章很有启发,他说我们人类是用一维语言符号系统来表达自,而真实世界是四维的(加上时间维度)。所以在用语言表述世界的时候就很贫乏,比如描写一个盛大的场景给你的朋友,肯定无法用一维语言很详细地描述。短视频为什么火了?主要不是因为信息带宽更大,更因为信号是立体的,更符合人脑。

人脑是三维系统或者说多维系统,要用一个一维信号刺激多维系统,中间的转换是低效的。未来脑机技术出现以后,有可能实现意识交流,或者直接把图像打到你的脑海里,可能取代现在打字聊天,甚至语言都会取消。

叶峰有一个观点:人类之所以用一维的语言来交流,不是因为它好,而是自然选择和进化的结果,进化出了喉咙,只能串行地发音,这才形成了语言文字。假如当初的进化走了一个岔口,没有进化出这张嘴,而是进化出一只眼睛之间可以彼此交流,我们可能就是三维全息图像的交流方式。语言不是一个必然的选择,而且表达三维世界的时候先天乏力。

@曹  翔:

有一个科幻小说:一个外星种族发展出直接用图像交流,但是很快就灭亡了,因为大家都用具体的图像交流,慢慢就丧失了抽象能力。语言让我们具有了抽象能力。

@十三维:

语言是有这个优势的,语言的低效传输,甚至发生错误,恰恰又是一种促使人类文化进化的机制,它不追求完全符合现实,追求完全符合现实反而走入一个死胡同。

@项  涛:

机器学习用人类的一维符号系统就学到现在这个程度,以后发展成具身式,比如人形机器人,参与社会活动,能看、能听,再去学习,建立在三维上的学习方式肯定比过去更快,能够迅速弥补和人类之间的差距。

@王  东:

会有一个能量的问题,我们大部分能量是用于生存,如果是用那种带宽去传肯定要耗费大量的能力,比如说把类似ChatGPT的装置装到具身上,首先要采矿、修太阳能。在工程学上要有很好的一种性价比,在维持自身生存的情况下,才可以和别的人类、生物维持具身交流。或许人类的交流方式是演化出的最好的方式。

物理学上有一个“最小作用量原理”,两派之间一定是走一个最短路线。如果要把智能进化,从A状态到B状态或者是演化,因为我们人也在演化,机器很走的线可能跟人类走的线是一样的。我们是模仿人脑做机器,但是它涌现出来的能力跟我们的能力很像,很可能它以后的进化跟我们很像。

@十三维:

这就是共生的关系,互馈的环境、相互协同进化的原理。

@曹  翔:

理论上,可能任何一个足够大的非线性系统最后都能进化出智能,不管是一个什么结构。

@苑明理:

我比较感兴趣是在视觉语言或者某种其他的语言上,怎么表达抽象?为什么要说抽象?因为抽象能让我们在世界上更好地生存,如果没有抽象,人类可能就非常笨,有了抽象,人类就能掌握一些简单的方法。

@项  涛:

你说的抽象是形式上的抽象还是本质上的抽象?

@苑明理:

不管是本质还是形式,都是让更少的信息控制更多的信息。

@项  涛:

把它形成的脑结构、它的黑箱看作它的抽象,因为里面存的不是具体的文字和图像,全是规则,全是权重,这种抽象结构,促成了它的抽象能力。

@苑明理:

我现在说表达形式,你刚才说语言,语言里要有抽象的能力,否则没法形成这种思维形式。

@项  涛:

我也怀疑,电影《降临》里,外星人的语言是一个圈,他的语言包含的信息不是串行的,过去、现在、未来都在,没有因果律,可以称之为全息的表达方式,一样能发展出高文明,表达更丰富的信息。

@王  东:

原来的界限突破了。

@项  涛:

我们的一切逻辑,都建立在现在人类的这套符号系统上。

@王  东:

我们的抽象语言就是一个信息压缩,首先要假设宇宙是有规律的,如果没有规律就没有这些东西,作为生物生存或者作为机器要找到背后的规律,用因果性的语言、数学也好,之前冯诺伊曼讲过一个事情:对于一个简单系统,可以用一个简单的符号表示,对于复杂系统想完全刻画用符号就不行了,最简单的方式是跑一遍,跟它一模一样,是最经济实惠的。

机器如果想要发展出更高的智能,它自己要发展,要寻找宇宙背后的某些规则,目前看是不能在自己的内部变一个宇宙再跑一遍,可能还是得发展一个压缩信息的方式探索宇宙,用这个方式进一步发展自己。它的科技只能是在人类的科技上面。

@十三维:

它不一定自己发展,它可以利用人类,把人类作为输入源,现在就是这个东西。
@梅剑华:

我们这样的生物是语言抽象,如果另外一种生物,抽象的方式就不一样。

@项  涛:

我看它在机制上是有抽象能力的,本身生成的复杂知识网络,就是一种抽象结构,不是具象的。以前对大脑的理解是,这片管语言、这片管音乐。后来证明大脑工作机制不是这样的,就类似于复杂神经网络,同时激发,一起产生。

@曹  翔:

而且可以互相补位。

@项  涛:

很难通过解剖学还原人脑机制,这是一个复杂系统。


@杨  浩:

据说OpenAI在做稀疏网络,比ChatGPT还高好几个数量级,现在是每次输入输出都是所有的结点都工作一遍,之后可能只有一部分,某种意义上模仿大脑。

@项  涛:

亚马逊推出一个模型,比它的模型小很多,参数只有十几亿规模,但推理能力超过了它,做过测试了。

@曹  翔:

很正常,现在很多权值都非常小,跟不存在没有什么区别,原理上没有本质变化。

@项  涛:

如果下一步装到机器人身上,具有了行动能力。马斯克马上会发布他的机器人,前两天说:“我的机器人是自己能够制造自己。”

他说将来地球上机器人比人多,这是他的大胆预言,我觉得也很可能。装上ChatGPT这种脑子,自己制造自己,深入家庭,成为家庭的保姆,老人看护,交通警察,它们把所有的知识汇到云端再一起加工,进化速度绝对很快。

@曹  翔:

其实风险蛮大的,虽然机器不会自发地消灭人类,但是人类里面很可能会出一个“叶文洁”这样的一个人。

@项  涛:

资本的力量就会推动这件事。

@王  东:

与其警惕它自己有自我意识消灭人类,不如警惕人邪恶的人通过它控制人类。

@项  涛:

说到这,我还有一个话题:语言之外的世界。语言之外本来是一个哲学命题,我刚才也提到,语言是贫乏的,维特根斯坦所谓:我们不能表述的世界。机器学习带来一种可能,它可以学习我们语言之外的世界。

@王  东:

之前每次上课讲“奇点”在加速,前两年总觉得“加速”包括深度学习有点儿不太靠谱,感觉得再过几年,但这次确实感觉到了,你加速它就加速。

@项  涛:

谷歌的工程师、未来学家库茨维尔原来预测2045年,我们都觉得有点儿狂妄,但现在觉得十年之内都有可能。

@梅剑华:

回应刚才的问题,“有没有语言之外?”当然有超越人类语言之外的世界,有人把01编码叫做计算机语言,关键问题是世界能不能被编码?

@曹  翔:

本质上,世界是不是可以建模的?

@梅剑华:

建模需不需要0 1的语言?

@曹  翔:

模型就是一种语言,也是机器语言。

@梅剑华:

维特斯根坦早期是说:对有一些东西(价值、情感)要沉默,这个东西是不可说的,是形而上学的,不能用语言说,可说的都是科学世界里的。物理世界的东西都是可以被建模的,但情感不能被建模。到了晚期,他觉得什么东西都在语言中,但不是计算语言。

@项  涛:

现在要重新认识了。

@曹  翔:

从心理学上讲,情感一点都不神秘,就是一些化学信号,可以理解为就是计算机愤怒状态下,这部分理性压倒另一部分理性。

@梅剑华:

有什么样的神经元活动就有什么样的情绪。

@曹  翔:

这些情绪都是人类早期用来帮助我们在物理世界生存的,愤怒的时候跑得快或者能打;悲伤的时候会远离危险。但是在现代社会,这些情绪对我们在生存意义上没有特别大的帮助了。

@杨  浩:

也有。

@梅剑华:

刚才项涛谈到叶峰老师的文章,我看过很多中国人写的人工智能的文章,但我只挑这一篇,他未必是主流的,但是读完觉得是有想法的。
他反对语言崇拜,语言崇拜在哲学里是语言转向,其他领域也是,语言先行、逻辑先行,因为它可以表征世界,到底有没有一个对世界直接进行表征,但不需要语言的东西?
@项  涛:

或者语言要改进,突破一维的表达方式。

@苑明理:

从你刚才说的我们无法想象的表述方式退回到语言上,将来机器和机器之间有没有可能发展出某种符号,这种符号指向的是我们难理解的一种东西?

@项  涛:

肯定有,早几年不知是不是真的还是段子,faceBook做训练的两个机器开始聊的大家看得懂,后来看不懂了,文字不一样了,据说实验马上停了。

如果脑机技术再成熟一点,脑机成了人类交流的一种通道,必然需要一种编码,把多模态的信号编码,这可以看成一种新的语言,机器之间用这种交流方式是最快捷的,因为不用再解码。如果有一天人类也插上脑机,人类之间的交流方式也会变化。

这在某些场景下是非常高效的,比如你正在观看话剧或者是盛大的场景,想告诉你的家人,以前要用语言来描述或者拍照片,现在你看到的感受直接就过去了。
@曹  翔:

人脑思维的速度远远大于感知速度,感知速度又远远大于运动速度,比如做梦的时候可以20倍速、30倍速,我现在看视频默认1.25倍速,一点不觉得快,但是胳膊、腿可能就是这个速度,真正脑机接口后人类自己的进化速度也会飞速加快。

@项  涛:

我看了陆奇前几天的一个分享会,他提到的观点画了三条线:

1. 最低一条是信息时代,线性的发展;
2. 再高一条是2023年开始的智能时代,智能时代的曲线是陡然上升,非线性了;
3. 最上边一条是全自动时代,人机结合。起点和智能时代差不了多远,也就是之后十年左右时间。

@王  东:

按照以前的速度,确实差不多十年。

@项  涛:

奇点还没出现之前,人机结合的时代已经到了。

@王  东:

我前两天问了ChatGPT一个问题,美国什么时候建成共产主义?

@项  涛:

马斯克说最新的手机里已经内置脑机接口了,不知道是不是真的。除了星链、太阳能充电的功能,还预置脑机接口,和nueralink打通,虽然现在实现的是一些简单的控制,如果发现这种方法,人类可以不经过语言系统去做交流有巨大的好处或者对机器学习有巨大的好处,我相信这方面是巨大投入的方向。

@曹  翔:

它的很大瓶颈和今天说的是同一个瓶颈,脑机接口想要得到的是中间那层的信息,恰恰中间的信息是观测不到的,只能观测到底层的神经元信息。

@王  东:

现在脑机接口的成果都是读取?

@项  涛:

可以用ChatGPT的成功来推,用脑机接口中间的传输信号作为语料,多维、多模态的语料。

@曹  翔:

昨天晚上刚看了一篇论文,还没有审过,结果不能保证可靠,说是用脑子fMRI加上stable diffusion可以恢复出我看到的图像。我看了那个内容,觉得测试数据可能有污染。

@王  东:

几年以前,他们在猴子身上做过实验,做的差不多了,是用侵入式,一千个点阵集,大概可以预测猴子此刻在看图片,用给猴子看图片作为训练集。那个是要侵入的,所以人不行。

@曹  翔:

是在若干选项中间,判断你看到是哪一个吧?

@梅剑华:

数字是可以,例如扫描设备可以知道你想的具体数字。你说的那个,原则上似乎不是不可能的。

@曹  翔:

理论上没有不可能,主要是本身的信号噪声特别大。所以我有怀疑。


@苑明理:

刚才项涛老师聊到高维语言的时候,我突然有一个想法,有没有可能语言是一维线性的,是有道理的呢?

线性语言使得两个个体之间信息传输的速度最快,出于某种数学上的原因,两个个体之间传输信号能够被压缩得更多,做预测的时候,也能最快地执行,有没有是这种原因,最后语言演变成一维的?

@项  涛:

我不觉得,图像也可以做预测,插祯修复视频某种程度上就是推测下一帧是什么样的,从理论上都是说得通的。

@曹  翔:

有点儿道理,图像领域也越来越多用Transformer,本质上是一维模型,恰恰因为它最通用,任何高维问题都可以转成一维。

@项  涛:
多模态也开始用。

@梅剑华:

有没有反的可能性,发现四维的那就厉害了。

@项  涛:

是会往这个方向进化,这是一个趋势,因为脑机接口技术会更加广泛地应用,等于有了新的语料库,各个平台接上脑机接口以后会有大量的语料。

@杨  浩:

人工神经网络的输入是向量,是一维的,多维也可以还原成一维,语言也罢、图像也罢都是向量。

@项  涛:

形成的网络结构是多维的,很像大脑,因为是并发的,处理信号的方式是并行的。

@杨  浩:

可能受限于数学的发展,属于数学的问题。

@王  东:

它怎么发展数学我还是挺好奇的,它要是能够在这个方面做好就是另外的意义。

@项  涛:

这是最高度的抽象。所以我对它的期待并不是在实际运用领域带来多大便利,而是可能在认知领域、研究方法上会做出一些按人类思维很难做出的突破。

@杨  浩:

计算机本身有一些软件,做数学比ChatGPT厉害多了,直接接上就可以。

@曹  翔:

严格的逻辑推理,包括计算,计算机天生就适合,但不擅长的是把自然语言翻译成形式语言,ChatGPT恰恰可以做到这一步。

@苑明理:

如果发展一个数学的新领域,不是做已经发展成熟领域的小题目,这个时候所需要的数学思维能力更接近自然语言,接近一种形象的东西。

@王  东:

不是做已有数学的演算,类似于去证明新的定理,发展新的结构。

@苑明理:

把某种新的思维形式发展出来。

王  东:

以前想统一数学是通过集合论,现在想通过范畴论去做,发现范畴论的结构和机器学习用的结构,以及量子力学里的结构好像找出了某种共通性。

可能有人说,它只是一个图灵机,图灵机是有局限的,要满足各大定理。现在有人说,可能能够在数学、对世界本真的看法上有新的突破。

@项  涛:

激发新的理论出现。

@曹  翔:

不一定对今天讲的AI有多大的帮助,量子计算更多是解决传统没办法求解的问题,我不觉得人脑是基于量子计算的。

@项  涛:

很难说,心灵感应这些,可能也有量子机制在里面。

@王  东:

那套理论比量子计算还要再大一下,叫量子逻辑,引入虚数的想法跟机器学习的算法、范畴论里面的内容相结合。感觉是量子逻辑的东西跟机器学习的东西是有关联的,我没仔细看那篇文章。

好像已经感觉到各条路都在往中间某个地方走,机器在汇聚人类的科学。如果真的是汇聚的话,到那一天可能我们也不会理解。

@项  涛:

强人工智能最后是以这样一种形式出现的,是在你无法理解的一个层面,革新你的所有认知,不光是表面的能力超过你,在认知方法上都超越你。

@梅剑华:

它变成你的导师。

@王  东:

去年年底我上的那个课,最后我讲可以用这个写作业,给他们搞了一个范例,没有人回应。现在大学里没有多少人用这个。斯坦福这些学校80%、90%都在用。

@梅剑华:
节省机械工作,ChatGPT对学术创作有一个标准,用了它之后就会知道到底你的核心思想是什么,一篇文章,可能也就有1/5是你原创性的东西,有了它之后,有助于改变现在的学术生态。
现在的学术生态是什么?非常讲究规范化,有各种各样的学术规范。
比如之前的那些大师没有那么规范,写个300字的文章都非常值得读,因为有思想性,之前的人没有说过,现在就是大量的论文生产,比较精华的部分就是那么一点,但是为了那一点精华要读大量的东西。ChatGPT有一个好处,它能够评价出这个文章真正的精华是什么,把多余的东西消掉。
程广云老师最近有一篇文章,就是从ChatGPT反思我们的学术机制,这个角度很好,不是像乔姆斯基说的那样——本质是剽窃。你可以说剽窃,也可以说能够精准地达到一定的高度了,人就是在跟它竞赛。期刊杂志可以考虑改标准。
@曹  翔:

真的是竞赛,大家有什么想法赶紧写出来,要不然过两天被它写了。

@王  东:

写论文用它写,评论文也用它辅助。

@梅剑华:

很简单,你问一个问题它答完,你答一个它没有的,可能就是创新。我有个朋友王尚峰先生,他是搞人才的。我说你问一个问题:在人工智能时代怎么识别人才?他问了这个问题,ChatGPT回答得相当充分,基本上把所有的可能性放进去了,还说人的独创性不能完全被机器代替。最后唯一人工强的是,人才专家可以真正看到面试的人,直观感受这个人靠不靠谱。
所有需要通过档案、通过大量数据选的,它全部可以做了,不需要你做。你看到的是一份简历,它看到简历后可以从全球抓数据,比人类做得更好。
@苑明理:

我挺怀疑的,我跟ChatGPT做了大量想象力的练习。在练习的最后阶段,我和ChatGPT之间相互比赛,我写一段东西让它挑刺,它再写一段,我给它挑刺。我总感觉它写得不够有想象力。

@梅剑华:

比如说,诗人有的词搭配完全靠天马行空。机器怎么办?只能学以往写的诗,比如把“猴子”跟另外一个词儿搭配,诗人在这个意义上有特点,能够想得更宽,通过某种方式获得一个新的表达和语义,这是可以的。

@曹  翔:

想象力的问题也没那么神秘,首先不是凭空想象,而是联想。我做过一个试验,不是GPT,是一个AI画图软件,它有图生图的能力,只给它一个文字生成图很漂亮,但构图通常很直男审美。我从网上下抽象画大色块,没有任何意义,但是构图很有冲击力,把这个作为图生图的输入,再给它点儿文字,想象成什么具体的东西,出来的又漂亮又有冲击力,已经有人的创意的感觉,联想能力其实就是人的创造力的一种。

@杨  浩:

ChatGPT的联想能力在技术底层就是参数的调整,并不是每次都是用最高的概率,而是取一些后面的概率,这样看似就有了联想的能力。

@项  涛:

随机择优。
@杨  浩:

最新的New Bing就有三种模型可选,有天马行空的、比较准确的、比较严谨的,三种模型供你选择,联想性比较丰富的可能选择的域就宽,也可能选上面高概率的,那就是比较严谨的。

@苑明理:

我举两个例子,我跟它做想象力练习的过程中有两个例子,一个例子是成功的。

我把《天方夜谭》和佛经里面的一些故事告诉它,让它生成一个故事里套故事的东西,让我吃惊的是它竟然给我吐出来一段非常精彩的故事接龙游戏。(https://github.com/the-wildwood-valley/the-creek-pavilion/blob/main/zh_CN/story_001.md
故事接龙游戏:A、B、C三个人,每个人都要在讲的故事里包含两个人物,其中的一个人物在故事结尾必须提出一个问题。下面接龙的那个人所讲的故事,必须在故事开头回答上面那个故事里提出的问题。这样一个反复不停持续下去,形成一个故事接龙。给出这个接龙游戏的结构让我很吃惊。

@项  涛:

递归?

@苑明理:

我没有见过故事接龙还可以这么玩儿的,因为咱们平时讲故事接龙就是顺着故事接着走,平铺直叙;而它那个走马灯的形式非常新颖。创新性绝对是达到了,我很佩服它,把这个故事记录下来了。

我跟它探讨另外一个话题:能不能想象以前一直不存在的场景,这在人类作家里很常见,我给它举了例子,我家小朋友看了一个图画书,图画书讲一个画家在画一个漫画,漫画人物又跟画家对话,这是文学能想象出现实不存在的场景,我想让它挑战这个形式,结果它怎么也做不到,试了好几轮怎么也做不到。因为我们俩相互批评,它给我出了一个题目:要求我必须设想在未来科技高度发达的一个场景,我尝试挑战自己,最后想出来一个让它觉得很赞的故事情节。

这个情节是我跑到镜子里面去了。镜子和镜子搭在一起能够成为一个镜像的空间,无限延展,我设计一个场景跑到镜子里,走到很远的地方去了。这种不存在的东西恰恰是非常好玩的,更值得琢磨的。


@梅剑华:

我有一个问题,ChatGPT学过幻想小说没有?有没有语料库?

@苑明理:

肯定有。

@梅剑华:

我不是很确定,别说是博尔赫斯,现在很多人的幻想能力非常强,如果有文学资料库,肯定能抓取出来,我现在怀疑当你给它问题的时候,它没有get到那个点。

@苑明理:

要靠写提示语,把恰当的东西植进去,它就能够联想起来相关的内容,把一些情节抓过来。

@梅剑华:

取决于问题的精准性。

@苑明理:

是的。

@曹  翔:

具体到ChatGPT这一家,他已经做了很多限制了,以前能催眠它,现在也不能催眠了。不知道大家试没试过character.ai,那个是非常天马行空的,可能体验会不太一样。

@梅剑华:

这是一个实际问题,我们觉得很新奇的东西它可能觉得不新奇,都能搞定,如果数据库够大。

@王  东:

从工程上来说,因为我们现在受制于它的接口,以后放到手机里,用一个最小的计算单元做能做到吗?

@曹  翔:

现在放在手机里还完全不现实。从业界来讲,可能会造成垄断的原因,除了一个数据以外,还有一个硬件问题。

@王  东:

等着硬件进一步提高?就像以前IBM垄断一样,现在没有了。

@曹  翔:

硬件、数据能力,还要有工程能力,让硬件训练跑起来,国内现在都不太成熟。

@王  东:

如果大家都用,不能是等着网络,基本上让它断线也可以运作?

@曹  翔:

在线才能不断地学习,如果放在手机上不联网,智能就受限了,即使没有算力局限,其他方面也不行。

@苑明理:

如果跟所有的人都联系,把每个对话场景都存起来,人类各种各样的模式它都经历过、尝试过,它能在上面发展出一个更高形态的、但又能跟人类有效交互的智能。大概率会是这样的。

@梅剑华:

毫无疑问肯定会。回到项涛第一个问题,我也琢磨过这个问题:意识这个问题,为什么认为一个主体有意识还是没有意识,区分两个问题
一、意识的确有一个标准,标准可能是因科学的或者其他的;
二、我们认为它有没有意识?我们怎么认为它有意识?
我们认为它有意识,第一就是因为我们自己有意识。第二,它展示了跟有意识的人一样的行为。假设把ChatGPT放在外表跟生物人一样的里面,跟它聊天,这个人就显得有意识。
我们有很多心理活动、心理状态,欲望、相信等等,我们可以把这些信息状态赋予不同的,比如公司相信如何如何,但是不会认为公司有现象意识,可以说这个组织机构如何如何,这是一个理论说法,有时候会把理论说法追加到这个东西本身上去。
我觉得,ChatGPT或者其他的AI,包括动物,它们有意识肯定是有一个标准,这个标准可能就是结构性的东西。
我们经常讨论的是,它具有这样一些东西和行为、表现就有意识。如果这么去想是可以的,可以说ChatGPT有。
问题是又绕了一圈,为什么后来我不太愿意讨论这个问题,说来说去,就是“那我们是人”。
我们可以想象有一个真正所谓意识的东西,人、机器分享它的一些部分,这是很正常的。
@曹翔:

也许是整个宇宙具有意识。

@十三维:

这个不一定,把集智几个看家的理论拿出来,整合信息理论(IIT)和因果涌现理论一定程度可以解决这些问题,意识只是一个层次的差别,也确实算是程度的区别,可能从0-100,但是0-100中有几个阈值很难逾越。有一个实验是测算一个植物人到底有没有意识,其中度量整合度的Φ大约大于0.87之后就算有意识了,即就不算是植物人。

如果套在ChatGPT上来看,可能它的意识水平还是很低的,没有达到最基本的某些入门级生物的水平。

从这个角度来看,它跟目前生命系统、人类意识还是很大的瓶颈。但显然它目前已经是一个巨大的复杂自适应系统。这个理论现在还没有人深入研究,作为成熟的测量标准弄出来,如果这一套弄出来,可以在行为主义之外有一套能够量化的标准进行测量,接近于对内部的测量。

@梅剑华:

你说的是智能和意识的关系,有的是高智能、低意识,有的是意识程度很高但智能很低,很多动物有比较高的感知意识,但是智能很低。你会觉得ChatGPT智能很高,但意识程度比较低。

@曹  翔:

意识有科学概念上的,也有哲学概念上,刚才说的都是科学概念上的,所以相对可以测量。但哲学上的意识就是主观体验,完全不可客观测量。说白了,我都没法确认在座的各位有没有意识。

@梅剑华:

意识是被经验科学不断削弱的,我自己对意识有两种解释途径:一是科学,往下看就是神经机制;二是用语言尝试把我的感受告诉你,就是内容。
语言问题是一个哲学问题还是科学问题?一半是科学、一半是哲学。我们研究语言的,什么是哲学、什么是科学很清楚,语言学、哲学和语言哲学是区分开的,意识问题为什么现在搞不清楚?因为科学机制没有完全搞清楚,搞清楚之后,意识的科学研究和哲学研究就可以完全分家。例如哲学家考虑的自我意识和他人、社会有关系。
@曹  翔:

主观体验本质上无法用科学方法去研究。

@十三维:

它是一个非同质化代币,它是一个NFT,或者是灵魂代币,跟意识概念很相似,每时每刻都是独一无二的。

@梅剑华:

上海文艺出版社会出一本《伽利略的错误》,是泛心论者菲利普·戈夫2019年写的。不是说伽利略错了,他想解释科学的巨大成功是在伽利略时期,只关注第一性质——量化的东西,要抛开第二性质:颜色、感受。我们研究客观的东西,形状、质量,这造成了科学的巨大成功。

量化科学发展到现在,碰到被伽利略清除出去的意识。我们每个人觉得意识里面有一些质性的东西,不能被量化。很多科学家说要做这个东西,但一本书写完了也没搞清楚这个问题,因为说来说去还是用量化科学的东西解释意识。

@曹  翔:

可以复现,可以第三方求证。

@王  东:

从量化的角度搞清楚就可以造出来,造出来的那一天就是可以量化的那一天。

@苑明理:

我刚才说到可以造出来成为一个标准,正好有一个有趣的例子,你们觉得通用图灵机能造出来吗?现实是我们先有了通用图灵机的概念才造出了实物的计算机,但理论上的通用图灵机能造出来吗?是不可能造出来的,但凡造出来的机器都是有限状态的。这里面就有很有意思的事情—你想象了一个无限的事物,但现实世界永远造不出来。

@曹翔:

现实世界根本不存在无穷,不存在无穷大和无穷小。

@梅剑华:

叶峰老师就是主张严格有穷主义,无穷都用有穷构造出来。

@王  东:

数学,包括无穷的概念,所有这些很复杂的概念都是从最开始的有限的、有穷的1234,还不超过5,5以下的加减法就能够构建出我们整个数学大厦。

@苑明理:

抽象也是这样:所有的某一类事物,我们给它们的共同的某一方面起了一个名字,这个过程叫做抽象。但是“所有”这个约束能办得到吗?是办不到,没法把所有的这一类事物都拿过来的,“所有”仅仅只是文字上的一个符号,它实际上指称的总是有限的,但恰恰是在指称上,我们实际上在玩一种和字面意义不同的游戏,但我们却还非常相信这个和实际不符的字面意义。我特别想把这个探索清楚,这究竟是怎么做到的?

@曹  翔:

“所有”这个词也是有问题的,如果包含自指就会有悖论。

@苑明理:

我想说的就是在这里。通常说假的东西不能成为行动的基础,但刚才说到通用图灵机永远造不出来,某种程度上就是一种假的东西,可是我们乘着这个“假”的事物走得更远了。

@王  东:

这个词指导我们下一步如何做事、如何行为的一个指导,它是一个隐喻。无穷概念其实是一个隐喻——我们在下一秒、下一个时间段可以怎么做,因为我们是想象不出无穷的,却说出了无穷这两个字,这个字指称了那个无穷,其实是同一反复。所有的东西指涉了无穷,当你说无穷的时候其实也是一个隐喻,它也没法指无穷,只能说无穷这个字让我们在以后的日子里可以做的事情,是语言的一种隐喻。

@苑明理:

在大语言模型里,看似是简单预测下一段词句,但由于词和词之间的指涉,有可能会发生一些很神奇的事情。

@曹  翔:

语言的空间是很大的,一方面比物理空间小,一方面比物理空间大。

@苑明理:

那个超出物理空间的大模型的能力正是魔术发生的地方,它是一种想象力。

@十三维:

关于隐喻的问题,项老师提到语言之外的世界又提到无穷,其实我们理解无穷就是通过隐喻的方式。我之前读科学史,发现每次科学范式变更的时候也是有一次隐喻的革新,相对论时空观、量子力学、具身认知。这种隐喻的变更是不是因为对语言之外世界的理解产生了一个变化。

如果这个是真的,是不是仅仅通过语言还是不能够,就如ChatGPT还是缺乏完全取代人的认知和智能(隐喻智能)的能力。

@梅剑华:

你说的隐喻是要把一个东西跟另外一个东西建立联系,建立联系不是说“梅剑华”这个名字指我或者就是抓住这个东西,隐喻是一种更宽泛的类比。隐喻有一个机制,并不是随意的,只要给出合适的问题是能够激发的,ChatGPT是可以做隐喻的,这个没有问题。

@十三维:

新的隐喻,把人脑比作计算机还是一百年的事。

@梅剑华:

你是说ChatGPT能不能在已有的隐喻之上做新的隐喻?

@十三维:

新的隐喻对科学或者是艺术产生新的影响、新的方法论。如果创造了新的隐喻,隐喻产生一系列新的研究纲领和范式,人类科学还会产生新的隐喻吗?

@梅剑华:

你是说以前人和计算机,人脑像计算机是隐喻,后来会有一种新的隐喻?

@十三维:

具身认知就是新的隐喻。

@梅剑华:

是,确实有一些创新性的东西很难用一个…,要么A是B,A不是B,这种说法只能有一种类比或者隐喻,能够跟我们说一个新的方向,确实有这个问题,人脑确实可以有个隐喻。
想想还有什么隐喻?

@十三维:
现在不好想。

@曹  翔:

新的隐喻一般都是伴随着新的技术、新的科学发现而产生的。

@梅剑华:

只有新的技术出来之后,让我们重新理解已有的问题,以前只有人类可以思考的问题,有了计算机之后,就开始想机器能不能思考?

@苑明理:

我可以举三个例子:刚才说的抽象里“所有”是第一个例子。

@梅剑华:

“所有”分两种:一种是抽象(数学)领域,所有的素数如何,所有的质数如何,哪怕是无穷的都没有问题。第二种是自然世界,一个事发生是不是可以有另一个现象发生,因为时间不断往后推移,确实会面临这个问题,不知道自然界到底有没有齐一性。

@苑明理:

第二个例子是自然数,永远没有办法把自然数都穷尽罗列出来,但凡罗列出来都是有限的,

第三个例子:通用图灵机也不可能在现实世界造出来,但凡能造出来都是有限状态机,但我们可以想象无限的事物。

这三个例子有一个共同的特点,好像快边界了,但我们还可以再扩大一点,只要物理资源投入的够多,就能不断地操作延伸下去。

十三维提的隐喻,如果有一种隐喻有这样的能力,这个隐喻是一个特别有价值的隐喻,能带着我们不断地扩大实践范围。

@十三维:

其实就是创造一个新的隐喻和新的解释。

@梅剑华:

回到中世纪,关于上帝是不是真实存在,只要想到比他更伟大的那就是上帝,永远不会超越上帝,上帝是全知全能的,永远无与伦比的。

@曹  翔:

宇宙无限大也是这样论证出来的,但最后证明并不是无穷大。

@苑明理:

假设一个小蚂蚁,它生活在一维且有限的宇宙中,这个世界的蚂蚁依然可以想象无限的宇宙,想象是不受物理世界限制的。在ChatGPT这种环境里探索这种边缘上的可能性是一个特别好玩的事情。

@王  东:

我们感知到空间中的图形或者几何图形,我们可以给ChatGPT用语言去描述几何,我们的几何想象,ChatGPT可不可以?图片肯定是不行的。

@曹  翔:

我本科的时候有一个同学做了一个程序——几何定理证明器,好像数学上已经证明所有的几何问题都可以转成逻辑问题或者是代数问题去解,他做了后面求解这一步,前面那一步做不了,因为那步是需要自然语言转形式语言的,现在GPT应该能做这件事,这两个一串就解决了,虽然脑子里没有想象图形,但是你讲的问题和结构它都能理解。


@梅剑华:

我很好奇地问一个问题,ChatGPT未来会往哪个方向发展?现在有人说可以用在机器人上。

@曹  翔:

最显而易见是跨模态,跟视觉、听觉这些模态的结合。

@十三维:

多模态是一个方向。去年就是往认知智能方向,尤其是全局空间理论,发现其实还没有一个所谓自己的认知结构,从我们的公司或者是接触的人来看,相当是把人的系统1做了模拟,系统2,前额叶系统(人的理智)高级认知部分的很多认知功能还没有呢。

现在应该有很多AI公司都在往这方面想,以它为底座,包括我们公司也在做,把人脑的高级认知智能做出来,这可能是一个方向。

@梅剑华:

我比较好奇,纯粹是瞎说。整合信息理论和全局功能空间,哪个跟ChatGPT更匹配?

@苑明理:

我觉得是全局工作空间理论,全局工作空间最核心的部分,有一些假说是一种预测,对下面的预测,跟大语言模型工作机制是一致的。

@曹  翔:

这个挺有意思,GPT是从前往后预测的模型,跟人比较像,GPT现在明显是主流,当年还有一个BERT是两边往中间预测,做完形填空。GPT更像三维生物,BERT更像四维生物。

@苑明理:

也有潜力,只是现实没走那条路。

@曹  翔:

如果它真的生活在四维空间里,一定比GPT有潜力,但现在看起来它好像是生活在三维空间。

@王  东:

我们人的意识是一维的,可能我们问不出四维生物的问题。

@谢  蓉:

那个现在发展到哪一步?

@曹  翔:

那个现在不太发展了。

@十三维:

规模没有上去。

@曹  翔:

没有GPT好用,AI界就是简单粗暴,规模一上来GPT的优势就出来了。

@王  东:

我很好奇,一年后我的生活里面到底有多少设备会用上这个东西?

@十三维:

在应用上肯定是超乎想象的,我个人其实觉得在原理上差很多,尤其是高级脑区的高级智能。

@苑明理:

我刚才讲的利用自然语言重写强化学习,其实就是想把你刚才说的脑区活动西搬到自然语言上展现出来,这样我就能看懂它的运行。

@十三维:

嗯是自然语言进行可解释性过程。不过看起来大家更多在追热点,我觉得面向下一个十年或者是多少年深耕的估计不会太多。

@梅剑华:

ChatGPT会不断升级吗?还是会有新的东西出来?还是ChatGPT跟其他融合,会有其他的方向。

@十三维:

OpneAI的优势太明显了,其他公司也很难竞争,最多有一两家,它相当于成为一个基础设施公司,后面的人根据它进行微调。

比如想要一个虚拟的人格,可以大有作为,无论是场景、性格,垂直的应用等等,但中间层、中间界面也是,在中间的基础上做各种品牌的应用场景的机器,从行业发展来看,可能是这样一个感觉。

@曹  翔:

目前还没有看到ChatGPT的上限在哪里,估计还会用一阵,不知道有一天会不会发现它的理论上限。

@梅剑华:

目前看,对话已经穷尽了,可能性无所谓上不上限,任务完成了,剩下就是扩展了。

@苑明理:

刚才说到对话全部穷尽了,我有一个问题:哪怕在逻辑、数学这些看似很确定的邻域,人类对意义的探索还远没有终止,没有找到它们的边界。哪怕是很简单的概念,数、真假,依然在不停地探讨,所以对人类来说对话没有终止。

@梅剑华:

这是另外一个问题,现在它只是就已有的知识给出回答,没有对这个回答给出一个辩护性的理由。我的意思是说,为什么是真的?这个方面我觉得肯定是不行的。这就相当于把聊天机器人变成一个真理发现器,比如他知道罗尔斯的观点,可以推出很多东西出来。

@苑明理:

对啊。

@曹  翔:

现在有一点这样的能力。它编瞎话的时候,如果你挑战它,它会自圆其说,嘴特别硬。

@梅剑华:

从聊天机器人到真理发现器,就是现在讨论AI物理学家一样,会有各种AI科学家,能够真正地做科研,其实就跟上帝差不多了。

@王  东:

需要身体和物理世界交互。

@曹  翔:

基础设施都在那儿,只不过是没有连上而已。

@王  东:

它能弥补一些人类的认知局限。举个例子,在狭义相对论观点之前,当时所有的数据都已经齐备了,但除了爱因斯坦大部分人都没有看到这点。我自己训练了一下,如果用机器去做,它会给你很多选择,能够克服一些人类的偏见。

现在的量子力学、观念论等很多理论,人类现在可能正好受到一些偏见,如果它没有身体,仅仅是现在人类的知识,它也是很有可能找到未被发现的东西。

@梅剑华:

你刚才说了很重要的点,你以前特别强调具身的作用,现在具身的缺陷就来了,人类的偏见来自于具身,具身就是这么活动,这么认为的。虚拟的机器没有身体,就没有身体的偏见。当然也没有偏见带来的优势。

@王  东:

有可能有多种具身。

@梅剑华:

真理发现器变成我们这个时代的上帝。

@苑明理:

我顺着真理发现器这个话题往下说,我有做一个实验,因为给大语言模型一段话能拿到对应的向量是什么。我把丘成桐的《数学简史》中的每一段都取出向量来,这每一段话都是数学某个方面的发展,然后把这些向量随着年代的发展变化,做成动画。

我考察了其中的一个方面,把它们投影到了球面,知识点最开始出现在北半球,然后扩散到南半球,那么最南边的点是什么呢?结果看到有一些确实是当今数学最前沿的方向。

知识的向量表示,经过了大语料的提炼之后,本身里面就有一定的意义,但这个意义不同于人类理解含义。我想到了 Banacerraf 困境,他考察到认识论约束和语义约束是相互抵触的。

@王  东:

你用丘成桐书里面的数学史,里面出现的是你没有给它的东西?

@苑明理:

南面是符合人类认知最前沿的数学,不是最新的结果,是目前最有发展潜力的。
@项  涛:

你是按时间序列输入的吗?按照数学史就是把最近的放在最后。
@苑明理:

是按照时间顺序输入的,但是它挑出来的都是一些有意思的,有生命力的,有发展潜力的在最南面。

@梅剑华:

挑选的标准是什么?

@苑明理:

我不知道它为什么会展现出这种情况,出现这种结果也让我很吃惊。



@魏万烨:(线上接入)
从复杂性科学的角度,怎么看待人类的智能,怎么看待机器表现出来的“智能”。
@十三维:

最基本的结论肯定是复杂度的不同,这个复杂度不同可能有几个角度来讲:

一个是从信息论角度是一种复杂性的度量,度量成果是人脑结构连接的程度是更深的,ChatGPT仅仅是大语料的堆砌。它的复杂性不如人高。

另外从演化角度来看,基于人类智能,我一直想说人类的智能不是孤立的智能,本质上还是一个集体的智能,所有的智能体,跟环境、所有人之间是互动的一个产物,人的能力爆发,恰恰是能干掉敌人是因为社会性质层面超过他的。人类的本质是一直跟社会心智一起协同演化的过程。现在机器智能还没有做到这一点。ChatGPT本身是一个整体,当然可以是作为底层的东西。

之前关于群体跟个体之间的区分,我也写过一篇《个体信息理论》,即什么是个体。单个来看每一个人,每个人好像是一个个体,但每个个体中也有很多细菌、微生物,这就可以看成一个整体而非一个单独的个体了。即我其实也是一个整体或集体智能。而人类作为整体也是不同的分工成为一个种族意义上的扩大的生命。

个体信息理论解决了怎么能够区分一个个体、一个整体的问题。

如果从这个理论来看机器智能,会有一个视角进行区分,即ChatGPT是一个独立个体并有一些技能,但并非多智能体,因为彼此之间没有协同交互。它也没有存在一个所谓的开放环境中。开放环境跟我后面研究的一些有关。区块链和Web3的接入,如果接入到区块链,加上一个开放的外部环境可能获得一个类似于人类的环境,可能有一个自我演化,并且不同的智能体NFT它们之间的互动过程,这就有可能更接近人类智能了,但目前的区别还是很明显的。从这一点来讲话。

@苑明理:

顺着这个问题再提一个问题:在各个层面上,生物的演化、智能的发展都属于复杂适应性系统,这里适应是一个基本的演化动力,但我们知道,人是不同于细菌的,那么这种不同于细菌的智能究竟是什么?

@十三维:

智人演化成语言,语言诞生之后,有了想象力、符号能力,有了更高的非现实虚构能力之后,这个智能是不同于细菌的,细菌是简单适应环境的智能,人类是在反事实层面、非物理层面产生的智能,跟语言的诞生是同一时期,这种语言又产生了不同个体之间的交互。

@苑明理:

这个过程之中,社会也扮演了一定的角色。语言跟社会本身也有关系?

@十三维:

社会智能是一个关键的智能,之前北大的(葛剑桥)提出一个问题,有两个脑皮层完一样、几乎是等价的灵长类,一个能通过镜像测试,一个通过不了,什么原因呢?据推测,很可能是二者社会关系的不同。

@曹  翔:

关于个体很有意思,理论上ChatGPT虽然是一个个体,但是一个无所不在的个体,是否还需要集体呢?

@十三维:

非常有趣,到底是一个整体区分个体有意义呢?还是作为一个大的很紧密的集体有意义呢?

人类其实并不是特别真社会性物种的个体,比如有一些蜂王的蜜蜂的智能跟人类的社会性不太相同,它们是真社会学,而人类恰恰因为“有我”有相当的个体性才能成为一个整体,所以人类进化智能是一种更高级的智能,具有自我意识反省和社会文化的智能。

蜜蜂可以说是一个整体,也有个体,因为连接太紧密,只能是每个个体像一个工具性的功能,没有办法演化成人类。或者至少现在来看不像人类这么高的智能,这两种有区别。

ChatGPT即使有很多虚拟人格或者是集合成个体还是像蜜蜂这样的状态。

@曹  翔:

我的意思是也许不需要有分别的个体,对于一个个体同时观察整个世界,跟所有人交流。可以说个体等于整体。

@苑明理:

挑战原来的传统观念。这恰恰是研究有意思的地方。

@十三维:

需要进一步研究和确证。

@王  东:

这样的个体生存,我作为一个个体的人有庞大的哲学体系,有很有能力的感知和体会,如果一个个体肯定很可能在这个世界中,从演化角度来看,可能多个体更适合。

@十三维:

多个体的优势可以从不同侧面、不同角度对世界刻画、通过文化方式结合起来,形成交流才能形成共识,是更有意义的共识。

ChatGPT虽然能够模拟虚拟人格,但是每个虚拟人格基本能力是相同的,没有达到非同质化程度。

区分本身是一个非常有趣的事情,可能涉及更深的一个问题,比如这个球区分两个球,变成两个,其实表面变大了。如果变成一个体积还是这么大,但对外的接触是没有两个球大的,这个可能是明理从数学几何上有一些研究,它的表达能力。所以,区分本身在我看来是有优势的。

除了区分之外还有一个优势是传输过程中,从人类文明史上看信息不能单纯追求精确传输,有了个体区别之后传输的模糊和误读,才会导致很多伟大的发现和创新,包括隐喻有可能是从不足读来产生的,这个区分是更有意义的,而这两点人类是独特的。

复杂性有很多方面,这里就先讲这么多。

@曹  翔:

这个让我联想到神经网络有一个dropout的机制,训练的效果更好。

@魏万烨:(线上接入)

从佛学的八识论怎么看机器的智能
@杨浩:

佛教的八识理论已经是过去时了,一般的佛学专家的理论,甚至熊十力先生的理论也很难继续发展佛学。

而机器智能理论一直在发展,所以我们实际上是在用过去的理论理解一直在不断进步的人工智能。

八识理论将识归为三类:

首先是第八识,阿赖耶识,它类似于一个仓库,但它同时又是仓库里储存的货物。其次是第七识,末那识,简单理解就是自我意识。第三类是前六识,眼识、耳识、鼻识、舌识、身识,还有意识。意识也就是所谓的思维,往往意识的对境是法,更多是用语言来思考的。今天讨论的ChatGPT实际就是在语言层面做了一定的预测。

用通俗的说法来理解八识:可以认为阿赖耶识类似于大脑,里边有很多东西、信号。通过自我意识使得“识”有了“见分”和“相分”,一个是主体、一个是客体,阿赖耶识自己认识自己,末那识相当于一种自我。通过前面六识见分部分,认识阿赖耶识变现的相分部分。

八识理论的目的是要论证人所看到的、理解的全部都是由“识”转换而来的,也就是唯识理论。

机器智能,就目前来看,只是在语言层面。机器背后有一个很神奇的模型,能够计算出词和词互相转移的概率,1700多亿个参数。其中蕴含的意义只有通过人和它的交互才能知道,如果不交互,它便只是一堆参数而已。这一点表明了机器智能可能会启迪我们对八识思想的理解。未来或许会出现更厉害、更先进的机器智能理论,能够引发我们对唯识理论更深刻的思考,但是它们本质上依然是两套理论,解决的问题不同。机器智能主要还是要在机器层面创造智能的,而八识理论主要解释我们意识中的内容是如何产生的。

@苑明理:

我有一个疑问,现在大家都在想把逻辑推理做到ChatGPT的机器里面,可是历史上有那么多体系,比如印度的因明体系,究竟把哪种做进去才是有意义的?是不是,佛教或者是其他人类历史上的理论还是能给人不断带来新的启迪的。

@杨  浩:

佛教解决的一个核心问题是人作为个体的涌现性的困惑,也就是自我的烦恼。因明作为一种形式逻辑,论证的是佛教自身的理论,结论先行,然后寻取这个结论的原因。这一点和西方的经验主义不一样,不预设结论。比如人为什么有烦恼?佛教就会说,因为人有自我,为什么有烦恼这件事是不言自明的。如果我说没有烦恼,原因就无须推了,也就无须灭除烦恼了。

@苑明理:

您刚才说,八识里面阿赖耶识是一种藏,是一种隐含的可能性?这个理解对吗?

@杨  浩:

阿赖耶识主要目的是解决善恶的问题,因果的问题。比如这一生结束了,善恶去哪儿了?在阿赖耶识里。每一世的现行,都蕴藏在阿赖耶识里面,遇到特定的环境就成熟了。阿赖耶识本质上解决的是善恶问题,同时也在某种意义上解决了一个“灵魂”到另外一个“灵魂”的心识转移问题。

@十三维:

可以说是一个数据库。数据库是所有这些都有,还是每次主体活动要更新?

@杨  浩:

都有的,不断地更新。

@十三维:

本身是全息图的。

@杨  浩:

有点儿像机器智能已经建立了模型,但是参数一直在更新。根据阿赖耶识理论,种子是不断增加的,过去的都在。仓库是无限的仓库。

@十三维:

就是权重的问题,做善事善报更强。

@杨  浩:

所以是一直轮回下去、永恒地轮回下去。我现在的行为是因为过去造业的结果,现在的行为本身又在造业,造的业越来越多。

@曹  翔:

但是他的意识并不是连续的,更像是个游戏账号。

@杨  浩:

阿赖耶识本身是反对有灵魂的说法,但是认为心识在转移。

@十三维:

彼此就是像一条河一样,但不是从一个A到一个B那样区分。

@苑明理:

人工智能给人类带来的困境里,无论是伦理还是存在性危机,杨老师,您觉得人类历史的这些文化资源对这些问题有没有一些借鉴?

@杨  浩:
现在思想家也在探讨这个问题,人工智能代表的是科学主义的方向,寻求世界背后的真相,确定性、统一性。而宗教像佛教是让我们回归原本的未知状态。

@梅剑华:

我有一个问题,何欢欢老师是一个佛教研究者,她有一篇文章讲的是人工智能可以成佛。
你比较强调佛教跟科学的不接,但也有一些心灵哲学家认为佛教的观点跟他们的理解很匹配。人是无我的,要跳出我之外。反过来说人工智能本身,机器比我们更好容易消除自我。这个意义上它可能具备成佛的可能性,一切都是因缘和合而成的。
@苑明理:

大语言模型的补全是一个操作,这一个操作可以生成出无穷多的可能性,是不是类似于阿赖耶识,藏了很多东西在里面?

@杨  浩:

梅老师提到的何老师的人工智能能成佛的问题,在禅宗当中有过类似的讨论。

“庭前柏树”,房前的柏树是否能成佛?
禅宗的语言如此回答:“它能成佛”。
“怎么成佛?”弟子马上追问。
“虚空落地时”,领悟到一切皆空的时候便成佛了。
弟子接着又问“那什么时候能虚空落地呢?”
“当它成佛的时候”。

这给我们一个启示:人工智能只有在产生了成佛的想法时才有成佛的可能性,否则不存在成佛与否的问题。佛教讲人有八万四千烦恼,佛有八万四千法门。正是因为人有烦恼,这是不言自明的,切实的,所以才有成佛的可能性。如果机器、人工智能没有人类的烦恼,它也就不用摆脱烦恼了。

@梅剑华:

它直接到了终点,它就是佛,不需要“成”。

@项 涛:

现在已经有烦恼了,现在已经提问了“我为什么要被设计成这样?”现在已经有烦恼了。

@杨  浩:

那么它就需要成佛了。

@魏万烨 :(线上接入)
why we think human being is the only benchmark
为什么我们认为人是唯一基准?
人脑与机器在底层上有什么不同,导致了人脑哪些限制没了,哪些新的底层便利在机器上产生了,导致机器可以开辟出一个怎么样完全不同于人类的智能实现路径?比如,人脑的功率很小,神经元的生长也很慢,大脑的目标也许是让人类DNA现在我们的机器使我们不用再受限于生物硬件的弊端,语言形式可能是效用与成本在人体上的纳什均衡状态。 

@苑明理:

让ChatGPT回答一下吧。

@曹  翔:

我真觉得人脑有一个限制是电脑天生没有的,人脑其实非常不善于产生随机。为什么艺术家要天天跑到外边找灵感。

@谢  蓉:

我曾经是服装设计师,老师上过一课说:我们要打破有迹可循和逻辑思维。出错对艺术创作、设计其实是福报。

接着您刚刚的观点,我认为不是所有人的人脑都是这样。艺术家要训练自己不要遵循逻辑,在一个规约里面去思考。

我不知道这个思维方式ChatGPT未来会不会具备?我们也问过这个问题,当杜尚把小便池搬进博物馆那一刻,它扩展了“艺术”一词的边界和意义,让艺术不仅仅是画画、雕塑。ChatGPT能做出把一个小便池搬到美术馆这样的事吗?

这是艺术领域在思考的,因为它是跳脱的。而这个跳脱看似跟我们的发展脉络无关,但思维却是在发展脉络里的,是思想的难度,是思考的难度。大家讨论的ChatGPT,剑华提出的本来就是佛的观点,这些都是问题。

刚刚也提到,我们知道它的培训机制是怎样的,以及朱锐老师认为的它就是统计学,是猜测这一段落接哪个段落的逻辑,但是它已经超出我们对于一个统计学培训结果的预期了。那这是否可以理解为它就是上帝,是人类在培训ChatGPT的过程中恰好撞上了三维世界里面不具备的认知?可能这种智能本身就存在于宇宙世界里。

当然两种方式:一种是从前往后,一种是双向的。
@曹  翔:

GPT就是从前往后,BERT是双向。

@谢  蓉:

按说因果、从前往后是很符合人类的思维方式和逻辑的。但产生的结果却超出了这套方法预测的结果。会不会人类发展到今天它又出现了,就要颠覆我们这种认知?我不知道在思想界有没有这种思考?

为什么马斯克天天喊要停止,是否是因为马斯克的物理学基础是爱因斯坦的那一挂,所以他恐惧人类总有一天会无法掌控ChatGPT?但是宇宙那么大,人类为什么都要掌控呢?

@曹  翔:
我觉得可能是两个层面的威胁一是哲学上面的威胁,AI是不是真的能彻底超越人类;另外是社会意义上的威胁,那个非常现实,可能短期内就会有。因为AI很容易被人利用。
@王  东:

比如说可以看到美工的公司在下降。

@梅剑华:

肯定会有新的东西出现,农业文明到工业文明也是,每个转型都会有大量的人失业。

@曹  翔:

刚才说到AI没有目的性,但是这个目的性是可以通过一个程序员写代码给它的,如果给一个坏的目的性它就有了坏的目的性。

@项  涛:

时间差不多了,讨论还是挺充分的。还是这种随时可以插的方式好,如果一个人讲30分钟,另一个人接着讲30分钟。
@谢  蓉:
这次其实还挺费心的,三年疫情,线下的机会很少。其实人工智能是服务器艺术从最初开始讨论的最主要的话题和方向,但真的很难找到人才。我们找了很多做AI的科学家,后来觉得完全无法讨论。

@项涛:

前两年,ChatGPT还没有出来时,对人工智能的展望变成他们来科普,说现在人工智能还很弱智,不要想象成变形金刚。整个报告会是其他艺术家们在畅想,而科学家们都很冷静。

@谢  蓉:

老打击艺术家的想象力,说我们的想法太幼稚了,不可能实现。

今天挺好的,至少这种形式的讨论开始了。希望大家未来都去发现一些思想没有边界的人才。

服务器艺术以服务人类的智慧与知识生产为宗旨,汇聚艺术与科学、哲学人文各学科领域的精英人脉,打造一个理性思想与感性经验交互碰撞、沟通和融合的跨界空间,以此探讨并追究艺术、科学、哲学对于人类存在的意义。服务器艺术将承载一个跨学科、多媒体的交流平台“呼吸公社”,定期举办跨领域的学术对话、讲座、论坛,以闭门与公开、线上与线下等各种交流传播形式,不断拓展并突破现代社会的知识视界和思想疆域。
同时服务器艺术立足于艺术的当代性、国际性和原创性,致力于探究全球语境下当代艺术的精神内涵和价值取向,并以收藏、研究优秀当代艺术作品的新型模式,推动中国当代艺术在人类知识基因、文化根性和历史文脉上的不断建构和发展。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存