赵汀阳:GPT在哪些问题上逼得思想无路可走?|热点
@shuise 的阅读笔记
GPT进入了语言领域,而语言是人类的本质,这就切中了人类主体性的要害,也就需要我们从真正的哲学层面(意识、主体性)进行追问。
目前的人工智能仍然属于图灵机,其采取经验主义和进化论原则。GPT是图灵机的升级版(很快还会有更高级的),其思维方式已经从机械主义切换为经验主义和进化论。
除了对思想边界进行极限反思,哲学的其他功能都是可替代的,实际上其已经被科学和社会科学所替代。思想的极限边界意味着思想走不出去了,只能自我说明。正如维特根斯坦指出的,哲学问题的一般句型相当于:我不知道怎么走了。这不是迷路,而是没有路了,到头了,思想没有更多的理由了,于是回到了思想的初始状态。
人类思维对于人类自身也不完全透明,我们并不完全理解人类的思维。人类思维有一部分仍然是黑箱,尤其是创造性思维,即从0到1的创造方式是目前无法解释的。创造性的秘密还无法还原为心理学、生物学和神经学的理论,所以目前没有理论能够解释,换句话说,创造性至今没有翻译方式,我们甚至不可能教给另一个人如何进行创造性思维,更别提教给人工智能。
@shuise:人身上属神的部分。
知识是一个解释和自解释系统,要真正理解一种知识,就需要理解知识的系统和结构,这意味着,良好地理解一种知识的意义就需要配备一个良好的解释系统。可是,人类的知识解释系统并不完善,存在着许多直观或默会的理解。
人类生产知识的能力超过反思知识的能力,两种能力并不对称,这是一件有些神秘的事情。就目前比较明确的反思来看,知识生产的主要方法是还原法,还原即简化,把难以理解的复杂性化简为心灵一目了然的简单关系,或者说以“清楚明白”的事情去解释混沌不清的事情。
自然现象里并没有因果性和必然性的直接显现。自然里甚至不存在必然性,只有不确定性和无限复杂性,必然性纯粹是逻辑和数学的发明,并且只存在于封闭而能行的系统里。既然必然性不存在于自然,因果性也随之变得有些可疑了,似乎至多是无限逼近必然关联的极大概率。
绝大多数概念都是人的发明,而概念就是思想的边界,创造概念就是开拓思想边疆(巴迪欧是这样想的)。于是遇到了一个关键问题:作为人类思想基础的概念都是一般普遍或高度概括的,有着难以切分的丰富意义和整体性,因此无法还原(化简),这意味着还原方法的局限性。人类早就注意到概念或思想甚至自然事物的不可分的整体性,因此在哲学上形成了相对于还原论的整体论,在今天表现为最新的一种综合科学,称为“复杂科学”。
维特根斯坦相信,实例(examples)的有限集合定义了语词和可能语句的意义值域。GPT正是这样做的,可以说,GPT是个维特根斯坦型的经验主义者。
GPT的策略大概是这样的:除了基于大数据的统计学,同时还使用了预测—修正程序,估计就是贝叶斯概率推理,这样就可以理解GPT何以能够从特殊推导一般模式,当然不是普遍必然那种一般模式,只是在不断修正中的相对最大可能性。
强化学习需要与真实的人互动,人对其回答的积极或消极反馈就是所谓奖励和惩罚,GPT据此来调整其模型参数。但有个疑点:人类会给出大量自私、无聊、偏见、狭隘和恶意的反馈,与人类互动所获得的奖惩参数恐怕很难产生最优结果。这是一个与民主同构的难题。背后的深层问题是:民主同时是一种非集权的专制,是流行、流俗、平庸或缺乏创造性的意识形态专制。
新芝诺问题的要点在于,人类知识可以无限发展,但受到生物学的限制,人类的智能存在着极限(心灵和身体的能力都有其极限),相当于智能被上帝锁死,因此人类智能有着某种无法超越的智能常数,类似于光速是宇宙的一个不可超越的常数,而人工智能的设计智能来自人类,那么,给定人工智能限于图灵机,合理推测是,图灵机人工智能可以无限逼近人的知识,但无法超过人的智能常数,类似于不可能比光速更快。
人工智能突破奇点有两种可能性:(1)超越人类的智能常数,这必须能够产生与人不同而高于人的另一种思维;(2)达到人类的智能常数,又有着比人类智能更大的运作能量。可能性(2)是安全奇点,看起来非常可能,只是需要时间,但可能性(1)是危险奇点,幸亏目前还难以想象。从根本上说,人工智能突破奇点需要获得自我意识、反思性、创造性。这三者密切相关。
人工智能要获得具有建构性的反思能力,就需要拥有自己的语言。语言几乎就是思想的本质,至少如维特根斯坦认为的,语言的界限就是我们世界的界限,没有语言就没有思维。人工智能目前还没有“属于自己的”语言,它不认识它说出的话,只认识那些话的底层数据关联,所以人工智能其实没有说话,只说了数据关联。乔姆斯基批评GPT没有语法,只有数据关联,这个批评是对的,不过人工智能是否需要先天语法,却是个未定问题
@shuise:意思是,AI 到底是仿生人?还是一个全新物种?
尽管人工智能尚未突破奇点,但将要划时代地全面改变世界,这是一定的。人工智能的可能后果很多,也已有大量讨论,比如会造成劳动、手艺、经验、博学的贬值,最终导致人的废物化;比如人工智能加持的元宇宙或许导致真实世界以及人际关系的贬值,最终导致生活的意义消散(dissipation);更深刻的问题是存在论的危机,万一人工智能变成新主体,世界就变成多物种主体的世界,人类单方面做主的历史就终结了;还有政治上的风险等诸如此类的危机。
就是说,并非技术太危险,而是人类文明自身的结构是成问题的。这个结构性的隐患就是人类文明的技术发展与制度发展之间的失衡,准确的说,技术文明的发展水平远远超过制度文明的发展水平。
张晓晶教授提出了一个非常重要的问题:技术与制度的“赛跑问题”。张教授倾向于乐观主义,他相信(或者希望),在技术发展的刺激下,制度应该会发生回应性的重大创新。背后的理由是,人类在无数危机中走过来,应对危机有着丰富的经验。确实如此。古希腊人把危机(krisis)看作是时间的一个重要性质,既可以是“危机”也可以是“转机”,有着“危”也是“机”的双重含义,这就很有深意了。
阅读全文:https://mp.weixin.qq.com/s/AnlhmRHoSJM-O9bLBlxOVw