大约进入21世纪以后,哲学家才不可避免地面对科学技术的挑战。此前,马克思与恩格斯那一代哲学家还大多惊叹于科学技术推动社会进步的巨大力量,将技术看作是人延长了的手臂。直到20世纪以后,两次世界大战催生出了技术的军事化用途,让诸如海德格尔这一代先贤大哲发现了技术与人之存在之间的内在悖论。直到20世纪中晚期,法兰克福学派的代表人物,目前仍然在世的哲学家哈贝马斯曾将“科学技术即意识形态”作为一个哲学命题进行论证,他试图说明的是技术成为了与资本发展共进退的共谋者。时至今日,技术早已不再是社会发展的“工具”和“手段”,而成为人类自己为自己制造出的一个强大对手。

这是一个对我而言最重要的问题,是一个学习哲学的学者的存在危机——即,哲学本身存在的意义是什么呢?

Comprehensive Considerations for the “Revolution” of Artificial
Intelligence:An Ethical and Ontological Analysis

技术对于人类的这一严峻挑战很容易让我们想起中世纪经院哲学家们曾经为自己设计的一个悖论性的难题:上帝能否创造出一个自己都举不起来的石头?不管我们的答案是什么,最终都会将上帝推入到与其“全知全能”之属性相悖谬的境地。当时的经院哲学家们对这一悖论争论不休,而这一争论最终推动的只是一种空泛的思辨哲学的逻辑推演,但今天这一逻辑推演的悖论性却极为真实地困扰着人类生存本身。自从Alpha
Go与Alpha
Zero相继诞生,人们开始对于技术的自我增长产生了普遍的恐惧。人工智能——人的这个创造物战胜人的神话正在从科幻小说中走出来,变为现实。

我不禁想到汉娜·阿伦特在战争犯艾希曼在耶路撒冷受到审判时,在一片被民族主义点燃了怒火的犹太人群中,冷静地抽了一支又一支的烟,写下了那本从此让她饱受来自犹太族群本身反对,排斥和愤懑的:《艾希曼在耶路撒冷》。在这本书中,她创造了一个概念,叫做【平庸之恶】。因为她认识到了艾希曼不是一个恶魔,而是一个出自于普通人中的普通人。屠杀,种族灭绝,杀人机器,这一切丑陋到超出我们的想象的恶并不是来自于一个抽象的,超越了人性的魔,而是来自于人本身。一个古老的思想一直在作用于大部分人们,那就是把一切我们不能解释的,超出寻常的人类行为,上升到神性或者魔性。这个思想是那么根深蒂固,以至于我们因此失去了思考人性的机会。这个思想是那么根深蒂固,我们立即可以把世纪的痛楚归结于一个封魔的人群。我们可以立即把深邃的问题转化为一场激昂的批判,将前人,将自己过去的痛苦,挥散在暴怒的深渊中,短暂的审判中。然后再去重复过去的惨烈。

作者简介:赵汀阳,中国社会科学院哲学研究所。

人类生存的每一次危机都需要哲学家的关注。哲学,虽然是一种爱智慧的学问,但却根本上以关注人的生存为己任。技术,原本作为一种人类知识力量的外化形式,曾是帮助人们更好地生活的手段。因此,当年法国哲学家笛卡尔那句尽人皆知的“我思故我在”,其所设立的不仅是哲学的第一原理,也为知识,以及科学和技术设定了第一原理。从此科学研究就可以如同脱缰的野马一般任意驰骋,为什么呢?原因很简单,因为笛卡尔的哲学原则告诉我们,人成为了整个世界的理论根据。人作为世界主体,人也就成为了世界的上帝。

阿伦特,一个被德国哲学洗礼过的学者,看到这个深埋在犹太民族背后的问题。从此,她投入到对于邪恶本身的研究中,研究二十世纪——这个人性沉沦,这个集权主义,杀人机器,核武器和生化技术时代,人的邪恶从何而来,本质是什么。

原发信息:《哲学动态》第20184期

现代社会就是人这个上帝创造出的一个人化世界,如今这个上帝正在制造一个自己搬不起来的石头,于是终于开始恐慌,仿佛这一境遇是人类从未遭遇过的挑战。其实,今天人工智能对人类存在造成的危机与二战期间原子弹爆炸所带来的恐慌并无二致。它所表达的都是技术对于人类生存构成的威胁。在哲学上,我们可以用知识论与存在论的对抗性关系来概括这一危机。技术本质上是哲学知识论的必然后果,其基本的诉求是试图将世界上存在的一切都进行形式化的抽象,也就是说,将一切都还原为抽象的数字,从而适用于可计算性。而存在论,则意味着对于人自身的关照,其中人的情绪、情感成为了关照的重心。大体说来,那些对于人工智能充满信心者,以及那些对于人工智能所产生的威胁忧心忡忡者都不过是知识论的拥趸;而大部分的哲学家们都可能会立足于存在论,而对于人工智能所带来的威胁不以为然。原因不难理解:人工智能能够完全替代人的玄想之所以能够成立,关键在于你将如何看待人的属性,如果你认为人的本质就是一个可以被还原为一组组数字,如同一部巨大机器上的零部件,他每一时刻的行为都是被规定好的,他未来的每一种可能性都可以被计算出来,那么你当然会觉得人可以被人工智能所替代。但如果你认为人生就是偶然性事件串联在一起的一场戏剧,其间上演着的每一分钟都包含非确定性,它的精彩是不可预期的,那么你根本不会相信任何一部机器可以完全替代你的存在。

我又想到一些更纯粹的哲学家,一些看上去更抽象,与现实更遥远的哲学家。比如笛卡尔。一个谦卑的学者,致力于将牛顿的机械物理学作为基础,去构建一个合理的对整个世界的思考。对于牛顿而言,物质是惰性的,被动的,甚至有些愚蠢的(牛顿真的曾经形容物质为愚蠢)。笛卡尔接受了牛顿的(在当时是最超前的)科学思想,然后把它作为真理去思考。最后,笛卡尔将世界分成了三类,上帝,物质,和disembodied
mind (类似于灵魂的存在)。我们思想(mind)帮助我们指导着物质。

内容提要:人类的技术发展正在取得多种革命性的突破,其中一些技术在给人类带来巨大利益的同时也蕴含巨大风险。本文分析了人工智能在不久的将来可能导致的严重而尚不致命的危险,以及在较远的将来可能导致的致命危险;同时还分析了人工智能的安全条件,提出需要为超级人工智能设置确保自毁的程序以保证人类的存在地位。

人工智能在今天社会所带来的恐慌,一方面源自于资本的诉求,其有意制造话题,以便敞开新的利润增长点,另一方面,则源自于人的生活越来越多地被知识论的抽象原则所操控。比如人有了身价,成为了可买卖的商品,人的工作时间十分固定,以至于一天的生活与一个月每一天的生活毫无二致。这在哲学家看来是一种典型的非人的存在样态。人工智能所代替的,也只能是非人之人,而非人本身。

对,笛卡尔的形而上学直接把我们引导了哲学里最不食人间烟火之处:世界的本质的探讨。然而,它从来没有停止过影响过小日子的人们。思想高于物质,上帝高于思想,这几乎在后来变成了一个人尽皆知的思维模式。它本质上是一个高低先后的排序,它本质上是一种优越性的排序,它,定义了人在自然和其他非人类的生物面前的优越性。

关键词:人工智能/超图灵机/哥德尔程序炸弹

正是人工智能的迅猛发展,产生了一个契机,它让人可以突然越来越自省于这样一个事实:我们人类活动当中究竟有多少是不可计算的部分,以便将我与机器区分开来。是的,正是人工智能,让我们越来越清楚地看到了“人本身”。

在二战时期,当纳粹对犹太人残杀之时,他们将犹太人比作动物,比作老鼠,让犹太这个人群,成为了【非人】的存在,从而给了纳粹一个可以杀死他们的理由——我们不在杀人,我们所做的和用药杀死蟑螂没有区别……

21世纪以来,与人类未来命运最为密切相关的大事莫过于人工智能和基因工程的惊人发展,这些技术将给人类带来存在论级别的巨变。

作者简介

阿伦特的哲学看上去和现实紧密交接,而到了笛卡尔,从一个抽象的哲学到一个具体的事件之间的联系变得模糊了。有时哲学家像侦探,在一个个小思想里寻找它们的源泉。

基因工程是一个好坏后果相对比较清晰的问题,至少在伦理学上相对容易给出判断。比如说,基因工程中那些能够用于治病救人的生物医学技术无疑都功德无量,对此人们基本没有争议。然而,通过基因编辑而改变一个人的智力水平和生物极限,从而使一个人获得近乎超人的智力或者长生数百岁,这种努力虽然诱人,却是一个有着巨大未知风险的目标。假如此类技术能够普惠每个人,则可能是一个皆大欢喜的结果(但仍然存在未知风险);但假如只能够特惠少数人,则显然不会被众人所接受。经济上的巨大不平等已有可能导致社会动乱和报复性行为,生命权的不平等恐怕会让人们忍无可忍而导致致命的全面动乱、反叛甚至战争。显然,那些导致生命不平等的基因技术完全缺乏伦理支持,既不仁义也不智慧。因此,以理性之名可以推想,将来会有人类公约将基因工程控制在普惠众人的限度内,任何自私狂悖的冒险都可能被禁止。可以说,基因工程是一个需要严肃对待的实践问题,并非一个价值疑难问题。

姓名:夏莹 工作单位:

诚然,哲学有时看上去没有新闻,社会学,经济学相关,因为它们在做的,是对当下生活的总结:农村和城市的工作的收入差距,什么产品在中国市场不收欢迎,美国的移民法和美国经济发展的关系,社会边缘人群的福利问题,公立学校的资金来源,科学课总是让学生提不起兴趣……

与此不同,人工智能的发展却涉及许多理论上的根本困惑,以至于难以判断。仅就单纯的技术应用而言,人工智能似乎能够普惠人类,并不违反平等原则,因此在伦理学上并无明显疑点;但就其革命性的存在论后果来看,人工智能有可能改变或重新定义“存在”概念,有可能在存在论层面上彻底改变生命、人类和世界的存在性质。这个“革命”过于重大,以至于我们难以判断这样深刻的“存在升级”是人类的幸运还是不幸。所以,人工智能不仅是个技术问题,同时也是哲学问题。在这里我愿意以杞人忧天的方式提出几个疑问:
人类到底是需要人工智能替人劳作,还是需要人工智能替人思考?如果让人工智能替人劳作,人类因此得以摆脱艰苦的劳动,那么,人类的生活会因此变得更好吗?如果人工智能获得超越人的智慧,人工智能还需要人类吗?人类文明还能够延续吗?或者,人类文明还有意义吗?人类已经习惯了带来“进步”的新发明,但人类真的需要任何一种新发明吗?

我从来不觉得哲学是,并且应当是,一个抽象和清高的职业,蜷缩在世界的一角,游戏着高深莫测的思想。哲学,永远是对人在这个世界上的行为和选择背后的信条。而哲学家的任务在于,发现、创造这种潜在的信条,并思考它们在教育,社会,政治,流行文化背后的推动作用。

一、人工智能的“近忧”

因而哲学,不是纯粹的形而上学和知识论的研究,它的目标在于当下具体的现实世界,在于诊断和改善现世的隐疾顽症,在于制造变化。

尽管有些预言家相信达到“存在升级”的人工智能“奇点”已经胜利在望①,但更多的科学家认为“奇点”仍然是比较遥远的事情,潜在可能尚未在望,因为许多根本的技术难点仍然不得要领,特别是尚未真正了解思维的本质、机制和运作方式,所以无从断言其到来。在此,我把能够形成“存在升级”的人工智能看作属于“远虑”的知识论和存在论问题,而把将在近年内确定能够实现的人工智能看作属于“近忧”的伦理学问题,这一讨论也将由近及远来展开。作为“近忧”,人工智能的技术应用非常可能面临以下伦理学问题。

图片 1

其一,自动智能驾驶悖论。这是近年来引起普遍关注的一个实际难题。假如人工智能的自动汽车(目前的技术只是无人驾驶汽车,尚未达到完全自主智能的汽车)在路上遇到突然违规的行人,是保护乘车人还是行人?这似乎很难做到两全其美,于是形成了一个两难选择。假如自动智能汽车的原则是舍己救人,即牺牲乘车人而保护行人,那么这样的汽车将没有任何市场前景,没有人会购买或租用一辆毫不利己、专门利人的汽车;假如原则为保护乘车人,也恐怕难以通过市场准入评估,毫不利人、专门利己的汽车同样不可接受,因为每个人都有可能在某些时候成为无意违规的行人,比如一时糊涂没有注意交通灯;因为年老或身体状况而通过路口速度太慢;儿童尚不熟知交通灯或粗心大意,等等。即使人人遵守交通规则,也仍然会担心被设置为优先保护乘车人的程序在某些情况下可能产生误判。

文| 闫思瑾

严格地说,这是人的悖论,不是机器的悖论。机器只是遵循规则而已,问题在于我们不知道应该为自动汽车选定什么样的规则。这个问题看似小事,其理论难度却非同一般,即使引进负有盛名的罗尔斯的无知之幕也无法解决。其难点就在于:假定每个人都是投票人,并且每个人既可能是行人也可能是乘车人,那么就无法作出决断——给定人们的选择总是优先满足风险规避原则,因此人们不可能选择一种在某些情况下有可能祸及自身的高风险规则。实际上,自动智能驾驶悖论比广为流行的有轨电车悖论要深刻得多。所谓有轨电车悖论其实只是一个技术难题,它并非无“解”,而是没有适合任何情况的一般“解”,但有多种因情制宜“解”(简单地说,如果当事人皆为抽象人,则有功利主义“解”;如果是具体人,则有多种根据道德附加值的“解”)②。然而,自动智能驾驶悖论在伦理学上真的无“解”。当然,我们可以寄希望于将来会有一个完美的技术“解”,即自动智能汽车的技术能够达到同时保护行人和乘车人。

这个悖论只是人工智能可能带来的技术应用难题的一个象征性的代表,类似的悖论也许会有很多。此类悖论具有一个通用难点,即当人工智能成为人类的行为代理人,我们就需要为之设置一个“周全的”行为程序,而这正是人类自己的局限性。事实上,人类能够作出许多伟大的事情,却从来没有做过真正周全的事情。这也正是之所以存在那么多哲学问题的一个原因。我们习惯于百思不得其解。