这款被诟病的波音飞机,背后其实是哲学漏洞
xinting_6ym 发表于:2022-4-25 21:10:49 复制链接 发表新帖
阅读数:290


上个月发生的东航MU5735飞机事故依然牵动着每个人的心,事故发生的原因尚在调查中,我们期待着权威机构对结果的公布。

今天,痛定思痛,我们不玩梗、不讲笑话,只为大家讲一个关于一款飞机和人工智能的故事。

2018年10月29日,印尼狮子航空JT610航班从雅加达苏加诺-哈达国际机场起飞,然而,在起飞13分钟后,该飞机坠毁于爪哇海,机上人员全数遇难。

在这起事故发生仅四个多月之后,2019年3月10日,埃塞尔比亚航空ET302航班从亚的斯亚贝巴飞往内罗毕,起飞后6分钟飞机失踪,随后在亚的斯亚贝巴附近发现残骸,机上无人生还。



这两起空难的相同点在于,出事飞机的机型都是波音737MAX8,这款飞机属于老旧的波音737型飞机的一款改装产品。

该改型与原始版本的区别在于:本来波音737的机身俯仰姿态是由飞行员手动控制的,而这款新型飞机则采用机载AI系统来自动控制,而且,一旦系统出现故障,将机器控制转化人人力控制的转换开关很难找到,这意味着飞行员要在紧急情况下对飞机进行人工干预很不容易。

发人深省的是,酿成两次惨剧的原因相当类似——机载AI系统出现故障,导致控制系统输入了错误的数据

这无疑为对AI未来抱有无限期待的人们敲响了警钟:人工智能(Artificial Intelligence),真的有想象中那么智能吗?当我们意识到人工智能也可能出错,且无法像人一样灵活应对突发情况的时候,我们该如何放心地将自己的生活乃至生命交付其手呢?

而在2019年埃塞俄比亚航空事故发生后,不少国家都对波音737MAX8型飞机出示“禁飞令”,这似乎恰恰表明了人工智能背后的隐忧。



事故过后,有不少人对“坐飞机”一事表现出担忧。有人认为,出事故的总是波音飞机,因此波音飞机更不安全,还是乘坐空客出行保险一些;也有人对坐飞机这一出行方式产生了怀疑,虽说飞机是事故发生率最低的交通工具,但其高死亡率却令不少人望而却步,毕竟,身处几万英尺的高空,胆子再大的人也会生出几分犹豫。

其实,根据数据可以发现,波音和空客飞机的事故率不相上下,只不过由于波音737MAX事故在短时间内发生频率较高,才逐渐与“空难”一词挂钩。

同时,我们也不必面对事故产生“一朝被蛇咬,十年怕井绳”的逃避心态,发掘其中的问题并进行反思和改进,才是避免悲剧再次发生的解决之道。

这两场空难暴露出当下主流人工智能研究存在的缺陷,而这种缺陷实际上来自更根本的哲学困境。人工智能哲学作为哲学学科的一个新的分支,涉及心灵哲学、逻辑学、语言哲学等多个领域,只有理解了人工智能困境背后的哲学痛点,才能在人机共存之路上走得更远。

01 波音737MAX8背后是符号AI的“原罪”

波音737MAX8酿造的悲剧背后,反映出当前人工智能哲学的困境。当代AI研究主要有两条路数:符号AI和联结主义,其中,这款波音飞机的机载AI系统正是基于符号主义AI而设计的。

严格地说,所谓“符号主义AI”就是以“物理符号假设”为自身哲学前提的AI 研究,该假设认为,任何一个展现出智能行为的系统归根结底都能够被分析为一个物理符号系统,反过来,任何一个物理符号系统在具备足够的组织规模和形式的情况下都会展现出智能。

为符号AI奠基的唯理派哲学家认为逻辑与数学在知识建构中起了主导作用,因此很多人就把符号AI的任务当成是将数学与逻辑知识予以程序化,并让机器执行。

然而,这话既对又不对——虽然任何工程学都需要逻辑和数学头脑,但是二者却在AI逻辑中扮演着“器”而非“道”的角色。如果为了证明既有形式化工具的普遍性而反过来把AI视为应用场景,形式化工具的本质性缺陷就会在特定产品中被放大,并在某些机缘不凑巧的情况下造成重大事故,波音737MAX8的悲剧就是一个例子。

打眼一看,这款波音飞机的机载AI姿态调整系统背后的逻辑相当简单:首先,机载的攻角传感器向控制系统给出数据,系统据此决定飞机飞行姿态的仰角过大还是过小,还是负值;其次,如果数据表明机头过于上扬则系统自动将机头压低,反之则提高机头,直至数据显示飞机处在水平姿态为止。

然而,就是这样一个看起来简洁明了的程序,却忽略了一个根本问题:如果传感器本身坏了,因此给控制系统输入了错误的数据,系统该怎么办?在2019年的空难中,恰恰是由于攻角传感器的故障,才导致系统得到的数据失真,最终酿成了惨剧。



这起事故给我们的教训在于,符号AI系统只能根据一些给定的经验数据进行机械的逻辑推演,而不能灵活地根据环境中的变化去自行判断到底哪些经验数据本身是不可靠的,因而不能作为推理的前提而被接受

换言之,符号AI 系统一般已经预设设计者预估到了外部环境中的一切参数变化,但设计师也是人,无法真正做到完美预估所有可能的偶发状态,因此会出现系统难以在真实环境中根据变化自行给出调整。

那么,符号AI系统的缺陷,谁来“背锅”?或许,对于这个错误,近代唯理派哲学在当代的精神继承者——分析哲学——应分担一定的责任,因为这种AI系统的基本技术工具,现代数理逻辑,就是由分析哲学家予以锻造的,而对于形式逻辑重要性的分析,又在分析哲学运动中扮演了不可忽略的角色,所以,对于AI中所运用的形式逻辑方法的批判,是很难与对分析哲学所推崇的“哲学逻辑”的批判相分割的。

符号AI所运用的哲学逻辑工具,均是弗雷格的一阶谓词逻辑的变种,关于这种逻辑的首要缺陷,就在于无法自我检查其所处理的经验性命题自身的真假,也就是波音737飞机事故所暴露出的困难。

可以说,形式逻辑研究乃是一种在规则层面上其效的规范设计活动,它与事实无关,因此基于逻辑思维的符号AI研究就会面临“经验事实输入不足的麻烦”



为了在AI设计中克服这个麻烦,唯一的亡羊补牢之法就是预先假定某些经验事实在推理系统中起到了几何学公理的作用,而推理系统也只能在预设这些公理为真的前提下运作。

对于真实的智能体人类来说,我们能够轻松在暧昧的经验事实与秩序井然的逻辑王国之间来回穿梭,但是在研究AI上,研究者却试图将经验世界人为地固化,以便削足适履地迎合自身高度僵化的逻辑的要求

从某种意义上说,预设现代逻辑工具的不可置疑性,恰恰构成了符号AI的某种“原罪”。

02 深度学习系统的困境

在人工智能的发展之路可以分为两条,一类是专用人工智能,也就是专司某一特定领域工作的人工智能系统,如曾经因打败李世石和柯洁而名震天下的Alpha Go;另一类是通用人工智能(Artificial General Intelligence,简称AGI),指的是能够像人类那样胜任各种任务的人工智能系统。虽然我们目前可以接触到的多为专用人工智能,但AGI似乎在人工智能的发展上承载了更大的野心,也是未来人工智能的努力方向。



目前的主流人工智能是以深度学习为技术支撑的,这一技术成为专用人工智能运转的基石,尽管许多人都满怀信心地认定它们在经过某种变通后被沿用到其他领域,但根据深度学习技术与人类自然智慧之间的差距,这种期待将令人沮丧地落空。

深度学习系统受到的第一个批评在于,该系统的设计虽然在原理上参照了人类神经元网络的结构,但是略去了大量的生物学细节,而且在复杂程度上与真正的人脑也不可同日而语。尽管一些深度学习的倡导者主张人类某些神经元的微观结构实际所采用的信息处理程序非常类似于深度学习算法,但这一发现也恰恰说明人类大脑的实际复杂程度远超现有深度学习系统,那么我们也就很难指望这样的系统能够完全具备人类智慧。

面对这一指责,不少对科学技术发展抱有乐观态度的人都会忍不住反驳:现代科技正呈现井喷式增长之态,哪怕现在深度学习系统还存在技术障碍,未来的某天或许就能与人脑智慧相匹敌呢?然而,从原则上看,深度学习技术也无法转变为通用智能系统。



虽然深度学习的算法基础并不是针对某个特定问题域,而是能够在原则上适用于各种应用场景,但是,这种“能够在原则上运用于各种应用场景”的算法并不一定就是符合通用人工智能要求的算法。

其中的原因在于,尽管该技术本身具有普遍适用性,但已经运用了深度学习技术的特定产品却肯定是专用的——比如,以图像识别为主要任务的深度学习系统,其在神经元网络架构与反向传播算法的设计细节方面,肯定与以自然语言处理为主要任务的深度学习系统非常不同。换言之,一旦一个深度学习系统已经完成了特定任务为指向的训练,它就不能同时胜任另外一个领域的工作了

回到“深度学习”这一容易引发误解的说法,人们对这种技术的过度期待很可能来自于这个与科幻电影高度适配的名字,似乎AI系统可以像人类那样深度地理解自己的学习内容。

但实际上,与其说是深度学习,不如说“深层学习”更准确也更贴合“deep learning”这一英文说法的原意,因为该术语的真正含义,就是通过大大增加其隐藏单元层的数量的方式来讲传统的人工神经元网络进行技术升级,使整个系统的信息处理机制的细腻度得到提升,从而令更多的对象特征能够在更多的中间层中得到安顿。



尽管“深度学习系统”作为一种度计算机硬件和数据量具有高要求的技术,在21世纪后得到飞速流行和发展,但这一系统本质上的缺陷却不容忽视,通用人工智能系统的发展依旧任重而道远。

03 通用人工智能路在何方?

相信不少看过电影《2001:太空漫游》和《黑客帝国》的人都会忍不住为人类与人工智能共存的未来感到担忧——AI只是人类的工具,我们真的希望它们产生自己的意图吗?

如果AI通过自主产生意图的能力最终形成了“我们要奴役人类”的想法,作为创造了AI的人类,我们该如何是好?



《黑客帝国》剧照
再联想到几年前微软公司曾在推特(Twitter)推出的一款互动型人工智能Tay,其本意是模仿千禧一代的日常对话并像朋友一样与平台用户交流,在刚上线时Tay是一个充满友爱的19岁“女生”,但在接收了大量有意引导的不当言论之后竟变成了一个喷发“毒液”的种族主义和性别歧视论者。



此外,去年上映的美国动画《爱,死亡和机器人》第二季中也有不少机器人获得自主意识,反过来攻击人类的剧情。这些人机共存的现实与可能的想象无不引发我们的反思:接受海量信息的人工智能,为何一定会成为人类的朋友,而不是将枪口对准其缔造者?



《爱,死亡和机器人》第二季剧照
实际上,这个横跨技术、伦理、政治等多领域的重大问题直到今天仍然备受争议,而这一命题要想成立的前提首先在于“让通用人工智能获得自主意图”,让我们不妨先从澄清“意图”这个词讲起。

无论在汉语还是西语语境中,“意图”都可以被视为某种对象被明确化了的欲望,由此就会引出一个更为宽广的哲学史议题,即“理性一元论”与“理性-欲望二元论”之争

前者的主要代表是黑格尔,他将欲望视为被概念统摄的下层环节,并由此完成理性世界的大一统;与之相比,叔本华则维护了康德在现象界与本体界之间的二元对立,这两种思路实际上为通用人工智能揭示出两个发展方向——应当做出一个将信念系统与意图-欲望系统相融合的统一大系统,还是预先设立两个系统的独立并一次做出一个将二者合成的混合式系统呢?

或许,我们可以在二者之间开辟出一条中间道路。信念与意图之间的界限是相对的,是一个统一表征系统内部的分界,而不是现象界与本体之间的那种隔绝式分界。因此,我们既可以对叔本华所说的“终极生存欲望具有超越人类认知架构的神秘性”持同情的理解,也可以延续黑格尔关于“欲望与理性相互结合共同构成行动”的思考。



其实,从当前AI研究的发展方向上看,AI奴役人类的未来离我们还太过遥远,因为主流的符号人工智能、深度学习技术,都难以在工程学层面上落实关于意图的最基本勾画,要想令人工智能产生自主意图,从目前已有的技术水平和研究思路上看,只能感叹一句“路漫漫其修远兮,吾将上下而求索”了。

回到谈论一切人工智能的出发点,我们将会遇到这样一个问题——关于人工智能的研究何以是一种哲学?

实际上,从1950年计算机科学理论奠基人阿兰.图灵发表著名的“图灵测试”起,人工智能的发展就注定走上了一条与哲学相羁绊的道路,而图灵本人对50年后首台具有人类智能的人造机器面世的畅想,无疑也预示着当今AI科学的某种研究方向。

关于“何为智能”这个大问题的追问,在本质上就是一种哲学工作,而哲学史上积累的大量既有成果,既构成了AI研究的智库,也在不同程度上影响者设计者对于产品研究走向的信念。无论人工智能走向何方,都注定将是一场人类自我认识、自我了解的旅程。

##20220425

本期活动

未来人工智能将会发展成什么样子?哲学能够对人工智能起到什么影响?请大胆地运用你的理性,发挥你的想象力。小北将从留言中选出两位幸运读者,赠出今天的主题图书《人工智能哲学十五讲》。

起底人工智能背后的哲学逻辑及其发展经验,全民阅读大会·中国好书嘉年华推荐

点击图书封面,即可直接购书

-End-

观点资料整理自:

《人工智能哲学十五讲》,徐英瑾 著
编辑:昭言 黄泓
图片来源:微博,影视剧截图
转载及合作请发邮箱:
scb01@pup.cn
强势入主各大榜单,这些书经受了时间的考验
那些买书如山倒的人,后来怎么样了?
从9.6到6.1分,满怀期待地进去,满脸疑惑地出来



守望东航空难真相
返回列表 使用道具 举报
条评论
您需要登录后才可以回帖 登录 | 立即注册
高级
相关推荐