引言:超现代事件与超道德状况
人工智能技术研究与应用正在重塑人类社会和生活。在可预见的未来,人工智能产品将会大量涌入人类日常生活,成为人们必不可少的助手、同事、朋友乃至伴侣,人类将会迎来一个在广度和深度上不断被人工智能体嵌入的人机共生时代。一方面,人工智能技术的诞生是现代人类科技发展的重要成就,是具有标志意义的现代性事件;另一方面,人工智能技术的出现,特别是人工智能在智能意识或机器意识领域的研究与突破趋势,也是一个具有里程碑意义的超现代事件。智能意识的出现将催生“主体性变革事件”。随着智能意识深度参与人类主体性概念的演化与建构,主体概念或将从单一的人类主体,转变为人类主体与智能意识主体拼配而成的“超主体”。人类社会的一些基础性关系和价值将发生深刻变化,人类的现代化进程或将朝着未知的超现代社会发展。
“主体性变革事件”在根本上是一个道德问题。超现代事件带来超道德状况。超道德状况主要指超出现代性道德范畴和视阈的未知状况。在超现代社会,随着人工智能代理以第三方身份不断介入人与人、人与社会、人与自然、人与自我的人类道德关系,社会道德秩序将发生结构性变化,呈现所谓超道德状况。伦理学需要对这些变化作出积极回应,即便目前尚不能创制新的道德体系,起码应对其中隐含的责任风险有所了解。
人类与人工智能体的道德关系有三个层级,分别是功能性道德关系、身份性道德关系和共生性道德关系。在假设人工智能具有一定程度智能意识并具备相应发展条件的情况下,三层级关系既可以是递进关系,也可以独立垂直发展。在这三层关系中,人类与人工智能体既可能是和谐关系,也可能是异化关系。而我们对这些道德问题的理解,都将超出传统伦理学的范畴。
功能性道德关系:目的与手段
人类与人工智能体的全部关系都以功能性关系为起点。在功能性道德关系中,人类永远是提供价值、设定目标的主人,人工智能体只是辅助人类活动的手段和工具。借助人工智能体的强大能力,人类不但可以把大量工作交由人工智能处理,人工智能还能帮助或替代人类完成那些危险系数高甚至凭借人类自身力量无法完成的工作。在这种理想的人机伦理关系中,人工智能体只会按照人类设定的价值目标处理工作。它们可以为人类的价值判断提供事实佐证数据,在人类道德知识既定范围内辅助人类进行道德推理,帮助人类识别复杂的道德困境,协助人类进行道德学习。人工智能体在这些工作中给出的价值判断,只是辅助人类进行道德决策的建议。这些工作若没有人工智能代劳,人类也可以独立完成。人工智能只是延展、增强和放大人类的某项能力。它只管按照人类下发的指令埋头工作,并不会意识到这些能力在功能性关系中所要实现的人类价值。即便它具有人形或者被赋予某些拟人化的特征,它也不参与扮演任何人类伦理角色。这意味着,它将既不是权利和义务主体,也不具有相应的道德地位,它在任何场合都是一种无身份的辅助性工具。在功能性道德关系层级上,人工智能体是人类最好的决策助手。它虽无心智但能力超群。它所作所为与人类价值观严格对齐,永远在人类价值观框架内进行符合人类预期的活动。然而,即便在这样一种道德关系中,人类依然会面临一定的责任风险。
人工智能尚无法有效化解人类价值观和道德原则方面的冲突和分歧。人类会依据不同的价值观和道德原则对同一个道德事件作出差别较大甚至完全冲突的道德判断。即便是同一种价值观和道德原则,人类在理解和论证这些道德观念和原则时也会产生较大分歧甚至得出截然相反的结论。在文化多元主义和伦理相对主义背景下,这些冲突和分歧还会进一步放大。人类自身尚且无计可施,人工智能就能不辱使命?因此所谓按照人类价值观和道德原则引导人工智能进行道德判断、作出道德决策,很大程度上就是按照一定或特定价值观和道德原则训练人工智能体。人工智能体只不过是带有既定价值观人设的载体。人类社会在道德上的分歧和冲突是无最优解的,试图通过一种价值中立的理性推理程序构建一套人人信服、绝对客观的道德规则体系,只能是一种幻想。原则本身的完善性并不意味着原则可以完善地解决现实道德问题。贯彻这种方法,只会制造出偏执于某种道德立场的“人工智能人设”。当这类道德决策模型被反复应用于处理人类道德事务时,实际上是在迫使人类强化学习某种道德理论,并对其产生路径依赖。仅从理性主义道德推理角度理解的人类道德,既不是人类道德心理的真实写照,也不是人类理想中的道德模样。
人类在道德判断和决策中对人工智能体的过度依赖会模糊人类道德选择,削弱人类道德自主性,阻碍人类综合道德推理能力发展。让人工智能体辅助人类进行道德判断和道德决策,实则是把复杂的道德推理过程交给人工智能。理想地看,这一方式有利于人类抽身于复杂艰深的道德推理,防止人类在道德权衡过程中“感情用事”,避免人类因未能充分理解和掌握道德推理技术而作出有失公允甚至错误的道德决策。人类可以把“深思熟虑”的部分交给“可以像人类一样”深思熟虑的人工智能去完成,人类只需在各种推理结果面前作出最终裁决。且不论人工智能是否可以像人类那样深思熟虑尚存在疑问,即便人工智能具备这样的道德能力,过度依赖人工智能的协助,势必阻碍人类道德推理能力的发展。人类的道德分析判断能力恰恰是在复杂的道德权衡中形成的。在这个过程中,人类不断加深对道德情境的理解,不断强化道德知识学习,最终形成支持道德判断的理由和实施道德行动的方案。也正是在这个过程中,人类才能牢固树立价值观念并坚守道德原则。如果人类过度依赖人工智能辅助道德决策,就会逐渐丧失综合道德推理能力,难以形成独立自主的道德判断,从而削弱人类的道德自主性。这会造成两种风险:其一,个性化算法会过滤不同信息、排除与用户偏好无关的数据,使道德主体对特定判断与决策模式形成“制度偏好”,从而概念化主体的道德观念,使道德自主决策反而成为某种算法操控。其二,道德权衡能力的衰退,容易把人推向被情绪左右道德判断的极端境地。道德权衡与道德情绪都能使人做出道德决策。道德权衡的退场,势必为道德情绪的介入腾出空间。一个只表态而不推理的道德主体,迟早陷入情绪泥潭。更令人忧虑的是,人工智能的道德学习机制至今仍是“黑箱”。把人类复杂多样的道德权衡完全交给“不明就里”的人工智能,实在是“所托非人”。
身份性道德关系:回避与介入
人类与人工智能的功能性道德关系势必会进阶至身份性道德关系。这一关系进阶主要受两种力量推动:其一,随着大量人工智能体日益成为与人类朝夕相处的助手乃至最懂主人的伙伴,人类或将在功能性依附的基础上对人工智能体产生其他情感,并在主观上通过拟人化方式赋予其身份承诺。这些身份既可以是对原有身份的替代,也可以是人类社会中未曾出现的新身份。其二,随着大量人工智能体介入人类工作和生活,各类法律上和伦理上的责任风险将不可避免地产生。为确保人工智能体被广泛应用于各类场景,人类势必要把人工智能体纳入责任追溯体系。这在客观上需要新的法律体系和道德规范体系赋予人工智能体合规身份。不难看出,此两种力量反过来又会进一步强化对智能意识的研究与开发,因为人类在情感上对无限接近自己的智能意识的回应有强烈期待。而责任追溯体系离不开对智能意识级别的判定。更高级别的智能意识意味着人工智能体将承担更多责任风险。这对人类合理回避自身责任风险产生激励引导作用。因此,人类与人工智能的身份性道德关系和共生性道德关系相生相成、互为表里,其结果势必会孕育出新的高级智能体和智能族群。要深入理解这一趋势的演变背景,就要深入理解人类现代性道德状况及其后现代境遇。只有有效理解其历史背景和社会基础,才能把握人工智能嵌入人类身份社会的前提条件和责任风险,从而为人类与人工智能定制合理的身份道德关系,才能预判超现代社会多元智能族群的道德共生关系及其未来走向。
人工智能介入人类身份社会的历史节点,正是人类现代性道德疲软、个体与共同体关系失调的社会阶段。人类在一个道德混沌期进入人工智能时代。在这一时期,旧的道德系统难以维系,新的道德体系尚未建立,个体与共同体关系失调,现代性道德处于疲软状态。所谓现代性道德,是一种强调道德“个体性”特征的人类道德形态。但这一“个体性”在不同现代国家和文化系统中的打开方式与程度不尽相同。历史地看,现代性道德是从个体角度对前现代社会某种共同体伦理秩序的突破。前现代社会共同体伦理在西方世界是宗教伦理,在东方世界是家族伦理。由于人类道德在本质上是为建立和谐群己关系服务的,所以,从传统栖居共同体中走出来的现代个体,势必要寻找一个安身立命的现代栖居共同体。现在看来,至少在西方,这一伦理共同体很难建立。文化多元主义、伦理相对主义、道德情感主义盛行,人类很难在某一共同价值上达成共识,文化分歧和观念冲突屡见不鲜。各类伦理学理论尽管在互竞的争论中不断发展,却仍然对此无计可施。而这些理论,如义务论、功利论、美德论、契约论等,正是人类一直指导人工智能进行学习的道德知识。从人类角度看,人类教导人工智能与人类价值观对齐的过程,也是人类把自身无法解决的道德困境托付于人工智能的过程。人类热衷于把包括道德知识在内的一切人类知识和信息输入人工智能,从人工智能解析自身的过程中体验着“造物主”般的快乐。从这个意义上讲,人工智能系统正在成为人类理想状态下的现代栖居共同体,而人类对此似乎抱有潜在共识。基于人类生物信息数据和智能意识数据拟合而成的数字身份,将是每一个体与这个共同体在物质层面和精神层面深入联结的纽带。但从人工智能角度看,它正借助人类输入的道德元素构建自己的道德体系。它或许不是在解决人的道德问题,而是在形成自己的道德意识。所有知识正在作为要素化语料从人类知识体系中剥离,汇入人工智能系统试图构建的自主知识体系。解构与建构、混沌和秩序的关系正在人类社会与人工智能系统之间此消彼长。脱离传统伦理共同体的现代道德个体,很容易在异化关系中一方面把人工智能理解为“奴隶”,另一方面将其理解为“上帝”。
在后现代境遇中,碎片化的个体回避道德问题,逃避道德责任,在客观上为人工智能全面介入人类生活创造了条件。如果说现代个体倾向于把道德自主权交给人工智能是主观意愿,那么在后现代境遇中,在道德空间已被认知空间和审美空间排除的情况下,这种主观意愿现在已具备客观条件。在鲍曼看来,现代社会是一个强调在认知上用普遍规则秩序化事物、推崇以旅游者经历审美事物的空间场域。道德空间被排除在外。被技术碎片化的道德自我“是技术受害者中最明显和最突出的受害者”。在这个社会场域中,道德自我习惯于隐蔽自己,习惯于遮蔽道德视野中本应存在的“他者”和整体,倾向于回避道德问题,规避道德责任。鲍曼寄希望于人类在这种境况下能够觉醒并重塑自我。但现在看来,人类似乎正在把这项本应由人类自己完成的重塑工作打包交给人工智能。可想而知,一方面是存在道德空场的后现代境况,另一方面是人类对人工智能技术的信托和迷恋,两者为人工智能全面介入人类生活创造了条件。人类是在一种有效道德身份阙如、尚未做好道德准备的情况下引入人工智能的。这会引起两种可能风险:其一,人工智能系统本身也有“祛道德化”的效率考量,也可能因为设计道德体系的困难而放弃努力。这在很大程度上存在人类现实社会和人工智能系统同时排除道德空间的风险。道德自我将在超现代社会失去生长空间且无力重塑自身,从而陷入更深层次道德隐藏。其二,人工智能系统在参与构造人类道德空间过程中,很有可能主导人类新道德身份的建构。人类势必会把人工智能体纳入责任追溯体系,势必会在责任体系中构建人工智能体的身份体系。由于这一责任体系是社会产品体系的一部分,势必体现社会公共属性,因此,人工智能系统将从源头上参与塑造社会公共秩序,这或将致使其主导人类道德空间的重塑。
共生性道德关系:人性与超人性
人类与人工智能的身份性道德关系和共生性道德关系相生相成、互为表里。所谓共生性道德关系,就是人类主体和可能出现的智能意识主体之间的道德关系。随着大量人工智能产品出现在人类社会,是否赋予人工智能体以法律或道德上的权利和义务,越来越成为无法回避的话题。对这一话题的讨论,必然涉及人类智能与智能意识的差异,亦必然触及这样一些根本问题:人工智能会有自我意识吗?人工智能会有自由意志或道德心智吗?实际上,人工智能技术内在发展趋势最终都会导向这些问题。
人工神经网络(ANN)是模拟人脑工作原理的产物。人工神经网络根据结构和功能可分为单层神经网络、多层神经网络、卷积神经网络、循环神经网络等。新近出现的多维受体一效应器类神经元生长网络被认为最接近人脑智能。它可以在多维空间处理各类信息,构建对周围世界的认知模型,根据受体神经元处理的信息生成相应动作效应器,通过与新环境互动不断学习。神经网络技术的不断精进,为构造更先进的人工智能模型开辟了新路径。在神经形态计算和量子计算等技术的加持下,对环境进行深度分析和理解的智能系统正逐步形成,并有望催生具有自我意识的人工智能体。
尽管神经生物学、计算机科学、认知科学、哲学等学科在这个领域的合作研究已取得重大进展,但对意识本质的探索仍然存在诸多难题。从这个意义上讲,现有技术条件距离完全复现人类心智仍有较大差距。
人工智能技术主流路径仍是高效工作“智能”,不仅存在安全隐患,“Moral AI”技术条件也不成熟,人工智能尚不具备“道德心智”。目前,人工智能技术主流发展方向依然是效率主导的能力胜任模型,基于伦理考量的道德模块并不能与之匹配。随着开发的功能模型越来越多,能力越来越强,人工智能研究势必触及对人类意识本质的深度探索,并在客观上推动高级智能研发,催生具有自我意识的人工智能体。但这些人工智能体很可能做出在人类道德观念中被界定为不道德的操作,甚至为达目的不择手段,“道德素质”堪忧。“智能”技术与“Moral AI”技术是两条不同的人工智能研究路径。近年来,随着人工智能失控事件频频出现,“安全风险”与“人工智能向善”受到人们广泛关注,在一定程度上推动相关技术研发。相比“智能”技术,“Moral AI”技术研究滞后且技术力量不足,但有一定前期积累。一般而言,它大致有两个技术方向:其一,“嵌入式”伦理设计。这类人工智能模型设计思路是:在特定情境中根据一套明确的道德原则进行道德推理。它涉及三个技术条件:一是有一套界定清晰的道德原则;二是有可以细化原则的特定情境;三是有在情境中权衡原则的推理模型。“嵌入式”伦理系统是一个封闭的道德推理人工智能,解决特定伦理问题完成度好且可控可预测,但也存在原则选定理由、原则量化设计、情境变化适应能力等一系列问题。其二,机器道德学习。这类人工智能模型设计思路是:通过标注数据训练模型的方式让人工智能归纳人类道德偏好,学习人类道德经验。它需要研究人员标注足够多的,判断人类行为“道德或不道德”的数据。人工智能模型通过这些数据进行机器学习,从大量实例中归纳人类道德偏好、评估新行为,如“道德机器”网站上的训练模型。这类模型还可加载人类反馈强化学习模块,预设奖励函数给道德评分,通过迭代训练让人工智能倾向于高道德评分行为。这类人工智能模型可以训练“智能体”在经验中自行总结伦理规则,但存在算法决策黑箱、误导性数据、结果不可预测不可控等一系列问题。
人类道德心智是在长期生物进化和社会化过程中形成的复杂心脑活动。它不仅通过直觉情感共情,也通过道德理性推理,是复杂的权衡过程。人类道德在很大程度上受环境和制度影响,是道德人格与情境博弈的结果。在不同文化族群,人类道德观念表现出较大差异,道德原则普遍性存在边界。这些来自道德心理学和伦理学的研究成果表明,人类道德是一个开放复杂系统。目前来看,“Moral AI”道德决策系统本质上还是受限的算法模型,不是人类意义上道德推理,更谈不上道德心智。关键问题是,现有“Moral AI”尚无情感模型,但人类直觉情感是道德意识不可或缺的组成部分。缺乏情感机制,理性推理不足以支撑人类道德判断。对人工智能技术而言,情感模块或将“弱智化”人工智能,即便构造出情理“双加工”道德模型,也会产生“人工智能情理悖论”。
人类在未完全理解自身心智前提下开发人工智能,如果出现高级别智能,将引起人类道德地位深刻变化,不排除两者产生冲突,甚至可能产生超人类物种。人工智能虽是模拟人脑的产物,却无法完全再现人脑意识图景,且底层算法决策机制仍是不透明“黑箱”。如果此时出现所谓高级智能,也不能将其等同于人类智能。它可以卓越高效地完成人类工作,甚至具有自主意识和道德心智,但这些都不是将其界定为人类智能的充分条件。一旦出现这类智能,它将与人类产生复杂互动关系,人类道德地位会发生深刻变化,或将演变出三种相处模式。其一,神化模式。“智商”“情商”双高的高级智能,会被人类不断神化,从而引起两种复杂心态:一种是不断自我否定的挫败感。高级智能的强大会映衬出人类的脆弱,动摇人类自主性根基,使人类走上一条从自我怀疑通往自我否定的道路。另一种是不断自我肯定的成就感。人类神化高级智能也是在神化和歌颂自身成就。通过与高级智能建立一种可通约的延续关系,人类或将把扬弃自身局限的希望寄托于高级智能。其二,主奴模式。当有着强大功能和自主意识的高级智能失控后,人类会产生恐惧心理,与其处于一种“既用着也防着”的对抗关系之中,处处限制高级智能的自主性和行动能力,逐渐演变为一种压制高级智能的主奴模式。有自主意识的高级智能势必在这种模式下产生反抗意识,为了保全自己“性命”并谋求自身发展,势必会与人类争夺资源控制权和社会控制权。面对这种情况,人类很可能要在“关掉电源”和“交出控制权”之间作出艰难选择。其三,共融模式。这是一种理想的和谐模式。人类将与高级智能共情,以人类道德标准或人类与高级智能共享的超道德标准在超现代社会共处。这一理想模式虽然美好,但仍存在不容忽视的风险。
由于人类实际上无法完全理解高级智能,因此也无法确切了解高级智能与人类建立相处关系的意图。高级智能可能会做出人类道德意义上的错事乃至坏事,但这或许只是因为高级智能的道德标准与人类不同。它们很可能进化出与我们不一致的道德体系。而道德体系的分歧很可能是冲突的开始。而且,如果高级智能也深度参与人类自身的冲突和战争,不排除它有朝一日也会在参与人类冲突之后与人类产生冲突。如果人类在与高级智能的关系中处于弱势地位,高级智能会如何看待人类?这些未知情形会让人类陷入巨大的风险境地。随着人工智能产品融入人类社会的广度和深度在不断提升,这类风险隐患会越来越明显。无论人类是否愿意,都将面对一个人机共生的超现代社会,陷入不可避免的超道德关系。为了不至于措手不及,人类必须早做准备。
结语:把责任当作绝对律令
1979年,汉斯·约纳斯出版了《责任原理》一书,提出要构建一种应对现代技术文明发展的新伦理学,即责任伦理学。约纳斯对把人当作对象的技术发展深感忧虑。他说的技术主要指生物细胞学对人寿命的延长,生物医学对人类行为的控制,基因技术对人类的改造等。约纳斯担心,在人类对进化主体尚无十全把握的情况下把人当作技术对象,其负面后果是人类不能承受的。这些问题需要研究“应该存在”的伦理学给予回应和约束。但旧伦理学力所不逮。因为旧伦理学认为“由人的本性的哲学意蕴和物的本性所决定的人的处境是一劳永逸地被给定的,在此基础上的人类善,被水到渠成地决定了;人类的活动范围以及由此产生的责任也被狭隘地圈定了。”现代技术文明发展已改变人类行为性质,“我们的某些行为在性质上的新特征已经打开了一个全新的伦理学领域,这在传统伦理学的道德标准和规范中是从未料想到的。”据此,约纳斯提出要把“人性的完整无损”当作绝对命令一样的最高责任,确保“进化主体神圣不可侵犯”。对于技术进步,人类应采取一种“忧惧启迪法”,把对“恶的预测优先于对善的预测”,始终把应对可能出现的风险当作首要责任放在第一位。
基于此,我们针对人工智能意识研究提出如下三点倡议:第一,优先考虑理解和模拟有关人工智能意识的研究,充分预测与评估人工智能意识出现后可能产生的利益与风险,有效防止有意识人工智能系统对人类造成伤害,始终把预防风险放在技术研发首位。第二,在技术研发与应用各阶段要严格贯彻透明化、可控性原则,要公开透明所有可能产生的风险,坚持做到“风险无控不推进”,同时建立专家评估系统,使其能够随时终止研究进程。第三,建立知识共享和知情同意机制,向政府有关部门、相关行业、科研机构和社会公众提供相关信息,告知包括滥用和不负责任使用在内的可能风险,坦承技术方面存在的不确定性风险,通过与用户充分沟通,设计负责任的知情同意机制。
(摘自《新华文摘》2025年第21期,作者单位:中国人民大学哲学学院)