□吴贤军
2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》(以下简称《意见》),《意见》中五大治理要求的首个就是“伦理先行”,但“伦理先行”不能忽视将传统人际伦理纳入其中。人工智能伦理是更特殊的科技伦理,因此对人工智能的伦理思考需要回归到科技伦理的分析框架下,确定人工智能伦理反思的出发点和着眼点。由于人工智能技术具有不确定性,如隐私保护、偏见歧视、劳动替代等一系列问题层出不穷,相比传统信息技术更加具有伦理优先的必要性。现代社会提倡伦理要先于治理,不能仅仅局限社会关系层面。人伦关系是伦理关系中最为基础的一种关系,贯穿于人际关系始终,理应是人工智能值得聚焦的问题。
伦理先于治理是科技发展历史进程的经验总结。早期科技水平有限,科技道德问题主要体现为被压迫阶级对先进生产工具的敌视,英国十九世纪初发生的卢德运动就是源于机器压迫。十九世纪末,随着科学实验深入开展,研究过程中对实验对象的不道德行为增多。二十世纪初,科技力量介入战争的深度越演越烈,不少科技成果均是在帝国主义国家的战争对抗中加速形成。然而,各国之间对于种种反人类的科技使用均缺少相应的法律规范。科技伦理的实践兴起于二十世纪下半叶,伦理委员会作为社会治理的行动机制首先出现在生物和医学领域。1964年《赫尔辛基宣言》,制定了涉及以人体为对象医学研究的道德原则,强调人体试验方案在实施前需经独立的伦理审查委员会审议与批准。历史上由于科学发展大大超前于伦理认识,容易导致被动治理,直接造成“先污染后治理”的弊端结果,给人类不断敲响伦理警钟。
伦理先于治理符合风险治理的发展态势。世界百年未有之大变局加速演进,大国之间的政治、经济、文化和军事博弈及层出不穷的科技创新成果,日益加剧人类生活的风险状态。科技所带来的“黑天鹅”事件超越了传统安全的分量,导致各国都面临风险治理问题。吉登斯将风险分为两类:一是外部风险,主要指来自外部的、因为自然的或传统的不变性与固定性带来的风险;二是“被制造出来的风险”,特指由人类不断发展知识而给世界带来的新风险。21世纪以来,有两轮科技风险引起世界各国广泛关注。第一轮是以克隆技术、基因工程为代表的生命伦理事件;第二轮是当前以人工智能介入人类应用场景为趋势的风险前瞻。这两轮科技风险突显后,都获得了空前的治理主体参与度。特别是第二轮,基于大数据模型的概率预测自带降低风险的技术效果,本可以成为控制系统风险的重要一环。然而,源自对专家和专业知识的不信任,还是会成为一大风险来源。为避免这种不信任,需要通过具有象征性的理念和信念来处理好涉及风险文化的种种问题。面对风险易发期,中国除了将科技安全纳入总体国家安全观战略外,从伦理角度提升风险认知,加强对新兴领域的规制。例如,上海市相关部门在科技立法上,坚持以人为本、向善安全、可靠可控的基本理念,强调从法律和伦理融合的视角来加强前瞻预防和约束引导,取得一定成效。以“治理体系和治理能力现代化”为目标,列举高风险禁止或限制行为,杜绝有悖伦理价值及公序良俗的技术应用,发挥伦理审查作用,增强企业社会责任,是一国科技治理的应有之义。
伦理先于治理是从法制到法治转变的重要举措。从法理角度来说,“恶法非法”,全面推进依法治国就是要充分发挥法律的“治国之重器”的作用。伦理先于治理,一方面是要注重法治文化对智能社会的价值观引导功能,应针对技术价值的不同面向进行调整。从“以事为本”的价值观转到“以人为本”,从追求社会效果的“有效性”逐渐过渡到追求公平正义的“人本性”。另一方面,可以让更广泛的科技主体、治理主体和公众主体参与到数字社会伦理关系当中,加强其技术治理下的契约精神和程序意识。总之,法治社会的视角下,法律不能与道德割裂开来。要保证人工智能的有关法律法规真正增进人类福祉,就必须率先进行伦理价值的研判和排序。当下,人工智能产业方兴未艾,从文本生产向视频叙事的演变已经非常迅猛。人工智能的伦理治理上,意识形态安全、隐私保护等社会现实问题已得到普遍关注。然而,就人机关系来聚焦人伦问题,还没有引起广泛重视。事实上,人工智能产业在带来新质生产力、拓展机器工作疆域的同时,绝不仅仅局限于上述负外部性价值问题,而是在现代语境的撕裂下,存在着从深层性、长期性和根本性上进一步消解人伦秩序的可能。一是深层性消解。从工作到生活、从事务性劳动到创造性劳动、从文本构建到视界构建,人工智能技术对全社会嵌入的领域已十分广泛,而这种嵌入必然会潜移默化地影响人们的生活习惯和思维方式,最终揭开人工智能“之伦”的价值表象,直达人类之间的人伦情感和隐秘关系。从认知层面看,人们在交友、相亲等搭建熟人甚至亲密关系的过程中,搭建者完全可以通过人工智能进行性格、喜好、背景等数据的收集匹配,从而大大增加亲密关系确立的成功率。被搭建者则会担心数据算法和智能提示使得自己更容易落入有意识的情感陷阱,以至于多疑、恐惧和逃避搭建。从价值层面看,表达情感的精神产品价值可能被首当其冲,比如诗歌、散文等抒情体裁会加速消亡,缺乏真情流露的理性精神产品和模式化的文章篇幅将大幅度增加。从目标层面看,在平台资本主义的逻辑强化下,个人逐渐陷入数字空间之中,个体越发成为满足资本增殖的中介。
二是长期性消解。人工智能会持续向着“类人”的方向发展和进化。伦理并不是一成不变的,它的表现方式随着时代发展的客观条件进行变化。人工智能技术每向前发展一步,人工智能伦理关系便需要向前一步。当前人工智能系统的完善速度非常快,主要有几个方向:包括加强对通用人工智能研究、对具身智能方式与机器人结合、对深度学习可解释性研究等,这些方向无不是在朝着增强人工智能的创造力和“类人”化递进。最终,随着人工智能的理解和感知能力不断提升,其无限接近人类的趋势,也将会导致影响、模仿,甚至取代人伦主体。是否将人工智能系统视为一个道德行为体,乃至人际交往主体,必然会是人类无法绕开的争议,如果能够确定其在扮演情感角色的时候,对人伦关系的冲突和误判的有限性,则有助于下一步应用场景构建。
三是根本性消解。人工智能体的“类人”,本质来说也存在人伦属性的可能。人伦属性在现代社会有被遗忘的风险,根源在于人们的关系世界与科学世界截然区隔了,即人工智能与感性认识分裂。换言之,当人工智能在把握丰富多彩的世界时,仅以超然于社会家庭情感的自然科学对其进行把握,后果必然以冷冰冰的计算思维来进行演绎。现实中人工智能运用的分裂体现为:人工智能设计目的与其对象关系的分裂、人工智能设计方法与人际互动的分裂、人工智能与人本身人性的分裂甚至对立。这些分裂是与现代社会本身的矛盾纠缠在一起的,也是人伦价值得以被强调,从而参与抵消这种矛盾的意义所在。
习近平总书记强调:“科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架。”人工智能的合理运用需要从伦理层面和治理层面告诉技术开发者和使用者“为什么”和“怎么做”,使技术运用的素养和方式与人类社会更加相互契合。人工智能不仅要表现为维护人们的权利利益和安全利益,而且要重在维护人们的关系利益和情感利益,体现对人文价值的终极关怀。
(作者为福建理工大学马克思主义学院副教授,本文系福建理工大学科研发展基金项目〔GY-S21106〕课题阶段性成果。)