Reasons for the Shortage of National Creativity
-
摘要: 探寻创造力匮乏缘由,反思民族文化、传统教育对创造力的形成与发展,是中华民族复兴之必须。文章认为:创造力衰退与华人种族无相关;传统文化、教育及其开放度与创造力直接相关;多元文化融合、开放教育、教育科学化是创造力培养的良好途径。Abstract: To seek out the reasons for people's lack of creativity, and to think about the influence of national culture and traditional education to the forming and development of creativity are necessary for national rejuvenation. This paper holds that: the decline of Chinese people's creativity has nothing to do with the race; traditional culture, education and its open degree are directly related to creativity; the multi-culture fusion, open education and education scientificization are effective ways in cultivating people's creativity.
-
Key words:
- national culture /
- education /
- creativity
-
人工智能从20世纪50年代兴起,迄今已有70多年的历史,随着深度学习技术的成熟使机器学习获得一定程度的自主性,推动机器学习朝着全自动数据分析方向发展。深度学习“旨在探索和实现机器的智能化,其底层算法逻辑是对人类的认知过程、情感状态、信息加工方式等的模拟和计算,表征为模式识别、专家系统等能直接为人所用的智能技术”[1]。人工智能算法作为人工智能技术的核心和灵魂,构成了人工智能系统的基本方面,通过数据指令的不断输入和深度学习,建构了一整套运行的系统和机制,得到了越来越广泛的应用,引发了人力、脑力和算力的紧密融合与有机共生。人工智能算法已经深度作用于人类的生产活动和日常生活的毛细血管,日臻嵌入生活世界的底层架构,使得人类的操作、决策和选择由人类主导模式延伸为算法主导模式,革新了数字社会的生产方式和生存方式,但也造就了社会伦理的争执纷纭和失范问题,“无论是人们的生存处境抑或商品的生产消费都被人工智能重新塑型,主体的异化更为加剧和隐秘”[2],影响了人与自然、人与人、人与社会、人与自身之间的伦理关系,生成了人工智能算法伦理规制的荒芜之境。因此,需要明确人工智能算法引发的伦理风险,对算法的非确定性、偏见性、歧视性、隐私性、归责性困境等进行规制,引导人工智能算法的良善发展,形构服务于全人类福祉的数字社会。
一. 问题的提出
目前深度学习在搜索技术、数据挖掘、机器翻译、自然语言处理、多媒体学习、语言区别、语音推荐和个性化技术以及相应领域获得丰硕的成果,促进机器模仿视听和思考等人类活动,解决了复杂的模式识别难题,使得人工智能相关技术的发展日新月异。其中,人工智能算法借助深度学习技术形成了一套算法系统,即依据程序员输入的指令对相关数据信息进行自动处置,自主找到优化解,最终得出逻辑推演的预设结果。人工智能算法技术触角不断延展,越来越广泛地应用于人类社会的各种场景,或可为各国政府、社会组织和个人决策提供辅助支撑,或可运用于智慧农业、智慧工业、智慧服务、智慧金融等社会生产场域,或可应用于智慧医疗、智慧交通、智慧家居等日常生活情景,精准提供个性化的信息服务,有力提升人类社会的运转效率,全面变革社会的生产方式和生存方式,从而实现了“破坏式创新”
1 ,展露了颠覆性的指涉力量。当然,即使深度学习技术的发展促进了人工智能算法的腾飞,但目前的人工智能技术仍居于弱人工智能阶段,正在趋向强人工智能阶段,还远未能够达到超人工智能阶段。人工智能算法的运行仍需遵照人类制定的目标指令,仍经受人类的意向性介入,并未完全具备独立于人类的“自由意志”。然而,人工智能算法在具体运行过程中能够自主找到最优解,这又体现了其具有一定程度的“自主意志”。“人工智能算法本身是技术中立的,还是深具价值偏好的?”人们对这个问题的回答有着不少争论,至今仍未得出一致的结论,但可以预见的是人工智能算法技术的发展带来的伦理问题将越来越多。“在人工智能所涉及的伦理问题中,算法伦理居于基础地位……在人工智能的广泛应用并引发的越来越多的社会伦理问题中,多数都是由算法所派生的。”[3] 对于这些问题,人类别无选择,需要直面人工智能算法的伦理风险。事实上,算法问题不是纯粹价值中立的,算法不会选择价值观,算法的价值是人赋予的。谁掌握了算法,就意味着掌握了话语权和规制权。因此,有必要从算法的自主性引发的非确定性、算法应用伦理风险和算法的归责性难题等层面来理解算法的伦理问题,逐步探索人工智能算法的伦理规制策略,构建合乎道德规范的伦理规制架构,促进人工智能算法的科学发展。二. 算法的自主性引致的非确定性
传统上,代码主要是程序员手动编写,由程序员来决定算法的决策规则和权重分配,存有较低的自主性,这时算法伦理的责任主体是程序员,致使算法的价值敏感设计比较突出。如今,基于深度学习的人工智能算法不断趋向于人类的神经认知系统,生成了一定的语言能力和思维能力,获取了愈来愈多的自主性,能够自行编写代码。这时程序员仅需预先予以一种得当的算法,继而赋予算法绰绰有余的训练数据,则再无需一直参与到具体编写详细代码的过程。即言之,“算法是从信息体向智能体发展的机制基础,正是由此逐渐获得智能算法的自主性”[4]。智能算法能够按照程序员给出的参数独立自主地跑程序,能够自己做主调试相关参数,尽可能地找到最优解,使得在算法自动化决策过程中占据主导地位的主体由人类个体日臻转向人类与机器的合谋,甚至在某些环节中机器能够完全替代人类的选择。人工智能算法的自主性发展使其开始脱离工具性角色,日渐触及价值性角色。归根到底,由于基于深度学习技术的人工智能算法产品大都具有自学习能力和自适应能力,促使算法系统的编程代码深具变动性和隐匿性,推进了人类主观能动性和机器技术智能属性的高度融合,形构一种进化式机器技能习得模式,从而使得算法本身存有一定的道德推理能力,推动自我进化并构成一个类群,自然而然地生成了算法伦理属性。
然则,人工智能算法并没有借助自主性这一“东风”赋能实现良善发展,反而却将非确定性引入了算法决策过程,致使人们未能有效地把握算法系统的目的性、逻辑性、效应性,未能清晰地解释和预测算法输出的结果,未能真正地透视算法运行过程的重重迷雾。究其根本,人工智能算法在自主处置海量数据信息的过程中,依据复杂的运行逻辑形构了不确定的归纳知识,使得人们难以明确其中的因果关联,难以考量算法系统内部的调节方式,难以辨明算法结果或决策应用失误的本末源流。换言之,人们不再能够觉知数据与结论的相关性或因果性,并随着这些未知的数据体量的与日俱增以及数据原初结构的错节盘根,将促使算法运转流程越来越复杂化,导致底层数据与目标知识未能具备一种可清晰化的直接导向性,而是演变为一种非透明化的间接导向性,确定性与不确定性相互交织,造成“双重黑箱”即算法本身和算法系统的“黑箱”问题。在其中,人们很难晓明意向性编码或解码过程,很难理解、预测和验证算法过程以及算法结果,很难明确人工智能算法的运算过程是否违反社会的伦理规范,从而导致算法伦理溯源深具挑战性。因此,人工智能算法带来的不可解释性和不可预测性成为算法伦理的难题。
三. 算法应用引发的伦理风险
基于深度学习技术的人工智能算法的不断发展,人类能够借助人工智能算法进行有序性部署,解决愈来愈多的复杂化难题,但是人工智能算法的应用后果也将越来越难以预测。譬如,人们进入数字空间以来,越频繁使用一个平台反而导致其价格居高不下,这就是“杀熟”;或者,人们在某平台购物经常给店铺打差评,该数字平台就将自动标注更高的价格,这就是“记仇”;再如,数字平台通过人工智能算法能够轻而易举地觉知数字用户的需求是什么以及制造虚假需求,造成人类看到只是一个自己喜欢的世界,而不是真实的世界,这就是人工智能时代的“信息茧房”等。可见,人工智能算法的应用正在全方位地改变着人类的生产生活,正在展开自发性动态创序,正在重塑人类的社会关系,也由此引发了一系列伦理问题,主要包括算法偏见、算法歧视和个人隐私保护等。
其一,人工智能算法深受数据本身偏见、开发者偏见和算法本身偏见所作用,引致了算法偏见的伦理问题。就数据本身存在偏见而言,人工智能算法依赖于数据而生,而原初数据先天持存了数字用户与算法开发者的价值取向,承继了社会先天的伦理规范。“数据是算法的基础和‘原料’,数据公正对于算法公正的影响也无处不在。”[5] 事实上,当人们输入有偏见的数据,计算机也将输出有偏见的结果,这就是“BIBO”(Bias In,Bias Out)定律。即智能系统的原初数据主要由人类程序员所喂养或训练,即使人工智能算法越来越持存一种自主性,但其在原初状态中便经受了人为价值的意向性介入。数据不可避免地体现和记录人类社会的先在性偏见,存在先端的“被污染”状态,导致人工智能算法在具体的运算过程中沿袭了人类社会的固有偏见,并以算法偏见的结果加以呈现,使得依赖于算法结果所做出的决策或选择同样带有偏见性。换言之,人工智能算法抓取的数据本身存在原初价值偏见,使其在数据输入过程中存在导向偏见,在数据吞吐环节中存在选择偏见,在文本输出过程中存在互动偏见等,从而生成了一种数据偏差,产出了系统性的偏差结果,造就了算法决策的偏差风险。就人工智能算法的开发者偏见而言,开发者在设计阶段难以做到价值无涉,不可避免地将自身内蕴的主观偏见、价值观念与意识形态等入序于人工智能算法,使得人工智能算法的运算过程存有一定的价值负载性和道德意向性,无法做到真正的价值无涉和客观中立,深度遭受人类伦理规范的隐性构架。也就是说,“开发者的偏见既包含显性偏见也包含了隐性偏见”[6]。显性偏见主要是指开发者有意识或主动在设计中设置的偏见,比如“大数据杀熟”,因为这种显性偏见由人为设置而生成,并非由人工智能算法自动学习所导致。隐性偏见主要是指开发者本身固有的社会偏见将无意识地渗透进入算法的运行过程,使得算法系统具有偏差性,造成算法决策或结果的偏见化,但这种隐性偏见不是开发者有意为之,只是受限于开发者自身的固有认知而生成的。人工智能算法的开发者偏见将深刻影响算法设计环节、算法运行环节、算法验证环节以及算法纠正环节等,在所难免地在算法全过程中嵌入自身的固有偏见,从而构筑了算法偏见的伦理问题。就人工智能算法本身而言,如同人类活动本身带有偏见性,人工智能算法本身也同样存有偏见性。“受制于算法模型、计算能力、系统约束等条件,算法技术本身可能会存在某种技术偏见,产生不公平的算法结果。”[7] 人工智能算法的基本原理是一种“贴标签”的活动,这个过程存在显性或隐性的偏见。概之,数字用户被当成一个个标签化的“数据主体”,拥有了特殊的“数据身份”,而这种标签化的行为就是一种“范畴化”的行为,也就是伽达默尔所说的“偏见”。同时,人工智能算法技术代码存有先天的缺陷性,通过不恰当的模型技术、代码错误、算法程序设计错误等将产出具有偏见性的算法结果。“如英国达勒姆警察局应用的违法者再犯风险评估算法将邮政编码作为再犯风险评估的指标之一,邮编输入算法系统后会加深、放大警务或司法决策的地域歧视。”[8] 因此,当人们忽略了算法结果或决策应用的前提假设,不恰当地使用算法结果或决策,忽视了算法结果或决策的具体场景要求,从而错误地利用或过度地依赖算法,将继续牢固人类社会的固有偏见,不利于社会正义的构建。
其二,人工智能算法的发展引起了算法歧视的伦理问题。人工智能算法经受数字资本介入和政治权力内嵌,导致现实社会的结构性偏见被置入算法系统的智能编码过程,形塑了算法的内生性歧视,深化了对现实世界和数字世界的隐性规训,生成了算法歧视的伦理危机。算法歧视是指“人工智能算法在收集、分类、生成和解释数据时产生的与人类相同的偏见与歧视,主要表现为年龄歧视、性别歧视、消费歧视、就业歧视、种族歧视、弱势群体歧视等现象”[9]。算法歧视主要从人类的歧视行为所习得,经由算法技术转译,并未进行准确验证,盲目信任算法结果或决策,忽视必要的价值判断,从而生成了“千人千面”的偏待性行为,构建了算法权力的构式机制,精准规训和操纵数字受众,持续深化现实空间和虚拟空间的歧视问题。究其根本,人工智能算法歧视主要由人工智能算法的开发者和人工智能算法的使用者所造就。人工智能算法的开发者或依据自身的利益需要进行有意识设计,或辖制于固有的社会偏见展开无意识设置,在算法运行过程中以不同权重输入、训练和检验相关数据,使得算法结果或决策形成对不同人群的差别化对待,导致人们在日常生活和生产生活中遭遇各种各样的非平等事件,冲击着人类社会的伦理秩序。人工智能算法的使用者是指数字企业、政府部门或数字用户个人等,他们基于自身的认知局限随意操控算法应用环节,或未能做到一视同仁地分类,或将算法决策运用到错误的社会场景,或没有设置相关的监管机制等;从而促使算法决策歧视性地对待不同肤色、不同性别、不同信仰、不同地区、不同国籍的人群,继续引发种族歧视、性别歧视、宗教歧视、地域歧视、民族歧视等。譬如,“ProPublica的一项调查发现,执法部门使用的人工智能工具显示黑人比白人更有可能犯罪”[10]。
其三,人工智能算法的发展催生了个人隐私保护的伦理问题。人工智能算法得以自主运转的前提是需要有丰富的“数据粮食”,当自主性越发展,越需要收集和存储更多的个人数据信息。“个人信息处理是算法平台争夺个人隐私资源的重要阶段。”[11]目前,当数字用户进入数字空间的那一刻,所有活动都以数据的形式留痕,各种浏览、搜索、玩乐、消费等属于个人隐私的数据信息将作为算法系统统计与分析的根源,虽然运用一种“匿名的”数据集模式加以存储和管理,但实际上是可以追溯到具体的数字用户。换言之,人工智能算法依靠深度学习技术能够实时追踪、识别和研析每一位数字用户的各种行为轨迹,全方面抓取个人的隐私信息,为每一位数字用户设置标签,实现精准画像,能够依据数字用户的兴趣、偏好、习惯等进行数字建模,智能推测数字用户的需求与行为,从而智慧预测个人的生产活动、交往活动和生活活动,深度侵入人们的私人空间,促使私人空间不再成为个人的栖居领域,而是被迫向算法系统无限开放。譬如,“洛杉矶县‘协调入住算法系统’(HMIS)为例,一旦申领者的隐私信息输入到HMIS算法系统中,在系统默认申领者‘选择性同意’分享保密信息的情况下,将可与住房管理、社会或医疗服务机构等168个组织共享”[12]180。不难看出,由于人工智能算法的不透明性,极大增强了算法系统的不确定性、不可控性、不可解释性等,个人隐私数据信息被有意识或无意识地肆意挖掘,使得数字用户的人身信息、消费喜好、日常轨迹等数据存在被泄露的风险,“如果智能系统掌握的敏感的个人信息被泄露出去,会将人置于尴尬甚至危险的境地,个人的隐私权会受到不同程度的侵害”[13]50。换言之,一旦当个人隐私信息暴露,如同被剥光了衣服一般,个人呈现为一种赤裸裸样态,随时被“杀死”或“社死”,强烈引发个人内心的焦虑、恐慌、失衡,不断危及个人的人身和财产安全等,并将可能对社会秩序和公共安全造成巨大的潜在威胁。也由此,人工智能算法实现了对人们的毛细血管式控制,使得人不再成为自我的主人,反而为人工智能算法所管控,还意识不到这种隐性的生命政治驯顺,并在这种规训中“开心地活着”,越发透明化、数据化、驯顺化。
四. 算法的归责性难题
在简易编程时代,程序员就是算法系统的行为控制者,此时人工智能算法具有较低层次的自主性。随着深度学习技术的发展,算法开始具有较高的自主性,由线性编程转向自编程,使得算法自动化、训练数据和系统环境的结合成为行为的使动者,而“这种计算机系统的模块化设计,意味着没有单个人或团队可以完全掌握系统与一个复杂新输入流进行互动或回应的方法”[14]32。即言之,人工智能算法越来越具有自主性,出现了算法黑箱、技术壁垒和数据流转不透明等现象,使得人们很难明白其中的运行方式和作用机理,哪怕再能干的程序员也无法完全控制基于深度学习的人工智能算法,也就没有哪个主体的人对机器行为来承担责任。这就是安德里亚斯·马蒂亚斯(Andreas Matthias)所讲的“责任鸿沟”(responsibility gap)。“‘责任鸿沟’是机器智能和人类智能融合进化过渡阶段特有的重要课题。”[15]由于可追溯的伦理评价总是要对伤害找出责任人,而基于深度学习的人工智能算法,由成百上千的数学函数(相当于“神经元”)构成,这些函数构成非线性的原来圈层,“信号在函数之间的传递每深入一层,其信息的复杂度就会呈指数增长,如果对其进行伦理追责,那么其所涉及的计算量将大得惊人”[3]。
鉴于智能算法的复杂化,深刻挑战了传统的伦理归责体系,人们难以精准地归因于具体环节或运作过程,难以界定归责事由是否具有主观上的“有意”或“无意”,然而算法系统的结果或决策越来越切近人类本身,并深度影响人类在现实生活中的种种抉择。当人工智能算法结果或决策生成了一系列的伦理问题却难以归责,谁应该负起责任成为一个关键问题。事实上,人工智能算法通过模拟基于数据驱动的深层神经网络系统能够实现自主运算,能够自动调整操作参数和规则,能够自己做主决定怎样执行任务,能够对开发者设定的目标进行动态优化等;但在这个过程中人们无法明确算法的源代码以及再编码的运行逻辑,存有较明显的模糊性、复杂性、非透明性、不可解释性等,呈现为“算法黑箱”的复杂构境,也就是讲人们无法说明各个变量进行怎样组合并相互作用从而得出决策结果。当这些人工智能算法结果或决策具有偏见性、歧视性或者危害个人隐私安全等,谁应该为这些伦理难题负责呢?
五. 算法伦理的规制路径
人工智能算法深受人类社会的价值偏好浸染,需要直面人工智能算法引发的种种伦理难题,通过增进人工智能算法的确定性、推动人工智能算法的科学应用、明确人工智能算法的责任主体、构建一定的容错空间、回归人工智能算法技术本身等方面加以规制,从而推进人工智能算法的良善发展。
一 增进人工智能算法的确定性
随着人工智能算法的发展,“不确定性估计和度量方法在机器学习与深度学习领域得到了广泛的研究与应用,被用于处理数据与深度神经网络中的不确定性,以提升任务性能和模型的可解释性等”[16]。然而,人工智能算法本身存在弱鲁棒性造成其具备不确定性,生成了一系列伦理问题,需要以人类整体利益为优先项,而不是以数字资本家的增殖利益为前置项,积极构建“人在环中”的算法系统,许可人类监督和控制算法全过程,优化算法决策的输入模式和输出模式,增进寻找确定性和可理解的证据等,进而显现人工智能算法的本然面目,使得人类能够重新把控算法系统,真正获取决定自身事务的自主权利。正如《可信赖的人工智能伦理准则》强调AI应该是安全而准确的,它不应该轻易受到外部攻击(例如对抗性例子)的破坏,并且应该是相当可靠的。具体而言,人工智能算法的发展需要深化对数据信息的选择环节进行实时管控,避免部分数据信息被有意识或者无意识的遮蔽,使得人们能够及时把控数据信息的意向性编码或者解码过程。要有力增进人工智能算法的确定性,从而能够理解人工智能算法结果或决策的训练环节,规避“算法黑箱”状态,从而促进算法的明确可辨,摆脱训练数据样本和特征值的原初的非正义性,深度制约人工智能算法的自主活动。人工智能算法的发展需要强化对算法代码的编写环节展开常态化监控,虽然人工智能算法能够自主进行运算,但是这个自主运算过程会自动记录并将保存在一定的文件夹当中,通过实时和定期管控这个编码过程能够增进人工智能算法的确定性,一旦出现算法伦理问题能够按照这些监控记录进行溯源。人工智能算法的发展需要建构一套算法透明度指标,明确算法要素、算法程序、算法背景的透明标准,要求算法系统按照这种标准运作,而不能任意偏离,并向大众公开算法的运行过程、应用目的、使用成效等,使得事后的伦理审计和伦理风险溯源能够智慧展开,从而精准审视算法的伦理问题,有效明确非决定性证据、疑义性证据、误导性证据等,增进人工智能算法的确定性,提高人们对人工智能算法的信任阈值,推动人工智能算法的科学发展。人工智能算法的发展需要专门开发一种伦理监控算法,以监控算法智能管控其他算法的自主运行过程,设立清晰的技术指标体系,达成对算法自主运行的即时可控,进而增进人工智能算法的确定性,祛除人工智能算法伦理的难以定标、难以管制、难以防备等问题,规制人工智能算法的合理发展。
二 推动人工智能算法的科学应用
正如世界经济合作与发展组织(CDEP)通过的《人工智能发展建议》,明确了基于价值观的五项原则与可信赖人工智能的国家政策和国际合作建议,人工智能算法的发展需要借鉴《人工智能发展建议》,对算法结果或决策的应用环节进行伦理规制,建立一定的算法应用规则,推动人工智能算法的合理应用。其一,由于人工智能算法偏见嵌套于人类的生产活动和生活活动,人们需要对人工智能算法偏见进行伦理规制,从原初数据到算法开发者,再到算法系统本身都需要重新进行合理度规。要以正义为根本价值旨归干预、管控和审查人工智能算法的全过程,构建算法的伦理规制模型,完善算法应用的伦理规制框架,促使人工智能算法的发展符合人类社会的伦理规范。其二,人工智能算法的开发者和使用者须对算法歧视问题负起相关责任,而不能将责任完全推脱给人工智能算法本身。人们需要合理引导开发者和使用者的行为,积极排除个人的显性偏见,智慧识别潜藏的隐性偏见,智能完善相应的监督机制和补偿机制,从算法设计本身及外部约束来规制算法歧视的伦理问题,进而精准防控算法歧视的伦理风险。其三,当个人隐私保护难以实现,严重挑战了社会的伦理秩序,人们需要对人工智能算法进行伦理规制,将人类的公正、责任、道德原则等嵌入到机器代码之中,使用“差分隐私”算法规避匿名信息泄露,严格控制算法对个人隐私信息的无限度地攫取,积极寻找人工智能算法不确定性和开源透明性的平衡点,合理解决个人隐私保护的伦理难题。“人工智能参与者应致力于提升人工智能系统的透明度,进行负责任地披露信息”[17],充分弥补开发者与使用者之间的“数据鸿沟”,避免数据信息的过度不对称生成的技术劣势一方依附于技术强势一方的伦理困境。这必须强化事后的算法审计,通过援引不同的伦理标准和伦理原则审核人工智能算法结果或决策的前提性预设、输入过程和输出过程,积极采用代码审计、爬取审计、众包审计等算法审计技术智能识别人工智能算法的“盲点”,精准考察人工智能算法决策或结果是否合乎道德,是否有违公正,是否挑战现有的伦理秩序,从而引导人工智能算法服务于全人类的福祉,推进人工智能算法的良善发展。
三 明确人工智能算法的责任主体
人工智能算法的归责须经历一个责任主体的过渡衔接过程,也就是由“智能算法的开发者和使用者到由完全自主进化的机器智能体”[18]。但这还需要一个过程,而在现阶段必然会出现非单一责任主体的现象,呈现为一种多道德主体的复杂化的责任关系。“大多数情况下人们应对技术的使用负责,当人工智能成为道德代理人后,没有人会对人工智能体的行为负责。”[19] 就是说,人类如果把责任完全交付给机器,只会自食其果。因此,人们需要将伦理准则嵌入人工智能算法的开发设计和系统应用环节,或者预先识别,或者过程制止,或者事后归咎,建立明确的责任分配体系,及时纠正人工智能算法的伦理风险,形构安全的人工智能算法治理体系。
人工智能算法的责任人主要是开发者、使用者以及算法系统本身,面对人工智能算法生成的伦理问题,需要对这三个主体进行伦理责任溯源,明确分摊责任,推进对应归责,形成多元治理体系。就人工智能算法的开发者而言,由于算法设计、部署和应用仍深受开发者目的和意图所作用,深度嵌入了开发者的道德判断和价值取向;开发者需要公开人工智能算法开发的目的、应用条件以及潜在风险等,将透明度置入算法开发环节,增强自身的价值敏感性设计能力,明确设计、部署和应用环节的社会责任规范,并搭建人工智能算法伦理规制架构,提前准备伦理侵害的处理预案,促进人工智能算法的良善发展。正如《阿西洛马人工智能原则》第九条主张高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。就人工智能算法的使用者而言,人们需要确定人工智能算法使用者的主体责任,“审查数据质量、算法命令执行中各种因素及其权重、数据或事实与结果之间的相关性等”[20],并深度审核算法应用的事前、事中和事后环节,合规审计使用者在应用算法过程中是否遵守监管要求,有必要开放数据界面、算法源代码、算法运行结果等,引导使用者履行相关义务,保证人工智能算法应用的安全可靠,推进人工智能算法的伦理规制。就人工智能算法本身而言,需要增进人工智能算法的透明性,动态监测和审计人工智能算法的全过程,提升人工智能算法模型、过程和结果的可解释性,明确告知数字用户算法本身具有生物识别和情感识别的功能,建立人工智能算法系统运行的伦理安全标准和实施评估认证制度,推动人工智能算法的自我修正、自我迭代、自我优化,从而规避人工智能算法的伦理风险。
四 构建一定的容错空间
纵然人工智能算法存在偏见、歧视、隐私泄露、归责困难等诸多伦理难题,具有较强的传染性、感染性和渗透力等,引发接二连三的“连锁反应”;但不能以此否定人工智能算法,不能“一禁了之”,应该为基于深度学习的人工智能算法技术开展留下一定的容错空间,创造相对宽松的环境。正如任何人类的解释或决策都不一定能够完全正确,有可能出错,人工智能算法也是如此。人类总是给自己留下一定的容错空间,同样需要为人工智能算法的发展留下一定的容错空间。鉴于人工智能算法的所有结果或决策不可能完全契合人类社会的伦理规范,不能将人工智能算法的伦理问题过度放大化;而是应该保有一种宽容的态度,给予一定的可解释和可纠错的机会,并对人工智能算法进行伦理规制,从而为人工智能算法的发展留下余地,避免人类对人工智能算法的“因噎废食”,致使其裹足不前,反而得不偿失。总之,由于任何新技术的应用都具有双刃剑的作用,人工智能算法作为一种新兴的数字技术,如果过度放大人工智能算法的消极效应,不允许其犯错,将不利于人工智能算法的科学发展,最终将影响人类社会以及人本身的持续发展。
人类不能拒绝技术,而应该拥抱技术。我们不能因为人工智能算法发展存在的问题,就全然否定和拒绝人工智能算法。人工智能算法的伦理风险是人类社会伦理风险的时空延展,但由于人工智能算法过程的高度复杂性、算法结果的不可预测性以及叠加了人类的局限性和环境的动态变化等,使得人们需要在不断试错的过程中强化人工智能算法的可控性。通过秉持前瞻性、系统性、审慎性等原则,建立科学规范的工作方法和工作流程,增进对相关的数据集、程序代码、算法训练方法等的伦理规定,并引入算法解释权、算法监管系统、算法审计机制等措施,从源头上实现对人工智能算法的可控化,使其在辖定场域内“带着镣铐跳舞”,让伦理规范自然入序人工智能算法。通过定期对人工智能算法应用实践进行道德责任的追溯分析,推进伦理嵌入、伦理学习和混合法的智慧发展,增进人工智能算法应用的透明性、可解释性、可信任性,从而弱化人工智能算法的伦理风险,推进人工智能算法的伦理规制,封住人工智能算法的“潘多拉之盒”,促进人工智能算法的健康发展,为人类的自由而全面发展提供助推力。一言以蔽之,人工智能算法的伦理规制没有“完成时”,只有“进行时”,在未来相当的长时期内,追求算法的可控性是人工智能算法技术研发的首要任务,但其可能是永无止境的追求,甚至是难以完成的任务,或许会永远在路上,正如多明戈斯[21]xix指出的“只有工程师和机修工有必要知道汽车发动机如何运作,但每位司机都必须明白转动方向盘会改变汽车的方向、踩刹车会让车停下。”人类需要对人工智能算法持有强大的包容心,努力走出人工智能算法技术生成的“科林格里奇困境”
2 。五 回归人工智能算法技术本身
技术产出的问题,固然需要法律规制、伦理规制甚至意识形态规制,但技术产生的问题还是需要技术本身来解决,正如马克思[22]241所言:“批判的武器当然不能代替武器的批判,物质力量只能用物质力量来摧毁。”我们回到海德格尔,他对未来的技术世界,提到解决方案,他说要“泰然任之”,首先不要慌。要对算法说yes,同时也要说no。而对于深度学习的人工智能算法给人带来的“座架”,人类所获得者由我在“座架”之中,海德格尔引用诗人荷尔德的诗句“哪里有危险,哪里也就有救渡,我们愈是临近危险,进入救渡的道路便愈明亮的开始闪烁”[23]267。因此,我们就要以更为明亮的眼睛去洞察危险,追问算法技术,因为救渡根植并发育于算法技术本身之中。
我们需要回归人工智能技术本身,以人工智能算法技术的发展解决算法伦理问题,促进人工智能算法的茁壮成长。通过积极引导人工智能算法的发展方向,使机器从“能够思维”向“能够有道德的思维”演进,形构人工智能算法的“向善性”,为人工智能算法的自我赋形奠定基本伦理基调,促进算法技术属性和伦理属性的互构融合,从源头上规制人工智能算法技术的发展动机和前进目标。通过持续开发人工智能算法技术,推进人工智能算法的技术创新工作,促进人工智能算法技术的动态完善和迭代升级,智慧调整人工智能算法的运行逻辑,构造“监管沙箱”等实验性或试点性工具,研发加密技术、匿名化技术、屏蔽技术、漏洞防护技术等,增强人工智能算法的可控性,促使算法尽可能地可解释、可追溯、可信任,提高人工智能算法的安全性、正义性、良善性等,为人工智能算法的科学发展提供坚实的技术支撑。通过以人工智能算法技术强化对算法程序设计的审查,运用人工智能算法技术预先排查算法数据来源是否具有伦理问题,深化对算法程序架构与代码的设计审查,依照伦理规范进行过滤、聚类、分类和赋值,实现伦理规则的代码化,确保人工智能算法设计符合基本的伦理规范,深化人工智能算法的伦理规制。通过以人工智能算法技术检视算法决策或算法结果的应用问题,建构伦理智能体的模型结构,重塑人机和谐共生的链接机制,设置人工智能算法应用的行为边界和伦理底线的参数值,以算法技术实时核验算法应用是否出现数值异常或偏离,注重人工智能算法应用的安全性、可问责性、可溯源性等,促进人工智能算法的伦理规制。通过构建人工智能算法技术的元规制治理和合作治理的多元治理体系,建立人工智能算法技术的伦理准入机制和准入清单,为算法技术的进入和退出设置阈限,架构伦理安全的过滤屏障,设置算法系统内部纠错机制,完善算法技术的伦理标准体系,健全算法伦理风险预警、应急管理、整改优化制度,让人工智能算法技术推进构筑人类的美好生活,做到合理性与合价值性相统一,以此确证人类的真正主体性。
总而言之,人工智能算法推动了人类社会的万象更新,改变了人类的生存方式,影响了社会的伦理秩序,成为不可或缺的数字技术。事实上,虽然人工智能算法造就了非确定性、算法偏见、算法歧视、个人隐私泄露以及归责难题等伦理困境,但是需要在直面人工智能算法的伦理风险的同时,继续深化对人工智能算法的研究,通过增进人工智能算法的确定性、推动人工智能算法的科学应用、明确人工智能算法的责任主体、构建一定的容错空间、回归人工智能算法技术本身等实现对人工智能算法的伦理规制,推进人工智能算法的良善发展。需要强调,技术的应用具有两面性,通过研析人工智能算法的伦理问题,并不是排斥人工智能算法技术,而是积极探寻技术理性与价值理性的动态平衡,竭力解决算法技术与算法伦理的张力关系,引导人工智能算法技术为全人类的福祉而服务!
-

计量
- 文章访问数: 260
- HTML全文浏览量: 59
- PDF下载量: 19
- 被引次数: 0