您好, 访客   登录/注册

责任伦理:教育人工智能风险治理的时代诉求

来源:用户上传      作者:赵磊磊 吴小凡 赵可云

   [摘 要] 教育人工智能风险治理已成为影响人工智能与教育教学深度融合的关键因素。文章以责任伦理为视角,提出教育人工智能风险治理的责任伦理框架,其涉及角色责任、契约责任、前瞻责任、关护责任四个维度。指出教育人工智能风险治理的责任伦理困境主要表现在教育主体功能遭遇技术禁锢、数据智能凌驾于契约精神、治理制度设计与伦理关照脱钩、师生互动与情感诉求缺乏人文关照四个方面。据此,提出责任伦理视域下教育人工智能的风险治理路径:其一,关注角色认同,促进人技关系的角色化建构与重塑;其二,重塑契约精神,构建智能教育领域数据治理责任规约机制;其三,关注伦理规范,架构可判定责任行为的制度体系;其四,聚焦人文关怀,创设融入情感诉求的人智交互模式。
   [关键词] 教育; 人工智能; 风险治理; 责任伦理; 伦理规范
   [中图分类号] G434 [文献标志码] A
   [作者简介] 赵磊磊(1991―),男,河南新蔡人。副教授,博士,主要从事教育学原理、智能教育研究。E-mail:zhaoleilei199102@163.com。
  一、引 言
   机器学习、生物识别、情感计算等人工智能技术的飞速发展,不仅带来技术形态与方式的新一轮革命,同时也为教育空间、教育资源、教育管理、教学模式等方面的智慧转型提供了新的机遇与平台。自20世纪60年代起,教育领域已经运用自适应智能系统进行教学;21世纪以来,教育领域兴起了以深度学习、跨界融合、人机协同、机器学习等技术为主的智慧教育新生态。但是,在智能技术快速更新换代的背景下,教育人工智能风险问题也屡见不鲜,如个人隐私数据泄露、学校管理格局的变革冲击、公共安全的威胁等风险问题[1]。从风险治理的角度而言,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则――发展负责任的人工智能》,为人工智能风险治理提出框架和行动指南[2],为公众从责任伦理视角思考教育人工智能风险治理提供了新的方向。从教育人工智能实践角度来看,人工智能赋能教育教学是否可能做到尽善尽美?人工智能自身的技术两面性究竟会对教育教学产生何种负面影响?众多议题均处于悬而未决状态,面对相关棘手难题,如何负责任地面对教育人工智能风险成为教育人工智能合规化、合法化发展[3]的关键抓手。为此,本文将基于责任伦理视角,聚焦于教育人工智能风险治理的责任伦理框架、现实困境与责任伦理视域下教育人工智能风险治理路径,以期为新时代教育人工智能风险治理提供有益参照。
  二、教育人工智能风险治理的历史进路
   1956年,达特茅斯会议首次提出“人工智能”概念后,人工智能的相关研究方兴未艾,深度学习等成榈笔钡难芯咳瘸薄>过十几年的发展,20世纪70年代人工智能正式进入教育领域,随后发展为智能导师系统(ITS),但由于当时计算机的使用成本高、性能差,导致教育领域的人工智能应用遭遇重大挫折。2002年,美国通过《教育科学改革法》,试图在高等教育领域率先推行人工智能技术,“机器学习”“智能导师”再次涌入教育领域,其他国家也纷纷加大对教育信息化的建设与推进力度[4]。此阶段的教育人工智能发展尚处于萌芽期,教育人工智能的算法功能并不成熟,公众缺乏对教育人工智能风险的清晰认知。
   2015年以来,人工智能在国际教育领域的应用逐渐增多,我国也高度重视人工智能在各领域的应用。国务院于2017年7月印发《新一代人工智能发展规划》[5],部署人工智能背景下创新型国家和世界科技强国建设。基于此,众多学者研究如何借助智能技术实现教育智能转型。例如:余亮等研究教育人工智能对学习方式的影响,试图探索智能学习资源的特征[6];许涛等探讨将学生的“创新思维、创业意识和创造能力”作为人工智能时代“新工科”人才培养的标准和尺度[7]。同时也有部分学者,如刘三女牙等聚焦于教育人工智能发展面临的困境与未来途径[8],尝试对教育人工智能风险治理的概念与边界进行学理探讨。
   2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则――发展负责任的人工智能》,为人工智能治理与风险防范提出科学指导,致力于提升人工智能的安全性与可靠性[2]。自此,发展“负责任”的人工智能成为当今教育人工智能风险治理的核心议题。文献梳理发现,教育人工智能风险研究主要关注数据风险[9]、算法风险[10]、情感风险[11]等风险的表征形式、现实危害与治理对策。然而,多数学者对风险治理路径的研究以道德与法律层面的伦理倡议为主。例如:规范教育人工智能的道德行为,建立伦理风险评估和监管机制。相关治理路径的伦理考量并未着重体现“责任”意识与取向,作为衔接道德与法律的关键载体,责任伦理应是教育人工智能风险治理不可忽视的关键视角。
  三、责任伦理:教育人工智能风险治理的新视角
   在技术时代背景下,传统伦理学与技术责任的碰撞时常发生,如何发展负责任的教育人工智能备受关注,责任伦理为技术时代提供了技术责任考量尺度,也为教育人工智能风险治理提供了全新的伦理向度。为明确教育人工智能伦理风险的治理方向,有必要基于责任伦理视角,对教育人工智能治理主体、客体、工具等治理要素之间的责任关系与行为予以重新审视。
   (一)责任伦理解析
   “责任伦理”不同于传统伦理学,其是以人的角度谈论介于道德与法律间的规范。马克斯・韦伯(Max Weber)在1919年的著名演讲《政治是一种职业》(Politics As A Vocation)中提出“责任伦理”的概念,并将“形式合理性”作为其核心[12]。20世纪下半叶以来,欧美诸国对于责任伦理的理解逐步深入。例如:美国著名伦理学家芬伯格(Joel Feinberg)的《责任理论》,阐释了责任理论的内涵与其理论体系的构建[13];汉斯・伦克(Hans Lenk)在《责任与技术》中阐明技术中的经济、道德问题通常和责任相关,指明责任伦理在技术发展背景下的实践途径[14]。综合来看,责任成为伦理学的核心范畴,其既是一种内心的道德诉求,也是沟通道德与法律的现代社会基本规范。责任伦理侧重于呼吁人从责任的角度关注技术发展给社会带来的影响,思考教育人工智能治理主体应当承担何种责任。以责任伦理为理论视角,教育人工智能风险治理应重视行为的性质、责任与主客体等要素间的关系以及主体承担的责任,教育人工智能风险治理所蕴含的责任伦理向度尚待进一步探究。

nlc202206171745



转载注明来源:https://www.xzbu.com/9/view-15433972.htm

相关文章

服务推荐