人工智(zhì)能正在成为国际竞争(zhēng)的新焦点,同(tóng)时也(yě)为人类社会带来(lái)了新的发(fā)展机遇。机器学习、自然语(yǔ)言处理、情感计算、虚拟现实等技术的迅猛发展,不(bú)仅(jǐn)为学生获取更(gèng)高质量的教育体验提供(gòng)了(le)有力(lì)支撑(chēng),也(yě)有助于进(jìn)一步扩展教师自由(yóu)发展的空间。但与此同时(shí),智能导(dǎo)师系统、智(zhì)能数(shù)据挖掘等人(rén)工智(zhì)能技术在教育应用中面临众多伦理问(wèn)题,例如数据(jù)泄露、公共安(ān)全、恶意(yì)竞争等。
人工智能(Artificial Intelligence,简称AI)是计算机(jī)科学的一部分,包括研究、开发用于模拟、延伸和扩展(zhǎn)人(rén)的智(zhì)能的理(lǐ)论(lùn)、方法、技术(shù)及应用系统(tǒng)等方面。教育人工智能伦(lún)理(lǐ)则是用以规范(fàn)教育人工智能开发及应用过(guò)程(chéng)中关系(xì)、行为(wéi)的道理及准则。
教育(yù)人工智能虽具(jù)备(bèi)强大的数据整合与分析能力(lì),但同时也会引发一系列新的(de)伦(lún)理风险,系统来(lái)看,其(qí)主要体现在以下四个方面(miàn)。
其(qí)一,信息安全。人(rén)工智能助力教(jiāo)育教学的(de)同时,不仅(jǐn)为师生发展创造机遇(yù),也(yě)产生了海量教育数据如个人身份(fèn)信息(xī)、行(háng)为轨迹、学习偏好等。若此(cǐ)类数据并未得(dé)以有效保护(hù)或者被非法(fǎ)使用,则会引发一系列信息安全问题,例(lì)如个人隐私资料被恶意泄露及不正当使用、电子邮件的(de)恶意(yì)推(tuī)送、非法电(diàn)子监(jiān)控、网(wǎng)络诈骗、数据侵权等,师生的隐私权利在人工(gōng)智能透视镜(jìng)下将变得十分(fèn)脆弱。
其二,目(mù)标冲突。教育人工智能的目标冲突风险主(zhǔ)要由人工智能开(kāi)发商、用户的基本目标(biāo)不一致所产(chǎn)生的。对私营部(bù)门来说(shuō),由(yóu)于商业利益至上的(de)理念(niàn)根(gēn)深(shēn)蒂固,可能会依托(tuō)人(rén)工(gōng)智能(néng)技(jì)术工具过度追逐私利。而且(qiě),不少教育人(rén)工智能设计(jì)者与开(kāi)发(fā)者缺乏致力于“教(jiāo)育公共服务”的责任意识,欠缺对教育成长的价值关怀。若人(rén)工智能开发商(shāng)、学校管理团(tuán)队未(wèi)在人工智(zhì)能的教育应用方面(miàn)达成目标共识,则师生(shēng)自身利益难以得到长期的有效保障。
其三,缺乏制度约束。当前,用于约束(shù)教育人工智能开发与(yǔ)应用的(de)制度体(tǐ)系尚未健全,教育用户的合法(fǎ)权益难以得到(dào)有效保(bǎo)障(zhàng)。而且,专业制度约束(shù)体系的(de)缺位、失(shī)位(wèi)及错(cuò)位成(chéng)为导致教育人工智能不道德行(háng)为出现的重要(yào)因素。若缺乏有效(xiào)的技术标准与“强制(zhì)性”法律手段加以规约(yuē),教育人(rén)工智能的设计开(kāi)发与实践应用可能会逐渐(jiàn)偏离(lí)教(jiāo)育价值与人文立场。应(yīng)对违反(fǎn)教育人工智(zhì)能伦理规(guī)范的(de)行为与举措(cuò)实施(shī)问责与制裁(cái),以便合理规约人工智能开发人员、教育用户(hù)等(děng)人(rén)的行为(wéi)。
其四(sì),过度资源依赖。当前(qián),机(jī)器学习和(hé)算法推荐虽然可实现教学资(zī)源的个性化(huà)推送,但这种(zhǒng)看似公平(píng)合(hé)理的人工智能应(yīng)用(yòng),隐含着不(bú)为人知的(de)算法歧视(shì)与技术偏向,可能导(dǎo)致(zhì)学(xué)生所(suǒ)获取的教学资(zī)源高度同质(zhì)化,学生逐渐形(xíng)成资源依赖,不愿跳脱僵化思维(wéi),进而影响(xiǎng)了学生视野的(de)开阔及创新发展。而且(qiě),教师也可(kě)能(néng)为(wéi)节省自身时间及工作成本,过度(dù)依(yī)赖(lài)人工(gōng)智能推送的(de)教学资源,丧失自身(shēn)对于教育(yù)教学的独(dú)特理解及思(sī)考。
理清相关伦理(lǐ)风险的(de)消解(jiě)路径,有利于促使教(jiāo)育能(néng)够(gòu)合乎道德地利用人工智能机遇,并实(shí)现公平和(hé)道(dào)德的教育决策。
第一,注重智能时代师(shī)生信息素养培育(yù)。首先,需注(zhù)重师生信息分辨力培育。学校应引导(dǎo)师生对于信息资源获取及筛选(xuǎn)、信息伦理风(fēng)险等问题的理(lǐ)解与思考,增强师生(shēng)信息分辨能力(lì)。其(qí)次(cì),关注师生信息反馈(kuì)力培育。学(xué)校应引导师生合理反馈人工智能的(de)信(xìn)息安全、伦(lún)理、舒适感问题,并构建畅通的信息反馈渠道,以(yǐ)便持续改善人工智能的(de)教育应(yīng)用成效。
第(dì)二,完善教育人工智能(néng)算(suàn)法审查及决议(yì)机制。首(shǒu)先,应注重构建人(rén)工智能算法(fǎ)的审查机(jī)制。人工(gōng)智能算法的运行(háng)偏差有可能持续存在,甚至会被放大。应制定有关人工智能算法培训和测试的基本规范与安全协(xié)议,对人工智能算法模(mó)型的(de)前提假(jiǎ)设进行教育本质(zhì)层面的剖(pōu)析,尤其(qí)应审查教育人工智能算法系统(tǒng)是否包含(hán)算法歧视与(yǔ)滥(làn)用问(wèn)题,以便能最大限度保(bǎo)障用户(hù)数(shù)据及(jí)信息的精确性、隐私(sī)安全以及伦理规范。其次,需明确人工(gōng)智能教育(yù)应用方案的决议(yì)机制。政府(fǔ)、学校、企业等均需秉承集思广益的(de)决策原则(zé),鼓(gǔ)励不同意见(jiàn)的提出与(yǔ)开放讨(tǎo)论(lùn),思考通(tōng)过某种形式的投票与(yǔ)评(píng)价来(lái)决(jué)定(dìng)教育人工智能应用的最优(yōu)决定,致力于实现教育公共(gòng)利益诉求(qiú)的合理满足。
第三(sān),加(jiā)强人工智能及数据的法规(guī)监管。当前教育人工智能发展暴露出众(zhòng)多技(jì)术及数据失范问题,因此,要完善智能技术及(jí)教育数据(jù)风险(xiǎn)问责机制,实(shí)现(xiàn)智能技(jì)术及数据的规(guī)范监管。首(shǒu)先,可尝试(shì)制定及颁布具有法律约束力(lì)的教育人工智(zhì)能法(fǎ)规,规范技术开发及应(yīng)用的伦理责任,非法开发、使(shǐ)用及销(xiāo)售人工智能的行为将面(miàn)临法(fǎ)律后果(guǒ)及责任(rèn)。其次,注重教育人工智能应用过(guò)程中的数据监管,构建专业的数据隐(yǐn)私监管组(zǔ)织或机构。隐(yǐn)私(sī)监(jiān)管组织(zhī)或机构(gòu)应在某项人工智能技术推广(guǎng)应用(yòng)之前,评估该技(jì)术的数据安全情况,避免非法分享和使用数据。
第四(sì),加(jiā)强教育(yù)人工智能(néng)伦(lún)理风险排查与评估。实现有(yǒu)道德的(de)教育人(rén)工智能,不可仅仅依靠技术改进,还应采用“系统化思想”审(shěn)视与排(pái)查教育人工智(zhì)能的伦(lún)理风险,这对于最大化保障(zhàng)教育公共利益是至(zhì)关重要的。教育人工智能(néng)伦理风险的存在不仅涉及(jí)开(kāi)发阶段(duàn),也涉及生产和分销阶段。除了确保教育人工智能设计的(de)安全性外,还应仔细(xì)评估智能算法伦理风险、教育数据(jù)伦理风险等的危害等级,以便及时制(zhì)定教育人工智能(néng)伦理风险化解方案。
第五,构建校本(běn)化教育人工智(zhì)能伦理规(guī)范体系(xì)。校(xiào)本化的教育人工(gōng)智能伦理(lǐ)规(guī)范体系必须高度(dù)公正且具有可解(jiě)释性,明确规定人工智能在学(xué)校应用的基(jī)本要求、审(shěn)查程序及(jí)伦理(lǐ)规范,并(bìng)对技术开发商、学(xué)校管理人员等人在教育人工(gōng)智能伦理(lǐ)监管的职(zhí)责、权(quán)利和义务予以合理划分与限定。学校管理(lǐ)人员可基于学校层面(miàn)教育人工智能(néng)伦理规范体系,为人工智能在学校教(jiāo)育中的应用设置许可(kě)权限。若某项人工智能技术在(zài)应用中产生了重大伦理风险,则应根据伦理风险的评估等级对人工智能的应用许可权限进行适当限制。