美国《教育周刊》刊文反思AI工具在学校的应用与推广

发布者:万军恺发布时间:2025-11-18浏览次数:10

美国《教育周刊》1112日刊登署名文章《学校不该成为人工智能“安防”的试验场》,对人工智能工具在美国学校的应用与推广活动进行了反思。

文章首先回顾了上月发生在美国巴尔的摩市的一起校园安全事故:由于学校所安装人工智能安防系统误将一袋薯片识别为枪支,致使该校一名黑人学生遭到警察持枪瞄准并被戴上手铐、勒令下跪。作者在回顾了此前数起引起过较大轰动的由种族歧视因素引发的悲剧后,强调这起事故并非孤例或仅仅是技术故障。它反映了一种日益严峻且令人担忧的趋势:学校正在成为未经检验的人工智能技术的试验场。

其后,作者陈述了自己的亲身体会:数年来,越来越多的校园“安全倡议”被落实为了监控制度。金属探测器、校园资源官(school resource officers)、人工智能加持的风险探测器将大量的学校走廊从学习场所变成了安检站。当前,学校、安保公司和警方正不断扩大人工智能工具的应用范围,但这些宣称“万无一失”且“不带偏见”的智能系统不仅在光线多变、人员拥挤环境中极易出现误报,其对于深色皮肤人群的误判率亦显著高于其他肤色人群。这种现象的一项重要成因就在于其训练数据本身所带有的偏见,而恰恰正是这些带偏见数据导致了大量众所周知的美国警察执法不公事件。可以说,这些系统将社会偏见转化为了算法的底层基础,将之“纯粹数字化”并“合法化”,最终加剧了社会的制度性偏见。

作者指出,学区领导者面临着公众对校园枪支暴力日益加剧的担忧、社区对更加安全学校的期盼这两大压力。同时,联邦与州政府亦在通过拨款回应公众对这两方面问题的诉求。这些因素相结合,使得人工智能安保技术的使用更加具有了吸引力。但是,我们更应该反思:为什么未经检验的监控工具会率先在学校试点,而非任何其他地方?我们尤其应警惕这些工具在服务黑人与拉丁裔学生的学校中的试点。这些工具的基础算法中往往延续了一个长期存在的谬论,即有色人种儿童更具暴力倾向,社会需要加强安保措施以防止他们成为 “超级捕食者”。

学校本应是年轻人学习、获得支持、被允许犯错且不必担心被定罪的地方。但现在每投入一美元用于人工智能安防系统,就意味着少一美元用于心理咨询师聘用或修复性司法项目(restorative-justice programs),而这些才是具有切实证据支撑的校园安全问题解决方案!教育工作者必须追问:为什么政府拨款会被急切地拨付给推销人工智能心理咨询师、人工智能治疗师以及如今的人工智能系统的公司,而非雇佣更多人类校园心理咨询师或治疗师?

作者最后提出:学校领导层应秉持合理的怀疑态度看待人工智能安全工具及其背后的各类炒作。在理想情况下,这些系统应被视作最后的手段,而社区应优先选择其他方案,比如增加校园心理咨询师和支持人员的数量。此外,任何人工智能安保系统的运作机制都需要做到公开透明,并接受社区指导。同时,还必须有实时的人工监督,以审核涉及人员生命安全的警报、评估其对社会偏见和公民权利的影响,并遵循明确的协议以防止不必要的事态升级情况发生。简而言之,社区在购买未经充分检验的技术服务之前,必须要求相关各方承担起责任。

这起事故并非仅仅是一起摄像头故障、单一误判情况或某所学校的故事。这关乎将校园变成安保公司的市场,将学生,尤其是有色人种学生,视为威胁而非学习者的道德问题。学校保护儿童安全,依靠的不应该是算法,而是了解他们、支持他们并相信他们具有潜力的成年人。当技术取代了人类的同理心和责任感时,我们不是在保护学生,而是在抛弃他们!



更多信息请参阅:

https://www.edweek.org/leadership/opinion-handcuffed-for-eating-doritos-schools-shouldnt-be-test-sites-for-ai-security/2025/11


编译自:美国《教育周刊》官网,2025-11-12

编译者:上海师范大学国际与比较教育研究院 庞正培