中国青年网北京9月29日电(记者 高蕾 杨月)随着人工智能技术的发展,AI产品日益融入未成年人学习与生活场景,未成年人的互联网运用呈现更加复杂、多元的结构性特征,对未成年人互联网运用的保护机制和治理能力提出了更高要求。近日,中国社会科学院新闻与传播研究所、社会科学文献出版社联合发布的《青少年蓝皮书:中国未成年人互联网运用报告(2025)》(以下简称:蓝皮书)中指出,AI技术正在深刻影响教育目标、教育方式等多个方面,推动教育生态的全面变革,应构建有效网络安全保护体系,强化分龄治理模式。
当前,AI技术正在深刻影响教育目标、教育方式和教育评估等多个方面,推动教育生态的全面变革。国务院发布的《新一代人工智能发展规划》提出要在中小学阶段设置人工智能相关课程,推广编程教育,将人工智能科普教育纳入常规教学。教育部《教育信息化2.0行动计划》指出,要充实适应时代和发展需要的人工智能及编程课程,进一步推进人工智能教育。
人工智能技术深度嵌入未成年人的日常生活,其运用方式逐渐由工具型使用转向陪伴型使用,在家庭、学校与平台之间形成联动共生的新格局。蓝皮书指出,AI学习机作为AI赋能教育的重要载体,近年来在未成年人中普及率持续上升。调查显示,AI学习机“集成名师课程、错题分析、学情追踪等功能”,通过“千人千面”的个性化推荐机制,满足不同能力水平学生的差异化学习需求。部分地区如上海市长宁区,已探索通过AI设备采集学生体育与心理数据,以推进“德智体美劳”全面育人目标的实现。
目前,众多学校将AI学习机融入课堂互动,呈现实时答题情况,评分英语口语发音,实现学习数据可视化。至于难以演示的科学情境,如火山喷发,人工智能根据火山喷发的物理规律等信息,提取火山喷发时的岩浆温度、熔岩流动的形态等特征,构造出火山喷发具身的情境,将复杂问题简单化。专家认为,未来人工智能对话机器人逐渐成为学校教育的新的“代具”,与黑板、教科书等传统工具一样,成为教学过程中不可或缺的一部分。
蓝皮书指出,为应对未成年人在不同成长阶段所面临的差异化网络风险,亟须构建分龄精准治理体系,优化平台功能分级、使用权限管理与行为反馈机制。
当前,“未成年人模式”虽已覆盖主流平台,但在内容设定、功能响应与情境匹配方面仍存在较大优化空间。多数平台尚未建立基于年龄分层的动态防护机制,导致部分低龄用户难以获得应有的内容保护,而高龄群体又面临过度限制下的不适感。课题组认为,平台治理应以年龄和使用数据双维识别为基础,动态设定不同年龄段用户的使用权限、交互功能与内容边界。
同时,平台、家庭与学校之间的协同治理能力仍需加强。目前,平台往往缺乏与家长、教师之间的信息反馈机制,致使关键行为变化(如使用时间激增、内容偏移)难以被外部及时感知。报告建议推动家长账号联动、学校行为回传机制建设,在保障隐私的前提下形成行为风险的前置干预网络。此外,监管政策也应在分龄适配维度上被强化,从功能要求走向效果导向,通过评估机制督促平台实质性提升保护能力。借助人工智能、大数据等工具,完善精准风控体系,将技术赋能从内容分发扩展至风险预测与治理效率的全面提升,为未成年人构筑起科学、动态的网络安全屏障。