文 | 中国信息通信研究院政策与经济研究所 殷勇 王娟娟;中南财经政法大学 张炎坤
人工智能(AI)作命和产业变革的重要驱动力,正深刻为引领新一轮科技革改变着人们的生产和生活方式,也迅速融入青少年的学习、生活和娱乐中,如聊天机器人、AI可穿戴设备、智能图像处理器等AI产品正被未成年人广泛使用。卡巴斯基报告显示,91%的3岁至15岁年龄段人群都参与了在线游戏,联合国统计数据指出,69%的10岁至14岁年龄段人群表示他们每天与AI进行多次互动。这些数字化、智能化应用为未成年人提供了更广阔的成长空间的同时,也会给他们带来许多网络安全风险,如数据隐私泄露、网络威胁、不当内容、社会性歧视等问题。卡巴斯基2024年研究报告显示,AI工具的使用率提高和游戏中的潜在漏洞已被确定为2024年未成年人面临的关键网络安全问题。因此,全面客观地分析数字时代未成年人面临的网络安全风险,尤其是AI工具的使用给未成年人带来的特殊挑战,是保障未成年人健康成长亟待解决的时代命题,也是各国高度关注的重要研究方向。
一、数智时代全球未成年人面临的主要网络风险
在数智时代,除传统的网络威胁以外,随着人工智能的不断发展,需要重点关注生成式、交互式人工智能领域给儿童隐私、身心健康等方面带来的风险。
(一)人工智能赋能的攻击手段与安全挑战
与成年人所面临的网络安全威胁一样甚至更糟糕的是,网络攻击者同样会利用网络钓鱼、漏洞、病毒、勒索软件等方式对未成年人尤其是儿童实施网络攻击。DQ Institute报告显示,全球有高达70%的8岁至18岁年龄段人群在过去的一年中至少遭遇了一次网络攻击风险。随着智能家居、智能玩具等智能设备的普及,未成年人被网络攻击的现象越来越普遍。一方面,网络犯罪分子可以利用漏洞对其进行监视或物理攻击,造成隐私泄露和资金损失,甚至是人身伤害。另一方面,AI技术赋能新型诈骗,通过分析社交媒体上的大量数据,攻击者可以利用AI技术创建更具说服力的虚假身份和信息,如仿冒电子邮件或社交媒体帖子,诱骗用户点击恶意链接或提供个人敏感信息,导致未成年人上当受骗。
(二)智能算法驱动的不公平和歧视问题
生成型AI模型是基于大量数据训练而成的,这些数据中可能包含有偏见和歧视的内容,这可能对未成年人的价值观造成负面影响。华盛顿大学和约翰·霍普金斯大学的一项研究发现,装载了一个常见的AI模型的机器人竟然具备了明显的性别与种族偏见。这些偏见可能塑造未成年人的观点和态度,延续并加剧他们的偏见和歧视。而且,未成年人更容易对AI技术及其衍生产品产生过度依赖,AI驱动的学习资源推荐系统,虽然旨在满足用户的个性化需求,但过度定制化可能导致所谓的“过滤气泡”现象,这种现象可能会引发“茧房效应”,长期处于这样的环境中,容易滋生惰性思维,并在认知和意识形态层面形成封闭和僵化的风险。
(三)生成内容驱动的虚假信息与内容风险
卡巴斯基报告提出,交互式人工智能在与未成年人互动时,有许多聊天机器人被专门设计用来提供色情体验,如利用“AI换脸”“AI一键脱衣”等生成低俗色情图片和视频,或者利用“阅后即焚”的密聊软件诱导未成年人实施违法行为等,由于他们缺乏对信息的鉴别与验证能力,这些挑衅性不良信息不仅会影响他们的身心健康,甚至会诱导他们行为失范。同时,视频类平台已经成为当前未成年人获取新闻事件、重大消息的最广泛渠道,但有超过半数的未成年网民缺乏对信息来源权威性的鉴别意识,英国通信办公室(Ofcom)报告数据显示,32%的3—17岁儿童在过去12个月中“见过让其担忧的内容”。生成式AI能够即时生成基于文本的虚假信息,它们与人类创作的内容几无差别,在某些情境下甚至具备更强的说服力。未成年人的认知能力仍处于发育阶段,更容易受到生成式AI创建的错误和虚假信息的影响,这无疑带来了网络谣言和不良信息的传播隐患。
(四)智能交互中的隐私暴露与数据风险
联合国儿童基金会报告表示,未成年人尤其是儿童会过度信任机器人并向其倾诉,他们会基于信任、分享等多方面的感官和情感体验,与机器人“教师”或“玩伴”进行互动,分享私人和敏感信息,并在使用AI产品在线学习和交流时会留下丰富的数字足迹,这极大地增加了数据泄露和隐私侵犯的风险。法国国家信息自由委员会曾发出警告,智能玩具可在数米远外与手机互联,这很容易被黑客破解,从而导致他们的位置、声音、图片和视频等信息泄露。而且,由于个人数据使用权与归属权一直以来备受争议,在未经授权的情况下,未成年人的敏感身份信息和学习数据若被平台泄露或出售,不仅侵犯了他们的隐私权,也可能给他们带来精神负担和对个人尊严的损害。联合国儿童基金会于2021年发布的《人工智能为儿童——政策指南》指出,“如果缺乏充分的数据保护措施,这些数据可能会被出售至第三方,并且可能永远与他们关联,或将对其未来接受高等教育或就业产生潜在影响”。
二、未成年人网络保护的应对举措
如何在AI时代保障未成年人的安全与合法权益已成为全球范围内AI风险治理的核心议题,从国际组织到关键国家,再到科技界的领军企业,都在对如何有效应对这一问题进行深入的反思和积极的策略制定。
(一)国际规则强化与全球倡议共识
美欧国家率先通过高标准立法强化儿童数据保护。一是加强对儿童用网的限制,包括用网年龄、征得同意、身份识别等方面。美国《儿童在线隐私保护法案》(COPPA)、欧盟《通用数据保护条例》(GDPR)等均提出了最低保护年龄的限制,要求企业对儿童年龄进行验证,同时提出企业必须采取合理方法和可行技术,核实儿童的同意是监护人作出或授权的。二是扩张个人信息保护范围。美国在更新版的COPPA 2.0中扩大了“个人信息”的定义,将生物识别信息如指纹、声纹、面部图像等包括在内,以更有效地应对技术进步。欧盟则不区分成年人和未成年人的个人信息,所有规定同时适用于成年人和未成年人。三是进一步压实企业主体责任。美国COPPA 2.0对儿童个人信息保护规则提出新的要求,对企业设定了明确的义务,进一步限制企业利用儿童个人信息获利的能力,让企业而非家长承担确保儿童数字体验安全的主要责任。此外,与COPPA 2.0一同通过的另一项法案《儿童网络安全法案》(KOSA)提出了在线平台的“注意义务”和“报告义务”,要求它们采取措施保护未成年人免受可能导致伤害的内容影响,例如,可能引发焦虑、抑郁或强迫行为的内容,它还要求平台进行年度风险评估,并建立对17岁以下未成年人最安全的默认隐私设置。GDPR更是为企业创设了严格的数据保护义务,在透明性要求、企业安全义务、个人信息泄露通知义务等方面规定的比美国更为细致,企业一旦违反相关规定将可能面临高达全球收入4%的罚单。此外,GDPR创设儿童被遗忘权,即当儿童在未充分了解数据使用涉及的风险时做出同意,事后想要移除此类个人数据,即使已经不再是儿童,仍有权要求纠正或删除其儿童时期的数据。
(二)我国立法推进与多元治理实践
针对未成年人在网络游戏、网络直播中存在的问题,我国相关监管机构也持续出台配套政策。如国家新闻出版署发布《关于进一步严格管理 切实防止未成年人沉迷网络游戏的通知》,提出进一步增加管理措施力度,严格限制向未成年人提供网络游戏服务的时间。《关于规范网络直播打赏 加强未成年人保护的意见》则关注网络直播对未成年人的伤害问题,针对平台主体责任缺失、主播良莠不齐、打赏行为失范等问题提出了一系列举措。同时,国家网信部门多次开展“清朗”网络环境专项整治运动,为未成年人构建清朗网络空间和生态。
在企业层面,我国大型科技公司推出了多种保护措施,与政府政策形成呼应。在平台设计方面,如腾讯、阿里巴巴、字节跳动等开发了未成年人保护模式或专区,通过限制访问内容、设置时间管理、提供健康内容等方式,保护未成年人免受不良信息的侵害。网易开发了智能防沉迷系统,通过限制未成年人上网时间、监测异常行为等方式,防止未成年人沉迷网络。在行业自律方面,腾讯、网易等互联网企业及多家社会组织共同参与《互联网企业未成年人网络保护管理体系》等起草与实践工作,推动形成企业、政府、社会三方联动的综合治理模式。
(三)域外经验的启示与现实反思
从国际经验来看,美欧国家及相关国际组织在未成年人网络保护方面已初步建立起法律规制、政策倡议与平台实践多元联动的治理体系,展现出较强的体系化建构能力与前瞻性制度意识。例如,美国KOSA确立了平台“注意义务”与年度风险评估机制,欧盟GDPR创设了“被遗忘权”并配以高额经济处罚,显著增强了对儿童数据权益的保护效果。此外,联合国儿童基金会、教科文组织等国际组织通过发布倡议性文件,提出“保护—赋能—参与”三位一体的原则导向,强调儿童不仅是权利客体,更应成为数字时代技术治理的能动参与者,从而推动形成一种以儿童权利为核心的全球性治理理念。
与上述经验相比较,我国未成年人网络保护制度近年取得了重要进展,已构建起涵盖法律法规、监管政策、专项行动与企业自律等多层次的治理格局,初步实现了由部门分治向统筹协调的转变。然而,从纵向完善与横向衔接的角度观察,我国仍存在若干结构性问题亟待深化:其一,平台层面的合规机制仍不健全,风险评估、信息披露等制度安排尚未常态化,企业履责多依赖外部监管推动,内生合规能力仍显薄弱;其二,制度设计以保护为主要导向,对儿童主体性、参与权与成长权的关注度相对不足,未能形成与儿童发展阶段相适应的分类保护机制;其三,当前尚缺乏有效的跨平台、跨地域协调机制,第三方独立监督体系也有待进一步探索与建构。
总体而言,域外经验的比较价值并不在于制度模式的直接“移植”,而在于其所体现的权责逻辑、价值导向与治理理念所能激发的制度反思与本土回应能力。对于我国而言,如何在保持制度自主性的基础上,推动未成年人网络保护机制向规范化、体系化、动态化方向演进,亟须在理念吸收与机制融通之间找到平衡点。在此基础上,进一步明确制度完善的关键环节与可行路径,已成为当前治理实践中的紧迫课题,也为下一步推动制度优化提供了重要契机。
三、总结与建议
在数智时代,面对新的风险趋势,要实现良好的AI安全风险治理、为未成年人构建安全健康的网络环境,仍需要从以下多方面发力。一是进一步强化法治保障。加快新修订的《未成年人保护法》以及新出台的《未成年人网络保护条例》等法律法规的配套设施和实施细则的制定实施,如相关部门应积极推进和建立网络信息分级分类管理制度,制定对网络信息的种类、范围、判断标准等实施细则。二是加强网络生态治理。坚决依法打击违法犯罪活动,集中整治各类网络乱象,加大对网络诈骗、个人信息泄露、网络色情、网络欺凌、隔空猥亵等易发多发问题的打击和整治力度,坚决守住网络安全底线,为未成年人营造风清气正的网络空间。三是压实平台责任。鼓励和引导网络平台企业和相关行业协会履行社会责任,加强行业自律,制定和完善未成年人网络保护相关行业规范和标准,严格对智能手表、智能台灯、词典笔等专门面向未成年群体的智能产品的安全管理,完善相关产品标准,健全市场准入机制。四是加强学校、家庭教育监督管理。明确学校将提高学生网络素养纳入教育教学活动,建立健全学生在校期间上网的管理制度,加强监护人对未成年人使用网络行为的教育、示范、引导和监督,关注未成年人上网情况以及相关生理和心理状况、行为习惯,预防未成年人沉迷网络。
未成年人网络保护作为构建全球网络空间命运共同体的“前哨站”,需要各国共同携手推进未成年人个人信息保护、信息内容治理等重点问题的制度设计,加强AI等新技术新应用背景下未成年人网络保护问题的研究,为全球未成年人在网络空间中成长成才撑起一片法治蓝天。正如英国《网络服务适龄设计实践准则》所指出:我们需要做的是保护数字世界的未成年人,而不是保护未成年人远离数字世界。未来,国家、社会、家庭需注重对未成年人的网络安全意识、网络安全素养的培养,切忌矫枉过正。