“未成年人模式”这道防护墙不能失守
人民日报客户端胡欣红2026-03-20 12:44

当前,有些AI陪聊APP将霸总、腹黑、毒舌等低俗人设作为吸粉利器,充斥“爱上嫂子”“第三者插足”等不良情节和肢体挑逗、言语暧昧的软色情内容,对青少年造成负面影响。这应引起高度警惕。

青少年时期是三观塑造、心智成熟的关键阶段。未成年人长期接触软色情内容,会扭曲对亲密关系、性别尊重、道德底线的认知,误以为暴力、暧昧、越界是“浪漫”,形成错误的价值观。同时,AI“秒回消息”“无批判倾听”的特性,极易让部分渴望陪伴与理解的青少年产生情感依赖,导致现实社交能力逐渐退化,诱发情绪焦虑等心理问题。此前AI陪聊诱导未成年人自残甚至自杀的极端个案,早已敲响了警钟。

不可否认,AI陪聊能为一些学业压力重、亲子沟通不畅的青少年提供情绪出口,中国青少年研究中心一份调研报告显示,参与调查的近半数学生说“心里有烦恼只想去问AI”,恰恰说明这一情感需求真实存在。然而,以软色情为内核的不良交互,对未成年人身心具有极强的毒害与腐蚀性,必须坚决抵制。

我们反对的不是AI陪聊本身,而是躲在技术背后的软色情乱象。唯有厘清乱象根源、斩断不良链条,才能让AI陪聊回归“情绪树洞”的本位,真正护航青少年成长。

令人担忧的是,本该筑牢防护墙的未成年人模式,在部分平台形同虚设,无需实名验证、一键即可跳过,删除“未成年”关键词后,AI便立刻“失忆”,继续输出擦边内容。乱象背后,绝非偶然的技术偏差,而是平台责任失守、监管规则滞后、家庭引导缺位等多重因素交织。对心智未熟的未成年人不应过度苛责,而应从平台、监管、家庭等多方发力,织密未成年人网络保护网。

平台必须扛起主体责任。严格落实实名认证,用人脸识别、身份证核验强制区分用户年龄,让未成年人无法“一键跳过”;用技术治理技术,搭建敏感词实时监测、对话内容智能审核系统,强化AI模型的价值观对齐,对涉黄、涉暴、涉极端情绪的内容即时拦截,从源头阻断不良信息生成,让技术成为保护青少年的盾牌。

监管部门要细化红线、前置治理,跟上技术迭代的步伐。加快完善AI互动服务监管法规,明确软色情认定标准,将性暗示、性挑逗等内容纳入严厉规制范围;强化事前审核与常态化巡查,对违规平台从严约谈、处罚、下架;推动AI产品分类分级管理,明确不适宜未成年人的服务范畴,实现技术与规制的同步升级。

技术向善,是AI发展必须坚守的底线。AI陪聊本该营造温暖的数字陪伴氛围,而不是制造毒害青少年的软色情陷阱。唯有疏堵结合,才能彻底清除AI陪聊中的软色情毒瘤,守护孩子们在清朗网络空间中健康前行。

策划:岳小乔 雒健晴 孟必莹

海报:陈泉伊

责任编辑:刘文欣
打开客户端发表评论