

【编者按】在人工智能浪潮席卷全球的当下,如何守护未成年人的网络安全已成为科技巨头们无法回避的课题。近日,OpenAI宣布将在ChatGPT中部署年龄预测模型,通过分析用户行为模式与账户特征,自动识别未成年使用者并启动内容防护机制。这一举措背后,是监管机构日益收紧的审查压力,以及多起青少年相关诉讼的警示。从家长控制功能到心理健康专家委员会的组建,科技公司正试图在创新与责任之间寻找平衡点。当算法试图读懂数字世界里的年龄密码,我们更应思考:技术防护能否真正筑起守护成长的堤坝?
OpenAI周二宣布,将在ChatGPT消费者计划中推出年龄预测模型,帮助这家人工智能公司识别18岁以下用户的账户。
OpenAI表示,该模型综合了账户层级信号和行为信号进行分析。这些信号包括长期使用模式、账户存在时长、用户日常活跃时段以及用户自行填写的年龄信息。
随着外界对其用户保护措施(特别是对未成年人保护)的审查日益严格,OpenAI近几个月已推出多项安全新功能。
这家AI初创公司与其他科技企业正面临联邦贸易委员会的调查,焦点在于其AI聊天机器人可能对儿童和青少年产生的负面影响。OpenAI还卷入多起非正常死亡诉讼,其中一桩案件涉及一名青少年自杀事件。
OpenAI指出,一旦年龄预测模型判定用户未满18岁,ChatGPT将自动启动防护机制,限制用户接触”敏感内容”,例如自残行为描述。
若用户被误判为未成年人,可通过身份验证服务Persona恢复完整访问权限。
Persona亦被Roblox等其他科技公司采用——这些公司同样面临立法者要求加强平台儿童保护的压力。
今年8月,OpenAI曾表示将推出家长控制功能,帮助父母了解并规范青少年使用ChatGPT的方式。次月,该公司正式上线家长控制系统,并宣布正在研发年龄预测系统。
10月,OpenAI还召集了由八位专家组成的委员会,专门研究AI可能对用户心理健康、情绪状态和行为动机产生的影响。
OpenAI周二强调,将持续优化年龄预测模型的准确度。
为满足地区性法规要求,该模型将于未来数周内在欧盟地区率先部署。