ChatGPT出招 阻青少年谈自杀(图)

发布 : 2025-9-18  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

OpenAI行政总裁奥尔特曼本月4日到白宫,出席人工智能教育工作小组会议。(路透社)


人工智能(AI)应用的道德议题日益乖碢注之际,OpenAI行政总裁奥尔特曼(Sam Altman)周二(16日)宣布,旗下AI聊天机械人ChatGPT正打造一套能够预测使用者年龄、据此为青少年提供额外保护的系统。他指出,针对青少年,ChatGPT不会回应使用者提出的调情指令,也不会讨论轻生的相关内容。如果发现未成年者有自杀倾向,系统会尝试联络父母或相关单位。

美国近期发生不止一宗青少年轻生后被发现生前曾受AI聊天机械人影响的个案,死者家长先后入禀控告AI公司,当中包括OpenAI。

AI对话趋私密 须更高级保护

奥尔特曼周二透过OpenAI网站发表署名文章,提到社会各界关注的三大议题,包括私隐权、自由与青少年。他在文章开头提到,OpenAI正在开发更先进的资安功能,保障使用者的隐私。

他说,随著人们与AI对话的内容愈来愈私密,这项科技有人们最敏感的个人资料,就像与医生讨论病历、向律师说明法律问题一样,这些资讯必须受到更高等级的保护。

接著他谈到使用者的自由度。他强调,在资讯安全的大原则下,希望让使用者依照自己的方式自由使用,确保使用者有最大程度的自由在不会伤害他人、侵犯别人的情况下,「把成年人当作成年人看待」。他举例,一般而言,ChatGPT在预设状态下,不会作太多调情式的暧昧对话,但如果成年使用者提出要求,就应该得到使用者想要的回应。另一个例子是,系统不会提供轻生的具体作法,但如果成年使用者要写一篇关于自杀情节的小说,ChatGPT应该给予协助。

至于保护青少年上,奥尔特曼指出:「对于青少年,我们把安全摆在私隐和自由之前。这是一项新兴且强大的科技,我们认为未成年人需要额外的保护。」他透露,公司正打造一套年龄预测系统,能根据使用者的行为推测年龄;若有疑虑,会倾向「宁枉毋纵」,把使用者设定为未满18岁。他说,在某些情况下或特定国家,ChatGPT还会要求使用者提供身分证明。(中央社)