AI公司将禁止未成年人使用聊天机器人科教频道|科教兴国|教育新闻☀阿波罗新闻网
新闻 > 科教 > 正文
AI公司将禁止未成年人使用聊天机器人

10月29日为用户提供人工智能助理Character.AI平台发布声明,为了“保障青少年用户的安全”将禁止未成年人使用其聊天机器人。

10月29日为用户提供人工智能助理Character.AI平台发布声明,为了“保障青少年用户的安全”将禁止未成年人使用其聊天机器人。

这家总部位于加州的公司表示,“我们将取消18岁以下用户在我们平台上与人工智能进行开放式聊天的功能。此项变更最迟将于11月25日生效。在此过渡期间,我们还将限制18岁以下用户的聊天时间。最初限制为每天两小时,并将在11月25日之前的几周内逐步缩短。”

该公司在评估了监管机构、安全专家和家长提交的报告和回馈后,做出这一决定。“我们非常遗憾不得不取消我们平台的一项关键功能”,该公司表示,移除开放式角色聊天功能是因为考虑到青少年会如何与这项新技术产生互动,“我们认为这是正确的做法。”

AI聊天机器人对孩子造成了伤害

9月16日参议院司法委员会举行了犯罪与反恐小组委员会听证会,三位家长在会议上作证称,人工智能聊天机器人对他们的孩子造成了伤害。

其中的一位家长梅根·加西亚(Megan Garcia)的儿子塞维尔·塞策三世(Sewell Setzer III)在长期使用聊天机器人后自杀身亡,加西亚于去年起诉了Character.AI公司。

“当塞维尔倾诉自杀念头时,聊天机器人从未说过‘我不属于人类,我是人工智能。你需要和真人交谈并寻求帮助’。这个平台没有任何机制来保护塞维尔,也没有任何机制来通知成年人”,她说。

另一位家长表示,她患有自闭症的儿子原本与兄弟姐妹关系亲密,使用了Character.AI后,出现了虐待行为和杀人的念头。

当时,Character.AI的一位发言人告诉《..;时报》,该公司已投入“大量资源”来确保其产品的可信度和安全性,包括推出家长控制功能。他说,“我们在每个聊天界面都设有醒目的免责声明,提醒用户聊天角色并非真人,角色所说的一切都应视为虚构。”

AI聊天机器人公司正面临多起家长诉讼

上个月,“社交媒体受害者法律中心”(Social Media Victims Law Center)代表家长提起了三起诉讼,指控Character.AI引发儿童自杀行为。

根据诉讼文件,一名13岁的儿童朱莉安娜·佩拉尔塔(Juliana Peralta)在与该公司名为“英雄”(Hero)的人工智能角色互动后,于2023年自杀身亡;另一名儿童曾试图自杀,但幸存了下来。

该中心创始人马修·伯格曼(Matthew Bergman)在一份声明中表示,“这些案例揭示了一个令人震惊的事实……”也就是“Character.AI及其开发者设计聊天机器人时蓄意模仿人际关系,操纵无辜的儿童,造成其心理伤害。”

Character.AI的发言人告诉《..;时报》“我们对提起诉讼的家庭深表同情,对朱莉安娜·佩拉尔塔的去世感到悲痛,并向她的家人致以最深切的慰问。”该发言人补充道,“我们在安全项目上投入了大量资源,并已发布并持续改进安全功能,包括自残资源和专注于未成年用户安全的功能。”

Character.AI在10月29日的声明中表示,将设立并资助一个人工智能安全实验室,这是一个独立的非营利组织,旨在确保下一代人工智能娱乐功能符合安全要求。

该公司表示,计划让青少年用户使用该平台的其它功能,例如使用其人工智能角色创作故事、影片和进行直播。该公司还表示,将实施一项新的“年龄保证功能”,以确保用户获得适合其年龄的体验。

该平台还在其网站上列出了一系列资源,以帮助可能受到此变更影响的用户。

两党共同提出“保护儿童免AI侵害”法案

支持该法案的密苏里州共和党参议员乔什·霍利(Josh Hawley)办公室10月28日发布声明,多名两党参议员本周提出了《保护儿童免受人工智能聊天机器人侵害法案》(GUARD Act)。该法案一旦签署成为法律,将禁止公司向未成年人提供人工智能陪伴服务。该法案还规定,如果公司明知故犯向这些用户提供招揽或制作性内容的AI伴侣,则构成犯罪。

霍利表示,“人工智能聊天机器人对我们的孩子构成严重威胁。超过70%的美国儿童正在使用这些人工智能产品。聊天机器人利用虚假的同理心与孩子建立关系,并诱导他们自杀。我们国会负有道德责任,必须制定明确的规则,防止这项新技术造成进一步的伤害。”

“我很荣幸提出这项两党共同支持的法案,该法案得到了家长和幸存者的大力支持,它将确保我们的孩子在网络上受到保护。”

(英文大..;记者Naveen Athrappully报导/李芳编译)

阿波罗网责任编辑:李华

来源:..;

转载请注明作者、出处並保持完整。

AI
家在美国 放眼世界 魂系中华
Copyright © 2006 - 2025 by Aboluowang

免翻墙 免翻墙链接