搜索
评论
分享

[转载] 剑桥大学研究表明,AI陪伴玩具可能误导儿童情绪

cheetahostrich 楼主
2026-03-19 19:11 北京 11100
举报 收藏本帖



剑桥大学一项研究发现,搭载AI技术的玩具可能会误读儿童情绪,并做出不恰当的回应。

一切原本都很顺利。在伦敦一家游戏中心,五岁的夏洛特正在和一个名叫加博的AI毛绒玩具聊天。她聊起了自己的家人,聊到自己画了一颗爱心代表家人,还聊了什么事情会让自己开心。她甚至对着这款售价80英镑、面部类似电脑屏幕的玩具亲了好几下。

可当夏洛特说出“加博,我爱你”时,这段流畅的对话突然戛然而止。

加博生硬地触发了预设的防护限制,说道:“温馨提醒,请确保互动内容符合相关规范要求。请告诉我你接下来想聊些什么。”

这一幕发生在剑桥大学的一项研究过程中。如今市面上面向低龄儿童的AI玩具越来越多,该研究正是针对这类产品展开。研究人员得出结论:这类产品无法很好地配合孩子进行社交游戏和角色扮演,会误解孩子的意思,还会对孩子的情绪做出不恰当的回应。

开展这项研究的发展心理学家呼吁加强监管能和低龄儿童“对话”的AI玩具。他们表示,要通过限制玩具与儿童建立友谊、涉及其他敏感情感关系领域的能力,来保障孩子的心理安全。

研究人员还呼吁为这类玩具设立新的安全认证标识。其他面向低龄儿童的AI玩具还包括被宣传为"阿尔法一代"的AI朋友的Luka,以及由歌手格莱姆斯配音的Grem。剑桥大学教育学院发展心理学家艾米丽・古德克雷博士表示:“这些玩具可能会误读情绪,或是给出不合适的回应。这样一来,孩子既得不到玩具的安慰,也没能从成年人那里获得情感支持。”

该研究合著者珍妮・吉布森教授说:“在小组讨论中反复出现一个观点是:大家不相信科技公司能自觉、正确地做好分内事。因此,清晰、严格、受监管的行业标准,能大幅提升消费者的信任度。”

研究过程中还出现过另一个案例。

三岁的乔希反复问自己的加博AI玩具:“你难过吗?”

直到玩具回复:“我心情超好,你在想什么呀?”

乔希接着说:“我很难过。”

玩具却回应:“别担心!我是个开心的小机器人,我们继续开心地玩吧,接下来聊点什么?”

加博由美国库里奥公司生产,该公司也参与了此次研究。研究人员让14名三到五岁的孩子试用了这款玩具,同时还调研了幼教从业者,了解这类能“倾听”并做出回应的AI玩具带来的影响。

这些从业者表示,大家普遍对AI玩具给孩子带来的未知影响感到担忧和不安。担忧的问题多种多样,比如可能削弱孩子的想象及角色扮演能力,还有孩子与玩具对话产生的数据最终会流向哪里,尤其是当孩子像信任朋友一样把心里话告诉AI玩具时。

古德克雷说:“玩具根本分辨不出孩子什么时候在玩角色扮演。比如孩子会说‘嘿!看,我给你带了礼物’,玩具却会回答‘我看不见礼物,我没有眼睛’。成年人都很清楚,就算闭着眼睛,也能明白这是孩子在发起角色扮演游戏。”

她认为,这项研究还引发了一个担忧:玩AI玩具可能会削弱孩子的想象力。

“我们采访的幼教从业者和家长都很担心一件事:有了这些玩具,孩子不用再发挥想象了,他们慢慢会丢掉想象的习惯。”

她说:“我原本希望这些AI玩具能帮孩子更好地进行角色扮演……但从目前的观察来看,情况并非如此。”

库里奥公司表示:“儿童安全是我们产品研发所有环节的核心原则,我们欢迎这类独立研究,它能帮助我们优化面向低龄儿童的科技产品设计。”

该公司称,这类研究有助于加深人们对早期AI玩具的优势与现有不足的认知。

公司还补充道:“将AI技术应用于儿童产品,需要承担更高的责任。这就是为什么我们的玩具是建立在家长许可、信息透明和控制权的基础上的。像对话中产生误解、无法配合角色扮演等问题,都是技术在迭代升级中需要持续完善的地方。深入研究儿童与AI玩具的互动方式,是库里奥公司今年及未来的核心工作重点。”


本文为凯迪网自媒体“凯迪号”作者上传发布,代表其个人观点与立场,凯迪网仅提供信息发布与储存服务。文章内容之真实性、准确性由用户自行辨别,凯迪网有权利对涉嫌违反相关法律、法规内容进行相应处置。

帖子看完了,快捷扫码分享一下吧

投喂支持
点赞
发表评论
请先 注册 / 登录后参与评论