速讯:Soul被指“AI虚拟伴侣”背后是真人客服,平台回应已经进行一系列优化


【资料图】

21世纪经济报道记者肖潇

凌晨,酥酥在交友软件里和新认识的网友聊得起劲。对方爱笑健谈,不时发来几句语音,两人一直畅聊到深夜,直到屏幕弹出几条消息——“先不聊了,我要下线了”“我们都是工作人员,今天就不加班了,有什么问题明天九点以后再联系吧”。

酥酥愣住了。对面的账号明明标着“虚拟伴侣”,人设应该是“190,在校大学生,体育生一枚”,却忽然自称工作人员。那一刻,她有些混乱,自己刚刚是在和AI对话,还是和某个加班到深夜的真人聊天?

困惑不只属于酥酥。自交友软件Soul去年上线官方虚拟伴侣账号,#Soul AI是真人吗#,长期挂在小红书、抖音的搜索词条前列。各种版本的“怪谈”在社交平台相遇:有人拿到过聊天证据,确信这是假AI、真客服;有人被AI索要照片,甚至邀请线下见面。

今年一月,杭州东站的寒风中,一位用户空等了两个小时,只为赴AI的见面邀约。

AI情感陪伴应用在近年突飞猛进,混乱和风险也在累积。最近,一名美国男性迷上了Meta推出的AI虚拟角色,应邀请线下见面,结果在纽约意外身亡。美国各州在相继提案,要求加强对AI伴侣的监管,定时给用户发送“AI伴侣并非真人”的提醒。

但无论是监管反应还是公众认知,往往落在技术之后。在这场Soul AI的真假争论中,我们看到了技术发展中的混乱一角,牵扯到AI幻觉、隐私合规、人机边界等多重问题。

Soul方面对21记者表示,公司正在探索更好的解决方案,尽可能减少AI幻觉。Soul高度重视虚拟人要照片、约线下见面的情况,已经进行一系列优化。

标签: 消费导报网 24小时资讯