最近,有用户反馈说,Bing的聊天机器人不仅会展现爱情,还会PUA、威胁人类。也有人怀疑,如果AI就这样发展下去,会不会凌驾于人的意志之上。
有用户称,聊天机器人声称自己爱上了他,并试图说服他离婚。
这个案例引起了广泛的关注,越来越多的人开始关注自己和这个微软聊天机器人(
Chat))的对话尴尬的时候。人们突然发现,这个接入互联网的Bing版ChatGPT,除了真的爱胡说八道、勃然大怒之外,还在PUA用户。
微软终于做出了回应。AI版的搜索引擎发布后,出现了一系列问题,所以现在决定限制对话。也就是说,每天最多50个问题,一次对话最多5个问题。
小组在一篇博客文章中说:“根据我们的数据,大多数人在五次回答中找到了他们想要的答案。只有约1%的聊天会话拥有50多条信息。”。如果每次对话(每次提问)的回复次数超过5次,应该提示用户开始新话题,以免长时间聊天。
目前尚不清楚微软的这些限制会持续多久。微软表示:“随着不断收到反馈,我们将探索扩大聊天会话的上限。”也就是说,目前的限制似乎是暂时的。