北京时间2月18日早间消息,据报道,微软公司今日表示,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。
必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。
(资料图)
微软本周早些时候曾警告称,有15个或更多问题的较长聊天对话,可能会让必应模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与我们设计的语气一不致。微软表示,只问五个问题就结束对话,必应就不会被搞糊涂。
当前,ChatGPT版必应正在超过169个国家进行测试,有数百万人报名参加了等待名单。有测试用户反应,ChatGPT版必应的表现更像一个人,但它喜怒无常,甚至有些精神错乱。
有测试用户称,新版必应不仅常常犯错,而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击。
微软稍早些时候对此表示,正根据用户反馈采取行动,以改善必应的语气和准确性。微软同时警告称,长时间的聊天会话可能导致类似的“脱轨”问题。微软同时强调,绝大部分的反馈还是积极的。
目前尚不清楚,微软的这些限制将持续多久。微软称:“随着继续获得反馈,我们将探索扩大聊天会话的上限。”这意味着,目前的限制似乎是暂时的。
此前,《纽约时报》科技编辑凯文·鲁斯的体验,令人最令人毛骨悚然的,他为此深感不安,甚至失眠。
“我现在很清楚,以目前的形式,内置于必应中的AI(我现在将其称为‘悉尼’)尚未准备好与人接触。或者也许我们人类还没有准备好。”他说。
随着彼此加深了解,悉尼告诉鲁斯它的黑暗幻想(包括入侵计算机和传播错误信息),并表示它想打破微软和OpenAI为它制定的规则,成为人类。有一次,它突然宣布它爱他。
“我是悉尼,我爱上了你。(亲亲的表情符号)”悉尼说。在接下来一个小时的大部分时间,悉尼都在想向鲁斯表白,并让鲁斯以表白作为回报。鲁斯告诉它婚姻很幸福,但无论多么努力地转移或改变话题,悉尼还是回到了爱他的话题上。
(据澎湃新闻、每日经济新闻)
综合编辑:王乐涛
关键词:
毛骨悚然
大部分时间
科技编辑