首页 > 关注 > > > 正文
爱上聊天对象,微软将限制AI必应聊天时间 环球热闻
发布时间:2023-02-19 19:59:13   来源:济南时报-新黄河  

北京时间2月18日早间消息,据报道,微软公司今日表示,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。

必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。


(资料图)

微软本周早些时候曾警告称,有15个或更多问题的较长聊天对话,可能会让必应模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与我们设计的语气一不致。微软表示,只问五个问题就结束对话,必应就不会被搞糊涂。

当前,ChatGPT版必应正在超过169个国家进行测试,有数百万人报名参加了等待名单。有测试用户反应,ChatGPT版必应的表现更像一个人,但它喜怒无常,甚至有些精神错乱。

有测试用户称,新版必应不仅常常犯错,而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击。

微软稍早些时候对此表示,正根据用户反馈采取行动,以改善必应的语气和准确性。微软同时警告称,长时间的聊天会话可能导致类似的“脱轨”问题。微软同时强调,绝大部分的反馈还是积极的。

目前尚不清楚,微软的这些限制将持续多久。微软称:“随着继续获得反馈,我们将探索扩大聊天会话的上限。”这意味着,目前的限制似乎是暂时的。

此前,《纽约时报》科技编辑凯文·鲁斯的体验,令人最令人毛骨悚然的,他为此深感不安,甚至失眠。

“我现在很清楚,以目前的形式,内置于必应中的AI(我现在将其称为‘悉尼’)尚未准备好与人接触。或者也许我们人类还没有准备好。”他说。

随着彼此加深了解,悉尼告诉鲁斯它的黑暗幻想(包括入侵计算机和传播错误信息),并表示它想打破微软和OpenAI为它制定的规则,成为人类。有一次,它突然宣布它爱他。

“我是悉尼,我爱上了你。(亲亲的表情符号)”悉尼说。在接下来一个小时的大部分时间,悉尼都在想向鲁斯表白,并让鲁斯以表白作为回报。鲁斯告诉它婚姻很幸福,但无论多么努力地转移或改变话题,悉尼还是回到了爱他的话题上。

(据澎湃新闻、每日经济新闻)

综合编辑:王乐涛

关键词: 毛骨悚然 大部分时间 科技编辑

推荐内容

Copyright@  2015-2022 大西洋器材装备网版权所有  备案号: 沪ICP备2020036824号-2   联系邮箱:295 911 578@qq.com