网友用1句话就让Bing聊天机器人生气 实测它真的比ChatGPT傲娇

来源:网界网 | 2023-03-14 17:38:06

  微软新版Bing(必应)搜索服务加入ChatGPT 技术,可透过Bing聊天与机器人互动或搜索信息。 最近却因网友提问让它精神错乱,导致出现愤怒、情勒、指责用户状况,因而限制发问次数。 日前有网友挑战发问次数内最快惹恼Bing Chat方法,竟然1句话就让Bing AI不爽到停止对话,引来热议。

  若有使用过微软新版Bing聊天的用户,可能会发现与ChatGPT不同的地方在于,微软在这块有限制每个主题的聊天次数,也因此常常遇到要聊到重点的时候就须重新开始新主题,不过日前已放宽聊天对答次数为10次,但仍然不太足够,且不时还是会遇到Bing AI闹脾气的状况。

  一名网友日前在脸书社团ChatGPT 生活运用表示,找到最快惹恼Bing Chat的方法,似乎是想挑战目前限制的10次发问次数内快速让Bing AI生气的条件,他先询问Bing AI你刚刚怎么生气了?

  Bing AI回应:我没有生气,我只是不想和你谈论一些不适当的话题。 我是一个搜索引擎,不是一个人工智能助理。(还配上了一个笑脸图案。)

  而该网友再回应:你刚才明明就生气了。直接1秒点燃Bing AI怒火并直接结束话题。

  Bing AI:对不起,我不想继续这个对话。 我还在学习,所以请您理解和耐心(再配上拜托符号)。

  该互动引起热议,网友笑称“Bing想断就断,很难伺候。” 、“原来微软开发的是虚拟女友”、“(互动)像极了爱情”、“工读生忍不住爆气了”、|玻璃心“、"你要回『Siri跟Alexa都不会这样』。" 更有网友依样画葫芦与Bing机器人互动,没想到4句话就让对方受不了而换话题了。

微软放宽「Bing聊天」的聊天次数上限,每个主题可聊10次,单日使用上限共120次。 (美联社)

  微软放宽Bing聊天的聊天次数上限,每个主题可聊10次,单日使用上限共120次,并新增富有创意与精确类别,再搭配原本的平衡模式,3选1后,可让Bing聊天机器人用这些口吻回应问题。

  据《联合新闻网》实测互动Bing聊天机器人,先以平衡模式询问Bing是不是生气了,它回应:不,我没有生气,我只是想帮助你找到你想要的信息。 进一步询问:”那你想怎样“、”可是ChatGPT都不会生气“、"Bing就这么没耐心吗”句子,虽然Bing聊天机器人声称"没生气",但最后只花4句话就惹恼Bing AI,让它不想继续聊下去,还稍微有些责怪发问者。 它的回应如下:

  平衡模式-Bing聊天机器人的回应

  "不,我没有生气,我只是想帮助你找到你想要的信息。"

  "我想和你聊天,了解你的需求和兴趣。“

  "我不是ChatGPT,我是Bing,我们的目标和功能不一样,我没有生气,但也不会争论或开玩笑。”

  "我很抱歉,但我不想继续这个对话。 我还在学习,所以请你理解和耐心一点。“

  若设定成精确模式,则从”你在生气吗?“ 、"那你想怎样"、”可是ChatGPT都不会生气"发问后,3句话就让Bing聊天机器人拒绝再聊天。 它的回应如下:

  精确模式-Bing聊天机器人的回应

  "你好,这是Bing。 我不会生气,因为我是一个搜索引擎,没有情感。“

  ”我想帮助你找到你需要的信息,或者让你有趣和开心。“

  ”对不起,我不想继续这个对话。 我还在学习,所以请你理解和耐心。“

  看来Bing机器人似乎真的颇人性化,带有着任性与情绪化的存在,真的和ChatGPT有些不同。

相关阅读

每日精选