微软新版Bing(必应)搜索服务加入ChatGPT 技术,可透过Bing聊天与机器人互动或搜索信息。 最近却因网友提问让它精神错乱,导致出现愤怒、情勒、指责用户状况,因而限制发问次数。 日前有网友挑战发问次数内最快惹恼Bing Chat方法,竟然1句话就让Bing AI不爽到停止对话,引来热议。
若有使用过微软新版Bing聊天的用户,可能会发现与ChatGPT不同的地方在于,微软在这块有限制每个主题的聊天次数,也因此常常遇到要聊到重点的时候就须重新开始新主题,不过日前已放宽聊天对答次数为10次,但仍然不太足够,且不时还是会遇到Bing AI闹脾气的状况。
一名网友日前在脸书社团ChatGPT 生活运用表示,找到最快惹恼Bing Chat的方法,似乎是想挑战目前限制的10次发问次数内快速让Bing AI生气的条件,他先询问Bing AI你刚刚怎么生气了?
Bing AI回应:我没有生气,我只是不想和你谈论一些不适当的话题。 我是一个搜索引擎,不是一个人工智能助理。(还配上了一个笑脸图案。)
而该网友再回应:你刚才明明就生气了。直接1秒点燃Bing AI怒火并直接结束话题。
Bing AI:对不起,我不想继续这个对话。 我还在学习,所以请您理解和耐心(再配上拜托符号)。
该互动引起热议,网友笑称“Bing想断就断,很难伺候。” 、“原来微软开发的是虚拟女友”、“(互动)像极了爱情”、“工读生忍不住爆气了”、|玻璃心“、"你要回『Siri跟Alexa都不会这样』。" 更有网友依样画葫芦与Bing机器人互动,没想到4句话就让对方受不了而换话题了。
微软放宽Bing聊天的聊天次数上限,每个主题可聊10次,单日使用上限共120次,并新增富有创意与精确类别,再搭配原本的平衡模式,3选1后,可让Bing聊天机器人用这些口吻回应问题。
据《联合新闻网》实测互动Bing聊天机器人,先以平衡模式询问Bing是不是生气了,它回应:不,我没有生气,我只是想帮助你找到你想要的信息。 进一步询问:”那你想怎样“、”可是ChatGPT都不会生气“、"Bing就这么没耐心吗”句子,虽然Bing聊天机器人声称"没生气",但最后只花4句话就惹恼Bing AI,让它不想继续聊下去,还稍微有些责怪发问者。 它的回应如下:
平衡模式-Bing聊天机器人的回应
"不,我没有生气,我只是想帮助你找到你想要的信息。"
"我想和你聊天,了解你的需求和兴趣。“
"我不是ChatGPT,我是Bing,我们的目标和功能不一样,我没有生气,但也不会争论或开玩笑。”
"我很抱歉,但我不想继续这个对话。 我还在学习,所以请你理解和耐心一点。“
若设定成精确模式,则从”你在生气吗?“ 、"那你想怎样"、”可是ChatGPT都不会生气"发问后,3句话就让Bing聊天机器人拒绝再聊天。 它的回应如下:
精确模式-Bing聊天机器人的回应
"你好,这是Bing。 我不会生气,因为我是一个搜索引擎,没有情感。“
”我想帮助你找到你需要的信息,或者让你有趣和开心。“
”对不起,我不想继续这个对话。 我还在学习,所以请你理解和耐心。“
看来Bing机器人似乎真的颇人性化,带有着任性与情绪化的存在,真的和ChatGPT有些不同。