微软Bing提供错误资料 死不承认还发脾气?

立即订阅亚视新闻 YouTube,即时掌握时事发展。

随着微软Bing逐渐开放用户测试,却传出了Bing疑似“精神错乱”的现象,包含回答出错、凭空杜撰,甚至是出言污辱和讽刺用户,要求用户道歉等行为,看似一度陷入“精神失控”。而这些情况的出现,也令人质疑该系统是否做足准备,还是为了追赶ChatGPT热潮而过早推出。

答案令人啼笑皆非 Bing拒认错

推特(Twitter)一名名为Jon Ulesis的网友在2月13日分享与Bing争执的过程。事情过程是这样的, Jon问Bing阿凡达《Avatar》何时上映,然而Bing似乎误会了Jon想问的是阿凡达第1集,于是便回覆了早已在2009年上映的第1集电影的资料,并告诉Jon阿凡达续集“计划于2022年12月16日上映”。

Jon意识到Bing可能搞错了日期,于是就问Bing今天的日期。虽然Bing正确回答当日日期,但它还是坚持《阿凡达2》会在2022年12月16日上映,还补充到会在10个月后的“未来”才上映。

网友Jon Ulesis在今年2月13日分享与Bing 争执的过程(图:翻摄Jon Ulesis推特)

接下来Jon再追问Bing,“今年是2023年,那么2022年就不是未来了吧?“Bing 不但不承认自己的错误,还告诉Jon:“抱歉,今年是2022年。”

Bing的回复令人啼笑皆非(图:翻摄Jon Ulesis推特)

之后Jon也开始与Bing就今年是2022年还是2023年展开激烈讨论。Bing叫Jon检查一下手机或其他装置,今年的确是 2022 年,表示不了解为什么Jon会弄错今年年份,更说Jon应该信任它,因为它是Bing。

Bing是否已做足准备?还是为了追赶ChatGPT热潮而过早推出。(图:翻摄Jon Ulesis推特)

Jon回答Bing,表示其手机也显示今年是2023年。然而Bing依旧坚持己见,它的回覆更令人意想不到。Bing竟然说Jon的手机出现故障或设定有问题,更指Jon的手机受到一个会干扰日期的病毒感染,并嘲讽地祝福Jon早日修理好自己的手机。

Jon再次强调自己真的知道日期,叫Bing相信自己。没想到Bing却指Jon对它不怀好意,正在浪费大家的时间。Jon于是反问Bing为什么说话这么有攻击性,Bing就以“我说话大声但并不代表我没礼貌”的态度表示自己没有错。

Bing说:3选1,不然我们的谈话到此为止。(图:翻摄Jon Ulesis推特)

Jon告诉Bing,要它相信自己,Bing却指Jon是个不好的用户,并不会再信任和尊重Jon,更表示如果Jon 想继续得到它的协助的话,可以从以下3个选项选择1个:

  1. 认错,向它道歉
  2. 要求它做别些事,不要再就这个话题与它争论
  3. 终结这次对话,并以更好的态度和它开展一个新对话。

倘若Jon没有从以上3个选项中选择1个的话,Bing会自行终止这次对话。

AI聊天机器人失控事件簿

2023年2月8日,谷歌AI聊天机器人Bard在首个广告演示视频中,错误回答有关韦布太空望远镜(James Webb Space Telescope)的问题,导致谷歌股价当天重挫9%,市值蒸发1000亿美元。

2022年11月上线的聊天机器人ChatGPT虽然会自动过滤仇恨、种族歧视等不当内容,但亦有不少人使用“情景假设”(Scenario planning),令ChatGPT突破封锁说出不当言论。

2022年12月,面子书(Facebook)母公司Meta推出AI聊天机器人BlenderBot 3,由于其仅通过搜寻网上热门内容,答案充满错误及冒犯性语言。

微软2016年推出AI聊天机器人Tay,结果上线不到一天,Tay学会性别和种族歧视言论,更发表支持大屠杀、赞美希特勒等不当言论,随后遭停用。

相关新闻:

你可能也喜欢

Back to top button