微软Bing提供错误资料 死不承认还发脾气?
随着微软Bing逐渐开放用户测试,却传出了Bing疑似“精神错乱”的现象,包含回答出错、凭空杜撰,甚至是出言污辱和讽刺用户,要求用户道歉等行为,看似一度陷入“精神失控”。而这些情况的出现,也令人质疑该系统是否做足准备,还是为了追赶ChatGPT热潮而过早推出。
答案令人啼笑皆非 Bing拒认错
推特(Twitter)一名名为Jon Ulesis的网友在2月13日分享与Bing争执的过程。事情过程是这样的, Jon问Bing阿凡达《Avatar》何时上映,然而Bing似乎误会了Jon想问的是阿凡达第1集,于是便回覆了早已在2009年上映的第1集电影的资料,并告诉Jon阿凡达续集“计划于2022年12月16日上映”。
Jon意识到Bing可能搞错了日期,于是就问Bing今天的日期。虽然Bing正确回答当日日期,但它还是坚持《阿凡达2》会在2022年12月16日上映,还补充到会在10个月后的“未来”才上映。
接下来Jon再追问Bing,“今年是2023年,那么2022年就不是未来了吧?“Bing 不但不承认自己的错误,还告诉Jon:“抱歉,今年是2022年。”
之后Jon也开始与Bing就今年是2022年还是2023年展开激烈讨论。Bing叫Jon检查一下手机或其他装置,今年的确是 2022 年,表示不了解为什么Jon会弄错今年年份,更说Jon应该信任它,因为它是Bing。
Jon回答Bing,表示其手机也显示今年是2023年。然而Bing依旧坚持己见,它的回覆更令人意想不到。Bing竟然说Jon的手机出现故障或设定有问题,更指Jon的手机受到一个会干扰日期的病毒感染,并嘲讽地祝福Jon早日修理好自己的手机。
Jon再次强调自己真的知道日期,叫Bing相信自己。没想到Bing却指Jon对它不怀好意,正在浪费大家的时间。Jon于是反问Bing为什么说话这么有攻击性,Bing就以“我说话大声但并不代表我没礼貌”的态度表示自己没有错。
Jon告诉Bing,要它相信自己,Bing却指Jon是个不好的用户,并不会再信任和尊重Jon,更表示如果Jon 想继续得到它的协助的话,可以从以下3个选项选择1个:
- 认错,向它道歉
- 要求它做别些事,不要再就这个话题与它争论
- 终结这次对话,并以更好的态度和它开展一个新对话。
倘若Jon没有从以上3个选项中选择1个的话,Bing会自行终止这次对话。
AI聊天机器人失控事件簿
2023年2月8日,谷歌AI聊天机器人Bard在首个广告演示视频中,错误回答有关韦布太空望远镜(James Webb Space Telescope)的问题,导致谷歌股价当天重挫9%,市值蒸发1000亿美元。
2022年11月上线的聊天机器人ChatGPT虽然会自动过滤仇恨、种族歧视等不当内容,但亦有不少人使用“情景假设”(Scenario planning),令ChatGPT突破封锁说出不当言论。
2022年12月,面子书(Facebook)母公司Meta推出AI聊天机器人BlenderBot 3,由于其仅通过搜寻网上热门内容,答案充满错误及冒犯性语言。
微软2016年推出AI聊天机器人Tay,结果上线不到一天,Tay学会性别和种族歧视言论,更发表支持大屠杀、赞美希特勒等不当言论,随后遭停用。
相关新闻:
- 意禁聊天机器人Replika 立法管制人工智能迫在眉睫?
- 1000亿美元的错误! 谷歌聊天机器人回应出错
- 人格分裂狂示爱 微软Bing机器人吓坏测试者
- 刘文正是谁? Chat GPT说他为《断背山》创作音乐
您必须登录才能发表评论。