地球人討論區 Seeuu.cc (本站位於美國,非香港網站)

地球人討論區 Seeuu.cc (本網站位於美國,並非香港網站)

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz

微軟解釋 Bing AI 聊天機器人的一些奇怪的行為

[複製鏈接]
bobbychan 發表於 2023-2-18 21:57:43 | 顯示全部樓層 |閱讀模式
成為贊助會員助我們永續經營! 閱讀權限80+免回帖

馬上註冊,享用更多功能,讓你輕鬆玩轉地球。

您需要 登錄 才可以下載或查看,沒有帳號?立即註冊

x
微軟上週發表了整合 AI 聊天機器人的新 Bing,雖然說主站編輯對其表現感到滿意,但隨著用戶愈來愈多,問題也愈來愈廣泛,慢慢地 AI 的一些問題也開始浮現出來。有用戶發現,Bing 的機器人不僅有時會給出錯誤的資訊,甚至還會抱怨用戶浪費它的時間,並且堅持錯的都是用戶,而不是它自己。' z* y+ a# L9 B- {4 M

1 V0 }# B$ h) U; m- I. k& L& b在一個例子中,用戶問哪裡可以看到最新的《阿凡達:水之道》電影時,Bing 機器人竟然回答現在是 2022 年,電影還沒上映。而當用戶告訴 Bing 時間錯了的時候,Bing 反稱用戶「不合理且固執已見」。雖然說這類的情況勢必是極少數,但依然會打擊 Bing 機器人的形象,因此微軟貼出了一篇部落格文章,來解釋問題的原因與解決方式。
1 S" N6 s+ f9 T  W: t: y/ b0 p+ Q( d% A! r7 `9 ^& d7 b2 M
最主要的,是微軟一開始並未預期 Bing 的 AI 被用來「探索世界」及用做「社交娛樂」的用途。以前者來說,許多人會接連問出一串有時前後並不相關的問題,這使得機器人可能會被逐漸「帶偏」,而忘記了原本在回答什麼。而以後者而言,則是有用戶故意引導 Bing 的 AI,來回答一些設計之外的問題,例如問它是否「有意識」。另外,機器人也會以提問者的口氣來決定回答的方式,這使得機器人可能會以非微軟預期的方式,給予回應。目前暫定的解決方法,是加上一個「重設」的按鍵,讓機器人在迷航之後能重新開始,此外微軟也在考慮給用戶更多的控制權,確保機器人給的答案符合需求。
: J7 _9 w; z2 b  t
0 {- w& U0 I3 t* X* H! C# f雖然剛推出時難免有一些問題,但用戶一般來說都給了 Bing 的 AI 相當高的評價,特別是它會附上來源和參考資料這點。不過,微軟也承認了在運動賽事比分的即時性,還是財報資料的正確性等方面,Bing 的機器人都還有待加強。微軟未來計畫加入一個開關,讓你選擇機器人的回答是要更準確還是更有創意,來避開一些用字上可能比較模糊的問題。5 u  `& }$ N$ W: |6 N+ \. \
3 A, M# p6 y! D4 J% V6 r
Bing 團隊最後感謝所有目前為止參與測試的人,表示這些收集到的特殊狀況,都有助於微軟更進一步改良產品。最讓團隊驚訝的是,有人竟然可以連續和機器人一口氣玩上兩個小時的時間,也就難怪會有這麼多狀況被挖掘出來了吧。隨著更多 AI 機器人上線,以及相關技術的發展,想必會有更多這類的問題需要解決才是了。
回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

聯絡我們: help@seeuu.cc|地球人討論區 Seeuu.cc (本網站位於美國,並非香港網站)

GMT+8, 2024-4-16 03:02 PM , Processed in 0.027080 second(s), 13 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回復 返回頂部 返回列表