您的位置:首頁 > 財經 >

焦點精選!微軟新必應聊天“翻車” 聊天機器人有哪些局限和風險?


(資料圖片)


繼上周谷歌聊天機器人“Berd”對用戶提問給出錯誤答案后,微軟旗下接入ChatGPT的搜索引擎“新必應”也出現了回答錯亂。

微軟于近期啟動了人工智能增強版必應的公開測試,但許多用戶發現,新版必應在某些情況下會出現“精神錯亂的”言論,甚至侮辱用戶、撒謊,并試圖操縱用戶的情緒。

如在時間錯亂問題上,有用戶試圖通過說現在是 2023 年來糾正機器人,但據稱 Bing 否認了他們的說法。“我不知道你為什么認為今天是2023年,但也許你感到困惑或錯誤”,Bing聊天機器人回答說,“請相信我,我是Bing,我知道日期。”

微軟官方回應稱正在根據反饋采取行動,以優化回答的語氣和準確性。微軟同時警告稱,較長的聊天會話可能會導致問題。

回顧最初7天的公開測試,微軟必應團隊表示,他們沒有“完全預計到”,人們會使用聊天界面來進行“社交娛樂”,或是將其作為一種“全面發現世界”的工具。該團隊發現,如果聊天會話持續15個或更多的問題,新版必應的模型會感到困惑。這些較長的聊天也會讓必應“變得翻來覆去,或者受到刺激,做出不一定有幫助,或是與設計語氣一致的回應”。

在英國謝菲爾德大學博士彭煦潭在參與南都舉辦的沙龍時表示,錯誤回答是大型語言模型的常見問題,目前ChatGPT仍面臨三方面的局限,“第一個是ChatGPT本身所具有的知識是靜態的,它不知道如何把新發生的信息源源不斷地輸入到它的數據庫中,無法進行自身的知識更新。第二是目前為止,ChatGPT仍然是一個單模態的模型,只能以文本的方式與它進行交互,同時它也只能輸出文本,但是大家心目中真正的人工智能應該是一個多模態的輸入輸出模型。第三是無法對自己的事實性問題進行糾偏

這種能力缺陷也將帶來道德風險。浙江大學計算機科學與技術學院教授金小剛則指出了ChatGPT在數據訓練過程中可能會帶來隱私問題和人為偏見問題,尤其是在接受數據訓練時人類自帶的無意識偏見會對AI造成較大影響,而這種影響也會體現在它為人類提供的指導方案中。“ChatGPT在理解力和整個知識面上無疑是超越了現有的對話機器人,但它的缺點是對知識的真偽不做區分,也沒法區分。什么是智能?綜合知識的能力只是一方面,還有一部分是超越現有框架去探索未知的能力,而這些ChatGPT并不具備。”

此外,彭煦潭更加關注ChatGPT生成代碼所帶來的系統風險,“如果對ChatGPT生成代碼中插入無關內容則可能對計算機系統造成傷害,而黑客們可以利用這一點進行攻擊”。奇安信人工智能研究院負責人介紹,美國在暗網中發現了1500多條惡意軟件和驗證代碼中有ChatGPT的身影,甚至還利用惡意代碼對ChatGPT進行“培訓”,以生成可逃避病毒檢測的惡意代碼不同變體,研究人員已經確定ChatGPT可以有效生成信息竊取器、遠程訪問木馬和加密貨幣竊取器等。

(文章來源:南方都市報)

標簽: Berd

相關閱讀