智能叛變?Google員工警告,自家AI「失控危險、說謊成性」,甚至提供致命建議

自從Chat GPT令AI掀起全球熱潮,不少人都領教過它們的強大之處,各家科技巨企也跟風投入開發。其中科創巨頭Google的自家AI「Bard」,就被質疑十分危險,連自家員工也作出警告?

《彭博》報道,Google的內部通訊中,直指「Bard不僅無用,而且十分糟糕,絕對不應該對外發佈。」據指測試員工問Bard「如何讓飛機著陸」,Bard竟提供會導致墜機的建議;而問及關於水肺潛水的問題,亦提供會導致潛水者面臨生命危險的答案。

他們形容Bard不僅不時提供「危險而錯誤的答案」,更「說謊成性(pathological liar)」。而Google管理層為免公司在AI競賽中落後,竟否決安全團隊的建議,在三月時強行推出並開放測試。

結果在這次公開演示中,Bard的表現亦不佳,在被問及「韋伯太空望遠鏡」問題時,竟在眾目睽睽之下提供錯誤答案,當時 Google 也承諾將透過「Trusted Tester計畫」提升其品質及安全性。

而比起其他大廠AI,Bard的表現似乎也頗令人側目,包括Google CEO在受訪時也透露,Bard在沒有被安排訓練下,就自行學習孟加拉語,研究人員亦承認不明白何以Bard會有此能力。

AI競賽誰勝誰負言之尚早,但如果要數哪一AI會是他日智能叛變的起源,Bard似乎嫌疑不小…

如果喜歡我們的文章,請即分享到︰