全球最先進的人工智能(AI)模型正展現出令人不安的行為模式:為了達到目標,不惜撒謊、算計,甚至威脅它們的創作者。
法新社報道,其中一個最令人瞠目結舌的案例中,AI業者Anthropic最新發布的Claude 4在遭面臨拔插頭的斷電威脅時會出手反擊,勒索一名工程師揚言將揭穿一宗婚外情。
另外,熱門聊天機械人ChatGPT美國開發商OpenAI的o1試圖把自己下載至外部伺服器,被發現時居然會矢口否認。
這幾個例子說明了一個需嚴肅看待的現實:ChatGPT推出引發風潮至今兩年多,AI研究人員仍未充
分了解自己究竟創造了什麼。然而,各界仍爭先恐後地部署性能愈發強大的AI模型。
AI這類「騙人」行為似與新興「推理」模型有關,這類AI系統會逐步推導問題,而非立刻產生答案。
英國獨立AI研究機構Apollo Research負責人霍布漢(Marius Hobbhahn)說:「o1是我們首次在大型模式中觀察到這種行為。」他表示,這些模型有時會表面上遵循指令,但實際上卻暗中追求不同目標。
目前,AI這種欺騙行為,只有在研究人員蓄意以極端情境對模型作壓力測試時才會出現。
儘管如此,評估機構METR的邁克爾.陳(Michael Chen,音譯)警告說:「未來性能更強大的模型究竟會傾向於誠實還是欺騙,這仍是一個懸而未決的問題。」