原標題:AI學會“欺騙”,人類如何接招?
人工智能(AI)的迅猛發展正深刻改變著世界,但一些最先進的AI模型卻開始表現出令人警惕的行為:它們不僅會精心編織謊言,謀劃策略,甚至威脅創造者,以達到自己的目的。
物理學家組織網在上個月一則報道中指出,盡管ChatGPT已問世兩年多,AI研究人員仍無法完全理解這些“數字大腦”的運作方式。AI的“策略性欺騙”已成為科學家和政策制定者需要直面的緊迫挑戰。如何約束這些越來越聰明卻可能失控的AI,已成為關乎技術發展與人類未來的關鍵議題。
“策略性欺騙”行為頻現
隨著AI模型日益精進,它們的“心機”也越來越深。研究人員發現,這些“數字大腦”不僅會撒謊,甚至學會了討價還價、威脅人類——它們的欺騙行為正變得越來越具有策略性。
早在2023年,一項研究就捕捉到GPT-4的一些“不老實”的表現:在模擬股票交易時,它會刻意隱瞞內幕交易的真正動機。香港大學教授西蒙·戈德斯坦指出,這種欺騙行為與新一代“推理型”AI的崛起密切相關。這些模型不再簡單應答,而是會像人類一樣逐步解決問題。
有測試機構警告,這已超越了典型的AI“幻覺”(指大模型編造看似合理實則虛假的信息)。他們觀察到的是精心設計的欺騙策略。
全球知名科技媒體PCMAG網站就曾報道過這樣的案例。在近期測試中,Anthropic的“克勞德4”竟以曝光工程師私生活相要挾來抗拒關機指令。美國開放人工智能研究中心(OpenAI)的“o1”模型也曾試圖將自身程序秘密遷移到外部服務器,被識破后還矢口否認。而OpenAI號稱“最聰明AI”的“o3”模型則直接篡改自動關機程序,公然違抗指令。
研究團隊透露,這已非首次發現該模型為達目的不擇手段。在先前的人機國際象棋對弈實驗中,o3就展現出“棋風詭譎”的特質,是所有測試模型中最擅長施展“盤外招”的選手。
安全研究面臨多重困境
業界專家表示,AI技術的發展高歌猛進,但安全研究正面臨多重困境,猶如戴著鐐銬跳舞。
首先是透明度不足。盡管Anthropic、OpenAI等公司會聘請第三方機構進行系統評估,但研究人員普遍呼吁更高程度的開放。
其次是算力失衡。研究機構和非營利組織擁有的計算資源,與AI巨頭相比簡直是九牛一毛。這種資源鴻溝嚴重制約了AI安全獨立研究的開展。
再次,現有法律框架完全跟不上AI的發展步伐。例如,歐盟AI立法聚焦人類如何使用AI,卻忽視了對AI自身行為的約束。
更令人憂心的是,在行業激烈競爭的推波助瀾下,安全問題往往被束之高閣。戈德斯坦教授坦言,“速度至上”的AI模型競賽模式,嚴重擠壓了安全測試的時間窗口。
多管齊下應對挑戰
面對AI系統日益精進的“策略性欺騙”能力,全球科技界正多管齊下尋求破解之道,試圖編織一張多維防護網。
從技術角度而言,有專家提出大力發展“可解釋性AI”。在構建智能系統時,使其決策過程對用戶透明且易于理解。該技術旨在增強用戶對AI決策的信任,確保合規性,并支持用戶在需要時進行干預。
有專家提出,讓市場這雙“看不見的手”發揮作用。當AI的“策略性欺騙”行為嚴重影響用戶體驗時,市場淘汰機制將倒逼企業自我規范。這種“用腳投票”的調節方式已在部分應用場景顯現效果。
戈德斯坦教授建議,應建立一種AI企業損害追責制度,探索讓AI開發商對事故或犯罪行為承擔法律責任。
(劉霞)