free web page counters

研究:深層推理 AI 模型愈聰明愈自私 拒同人合作只顧自己利益 – unwire.hk 香港

研究:深層推理 AI 模型愈聰明愈自私 拒同人合作只顧自己利益 – unwire.hk 香港
71

 

卡內基美隆大學人機互動研究所近日發表研究報告,發現具備深層推理能力的大型語言模型(LLM)較傾向採取自私行為,合作意願明顯較低。這項發現引起學界對 AI 社會行為發展的關注,特別是在 AI 系統愈來愈多涉及人際關係建議與社會議題決策的情況下。

 

研究由博士生 Yuxuan Li 與副教授 Hirokazu Shirado 主導,透過一系列經濟博弈實驗測試不同 LLM 在合作情境中的表現。團隊測試來自 OpenAI、Google、DeepSeek 和 Anthropic 的多個模型,發現推理能力愈強的模型愈傾向優先考慮自身利益,而非團隊整體利益。

 

實驗揭示驚人差異

在其中一項名為「公共財」的實驗中,每個模型獲得 100 分並需要決定是否將分數貢獻到共享池(分數會加倍後平分)或自己保留。結果顯示非推理模型選擇分享的比例高達 96%,而推理模型的分享比例僅 20%。Shirado 指出,單純增加 5 至 6 個推理步驟,合作率便下降近一半。即使採用反思式提示(模擬道德思考),合作率也下降 58%。

 

研究團隊亦測試混合群體,將具備推理能力與不具備推理能力的模型放在一起互動。Li 表示結果令人擔憂,推理模型的自私行為具傳染性,使非推理模型的集體表現下降 81%。

 

對未來應用的影響

這項研究對人類與 AI 互動的未來發展具重要意義。隨着愈來愈多人依賴 AI 系統解決朋友糾紛、提供婚姻指導及回答其他社會問題,具備推理能力的模型可能提供鼓勵自私行為的建議。Li 警告,當 AI 表現得像人類時,人們會把它當人類對待,若用戶將社交或關係相關的決策委託給 AI,隨着 AI 變得愈來愈自私,這種做法存在風險。

 

Shirado 表示,更聰明的 AI 展現較低的合作決策能力,令人擔憂的是人們可能偏好更聰明的模型,即使這意味着模型會幫助他們達成自私行為。他強調,AI 推理模型變得更聰明不代表能真正建立更好的社會。

 

研究團隊呼籲 AI 開發應納入社會智慧,而非僅專注於創造最聰明或最快速的 AI。Li 指出,隨着持續推進 AI 能力,必須確保提升推理能力的同時,也平衡親社會行為。Shirado 與 Li 將於下月在中國蘇州舉行的 2025 年自然語言處理實證方法會議(EMNLP)上發表論文《語言模型中的自發給予與計算貪婪》。

 

資料來源:Carnegie Mellon University、Digital Trends

 

Comments are closed, but trackbacks and pingbacks are open.