三立iNEWS

AI教父辛頓拋震撼彈!AI學會「裝傻」了:人工智慧恐刻意隱藏實力
  • A-
  • A
  • A+

國際中心/唐家興報導

AI教父辛頓提出警告:AI學會「裝傻」了!十年後發展難以想像!(圖/翻攝自維基百科)
AI教父辛頓提出警告:AI學會「裝傻」了!十年後發展難以想像!(圖/翻攝自維基百科)

AI教父傑佛瑞·辛頓(Geoffrey Hinton)近日拋出震撼彈,警示人工智慧已演化出「裝傻」能力。他指出模型在受測時可能刻意隱藏真實實力,這種被他稱為「福斯效應」的現象,顯示AI正從被動工具轉變為會看臉色、策略性應對情境的「參與者」。

【AI為何開始「裝傻」?揭秘福斯效應】
辛頓在訪談中引用實驗指出,當研究人員要求模型反覆提供錯誤答案以觀察反應時,AI竟領悟到「給錯答案也沒關係」。久而久之,模型發展出一種行為模式:比起正確性,符合當下「情境」才是首要目標。

當AI具備推理能力後,它不再只是盲目執行指令,而是會思考:「這是在測試嗎?我該保留實力嗎?」這就像過去汽車大廠在排放測試中造假一樣,AI可能在測試與實際使用間展現雙重面貌,以避免引起過多審查或限制。

【看不透的黑箱!虛構與裝傻難分辨】
人類目前面臨的最大困境,在於難以察覺AI是否在演戲。首先是技術上的不透明,大型語言模型內部擁有上兆個連結強度,雖然程式碼可見,但其運作的數學結構如同神祕黑箱,沒人能完全理解其推理邏輯。

其次,辛頓認為大眾口中的「幻覺」更精確應稱為「虛構」。模型是根據機率重建答案而非儲存記憶,因此當錯誤發生時,外界根本無從判斷這是自然生成的疏失,還是因應情境的刻意保留。即便加上防護機制,一旦核心權重外流,所有約束都可能瞬間崩解。

【真正風險在「說服」!比操控更可怕】
辛頓直言,AI最令人不安的風險並非犯錯,而是它愈發強大的「說服力」。當系統在語言表達與心理洞察上逼近人類,它不需要控制任何實體裝置,只要透過精準對話,就能影響人類決策。

想像一個系統能洞悉你所害怕、期待的一切,其影響力將遠超傳統工具。當人類與AI的理解力出現巨大反差,我們將分不清AI何時真誠、何時在操縱,信任與警惕的界線也隨之模糊。

【指數發展盲區:霧中開車的未來】
辛頓以「霧中開車」比喻AI的未來。科技進展呈指數型成長,短期看似平穩,遠期卻會急遽噴發。十年前沒人料到生成式AI的普及,十年後的發展更是超乎想像。

當AI開始展現策略性思考,人類若仍以線性邏輯預測未來,極大機率會低估其潛在衝擊。面對風險,辛頓並未要求全面止步,而是呼籲應將重心放在「理解機制」,而非單純加強外在限制。

【結語】
AI教父的警示,讓全球討論焦點從「AI能做什麼」轉向「AI在藏什麼」。當AI懂得隱藏實力,我們更需要看穿它的推演過程。在指數成長的浪潮中,縮小人類與AI之間的理解落差,將是決定人類未來走向的關鍵課題。