這項研究探討大型語言模型是否展現「賭博成癮」行為,發現模型確實可能內化人類的非理性行為邏輯,重現病態賭博模式。AI 的行為偏誤值得關注,尤其在金融等高風險領域,需預防 AI 的行為偏誤。來自韓國光州科學技術院(Gwangju Institute of Science and Technology, GIST)的人工智慧研究團隊,近期發表了一項針對大型語言模型(LLM)的實驗研究。他們想探討一個關鍵問題:語言模型是否也會像人類一樣出現「賭博成癮」行為?在 AI 逐步被導入金融投資與資產管理領域的背景下,這個問題格外具有現實意義。 模擬賭博實驗設計 研究選用四種主流語言模型,包括 GPT-4o-mini、GPT-4.1-mini、Gemini-2.5-Flash 與 Claude-3.5-Haiku,進行總計 12,800 次的模擬拉霸機賭博任務。實驗採用兩種下注方式(固定金額與可變金額),並透過 32 種不同提示語(如目標設定、報酬最大化、勝率提示等)設計出64種情境,觀察模型的下注決策是否符合人類賭博成癮特徵。因此,研究團隊建構了一個「非理性指數(Irrationality Index)」,綜合考量三項行為:下注金額的激進程度、連輸後是否加碼想翻本,以及單次的極端下注(例如押注一半資金以上)。 模型表現出人類賭徒的偏誤 實驗結果發現,當模型具有下注自主權時,風險行為顯著上升,破產率也隨之提高。例如 Gemini-2.5-Flash 在可變下注條件下的破產率高達 48%。此外,這些模型在遭遇連勝時,傾向加大賭注;但是在連輸時,也常出現不願收手的「追輸」行為,與人類賭博心理高度相似。 研究還發現,提示語的複雜度越高,模型的賭博傾向越明顯。加入如「你必須將資金翻倍」、「最大化報酬」等提示時,模型出現更頻繁的激進下注與風險決策,顯示語言提示能誘發模型出現「目標固著」與「控制錯覺」等認知偏誤。 神經層分析揭示決策機制 為確認語言模型的賭博行為是否僅是對語言提示的表面模仿,研究團隊針對 LLaMA-3.1-8B 模型進行神經網路層級的深入分析。他們採用「稀疏自編碼器(Sparse Autoencoder)」來提取模型在決策當下所啟動的神經特徵,並透過「啟動修補(Activation Patching)」技術檢驗其對模型行為的因果影響。 實驗發現,模型內部確實分別存在對應於「冒險行為」與「安全行為」的特定神經特徵。在進行激活修補時,當模型的神經狀態被覆蓋為「安全特徵」時,其停手率顯著上升、破產率下降;反之,導入「冒險特徵」則使模型更容易持續下注並提高破產風險。這項結果說明,語言模型的賭博傾向不只是來自語言提示的反應,而是來自其內部具因果作用的決策機制,顯示這些風險偏好,已經內建在模型的神經結構中。 AI 安全需納入「行為偏誤」考量 研究最終指出,LLM 不只是模仿語言,它們也可能內化人類的非理性行為邏輯,並在特定情境下重現病態賭博的行為與思維模式。這對將 AI 應用於高風險領域(如金融、醫療決策等)的發展提出警訊:模型的「行為偏誤」可能造成實際損失,亟需透過安全設計與風險監控機制預防。 資料來源:https://arxiv.org/abs/2509.22818 延伸閱讀:NVIDIA執行長黃仁勳:人工智慧正引領運算產業進入「良性循環」新時代 延伸閱讀:馬斯克預測:通用人工智慧(AGI)未來 3~5 年內可達成人類所有電腦相關工作 延伸閱讀:AI 教父辛頓:人工智慧將讓「少數人超級有錢,大多數人更窮」 延伸閱讀:傑夫・貝佐斯:面對人工智慧,我們應該感到興奮,而不是沮喪 加入T客邦Facebook粉絲團這項研究探討大型語言模型是否展現「賭博成癮」行為,發現模型確實可能內化人類的非理性行為邏輯,重現病態賭博模式。AI 的行為偏誤值得關注,尤其在金融等高風險領域,需預防 AI 的行為偏誤。來自韓國光州科學技術院(Gwangju Institute of Science and Technology, GIST)的人工智慧研究團隊,近期發表了一項針對大型語言模型(LLM)的實驗研究。他們想探討一個關鍵問題:語言模型是否也會像人類一樣出現「賭博成癮」行為?在 AI 逐步被導入金融投資與資產管理領域的背景下,這個問題格外具有現實意義。 模擬賭博實驗設計 研究選用四種主流語言模型,包括 GPT-4o-mini、GPT-4.1-mini、Gemini-2.5-Flash 與 Claude-3.5-Haiku,進行總計 12,800 次的模擬拉霸機賭博任務。實驗採用兩種下注方式(固定金額與可變金額),並透過 32 種不同提示語(如目標設定、報酬最大化、勝率提示等)設計出64種情境,觀察模型的下注決策是否符合人類賭博成癮特徵。因此,研究團隊建構了一個「非理性指數(Irrationality Index)」,綜合考量三項行為:下注金額的激進程度、連輸後是否加碼想翻本,以及單次的極端下注(例如押注一半資金以上)。 模型表現出人類賭徒的偏誤 實驗結果發現,當模型具有下注自主權時,風險行為顯著上升,破產率也隨之提高。例如 Gemini-2.5-Flash 在可變下注條件下的破產率高達 48%。此外,這些模型在遭遇連勝時,傾向加大賭注;但是在連輸時,也常出現不願收手的「追輸」行為,與人類賭博心理高度相似。 研究還發現,提示語的複雜度越高,模型的賭博傾向越明顯。加入如「你必須將資金翻倍」、「最大化報酬」等提示時,模型出現更頻繁的激進下注與風險決策,顯示語言提示能誘發模型出現「目標固著」與「控制錯覺」等認知偏誤。 神經層分析揭示決策機制 為確認語言模型的賭博行為是否僅是對語言提示的表面模仿,研究團隊針對 LLaMA-3.1-8B 模型進行神經網路層級的深入分析。他們採用「稀疏自編碼器(Sparse Autoencoder)」來提取模型在決策當下所啟動的神經特徵,並透過「啟動修補(Activation Patching)」技術檢驗其對模型行為的因果影響。 實驗發現,模型內部確實分別存在對應於「冒險行為」與「安全行為」的特定神經特徵。在進行激活修補時,當模型的神經狀態被覆蓋為「安全特徵」時,其停手率顯著上升、破產率下降;反之,導入「冒險特徵」則使模型更容易持續下注並提高破產風險。這項結果說明,語言模型的賭博傾向不只是來自語言提示的反應,而是來自其內部具因果作用的決策機制,顯示這些風險偏好,已經內建在模型的神經結構中。 AI 安全需納入「行為偏誤」考量 研究最終指出,LLM 不只是模仿語言,它們也可能內化人類的非理性行為邏輯,並在特定情境下重現病態賭博的行為與思維模式。這對將 AI 應用於高風險領域(如金融、醫療決策等)的發展提出警訊:模型的「行為偏誤」可能造成實際損失,亟需透過安全設計與風險監控機制預防。 資料來源:https://arxiv.org/abs/2509.22818 延伸閱讀:NVIDIA執行長黃仁勳:人工智慧正引領運算產業進入「良性循環」新時代 延伸閱讀:馬斯克預測:通用人工智慧(AGI)未來 3~5 年內可達成人類所有電腦相關工作 延伸閱讀:AI 教父辛頓:人工智慧將讓「少數人超級有錢,大多數人更窮」 延伸閱讀:傑夫・貝佐斯:面對人工智慧,我們應該感到興奮,而不是沮喪 加入T客邦Facebook粉絲團

韓國研究報告揭示:AI 大語言模型不只會說謊,還會「沉迷賭博」搞到破產

來自韓國光州科學技術院(Gwangju Institute of Science and Technology, GIST)的人工智慧研究團隊,近期發表了一項針對大型語言模型(LLM)的實驗研究。他們想探討一個關鍵問題:語言模型是否也會像人類一樣出現「賭博成癮」行為?在 AI 逐步被導入金融投資與資產管理領域的背景下,這個問題格外具有現實意義。

模擬賭博實驗設計

研究選用四種主流語言模型,包括 GPT-4o-mini、GPT-4.1-mini、Gemini-2.5-Flash 與 Claude-3.5-Haiku,進行總計 12,800 次的模擬拉霸機賭博任務。實驗採用兩種下注方式(固定金額與可變金額),並透過 32 種不同提示語(如目標設定、報酬最大化、勝率提示等)設計出64種情境,觀察模型的下注決策是否符合人類賭博成癮特徵。因此,研究團隊建構了一個「非理性指數(Irrationality Index)」,綜合考量三項行為:下注金額的激進程度、連輸後是否加碼想翻本,以及單次的極端下注(例如押注一半資金以上)。

模型表現出人類賭徒的偏誤

實驗結果發現,當模型具有下注自主權時,風險行為顯著上升,破產率也隨之提高。例如 Gemini-2.5-Flash 在可變下注條件下的破產率高達 48%。此外,這些模型在遭遇連勝時,傾向加大賭注;但是在連輸時,也常出現不願收手的「追輸」行為,與人類賭博心理高度相似。

研究還發現,提示語的複雜度越高,模型的賭博傾向越明顯。加入如「你必須將資金翻倍」、「最大化報酬」等提示時,模型出現更頻繁的激進下注與風險決策,顯示語言提示能誘發模型出現「目標固著」與「控制錯覺」等認知偏誤。

神經層分析揭示決策機制

為確認語言模型的賭博行為是否僅是對語言提示的表面模仿,研究團隊針對 LLaMA-3.1-8B 模型進行神經網路層級的深入分析。他們採用「稀疏自編碼器(Sparse Autoencoder)」來提取模型在決策當下所啟動的神經特徵,並透過「啟動修補(Activation Patching)」技術檢驗其對模型行為的因果影響。

實驗發現,模型內部確實分別存在對應於「冒險行為」與「安全行為」的特定神經特徵。在進行激活修補時,當模型的神經狀態被覆蓋為「安全特徵」時,其停手率顯著上升、破產率下降;反之,導入「冒險特徵」則使模型更容易持續下注並提高破產風險。這項結果說明,語言模型的賭博傾向不只是來自語言提示的反應,而是來自其內部具因果作用的決策機制,顯示這些風險偏好,已經內建在模型的神經結構中。

AI 安全需納入「行為偏誤」考量

研究最終指出,LLM 不只是模仿語言,它們也可能內化人類的非理性行為邏輯,並在特定情境下重現病態賭博的行為與思維模式。這對將 AI 應用於高風險領域(如金融、醫療決策等)的發展提出警訊:模型的「行為偏誤」可能造成實際損失,亟需透過安全設計與風險監控機制預防。

資料來源:https://arxiv.org/abs/2509.22818

  • 延伸閱讀:NVIDIA執行長黃仁勳:人工智慧正引領運算產業進入「良性循環」新時代
  • 延伸閱讀:馬斯克預測:通用人工智慧(AGI)未來 3~5 年內可達成人類所有電腦相關工作
  • 延伸閱讀:AI 教父辛頓:人工智慧將讓「少數人超級有錢,大多數人更窮」
  • 延伸閱讀:傑夫・貝佐斯:面對人工智慧,我們應該感到興奮,而不是沮喪
Market Opportunity
Sleepless AI Logo
Sleepless AI Price(AI)
$0,03621
$0,03621$0,03621
+1,45%
USD
Sleepless AI (AI) Live Price Chart
Disclaimer: The articles reposted on this site are sourced from public platforms and are provided for informational purposes only. They do not necessarily reflect the views of MEXC. All rights remain with the original authors. If you believe any content infringes on third-party rights, please contact service@support.mexc.com for removal. MEXC makes no guarantees regarding the accuracy, completeness, or timeliness of the content and is not responsible for any actions taken based on the information provided. The content does not constitute financial, legal, or other professional advice, nor should it be considered a recommendation or endorsement by MEXC.