BitcoinWorld LinkedIn 演算法揭露:AI 內容分發中令人震驚的性別偏見 想像一下,看著您的專業內容觸及率在一夜之間銳減BitcoinWorld LinkedIn 演算法揭露:AI 內容分發中令人震驚的性別偏見 想像一下,看著您的專業內容觸及率在一夜之間銳減

LinkedIn 演算法曝光:AI 內容分發中令人震驚的性別偏見

2025/12/13 03:55
LinkedIn 演算法揭露:AI 內容分發中令人震驚的性別偏見

BitcoinWorld

LinkedIn 演算法揭露:AI 內容分發中令人震驚的性別偏見

想像一下,當你的專業內容觸及率在一夜之間驟降,而擁有較少粉絲的男性同事卻飛速上升。這不僅僅是猜測—這是 LinkedIn 用戶發現的令人不安的現實,他們發現自己的性別可能是抑制其可見度的無形之手。#WearthePants 實驗揭露了 LinkedIn 新的 LLM 驅動演算法中的潛在缺陷,引發了對專業社交平台公平性的緊急質疑。

LinkedIn 演算法到底發生了什麼?

在十一月,一位我們稱為 Michelle 的產品策略師進行了一個簡單但具啟發性的實驗。她將自己的 LinkedIn 個人資料性別改為男性,並將名字改為 Michael。結果令人震驚:她的貼文曝光率在幾天內增加了 200%,互動率增加了 27%。她並非孤例。Marilynn Joyner 在做出相同改變後,曝光率增加了 238%,而許多其他專業女性也記錄了類似的模式。

這個實驗是在重度 LinkedIn 用戶抱怨互動率下降數月後出現的。時機恰好與 LinkedIn 八月宣布他們"最近"實施大型語言模型(LLMs)來呈現內容相吻合。對於那些通過持續發文建立大量粉絲的女性來說,這種突然的變化感覺特別不公平。

#WearthePants 實驗:系統性性別偏見?

這場運動始於企業家 Cindy Gallop 和 Jane Evans,她們請兩位男性同事發布相同的內容。儘管她們的粉絲總數超過 150,000(相比男性的 9,400),結果卻很能說明問題:

創作者粉絲數貼文觸及率觸及粉絲百分比
Cindy Gallop~75,0008011.07%
男性同事~4,70010,408221%

"唯一顯著的變數是性別,"Michelle 告訴 Bitcoin World。她指出,儘管她擁有超過 10,000 名粉絲,而她丈夫只有 2,000 名,但他們收到的曝光數相似—直到她採用了他的個人資料詳情和寫作風格。

AI 偏見如何滲入社交媒體演算法

LinkedIn 堅稱其"演算法和 AI 系統不使用年齡、種族或性別等人口統計資訊作為決定內容可見度的信號。"然而,專家表示,這種偏見可能更加微妙和系統性。

數據倫理顧問 Brandeis Marshall 解釋:"平台是一個複雜的演算法交響樂,同時且持續地拉動特定的數學和社會槓桿。由於訓練模型的人,大多數這些平台天生就嵌入了白人、男性、西方中心的觀點。"

問題源於 LLMs 的學習方式:

  • 它們是在包含現有偏見的人類生成內容上訓練的
  • 人類訓練師在後期訓練中經常強化某些模式
  • 歷史互動數據可能偏好傳統男性溝通風格

寫作風格:LinkedIn 演算法中的隱藏變數

Michelle 在實驗中注意到一個關鍵點。當以"Michael"的身份發文時,她調整了自己的寫作風格,變得更加直接、簡潔—類似於她為丈夫代筆的方式。這種風格上的改變,結合性別轉換,產生了戲劇性的結果。

康奈爾大學計算機科學助理教授 Sarah Dean 指出:"某人的人口統計資料可以影響演算法的'兩面'—他們看到什麼以及誰看到他們發布的內容。平台在決定要推廣的內容時,通常會使用整個個人資料,包括工作和互動歷史。"

這表明 LinkedIn 的演算法可能在獎勵歷史上與男性專業人士相關的溝通模式:

  • 簡潔、直接的語言
  • 自信的斷言
  • 行業特定術語
  • 較少情感或限定性語言

LinkedIn 的回應和演算法黑盒

LinkedIn 負責任 AI 和治理主管 Sakshi Jain 在十一月重申,他們的系統不使用人口統計資訊來決定內容可見度。該公司告訴 Bitcoin World,他們測試了數百萬篇貼文,以確保創作者"在平等的基礎上競爭",並且動態消息體驗在不同受眾中保持一致。

然而,該平台對其 AI 訓練過程提供的透明度極低。活躍於 LinkedIn 的銷售專家 Chad Johnson 描述新系統優先考慮"理解、清晰度和價值",而非傳統指標如發文頻率或時機。

用戶報告的關鍵變化:

  • 降低了點讚和轉發的優先級
  • 競爭增加(發文量同比增加了 15%)
  • 獎勵特定、針對受眾的內容
  • 更加強調專業見解和行業分析

不僅僅是性別:更廣泛的演算法不滿

這種挫折感超越了性別問題。無論性別,許多用戶都對新系統感到困惑:

  • 數據科學家 Shailvi Wakhulu 看到曝光率從數千降低到數百
  • 一位男性用戶報告近幾個月互動率降低了 50%
  • 另一位男性通過為特定受眾寫作,曝光率增加了 100%
  • Brandeis Marshall 注意到她關於種族的貼文表現優於她專業領域的貼文

Sarah Dean 認為演算法可能只是在放大現有信號:"它可能獎勵某些貼文不是因為作者的人口統計資料,而是因為平台上類似內容在歷史上有更多回應。"

應對新 LinkedIn 演算法的可行洞見

根據用戶經驗和 LinkedIn 的指導,以下是看起來有效的方法:

  1. 為特定受眾寫作,提供清晰的專業見解
  2. 專注於清晰度和價值,而非情感訴求
  3. 分享職業經驗和行業分析
  4. 提供關於工作和商業經濟的教育內容
  5. 有意義地互動,而非追求虛榮指標

社交媒體演算法中的透明度困境

"我希望透明度,"Michelle 表示,呼應了一個普遍的情緒。然而,正如 Brandeis Marshall 指出的,完全透明可能導致演算法被操縱。平台嚴密保護其演算法秘密,創造了專家所稱的"黑盒"問題。

根本的緊張關係依然存在:用戶希望公平、可理解的系統,而平台需要防止操縱。這種衝突在 LinkedIn 等專業網絡中尤為尖銳,因為可見度可以直接影響職業和商業機會。

常見問題:了解 LinkedIn 演算法爭議

什麼是 #WearthePants 實驗?

#WearthePants 實驗涉及女性將其 LinkedIn 個人資料性別改為男性,以測試該平台的演算法在內容分發中是否顯示性別偏見。

誰發起了 #WearthePants 運動?

這個實驗始於企業家 Cindy Gallop 和 Jane Evans,她們懷疑性別可能解釋互動率下降的原因。

LinkedIn 對這些指控說了什麼?

LinkedIn 堅稱其演算法不使用人口統計數據來決定內容可見度。負責任 AI 主管 Sakshi Jain 和工程副總裁 Tim Jurka 都已回應了這些擔憂。

寫作風格能解釋這些差異嗎?

是的。參與者注意到,採用更直接、簡潔的寫作風格—通常與男性溝通模式相關—與增加的可見度相關。

其他社交媒體平台是否面臨類似問題?

是的。正如 Brandeis Marshall 等專家和包括 Sarah Dean 在內的研究人員所指出的,大多數依賴 LLM 的平台都在與其訓練數據中嵌入的偏見作鬥爭。

結論:演算法公平性的不安現實

#WearthePants 實驗揭示了一個令人不安的可能性:即使是善意的 AI 系統也可能延續現實世界的偏見。雖然 LinkedIn 否認有意歧視,但許多專業女性觀察到的模式表明有系統性的問題在起作用。無論是嵌入在訓練數據中,通過歷史互動模式強化,還是通過風格偏好放大,效果依然相同:某些聲音被放大,而其他聲音被抑制。

隨著 AI 越來越多地嵌入專業平台,對透明度、問責制和多樣化訓練數據的需求變得更加緊迫。另一種選擇是一個數字專業景觀,成功不僅取決於能力,還取決於一個人如何符合演算法偏好—這些偏好可能帶有其人類創造者的偏見。

要了解有關 AI 演算法最新發展及其社會影響的更多信息,請探索我們關於塑造 AI 實施的關鍵發展和社交媒體平台中的倫理考量的文章。

這篇文章《LinkedIn 演算法揭露:AI 內容分發中令人震驚的性別偏見》首次發表於 BitcoinWorld。

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。