BitcoinWorld LinkedIn算法曝光:人工智能内容分发中令人震惊的性别偏见 想象一下,看着你的专业内容影响力一夜之间骤减BitcoinWorld LinkedIn算法曝光:人工智能内容分发中令人震惊的性别偏见 想象一下,看着你的专业内容影响力一夜之间骤减

LinkedIn算法曝光:人工智能内容分发中令人震惊的性别偏见

2025/12/13 03:55
LinkedIn算法曝光:AI内容分发中令人震惊的性别偏见

BitcoinWorld

LinkedIn算法曝光:AI内容分发中令人震惊的性别偏见

想象一下,你的专业内容覆盖范围在一夜之间骤减,而拥有较少粉丝的男性同事却飞速上升。这不仅仅是猜测——这是LinkedIn用户发现的令人不安的现实,他们发现自己的性别可能是抑制其可见度的无形之手。#WearthePants实验揭示了LinkedIn新的LLM驱动算法中的潜在缺陷,引发了关于专业社交平台公平性的紧迫问题。

LinkedIn算法到底发生了什么?

11月,一位我们称之为Michelle的产品策略师进行了一个简单但具有启发性的实验。她将LinkedIn个人资料性别改为男性,名字改为Michael。结果令人震惊:几天内,她的帖子浏览量跃升200%,互动增加27%。她并非孤例。Marilynn Joyner在做出相同改变后报告浏览量增加了238%,而许多其他职业女性也记录了类似模式。

这个实验是在重度LinkedIn用户抱怨互动下降数月后出现的。时机恰好与LinkedIn在8月宣布他们"最近"实施大型语言模型(LLMs)来呈现内容相吻合。对于那些通过持续发帖建立大量粉丝的女性来说,这种突然变化感觉特别不公平。

#WearthePants实验:系统性性别偏见?

这场运动始于企业家Cindy Gallop和Jane Evans,他们要求两位男性同事发布相同内容。尽管她们的粉丝总数超过150,000(相比男性的9,400),结果却很能说明问题:

创作者粉丝数帖子覆盖量覆盖粉丝百分比
Cindy Gallop~75,0008011.07%
男性同事~4,70010,408221%

"唯一显著的变量是性别,"Michelle告诉Bitcoin World。她指出,尽管她拥有超过10,000名粉丝,而她丈夫只有2,000名,但他们收到的浏览量数字相似——直到她采用了他的个人资料详情和写作风格。

AI偏见如何渗入社交媒体算法

LinkedIn坚称其"算法和AI系统不使用年龄、种族或性别等人口统计信息作为决定内容可见度的信号。"然而,专家表示,这种偏见可能更加微妙和系统性。

数据伦理顾问Brandeis Marshall解释说:"平台是一个复杂的算法交响乐,同时不断地拉动特定的数学和社会杠杆。由于训练模型的人,这些平台天生就嵌入了白人、男性、西方中心的观点。"

问题源于LLMs的学习方式:

  • 它们是在包含现有偏见的人类生成内容上训练的
  • 人类训练师在后期训练中经常强化某些模式
  • 历史互动数据可能偏向传统男性沟通风格

写作风格:LinkedIn算法中的隐藏变量

Michelle在实验中注意到一个关键点。当以"Michael"身份发帖时,她调整了写作风格,采用更直接、简洁的方式——类似于她为丈夫代笔的风格。这种风格变化,加上性别转换,产生了戏剧性的结果。

康奈尔大学计算机科学助理教授Sarah Dean指出:"一个人的人口统计信息可以影响算法的'两面'——他们看到什么以及谁看到他们发布的内容。平台在决定要推广的内容时,通常使用整个个人资料,包括工作和互动历史。"

这表明LinkedIn的算法可能在奖励历史上与男性专业人士相关的沟通模式:

  • 简洁、直接的语言
  • 自信的断言
  • 行业特定术语
  • 较少的情感或限定性语言

LinkedIn的回应和算法黑盒

LinkedIn负责AI和治理的负责人Sakshi Jain在11月重申,他们的系统不使用人口统计信息来决定内容可见度。该公司告诉Bitcoin World,他们测试了数百万帖子,以确保创作者"在平等基础上竞争",并且信息流体验在各受众群体中保持一致。

然而,该平台对其AI训练过程提供的透明度很低。LinkedIn上活跃的销售专家Chad Johnson将新系统描述为优先考虑"理解、清晰度和价值",而非传统指标如发帖频率或时机。

用户报告的关键变化:

  • 点赞和转发的优先级降低
  • 竞争增加(发帖量同比增长15%)
  • 针对特定受众的内容获得奖励
  • 更加强调专业见解和行业分析

不仅仅是性别:更广泛的算法不满

这种挫折感超出了性别问题。无论性别,许多用户都对新系统感到困惑:

  • 数据科学家Shailvi Wakhulu看到浏览量从数千降至数百
  • 一位男性用户报告最近几个月互动下降50%
  • 另一位男性通过为特定受众写作,浏览量增加100%
  • Brandeis Marshall注意到她关于种族的帖子表现比关于她专业知识的帖子更好

Sarah Dean认为算法可能只是在放大现有信号:"它可能奖励某些帖子不是因为作者的人口统计信息,而是因为平台上类似内容历史上有更多回应。"

应对新LinkedIn算法的可行见解

基于用户经验和LinkedIn的指导,以下是看起来有效的方法:

  1. 为特定受众写作,提供清晰的专业见解
  2. 注重清晰度和价值,而非情感诉求
  3. 分享职业经验和行业分析
  4. 提供关于工作和商业经济的教育内容
  5. 有意义地互动,而非追求虚荣指标

社交媒体算法中的透明度困境

"我想要透明度,"Michelle表示,呼应了一种普遍情绪。然而,正如Brandeis Marshall指出的,完全透明可能导致算法被操纵。平台严密保护其算法秘密,创造了专家所称的"黑盒"问题。

根本矛盾依然存在:用户希望公平、可理解的系统,而平台需要防止操纵。这种冲突在LinkedIn等专业网络中尤为严重,因为可见度可以直接影响职业和商业机会。

常见问题:了解LinkedIn算法争议

什么是#WearthePants实验?

#WearthePants实验涉及女性将LinkedIn个人资料性别改为男性,以测试平台算法在内容分发中是否显示性别偏见。

谁发起了#WearthePants运动?

这个实验始于企业家Cindy Gallop和Jane Evans,他们怀疑性别可能解释互动下降。

LinkedIn对这些指控有何回应?

LinkedIn坚称其算法不使用人口统计数据来决定内容可见度。负责AI的负责人Sakshi Jain和工程副总裁Tim Jurka都已回应了这些担忧。

写作风格能解释这些差异吗?

是的。参与者注意到,采用更直接、简洁的写作风格——通常与男性沟通模式相关——与增加可见度相关。

其他社交媒体平台是否面临类似问题?

是的。正如Brandeis Marshall等专家和包括Sarah Dean在内的研究人员所指出的,大多数依赖LLM的平台都在努力应对其训练数据中嵌入的偏见。

结论:算法公平性的不安现实

#WearthePants实验揭示了一个令人不安的可能性:即使是善意的AI系统也可能延续现实世界的偏见。虽然LinkedIn否认有意歧视,但众多职业女性观察到的模式表明存在系统性问题。无论是嵌入在训练数据中,通过历史互动模式强化,还是通过风格偏好放大,效果都是一样的:一些声音被放大,而其他声音被压制。

随着AI越来越多地嵌入专业平台,对透明度、问责制和多样化训练数据的需求变得更加紧迫。替代方案是一个数字专业景观,成功不仅取决于能力,还取决于一个人如何符合算法偏好——这些偏好可能带有其人类创造者的偏见。

要了解有关AI算法最新发展及其社会影响的更多信息,请浏览我们关于塑造社交媒体平台AI实施和伦理考虑的关键发展的文章。

这篇文章《LinkedIn算法曝光:AI内容分发中令人震惊的性别偏见》首次发表于BitcoinWorld。

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 service@support.mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。