BitcoinWorld
Algoritmo do LinkedIn Exposto: O Chocante Viés de Género na Distribuição de Conteúdo de IA
Imagine ver o alcance do seu conteúdo profissional diminuir da noite para o dia enquanto colegas homens com menos seguidores disparam. Isto não é apenas especulação—é a perturbadora realidade descoberta por utilizadores do LinkedIn que descobriram que o seu género pode ser a mão invisível a suprimir a sua visibilidade. A experiência #WearthePants revelou potenciais falhas no novo algoritmo do LinkedIn baseado em LLM, levantando questões urgentes sobre justiça nas plataformas de networking profissional.
Em novembro, uma estrategista de produto a quem chamaremos Michelle realizou uma experiência simples mas reveladora. Ela mudou o género do seu perfil no LinkedIn para masculino e o seu nome para Michael. Os resultados foram surpreendentes: as impressões das suas publicações aumentaram 200% e os envolvimentos subiram 27% em poucos dias. Ela não estava sozinha. Marilynn Joyner relatou um aumento de 238% nas impressões após fazer a mesma alteração, enquanto numerosas outras mulheres profissionais documentaram padrões semelhantes.
Esta experiência surgiu após meses de reclamações de utilizadores frequentes do LinkedIn sobre o declínio do envolvimento. O momento coincidiu com o anúncio do LinkedIn em agosto de que tinham "mais recentemente" implementado Modelos de Linguagem de Grande Escala (LLMs) para apresentar conteúdo. Para mulheres que construíram seguidores substanciais através de publicações consistentes, a mudança repentina pareceu particularmente injusta.
O movimento começou com as empreendedoras Cindy Gallop e Jane Evans, que pediram a dois colegas homens para publicarem conteúdo idêntico. Apesar de terem seguidores combinados que excediam 150.000 (comparados com os 9.400 dos homens), os resultados foram reveladores:
| Criador | Seguidores | Alcance da Publicação | Percentagem de Seguidores Alcançados |
|---|---|---|---|
| Cindy Gallop | ~75.000 | 801 | 1,07% |
| Colega Masculino | ~4.700 | 10.408 | 221% |
"A única variável significativa era o género", disse Michelle ao Bitcoin World. Ela observou que apesar de ter mais de 10.000 seguidores comparados com os 2.000 do seu marido, eles recebiam números de impressões semelhantes—até ela adotar os detalhes do perfil e o estilo de escrita dele.
O LinkedIn mantém que o seu "algoritmo e sistemas de IA não usam informações demográficas como idade, raça ou género como sinal para determinar a visibilidade do conteúdo." No entanto, especialistas sugerem que o viés pode ser mais subtil e sistémico.
Brandeis Marshall, consultora de ética de dados, explica: "As plataformas são uma sinfonia intrincada de algoritmos que puxam alavancas matemáticas e sociais específicas, simultaneamente e constantemente. A maioria destas plataformas tem incorporado intrinsecamente um ponto de vista branco, masculino e ocidental devido a quem treinou os modelos."
O problema deriva de como os LLMs aprendem:
Michelle notou algo crucial durante a sua experiência. Quando publicava como "Michael", ela ajustou a sua escrita para um estilo mais direto e conciso—semelhante a como ela escreve como ghostwriter para o seu marido. Esta mudança estilística, combinada com a mudança de género, produziu os resultados dramáticos.
Sarah Dean, professora assistente de ciência da computação em Cornell, observa: "A demografia de alguém pode afetar 'ambos os lados' do algoritmo—o que veem e quem vê o que publicam. As plataformas frequentemente usam perfis inteiros, incluindo empregos e histórico de envolvimento, ao determinar qual conteúdo promover."
Isto sugere que o algoritmo do LinkedIn pode estar a recompensar padrões de comunicação historicamente associados a profissionais masculinos:
A Chefe de IA Responsável e Governança do LinkedIn, Sakshi Jain, reiterou em novembro que os seus sistemas não usam informações demográficas para visibilidade de conteúdo. A empresa disse ao Bitcoin World que testam milhões de publicações para garantir que os criadores "competem em igualdade de condições" e que a experiência do feed permanece consistente entre audiências.
No entanto, a plataforma oferece transparência mínima sobre os seus processos de treino de IA. Chad Johnson, um especialista em vendas ativo no LinkedIn, descreveu o novo sistema como priorizando "compreensão, clareza e valor" sobre métricas tradicionais como frequência de publicação ou timing.
Principais mudanças relatadas pelos utilizadores:
A frustração estende-se além das questões de género. Muitos utilizadores, independentemente do género, relatam confusão sobre o novo sistema:
Sarah Dean sugere que o algoritmo pode simplesmente estar a amplificar sinais existentes: "Pode estar a recompensar certas publicações não por causa da demografia do escritor, mas porque houve mais resposta histórica a conteúdo semelhante em toda a plataforma."
Com base nas experiências dos utilizadores e orientações do LinkedIn, eis o que parece funcionar:
"Quero transparência", afirmou Michelle, ecoando um sentimento comum. No entanto, como Brandeis Marshall observa, a transparência completa poderia levar à manipulação do algoritmo. As plataformas guardam os seus segredos algorítmicos de perto, criando o que os especialistas chamam de problema da "caixa preta".
A tensão fundamental permanece: os utilizadores querem sistemas justos e compreensíveis, enquanto as plataformas precisam de prevenir manipulação. Este conflito é particularmente agudo em redes profissionais como o LinkedIn, onde a visibilidade pode impactar diretamente carreiras e oportunidades de negócio.
A experiência #WearthePants envolveu mulheres a mudarem os géneros dos seus perfis no LinkedIn para masculino para testar se o algoritmo da plataforma mostrava viés de género na distribuição de conteúdo.
A experiência começou com as empreendedoras Cindy Gallop e Jane Evans, que suspeitavam que o género poderia explicar o declínio do envolvimento.
O LinkedIn mantém que o seu algoritmo não usa dados demográficos para visibilidade de conteúdo. Sakshi Jain, Chefe de IA Responsável, e Tim Jurka, VP de Engenharia, abordaram ambos estas preocupações.
Sim. Os participantes notaram que adotar estilos de escrita mais diretos e concisos—frequentemente associados a padrões de comunicação masculinos—correlacionou-se com maior visibilidade.
Sim. A maioria das plataformas dependentes de LLM luta com vieses incorporados nos seus dados de treino, como observado por especialistas como Brandeis Marshall e investigadores incluindo Sarah Dean.
A experiência #WearthePants revela uma possibilidade perturbadora: mesmo sistemas de IA bem-intencionados podem perpetuar vieses do mundo real. Enquanto o LinkedIn nega discriminação intencional, os padrões observados por numerosas mulheres profissionais sugerem algo sistémico em funcionamento. Seja incorporado em dados de treino, reforçado por padrões históricos de envolvimento, ou amplificado através de preferências estilísticas, o efeito permanece o mesmo: algumas vozes são amplificadas enquanto outras são suprimidas.
À medida que a IA se torna cada vez mais incorporada em plataformas profissionais, a necessidade de transparência, responsabilidade e dados de treino diversos torna-se mais urgente. A alternativa é uma paisagem profissional digital onde o sucesso depende não apenas do mérito, mas de quão bem se pode conformar às preferências algorítmicas—preferências que podem carregar os vieses dos seus criadores humanos.
Para saber mais sobre os últimos desenvolvimentos em algoritmos de IA e os seus impactos sociais, explore o nosso artigo sobre desenvolvimentos-chave que moldam a implementação de IA e considerações éticas em plataformas de redes sociais.
Esta publicação Algoritmo do LinkedIn Exposto: O Chocante Viés de Género na Distribuição de Conteúdo de IA apareceu primeiro no BitcoinWorld.


