BitcoinWorld
Algorytm LinkedIn ujawniony: Szokująca dyskryminacja płciowa w dystrybucji treści AI
Wyobraź sobie, że zasięg Twoich profesjonalnych treści gwałtownie spada z dnia na dzień, podczas gdy męscy koledzy z mniejszą liczbą obserwujących zyskują popularność. To nie tylko spekulacje – to niepokojąca rzeczywistość odkryta przez użytkowników LinkedIn, którzy odkryli, że ich płeć może być niewidzialną ręką ograniczającą ich widoczność. Eksperyment #WearthePants ujawnił potencjalne luki w nowym algorytmie LinkedIn opartym na LLM, podnosząc pilne pytania o uczciwość na profesjonalnych platformach networkingowych.
W listopadzie strategiczka produktowa, którą nazwiemy Michelle, przeprowadziła prosty, ale wymowny eksperyment. Zmieniła swoją płeć w profilu LinkedIn na męską i imię na Michael. Wyniki były zaskakujące: liczba wyświetleń jej postów wzrosła o 200%, a zaangażowanie o 27% w ciągu kilku dni. Nie była sama. Marilynn Joyner odnotowała 238% wzrost wyświetleń po dokonaniu tej samej zmiany, podczas gdy wiele innych profesjonalnych kobiet udokumentowało podobne wzorce.
Eksperyment pojawił się po miesiącach skarg od aktywnych użytkowników LinkedIn na spadające zaangażowanie. Czas zbiegł się z sierpniowym ogłoszeniem LinkedIn, że "niedawno" wdrożyli Modele Dużego Języka (LLM) do wyświetlania treści. Dla kobiet, które zbudowały znaczącą liczbę obserwujących poprzez regularne publikowanie, nagła zmiana wydawała się szczególnie niesprawiedliwa.
Ruch rozpoczął się od przedsiębiorczyń Cindy Gallop i Jane Evans, które poprosiły dwóch męskich kolegów o opublikowanie identycznych treści. Pomimo posiadania łącznie ponad 150 000 obserwujących (w porównaniu do 9 400 mężczyzn), wyniki były wymowne:
| Twórca | Obserwujący | Zasięg posta | Procent osiągniętych obserwujących |
|---|---|---|---|
| Cindy Gallop | ~75 000 | 801 | 1,07% |
| Męski kolega | ~4 700 | 10 408 | 221% |
"Jedyną istotną zmienną była płeć" - powiedziała Michelle Bitcoin World. Zauważyła, że pomimo posiadania ponad 10 000 obserwujących w porównaniu do 2 000 jej męża, otrzymywali podobną liczbę wyświetleń - dopóki nie przyjęła szczegółów jego profilu i stylu pisania.
LinkedIn utrzymuje, że jego "algorytm i systemy AI nie wykorzystują informacji demograficznych, takich jak wiek, rasa czy płeć jako sygnału do określania widoczności treści". Jednak eksperci sugerują, że uprzedzenia mogą być bardziej subtelne i systemowe.
Brandeis Marshall, konsultantka ds. etyki danych, wyjaśnia: "Platformy są skomplikowaną symfonią algorytmów, które jednocześnie i nieustannie pociągają za konkretne dźwignie matematyczne i społeczne. Większość tych platform ma wbudowany biały, męski, zachodniocentryczny punkt widzenia ze względu na to, kto trenował te modele."
Problem wynika ze sposobu uczenia się LLM:
Michelle zauważyła coś kluczowego podczas swojego eksperymentu. Publikując jako "Michael", dostosowała swój styl pisania na bardziej bezpośredni i zwięzły - podobny do tego, jak pisze ghostwriterskie teksty dla swojego męża. Ta stylistyczna zmiana, w połączeniu ze zmianą płci, przyniosła dramatyczne rezultaty.
Sarah Dean, adiunkt informatyki na Uniwersytecie Cornell, zauważa: "Dane demograficzne danej osoby mogą wpływać na 'obie strony' algorytmu - na to, co widzą i kto widzi to, co publikują. Platformy często wykorzystują całe profile, w tym historię pracy i zaangażowania, przy określaniu, które treści promować."
Sugeruje to, że algorytm LinkedIn może nagradzać wzorce komunikacji historycznie kojarzone z męskimi profesjonalistami:
Sakshi Jain, szefowa odpowiedzialnej AI i zarządzania w LinkedIn, powtórzyła w listopadzie, że ich systemy nie wykorzystują informacji demograficznych do określania widoczności treści. Firma powiedziała Bitcoin World, że testują miliony postów, aby zapewnić twórcom "konkurowanie na równych zasadach" i że doświadczenie z kanałem pozostaje spójne dla wszystkich odbiorców.
Jednak platforma oferuje minimalną przejrzystość dotyczącą procesów trenowania AI. Chad Johnson, ekspert ds. sprzedaży aktywny na LinkedIn, opisał nowy system jako priorytetyzujący "zrozumienie, jasność i wartość" ponad tradycyjnymi metrykami, takimi jak częstotliwość publikowania czy czas.
Kluczowe zmiany zgłaszane przez użytkowników:
Frustracja wykracza poza kwestie płci. Wielu użytkowników, niezależnie od płci, zgłasza dezorientację związaną z nowym systemem:
Sarah Dean sugeruje, że algorytm może po prostu wzmacniać istniejące sygnały: "Może nagradzać pewne posty nie ze względu na dane demograficzne autora, ale dlatego, że historycznie podobne treści spotykały się z większym odzewem na platformie."
Na podstawie doświadczeń użytkowników i wskazówek LinkedIn, oto co wydaje się działać:
"Chcę przejrzystości" - stwierdziła Michelle, wyrażając powszechne odczucie. Jednak, jak zauważa Brandeis Marshall, pełna przejrzystość mogłaby prowadzić do manipulowania algorytmem. Platformy ściśle strzegą swoich algorytmicznych sekretów, tworząc to, co eksperci nazywają problemem "czarnej skrzynki".
Podstawowe napięcie pozostaje: użytkownicy chcą uczciwych, zrozumiałych systemów, podczas gdy platformy muszą zapobiegać manipulacjom. Ten konflikt jest szczególnie ostry w sieciach profesjonalnych takich jak LinkedIn, gdzie widoczność może bezpośrednio wpływać na kariery i możliwości biznesowe.
Eksperyment #WearthePants polegał na zmianie przez kobiety płci w profilach LinkedIn na męską, aby sprawdzić, czy algorytm platformy wykazuje uprzedzenia płciowe w dystrybucji treści.
Eksperyment rozpoczął się od przedsiębiorczyń Cindy Gallop i Jane Evans, które podejrzewały, że płeć może wyjaśniać spadające zaangażowanie.
LinkedIn utrzymuje, że jego algorytm nie wykorzystuje danych demograficznych do określania widoczności treści. Sakshi Jain, szefowa odpowiedzialnej AI, i Tim Jurka, wiceprezes ds. inżynierii, odnieśli się do tych obaw.
Tak. Uczestnicy zauważyli, że przyjęcie bardziej bezpośredniego, zwięzłego stylu pisania - często kojarzonego z męskimi wzorcami komunikacji - korelowało ze zwiększoną widocznością.
Tak. Większość platform zależnych od LLM zmaga się z wbudowanymi uprzedzeniami z danych treningowych, jak zauważają eksperci tacy jak Brandeis Marshall i badacze, w tym Sarah Dean.
Eksperyment #WearthePants ujawnia niepokojącą możliwość: nawet dobrze intencjonowane systemy AI mogą utrwalać rzeczywiste uprzedzenia. Choć LinkedIn zaprzecza celowej dyskryminacji, wzorce zaobserwowane przez liczne profesjonalne kobiety sugerują coś systemowego. Niezależnie od tego, czy jest to wbudowane w dane treningowe, wzmocnione przez historyczne wzorce zaangażowania, czy wzmocnione przez preferencje stylistyczne, efekt pozostaje ten sam: niektóre głosy są wzmacniane, podczas gdy inne są tłumione.
W miarę jak AI staje się coraz bardziej zakorzeniona w profesjonalnych platformach, potrzeba przejrzystości, odpowiedzialności i zróżnicowanych danych treningowych staje się coraz bardziej pilna. Alternatywą jest cyfrowy krajobraz zawodowy, w którym sukces zależy nie tylko od zasług, ale od tego, jak dobrze można dostosować się do algorytmicznych preferencji - preferencji, które mogą nieść uprzedzenia ich ludzkich twórców.
Aby dowiedzieć się więcej o najnowszych osiągnięciach w algorytmach AI i ich społecznych wpływach, zapoznaj się z naszym artykułem o kluczowych wydarzeniach kształtujących wdrażanie AI i etycznych rozważaniach na platformach mediów społecznościowych.
Ten post Algorytm LinkedIn ujawniony: Szokująca dyskryminacja płciowa w dystrybucji treści AI pojawił się po raz pierwszy na BitcoinWorld.


