BitcoinWorld
Algoritmul LinkedIn expus: Șocanta discriminare de gen în distribuția conținutului AI
Imaginați-vă că vedeți cum audiența conținutului dumneavoastră profesional scade peste noapte, în timp ce colegii bărbați cu mai puțini urmăritori prosperă. Aceasta nu este doar o speculație—este realitatea tulburătoare descoperită de utilizatorii LinkedIn care au aflat că genul lor ar putea fi mâna invizibilă care le suprimă vizibilitatea. Experimentul #WearthePants a dezvăluit potențiale fisuri în noul algoritm bazat pe LLM al LinkedIn, ridicând întrebări urgente despre corectitudinea platformelor de networking profesional.
În noiembrie, o strateg de produs pe care o vom numi Michelle a efectuat un experiment simplu, dar revelator. Și-a schimbat genul profilului LinkedIn în masculin și numele în Michael. Rezultatele au fost uimitoare: impresiile postărilor sale au crescut cu 200%, iar interacțiunile au crescut cu 27% în câteva zile. Nu a fost singură. Marilynn Joyner a raportat o creștere de 238% a impresiilor după ce a făcut aceeași schimbare, în timp ce numeroase alte femei profesioniste au documentat tipare similare.
Acest experiment a apărut după luni de plângeri din partea utilizatorilor activi de LinkedIn despre scăderea interacțiunilor. Momentul a coincis cu anunțul LinkedIn din august că au implementat "mai recent" Modele de Limbaj de Mari Dimensiuni (LLM-uri) pentru a evidenția conținutul. Pentru femeile care și-au construit o audiență substanțială prin postări consistente, schimbarea bruscă a părut deosebit de nedreaptă.
Mișcarea a început cu antreprenoarele Cindy Gallop și Jane Evans, care au rugat doi colegi bărbați să posteze conținut identic. În ciuda faptului că aveau împreună peste 150.000 de urmăritori (comparativ cu 9.400 ai bărbaților), rezultatele au fost grăitoare:
| Creator | Urmăritori | Audiență postare | Procentaj de urmăritori atinși |
|---|---|---|---|
| Cindy Gallop | ~75.000 | 801 | 1,07% |
| Coleg bărbat | ~4.700 | 10.408 | 221% |
"Singura variabilă semnificativă a fost genul," a declarat Michelle pentru Bitcoin World. Ea a remarcat că, deși avea peste 10.000 de urmăritori comparativ cu cei 2.000 ai soțului ei, au primit cifre similare de impresii—până când a adoptat detaliile de profil și stilul de scriere ale acestuia.
LinkedIn susține că "algoritmul și sistemele sale AI nu folosesc informații demografice precum vârsta, rasa sau genul ca semnal pentru a determina vizibilitatea conținutului." Cu toate acestea, experții sugerează că prejudecata ar putea fi mai subtilă și sistemică.
Brandeis Marshall, consultant în etica datelor, explică: "Platformele sunt o simfonie complexă de algoritmi care acționează asupra unor pârghii matematice și sociale specifice, simultan și constant. Majoritatea acestor platforme au încorporat în mod inerent o perspectivă centrată pe bărbați albi occidentali, din cauza celor care au antrenat modelele."
Problema provine din modul în care învață LLM-urile:
Michelle a observat ceva crucial în timpul experimentului său. Când posta ca "Michael", și-a ajustat scriitura la un stil mai direct și concis—similar cu modul în care scrie ca ghostwriter pentru soțul ei. Această schimbare stilistică, combinată cu schimbarea de gen, a produs rezultate dramatice.
Sarah Dean, profesor asistent de informatică la Cornell, observă: "Demografia cuiva poate afecta 'ambele părți' ale algoritmului—ce văd ei și cine vede ce postează ei. Platformele folosesc adesea profiluri complete, inclusiv istoricul locurilor de muncă și al interacțiunilor, când determină ce conținut să promoveze."
Aceasta sugerează că algoritmul LinkedIn ar putea recompensa tipare de comunicare asociate istoric cu profesioniștii de sex masculin:
Șeful LinkedIn pentru AI Responsabil și Guvernanță, Sakshi Jain, a reiterat în noiembrie că sistemele lor nu folosesc informații demografice pentru vizibilitatea conținutului. Compania a declarat pentru Bitcoin World că testează milioane de postări pentru a se asigura că creatorii "concurează în condiții egale" și că experiența feed-ului rămâne consistentă pentru toate audiențele.
Cu toate acestea, platforma oferă transparență minimă despre procesele lor de antrenare AI. Chad Johnson, un expert în vânzări activ pe LinkedIn, a descris noul sistem ca prioritizând "înțelegerea, claritatea și valoarea" în detrimentul metricilor tradiționale precum frecvența postărilor sau momentul postării.
Schimbări cheie raportate de utilizatori:
Frustrarea se extinde dincolo de problemele de gen. Mulți utilizatori, indiferent de gen, raportează confuzie despre noul sistem:
Sarah Dean sugerează că algoritmul ar putea pur și simplu să amplifice semnalele existente: "Ar putea recompensa anumite postări nu din cauza demografiei autorului, ci pentru că a existat mai mult răspuns istoric la conținut similar pe platformă."
Pe baza experiențelor utilizatorilor și a îndrumărilor LinkedIn, iată ce pare să funcționeze:
"Vreau transparență," a declarat Michelle, exprimând un sentiment comun. Cu toate acestea, după cum observă Brandeis Marshall, transparența completă ar putea duce la manipularea algoritmului. Platformele își păzesc îndeaproape secretele algoritmice, creând ceea ce experții numesc problema "cutiei negre".
Tensiunea fundamentală rămâne: utilizatorii vor sisteme corecte și ușor de înțeles, în timp ce platformele trebuie să prevină manipularea. Acest conflict este deosebit de acut în rețelele profesionale precum LinkedIn, unde vizibilitatea poate afecta direct carierele și oportunitățile de afaceri.
Experimentul #WearthePants a implicat femei care și-au schimbat genul profilului LinkedIn în masculin pentru a testa dacă algoritmul platformei prezintă prejudecăți de gen în distribuția conținutului.
Experimentul a început cu antreprenoarele Cindy Gallop și Jane Evans, care au suspectat că genul ar putea explica scăderea interacțiunilor.
LinkedIn susține că algoritmul său nu folosește date demografice pentru vizibilitatea conținutului. Sakshi Jain, Șeful pentru AI Responsabil, și Tim Jurka, VP de Inginerie, au abordat ambii aceste preocupări.
Da. Participanții au observat că adoptarea unor stiluri de scriere mai directe și concise—adesea asociate cu tiparele de comunicare masculine—a corelat cu o vizibilitate crescută.
Da. Majoritatea platformelor dependente de LLM se luptă cu prejudecăți încorporate din datele lor de antrenament, după cum au remarcat experți precum Brandeis Marshall și cercetători inclusiv Sarah Dean.
Experimentul #WearthePants dezvăluie o posibilitate tulburătoare: chiar și sistemele AI bine intenționate pot perpetua prejudecăți din lumea reală. În timp ce LinkedIn neagă discriminarea intenționată, tiparele observate de numeroase femei profesioniste sugerează ceva sistemic la lucru. Fie că este încorporat în datele de antrenament, întărit prin tipare istorice de interacțiune sau amplificat prin preferințe stilistice, efectul rămâne același: unele voci sunt amplificate în timp ce altele sunt suprimate.
Pe măsură ce AI devine tot mai încorporat în platformele profesionale, nevoia de transparență, responsabilitate și date de antrenament diverse devine mai urgentă. Alternativa este un peisaj profesional digital unde succesul depinde nu doar de merit, ci de cât de bine se poate conforma cineva preferințelor algoritmice—preferințe care ar putea purta prejudecățile creatorilor lor umani.
Pentru a afla mai multe despre cele mai recente evoluții în algoritmii AI și impactul lor societal, explorați articolul nostru despre dezvoltările cheie care modelează implementarea AI și considerațiile etice în platformele de social media.
Această postare Algoritmul LinkedIn expus: Șocanta discriminare de gen în distribuția conținutului AI a apărut prima dată pe BitcoinWorld.


