Systémy umělé inteligence jsou velmi genderově předpojaté. Zaujatost AI odráží data, na kterých je vyškolena

Agentura OSN UNESCO vydala novou zprávu Mezinárodního výzkumného týmu pro umělou inteligenci. Ta podle webu ComputerSweden ukazuje, že výstupy generativních systémů AI jsou genderově stereotypní. Například tradičně ženská jména jsou často spojována s předpojatými ženskými genderovými rolemi a systémy AI také častěji generují negativní obsah o ženách a LGBTQ+ lidech.

Podle UNESCO se na předpojatosti systémů umělé inteligence podílejí tři faktory. Prvním faktorem je skutečnost, že AI není založena na datech ze společenských menšin. Těmi mohou být jak různá pohlaví, tak rovněž rozdílné etnicity. Často nejsou zastoupená ani data, jež rozpoznávají jakou roli tyto faktory ve společnosti hrají.

Druhým důvodem je výběr algoritmu, který může vést ke shromažďování a učení se daného bias – tedy předpojatosti, jež vznikla při vývoji dané umělé inteligence. Ta poté jako důsledek může například upřednostňovat mužské kandidáty na pozice některých zaměstnání na základě existujících genderových předsudků, které již ve společnosti existují a probíhají.

Posledním faktorem je pak samotné zavedení umělé inteligence do procesu. Často dojde k tomu, že je AI užita v jiném kontextu než pro jaký byla původně vyvinuta. To může podle výzkumníků vést k tomu, že dochází k nesprávným asociacím mezi určitými psychiatrickými termíny a specifickými etnickými skupinami a pohlavími.

Výzkumníci píší, že zkreslení v systémech umělé inteligence odráží data, na kterých jsou vyškoleny. Jelikož jsou tato data generována lidmi, odrážejí vlastní předsudky lidí a mohou vést k tomu, že systémy umělé inteligence posilují stereotypy. Je proto nutné přijmout opatření k nápravě tohoto jevu, dokud je vývoj AI v počátcích.

Zdroj: ComputerSweden