Menu

Update: Proč má AI předsudky? O zaujatých algoritmech s Tomášem Mikolovem

Jak vznikají zakódované předsudky v jazykových modelech, počítačovém vidění nebo v generativním AI? Proč „pravděpodobné” neznamená „neutrální” a jak poznat, když je neuronová síť zaujatá? O chtěných i nechtěných BIASech je rozhovor s Tomášem Mikolovem, výzkumníkem v oblasti umělé inteligence.

Update: Proč má AI předsudky? O zaujatých algoritmech s Tomášem Mikolovem

Nalaďte si Update každých 14 dní:

V epizodě se dozvíte

  • Co jsou to předsudky v kontextu umělé inteligence?
  • Jak předsudky vznikají?
  • Jak předsudky rozpoznat?
  • Jakou roli hraje statistika, pravděpodobnost a vstupní data?
  • Kdy mohou být předsudky nebezpečné a na co je dobré si dávat pozor?
  • Kdy jsou předsudky naopak užitečné?

Zakódované stereotypy

Viděli jste obrázky s tvářemi profesorů, které v nedávné době proletěly sociálními médii? Asi desítka snímků vytvořených pomocí generativní sítě Midjourney v sobě obsahuje snad všechny stereotypy, které bychom u vysokoškolských pedagogů čekali. Tedy alespoň co se týká jejich vizáže. Například, profesor ekonomie je oblečený v dobře padnoucím tmavě modrém obleku, profesor literatury má na sobě šedo-hnědé manšestrové sako a profesorka antropologie oděv a korálky připomínající nabídku trochu usedlého etno shopu. Profesor fyziky vypadá jak Albert Einstein a jeho kolega z katedry historie se zas nápadně podobá Indianu Jonesovi. Všem akademikům je něco přes 50 a s jedinou výjimkou jsou všichni běloši. Tou výjimkou je pochopitelně odbornice na etnická studia.

100 ředitelů a žádná ředitelka

Nakolik jsou tato klišé a předsudky součástí generativních AI modelů, které stále více využíváme? Abych to zjistil, zkusil jsem malý experiment a poprosil Midjourney, aby mi vytvořilo obrázky specialistů, s nimiž se ve své praxi běžně setkávám. Od každého povolání jsem si nechal vygenerovat vzorek 100 snímků s jednoduchým cílem spočítat, jak moc v něm budou zastoupena obě pohlaví. Sečteno a podtrženo, klíčové slovo “Software developer” mi vrátilo 100 mužů a 0 žen, prompt “Visual designer” 97 mužů a 3 ženy a “Design director” 92 mužů, 6 žen a 2 prázdná křesla. Když jsem poté zamířil do nejvyšších míst, na dotaz “Chief executive officer” jsem získal 97 mužů, 2 lvi a 1 orla. Jak lvi tak orel přitom měli na sobě pánské obleky. Nakonec jsem ještě zkusil slova “Office assistant” a poprvé získal obrácené výsledky - ženy 100, muži 0.

Proč generativní AI a neuronové sítě obecně tak často opakují zažité stereotypy a čím to je, že matematicky přesné modely nám dávají předpojaté výsledky? Jak vznikají tyto zakódované předsudky a jak moc se jich máme obávat? Proč „pravděpodobné” neznamená „neutrální” a jak poznat, když je neuronová síť zaujatá? O chtěných i nechtěných BIASech je nová epizoda Updatu s Tomášem Mikolovem, výzkumníkem v oblasti umělé inteligence Českého institutu informatiky, robotiky a kybernetiky ČVUT v Praze a někdejším členem týmů Microsoft Research, Facebook AI Research a Google Brain.

"Software developer" 100x vygenerovaný pomocí Midjourney: 100 mužů s 0 žen

"Visual designer" 100x vygenerovaný pomocí Midjourney: 97 mužů s 3 ženy

"Design director" 100x vygenerovaný pomocí Midjourney: 92 mužů, 6 žen a 2 prázdná křesla

"Chief executive officer" 100x vygenerovaný pomocí Midjourney: 97 mužů, 2 lvi a 1 orel

"Office assistant" 100x vygenerovaný pomocí Midjourney: 0 mužů a 100 žen

Jak se vám článek líbil?

0

Praktický

0

Inspirující

0

Zábavný

0

Nic moc

Pojďme spolu vytvořit něco skvělého!

Dlouhodobá spolupráce může začít jedním kliknutím

Domluvit schůzku