» AI’s fairness problem: understanding wrongful discrimination in the context of automated decision-making

Používání prediktivních algoritmů strojového učení k posuzování a přijímání rozhodnutí se stává v soukromém i veřejném prostředí stále běžnějším. V praxi jsou však mnohá rozhodnutí diskriminační. Hugo Cossette a Lefebvre Jocelyn Maclure v příspěvku publikovaném v odborném časopise AI and Ethics (Vol 3/ Issue 4) v listopadu 2023 tvrdí, že je nutné jasně definovat podmínky, za kterých lze rozhodovací nástroj použít. Autoři identifikují rysy, které k nesprávnému posuzování vedou a navrhují tři základní podmínky, které by měly být při zavádění algoritmů strojového učení následovány.

Používají se k rozhodování o tom, kdo by měl být povýšen nebo propuštěn, kdo by měl dostat půjčku nebo pojistné (a za jakou cenu), jaké příspěvky se objeví na vašich sociálních sítích nebo dokonce mapují ohniska kriminality a pokouší se předpovědět riziko recidivy u pachatelů. Přenechání rozhodovací pravomoci algoritmům strojového učení (dále taktéž ML, machine learning) by mělo ve srovnání s rozhodováním lidí – alespoň teoreticky – přinášet výhody v překonání problému diskriminace,“ uvádí na začátku článku jeho autoři Hugo Cossette a Lefebvre Jocelyn Maclure.

Algoritmy strojového učení jsou považovány za neutrální a objektivní. Prostřednictvím úplného nebo částečného outsourcingu rozhodovacího procesu na algoritmus by tak mělo být lidem a organizacím umožněno jasně definovat parametry rozhodnutí a v zásadě odstranit lidské předsudky. Praxe, jak uvádí autoři článku, je bohužel jiná. Diskriminační rozhodnutí strojového učení mají dle Cossette a Maclure základ minimálně ve třech problémech: kategorizace dat při data-miningu může znovuobnovovat lidské předsudky, automatika a prediktivní design může vést k tomu, že algoritmy se budou spoléhat na nesprávná zobecnění, a nakonec jejich neprůhlednost je v rozporu s demokratickými požadavky. Autoři shledávají dva poslední body jako málo diskutované a přehlížené. Pojmenovávají proto základní podmínky, které by měly být při zavádění ML algoritmů následovány: algoritmy by neměly znevýhodňovat historicky marginalizované skupiny; neměly by systematicky potlačovat nebo nahrazovat lidské rozhodovací procesy; a rozhodnutí dosažené pomocí algoritmu by mělo být vždy vysvětlitelné a ospravedlnitelné. Více o možnostech regulace a jednotlivých podmínkách naleznete v příspěvku. Články časopisu AI and Ethics jsou zčásti dostupné zdarma, proto můžete v četbě pokračovat i mimo předložený text. Tématu byl současně věnovaný program Fresh Eye How (un)fair are new technologies?. Záznam diskuze nalezete ve videoarchivu Fresh Eye.



> archiv