Technologie

Etika algoritmů. Proč je důležitá pro vývoj společnosti?

Mají sloužit lidem. Zrychlovat, zjednodušovat a zefektivnovat práci s daty. Algoritmy jsou velmi cenným nástrojem, který však skrývá i řadu úskalí. Dnes i během minulých let na tuto skutečnost upozorňuje řada odborníků, ale i laická veřejnost.

Etika algoritmů. Proč je důležitá pro vývoj společnosti?
Etika algoritmů. Proč je důležitá pro vývoj společnosti?

Obklopují nás v každodenním životě

Veškeré sociální sítě, online nástroje pro vyhledávání informací a mnoho dalších ve virtuálním prostoru pracuje s našimi daty. I když se však budeme snažit této sféře vyhýbat, nemůžeme ovlivnit skutečnost, že umělá inteligence a práce s algoritmy sahá i do našeho všedního života. 

Jak přesně algoritmy fungují vysvětluje v jednoduchém videu také Akademie Věd České Republiky:

Finanční instituce, zdravotní, sociální a mnoho dalších spadající do státního, ale i soukromého sektoru totiž k rychlejší práci využívají právě zmíněný systém umělé inteligence. Algoritmus je vytvořený vývojáři, kterými je naprogramován tak, aby do budoucna uměl sám efektivně s daty pracovat, analyzovat je a vyhodnocovat. 

V současné době se data stávají velmi cenným produktem, protože dovolují obchodníkům, politikům a dalším lépe cílit reklamy svým zákazníkům nebo například voličům. Prostřednictvím chytrých elektronických zařízení jsou tak uživatelská data seskupována a následně vytvářejí osobnostní profily. V případě nízké anonymizace a následně odcizení nebo zveřejnění dat, hrozí vysoké riziko ztráty soukromí uživatelů. 

Budoucnost a digitalizace

V červenci roku 2020 proběhlo mimořádné zasedání Evropské rady, které bylo zaměřeno především na řešení potíží s COVID-19, ale také na možnou finanční pomoc. Právě v tomto dokumentu padlo mnoho návrhů, které se týkají výrazné digitalizace a používání algoritmů v budoucích letech, které bude hrazeno z prostředků, jež poskytne EU. 

S vyšší mírou digitalizace jde ruku v ruce také vyšší míra používání algoritmů. V souvislosti s tím přichází na řadu také etika algoritmů. Jak jsou tyto systémy objektivní, zdali vůbec a kdo hlídá jejich funkci, aby nedocházelo k chybám? 

Umělá inteligence může chybovat

Zdá se, že chybu může udělat člověk, ale nikoli naprogramovaný systém. Tak si to alespoň představovali první vývojáři. Postupem času se však ukázalo, že algoritmy mohou být také velice nebezpečné a místo usnadnění práce způsobit drobné chyby, nebo dokonce ztrátu života. 

Konkrétním příkladem je autopilot produktu Tesla, který se snaží, aby řidič odvedl minimální nebo dokonce nulovou práci. Důležité je připomenout, že algoritmy navrhují opět jen lidé, a proto je nemožné, aby byly bezchybné nebo objektivní. V roce 2018 narazil elektromobil Tesla do překážky i s řidičem, jelikož nesprávně vyhodnotil situaci. V tuto chvíli se veřejnost začala ptát, zdali byla technologie, jak fyzická, tak ta virtuální správně testována.  Zde nesla vinu jak technologie, tak její vývojáři. 

Jak šel čas s automobilkou Tesla

počet hlasů: 12

Na povrch tak vyplouvají zásadní otázky, které se týkají algoritmické odpovědnosti. Ta předpokládá, že by měl nést plnou zodpovědnost vývojář, který algoritmus sestavil. V současné době je autopilot jen doplňkem a odpovědnost nese samotný řidič, který musí být ve střehu a v případě krizové situace převzít řízení. V roce 2016 byla v Německu zřízena komise pro autonomní řízení, která se podobnými otázkami odpovědnosti zabývá. 

Sexismus a rasismus

 Ne vždy je však výsledek tak fatální jako v předchozí situaci. I tak je však stále účinnou zbraní, jako například v roce 2016. Americká policie v tu dobu využívala algoritmy k tomu, aby vyhodnotila, zdali vězni mohou být propuštěni dříve. Bohužel však pracovala se zastaralými daty, která obsahovala případy z minulých režimů. Systém tak pracoval s informacemi, které černé obyvatelstvo nebo například ženy dehonestovaly. 

Výsledky tak nesly známky sexismu, rasismu a dokud nebyla situace přezkoumána, lidé trpěli útlakem svým práv. 

Obdobná situace se udála také v Austrálii, kde situace rozhořčila mnoho žadatelů o sociální dávky. Úřad totiž velice dlouho používal systém, který chybně vyhodnocoval data, zadlužoval nevinné občany a řešení chyb zabralo velmi dlouhý čas. 

Stejné systémy však mohou vyhodnocovat žadatele o půjčku, či důležité zdravotní příspěvky a umělá inteligence je tak může značně omezit, pokud nebude kontrolována. 

Ani sociální síť  Facebook nezůstává stranou. K problému diskriminace při cílení, kdy bylo možné například u reklam vyfiltrovat černé obyvatelstvo, reklam se vyjadřoval také Mark Zuckerberg. Inzerenti by se podle něj měli do budoucna rozlišovat podle nabízených služeb a podle toho jim také Facebook nabídne možnost méně nebo více detailního cílení na zákazníky. Reklamy spadající do kategorie bydlení, zaměstnání nebo úvěry by neměly mít možnost cílit své služby nebo produkty  určitému pohlaví, etnické menšině nebo filtrovat podle věku. 

Etický problém

Jak bylo dokázáno na mnoha nezdařených pokusech, algoritmy nejsou neomylné a jejich funkci je třeba dlouze testovat, hlídat a kontrolovat i během jejich funkce. Podobné modely jsou totiž příkladem pro plánování od drobných společností, států, až k evropskému zasedání. 

Kdy jde robotům o život? Přece v robotických válkách

počet hlasů: 2

Mnoho výpočtů a predikcí do budoucnosti se týká klimatu, energetiky a podobně významných odvětví. Proto je třeba nespoléhat jen na jeden zdroj, totiž algoritmus, který může působit objektivně, avšak nese vzorce, která mu zadali vývojáři. 

Práce se soukromými daty

Neméně významným problémem k řešení je také sběr soukromých dat. Na sociálních sítích  nebo ve vyhledávacích nástrojích denně proběhne obrovská aktivita, která je později marketingovým nástrojem. Lidé jsou o této skutečnosti uvědoměni při zakládání účtu nebo potvrzení podmínek používání, ale často mu nevěnují  potřebnou pozornost. Mnohdy si neuvědomují, že je podrobně sledováno to, co je zajímá, co naopak nechtějí vidět, čas strávený při čtení jednotlivých příspěvků a mnoho dalších drobností, které dohromady vytvářejí jedinečný profil osobnosti. 

Jak pracuje s daty Google Analytics?

V roce 2018 se před soud dostala tzv. Cambridge Analytica, jelikož měla použít Facebooková data k ovlivnění amerických voleb. Data sbíraná sociálními sítěmi nebo vyhledávači jsou sice seskupena do určité databáze, kde se majitel stará o jejich bezpečnost, ale jelikož často nejsou anonymizována, při kybernetickém útoku tak mohou být zneužita. 

Společnost Google například používá hned několik algoritmů, díky kterým přizpůsobuje vyhledávání, ale také lépe cílí reklamy a pracuje s profilem osobnosti. Uživatel se v přizpůsobeném prostředí může cítí dobře, ale musí mít na paměti, že jsou osobní data sbírána danou společností. 

I když Google při sběru dat nepoužívá identifikaci jednotlivých uživatelů, jejich anonymita je ohrožena, jelikož má Google současně přístup k Google Maps, Youtube a Google Chrome. 

V roce 2020 byla také na Google uvalena žaloba, a to hlavně z důvodu, že o uživatelích sbíral data i v anonymním režimu. Ačkoli bylo při otevření anonymního okna uvedeno, že veškerá data webů jsou mazána a stejně tak i cookies, realita byla jiná. Nástroje jako Google Analytics nebo Google Ad Manager data i nadále sbíraly. 

Roboti mezilidský kontakt nenahradí, varuje mrazivý televizní spot z Francie

počet hlasů: 7

Zodpovědnost

V současné chvíli je za provoz těchto systémů zodpovědný vývojář nebo firma či osoba, která tuto povinnost vezme na sebe. Často se však při chybném vyhodnocení jedná o nenávratné ztráty, kterým je třeba předejít. Proto současná společnost hledá odpověď na otázku: “Kdo by měl algoritmy prověřovat, hlídat a chránit před nimi?”