O nás: Na bezpečnosti nám záležíO nás: Na bezpečnosti nám záleží Podporujeme naše válečné veterányPodporujeme naše válečné veterány Výzva 2015: Drony – dobrý sluha, ale zlý pán!Výzva 2015: Drony – dobrý sluha, ale zlý pán!

Vývoj umělé inteligence - autonomních strojů poněkud vázne. Přesto už ukazuje odvrácenou tvář.

 05. 04. 2016      0 komentářů

Podle původních plánů agentury DARPA měla už loni třetina vozového parku US Army jezdit bez řidiče. Ehm. To Microsoft spustil konkurentku applovské Siri, jenže z Tay se po pár hodinách na Twitteru stala rasistka. A montážní robot v německé továrně VW umlátil dělníka. Kdypak lidstvo vyhladí Skynet?

Zdá se, že dnes na poli umělé inteligence – A.I. – čelíme třem druhům potíží. Pokud jde o případy, kdy nějaký „inteligentní“ stroj zraní člověka, přičemž těch úrazů na montážních linkách bylo už více (a také nějaké paní spící na zemi vytrhal vlasy její robotický vysavač), tak problém je v nedostatečné inteligenci daného robota, který nerozpozná člověka.

Když roku 1942 (tedy 22 let poté, co Čapek napsal R.U.R. a použil slovo robot) definoval tři zákony robotiky Isaac Asimov, byla ochrana člověka na prvním místě: „Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.“ Druhý zákon říká, že robot musí člověka vždy poslechnout, s výjimkou rozporu s prvním pravidlem. Do třetice robot musí chránit sám sebe, leda by se dostal do střetu s prvním nebo s druhým zákonem.

To jsou dejme tomu zásady, které lze vštěpit strojům vybaveným tak, že lidskou bytost rozpoznají, ba si nějak uvědomují samy sebe. Takže kuchyňský robot asi těžko. Ve skutečnosti Asimov definoval, jaké limity by měla mít umělé inteligence. Té je ale musí někdo naprogramovat, tedy druhý problém spočívá v nezodpovědnosti dnešních vývojářů.

Světové veřejnosti přijde bohužel vtipné, jak se microsoftí Tay, učící se z příspěvků ostatních „bytostí“ na Twitteru, rychle zkazila, takže začala záhy sama tweetovat vulgárně a rasisticky, například na adresu amerického prezidenta, ba dokonce napsala, že 11. září byla práce Židů, pročež vyzvala k rasové válce. Ona tím ale porušila všechny Asimovy zákony, ublížili lidem (dotkla se jejich důstojnosti) a zašla tak daleko, že si vykoledovala vypnutí. Resp. ta pravidla neporušila virtuální Tay, ale Microsoft!

Dovedete si představit, že by autonomní automobily byly nastaveny tak, že se budou ze zkušeností v provozu učit jako Tay, přičemž se nějaký čas budou mísit s auty řízenými lidmi? Co se asi tak naučí od silničních pirátů?

Hypoteticky ale tuto možnost zavrhněme, představme si, že autonomní vozy budou naprogramovány na nejvzornější jízdu, jaká je jen představitelná. Přesto zde vyvstává třetí problém – střet racionality a morálky, potažmo emocionality a osobních preferencí řidiče. Když před vůz vběhne chodec, pokusí se jeho řídící jednotka zastavit či strhnout řízení tak, že chodec i řidič utrpí optimálně minimální újmu. Leckterý člověk by strhnul za cenu lehké rány řízení i v případě, že mu do cesty vběhne pes. Udělá totéž ale autonomní vozidlo?

Stojíme tedy na rozcestí. Čím více inteligentní stroje budeme chtít za pomocníky, tím více autonomie jim budeme muset dát. Aby se z našeho pohledu chovaly předvídatelně a mohli jsme jim důvěřovat, tím více budeme muset přiblížit jejich „myšlení“ lidskému. To lze ale jen procesem učení, ovšem když stroje necháme učit se od lidí, naučí se i to špatné v nás. Pak bychom je ale museli naučit mít také svědomí. Opravdu to chceme a potřebujeme? Lze to vůbec?

 

Microsoft Tay 9/11

Komentáře

Článek nemá žádný komentář. Buďte první!

Pro přidání komentáře musíte být přihlášený.

FROGMAN