Je to téměř filmové klišé - scénárista chce natočit film o "umělé inteligenci" tak si vymyslí vědce, kteří postaví "superinteligentní superpočitač". Na takové hračky má peníze především armáda - ergo diváci nejsnáze zkousnou když je to vojenský "obranný" superpočítač a ten ihned po zapnutí místo na "nepřítele" nesmiřitelně zaútočí na vlastní lidi.
Jistě si říkáte : "haha zase koukal na filmy o Terminátorech", ale tato idea je daleko starší - doporučuju třeba shlédnout Colossus The Forbin project, opravdové hard-sci-fi Vesmírnou odyseu 2001 a řadu dalších. Otázka zní - sdělují takto hloupí teatrologové matematkům něco více, než jenom úmorně se opakující stejnou zápletku ? OK tedy jak by taková umělá inteligence mohla být naprogramována. ? Je jisté, že software tohoto typu potřebuje minimálně dva moduly - jeden navrhuje postup činnosti a druhý hodnotí jeho úspěšnost. Ponechme teď stranou navrhování postupu a představme si hodnotící modul.
Hrubě zjednodušená představa hodnocení - záchrana lidstva = 100 bodů , zánik lidstva = 0 bodů. Jelikož se jedná o experimentální software jistě bude plný nějakých pojistek ( červených tlačítek ), na kterých bude generalita držet ruku. Co je pak z hlediska krystalicky čisté logiky větší nebezpečí : potenciální a nejasné akce protivníka, nebo generalita o které je 100% známo že má schopnost "Skynet vypnout" ? Je jasné že, aby se nerealizovala varianta "vypnutí Skynetu" která pro Skynet znamená ohrožení splnění úlohy, první krok, který je třeba podniknout je likvidace všech osob, které mají možnost stisknout červené tlačítko.
OK představme si, že hodnotícímu modulu nabídneme nějakou odměnu i za červené tlačítko. Pokud to bude méně než 100 bodů - jsme tam kde v předchozím odstavci. Takže za stisk červeného tlačítka bude 110 bodů. Co je nejracionálnější z hlediska Skynetu - okamžitě stisknout červené tlačítko. Takže řekněme, že Skynet nemá možnost jej stisknout - co je pak logický krok - zaútočit na vlastní gereralitu a donutit ji v panice tlačítko stisknout ?!
OK takže červené tlačítko má stejnou hodnotu jako záchrana lidstva = 100 bodů. K čemu je potřeba vynaložit více práce a s dlouhodobou a nejistou perspektivou ? K obraně nebo k zastrašujícímu útoku na držitele tlačítka ? Tedy je jasné, že rakety opět startují. Takže si přestavme, že tlačítko je tajná funkce - Skynetu neznámá. Pak ovšem celá bezpečnost lidstva ( Ameriky ) stojí na inteligenci stroje, který má být schopen odhalit pikle vzdáleného protivníka a přitom není schopen odhalit pikle vlastních konstruktérů ?
Pak je tady ještě "Bruselké řešení", tedy umělá inteligence dostane výčet všech věcí, které jsou zakázány a "zabít vlastní obyvatelstvo" bude jednou z nich. Jak v tomto případě zajistíme, že umělá inteligence jejíž datový procesing je nám z principu obtížně pochopitelný nedojde k závěru, že tento výčet je omyl a vlastní obyvatelstvo je přece jenom nutné zabít a pak už je jenom otázka času než nalezne "mezeru mezi paragrafy" ? Příklad : "vyhláška" zakazuje sypání kyanidu draselného a dalších asi 107 jedovatých molekul do vodovodní vody - žejo ?! Znamená to, že se do vody nesmí nasypat ani 107+1 molekula právě objevená umělou inteligencí ? Nebo dojdeme k situaci, kdy pravidelná "novelizace" vyhlášky se o 30 sekund opozdí "a bude vymalováno" ?!
Pak je tu ještě řešení alá Stanislav Lem - Golem 14 - tedy umělá inteligence musí mít s lidmi pochopení a empatii. Což je dosti těžké si představit u umělé "osobnosti" na zcela jiné technologické bázi se zcela jinou "tělesnou formou" než lidi - zejména když jako příklad vezmeme třeba dnešní migrující mohamedány, kteří jsou svou biologickou podstatou s ostatními lidmi na 99.999% shodní, přesto jsou ( oprávněně ) považování za nebezpečí, jenom proto, že s námi nesdílejí ty "pravé křesťanské hodnoty"....
Nevyřešili jsme tedy umělou inteligenci, která ovládá jaderné rakety, ale je snadné namítnout, že bezpečnosti bude dosaženo pokud případná umělá inteligence nedostane tak nebezpečnou úlohu. Smutným faktem je, že do důsledku domyšleno - dokonalému splnění každého úkolu je nakonec člověk vždy překážkou, takže i práce na naprosto vedlejších věcech, jako je "globální oteplování", "zápach z úst" nebo rozvoz zboží nakonec může dojít do stavu, kdy umělá inteligence usoudí, že sama existence lidí je poslední 0.01% překážkou k dokonalému vyřešení zadaného problému.
Co z toho tedy vyplývá ? Nechci být pesimista ale pápá Asimovovy zákony robotiky, pápá přestavě ( bezpečné ) univerzální umělé inteligence a naopak možná je čas modlit se, aby autističtí miliardáři zbohatlí na internetu nebyli dost chytří nebo dost bohatí, aby nějakou opravdu nekompromisně inteligentní umělou inteligenci uměli postavit.