V úvodu jsme si přiblížili, že (generativní) umělá inteligence vlastně neexistuje. Jsou to víceméně statistické modely, které se skládají ze dvou základních složek – knihovny a paní knihovnice (Databáze a Algoritmus). A že pouze využívá a kombinuje dostupná data a napodobuje vzory.

Funguje tedy stejně jako lidská mysl. V paměti (databázi) máme uloženy naučené nebo prožité události, datumy, čísla, obličeje, láčkovce, hlavonožce a podle očekáváného vzoru je interpretujeme. Pojem očekávaný vzor lze přirovnat k běžné lidské situaci – jinak mluvíme ve škole, v práci, hospodě nebo před panem prezidentem. Stejně tak je AI naučená co možná nejlépe reagovat na různé situace (zadání) a náležitě kombinovat údaje.

Na rozdíl od člověka budou modely AI vynikat v kapacitě paměti, rychlosti přístupu k ní a ve zpracování výstupu. Pokulhávat bude AI naopak v oblasti ověřování dat/výsledku, nezaujatém úsudku a v improvizaci. S těmito oblastmi má ale potíže i člověk sám.

Nekvalitní data a nekritické myšlení

Pokud databáze (lidská nebo počítačová paměť) obsahuje nekvalitní (nepravdivé) data, bude jak člověk tak i umělá inteligence velice tvrdošíjně tvrdit, že Země je například placatá. A je jen na nás, zda tomu uvěříme.

Tento druh „nepravdy", o které je prezentující strana v dobré víře přesvědčena, je tedy založen na nekvalitních vstupních datech. U člověka by se dalo v tomto případě mluvit o jeho osobním přesvědčení plynoucím z vlastní životní zkušenosti.

Podrobněji k nedostatkům databáze ve vlastní kapitole Databáze.

Druhým zásadním nedostatkem jak člověka tak umělé inteligence je algoritmus. Tedy to:

  • jak (ne)kriticky přemýšlíme a vyhodnocujeme. Je AI naučená vstupní data jen nekriticky přijímat, nebo je umí stejně jako člověk ověřovat? A jak kvalitní to ověření je? Jaké postupy k tomu používá?
  • jak dobře jsme skutečně porozuměli zadání? Stejně jako knihovnice, tak i algoritmus AI totiž nemusí být na určitý druh zadání dobře připraven. Porozumí určitým pojmům úplně jinak, než jsme mysleli my.

Podrobněji k nedostatkům algoritmu ve vlastní kapitole Algoritmus.

Třetí nebezpečí: zdánlivá autorita

A pak je zde ještě jeden způsob, jak danou „nepravdu" navíc podpořit. Stejně jako my lidé máme své sňatkové podvodníky nebo skvělé řečníky, i umělá inteligence dovede ať pravdivé nebo nepravdivé data zabalit do uvěřitelného příběhu a dát tomu všemu velice vážený a důvěryhodný tón tak, že tomu mnohem snadněji uvěříme.

To je třetí nebezpečí, které se ve výstupech od AI skrývá – vliv zdánlivé autority. I umělá inteligence se prostě umí velice lehce a dobře postavit do role sňatkového podvodníka.