Programy podobné lidem zneužívají naši empatii – ani inženýři Googlu nejsou imunní
Inženýr Googlu Blake Lemoine nemluvil oficiálně za společnost, když tvrdil, že chatbot LaMDA od Googlu je vnímavý, ale Lemoinova mylná představa ukazuje rizika navrhování systémů způsobem, který přesvědčuje lidi, že v programu vidí skutečnou, nezávislou inteligenci. Pokud věříme, že stroje generující text jsou vnímavé, jaké kroky bychom mohli podniknout na základě textu, který generují? To vedlo Lemoina k vypuštění tajných přepisů z programu, což způsobilo pozastavení jeho členství v organizaci, píše The Guardian.
Společnost Google se k tomuto typu designu rozhodně přiklání, jak je vidět na ukázce téhož chatbota, kterou v květnu 2021 předvedl generální ředitel společnosti Alphabet Sundar Pichai na konferenci Google I/O, kde přiměl LaMDA, aby promluvil hlasem Pluta a podělil se o některá zábavná fakta o této bývalé planetě. Vzhledem k tomu, že Google plánuje z této technologie udělat základní technologii určenou pro spotřebitele, skutečnost, že jeden z jeho vlastních inženýrů byl oklamán, zdůrazňuje potřebu transparentnosti těchto systémů.

LaMDA (jeho název znamená „jazykový model pro dialogové aplikace“) je příkladem velmi rozsáhlého jazykového modelu neboli počítačového programu vytvořeného k předpovídání pravděpodobných sekvencí slov. Protože je „vycvičen“ na obrovském množství (většinou anglického) textu, dokáže vytvářet zdánlivě souvislé anglické texty na nejrůznější témata. Říkám „zdánlivě souvislý“, protože jediným úkolem počítače je předvídat, která skupina písmen bude následovat, a to stále dokola. Tyto sekvence nabývají smyslu, až když je my, lidé, čteme.
Problém je v tom, že si nemůžeme pomoci. Může se zdát, že když rozumíme řeči jiných lidí, jednoduše dekódujeme zprávy. Ve skutečnosti naše schopnost porozumět komunikačním aktům druhých lidí spočívá v zásadě v tom, že si představujeme jejich úhel pohledu a následně ze slov, která použili, vyvozujeme, co chtějí sdělit. Když se tedy setkáme se zdánlivě souvislým textem pocházejícím ze stroje, použijeme stejný přístup, abychom mu dali smysl: reflexivně si představíme, že slova vytvořila mysl s nějakým komunikačním záměrem.
Joseph Weizenbaum si tohoto efektu všiml v šedesátých letech minulého století u lidí, kteří rozuměli Elize, jeho programu navrženému tak, aby napodoboval rogeriánského psychoterapeuta. Tehdy však bylo fungování programu dostatečně jednoduché na to, aby počítačoví vědci přesně viděli, jak tvoří své odpovědi. V případě LaMDA inženýři rozumí tréninkovému softwaru, ale trénovaný systém zahrnuje účinky zpracování 1,5 bilionu slov textu. V takovém měřítku je nemožné zkontrolovat, jak program vše reprezentoval. Díky tomu se zdá, že má „emergentní chování“ (schopnosti, které nebyly naprogramovány), což může někdo, kdo tomu chce věřit, snadno interpretovat jako důkaz umělé inteligence.
Přístup k LaMDA je zatím omezený, ale vize, kterou Pichai představil minulý rok, počítala s tím, že LaMDA nahradí známé rozhraní webového vyhledávání – v podstatě ji využije jako jakéhosi domovníka, který bude odpovídat na otázky. Jak jsme nedávno s Chiragem Shahem napsali, používání jazykových modelů namísto vyhledávačů poškodí informační gramotnost. Jazykový model syntetizuje slovní řetězce, aby poskytl odpovědi na dotazy, ale nemůže odkázat na informační zdroje. To znamená, že uživatel nemůže tyto zdroje vyhodnotit. Vracení konverzačních odpovědí nás zároveň bude podněcovat k tomu, abychom si představovali mysl tam, kde žádná není.
Společnost Google nám nesdělila žádné podrobnosti o tom, jaká data program používá. Zdá se, že jde z velké části o vyškrabané údaje z webu s omezenou nebo žádnou kontrolou kvality. Systém si z těchto nedokumentovaných dat bude vymýšlet odpovědi, přičemž bude vnímán jako autoritativní.
Zdroj: The Guardian