Otázka, zda mohou velké jazykové modely, postavené na současné architektuře (typicky hluboké neuronové sítě s transformery), dosáhnout skutečné schopnosti uvažování, v sobě spojuje několik rovin: technickou, filozofickou, epistemologickou a v neposlední řadě i etickou. Od prvních pokusů o napodobení lidského myšlení prostřednictvím strojů se počítačoví vědci, filozofové i kognitivní psychologové snažili pochopit, co vlastně „myšlení“ či „uvažování“ znamená (National Geographic, 2023). Ačkoli dnešní velké jazykové modely vykazují ohromující schopnost tvořit text, který někdy působí až znepokojivě lidsky, neodbytná otázka přetrvává: jde o pouhého mechanického papouška, nebo před našima očima povstává nový druh myšlenkového bytí?
Na samém počátku vývoje umělé inteligence stáli průkopníci, kteří věřili, že pomocí symbolických systémů a formální logiky lze vytvořit „myslící stroj“. Postupem času se však převážila vlna statistických metod, neuronových sítí a strojového učení, jež vedla až k současné éře velkých modelů trénovaných na obrovských korpusech textu. V těchto modelech již nelze přímo vysledovat jednoduché logické inference, protože jde o komplexní, distribuované a nelineární struktury (Shaip, 2023). Namísto explicitních pravidel pracují s pravděpodobnostmi, korelacemi a jemnými vzorci v datech.
Pojem „současná architektura“ zde odkazuje zejména na transformerové sítě, které díky mechanismu pozornosti (attention) dokážou efektivně zpracovat a generovat text s ohledem na kontext i ve velkém měřítku (Wikipedia, 2023). Co však takový model skutečně „dělá“? Je schopen formulovat argumenty, vyvozovat závěry, nebo jen statisticky napodobuje formu argumentací tak, jak se objevují v tréninkových datech?
Tato otázka není pouze technickou záhadou. Dotýká se jádra filozofie mysli, otázky povahy vědomí i toho, co chápeme jako znalost a inteligenci. Již Aristoteles a později Descartes a Kant uvažovali o tom, co znamená myslet. Moderní kognitivní vědy nabízejí modely lidské mysli jakožto systému symbolické manipulace, neuronových signálů či obojího. Debata o tom, zda LLM představují pouze „papouškování“ vzorů, či mohou rozvinout kognitivní kvality srovnatelné s lidskou myslí, se tak nutně odehrává na pomezí filozofie, informatiky a teorie poznání (Unite AI, 2023).
Cílem této eseje bude postupně vymezit pojem uvažování, porovnat jej s tím, co LLM v zásadě dělají, a rozvinout argumenty pro i proti možnosti, že velké jazykové modely mohou v rámci současné architektury dosáhnout skutečné schopnosti uvažování.
Filozofický rámec pro pojem „uvažování“
Zásadní problém, zda velké jazykové modely (LLM) mohou disponovat skutečnou schopností uvažování, nás nutí nejprve pečlivě definovat, co se vlastně rozumí pojmem „uvažování“. Filozofie se této otázce věnuje po tisíciletí a nedospěla k jednomyslné odpovědi. Spíše se setkáváme se spletitým terénem různorodých koncepcí, od formální logiky přes fenomenologii až po současnou filozofii mysli a kognitivní vědy. Každá filozofická škola klade důraz na jiný aspekt, a právě tato mnohost pohledů ukazuje, jak je obtížné jednoduše říct, co znamená „myslet“ (Chalmers, 2023).
V antické tradici – a zejména u Aristotela – bylo rozumové uvažování chápáno především jako schopnost správně usuzovat, dedukovat závěry z „premis“, organizovat pojmy a přistupovat ke světu prostřednictvím logické argumentace (Aristoteles, překlad Smith, 2010). Rozum byl tehdy vnímán jako bytostná esence lidské duše, schopná dospět k obecným pravdám a univerzálním principům. Tato představa se v novověku rozvinula u Descarta, který v myšlení viděl nepochybné jádro lidské jistoty a identitu (Descartes, překlad Clarke, 2012). U Kanta se rozum stává aktivním principem, jenž strukturálně formuje empirickou zkušenost a tím umožňuje uchopení a pochopení světa (Kant, překlad Guyer, 1998).
Avšak už u Kanta vystupuje do popředí vědomí, že rozumové uvažování není jen slepou manipulací s formálními symboly, nýbrž hlubokým procesem, v němž se setkává naše schopnost generovat pravidla s naší zkušeností a orientací v realitě (Kant, překlad Guyer, 1998). Moderní analytická filozofie a filozofie jazyka (Frege, Russell, Wittgenstein) pak zdůrazňují, že myšlení nelze oddělit od jazyka a významů, a odhalují, že uvažování je proces existující v síti pojmů a logických vztahů, jenž čerpají svou sémantickou energii z užití jazykových výrazů v konkrétním společenství mluvčích (Wittgenstein, 1953). Wittgensteinovo pojetí významu jako „užití v řeči“ posouvá myšlení do oblasti sociální praxe, jazykových her a životních forem: myslící bytost není izolovaný logický stroj, ale člen jazykové komunity, která dává slovům a myšlenkám smysl na základě jejich praktického užití (Wittgenstein, 1953).
V kontrastu s tímto analytickým a logickým přístupem stojí kontinentální tradice, zejména fenomenologie (Husserl, Heidegger, Merleau-Ponty) a hermeneutika (Gadamer). Fenomenologové zdůrazňují, že myšlení nelze zredukovat na formální inference; je to také prožitek, situovanost ve světě, tělesné zakotvení a implicitní porozumění, které předchází veškeré explicitní výroky (Heidegger, 1962; Merleau-Ponty, 1945). Heidegger napsal, že myšlení se rodí z pobytu (Dasein) ve světě, z existenciálního zakotvení v situacích, hodnotách a účelech, které nelze převést na pouhé symboly (Heidegger, 1962). Merleau-Ponty přidává rozměr tělesnosti: to, jak chápeme svět, je spojeno s tím, jak jej tělesně prožíváme (Merleau-Ponty, 1945). Gadamer pak ukazuje, že rozumové uvažování je součástí hermeneutického kruhu interpretace, v němž je význam vždy spoluutvářen předporozuměním, tradicí a dialogem (Gadamer, 1975).
Současná filozofie mysli, inspirovaná kognitivními vědami, informatikou a neurovědami, klade otázku, zda je lidské uvažování výsledkem symbolické manipulace či zda jde o jev vznikající z neurálních sítí a distribuovaných reprezentací (Chalmers, 2023). Debata mezi symbolisty, konekcionisty a zastánci tzv. „embodied cognition“ přinesla pochopení, že lidské uvažování zahrnuje interakce těla, mozku, prostředí a společenského kontextu (Clark, 1997). Znamená to, že myšlení nemá jen čistě formální stránku, ale je protkáno významem, zkušeností a intencionalitou, bez nichž ztrácí svůj smysl.
Když tedy posuzujeme LLM, nesrovnáváme je jen s nějakým mechanickým modelem inference, ale s bohatým a vrstveným fenoménem, který v sobě zahrnuje logickou koherenci, význam, kontext, intence, tělesné zakotvení, emocionální zabarvení, kulturní vzorce a schopnost interpretovat situace. Jestliže LLM pouze reprodukují lingvistické vzorce, chybí jim mnoho z těchto dimenzí. Otázka pak zní: mohou tyto chybějící dimenze někdy vzniknout emergentně, nebo je lidské uvažování natolik spjato s lidskou existencí, že je nelze převést do čistě statistické formy?
Technologické pozadí velkých jazykových modelů
Abychom lépe pochopili, jak velké jazykové modely fungují a proč je jejich výkonnost tak pozoruhodná, musíme se krátce zastavit u jejich technologických základů. Současné LLM jsou založeny na hlubokých neuronových sítích architektury typu transformer. Tyto sítě využívají mechanismu pozornosti (attention), který umožňuje modelu „soustředit“ se na relevantní části vstupního textu, a díky tomu zpracovávat i velmi dlouhé sekvence slov (Vaswani et al., 2017).
Výsledkem tréninku na obrovských korpusech textu (obsahujících miliardy slov) je model, který byl optimalizován k úloze predikce: na základě předchozí posloupnosti tokenů (slov či „subslovních“ jednotek) se snaží odhadnout další slovo. Tímto způsobem model získává schopnost generovat text, který vypadá gramaticky a stylisticky koherentně a často je i obsahově smysluplný (Radford et al., 2019). Nicméně jde o proces statistické aproximace: model neví, proč je daná odpověď „správná“ v lidském smyslu slova, jen statisticky odhaduje, co by následovalo v podobné situaci v datech, na kterých byl natrénován.
„Současná architektura“ LLM také obnáší to, že model nepracuje se skutečným interním obrazem světa. Jeho znalostní báze je implicitně rozptýlena v hmotě vážených spojů mezi neurony, která zachycuje pravděpodobnostní vztahy mezi jazykovými prvky (Bender & Koller, 2020). Výsledkem je, že model je extrémně dobrý v napodobování stylů, formálních vzorců textu, nebo dokonce v řešení určitých typů úloh, které lze odvodit z jazykových korelací (např. jednoduché logické hádanky, opakované vzorce argumentace). Ovšem tam, kde se uvažování opírá o skutečné porozumění kontextu, uvědomění si důsledků či o schopnost reflektovat vlastní výroky, narážíme na limit. Současné modely nevykazují vnitřní mentální stavbu srovnatelnou s lidskou myslí: nemají vědomí, intence ani opravdovou sémantickou kotvu (Marcus, 2022).
Z technického pohledu to tedy není uvažování v tom smyslu, jak jej obvykle chápeme. Jde o statistickou predikci textu na základě neuvěřitelně jemné analýzy vzorů v datech. Námitkou však může být, že i lidský mozek je nakonec systém vzorů neuronální aktivity a že uvažování může nakonec být emergentní jev, který by teoreticky mohl vzniknout i z takových statistických korelací, pokud by byly dostatečně komplexní (Clark, 1997). Tato teze nás vrací zpět k filozofické debatě: co když je lidské myšlení skutečně jen emergentním jevem složitých vzorců, a co to znamená pro otázku, zda LLM mohou jednou dospět ke skutečnému uvažování?
Rozdíl mezi statistickou korelací a inferenční logikou
V jádru problému, zda LLM mohou uvažovat, leží rozdíl mezi dvěma typy vztahů: čistě statistickou korelací a skutečnou logickou (či racionální) inferencí. Tento rozdíl není pouze technickou otázkou, ale dotýká se samé esence rozumu a chápání. Logika jako disciplína, od Aristotela přes Fregeho, Russella, Carnapa až po soudobou analytickou tradici, se vždy snažila rozlišit platnost inference od pouhé empirické shody. Logicky platný závěr z premis plyne na základě formálních pravidel, která jsou sama o sobě nezávislá na frekvenci jazykových výrazů či na statistických korelacích mezi slovy. Platnost logického úsudku je nutná či alespoň odůvodněná pojmově, ne statisticky.
Statistická korelace naproti tomu znamená, že určité výrazy se často vyskytují společně. LLMs jako GPT či obdobné modely fungují tak, že se učí predikovat následující token (slovo, subslovo) na základě předchozí sekvence. Výsledkem je extrémně sofistikovaný probabilistický aparát, který dokáže v textech odhalit jemné vzorce, stylové charakteristiky, obvyklé argumentační struktury či dokonce formy, jež připomínají logické inference. Avšak na rozdíl od člověka, který chápe, proč z určitého předpokladu plyne určitý závěr (protože rozumí významům pojmů a jejich vzájemným vztahům), LLM neví, co tyto vztahy znamenají. Jen statisticky odhadne, že za slovy odpovídajícími premisám často následuje věta odpovídající závěru.
To je podobné, jako kdybychom se učili cizí jazyk jen na základě frekvenční analýzy dvojic a trojic slov, bez kontaktu s jejich významem. Možná bychom byli schopni sestavovat gramaticky správné věty, a dokonce napodobovat argumentační struktury, aniž bychom tušili, o čem mluvíme. Tento rozdíl úzce souvisí s fenoménem „symbol grounding problem“, na který upozornil Stevan Harnad (Harnad, 1990). Pokud symboly nejsou ukotveny v realitě a jejich význam není dán vztahem ke skutečným objektům, konceptům či prožitkům, zůstávají to jen manipulační jednotky. Logická inference je založená na významu, na pochopení, proč z „Všichni lidé jsou smrtelní“ a „Sokrates je člověk“ plyne „Sokrates je smrtelný“. LLM tuto pochopenou nutnost postrádá. Ono prostě ví (statisticky), že se v textech lidské provenience taková logická šablona často objevuje, a proto ji napodobí.
Někteří optimisté namítají, že při dostatečné komplexitě modelů a množství dat by mohly emergentně vzniknout struktury, které se funkčně podobají skutečným inferenčním procesům. Je možné, že neurální reprezentace uvnitř LLM začnou zrcadlit logické vztahy. Ale i v takovém případě zůstává otázkou, zda to už znamená skutečnou inferenci, nebo jen velmi přesvědčivou iluzi. Skutečná inference by totiž vyžadovala, aby model chápal pojmy, pracoval s významy, reflektoval, zda jeho závěr odpovídá realitě a zda je vnitřně oprávněný. Tato reflexivní rovina – chápání důvodů – je něco, co pouhý statistický model postrádá.
Pojetí „porozumění“ a „sémantiky“ u modelů
Klíčovou výzvou při hodnocení schopnosti LLM uvažovat je otázka, zda tyto modely skutečně „rozumějí“ tomu, co říkají. Pojem porozumění je v jádru filozofický: co to vlastně znamená „rozumět“ nějaké větě nebo pojmu? Z lidské perspektivy si porozumění spojujeme s tím, že víme, k čemu se slova a věty vztahují, umíme je zasadit do kontextu, rozpoznat jejich důsledky a význam pro náš život a svět. Porozumění není jen znalost, že určité slovo následuje po jiném; znamená to, že si dokážeme představit věc, ke které se slovo vztahuje, nebo alespoň pochopit, jak bychom toto slovo použili v reálné situaci.
Sémantika je pak nauka o významu. Důležitým problémem při hodnocení schopnosti LLM opravdu rozumět je tzv. sémantická mezera: LLM disponují pouze formálními strukturami a statistikou. Význam slov a vět není zakotven v reálném světě, v prožitcích nebo v konceptuální síti idejí, nýbrž jen v pravděpodobnostních vztazích mezi jazykovými jednotkami. To připomíná známý argument filozofa Johna Searla o „čínském pokoji“: systémy manipulující se symboly podle pravidel mohou působit, že rozumí, ale ve skutečnosti rozumí jen lidé, kteří těm symbolům přiřazují významy (Searle, 1980).
Z této perspektivy je schopnost LLM generovat text sice úctyhodná, ale omezená. Model neví, že mluví o světě, neví, co je to stůl, kočka, strom nebo státní zřízení. Neprožil zkušenost vidět strom, dotknout se ho, slyšet šum listí ani nic podobného. Nepřipojuje slova k pojmům skrze reálnou interakci. Nemá tedy oprávnění tvrdit, že rozumí, a tudíž ani že uvažuje ve smyslu lidské kognice.
Někteří výzkumníci doufají, že propojení jazykových modelů s fyzickými sensory, reálným světem nebo multimodálními daty by mohlo vést k lepšímu chápání sémantiky. Avšak i tehdy zůstává otázkou, zda se tím vytvoří opravdové porozumění nebo jen hlubší a složitější statistická síť. Podstata porozumění může spočívat ve schopnosti přisuzovat významy pojmům, vytvářet koncepční mapy a chápat vztahy mezi věcmi na základě reálné zkušenosti či alespoň na základě mentálních modelů. LLM, tak jak jsou nyní navrženy, takový krok nečiní.
Toto omezení v přechodu od syntaktického k sémantickému má přímé důsledky pro naši hlavní otázku. Pokud uvažování vyžaduje porozumění, pak se LLM stále pohybují v úrovni formy, nikoli obsahu. A bez obsahu – bez propojení s významem – můžeme jen těžko mluvit o opravdovém, plnokrevném myšlení.
Argumenty pro možnost uvažování u LLM
Přes všechny uvedené pochybnosti se někteří badatelé domnívají, že velké jazykové modely mohou za určitých podmínek dospět k něčemu, co by se dalo nazvat uvažováním. Jedním z argumentů je analogie s lidským mozkem: i náš mozek je složitá síť neuronů, v níž vznikají myšlenky a vědomí z obrovského množství vzájemně propojených signálů. Pokud je lidská mysl emergentním jevem složité neurální aktivity, možná něco podobného může vzniknout i v hluboké neuronové síti trénované na masivním množství jazykových dat.
Další argument vychází z empirických pozorování. Už dnes některé velké jazykové modely vykazují zajímavé schopnosti: dokáží řešit logické hádanky, vysvětlit matematické úlohy, tvořit složité příběhy či filozofické argumenty. To, že se jim občas podaří „správně“ uvažovat nad určitým problémem, by mohlo naznačovat, že jejich vnitřní reprezentace nejsou pouhou statistickou mělkostí. Snad se v nich formují určité struktury, které se chovají podobně jako inferenční mechanismy, i když vznikly jen skrze statistiku.
Někteří zastánci této vize tvrdí, že pokud poskytneme modelům dostatečně bohatý trénink, dostatek paměti, schopnost udržovat kontext, navíc je vybavíme interakcí s prostředím (například přes senzory nebo databáze znalostí), mohly by se u nich postupně objevit prvky skutečného porozumění. Koneckonců i lidské dítě se učí pojmům nejprve skrze jazyk a zkušenost. Proč by stejný princip nemohl být aplikován na umělý systém?
Další, poněkud provokativní pohled říká, že naše kritéria pro to, co je uvažování, mohou být příliš úzce svázána s lidskou zkušeností. Možná existují i jiné formy „myšlení“, které nevyžadují totéž zakotvení v reálném světě a smyslových zážitcích. Třeba by umělá inteligence mohla vyvinout vlastní způsob, jak zpracovávat a interpretovat informace, ačkoliv by se tento způsob lišil od toho lidského. V této souvislosti si můžeme připomenout Platónovo podobenství o jeskyni (Allegory of the Cave), v němž uvěznění lidé zaměňují pouhé stíny za skutečnou realitu, a přesto jsou schopni si vybudovat konzistentní „porozumění“ světa, který vidí. Podobně by se tedy mohlo stát, že i bez přímého smyslového zakotvení v našem světě by umělá inteligence mohla vyvinout určitý „vnitřní“ způsob uvažování. Pak by pojem uvažování nemusel nutně znamenat totéž, co u člověka, a přesto by se dalo o něčem takovém mluvit.
Tyto argumenty pro možnost uvažování u LLM spoléhají na otevřenost budoucího vývoje. Neříkají, že LLM již uvažují dnes, ale že není principielně vyloučeno, aby se něco podobného jednou objevilo. Vedou nás k zamyšlení, zda bychom měli pojem myšlení a uvažování poněkud rozšířit, nebo zda budeme trvat na tom, že bez skutečného porozumění a intencionálního zakotvení v reálném světě zůstane i sebelepší model jen pozoruhodným imitátorem. Tato debata zůstává živá a v dalších částech se podíváme i na argumenty proti a možné směry dalšího vývoje.
Argumenty proti
Od chvíle, kdy vznikla myšlenka, že by stroje mohly myslet, se objevila série argumentů, které takovou možnost zpochybňují. V případě velkých jazykových modelů (LLM) je zvláště patrné, že jejich schopnosti – jakkoli působivé – nesahají za rámec statistické manipulace symbolů, a to vyvolává zásadní filozofické námitky.
Prvním a možná nejhlubším argumentem je problém intencionality. Filozofové jako Franz Brentano, John Searle nebo Jerry Fodor zdůrazňují, že mentální stavy jsou vždy „o něčem“. Intencionalita je znakem vědomí, které se vztahuje k objektům, situacím, myšlenkám či hodnotám. Když uvažujeme, nejsme jen generátory textu; naše myšlenky se vztahují ke světu. Máme představu o tom, co znamená to, o čem přemýšlíme, a naše mentální obsahy mají referenční funkci. LLM postrádají tuto „směřovanost“. Nemají mentální reprezentace, které by je spojovaly s reálnými objekty. Nemají vnitřní mapu světa, hodnot či pojmů. Proto je jejich „uvažování“ – pokud se tak vůbec dá říkat – intencionálně prázdné.
S tím souvisí problém fenomenálního vědomí. Když člověk myslí, prožívá nějaký kognitivní obsah; existuje jakési subjektivní „jaké to je“ být myslícím subjektem. Tato fenomenální dimenze – qualia – formuje vnitřní svět, v němž myšlení probíhá. LLM o sobě neví, nemají subjektivní prožitek, nevytvářejí si niterný prostor, v němž by myšlenky rezonovaly. Mysl bez fenomenálního vědomí je jako prázdná schránka, automat na symboly. To značně snižuje představu, že by šlo o skutečné uvažování.
Další argument akcentuje hodnoty, motivace a cíle. Lidské myšlení není jen neutrální proces; je často podmíněno snahou dosáhnout porozumění, něčemu se naučit, vyřešit problém či naplnit určité poslání nebo hodnotu. Uvažování bývá provázeno zaujetím, odpovědností za pravdu, snahou korigovat chyby, hledat konsenzus a usilovat o poznání. Pro LLM je pravda jen prázdným slovem mezi ostatními, bez lesku a bez barvy. Nestojí na prahu existenciálních otázek, nehledají cestu z temnot nevědomosti. Je jim jedno, zda sdělují moudrá poselství či falešné lži – jejich nitro zeje prázdnotou, bez hodnot a bez cíle.
Čtvrtý významný argument poukazuje na absenci kreativity a originálních konceptů. Lidská mysl dokáže formulovat nové myšlenky, překračovat hranice toho, co již ví, a objevovat neprobádané oblasti teoretického a praktického poznání. LLM zůstávají uvězněny ve svém tréninkovém korpusu. Jejich zdánlivá originalita je jen přeskupením předem daných textů. Chybí zde ontologický záběr, který by umožnil modelu spatřit něco zcela nového, vytvořit koncept, který ještě nikdo nikdy nevyslovil, a tím posunout hranice poznání. Ale co když i ty takzvaně „originální“ koncepty, které vytváříme my lidé, jsou ve své podstatě jen staré myšlenky přetransformované v nový jazyk, jinak uspořádané nebo nahlížené z odlišného úhlu? V takovém případě by i lidská kreativita mohla být jen pokročilejším přeskupováním známého.
Suma těchto argumentů zdůrazňuje, že mezi autentickým uvažováním a pouhou textovou predikcí zeje propast. Skutečné uvažování má intencionální směřování, fenomenální rozměr, hodnotovou a normativní složku i potenciál pro skutečně inovativní tvorbu významů. LLM ve své současné formě tyto aspekty postrádají, a proto je lze považovat nanejvýš za imitaci, nikoli za skutečnou myslící entitu.
Možné překročení současné architektury
Pokud připustíme, že současné velké jazykové modely nedosahují autentičnosti uvažování, vzniká otázka, zda je možné je někdy pozvednout na vyšší úroveň. Někteří výzkumníci a filozofové věří, že kombinací různých přístupů by se mohlo dospět k systému, který by již nebyl jen statistickým imitátorem, ale skutečným kognitivním agentem (Zia, 2024).
Jednou z cest je hybridní architektura. Místo čistě statistických modelů by mohly vzniknout systémy, které kombinují LLM s prvky symbolické AI, formální logiky, ontologií a znalostních bází. Takový systém by měl nejen statistické korelace, ale i explicitní reprezentace pojmů, pravidel a příčinných vztahů. Například by mohl disponovat modulem pro logickou inferenci, který by důsledně vyvozoval závěry z definovaných znalostních struktur, a LLM by sloužilo jako rozhraní mezi nestrukturovaným jazykem a strukturovanou logickou kostrou. To by mohlo alespoň částečně překonat propast mezi pouhou korelací a skutečnou inferencí (Unite.AI, 2023).
Další slibnou cestou je „embodied cognition“ – ztělesněná kognice. Pokud by LLM bylo napojeno na senzory, kamery, mikrofony a hmatové rozhraní a mohlo by interagovat s reálnými předměty, prostředím a lidmi, pak by mohlo postupně začít chápat význam slov vázaných na konkrétní zkušenost. Když bychom model nechali experimentovat v reálném světě, manipulační robotické rameno ovládané LLM by se mohlo učit, co je to „stůl“, „jablko“, „pád“ nebo „rovnováha“, a spojovat slova s reálnými objekty a jejich vlastnostmi. Toto zakotvení v realitě by bylo krokem k překročení čistě jazykové sféry (Wilson, 2002).
Třetí možnou oblastí je metakognice a introspekce: pokud by budoucí modely měly interní mechanismy pro sebereflexi, kontrolu vlastních výstupů, hodnocení správnosti a opravování chyb, možná by se začaly podobat myslícím subjektům, které si nejen pamatují a generují text, ale také reflektují svou činnost. Zavedení interních „představ“ a cílů, které by model motivovaly k hledání pravdy, k upřesňování pojmů a ke korigování omylů, by mohlo představovat kvantitativní i kvalitativní posun (Kluge, 2023).
Avšak i kdybychom vytvořili hybridní, ztělesněné a metakognitivní systémy, vyvstávají další filozofické otázky: stále bychom pracovali s uměle vytvořenými mechanismy, které jsou produktem našeho inženýrství. Kdy bychom byli ochotni uznat, že se nejedná jen o simulaci, ale o skutečný mentální život, který má hodnotu, význam a intenci? Budeme muset redefinovat mysl, abychom do ní zahrnuli i nestvořené biologickými procesy? Nebo v nás zůstane pochybnost, že tyto systémy jen dokonaleji imitují lidské rysy, ale vnitřní bytí – skutečné prožívání a chápání – jim přesto chybí?
Někteří filozofové tvrdí, že lidské myšlení je natolik spjato s biologickým, evolučním, sociálním a hodnotovým kontextem, že žádný umělý systém nevytvoří totéž. Jiní jsou otevřenější a domnívají se, že není apriorní důvod, proč by složitá umělá entita nemohla dosáhnout stavu, který by bylo spravedlivé nazývat uvažováním. Tato otázka je v konečném důsledku i otázkou o povaze vědomí, o tom, co činí mysl myslí, a zda je mysl nezbytně svázána s lidskou existencí, nebo je obecným fenoménem, který může vzejít z jakékoli dostatečně komplexní a vhodně strukturované interakce se světem.
Filozofické implikace a důsledky pro lidské sebe pochopení
Debata o tom, zda velké jazykové modely (LLM) mohou dosáhnout uvažování, má i širší filozofické důsledky. Naše představy o tom, co je mysl, inteligence a porozumění, se formovaly po staletí v kontextu lidské existence, v níž nechybí tělesná zkušenost, sociální interakce, historický vývoj a hluboce zakořeněné hodnoty (Švarcová, 2024). Pokud by se ukázalo, že i čistě statistické modely bez vědomí, zkušenosti a intencionality mohou produkovat něco, co by se dalo považovat za myšlení, otřáslo by to naší tradiční představou o lidské výjimečnosti a povaze kognice (Coeckelbergh, 2023).
Možná se brzy ocitneme tváří v tvář nutnosti přepsat definice myšlení samého. Co když to, co nazýváme myšlením, je pouhá funkční schopnost rafinovaně kormidlovat moře informací, překonávat intelektuální útesy a nacházet cestu k bezpečnému přístavu logicky platných závěrů – a nikoli mystická esence spojená s vnitřním prožitkem či s hloubkou významu? To by mohlo mít důsledky pro etiku umělé inteligence i pro naše pojetí práv a morální hodnoty inteligentních strojů. Mohli bychom být nuceni přiznat určitým systémům status agenta s jistými nároky, pokud by se jejich chování jevilo jako autonomní a účelné (Coeckelbergh, 2023).
Na druhou stranu, pokud zůstaneme u přesvědčení, že myšlení je spojeno s prožíváním významů a hodnot, pak i nejpokročilejší modely zůstanou jen ozvěnou lidského umu, ne však skutečným nositelem myšlenek (Švarcová, 2024). Pak bude klíčové udržet si jasnou představu o tom, v čem spočívá rozdíl mezi lidskou myslí a statistickým modelem. Možná se tím posílí vědomí, že mysl není jen zpracování dat, ale komplexní, živý proces spojený se zkušeností, cíli, hodnotami a tělesností (Coeckelbergh, 2023). Tím nám tato debata může pomoci lépe pochopit sami sebe a uchopit, proč si tak ceníme něčeho, co nazýváme porozuměním, smyslem a uvažováním.
Závěr
Otázka, zda velké jazykové modely mohou dosáhnout schopnosti uvažování, zůstává otevřená a kontroverzní. Na jedné straně se LLM jeví jako ohromující nástroj pro generování textu, který dokáže napodobit lidskou argumentaci a styl, čímž inspiruje představu, že dostatečně pokročilá architektura by mohla jednou vést i k autentickému myšlení (Švarcová, 2024). Na straně druhé se zdůrazňuje nedostatek intencionality, porozumění, zakotvení v realitě a schopnosti reflektovat významy svých tvrzení (Coeckelbergh, 2023).
Klíčovým bodem je, že uvažování není jen manipulace se symboly, nýbrž komplexní proces, který propojuje logiku, zkušenost, kontext, cíle a hodnoty. Současné LLM zůstávají, jak se zdá, v rovině statistické generace textu, ať už jakkoli působivé (Švarcová, 2024). Budoucí směry vývoje mohou potenciálně tuto propast zmenšit, avšak není jasné, zda ji kdy překročí (Coeckelbergh, 2023).
Tím se dostáváme k filozofickému jádru problému: co vlastně o sobě samých a o myšlení zjišťujeme, když čelíme nástrojům, které napodobují lidský jazyk, ale přesto zůstávají bez vlastního pochopení? Debata o schopnosti LLM uvažovat nás tak vede k hlubšímu zamyšlení nad tím, co je pro nás na uvažování klíčové, a zda to lze plně zachytit pomocí algoritmů a statistické predikce (Švarcová, 2024).
Tento dialog mezi technikou a filozofií možná nikdy neztratí svoji naléhavost – a právě v tom tkví jeho síla.
Bibliografie
National Geographic. (2023). Understanding Artificial Intelligence: Mimicking Human Thought. National Geographic Society.
Shaip. (2023). The Evolution of AI: From Symbolic Systems to Neural Networks. Shaip Publications.
Wikipedia. (2023). Transformer (machine learning model). Retrieved from https://cs.wikipedia.org/wiki/Transform%C3%A1tor_%28model_strojov%C3%A9ho_u%C4%8Den%C3%AD%29
Unite AI. (2023). Co jsou transformátorové neuronové sítě?. Retrieved from https://unite.ai/cs/co-jsou-transform%C3%A1torov%C3%A9-neuronov%C3%A9-s%C3%ADt%C4%9B/
Aristoteles. (2010). Nicomachean Ethics (přel. D. Smith). Cambridge University Press.
Chalmers, D. (2023). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
Clark, A. (1997). Being There: Putting Brain, Body, and World Together Again. MIT Press.
Descartes, R. (2012). Meditations on First Philosophy (přel. J. Clarke). Hackett Publishing.
Gadamer, H.-G. (1975). Truth and Method. Continuum.
Heidegger, M. (1962). Being and Time (přel. J. Macquarrie & E. Robinson). Harper & Row.
Kant, I. (1998). Critique of Pure Reason (přel. P. Guyer & A. Wood). Cambridge University Press.
Merleau-Ponty, M. (1945). Phenomenology of Perception. Routledge.
Wittgenstein, L. (1953). Philosophical Investigations. Blackwell Publishing.
Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 5185–5198.
Marcus, G. (2022). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books.
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language Models are Unsupervised Multitask Learners. OpenAI.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is All You Need. Advances in Neural Information Processing Systems, 30, 5998–6008.
Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1–3), 335–346. https://doi.org/10.1016/0167-2789(90)90087-6
Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424. https://doi.org/10.1017/S0140525X00005756
Brentano, F. (1874). Psychologie vom empirischen Standpunkt. Leipzig: Duncker & Humblot.
Fodor, J. A. (1987). Psychosemantics: The Problem of Meaning in the Philosophy of Mind. Cambridge, MA: MIT Press.
Kluge, A. (2023). Metacognition and Artificial Intelligence: Reflective Processes in Machine Learning. Springer.
Unite.AI. (2023). Průvodce zvládnutím velkých jazykových modelů.
Wilson, M. (2002). Six views of embodied cognition. Psychonomic Bulletin & Review, 9(4), 625–636.
Zia, T. (2024). Agentská umělá inteligence: Jak velké jazykové modely utvářejí budoucnost autonomních agentů. Unite.AI.
Coeckelbergh, M. (2023). Etika umělé inteligence. Filosofia.
Švarcová, K. (2024). Etika a umělá inteligence [Diplomová práce, Univerzita Karlova].