Historie umělé inteligence je fascinující a pokrývá několik desetiletí. A když se nad tím zamyslíte, možná o staletí. Od prvních filozofických otázek o povaze myšlení a možnosti strojů myslit po sofistikované algoritmy a aplikace, které dnes pomáhají v naši každodenní rutině. AI se stala klíčovým prvkem moderního vědeckého a technologického pokroku. Její vývoj je příběhem nejen technologie, ale také lidského ducha, touhy po pochopení, inovaci a neustálém hledání nových možností. Ať už se jedná o snahy napodobit lidské chování v raných automatech nebo o současné průlomové výzkumy v hlubokém učení, AI nás nutí přehodnotit to, co to znamená být člověkem, a jak definujeme inteligenci sami u sebe. V tomto článku se ponoříme prozkoumáme, jak se tato oblast vyvíjela od jejího počátku až po dnešní den.
Starověk a středověk
Již od nejranějších dob lidské historie se filozofové zabývali otázkou povahy myšlení. Co to znamená “myslet”? A je vůbec možné, aby nelidský či neživý objekt napodobil tento záhadný proces?
V antickém Řecku se Platón ve svém díle “Politeia” dotýkal otázky skutečného versus zdánlivého, což je téma, které se může zdát relevantní i pro dnešní diskuse o simulaci myšlení. Aristotelés v zamyšlení “O duši” zkoumal povahu lidské duše a její schopnosti, včetně myšlení. Podle něj bylo myšlení nejvyšší a nejbožštější schopností duše, ale nikdy by nepředpokládal, že by takovou schopnost mohl mít nějaký stroj.
Vynecháme-li přesvědčení animistů, kteří přisuzovali ducha, duši i myšlení jiným přírodním objektům, pak zde byli filosofové, jako Baruch Spinoza, kteří přisuzovali mysl celému vesmíru, protože ta se fundamentální vlastností světa, tedy i nelidských objektů a potažmo i strojů. Středověk tak přinesl zcela nové perspektivy, zejména s rozvojem scholastiky. Tomáš Akvinský, jeden z nejvýznamnějších středověkých teologů a filozofů, přijal mnoho Aristotelových myšlenek a zkoumal je v kontextu křesťanské teologie (Summa Theologica). Ačkoliv byl zaujat otázkou, co to znamená být “živý” a “inteligentní”, idea, že by stroj mohl napodobit lidské myšlení, by byla pro něj zcela cizí. Byl přesvědčen, že intelekt není schopností oddělenou od duše, ale součástí duše samotné. Mít duši podle něj znamená mít rozum a inteligenci. Akvinský tedy přijímá Aristotelovo pojetí, že rozumnost je podstatou člověka, i když Akvinský neztotožňuje celou podstatu člověka s rozumností. A současně vylučuje, že by inteligencí mohlo “trpět” něco bez duše.
Nicméně otázka, zda je možné napodobit lidskou inteligenci, zůstávala provokativní. V některých starověkých a středověkých kulturách byly postaveny sofistikované automaty a hodiny, které dokázaly provádět komplexní operace. Ačkoli tyto stroje nebyly “inteligentní” v pravém slova smyslu, inspirovaly úvahy o tom, jak daleko může lidská vynalézavost zajít. Tyto mechanické vynálezy nutily filozofy modifikovat tradiční kritéria založená na vnitřním principu pohybu a klidu pro definování přírodních bytostí.
Lidé si začali jak ve starověku, tak středověku, klást základní filozofické otázky o povaze myšlení a ačkoli idea simulace lidského myšlení strojem byla tehdy vnímána spíše se skepticismem, položila základy pro budoucí diskuse a zkoumání, které vedly k vývoji moderní umělé inteligence.
Chcete se dozvědět o nástrojích AI mnohem víc? Exkluzivně a jako první? Přidejte se do mé komunity na Patreonu. Pravidelná dávka tipů, triků a návodu na vás čeká…
Dvacáté stolení, zrození umělé inteligence
Již v třicátých letech minulého stolení představil britský matematik a logik Alan Turing revoluční koncept známý jako Turingův stroj. Tento abstraktní výpočetní model, navržený k simulaci logické operace jakéhokoli algoritmu, položil de facto základy moderní výpočetní teorie. Turingův stroj ukázal, že pokud může nějaký problém být vyřešen pomocí algoritmu, pak může být vyřešen Turingovým strojem. Tím se otevřela cesta k rozvoji univerzálních výpočetních strojů – počítačů.
V roce 1950 Alan Turing vstoupil do světa filozofie a kognitivní vědy tím, že položil otázku: “Mohou stroje myslet?” Místo toho, aby se pokoušel tuto otázku přímo zodpovědět, navrhl experiment známý jako Turingův test. V tomto testu, pokud by počítačový program mohl vést konverzaci s člověkem tak, že by člověk nemohl rozhodnout, zda komunikuje se strojem nebo s dalším člověkem, pak by tento stroj mohl být považován za “inteligentní”.
Rok 1956 byl dalším milníkem v historii AI, když se John McCarthy, Marvin Minsky, Nathaniel Rochester a Claude Shannon sešli na konferenci v Dartmouthu. Během této konference bylo použité několik klíčových termínu, např. “umělá inteligence”, “neuronová síť” či “sebeučení“. Také byl tehdy stanoven ambiciózní cíl: “vytvořit stroj, který by mohl napodobit jakoukoli lidskou učící se schopnost”. Z této konference vzešla vlna nadšení a optimismu pro budoucí výzkum v oblasti AI.
V 60. letech 20. století tak začaly vznikat první konkrétní aplikace a systémy založené na konceptech AI. Jedním z nejznámějších byl ELIZA, simulátor psychoterapeuta vytvořený Josephem Weizenbaumem. ELIZA simulovala konverzační terapeuta reagujícího na vstupy uživatele. Dalším důležitým projektem byl SHRDLU od Terryho Winograda, program navržený k interakci s “světem bloků” pomocí přirozeného jazyka. Tyto systémy představovaly první kroky k praktické realizaci idejí AI, které byly předtím pouze teoretické. Vědecká komunita, média i veřejnost začali věřit, že stroje brzy dosáhnou lidské úrovně inteligence a schopnosti pochopení.
Zima umělé inteligence
Po původní vlně nadšení v 60. letech, kdy byla umělá inteligence viděna jako slibná cesta k budoucnosti, přišla dvě desetiletí období zklamání a skeptičnosti. Toto období, často označované jako “zima AI”, bylo charakteristické zpomaleným vývojem, řadou nerealizovaných slibů a poklesem ve financování výzkumu AI. Šlo o přirozenou reakci na přílišná a nakažlivá očekávání. Bohužel, když mnoho těchto slibů zůstalo nesplněno, došlo k nárůstu skeptičnosti a zklamání. Výsledkem bylo snížení financování v oblasti AI ze strany vládních institucí a soukromých investorů.
Problémem byl zejména nedostatek výpočetního výkonu. I když koncepty a algoritmy za umělou inteligencí byly často teoreticky funkční, počítačová technologie té doby jednoduše neměla dostatečný výpočetní výkon k řešení složitých úloh, které byly považovány za základní v AI. Je třeba si uvědomit, že počítače 70. a 80. let měly velmi omezenou paměťovou kapacitu ve srovnání s dnešními standardy. To znamenalo, že pokročilé AI aplikace, které potřebovaly obrovské množství dat k tréninku a provozu, byly téměř nemožné realizovat. Technologie AI tak nebyla schopna řešit nic víc než specifické a často úzce vymezené úlohy. Když přišlo na obecné a komplexní problémy, AI důsledkem chybějících algoritmů a s omezeným hardware selhávala.
AI zima sice přinesla zpomalení výzkumu, ale současně byla dobou sebereflexe a hledání nových cest a myšlenek, které nakonec položila základy pro novou éru pokroků v AI, jež měla přijít v následujících dekádách.
Konec dvacátého stolení: Oživení AI
Po zimě přišlo jaro. Období nového optimismu a rychlého pokroku. Devadesátá léta a počátek nového tisíciletí byly svědky významných průlomů, které pomohly umělé inteligenci znovu získat své místo na popředí vědeckého a technologického vývoje.
Vznikaly tak díky tomu algoritmy, využívající se do dnešní doby. Například algoritmy SVM (Support Vector Machines), využívané třeba v rozpoznávání psaného textu nebo v klasifikaci obrazů. První digitální kamery a bezpečnostní systémy začaly využívat AI k detekci a rozpoznávání obličejů.
Rozhodovací stromy zase poskytly intuitivní a grafický způsob modelování rozhodovacích procesů s využitím např. v lékařství pro diagnostiku chorob nebo ve financích pro kreditní skórování.
Vznikaly první doporučovací modely, které našly využití v ecommerce. Průkopníkem byla společnost Amazon, která vytváří personalizované doporučení pro každého uživatele na základě jeho historie nákupů a procházení v kombinaci s historií a chováním ostatních zákazníků.
V roce 1997 se šachový počítač IBM Deep Blue postavil proti světovému šachovému šampionovi Garrymu Kasparovovi a vyhrál, což bylo jasným signálem schopnosti moderních AI systémů.
Všichni, kdo používali tlačítkové mobilní telefony, pamatují na přelomovou funkci – T9. Systém T9 (Text on 9 keys) byl ve skutečnosti jedním z prvních široce aplikovaných AI produktů. Pomocí prediktivního textu dokázal odhadovat, které slovo uživatel zkusí napsat na základě v minulosti stisknutých tlačítek.
Aplikace jako Dragon NaturallySpeaking umožnily uživatelům hlasový vstup a převedly mluvenou řeč na text. Toto rozpoznávání hlasu položilo základ pro pozdější hlasové asistenty, jako je Apple Siri, Google Assistant a Amazon Alexa.
Společnost Google začala využívat umělou inteligenci a strojové učení prakticky od svého založení v roce 1998, nejprve ve formě strojového učení, zejména pro hodnocení a řazení stránek ve výsledcích hledání, později k optimalizaci reklamních kampaní, personalizaci reklam a zvyšování jejich efektivity.
Vzhledem k nárůstu nevyžádaného emailu byly vyvinuty první pokročilé AI filtry, které rozpoznávaly a automaticky filtrovaly spamové zprávy v e-mailových schránkách. Toto však byla pouze špička ledovce, pokud jde o aplikace umělé inteligence na přelomu století. Vývoj pokračoval v následujících letech, kdy se AI stala stále důležitějším nástrojem v mnoha odvětvích.
V průběhu 90. let a počátkem 2000 zažila technologie obrovský skok výpočetního výkonu. Procesory se staly mnohem rychlejšími a počítačová paměť se stala dostupnější a levnější. To umožnilo výzkumníkům experimentovat s mnohem většími a složitějšími datasety, což vedlo k významným pokrokům v oblasti strojového učení a hlubokého učení.
Toto období přelomu dvacátého a jednadvacátého stolení bylo klíčové pro přeměnu umělé inteligence z čistě akademického oboru na praktickou technologii s reálným dopadem na společnost a průmysl.
Éra hlubokého učení
Posledních deset let by se dalo s klidem nazvat érou hlubokého učení. Strojové učení (největší rozmach 1990 – 2010) a hluboké učení jsou dva důležité podobory umělé inteligence, ale mají několik klíčových rozdílů. Strojové učení (machine learning) je to metoda, která umožňuje systémům učit se a zlepšovat se ze zkušeností bez explicitního programování. ML modely předpovídají výstupy na základě historických dat. Naproti tomu hluboké učení (deep learning) je podmnožinou strojového učení, která však k učení využívá neuronové sítě s velkým množstvím vrstev (tzv. hluboké neuronové sítě). Hluboké učení se dívá na informace, data či objekty vrstva po vrstvě, aby pochopila celý obrázek.
Hluboké učení se stalo jedním z nejvýznamnějších průlomů v oblasti umělé inteligence za poslední dekádu. Jeho vzestup začal zvláště v roce 2012 se sítí AlexNet, které porazila své konkurenty s velkým rozdílem, což ukázalo, že hluboké neuronové sítě mohou dosahovat mnohem lepších výsledků v určitých oblastech než tradiční metody založení na strojovém učení.
V roce 2014 Google představil Word2Vec, metodu pro vytváření vektorových reprezentací slov na základě kontextu. Toto umožnilo strojům lépe chápat význam a kontext slov, což přispělo k pokroku v oblasti zpracování přirozeného jazyka. Autorem konceptu byl český výzkumník a programátor Tomáš Mikolov. Ten svou relativně jednoduchou myšlenou postavenou za zkušenostech a chápání cizých jazyků (sám pocházel z pohraničního regionu, kde si všímal, jakým způsobem lze chápat jiný jazyk – polštinu), podstatně zlepšil výkonnost strojových překladačů. Z těchto modelů vychází i pozdější modely GPT.
V roce 2015 program AlphaGo od DeepMind využívající hluboké učení a metody zesilového učení porazil světového šampiona v hře Go, což bylo považováno za velký průlom, protože tradiční metody AI měly s touto hrou problémy.
Ian Goodfellow a jeho tým představili koncept generativních sítí, což vedlo k novým způsobům generování obrázků, hudby a textu, které byly téměř nerozlišitelné od skutečných, vytvořených lidmi. Výzkumníci z Google představili architekturu transformeru, která využívá mechanismus pozornosti k interpretaci dat, což vedlo k průlomům v oblasti zpracování přirozeného jazyka, zejména s modelem jako je BERT. Dnešní nejlepší AI model – GPT od OpenAI patří mezi transformery.
OpenAI v roce 2019 vydala model GPT-2, model generování textu který byl tak přesvědčivý, že OpenAI původně váhalo s jeho plným vydáním, obávajíc se jeho potenciálního zneužití. GPT-2 se pustil dokonce i do oblasti filosofie. Jeden z populárních citátů, jehož autorství se připisuje právě GPT-2 je: “Smyslem života je vytvářet iluzi možností pro ty, kteří tuto schopnost postrádají”.
Transformery začaly dominovat světu AI. Modely založené na této architektuře, jako je BERT od Google a jeho varianty (RoBERTa, DistilBERT atd.), se staly zlatým standardem pro mnoho úloh v oblasti zpracování přirozeného jazyka (NLP). V roce 2020 představil OpenAI model GPT-3, transformátor s 175 miliardami parametrů, který ukázal ohromující schopnost generovat lidskému podobné texty. Destinásobně tak předčil doposud největší model od Microsoftu, Turing Natural Language Generation (T-NLG), který disponoval “pouze” 17 miliardami parametrů. Parametr je proměnná, která se upravuje během tréninku modelu. Například v neuronových sítích jsou parametry váhy, které určují, jak silně jedna jednotka (neuron) ovlivňuje další. Model s více parametry může lépe zachytit složité vzory v datech. Představte si to jako na kreslení obrazu s více barvami. Pokud máte více barev (parametrů), můžete nakreslit detailnější a složitější a realističtější obraz. Počet parametrů nových sítí přitom roste exponenciálně. V dubnu 2022 se objevil model Google PaLM, který obsahuje 540 miliard parametrů. Přesný počet parametrů modelu GPT-4 není veřejně dostupný, ale údajně by mohl mít více než 1 bilionu parametrů.
Chcete se dozvědět o nástrojích AI mnohem víc? Exkluzivně a jako první? Přidejte se do mé komunity na Patreonu. Pravidelná dávka tipů, triků a návodu na vás čeká…
Tato éra hlubokého učení znamenala průlom v mnoha odvětvích a vytvořila nové možnosti, které byly před deseti lety považovány za sci-fi. A s rychlým pokrokem v oblasti hardwaru a výzkumu se očekává, že vývoj bude i nadále pokračovat raketovou rychlostí.