Ještě dva roky zpět jsme mluvili o umělé inteligenci jako o nejslibnějším spojenci v kybernetické bezpečnosti. Umožňovala detekci hrozeb v reálném čase, analyzovala obrovské objemy síťového provozu a pomáhala bezpečnostním týmům pochopit útoky, které by jinak zůstaly skryté. Dnes už víme, že umělá inteligence, kterou jsme používali na obranu, se dá s minimálními úpravami postavit na druhou stranu barikády.
A nejen že se dá. Ona tam už stojí.
Aktuální studie Google ukazují, že generativní modely, jako jsou ty, které píšou e-maily, shrnují schůzky nebo generují kód podle přání vývojáře, se stále častěji objevují v rukou útočníků. A to nejen jako pasivní pomocníci, ale jako nástroje, které přímo píší malware, vytvářejí přesvědčivé phishingové kampaně, nebo analyzují infrastrukturu cílové organizace rychleji než kdykoliv předtím.
Jeden z případů, který znepokojil i interní bezpečnostní týmy Gmailu, zahrnoval zcela automatizovanou exfiltraci dat z kompromitovaného Gmail účtu. Útočníci použili jazykový model k vytvoření skriptů, které se připojovaly ke schránce, systematicky scrapovali a vyhledávaly důvěrné e-maily podle obsahu, třídy a příloh, a následně automaticky kopírovaly vše do vzdáleného úložiště. Bez toho, aby si toho bezpečnostní mechanismy Google všimly. Nebylo třeba člověka. Nešlo o masový útok, ale chirurgicky přesný výpad proti konkrétní oběti, s využitím nástrojů, které ještě před dvěma lety existovaly jen ve filmech.
Průzkumníci také zdokumentovali phishingové kampaně zaměřené na vysoké manažery v obranných organizacích. Útočník pomocí AI nejprve prošli veřejné zdroje, jako jsou tiskové zprávy, LinkedIn profily nebo veřejné e-mailové databáze. Z nich sestavila přesný psychologický a profesionální profil vybraných osob. Poté vytvořila falešné firemní weby, připravila vizuálně identické e-maily a dokonce vygenerovala obsah odpovědí, aby útok nepůsobil jako jednorázová past, ale jako přirozená obchodní konverzace. Nešlo o jednoduché podvrhy. Šlo o jazykově, vizuálně i obsahově brilantně zpracovanou operaci, kterou by při zběžném pohledu nerozpoznal ani zkušený analytik.
V dalším případě pomohla AI s reverzním inženýrstvím jednoho bezpečnostního nástroje určeného pro detekci síťové aktivity. Útočníci použili veřejně dostupný jazykový model k analýze binárního kódu komponenty, která běžela na cílovém systému. Model sice nebyl trénovaný přímo na reverzní inženýrství, ale díky svému tréninku na obecném kódu a dokumentaci dokázal účinně navrhnout hypotézy o tom, jak nástroj funguje – včetně toho, jak ho obejít.
Nejedná se bohužel o izolované excesy nebo chyby jednotlivých vývojářů. Jde o nový typ schopností, který AI přináší všem, kdo se naučí klást jí správné otázky. Nejen státním aktérům nebo elitním skupinám, ale i jednotlivcům, kteří se dříve ke komplexním útokům nedostali, protože jim chyběly znalosti, čas nebo přístup ke specializovaným nástrojům.
V tomto světle se umělá inteligence už nejeví jako obranný štít. V některých rukou se stává zbraní s nižší vstupní bariérou, vyšší přesností a prakticky neomezenou vytrvalostí. S minimem kapitálu tak může útočit v podstatě kdokoli trochu technicky zdatný.
To, co bylo dříve možné jen s týmem expertů, měsíci práce a drahou infrastrukturou, dnes zvládne osamocený jednotlivec s přístupem k výpočetnímu kreditu a několika dny experimentování. Umělá inteligence mu nejen poradí, jak začít, ale často celý útok naplánuje, provede a vyhodnotí. S chladnou důsledností, bez odpočinku a bez pochyb.
Představme si útok, který začíná nevinně – hledáním slabin ve veřejných systémech. Dřív by to obnášelo hodiny manuálního procházení webů, shánění dokumentace, hledání verzí softwaru. Dnes AI zvládne projít desítky domén a jejich komponent během minut. Identifikuje potenciální zranitelnosti, navrhne, jak by mohly být zneužity, a připraví návrhy exploitů. Ne vše je hned funkční. Ale útočník už nehledá v mlze. Má přesný návod, kde tlačit a co zkoušet.
A co teď?
V momentě, kdy víme, že protivník má v ruce nástroj, který se nebojí ptát, kombinovat, generovat a testovat, se role správce bezpečnosti dramaticky mění. Není už analytikem, který čeká, až alert vyskočí v SIEMu. Musí myslet jako někdo, kdo je o krok napřed. Doslova musí použít stejný nástroj, jaký používá útočník – jen s jiným cílem.
To první, co musí změnit, je způsob, jakým se dívá na logy, alarmy a incidenty. Ne jako na jednotlivé události, ale jako na sled dat, které je potřeba korigovat, sumarizovat a kontextualizovat v reálném čase. Pokud používáš LLM, které tohle zvládne, jsi schopen během pár sekund vytáhnout z chaotického výpisu událostí přesnou hypotézu útoku – a s ní i další navazující kroky. Pokud ne, pořád jedeš na ruční pohon v době, kdy protivník přešel na automat.
Druhá věc je schopnost reagovat bez čekání na experta. AI ti umožní postavit přesně ten nástroj, který potřebuješ: agenta, který sleduje nestandardní přihlášení; proces, který analyzuje DNS dotazy na podezřelé domény; nebo systém, který analyzuje výstup z Nmapu a vyhodnocuje, co je reálně zranitelné. Pokud to neuděláš ty, udělá to protivník. On se už neptá na Stack Overflow, ale dává výstup do AI a rovnou generuje payload.
Třetí změna je organizační. Současný bezpečnostní tým se už neskládá z lidí, ale z lidí a modelů. Rozdíl mezi „máme LLM“ a „máme schopnost reagovat pomocí LLM“ je v tom, jestli máš architekturu. Mít jednoho agenta na detekci phishingu a druhého na eskalaci práv není luxus. Je to základní výbava. Stejně jako antivir v roce 2002. Dnes máš LLM s pamětí, schopností kontextu a přístupem k logům. Pokud ho nepropojíš s vlastními systémy přes RAG nebo vlastní API, pracuješ s 10 % jeho kapacity.
A konečně čtvrtý bod – pravidla hry se změnila, ale odpovědnost zůstává. AI není kouzelník. Pořád musíš vědět, co děláš. Musíš auditovat výstupy. Učit se na chybách. Trénovat modely na vlastních datech. A hlavně: být schopen je použít dřív než útočník. V tomto je to závod o čas. Ne mezi lidmi. Mezi tím, kdo má systém, a tím, kdo ho nemá.