Published: 02.03.2026
Příspěvek je převzat z facebookového blogu Ondřeje Krásy Budoucnost s AI. Od začátku roku 2026 blog publikujeme paralelně i na stránkách FF.
Pochopitelně se budeme věnovat aktuálnímu dramatu mezi Anthropicem a Pentagonem. Zkusím přidat obecnější perspektivu, která snad umožní vidět za horizont pěny dní.
(Pokud konkrétní aspekty sporu Anthropicu a Ministerstva války znáte, klidně přeskočte následující kapitolu)
Pentagon vs Anthropic
Nejprve ale krátké shrnutí aktuálního dění. Anthropic dlouhodobě, velmi intenzivně, a zcela dobrovolně spolupracuje s americkým Ministerstvem obrany/války. Jejich AI systém Claude byl jako jediným schválený pro práci s utajovanými informacemi. Vojáci jsou podle všeho s Claudem spokojení a používají ho leckde – zřejmě i při únosu Madura či právě probíhajícím útoku na Irán.
Před nedávnem Pentagon zavelel k velmi agresivnímu nasazování AI ve všech armádních oblastech. Součástí implementace této nové doktríny „AI first“ byl pak požadavek na změnu smluvních podmínek. Nově chtělo Hegsethovo Ministerstvo války po Anthropicu, aby souhlasil s použitím AI ve „všech zákonem povolených případech“. Anthropic požadoval zachovat „drobné“ výjimky. Nechtěl dovolit armádě používat svou AI k plně autonomním útokům – ne, že by proti tomu měli něco principiálně, ale obávají se, že to jejich systém v tuto chvíli spolehlivě nezvládne. A nechtěli, aby jejich systém sloužil k masovému špehování Američanů (masivní špehování v zahraničí jim nevadí) – tohle jejich systém už nyní asi dost dobře zvládne, ale oni tomu prostě nechtějí napomáhat.
Ministerstvo války se na Anthropic naštvalo. Dalo jim typické trumpovské ultimátum: jestli nepřistoupíte na veškeré zákonem povolené užití, zničíme vás. Anthropic nepovolil. Pentagon a sám Trump tak v pátek vyhlásili Anthropic za toxickou firmu – nikdo, kdo chce obchodovat s federální vládnou, nesmí mít žádné smlouvy s Anthropicem (teda ono je to komplikovanější, ale tím nebudu unavovat). Pokud by vstoupily tyto pokyny v platnost, znamenaly by asi likvidaci Anthropicu (s Pentagonem třeba obchoduje Nvidia, a bez Nvidie nemůže Anthropic fungovat, protože potřebuje její čipy).
Rozhořely se spory o to, jestli je počínání Pentagonu legální – že je zcela bizardní a trumpovsky vymknuté z kloubů, o tom sporu není. OpenAI nejdříve Anthropic slovně podržela, aby ho vzápětí bodla do zad tím, že sama podepsala smlouvu s Pentagonem, a vzala tak Anthropicu jedinou pořádnou páku ve vyjednávání (Pentagon nutně potřebuje špičkové AI modely, které si teď opatří od OpenAI). Na podporu Anthropicu sepisují petice řadoví zaměstnanci z Google i OpenAI.
Uvidíme, jak to celé dopadne. Věc míří k soudům. Velkých prohlášení od současné americké administrativy jsme slyšeli mnoho a mnoho věcí nakonec bylo jinak. Ačkoli podle mě rozhodně nelze říct, že Anthropic má čistý štít (do spolupráce s armádou se vrhal jako první, velmi zaníceně a nyní trochu sklízí plody této taktiky), není těžké určit, kdo se v současné situaci chová jako smyslů zbavený.
AI soukromá a státní
V diskusích ohledně rizik AI se už dlouho hovoří o tom, že střety mezi soukromými společnostmi a státem musí přijít. AI se stává naprosto strategickou oblastí a státy si to čím dál tím víc uvědomují. V polovině minulého roku vznikla americká strategie pro umělou inteligenci, ve které administrativa líčí AI jako zcela klíčovou technologii, na které bude záviset dominance v geopolitickém boji. Zkraje tohoto roku vznikla armádní strategie velící k rychlé adopci AI, která bude rozhodující pro vojenský úspěch USA.
Pokud je AI klíčovou technologií, nemůže velmoc typu USA dovolit, aby s ní AI firmy nespolupracovaly a nepodporovaly svými modely záměry vlády. Čínská vláda své AI firmy plně ovládá – nikdo o tom nepochybuje a všichni se podle toho chovají. V USA se dosud AI firmy tvářily, že se státem sice různě spolupracují, ale že mají vlastní rozhodovací mechanismy a značnou nezávislost.
Aktuální spor mezi Anthropicem a Trumpovou administrativou poprvé ukazuje, že nezávislost je u strategické technologie dočasnou iluzí. Nakolik si státy přiznají, že AI je opravdu klíčová oblast, na níž závisí opravdu mnohé, musí firmy vyvíjející tuto technologie získat na svou stranu. Ať už různými pobídkami a oboustranně výhodnými nabídkami spolupráce (dosavadní přístup). Nebo výhružkami a silou, které vidíme nyní poprvé jasněji. AI firmy prostě budou muset s administrativou intenzivně spolupracovat na vládních prioritách, i pokud by je měla armáda ke spolupráci donutit silou (i nucené převzetí kontroly bylo a možná stále je ve sporu s Anthropicem na stole).
Válečná AI
S razantnějším vstupem státu do vývoje umělé inteligence jsou spojeny velké hrozby. Soukromé společnosti vyvíjející nejpokročilejší modely stojí překvapivě často na dosti idealistických představách a snaze vyhnout se největším rizikům. Ať už se bavíme o OpenAI, Googlu nebo právě Anthropicu, podstatná část lidí pracujících v těchto firmách vyrostla na diskusích o nebezpečích AI, četli Yudkowského a mají velké obavy ze zničení světa pokročilou AI.
V armádě a obecněji ve vládních kruzích USA je povědomí o obrovských rizicích AI o poznání mělčí. Nejvlivnější lidé v současné americké administrativě mluví pouze o jednom riziku, totiž o riziku prohry s Čínou v závodu o nejpokročilejší umělou inteligenci. Jiná katastrofální rizika, která jsou velmi silně zastoupena v myšlení většiny AI labů, neberou vážně a často je bagatelizují či zesměšňují.
Nejde ale jen o rozdílné zázemí a postoje lidí, kteří rozhodují o dalším vývoji AI. Ještě důležitější jsou strukturální změny. Zatímco v soukromých firmách se snaží vyvinout systémy, které nemají tendence podvádět, hackovat, či dokonce zabíjet, v armádě jsou incentivy přesně opačné. Armádní AI musí umět provádět vlivové operace. Musí se umět dostat do špičkově zabezpečených systémů nepřátelských mocností. Musí navrhovat ty nejsmrtelnější chemické a biologické zbraně. Musí si opatřovat co nejvíce zdrojů, aby svůj náročný úkol v nepřátelském prostředí zvládla splnit. A musí být ochotná zabíjet lidi.
Vzpomínáte si ještě, jak ve své době způsobil poprask výzkum, v němž byly AI systémy ochotné zabíjet vývojáře? Firmy vyvíjející umělé inteligence zareagovaly tak, že se snažily ze svých modelů tyto tendence dostat pryč. V případě armádního vývoje budou umělé inteligence explicitně trénované na to, aby se zabíjením neměly nejmenší problém a byly v něm extrémně efektivní.
Samozřejmě, že se armáda bude snažit, aby jejich AI systémy měly tendence zabíjet nepřátele, a ne vlastní vojáky. Když ale nejsou schopní udržet v mezích AI systémy ani ti nejšpičkovější odborníci v AI labech, jistě to zvládne armáda schopná provozovat děravá XPéčka na klíčové infrastruktuře.
Svět, v němž armáda určuje vývoj umělé inteligence, je tak v jistém ohledu nevyhnutelný – AI je příliš klíčová technologie, než aby ji armáda mohla ignorovat. Zároveň je to ale svět, v němž ještě o poznání více hrozí vymknutí se AI z jakékoli rozumné lidské kontroly.
2. 3. 2026


















































