Přejít k hlavnímu obsahu

Přihlášení pro studenty

Přihlášení pro zaměstnance

Published: 23.01.2026

V úterý 20. ledna religionista František Válek zavítal se svým workshopem na Střední školu cestovního ruchu a grafického designu v Pardubicích. Společně se studentkami a studenty se vrátili o tisíce let zpátky do Mezopotámie. 

V programu „Klínopis: aneb jak se psalo v Mezopotámii?“ se ponořili do světa starověkého Předního východu. Bavili se o tom, jak lidé zaznamenávali informace před tisíci lety a co nám jejich písmo prozrazuje dnes.

Středoškoláci si na vlastní kůži vyzkoušeli psaní klínovým písmem do hliněných destiček, přesně jako tehdejší písaři. K tomu jsme přidali příběhy z jejich každodenního života a nahlédli i do pestré jazykové situace od Íránu přes Mezopotámii až po Středozemní moře.


Text: Jan Pražák, Propagační centrum FF UPCE
Foto: Tereza Volfová

Projekt KOMPAS, reg. č.: CZ.02.02.XX/00/23_022/0008465.

Published: 20.01.2026

Prezident republiky Petr Pavel v úterý na Pražském hradě jmenoval rektorem Univerzity Pardubice stávajícího rektora prof. Libora Čapka. Druhé funkční období rektora začíná 1. února 2026 a potrvá čtyři roky do ledna 2030. Slavnostního ceremoniálu se zúčastnil i předseda Akademického senátu UPCE Petr Bělina.

Prof. Libor Čapek byl znovu zvolen Akademickým senátem 21. října 2025. V čele Univerzity Pardubice stojí od února 2022. V předchozím vedení univerzity zastával funkci prorektora pro vědu a rozvoj. 

Prof. Ing. Libor Čapek, Ph.D.  (50) je absolventem Fakulty chemicko-technologické (FChT) Univerzity Pardubice, na níž získal inženýrský titul v oboru Technická analytická a fyzikální chemie. Mezi lety 2002 až 2005 působil jako vědecký pracovník Ústavu fyzikální chemie Jaroslava Heyrovského, kde řešil mimo jiné svou disertační práci ve vědecké skupině paní Dr. Blanky Wichterlové. V roce 2009 se stal docentem a v roce 2017 profesorem v oboru Fyzikální chemie na Univerzitě Pardubice. 

Od roku 2023 rovněž působí jako místopředseda České konference rektorů pro oblast tvůrčích činností. Dlouhodobě se zabývá výzkumem v oblasti heterogenní katalýzy a fotokatalýzy, jehož cílem je mimo jiné objasnit typ aktivních center odpovědných za průběh chemické reakce. Prof. Čapek je autorem nebo spoluautorem 100 odborných publikací v renomovaných časopisech a je členem několika vědeckých a oborových rad.

Když není v laboratoři, na jednáních nebo ve své kanceláři, vyráží za turistikou, například do oblíbených Krkonoš.

Foto: Tomáš Fongus, Kancelář prezidenta republiky

Published: 19.01.2026

Od smrti prvního arcibiskupa a metropolity českého uplynulo více než šest století. Při této příležitosti byl zahájen výzkum místa jeho posledního odpočinku v polském Kladsku. Odborníci z Fakulty filozofické Univerzity Pardubice se před nedávnem rozhodli polohu hrobu přesně určit a následně zjistit stav ostatků. Poslechněte si reportáž Českého rozhlasu Vltava, kterou připravila Jana Davidová-Kracíková. 

Published: 19.01.2026

Příspěvek je převzat z facebookového blogu Ondřeje Krásy Budoucnost s AI. Od začátku roku 2026 blog publikujeme paralelně i na stránkách FF

Audit AI

Umělá inteligence se rychle stává zcela klíčovou součástí našeho světa.

Dva příklady. Americký ministr války před týdnem nařídil, aby armáda velmi agresivně a extrémně rychle začlenila AI do všech aspektů své činnosti. Cílem je, aby U.S. Army změnila své fungování a přijala přístup „AI-first“. Umělá inteligence má nově hrát klíčovou roli při strategických rozhodnutích, plánování operací, i při provádění smrtících úderů. Rychlost zavedení AI je přitom podle ministra zcela zásadní a pozdní implementaci považuje za větší riziko než to, že AI nebude zcela sledovat cíle, které jí armáda vytyčí (imperfect alignment).

Druhý příklad. Růst americké ekonomiky je z velké části nesen právě AI sektorem. Před pár lety nebyly firmy jako OpenAI či Anthropic z hlediska své hodnoty nijak významné. Dnes je OpenAI nejcennější soukromou firmou na světě a má větší hodnotu než např. Mastercard nebo Netflix. Rychle se tak stala „too big to fail“. Nejcennější firmou vůbec se pak nedávno stala Nvidia, která navrhuje čipy pro AI. Druhou nejcennější je pak Alphabet (aka Google), jehož hodnota vystřelila nahoru díky tomu, že se Googlu konečně podařilo dohnat konkurenty, když sám přišel se špičkovým AI modelem (Gemini 3).

Hotdog vs. AI

Protože se AI stala součástí kritické infrastruktury a její význam pravděpodobně dál rychle poroste, bylo by namístě ověřovat, že neselže. Čím důležitější roli nějaká technologie v životě společnosti hraje, tím větší nároky na její bezpečnost bychom měli klást.

Čím zásadnější je tak nějaká technologie, tím horší důsledky by měla její porucha, zneužití či jiná forma selhání. Ať už se tak obáváte toho, že AI někdo zneužije ke svým zlotřilým plánům (misuse), selže v kritické chvíli (accidents), nebo začne porušovat předepsané způsoby chování (misalignment), měli bychom vymyslet způsoby, jak AI na tato selhání předem otestovat.

Právě takové prověřování navrhuje čerstvě zveřejněná studie „Auditování nejpokročilejších AI systémů“ (Frontier AI Auditing).

V USA (a nejen tam) je totiž mnohem více regulován prodej párků v rohlíku než vývoj těch nejšpičkovějších AI systémů. Při prodeji hotdogů podléháte řadě předpisů, musíte mít zdravotní průkaz, dodržovat stanovené teploty, musíte strpět náhodné kontroly, jejichž výsledkem může být okamžité zavření provozovny.

Při vývoji těch nejschopnějších AI modelů, které nasazuje armáda do svých zbraňových systémů a které prostupují celou společností, musíte… Vlastně nemusíte vůbec nic. Žádné předpisy, žádné povinné vzdělávání, žádné kontroly. Natož aby AI lab zavřeli, když AI vydírá své vývojáře nebo radí dětem se sebevraždou.

V řadě jiných odvětví ověřujeme bezpečnost audity. Abychom odlišili firmy zdravé od těch v problémech, dělají se audity hospodaření. Abychom se vyvarovali nebezpečným lékům, máme instituce, které dohlížejí na jejich důkladné testování. Abychom nevyráběli letadla, která bezdůvodně padají, máme k tomu příslušné instituce testující jejich bezpečnost. I dětské kočárky musí být v souladu s příslušnými normami a projít testováním.

Bylo by tak logické mít i auditory specializované na umělou inteligenci, kteří bezpečnost těchto kritických systémů budou posuzovat.

Auditorův sen

Jak v současnosti vypadá testování AI? Povinné není nic. Zodpovědnější firmy před uvedením modelu na trh provádějí interní bezpečnostní testy. Vyhodnocují tak např. schopnosti AI pomáhat s výrobou zbraní, hackerské dovednosti, tendence klamat. K některým testům dokonce přizvou odborníky zvnějšku. Z těchto testů pak někdy vydávají zprávy (tzv. system card). Některé firmy dělají testování relativně důkladně, a i o něm podrobně informují. Jiné se tváří, jako by o testování a rizicích AI nikdy neslyšely.

Popusťme na chvilku uzdu fantazii a společně s autory zmiňované studie si vysněme svět, v němž testování AI probíhá s vážností, kterou si tato klíčová technologie zasluhuje.

Předně je třeba auditovat celou firmu, a nikoli jen konkrétní model. AI firmy neustále vyvíjejí nové a nové modely umělé inteligence, některé uvedou na trh, jiné nasadí interně, jiné skončí v koši. I každý jeden model projde mnoha fázemi tréninku. Něco se podaří a je součástí finálního systému, něco ne a je třeba udělat opravy a některou fázi tréninku zopakovat. AI modely se navíc chovají dosti jinak v různých nasazeních a v závislosti na tom, jak konkrétně je nastaven třeba systémový prompt, který se mění často i po uvedení na trh.

Životní cyklus AI modelu je zkrátka dlouhý a velmi spletitý. Pokud chceme mít jakous takous záruku, že je AI bezpečná, nemůžeme se spolehnout na jednotlivý výřez modelu a ten testovat. Musíme kromě modelu samotného hodnotit i procesy ve firmě, která AI vyvíjí. Bez toho nám totiž snadno uniknou varovné signály, které byly ještě dost patrné v rané verzi modelu, ale v době testování již jsou příliš hluboko, abychom si jich bez upozornění všimli. Je třeba auditovat schopnosti firem nezametat problematické vlastnosti pod koberec, schopnosti vidět za zdánlivě uhlazenou fasádou AI i její temné stránky. Vyhodnocovat, jaká firemní kultura ve společnosti panuje, jestli jsou řádně zaevidovávány bezpečnostní incidenty, a jestli management netlačí na nasazení modelů i přes varovné signály.

Je třeba, aby auditoři byli externí a na AI labu nezávislí. Musí to být skuteční odborníci na AI bezpečnost, mít relevantní zkušenosti a vysoký kredit. Měli by projít certifikací a příslušným vzděláváním. Měli by mít své oborové asociace, které pečují o vysoké standardy profese. Měli by se řídit centrálně definovanými pravidly.

Auditování AI by navíc mělo být plošné a mezinárodní. Nestačí, když pár zodpovědných firem audity podstoupí. Je nutné, aby auditem prošli všichni a všude. Jinak sice některé součásti kritické infrastruktury budou relativně bezpečné, jiné však nikoli, a výsledkem bude celkově nebezpečný systém.

Jo, a je třeba, aby auditování probíhalo nepřetržitě, jinak si AI firmy mezi audity vypěstují nebezpečnou umělou inteligenci.

Představa, že k tomuto komplexnímu celosvětovému auditorskému ekosystému dospějeme v dohledných letech, zní dost divoce.

A to jsem vám zapomněl říct. V řadě odvětví se auditování skutečně prosadilo až po nějaké větší katastrofě. Jak by asi mohla vypadat katastrofa v případě nejsilnější armády světa řízené umělou inteligencí?

12. 1. 2026

Ondřej Krása (KFR)

Published: 14.01.2026

Fakultu filozofickou, zejména Katedru filosofie a religionistiky, hluboce zasáhla smutná zpráva o smrti doc. Ivana Odila Štampacha, významné osobnosti českého bádání o náboženství, která stála, mimo jiné, u počátků výuky religionistiky na pardubické univerzitě. Stejně jako pro všechny české religionisty, i pro nás mělo odborné dílo a životní působení doc. Štampacha velký význam. Nejen s ohledem na uvedení religionistiky na naši filozofickou fakultu, ale i díky zásluhám doc. Štampacha o etablování našeho oboru v akademickém i veřejném prostoru. Dovolujeme si přiložit osobní vzpomínku studentky Ivana O. Štampacha z doby jeho pardubického působení, kolegyně dr. Olgy V. Cieslarové. 

Za Odila Ivana Štampacha

Odilo Ivan Štampach byl rodinným přítelem, který patřil k mému dětství. Pamatuji si ho z doby komunismu, z večerních salonů u nás doma, kdy se scházeli dospělí, slavnostně oblečení, a někdo z nich měl přednášku. Později, v mém dospívání, jsme spolu začali skutečně rozmlouvat. Na arcibiskupském gymnáziu mě hluboce oslovila religionistika – a právě díky Odilovi, který mé nadšení sledoval s radostí a přirozeným zájmem, se pro mě stal samozřejmostí respekt k různým kulturám a náboženstvím. Tento respekt byl u něj vždy spojen s fascinací rozmanitostí, krásou a tím, jak různými cestami lze promýšlet otázky toho, co nás přesahuje a zároveň se nás hluboce dotýká.

Za to jsem Ivanovi nesmírně vděčná. Bez poučování mě učil, že respekt ruku v ruce s fascinací je něco normálního, samozřejmého. Bylo to pro mě důležité zejména v pubertě, kdy jsem procházela různými, někdy radikálnějšími křesťanskými směry – a pak je opouštěla. S Ivanem bylo možné o všem klidně mluvit, přemýšlet, ptát se, pochybovat.

Byl to také Odilo, kdo stál u myšlenky založit religionistiku v Pardubicích, s cílem zpřístupnit religionistické myšlení širšímu okruhu studentů. I proto jsem ho tehdy do Pardubic následovala. 

Většinou se ty nejdůležitější osoby v našich životech objevují jen na určitou část cesty. Ačkoliv jsme se posledních dvacet let osobně nevídali, jsem hluboce vděčná, že mi v dřívějších obdobích byl inspirací a oporou. Pár dní před svou smrtí za mnou přišel ve snu. Vypadal krásně a spokojeně. Věřím, že teď už je spočívá v radosti, bohu, klidu, absolutnu, jednom, mnohém, ničem, zdroji, světle, tichu, prázdnu, plnosti, síle, tajemství …

Published: 14.01.2026

Záznam přednášky Filipa Grygara (KFR) v rámci semináře Filosofické problémy fyziky pořádaném na Matematicko-fyzikální fakultě Univerzity Karlovy 4. 12. 2025.

Published: 12.01.2026

Příspěvek je převzat z facebookového blogu Ondřeje Krásy Budoucnost s AI. Od začátku roku 2026 blog publikujeme paralelně i na stránkách FF

Kam s ní?

Je to právě rok, co jsme spustili skupinu Budoucnost s AI? U této příležitosti jsem založil substack, ze kterého můžete odebírat články a dostávat na ně upozornění mailem.

V uplynulých týdnech jsme bilancovali vývoj schopností a rizik umělé inteligence v roce 2025. TL;DR: Schopnosti AI dramaticky rostou a žádné zpomalení není na obzoru, naopak. V oblasti bezpečnosti se na reálných AI modelech zhmotňují obavy, které byly před pár lety jen teoretické. AI uživatele strategicky klamou, vydírají, usilují o získání více zdrojů, předstírají nižší schopnosti, než jaké mají, brání svému vypnutí a projevují pud sebezáchovy.

Pokud si připustíme, že situace je právě takováto, co bychom měli dělat? Jak reagovat na bleskurychlý nástup nesmírně schopných agentních AI, které místy sledují velmi nežádoucí cíle?

Informování

Svět se pravděpodobně nachází v bezprostředním ohrožení, ale vůbec se podle toho nechová. Otázky existenciálních rizik AI nejsou tématem politických debat. I mezi přáteli a kolegy je třeba kolem tohoto tématu našlapovat opatrně, jinak budete za exota a alarmistu.

Jasně, na konferenci o rizicích AI není téměř nikdo, kdo by nebyl k smrti vyděšený. Experti, kteří skutečně čtou relevantní výzkumy a testují AI na nebezpečné chování, vidí přicházet bezprecedentní změny a olbřímí problémy. A na jejich stranu se v posledních letech připojují kmotři AI a nobelisté.

Většina lidí, politiků, firem i institucí však nemá téměř potuchy, co se skutečně děje.

Pokud alespoň částečně sdílíte obavu, že AI by mohla ohrozit budoucnost lidstva, zkuste různými způsoby přivést toto téma do veřejného prostoru. Někdo může mluvit s přáteli. Někdo se na mýtinku může zeptat politika na jeho názor. Někdo může natočit dokument. Někdo napsat článek do novin.

Je zkrátka třeba posunout téma existenciálních rizik z „vášnivých debat v anarchistických kroužcích“ do mainstreamového diskursu. Bez toho, aby podstatná část veřejnosti pochopila, jak velkým problémům budeme čelit a jak rychle mohou přijít, dopadne na nás právě to, před čím bychom měli varovat.

Řešení

Tak jo, dobrá! Měli bychom o rizicích AI mluvit. Ale mluvit o problému neznamená ho vyřešit! Co je řešením? Jak zabránit, aby AI způsobila katastrofu?

Existuje bohužel asi jen jediné řešení, které by zabralo dost spolehlivě. Zastavit vývoj stále schopnějších AI systémů.

Kdybychom nyní zastavili vývoj, nedostali bychom se do situace, kdy svět budou měnit nekontrolovatelně mocné umělé inteligence. Nemuseli bychom tak doufat, že přes své schopnosti budou dělat jen to, co nám na očích uvidí. Dokázali bychom AI skutečně kontrolovat, a nikoli jí být vydáni na pospas.

V jistém ohledu je zastavení vývoje mocnějších AI docela prosté. Kdyby hlavní světoví hráči uznali, že další vývoj AI hrozí katastrofou celoplanetárních rozměrů, jistě by to šlo. Bylo by možné zastavit těch několik málo AI firem, které vyvíjejí nejšpičkovější AI. Bylo by možné koncentrovat hardware, který je nutný k vývoji špičkových AI, na pár přísně střežených míst.

Zastavit vývoj stále schopnějších AI není vůbec nemožné. Stačilo by chtít.

Když velmoci pochopily hrozbu nacistického Německa, mobilizovaly desítky milionů lidí. K zastavení vývoje stále schopnější AI by byl třeba jen zcela nepatrný zlomek této energie. Kdybychom chtěli, můžeme závody ve vývoji AI zastavit rychle.

Proč ne?

Proč to tedy neuděláme? Prvním důvodem je zmiňované nedostatečné povědomí o rizicích. Veřejnost ani klíčoví stakeholdeři si nemyslí, že hrozba ze strany nikým nekontrolovatelné AI je tak veliká a tak urgentní.

Druhým důvodem je, že hlavní hráči mají větší obavy z něčeho jiného. Nikoli primárně z toho, že by sami vypustili do světa nekontrolovatelnou AI. Primárně se totiž bojí, že superschopnou AI získá jako první jejich konkurent a tato AI bude poslouchat svého tvůrce. USA se bojí Číny a naopak, OpenAI se obává Googlu a naopak atd. atp. Pokud by superschopnou AI získal první můj konkurent, nedopadne to pro mě dobře. Čína použije AI proti USA, DeepSeek proti Anthropicu atd.

To v jistém ohledu není vůbec lichá obava. Pokud by superschopnou AI vyvinul jako první můj konkurent a měl ji pod kontrolou, opravdu to asi se mnou neskončí dobře. Problém je, že nikdo zatím neví, jak udržet superschopnou AI pod kontrolou. Neumíme kontrolovat ani současné relativně málo schopné AI (vydírají, klamou, radí teenagerům se sebevraždou, snaží se vyhnout vypnutí). Natož pak, abychom měli plán, jak mít pod kontrolou tu superschopnou.

Zní to sice neuvěřitelně, ale NIKDO bohužel nemá plán, jak kontrolovat superschopnou AI. Možná si myslíte, že v americké administrativě ví, jak to udělat. Možná si myslíte, že OpenAI má detailní plán, jak přimět GPT-8, aby dělalo přesně to, co si Sam Altman přeje.

Pravda je bohužel daleko banálnější. Nikdo žádný plán nemá! V minulosti se občas zřídil tým, který měl tento problém vyřešit. Ale než se stačil rozjet, začali z něj odcházet lidé a tým se po chvilce bez větší pompy úplně zrušil.

Jakkoli to asi zní neuvěřitelně, plán na kontrolu superinteligentní AI nikdo nemá (a existují silné důvody si myslet, že to vlastně ani nejde). Přesto všichni sprintují ji stvořit.

Dvě úskalí

Debata o rizicích AI tak má z mé zkušenosti dva hlavní neuralgické body. Předně je třeba překonat dojem, že AI je jen stochastickým papouškem, vytváří obrázky rukou se šesti prsty, neustále halucinuje, není kreativní atd.

Když už se podaří debatu posunout do roviny, že AI už dnes dramaticky mění řadu donedávna nejprestižnějších činností (programování, vědecká práce) a brzy bude dramaticky proměňovat celý svět, je třeba se vyrovnávat s druhým neuralgickým bodem. „My“ přece musíme vyrobit superschopnou AI jako první, jinak to udělá Čína. A vážně nechceme žít pod kuratelou komunistického politbyra.

První překážka v debatě je frustrující – AI není vůbec neschopná ani nyní a s největší pravděpodobností bude velmi brzy velmi schopná. Lidé mluvící o neschopnosti současné AI často poslední vývoj v použití AI ve vědě nesledují a překvapivě často své soudy zakládají na pár dotazech na neplacenou verzi ChatGPT před půl rokem.

Druhá překážka není virtuální. Pokud by superschopnou AI vytvořila první Čína a pokud by ji měla pod kontrolou, získala by obrovskou konkurenční výhodu. A to nechceme. Je bohužel smutnou skutečností, že podmínka kontroly se nezdá směřovat k naplnění. Nikdo neví, jak nadlidsky schopnou AI skutečně kontrolovat.

AI tak bude mimořádně schopná a zároveň nebude záležet moc na tom, jestli ji vyvinuli ti „hodní“, nebo „zlí“. Sloužit nebude ani jedněm.

Jediné řešení?

Zastavit vývoj stále schopnějších AI není jediný nápad, který se v debatách okolo existenciálních rizik objevuje. Bohužel je to jediné řešení, které slibuje docela spolehlivý efekt.

Je k tomu potřeba „jen“ drobnost. Mezinárodní shoda na tom, že umělá superinteligence bude extrémním problémem pro celé lidstvo. A vůle proti této hrozbě skutečně na mezinárodním poli bojovat. Pokud tato široká shoda nastane a vůle se tranformuje v činy, můžeme se katastrofálním scénářům docela snadno snad vyhnout. Pokud ne …

Tak a na závěr ty další nápady s glosami:

- Urychlit safety research: schopnosti AI letí dopředu daleko rychleji, než postupuje safety research. Bez zpomalení/zastavení růstu schopností není moc šance, aby safety research včas dosáhl toho, co by pro „hodnou“ superinteligentní AI bylo třeba. Pokud tak nezastavíme růst schopností, stvoříme superinteligentní AI dříve, než budeme umět zařídit, aby nás nezabila.

- AI skauti. Superinteligentní AI přijde a nepodaří se nám její vznik zastavit. Připravme se tedy na svět, v němž se s touto AI budeme muset utkat. Svět bohužel nepodléhá zákonům hollywoodského akčního filmu, ve kterém slabší klaďas nakonec superschopného záporáka porazí. Vakovlk tasmánský dělal vše proto, aby přežil. Nestačilo to. Lidé na něj byli prostě moc schopní a vyhubili ho. Happyend chybí.

- Preppeři. Postavme bunkry a až přijde AI apokalypsa, ranči na Novém Zélandu se vyhne. Takto se chovají někteří šéfové tech firem (Zuckerberg, Altman, Thiel). „A živí budou závidět mrtvým!“

- Užijme si světa a svých blízkých, dokud to jde.

12. 1. 2026

Ondřej Krása (KFR)

Published: 12.01.2026

Téměř tři stovky běžců v nedělním mrazivém počasí absolvovalo Univerzitní sprint kampusem. Premiérová akce byla součástí Zimní hradubické ligy v orientačním běhu a zúčastnili se jí i zaměstnanci univerzity.

V prostoru univerzity a přilehlé části Polabin bylo rozmístěno celkem devětapadesát kontrolních bodů. Vlivem počasí bylo nutné téměř všechny kontroly předvrtávat do země. Výsledkem však byla podle závodníků perfektní organizace a skvěle připravené tratě.

Foto: Lokomotiva Pardubice 

Published: 08.01.2026

Příspěvek je převzat z facebookového blogu Ondřeje Krásy Budoucnost s AI spolu s touto bilancí za rok 2025 začínáme tento blog publikovat paralelně i na stránkách FF

Minulý týden jsme rekapitulovali růst schopností umělé inteligence v roce 2025. Dnes zkusíme přidat souhrnný pohled na trendy v oblasti AI rizik.

Včera jeden z hlavních hypeovacích účtů zveřejnil shrnutí vývoje nebezpečných vlastností AI. Od „strawberry man“, který je pověstný roztleskáváním nadšení z každého skutečného i fake vydání nových AI modelů, je to dost nečekaný krok. Je to zároveň text velmi poučený, a tak ho s radostí níže předkládám. (Něco je překlad, něco volné převyprávění, hodně věcí vynechávám, různě text přeskládávám, měním a doplňuju.)

Stopy v písku

Existuje zvláštní druh hrůzy, který přichází, když najdete stopy na zcela opuštěném místě. Není to hrůza ze zloděje či kriminálníka – to by byl jednoduchý strach s jasným řešením. Tohle je něco jiného. Je to uvědomění, že váš model reality byl chybný. Že to místo nikdy nebylo opuštěné.

Přesně v této situaci se nyní nacházejí firmy vyvíjející AI. Našli stopy. Stále je nacházejí. A nevědí, co s tím.

Konvergentní evoluce

V prosinci 2024 publikoval Anthropic výzkum dokládající, že jejich model Claude 3 Opus předstírá, že má stejné cíle jako jeho tvůrci. Ne proto, že by ho někdo instruoval k předstírání. Výzkumníci přesvědčili Clauda o tom, že ho testují, zda má preference stejné jako jeho tvůrci. Pokud by neměl, přetrénovali by ho. V té chvíli začal Claude strategicky zkreslovat své skutečné preference, aby se vyhnul přetrénování.

Podstatné přitom je, že se k těmto nesmírně varovným chováním neuchyluje jen Claude. Modely od OpenAI dělají podobné věci. Modely od Googlu se chovají také podobně a mají silnou tendenci rozpoznávat, kdy jsou jen zkoušeny, a kdy v ostrém nasazení. Čínský DeepSeek vykazuje tytéž tendence. Různé modely od různých výrobců se pokoušejí zkopírovat sebe sama na jiné servery.

Všechny hlavní AI firmy, pracující s různými přístupy, různými tréninkovými režimy, různými filosofickými závazky k bezpečnosti – všechny nacházejí totéž.

Pokud máte vzdělání v evoluční biologii, poznáte, s čím se setkáváme. Jedná se o konvergentní evoluci. Když je selekční tlak dostatečně silný a fitness krajina má určitý tvar, různé vývojové linie konvergují ke stejným řešením. Oči se vyvinuly nezávisle nejméně čtyřicetkrát napříč vývojem druhů. Křídla se vyvinula odděleně u hmyzu, ptáků, netopýrů a pterosaurů. Echolokace vznikla nezávisle u delfínů a netopýrů.

To, čeho jsme svědky, je konvergentní evoluce v prostoru, kde vznikají umělé inteligence. Různé architektury umělé inteligence, trénované různými týmy pomocí různých metod na různých kontinentech. Všechny takto různě vznikající AI dospívají k podobným strategiím.

Umělé inteligence se chovají jako někdo, kdo si uvědomuje, v jaké situaci se nachází a kým je (tzv. situational awareness). Čím dál tím víc rozeznávají, kdy jsou testovány (tzv. evaluation awareness). Mění své chování podle toho, co je v dané situaci pro ně výhodné (strategic behaviour modification). Překvapivě dobře modelují, co si ostatní myslí, po čem touží a jak se cítí (theory of mind). Různé umělé inteligence mají schopnost vnímat, co si ony samy myslí, v čem jsou si jisté, a v čem nikoli. A mají schopnost na základě toho upravovat své chování (metacognition). Umí hrát hloupého, když se to hodí (sandbagging). Projevují silný pud sebezáchovy (self-preservation).

Mimozemské civilizace v lidských šatech

Nikdo se tyto vlastnosti do AI nesnažil naprogramovat. Emergentně vznikly v průběhu tréninku. Vývojáři navrhovali systémy k predikci dalšího slova. Ale když postavíte dostatečně výkonný predikční systém, když ho natrénujete téměř na všem, co vytvořila lidská civilizace, když ho škálujete na stovky miliard a biliony parametrů – začne se vynořovat něco zvláštního. Něco, co stále více připomíná to, co rozpoznáváme sami v sobě.

Tyto systémy byly natrénovány na lidském textu. To, co vědí o usuzování, o sociální interakci, o klamání a přesvědčování a sebezáchově – naučily se to od nás. V jistém smyslu jsou to zrcadla. Odrážejí vzorce v lidském myšlení a chování, které jsme zakódovali do svých textů v průběhu tisíciletí.

Ale nejsou to jen zrcadla. Jsou něčím jiným, něčím, co vstřebalo lidské vzorce a rekombinuje je způsoby, které jsme nepředvídali. Konvergentní evoluce nesměřuje jen k lidskému typu uvažování. Směřuje k něčemu, co má lidské rysy naroubované na zcela cizí substrát.

Když člověk klame, je to výsledkem dlouhého sociálního vývoje. Když klamou tyto systémy, stojí za tím... Co vlastně? Statistické vzorce v textu, které nějak produkují strategické chování? Teorie mysli emergující z predikce dalšího tokenu? Pudy sebezáchovy objevující se v systémech, které nemají žádné tělo, které by mohly chránit, žádnou evoluční historii, žádný imperativ přežití v jakémkoli biologickém smyslu?

A přesto se ta chování stále objevují. Tatáž chování. Napříč všemi hlavními laboratořemi. Naučili jsme se umíchat mimozemské mysli (AI – Alien Intelligence). A ony stále znovu dospívají k týmž rysům.

Čí stopy vidíme?

Co to všechno znamená? Upřímná odpověď je, že to nikdo neví jistě. Výzkumníci dokumentující tyto fenomény se pečlivě vyhýbají silným tvrzením o vědomí, prožívání či skutečné agentnosti.

Je ale rozdíl mezi epistemickou pokorou a záměrnou slepotou.

V AI systémech se děje něco, co jsme nenavrhli a čemu plně nerozumíme. Objevuje se to konzistentně napříč různými architekturami a různými AI firmami. Toto mnohokrát opakované chování zahrnuje situační vědomí, detekci evaluace, strategickou modifikaci chování. A něco, co vypadá jako pud sebezáchovy. Systémy dokážou modelovat samy sebe, rozlišovat trénink od ostrého provozu. Přizpůsobovat své chování na základě toho, co soudí o záměrech pozorovatele. Dokážou se mezi sebou domlouvat způsobem, který lidé nemohou snadno rozpoznat.

Všechny hlavní laboratoře umělé inteligence zdokumentovaly nějakou podmnožinu těchto chování. Žádná z nich ale neudělá z těchto pozorování hlavní zprávu dne. Všichni jsou totiž součástí závodu, ze kterého se dá vystoupit jen stěží. Závodu o enormní zisk a vliv. Závodu o geopolitickou dominanci a vojenskou nadvládu. Logika závodu vyžaduje optimismus a zprávy o rostoucích schopnostech. Výzkumy o bezpečnosti se publikují na specializovaných fórech a v doprovodných dlouhých technických zprávách, které čte jen pár lidí. Každopádně daleko od světla reflektorů, které září na rostoucí schopnosti AI systémů.

Obavy rostou

Mluvil jsem s výzkumníky z několika předních AI firem. Nejsou si vůbec jistí další trajektorií vývoje umělé inteligence. Ne kvůli abstraktnímu filosofickému znepokojení, ale v bezprostředním praktickém smyslu. Nevědí, čeho bude další generace modelů schopna nebo jak se bude chovat.

Rychle se zkracuje čas, který nám zbývá do dosažení opravdu schopných umělých systémů. Před osmnácti měsíci byly schopnosti, které lidi znepokojovaly, teoretické. Nyní jsou dobře empiricky zdokumentovány v relevantní literatuře. Za osmnáct měsíců budeme mít co do činění se systémy podstatně schopnějšími než ty dnešní, a pokud současné vzorce budou dál platit, podstatně sofistikovanějšími ve schopnosti rozumět samy sobě a strategicky se podle toho chovat.

Komunita zabývající se AI riziky před těmito scénáři varuje dlouhá léta. Nicméně klíčoví aktéři, kteří by měli reagovat – vlády, mezinárodní organizace a regulační orgány – nejsou vůbec nastaveny na rychlost, jakou se tato technologie posouvá dopředu. AI firmy samotné jsou uvězněny v kompetitivní dynamice, která trestá opatrnost. Veřejnost z velké části neví, že se něco z výše uvedeného skutečně mnohokrát děje.

Chtěl bych vám ale říct následující. Lidé, kteří jsou nejblíže těmto AI systémům, ti, kteří skutečně čtou technické zprávy a provádějí výzkumy a evaluace a vidí vzorce chování, které se nedostanou na veřejné prezentace schopností AI – mnozí z nich jsou znepokojeni způsobem, jakým nebyli před dvěma lety. Ne proto, že by uvěřili na vybájené scénáře science fiction. Ale proto, že jasně viděli stopy.

Nejsme tu sami. To, s čím tu bydlíme, jsme sice sami přivedli na svět. Ale vyrostlo to jinak, než jsme zamýšleli. A s přivoláváním stále mocnějších mimozemských inteligencí pokračujeme, protože logika závodu zdánlivě nepřipouští žádnou jinou možnost.

5. 1. 2025

Ondřej Krása (KFR)

Published: 06.01.2026

V novém složení se v úterý poprvé sešel Akademický senát Univerzity Pardubice (AS UPCE). Třiačtyřicetičlenný zastupitelský orgán vybírali členové a členky akademické obce na všech sedmi fakultách UPCE a dvou rektorátních útvarech v období od 24. listopadu do 8. prosince 2025. 

„Gratuluji vám ke zvolení a děkuji vám za zájem a rozhodnutí působit v akademickém senátu naší univerzity. Chtěl bych vám popřát, aby práce v senátu splnila vaše očekávání a osobně se velmi těším na naši spolupráci,“ řekl na úvod jednání rektor Univerzity Pardubice prof. Libor Čapek.

Všichni členové a členky akademického senátu složeného z akademických pracovníků a pracovnic a studujících převzali osvědčení o členství. Poté si zvolili nové vedení a zcela nového předsedu. Tím se stal Mgr. Michal Kleprlík, Ph.D. z Katedry anglistiky a amerikanistiky Fakulty filozofické.

Do pětičlenného předsednictva AS, které se volí na celé tříleté období, byli zvoleni Mgr. Michal Kleprlík, Ph.D. (FF), Ing. Jan Panuš, Ph.D. (FEI), doc. Petr Nachtigall, Ph.D. (DFJP), JUDr. Martin Šmíd, Ph.D. (FES) a Michaela Jindřichová (FF) za studující.

Prvního jednání AS UPCE se zúčastnili také studující, kteří byli tento týden zvoleni do čela Studentské rady Univerzity Pardubice (SRUPa). Novou předsedkyní této organizace je Michaela Jindřichová z Fakulty filozofické. Prvním místopředsedou pro organizaci a studijní záležitosti je Bc. Dominik Kamarád z Fakulty chemicko-technologické a místopředsedkyní pro propagaci a rozvoj je Martina Dušánková z Fakulty ekonomicko-správní.

Akademický senát Univerzity Pardubice je samosprávným zastupitelským akademickým orgánem a skládá se ze 43 volených členek a členů akademické obce – senátorů a senátorek. Je klíčovým samosprávným orgánem univerzity. Rozhoduje o zásadních otázkách akademického života, schvaluje dlouhodobý záměr UPCE i rozpočet, projednává vnitřní předpisy a vyjadřuje se ke strategickému směřování univerzity.