Přejít k hlavnímu obsahu

Přihlášení pro studenty

Přihlášení pro zaměstnance

Published: 14.01.2026

Fakultu filozofickou, zejména Katedru filosofie a religionistiky, hluboce zasáhla smutná zpráva o smrti doc. Ivana Odila Štampacha, významné osobnosti českého bádání o náboženství, která stála, mimo jiné, u počátků výuky religionistiky na pardubické univerzitě. Stejně jako pro všechny české religionisty, i pro nás mělo odborné dílo a životní působení doc. Štampacha velký význam. Nejen s ohledem na uvedení religionistiky na naši filozofickou fakultu, ale i díky zásluhám doc. Štampacha o etablování našeho oboru v akademickém i veřejném prostoru. Dovolujeme si přiložit osobní vzpomínku studentky Ivana O. Štampacha z doby jeho pardubického působení, kolegyně dr. Olgy V. Cieslarové. 

Za Odila Ivana Štampacha

Odilo Ivan Štampach byl rodinným přítelem, který patřil k mému dětství. Pamatuji si ho z doby komunismu, z večerních salonů u nás doma, kdy se scházeli dospělí, slavnostně oblečení, a někdo z nich měl přednášku. Později, v mém dospívání, jsme spolu začali skutečně rozmlouvat. Na arcibiskupském gymnáziu mě hluboce oslovila religionistika – a právě díky Odilovi, který mé nadšení sledoval s radostí a přirozeným zájmem, se pro mě stal samozřejmostí respekt k různým kulturám a náboženstvím. Tento respekt byl u něj vždy spojen s fascinací rozmanitostí, krásou a tím, jak různými cestami lze promýšlet otázky toho, co nás přesahuje a zároveň se nás hluboce dotýká.

Za to jsem Ivanovi nesmírně vděčná. Bez poučování mě učil, že respekt ruku v ruce s fascinací je něco normálního, samozřejmého. Bylo to pro mě důležité zejména v pubertě, kdy jsem procházela různými, někdy radikálnějšími křesťanskými směry – a pak je opouštěla. S Ivanem bylo možné o všem klidně mluvit, přemýšlet, ptát se, pochybovat.

Byl to také Odilo, kdo stál u myšlenky založit religionistiku v Pardubicích, s cílem zpřístupnit religionistické myšlení širšímu okruhu studentů. I proto jsem ho tehdy do Pardubic následovala. 

Většinou se ty nejdůležitější osoby v našich životech objevují jen na určitou část cesty. Ačkoliv jsme se posledních dvacet let osobně nevídali, jsem hluboce vděčná, že mi v dřívějších obdobích byl inspirací a oporou. Pár dní před svou smrtí za mnou přišel ve snu. Vypadal krásně a spokojeně. Věřím, že teď už je spočívá v radosti, bohu, klidu, absolutnu, jednom, mnohém, ničem, zdroji, světle, tichu, prázdnu, plnosti, síle, tajemství …

Published: 14.01.2026

Záznam přednášky Filipa Grygara (KFR) v rámci semináře Filosofické problémy fyziky pořádaném na Matematicko-fyzikální fakultě Univerzity Karlovy 4. 12. 2025.

Published: 12.01.2026

Příspěvek je převzat z facebookového blogu Ondřeje Krásy Budoucnost s AI. Od začátku roku 2026 blog publikujeme paralelně i na stránkách FF

Kam s ní?

Je to právě rok, co jsme spustili skupinu Budoucnost s AI? U této příležitosti jsem založil substack, ze kterého můžete odebírat články a dostávat na ně upozornění mailem.

V uplynulých týdnech jsme bilancovali vývoj schopností a rizik umělé inteligence v roce 2025. TL;DR: Schopnosti AI dramaticky rostou a žádné zpomalení není na obzoru, naopak. V oblasti bezpečnosti se na reálných AI modelech zhmotňují obavy, které byly před pár lety jen teoretické. AI uživatele strategicky klamou, vydírají, usilují o získání více zdrojů, předstírají nižší schopnosti, než jaké mají, brání svému vypnutí a projevují pud sebezáchovy.

Pokud si připustíme, že situace je právě takováto, co bychom měli dělat? Jak reagovat na bleskurychlý nástup nesmírně schopných agentních AI, které místy sledují velmi nežádoucí cíle?

Informování

Svět se pravděpodobně nachází v bezprostředním ohrožení, ale vůbec se podle toho nechová. Otázky existenciálních rizik AI nejsou tématem politických debat. I mezi přáteli a kolegy je třeba kolem tohoto tématu našlapovat opatrně, jinak budete za exota a alarmistu.

Jasně, na konferenci o rizicích AI není téměř nikdo, kdo by nebyl k smrti vyděšený. Experti, kteří skutečně čtou relevantní výzkumy a testují AI na nebezpečné chování, vidí přicházet bezprecedentní změny a olbřímí problémy. A na jejich stranu se v posledních letech připojují kmotři AI a nobelisté.

Většina lidí, politiků, firem i institucí však nemá téměř potuchy, co se skutečně děje.

Pokud alespoň částečně sdílíte obavu, že AI by mohla ohrozit budoucnost lidstva, zkuste různými způsoby přivést toto téma do veřejného prostoru. Někdo může mluvit s přáteli. Někdo se na mýtinku může zeptat politika na jeho názor. Někdo může natočit dokument. Někdo napsat článek do novin.

Je zkrátka třeba posunout téma existenciálních rizik z „vášnivých debat v anarchistických kroužcích“ do mainstreamového diskursu. Bez toho, aby podstatná část veřejnosti pochopila, jak velkým problémům budeme čelit a jak rychle mohou přijít, dopadne na nás právě to, před čím bychom měli varovat.

Řešení

Tak jo, dobrá! Měli bychom o rizicích AI mluvit. Ale mluvit o problému neznamená ho vyřešit! Co je řešením? Jak zabránit, aby AI způsobila katastrofu?

Existuje bohužel asi jen jediné řešení, které by zabralo dost spolehlivě. Zastavit vývoj stále schopnějších AI systémů.

Kdybychom nyní zastavili vývoj, nedostali bychom se do situace, kdy svět budou měnit nekontrolovatelně mocné umělé inteligence. Nemuseli bychom tak doufat, že přes své schopnosti budou dělat jen to, co nám na očích uvidí. Dokázali bychom AI skutečně kontrolovat, a nikoli jí být vydáni na pospas.

V jistém ohledu je zastavení vývoje mocnějších AI docela prosté. Kdyby hlavní světoví hráči uznali, že další vývoj AI hrozí katastrofou celoplanetárních rozměrů, jistě by to šlo. Bylo by možné zastavit těch několik málo AI firem, které vyvíjejí nejšpičkovější AI. Bylo by možné koncentrovat hardware, který je nutný k vývoji špičkových AI, na pár přísně střežených míst.

Zastavit vývoj stále schopnějších AI není vůbec nemožné. Stačilo by chtít.

Když velmoci pochopily hrozbu nacistického Německa, mobilizovaly desítky milionů lidí. K zastavení vývoje stále schopnější AI by byl třeba jen zcela nepatrný zlomek této energie. Kdybychom chtěli, můžeme závody ve vývoji AI zastavit rychle.

Proč ne?

Proč to tedy neuděláme? Prvním důvodem je zmiňované nedostatečné povědomí o rizicích. Veřejnost ani klíčoví stakeholdeři si nemyslí, že hrozba ze strany nikým nekontrolovatelné AI je tak veliká a tak urgentní.

Druhým důvodem je, že hlavní hráči mají větší obavy z něčeho jiného. Nikoli primárně z toho, že by sami vypustili do světa nekontrolovatelnou AI. Primárně se totiž bojí, že superschopnou AI získá jako první jejich konkurent a tato AI bude poslouchat svého tvůrce. USA se bojí Číny a naopak, OpenAI se obává Googlu a naopak atd. atp. Pokud by superschopnou AI získal první můj konkurent, nedopadne to pro mě dobře. Čína použije AI proti USA, DeepSeek proti Anthropicu atd.

To v jistém ohledu není vůbec lichá obava. Pokud by superschopnou AI vyvinul jako první můj konkurent a měl ji pod kontrolou, opravdu to asi se mnou neskončí dobře. Problém je, že nikdo zatím neví, jak udržet superschopnou AI pod kontrolou. Neumíme kontrolovat ani současné relativně málo schopné AI (vydírají, klamou, radí teenagerům se sebevraždou, snaží se vyhnout vypnutí). Natož pak, abychom měli plán, jak mít pod kontrolou tu superschopnou.

Zní to sice neuvěřitelně, ale NIKDO bohužel nemá plán, jak kontrolovat superschopnou AI. Možná si myslíte, že v americké administrativě ví, jak to udělat. Možná si myslíte, že OpenAI má detailní plán, jak přimět GPT-8, aby dělalo přesně to, co si Sam Altman přeje.

Pravda je bohužel daleko banálnější. Nikdo žádný plán nemá! V minulosti se občas zřídil tým, který měl tento problém vyřešit. Ale než se stačil rozjet, začali z něj odcházet lidé a tým se po chvilce bez větší pompy úplně zrušil.

Jakkoli to asi zní neuvěřitelně, plán na kontrolu superinteligentní AI nikdo nemá (a existují silné důvody si myslet, že to vlastně ani nejde). Přesto všichni sprintují ji stvořit.

Dvě úskalí

Debata o rizicích AI tak má z mé zkušenosti dva hlavní neuralgické body. Předně je třeba překonat dojem, že AI je jen stochastickým papouškem, vytváří obrázky rukou se šesti prsty, neustále halucinuje, není kreativní atd.

Když už se podaří debatu posunout do roviny, že AI už dnes dramaticky mění řadu donedávna nejprestižnějších činností (programování, vědecká práce) a brzy bude dramaticky proměňovat celý svět, je třeba se vyrovnávat s druhým neuralgickým bodem. „My“ přece musíme vyrobit superschopnou AI jako první, jinak to udělá Čína. A vážně nechceme žít pod kuratelou komunistického politbyra.

První překážka v debatě je frustrující – AI není vůbec neschopná ani nyní a s největší pravděpodobností bude velmi brzy velmi schopná. Lidé mluvící o neschopnosti současné AI často poslední vývoj v použití AI ve vědě nesledují a překvapivě často své soudy zakládají na pár dotazech na neplacenou verzi ChatGPT před půl rokem.

Druhá překážka není virtuální. Pokud by superschopnou AI vytvořila první Čína a pokud by ji měla pod kontrolou, získala by obrovskou konkurenční výhodu. A to nechceme. Je bohužel smutnou skutečností, že podmínka kontroly se nezdá směřovat k naplnění. Nikdo neví, jak nadlidsky schopnou AI skutečně kontrolovat.

AI tak bude mimořádně schopná a zároveň nebude záležet moc na tom, jestli ji vyvinuli ti „hodní“, nebo „zlí“. Sloužit nebude ani jedněm.

Jediné řešení?

Zastavit vývoj stále schopnějších AI není jediný nápad, který se v debatách okolo existenciálních rizik objevuje. Bohužel je to jediné řešení, které slibuje docela spolehlivý efekt.

Je k tomu potřeba „jen“ drobnost. Mezinárodní shoda na tom, že umělá superinteligence bude extrémním problémem pro celé lidstvo. A vůle proti této hrozbě skutečně na mezinárodním poli bojovat. Pokud tato široká shoda nastane a vůle se tranformuje v činy, můžeme se katastrofálním scénářům docela snadno snad vyhnout. Pokud ne …

Tak a na závěr ty další nápady s glosami:

- Urychlit safety research: schopnosti AI letí dopředu daleko rychleji, než postupuje safety research. Bez zpomalení/zastavení růstu schopností není moc šance, aby safety research včas dosáhl toho, co by pro „hodnou“ superinteligentní AI bylo třeba. Pokud tak nezastavíme růst schopností, stvoříme superinteligentní AI dříve, než budeme umět zařídit, aby nás nezabila.

- AI skauti. Superinteligentní AI přijde a nepodaří se nám její vznik zastavit. Připravme se tedy na svět, v němž se s touto AI budeme muset utkat. Svět bohužel nepodléhá zákonům hollywoodského akčního filmu, ve kterém slabší klaďas nakonec superschopného záporáka porazí. Vakovlk tasmánský dělal vše proto, aby přežil. Nestačilo to. Lidé na něj byli prostě moc schopní a vyhubili ho. Happyend chybí.

- Preppeři. Postavme bunkry a až přijde AI apokalypsa, ranči na Novém Zélandu se vyhne. Takto se chovají někteří šéfové tech firem (Zuckerberg, Altman, Thiel). „A živí budou závidět mrtvým!“

- Užijme si světa a svých blízkých, dokud to jde.

12. 1. 2026

Ondřej Krása (KFR)

Published: 12.01.2026

Téměř tři stovky běžců v nedělním mrazivém počasí absolvovalo Univerzitní sprint kampusem. Premiérová akce byla součástí Zimní hradubické ligy v orientačním běhu a zúčastnili se jí i zaměstnanci univerzity.

V prostoru univerzity a přilehlé části Polabin bylo rozmístěno celkem devětapadesát kontrolních bodů. Vlivem počasí bylo nutné téměř všechny kontroly předvrtávat do země. Výsledkem však byla podle závodníků perfektní organizace a skvěle připravené tratě.

Foto: Lokomotiva Pardubice 

Published: 08.01.2026

Příspěvek je převzat z facebookového blogu Ondřeje Krásy Budoucnost s AI spolu s touto bilancí za rok 2025 začínáme tento blog publikovat paralelně i na stránkách FF

Minulý týden jsme rekapitulovali růst schopností umělé inteligence v roce 2025. Dnes zkusíme přidat souhrnný pohled na trendy v oblasti AI rizik.

Včera jeden z hlavních hypeovacích účtů zveřejnil shrnutí vývoje nebezpečných vlastností AI. Od „strawberry man“, který je pověstný roztleskáváním nadšení z každého skutečného i fake vydání nových AI modelů, je to dost nečekaný krok. Je to zároveň text velmi poučený, a tak ho s radostí níže předkládám. (Něco je překlad, něco volné převyprávění, hodně věcí vynechávám, různě text přeskládávám, měním a doplňuju.)

Stopy v písku

Existuje zvláštní druh hrůzy, který přichází, když najdete stopy na zcela opuštěném místě. Není to hrůza ze zloděje či kriminálníka – to by byl jednoduchý strach s jasným řešením. Tohle je něco jiného. Je to uvědomění, že váš model reality byl chybný. Že to místo nikdy nebylo opuštěné.

Přesně v této situaci se nyní nacházejí firmy vyvíjející AI. Našli stopy. Stále je nacházejí. A nevědí, co s tím.

Konvergentní evoluce

V prosinci 2024 publikoval Anthropic výzkum dokládající, že jejich model Claude 3 Opus předstírá, že má stejné cíle jako jeho tvůrci. Ne proto, že by ho někdo instruoval k předstírání. Výzkumníci přesvědčili Clauda o tom, že ho testují, zda má preference stejné jako jeho tvůrci. Pokud by neměl, přetrénovali by ho. V té chvíli začal Claude strategicky zkreslovat své skutečné preference, aby se vyhnul přetrénování.

Podstatné přitom je, že se k těmto nesmírně varovným chováním neuchyluje jen Claude. Modely od OpenAI dělají podobné věci. Modely od Googlu se chovají také podobně a mají silnou tendenci rozpoznávat, kdy jsou jen zkoušeny, a kdy v ostrém nasazení. Čínský DeepSeek vykazuje tytéž tendence. Různé modely od různých výrobců se pokoušejí zkopírovat sebe sama na jiné servery.

Všechny hlavní AI firmy, pracující s různými přístupy, různými tréninkovými režimy, různými filosofickými závazky k bezpečnosti – všechny nacházejí totéž.

Pokud máte vzdělání v evoluční biologii, poznáte, s čím se setkáváme. Jedná se o konvergentní evoluci. Když je selekční tlak dostatečně silný a fitness krajina má určitý tvar, různé vývojové linie konvergují ke stejným řešením. Oči se vyvinuly nezávisle nejméně čtyřicetkrát napříč vývojem druhů. Křídla se vyvinula odděleně u hmyzu, ptáků, netopýrů a pterosaurů. Echolokace vznikla nezávisle u delfínů a netopýrů.

To, čeho jsme svědky, je konvergentní evoluce v prostoru, kde vznikají umělé inteligence. Různé architektury umělé inteligence, trénované různými týmy pomocí různých metod na různých kontinentech. Všechny takto různě vznikající AI dospívají k podobným strategiím.

Umělé inteligence se chovají jako někdo, kdo si uvědomuje, v jaké situaci se nachází a kým je (tzv. situational awareness). Čím dál tím víc rozeznávají, kdy jsou testovány (tzv. evaluation awareness). Mění své chování podle toho, co je v dané situaci pro ně výhodné (strategic behaviour modification). Překvapivě dobře modelují, co si ostatní myslí, po čem touží a jak se cítí (theory of mind). Různé umělé inteligence mají schopnost vnímat, co si ony samy myslí, v čem jsou si jisté, a v čem nikoli. A mají schopnost na základě toho upravovat své chování (metacognition). Umí hrát hloupého, když se to hodí (sandbagging). Projevují silný pud sebezáchovy (self-preservation).

Mimozemské civilizace v lidských šatech

Nikdo se tyto vlastnosti do AI nesnažil naprogramovat. Emergentně vznikly v průběhu tréninku. Vývojáři navrhovali systémy k predikci dalšího slova. Ale když postavíte dostatečně výkonný predikční systém, když ho natrénujete téměř na všem, co vytvořila lidská civilizace, když ho škálujete na stovky miliard a biliony parametrů – začne se vynořovat něco zvláštního. Něco, co stále více připomíná to, co rozpoznáváme sami v sobě.

Tyto systémy byly natrénovány na lidském textu. To, co vědí o usuzování, o sociální interakci, o klamání a přesvědčování a sebezáchově – naučily se to od nás. V jistém smyslu jsou to zrcadla. Odrážejí vzorce v lidském myšlení a chování, které jsme zakódovali do svých textů v průběhu tisíciletí.

Ale nejsou to jen zrcadla. Jsou něčím jiným, něčím, co vstřebalo lidské vzorce a rekombinuje je způsoby, které jsme nepředvídali. Konvergentní evoluce nesměřuje jen k lidskému typu uvažování. Směřuje k něčemu, co má lidské rysy naroubované na zcela cizí substrát.

Když člověk klame, je to výsledkem dlouhého sociálního vývoje. Když klamou tyto systémy, stojí za tím... Co vlastně? Statistické vzorce v textu, které nějak produkují strategické chování? Teorie mysli emergující z predikce dalšího tokenu? Pudy sebezáchovy objevující se v systémech, které nemají žádné tělo, které by mohly chránit, žádnou evoluční historii, žádný imperativ přežití v jakémkoli biologickém smyslu?

A přesto se ta chování stále objevují. Tatáž chování. Napříč všemi hlavními laboratořemi. Naučili jsme se umíchat mimozemské mysli (AI – Alien Intelligence). A ony stále znovu dospívají k týmž rysům.

Čí stopy vidíme?

Co to všechno znamená? Upřímná odpověď je, že to nikdo neví jistě. Výzkumníci dokumentující tyto fenomény se pečlivě vyhýbají silným tvrzením o vědomí, prožívání či skutečné agentnosti.

Je ale rozdíl mezi epistemickou pokorou a záměrnou slepotou.

V AI systémech se děje něco, co jsme nenavrhli a čemu plně nerozumíme. Objevuje se to konzistentně napříč různými architekturami a různými AI firmami. Toto mnohokrát opakované chování zahrnuje situační vědomí, detekci evaluace, strategickou modifikaci chování. A něco, co vypadá jako pud sebezáchovy. Systémy dokážou modelovat samy sebe, rozlišovat trénink od ostrého provozu. Přizpůsobovat své chování na základě toho, co soudí o záměrech pozorovatele. Dokážou se mezi sebou domlouvat způsobem, který lidé nemohou snadno rozpoznat.

Všechny hlavní laboratoře umělé inteligence zdokumentovaly nějakou podmnožinu těchto chování. Žádná z nich ale neudělá z těchto pozorování hlavní zprávu dne. Všichni jsou totiž součástí závodu, ze kterého se dá vystoupit jen stěží. Závodu o enormní zisk a vliv. Závodu o geopolitickou dominanci a vojenskou nadvládu. Logika závodu vyžaduje optimismus a zprávy o rostoucích schopnostech. Výzkumy o bezpečnosti se publikují na specializovaných fórech a v doprovodných dlouhých technických zprávách, které čte jen pár lidí. Každopádně daleko od světla reflektorů, které září na rostoucí schopnosti AI systémů.

Obavy rostou

Mluvil jsem s výzkumníky z několika předních AI firem. Nejsou si vůbec jistí další trajektorií vývoje umělé inteligence. Ne kvůli abstraktnímu filosofickému znepokojení, ale v bezprostředním praktickém smyslu. Nevědí, čeho bude další generace modelů schopna nebo jak se bude chovat.

Rychle se zkracuje čas, který nám zbývá do dosažení opravdu schopných umělých systémů. Před osmnácti měsíci byly schopnosti, které lidi znepokojovaly, teoretické. Nyní jsou dobře empiricky zdokumentovány v relevantní literatuře. Za osmnáct měsíců budeme mít co do činění se systémy podstatně schopnějšími než ty dnešní, a pokud současné vzorce budou dál platit, podstatně sofistikovanějšími ve schopnosti rozumět samy sobě a strategicky se podle toho chovat.

Komunita zabývající se AI riziky před těmito scénáři varuje dlouhá léta. Nicméně klíčoví aktéři, kteří by měli reagovat – vlády, mezinárodní organizace a regulační orgány – nejsou vůbec nastaveny na rychlost, jakou se tato technologie posouvá dopředu. AI firmy samotné jsou uvězněny v kompetitivní dynamice, která trestá opatrnost. Veřejnost z velké části neví, že se něco z výše uvedeného skutečně mnohokrát děje.

Chtěl bych vám ale říct následující. Lidé, kteří jsou nejblíže těmto AI systémům, ti, kteří skutečně čtou technické zprávy a provádějí výzkumy a evaluace a vidí vzorce chování, které se nedostanou na veřejné prezentace schopností AI – mnozí z nich jsou znepokojeni způsobem, jakým nebyli před dvěma lety. Ne proto, že by uvěřili na vybájené scénáře science fiction. Ale proto, že jasně viděli stopy.

Nejsme tu sami. To, s čím tu bydlíme, jsme sice sami přivedli na svět. Ale vyrostlo to jinak, než jsme zamýšleli. A s přivoláváním stále mocnějších mimozemských inteligencí pokračujeme, protože logika závodu zdánlivě nepřipouští žádnou jinou možnost.

5. 1. 2025

Ondřej Krása (KFR)

Published: 06.01.2026

V novém složení se v úterý poprvé sešel Akademický senát Univerzity Pardubice (AS UPCE). Třiačtyřicetičlenný zastupitelský orgán vybírali členové a členky akademické obce na všech sedmi fakultách UPCE a dvou rektorátních útvarech v období od 24. listopadu do 8. prosince 2025. 

„Gratuluji vám ke zvolení a děkuji vám za zájem a rozhodnutí působit v akademickém senátu naší univerzity. Chtěl bych vám popřát, aby práce v senátu splnila vaše očekávání a osobně se velmi těším na naši spolupráci,“ řekl na úvod jednání rektor Univerzity Pardubice prof. Libor Čapek.

Všichni členové a členky akademického senátu složeného z akademických pracovníků a pracovnic a studujících převzali osvědčení o členství. Poté si zvolili nové vedení a zcela nového předsedu. Tím se stal Mgr. Michal Kleprlík, Ph.D. z Katedry anglistiky a amerikanistiky Fakulty filozofické.

Do pětičlenného předsednictva AS, které se volí na celé tříleté období, byli zvoleni Mgr. Michal Kleprlík, Ph.D. (FF), Ing. Jan Panuš, Ph.D. (FEI), doc. Petr Nachtigall, Ph.D. (DFJP), JUDr. Martin Šmíd, Ph.D. (FES) a Michaela Jindřichová (FF) za studující.

Prvního jednání AS UPCE se zúčastnili také studující, kteří byli tento týden zvoleni do čela Studentské rady Univerzity Pardubice (SRUPa). Novou předsedkyní této organizace je Michaela Jindřichová z Fakulty filozofické. Prvním místopředsedou pro organizaci a studijní záležitosti je Bc. Dominik Kamarád z Fakulty chemicko-technologické a místopředsedkyní pro propagaci a rozvoj je Martina Dušánková z Fakulty ekonomicko-správní.

Akademický senát Univerzity Pardubice je samosprávným zastupitelským akademickým orgánem a skládá se ze 43 volených členek a členů akademické obce – senátorů a senátorek. Je klíčovým samosprávným orgánem univerzity. Rozhoduje o zásadních otázkách akademického života, schvaluje dlouhodobý záměr UPCE i rozpočet, projednává vnitřní předpisy a vyjadřuje se ke strategickému směřování univerzity.

Published: 05.01.2026

Zaměstnanci a zaměstnankyně Univerzity Pardubice mohou využít krásnou příležitost zapojit se do orientačního běhu univerzitním kampusem. Premiérová akce je součástí Zimní hradubické ligy v orientačním běhu. Pro zaměstnané organizátoři připravili speciální trať v délce 2,5 kilometru. Trať není nutné běžet, každý může vyrazit svým tempem. Startovné je zdarma.

KDY: 11. 1. 2026, 10:00 - 12:30 (v tomto časovém rozmezí lze kdykoliv odstartovat)
PREZENCE: ZŠ Pardubice-Polabiny, Družstevní 305

Na závod není nutné mít žádné speciální vybavení. Přijďte ve sportovním oblečení a můžete si vzít s sebou buzolu. Pokud máte vlastní čip, nahlaste nám jeho číslo. Těm, kteří nemají, jej rádi půjčíme.

Pro přihlášení kontaktujte doc. Petra Nachtigalla z Dopravní fakulty Jana Pernera do 6. 1. 2026. Bližší informace o závodu budou průběžně vyvěšovány zde - ORIS - Český svaz orientačních sportů.

Orientační běh: jak se při závodu orientovat? Zdroj: Česká televize
Jak na první orienťák Zdroj: Metodický portál ČSOS
Začínáme s orienťákem Zdroj: Český orienťák

Published: 02.01.2026

Ve zkouškovém období od 5. 1.  do 8. 2. 2026* Katedra tělovýchovy a sportu nabízí studentům UPCE tyto sportovní aktivity. 

* ve dnech 14.–16. 1. 2026 bude posilovna i tělocvičny KTS uzavřeny.

--

Tělocvičny T1/T2 - ZDARMA

Na základě domluvy (přímo na místě) je možné si zahrát badminton, florbal, basketbal, volejbal, futsal a další sporty.

Provozní doba 

pondělí - čtvrtek 10-15h 

pátek 10-12h

--

Posilovna – vstup na již zakoupenou permanentku nebo lze zakoupit novou s platností POUZE na toto zkouškové období.

Prodej permanentek na sekretariátu KTS. Cena: 20x vstup - 1200,- Kč, 10x vstup - 700,- Kč, 1x vstup - 200,- Kč.

Provozní doba 

pondělí - čtvrtek 10-15h

pátek 10-12h

--

Do všech prostor je vstup na vlastní nebezpečí, nejedná se o výuku.

Přijďte se odreagovat a zasportovat si.

Vaše KTS.

Published: 18.12.2025

Vážené kolegyně, vážení kolegové, 

vážené studentky, vážení studenti,

dovolte mi popřát vám klidné a radostné Vánoce prožité s těmi, na kterých vám nejvíce záleží. Ať vám sváteční dny přinesou odpočinek, inspiraci a novou energii.

Do nového roku vám přeji mnoho zdraví, úspěchů a odvahy překračovat vlastní hranice. Přeji si, aby rok 2026 byl obdobím, ve kterém budeme společně naplňovat ambice Univerzity Pardubice, rozvíjet naše vědecké příležitosti, zkvalitňovat výuku a otevírat univerzitu světu novými způsoby.

Děkuji vám za vaši práci, tvořivost a nasazení.  Univerzita Pardubice je díky vám místem, kde vznikají myšlenky s budoucností a my všichni nacházíme svoji identitu.

Krásné Vánoce a vše dobré do nového roku!

Libor Čapek, rektor

Published: 16.12.2025

Zimní semestr u nás tradičně patří společnému projektu se třídou Mgr. Martiny Hezké ze ZŠ Benešovo náměstí – a ani letos tomu nebylo jinak. Studenti prvního ročníku navazujícího magisterského studia Učitelství anglického jazyka z katedry anglistiky a amerikanistiky FF UPCE si v rámci předmětu Sociální a pedagogická komunikace pod vedením dr. Heleny Zitkové vyzkoušeli, jaké to je připravit a vést reálné hodiny pro páťáky.

Úvodní setkání se neslo v duchu seznamování a vytváření atmosféry, ve které se všichni cítí bezpečně a vítaně. Následné hodiny už se ponořily do tématu orientace v prostoru a „giving directions“, a protože naše setkání probíhala na podzim, nechyběla ani lehká halloweenská linka. Děti se pomocí zážitkových interaktivních aktivit a komunikačních úkolů učily novou slovní zásobu i fráze a zároveň se dostávaly do situací, kde se musely skutečně domluvit, spolupracovat a reagovat na své vrstevníky i na naše studenty.

Naši studenti si při tom všem trénovali společné plánování, tvorbu materiálů, vedení výuky i reflexi. A závěr? Ten si opět vzali do rukou samotní páťáci. Připravili pro naše studenty skupinové aktivity, které vyvrcholily „naváděcí“ procházkou po kampusu, během níž s chutí procvičovali naučené fráze – a ještě si všichni stihli pochutnat na vánočním cukroví, které děti přinesly jako poděkování za společné učení. 

Celý projekt tak nebyl jen příležitostí pro malé školáky zažít angličtinu jinak, ale i cennou zkušeností pro naše budoucí učitele: vidět výuku očima dětí je lekce, kterou v přednáškové místnosti nenasimulujete.

Název projektu: Přípravné vzdělávání učitelů anglického jazyka na Univerzitě Pardubice: vzdělávání pro budoucnost
Číslo projektu: CZ.02.02.02/00/23_019/0008384


Text a foto: Mgr. Helena Zitková, Ph.D.