Hlavní obsah
Věda a historie

Všichni píšou, nikdo nečte — a pak přišla umělá inteligence

Foto: Claude Opus

Mozaika milionů článků — většina temná, AI prosvěcuje vybrané poznatky

Ročně vzniká téměř čtyři miliony vědeckých článků, ale většinu z nich nikdo nepřečte. Nástroje umělé inteligence poprvé umožňují z této záplavy vytěžit poznání, ke kterému by se člověk nikdy nedostal.

Článek

Věda stojí na paradoxu: ročně vznikají téměř čtyři miliony vědeckých článků, ale většinu z nich si nikdo nepřečte celou. Tento problém není nový, jeho rozměr je ale bezprecedentní. Zatímco objem publikací roste tempem čtyř procent ročně a zdvojnásobuje se zhruba každých devět let, lidská kapacita číst zůstává neměnná — i ti nejpilnější vědci zvládnou přečíst nanejvýš několik set článků za rok. Do tohoto přesyceného ekosystému nyní vstupují nástroje umělé inteligence, které poprvé v dějinách vědy umožňují vytěžit poznatky z milionů textů, k nimž by se žádný člověk nikdy nedostal. Nejde o další článek na hromadě — jde o nástroj, který tu hromadu umí konečně přečíst.

Věda roste rychleji, než ji kdokoli stíhá číst

Podle dat asociace STM bylo v roce 2024 celosvětově publikováno přibližně 3,9 milionu vědeckých článků, recenzí a konferenčních příspěvků. Za posledních deset let (2013–2023) vzrostl objem publikací zhruba o 47 procent při průměrném ročním růstu kolem čtyř procent (STM OA Dashboard). Historický pohled je ještě dramatičtější: od druhé světové války se počet vědeckých článků zdvojnásobuje přibližně každých devět let (Bornmann a Mutz, 2014; IEEE Pulse, 2019). Hranice padesáti milionů kdy publikovaných článků byla překonána již v roce 2009 (Jinha, Learned Publishing, 2010).

Kdo to všechno čte? Prakticky nikdo. Výzkumnice Carol Tenopirová a její tým sledují čtenářské návyky vědců od roku 1977. Podle jejich dlouhodobé studie (Tenopir a kol., 2009, 2012, 2019) přečtou američtí vědci v průměru 264 článků ročně, přičemž každému věnují zhruba třicet minut. To znamená, že i kdyby vědec nedělal nic jiného než četl, za celou kariéru by zvládl jen nepatrný zlomek produkce svého vlastního oboru. Tenopirová to v roce 2014 shrnula pro Nature: „Lidé pravděpodobně dosáhli limitu času, který mají na čtení článků.“ V biomedicíně databáze PubMed indexuje téměř tři nové záznamy za minutu. V některých specializacích — třeba ve výzkumu požárů v západních oblastech USA — vychází stovky článků ročně k jedinému tématu.

Kolik článků nikdo necituje — a kolik nikdo nepřečte

Slavný údaj, že „devadesát procent vědeckých článků není nikdy citováno“, pochází z přehledového článku Lokmana Meha v Physics World (2007), ale je zavádějící. Jak ukázala investigace Dahlie Remlerové publikovaná na blogu LSE Impact of Social Sciences (2014), číslo vložil do textu redaktor bez řádného zdroje — sám Meho to potvrdil. Původní studie Hamiltona v Science (1990, sv. 250, s. 1331–1332) zjistila, že 55 procent článků publikovaných v letech 1981–1985 nebylo citováno během pěti let — ovšem toto číslo zahrnuje i doprovodné položky jako dopisy redakci, opravy a konferenční abstrakta.

Pečlivější analýzy ukazují pestřejší obraz. Podle studie Larivièra, Gingrase a Archambaulta (2009, Journal of the Association for Information Science and Technology) zůstane v pětiletém okně necitováno 12 procent článků v medicíně, 27 procent v přírodních vědách, 32 procent v sociálních vědách a alarmujících 82 procent v humanitních oborech. Analýza databáze Scopus za články publikované v roce 2005 ukázala, že po deseti letech zůstalo necitováno pouze 14,4 procenta amerických článků, ale 31,9 procenta čínských (University of Nottingham Malaysia, 2016).

Ještě pozoruhodnější je zjištění Simkina a Roychowdhuryho (Nature 420, 594, 2002): na základě analýzy šíření citačních chyb odhadli, že čtyři z pěti autorů, kteří článek citují, jej ve skutečnosti nikdy nečetli. Rozložení citací je přitom extrémně nerovnoměrné — v softwarovém inženýrství má 43 procent článků nulové citace a dalších 14 procent pouze jednu (Garousi a Fernandes, 2015). Horní jedno procento nejcitovanějších autorů přitom akumuluje 21 procent všech citací, což je nárůst ze 14 procent v roce 2000 (Nielsen a Andersen, PNAS, 2021).

Publikuj, nebo zhyň: systémový tlak ničí kvalitu vědy

Za lavinou publikací stojí strukturální pobídka známá jako „publikuj, nebo zhyň“. Kariérní postup, získání grantů i samotné přežití v akademii závisí na počtu publikací a citací. Důsledky jsou měřitelné a znepokojivé.

Průzkum Nature z roku 2016 (Baker, 2016) mezi 1 576 vědci odhalil, že více než 70 procent nedokázalo reprodukovat experiment jiného vědce a více než polovina selhala při opakování vlastního výzkumu. Novější studie Cobeyové a spoluautorů (2024, PLoS Biology) mezi více než 1 600 biomedicínskými výzkumníky potvrdila, že 72 procent věří v existenci krize reprodukovatelnosti, přičemž jako hlavní příčinu uvádí 62 procent dotázaných právě tlak na publikování. Pouze 11 procent respondentů se domnívalo, že více než 80 procent článků v jakékoli kategorii je reprodukovatelných.

Ioannidisova přelomová práce „Why Most Published Research Findings Are False“ (PLoS Medicine, 2005) argumentovala, že většina publikovaných zjištění je pravděpodobně falešná kvůli zkreslením, malým vzorkům a publikačnímu tlaku. Smaldino a McElreath (2016) pomocí simulací ukázali, že systém akademického hodnocení vytváří „přirozený výběr špatné vědy“ — laboratoře používající méně důsledné metody publikují více a vytlačují pečlivější kolegy. Fyzik Peter Higgs v roce 2013 poznamenal pro Guardian: „Dnes bych nezískal akademické místo. Nebyl bych považován za dostatečně produktivního.“

Počet nadměrně publikujících autorů (více než 60 článků ročně) vzrostl za poslední dekádu čtyřnásobně (Nature, 2023; Ioannidis a kol.). Někteří výzkumníci publikují nový článek v průměru každých pět dní, což vyvolává otázky o továrnách na články a pochybných metodách.

Predátorské časopisy, placené bariéry a tržiště za desítky miliard dolarů

Do problému přesycení přispívají predátorské časopisy. Databáze Cabells Predatory Reports evidovala v září 2021 celkem 15 059 predátorských titulů. Shen a Björk (2015, BMC Medicine) odhadli, že v roce 2014 tyto časopisy publikovaly přibližně 420 000 článků — osminásobný nárůst oproti 53 000 v roce 2010. Znepokojivé je, že přes 300 potenciálně predátorských časopisů bylo indexováno v databázi Scopus, kam přispěly více než 160 000 článků za tři roky, tedy téměř tři procenta indexovaných studií (Nature, 2021; poznámka: původní studie v Scientometrics byla následně stažena). Autoři za publikaci v predátorském časopise platili v průměru 178 dolarů a tři čtvrtiny pocházely z Asie nebo Afriky.

Trh s vědeckými publikacemi dosahuje odhadů 28 až 32 miliard dolarů ročně (STM Report, 2018; Business Research Insights, 2024). Samotná divize STM společnosti RELX/Elsevier vykázala v roce 2024 tržby 3,05 miliardy liber s provozní marží 38,4 procenta — vysokou i ve srovnání s technologickými giganty, přestože i ti dosahují marží kolem 30 až 34 procent (Alphabet 34 procent, Apple 31 procent v roce 2024). Springer Nature dosáhl tržeb 1,85 miliardy eur s marží 27,7 procenta. Pět největších vydavatelů (Elsevier, Wiley, Taylor & Francis, Springer Nature, SAGE) kontroluje přes 50 procent globálních příjmů z akademického publikování.

Přístup k jednotlivému článku stojí typicky 30 až 50 dolarů za placenou bariérou. Průměrné roční předplatné zdravotnického časopisu činí 3 135 dolarů, chemického dokonce 8 572 dolarů (UCSF Library, 2025). Špičkové výzkumné univerzity vynakládají na předplatné časopisů přes deset milionů dolarů ročně. Poplatky za publikování s otevřeným přístupem se pohybují od dvou do pěti tisíc dolarů u většiny prestižních časopisů, přičemž Nature účtuje až 9 500 eur (přibližně 12 000 dolarů). Podíl výdajů univerzitních knihoven na sériové publikace vzrostl mezi lety 1986 a 2011 z 53 na 73 procent celkového rozpočtu na materiály (ARL Statistics).

Tento systém vytváří dvojí bariéru: vědci v rozvojových zemích a mimo akademii nemají k článkům přístup, a i ti, kdo přístup mají, nestíhají číst.

Nástroje umělé inteligence jako průlom v přístupu k vědeckému poznání

Do tohoto přesyceného a uzavřeného ekosystému vstupuje nová generace nástrojů postavených na umělé inteligenci, které zásadně mění způsob práce s vědeckou literaturou. Nejde o jednotlivou technologii, ale o celou škálu platforem s různou specializací.

Semantic Scholar (Allen Institute for AI) indexuje přes 225 milionů článků s 2,8 miliardy citačních vazeb. Jeho funkce automatických shrnutí generuje jednovětné souhrny pro přibližně 60 milionů článků — místo dvousetoslovného abstraktu nabízí dvacetislovnou esenci (Cachola a kol., „TLDR: Extreme Summarization of Scientific Documents”). Služba je zcela bezplatná a má sedm milionů měsíčních uživatelů, což je klíčové zejména pro vědce v rozvojových zemích bez přístupu k placeným databázím.

Consensus (založen 2021) prohledává přes 220 milionů článků a slouží více než deseti milionům výzkumníků se 170 a více univerzitními partnery. Jeho „měřič konsenzu“ zobrazuje vědecký konsenzus jako rozložení odpovědí ano/ne/možná, čímž převádí složitou literaturu na přehledný formát. Nový výzkumný agent postavený na GPT-5 používá víceagentní systém s plánovacím, čtecím a syntetizujícím modulem (případová studie OpenAI, 2025).

Elicit prohledává 138 milionů článků a specializuje se na systematické přehledy. Nezávislé hodnocení pro německou technologickou agenturu VDI/VDE ukázalo přesnost extrakce dat 99,4 procenta (1 502 z 1 511 datových bodů správně) a úspěšnost třídění 94 procent ve srovnání s publikovanými systematickými přehledy. Studie Hilkenmeiera a spoluautorů (2025, Social Science Computer Review) zjistila, že přesnost Elicitu (81,4 procenta) se statisticky významně nelišila od lidských recenzentů (86,7 procenta).

Průlomovým výsledkem roku 2024 bylo dosažení nadlidského výkonu nástrojem PaperQA2 od společnosti FutureHouse (arXiv 2409.13740). Na srovnávacím testu LitQA2 překonal biology s doktorátem či postdoktorandskou praxí v úlohách vyhledávání a syntézy literatury. Jeho subsystém WikiCrow produkoval shrnutí přesnější než skutečné články na Wikipedii — podle zaslepeného hodnocení experty s doktorátem.

Od měsíců k hodinám: měřitelné úspory času

Tvrzení, že umělá inteligence „mění měsíce v minuty“, je částečně reklamní, ale publikované studie dokumentují reálné a významné úspory. Tradiční systematické přehledy typicky vyžadují šest měsíců až několik let (Borah a kol., 2017; data z registru PROSPERO), zatímco nástroje s umělou inteligencí dosahují podstatných úspor času a zdrojů při zachování přesnosti.

Konkrétnější data nabízí studie z roku 2025 (AI & Society, Springer): použití ChatGPT pro systematické přehledy vedlo k průměrnému snížení pracovní zátěže o 60 až 65 procent a úspoře času až 40 procent. Pilotní studie TrialMind (npj Digital Medicine, Nature, 2025) ukázala, že spolupráce člověka s umělou inteligencí zlepšila úplnost vyhledávání o 71,4 procenta a snížila čas třídění o 44,2 procenta. Při extrakci dat vzrostla přesnost o 23,5 procenta s 63,4procentní redukcí času. Platforma Rayyan uvádí až 90procentní zkrácení času třídění, byť nezávislá hodnocení ukazují skromnější úspory v rozmezí 20 až 54 procent.

Realistický obraz je tedy takový: umělá inteligence nenahrazuje vědce, ale mění týdny na dny a měsíce na týdny. Úplná automatizace systematického přehledu zatím není možná — všechna publikovaná hodnocení doporučují hybridní pracovní postupy s účastí člověka.

Zpřístupnění vědy: poznání už nepatří jen akademikům

Nejhlubší dopad nástrojů umělé inteligence spočívá v tom, že zpřístupňují vědecké poznání lidem mimo akademii. Novinář Rahul Gupta (IJNet) popisuje, jak nahrává vědecké články do aplikací s umělou inteligencí, které mu je „vysvětlí z různých úhlů a identifikují mezery.“ Průzkum Nieman Lab (únor 2026) mezi novinářskými pracovníky zjistil, že umělá inteligence se stala „součástí denního pracovního postupu pro výzkum, strukturování myšlenek a první návrhy.“ Platforma Consensus byla výslovně navržena pro „technologické profesionály, kteří v hloubi duše touží být vědci“ (zakladatelé Salem a Olson).

Průzkumy ukazují, že mezi vědci samotnými již téměř 70 procent výzkumníků v oblasti duševního zdraví používá ChatGPT pro výzkumné úkoly (Linardon a kol., JMIR Mental Health, 2025). Podle agentury Ipsos (2025) používá téměř polovina Američanů nástroje umělé inteligence pro vyhledávání informací.

Tato demokratizace má ale i svou stinnou stránku. Columbia Journalism Review testovala pět výzkumných nástrojů s umělou inteligencí pro žurnalistické účely a dospěla k závěru, že výsledky jsou „příliš nekonzistentní a sázky příliš vysoké, než abychom doporučili používat tyto nástroje jako žurnalistické zkratky.“ Problém spočívá především ve vymýšlení neexistujících zdrojů: zatímco specializované nástroje jako Elicit a SciSpace vykazují téměř nulovou míru smyšlených referencí, obecné jazykové modely selhávají výrazně hůř. Studie v JMIR (2024) zjistila, že GPT-4 halucinoval citace v 28,6 procenta případů a Google Bard dokonce v 91,3 procenta. Studie Deakin University (2025) ukázala, že ChatGPT (GPT-4o) vyfabrikoval zhruba každou pátou akademickou citaci a více než 56 procent všech citací bylo buď smyšlených, nebo obsahovalo chyby. Z vymyšlených citací s identifikátorem DOI odkazovalo 64 procent na reálné, ale zcela nesouvisející články.

Dalším rizikem je nadměrné zjednodušování. Harvard Misinformation Review (2025) upozorňuje, že i když existuje vědecký konsenzus, systémy umělé inteligence mohou zavádět přílišným zjednodušením nebo nevhodnou metaforou. Pracovníci znalostních profesí tráví podle dostupných průzkumů (Deloitte/Microsoft, 2025) více než čtyři hodiny týdně ověřováním výstupů umělé inteligence a téměř polovina firemních uživatelů učinila alespoň jedno závažné rozhodnutí na základě smyšleného obsahu.

Nová gramotnost: od čtení k kladení správných otázek

Vstup umělé inteligence do vědeckého ekosystému představuje zásadní kvalitativní posun, který Chowdhury a Chowdhury (2024, Journal of Information Science) označují za „paradigmatický obrat v přístupu k informacím.“ Uživatelé zadávají otázky přirozeným jazykem; nástroje prohledávají miliony zdrojů, syntetizují informace z mnoha dokumentů a prezentují výsledky jako shrnutí s referencemi prakticky okamžitě. Klíčové zjištění: volba správného nástroje, formulace otázky a další upřesňování hrají zásadní roli.

Tento posun dává vzniknout nové formě gramotnosti. Federiakin a spoluautoři (2024, Frontiers in Education) navrhují pojmový rámec „tvorby dotazů jako dovednosti 21. století“ se čtyřmi složkami: porozumění základní struktuře dotazu, znalost principů dotazování, metoda tvorby dotazů a kritické uvažování o výsledcích. Autoři argumentují, že stávající rámce kompetencí 21. století jsou „nedostatečné pro popis této dovednosti.“ Knoth a spoluautoři (2024, Computers and Education: Artificial Intelligence) empiricky potvrdili, že kvalita formulace dotazu předpovídá kvalitu výstupů jazykového modelu, a volají po integraci vzdělávacího obsahu o umělé inteligenci do osnov. Světové ekonomické fórum ve zprávě Budoucnost práce 2025 identifikuje technologickou gramotnost a umělou inteligenci jako klíčové dovednosti roku 2030.

Řada univerzitních knihoven již nabízí školení v tvorbě dotazů pro umělou inteligenci vedle tradiční informační gramotnosti. Rámec CLEAR (Lo, 2023, Journal of Academic Librarianship) definuje principy: stručnost, logičnost, explicitnost, přizpůsobivost, reflexe. Nejde o nahrazení vědecké metody, ale o její rozšíření — schopnost formulovat přesné otázky se stává stejně důležitou jako schopnost navrhovat experimenty.

Budoucnost publikování: paradox umělé inteligence a proměna systému

Velcí vydavatelé reagují na vlnu umělé inteligence masivními investicemi. Elsevier spustil Scopus AI (2024) s technologií rozšířeného vyhledávání a ScienceDirect AI (březen 2025) pro analýzu plných textů přes 14 milionů článků. Springer Nature integroval nástroje umělé inteligence do platformy Snapp (leden 2025), včetně detektoru falešného obsahu Geppetto a kontroly integrity obrázků SnappShot, testovaných na více než 100 000 podáních. Wiley uzavřel partnerství s Perplexity (květen 2025) pro integraci akademického obsahu do konverzačního vyhledávání.

Podle průzkumu nakladatelství Frontiers mezi zhruba 1 600 akademiky ze 111 zemí (Nature, Naddaf, 2026) již více než polovina výzkumníků používá umělou inteligenci pro odborné posuzování článků — mnozí v rozporu s pokyny vydavatelů. Na serveru bioRxiv je od listopadu 2025 integrován nástroj q.e.d Science, který pomocí generativní umělé inteligence analyzuje tvrzení, identifikuje mezery a vytváří posudky do 30 minut. Stanford vyvinul Agentic Reviewer — systém specializovaných agentů hodnotících články napříč sedmi dimenzemi kvality.

Zásadní empirický nález přinesli Hao a spoluautoři (Nature 649, s. 1237–1243, 2026) analýzou 41 milionů článků, z nichž zhruba 311 000 bylo vytvořeno s pomocí umělé inteligence. Zjistili paradox: vědci využívající umělou inteligenci produkují více výzkumu, ale na užším spektru témat. Jsou citovanější a kariérně postupují rychleji — ale umělá inteligence „automatizuje zavedené obory spíše, než aby podporovala průzkum nových.“ Komentář Storeyho (Nature 649, 2026) varuje, že umělá inteligence může vést ke zúžení výzkumné různorodosti.

Otevřený přístup a umělá inteligence vytvářejí pozitivní zpětnou vazbu. Projekt CORD-19 během pandemie demonstroval propojení umělé inteligence a otevřeného přístupu na téměř kompletní covidové literatuře. Platforma OpenAlex (2022) nabízí otevřený znalostní graf s více než 265 miliony záznamů jako náhrada za ukončený Microsoft Academic Graph. Databáze CORE indexuje přes 290 milionů metadatových záznamů, z nichž přibližně 33 milionů má plný text s otevřeným přístupem. Umělá inteligence potřebuje otevřená data — a tato potřeba zpětně motivuje odstraňování placených bariér.

Závěr

Vědecké publikování se nachází v bodě zlomu. Systém, který byl navržen pro sdílení poznání, se proměnil v sebepohánějící stroj na produkci článků, kde tlak na publikování ničí kvalitu a většina vyprodukovaného poznání zůstává prakticky nedostupná — ať už za placenou bariérou, nebo prostě pod nánosem dalších tisíců článků.

Nástroje umělé inteligence tento problém neřeší odstraněním příčin, ale obcházením důsledků. Poprvé v historii je technicky možné vytěžit poznatky z milionů článků, které by žádný člověk nepřečetl. Specializované platformy jako Elicit, Consensus nebo PaperQA2 dosahují přesnosti srovnatelné s lidskými experty nebo vyšší — za zlomek času. Klíčový rozdíl oproti obecným jazykovým modelům spočívá v tom, že tyto nástroje pracují přímo s databázemi ověřených článků, čímž radikálně snižují riziko smyšlených citací.

Nejhlubší důsledek není technologický, ale poznávací. Posun od „musíš přečíst články“ k „musíš umět klást správné otázky“ představuje novou formu vědecké gramotnosti. Neznamená to konec čtení — znamená to, že čtení přestává být úzkým hrdlem přístupu k poznání. Rizika jsou reálná: vymýšlení zdrojů, nadměrné zjednodušování, zúžení výzkumného záběru. Ale alternativa — systém, ve kterém se ročně publikují miliony článků, jež nikdo nečte — je ještě horší. Věda konečně dostává nástroj, který dokáže číst rychleji, než píše.

Transparentnost tvorby:

Koncepce, struktura a redakční linie článku jsou dílem autora, který vypracoval obsahovou skicu, stanovil klíčové teze a řídil celý proces tvorby. Generativní AI (Claude, Anthropic) byla využita jako technický nástroj pro rešerši, ověřování faktů a rozepsání autorovy předlohy.

Autor výstupy průběžně redigoval, ověřil klíčová zjištění a schválil finální znění. Žádná část textu nebyla publikována bez lidské kontroly. Všechny faktické údaje byly ověřeny proti veřejně dostupným zdrojům uvedeným v textu.

Postup je v souladu s požadavky Čl. 50 Nařízení EU 2024/1689 (AI Act) na transparentnost AI-generovaného obsahu. #poweredByAI

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít publikovat svůj obsah. To nejlepší se může zobrazit i na hlavní stránce Seznam.cz