Lokální umělá inteligence aneb když aplikace přemýšlí lokálně bez cloudu

Ještě nedávno byla umělá inteligence vnímána hlavně jako vzdálená cloudová služba. Data se odeslala na externí server, model je zpracoval a aplikace uživateli jen zobrazila výsledek. Tento model však dnes naráží na řadu omezení – nejen technologických, ale také bezpečnostních, právních a provozních. Stále více se proto prosazuje koncept lokální AI, tedy řešení, kdy modely fungují přímo na koncovém zařízení nebo v rámci interní infrastruktury organizace a data tak neopouštějí kontrolované prostředí.

„Právě lokální velké jazykové modely (LLM) se začínají prosazovat jako nová aplikační vrstva. Nejde přitom jen o „chatbota bez internetu“. Lokální LLM se stále častěji používají jako rozhodovací mozek aplikace – analyzují texty, třídí dokumenty, vyhodnocují vstupy uživatele a navrhují další kroky. Z pohledu vývojáře se tak nejedná ani o frontend, ani o klasický backend, ale o samostatnou vrstvu, která zásadně mění způsob návrhu softwaru,“ říká Martin Krček z Počítačové školy GOPAS.

Tento posun dobře ilustruje přístup, který v posledních letech ukazuje Google. Místo jednoho univerzálního modelu sází na jasné oddělení rolí. Pro vnímání světa – obrazu, zvuku či gest – využívá lehké a rychlé lokální nástroje, například framework MediaPipe, který běží přímo na zařízení a pracuje deterministicky s velmi nízkou latencí. Pro práci s významem, kontextem a rozhodováním pak nabízí otevřený jazykový model Gemma, navržený tak, aby mohl běžet lokálně a byl plně pod kontrolou vývojáře.

Google jde v poslední době ještě dál a začíná integrovat jazykové modely přímo do prohlížeče Chrome v rámci tzv. Built-in AI. Vývojářům se tak otevírá experimentální rozhraní, kde mohou pomocí JavaScriptu pracovat s lokálním modelem (například Gemini Nano) podobně snadno, jako dnes využívají webová API typu geolokace nebo localStorage. Odpadá tím jedna z hlavních bariér lokální AI na webu – nutnost nutit uživatele stahovat rozsáhlé datové balíky jen proto, aby si aplikace mohla „popřemýšlet“. Lokální AI se tím poprvé začíná chovat jako běžná schopnost webové platformy, nikoli jako experimentální doplněk.

„Tento architektonický přístup je důležitý i z hlediska bezpečnosti. Lokální provoz sice znamená, že data neopouštějí zařízení nebo firemní síť, zároveň však přináší nové výzvy. Jazykový model může stále udělat chybný závěr, může být ovlivněn nevhodným vstupem nebo získat přístup k funkcím, které mu nebyly určeny. „Lokální“ tedy automaticky neznamená „bezpečné“. Bez jasných hranic, auditovatelnosti a promyšleného návrhu se může i lokální AI stát dalším netransparentním prvkem v aplikaci,“ Martin Krček z Počítačové školy GOPAS.

Pro vývojáře, zejména v prostředí JavaScriptu, to znamená zásadní změnu myšlení. Aplikace už není pouze sledem podmínek a API volání. Stále častěji pracuje s neurčitostí, pravděpodobností a rozhodováním založeným na kontextu. To klade nové nároky na architekturu, testování i odpovědnost autora softwaru. Stejně jako jsme si museli zvyknout na to, že JavaScript běží na serveru, budeme si zvykat i na to, že aplikace přemýšlí – a to lokálně.

Pozvánka na téma v rámci JSDays

Těmto tématům se bude věnovat připravovaná prezentace Martina Krčka „Lokální LLM jako backend nové generace“ na JSDays, které pořádá Počítačová škola GOPAS 14. dubna. 2026. Ukáže, kde dává lokální AI skutečně smysl, jak zapadá do moderních JavaScript aplikací a jak k ní přistupovat bezpečně a realisticky. Cílem není propagovat další technologický hype, ale nabídnout rámec, jak s lokálními jazykovými modely pracovat vědomě – jako s nástrojem, který může výrazně pomoci, ale jen tehdy, pokud víme, kam jej v architektuře správně umístit.