„Právě lokální velké jazykové modely (LLM) se začínají prosazovat jako nová aplikační vrstva. Nejde přitom jen o „chatbota bez internetu“. Lokální LLM se stále častěji používají jako rozhodovací mozek aplikace – analyzují texty, třídí dokumenty, vyhodnocují vstupy uživatele a navrhují další kroky. Z pohledu vývojáře se tak nejedná ani o frontend, ani o klasický backend, ale o samostatnou vrstvu, která zásadně mění způsob návrhu softwaru,“ říká Martin Krček z Počítačové školy GOPAS.
Tento posun dobře ilustruje přístup, který v posledních letech ukazuje Google. Místo jednoho univerzálního modelu sází na jasné oddělení rolí. Pro vnímání světa – obrazu, zvuku či gest – využívá lehké a rychlé lokální nástroje, například framework MediaPipe, který běží přímo na zařízení a pracuje deterministicky s velmi nízkou latencí. Pro práci s významem, kontextem a rozhodováním pak nabízí otevřený jazykový model Gemma, navržený tak, aby mohl běžet lokálně a byl plně pod kontrolou vývojáře.
Google jde v poslední době ještě dál a začíná integrovat jazykové modely přímo do prohlížeče Chrome v rámci tzv. Built-in AI. Vývojářům se tak otevírá experimentální rozhraní, kde mohou pomocí JavaScriptu pracovat s lokálním modelem (například Gemini Nano) podobně snadno, jako dnes využívají webová API typu geolokace nebo localStorage. Odpadá tím jedna z hlavních bariér lokální AI na webu – nutnost nutit uživatele stahovat rozsáhlé datové balíky jen proto, aby si aplikace mohla „popřemýšlet“. Lokální AI se tím poprvé začíná chovat jako běžná schopnost webové platformy, nikoli jako experimentální doplněk.
„Tento architektonický přístup je důležitý i z hlediska bezpečnosti. Lokální provoz sice znamená, že data neopouštějí zařízení nebo firemní síť, zároveň však přináší nové výzvy. Jazykový model může stále udělat chybný závěr, může být ovlivněn nevhodným vstupem nebo získat přístup k funkcím, které mu nebyly určeny. „Lokální“ tedy automaticky neznamená „bezpečné“. Bez jasných hranic, auditovatelnosti a promyšleného návrhu se může i lokální AI stát dalším netransparentním prvkem v aplikaci,“ Martin Krček z Počítačové školy GOPAS.
Pro vývojáře, zejména v prostředí JavaScriptu, to znamená zásadní změnu myšlení. Aplikace už není pouze sledem podmínek a API volání. Stále častěji pracuje s neurčitostí, pravděpodobností a rozhodováním založeným na kontextu. To klade nové nároky na architekturu, testování i odpovědnost autora softwaru. Stejně jako jsme si museli zvyknout na to, že JavaScript běží na serveru, budeme si zvykat i na to, že aplikace přemýšlí – a to lokálně.
Pozvánka na téma v rámci JSDays
Těmto tématům se bude věnovat připravovaná prezentace Martina Krčka „Lokální LLM jako backend nové generace“ na JSDays, které pořádá Počítačová škola GOPAS 14. dubna. 2026. Ukáže, kde dává lokální AI skutečně smysl, jak zapadá do moderních JavaScript aplikací a jak k ní přistupovat bezpečně a realisticky. Cílem není propagovat další technologický hype, ale nabídnout rámec, jak s lokálními jazykovými modely pracovat vědomě – jako s nástrojem, který může výrazně pomoci, ale jen tehdy, pokud víme, kam jej v architektuře správně umístit.