V poslední době se sešlo několik zásadních událostí ve světě umělé inteligence – od vydání výkonného otevřeného modelu, přes varování před bezpečnostními riziky populárního protokolu, až po přijetí komplexní regulace v Kalifornii.
Ling-1T: Revoluce v trénování, nikoli v architektuře
Společnost Ant Group představila obří otevřený model Ling-1T s jedním bilionem parametrů.
Na rozdíl od konkurence nepotřebuje speciální „myšlecí režim“. Jeho schopnost uvažovat je přímo vestavěná do okamžité odpovědi díky intenzivnímu tréninku na datech obsahujících řetězce úvah.
V testech předčil modely jako GPT-5 a Gemini 2.5 Pro ve 22 z 31 benchmarků, zejména v matematice a logickém uvažování.
Model je volně stažitelný pod licencí MIT, což stírá rozdíl mezi otevřenými a komerčními modely.
Varování expertů: Protokol MCP skrývá vážná bezpečnostní rizika
Nová studie upozorňuje na exponenciální nárůst bezpečnostních hrozeb u systémů využívajících Model Context Protocol (MCP).
Problém je v tzv. kompozičním riziku: zranitelnost rapidně roste s každým přidaným MCP serverem. Pouhé 2 servery znamenají 36% riziko, při 10 serverech se blíží 92 %.
Útočníci mohou zneužít serverů, které přijímají data z nedůvěryhodných zdrojů, k provedení neoprávněných příkazů, jako je spuštění kódu.
Kalifornie ukazuje cestu: První komplexní AI regulace v USA
V reakci na absenci federálních zákonů přijala Kalifornie balík čtyř přelomových nařízení.
SB 53 ukládá tvůrcům nejvýkonnějších modelů povinnost zveřejňovat bezpečnostní protokoly.
SB 243 chrání nezletilé před škodlivými vlivy chatbotů.
AB 316 stanovuje, že právní odpovědnost za škodu nese vždy společnost, nikoli autonomní AI.
AB 853 nařizuje jasné označování AI-generovaného obsahu.
Zákony vyvolaly smíšené reakce; některé firmy je vítají, jiné varují před fragmentací pravidel.
Vědci objevili efektivnější cestu: Lepší prompty nahrazují drahý trénink
Tým výzkumníků představil algoritmus GEPA, který výrazně vylepšuje schopnosti AI agentů. Algoritmus GEPA automaticky vylepšuje prompty AI agenta prostřednictvím iterativní evoluce. LLM analyzuje selhání agenta a poté reviduje prompty, aby opravil tyto konkrétní chyby. Opakovaně testuje a vybírá nejvýkonnější prompty, čímž zvyšuje výkon efektivněji než přeučování samotného modelu.
Místo náročného doladění modelu (fine-tuning) automaticky generuje a optimalizuje instrukce (prompty) na základě analýzy chyb agenta.
Tato metoda dosáhla lepších výsledků než klasické učení a zároveň byla až 35x úspornější na výpočetní zdroje.
Jde o ideální řešení pro situace s omezenými daty nebo výpočetním výkonem.
Data Points – DeepLearning.AI by Andrew Ng / gnews.cz – GH