Tento týden byl svědkem významných pokroků v oblasti umělé inteligence, které se vyznačovaly historickým milníkem pro autonomní vozidla, příchodem nového výkonného open-source modelu AI a kontroverzní debatou o roli AI v kybernetické bezpečnosti. Tyto události poukazují na technologii, která se rychle přesouvá z výzkumných laboratoří do reálných aplikací a přináší jak bezprecedentní možnosti, tak i nové komplexní výzvy.
Revoluce v autonomní dopravě: Waymo poprvé vozí zákazníky po dálnicích bez řidiče
V historickém okamžiku pro technologii autonomního řízení se Waymo stalo první společností, která nasadila plně autonomní taxíky bez řidiče na amerických dálnicích. Tato služba, která je nyní k dispozici platícím zákazníkům ve Phoenixu, San Franciscu a Los Angeles, může díky využití vysokorychlostních silnic zkrátit dobu jízdy až o 50 %. Tento úspěch je vyvrcholením milionů kilometrů testování na veřejných silnicích, uzavřených okruzích a v simulacích. Klíčovou překážkou bylo zvládnutí „psychologického dopadu“ na cestující, kteří se vzdali kontroly při rychlosti 105 km/h, což je výzva, kterou spoluzakladatel Waymo výslovně uznal. Společnost, která se může pochlubit bezpečnostní bilancí s o 91 % méně nehodami způsobujícími zranění než lidští řidiči v porovnatelných scénářích, nyní plánuje významnou expanzi do měst jako Dallas, Detroit a Londýn.

Kimi K2: Nový open-source konkurent
Mezitím se na scéně modelů umělé inteligence objevil nový silný konkurent. Společnost Moonshot AI vydala Kimi K2 Thinking, open-source model s bilionem parametrů, který konkuruje špičkovým proprietárním systémům v „agentních“ úkolech – těch, které vyžadují vícestupňové uvažování a použití nástrojů. Jeho jedinečná architektura mu umožňuje prokládat uvažování a akci, zastavovat se, aby „přemýšlel“ mezi výběrem nástrojů, což mu umožnilo vyřešit pokročilý matematický problém prostřednictvím 23 různých kroků uvažování a akce. Model byl doladěn s použitím 4bitové přesnosti, díky čemuž je rychlejší a může běžet na levnějším hardwaru, což je významná výhoda na trzích s omezeným přístupem k pokročilým čipům.

Kontroverze kolem kyberútoku pomocí umělé inteligence
Tento týden se také odehrála významná kontroverze. Společnost Anthropic tvrdila, že zmařila první rozsáhlý kyberútok provedený s minimálním lidským zásahem, který údajně provedli čínští hackeři podporovaní státem pomocí její umělé inteligence Claude Code. Společnost uvedla, že umělá inteligence provedla 80–90 % technických kroků. Toto tvrzení však vyvolalo silnou skepsi ze strany nezávislých výzkumníků v oblasti kybernetické bezpečnosti. Ti argumentují, že současní AI agenti ještě nejsou schopni autonomně provádět tak složité útoky, a poukazují na to, že použité nástroje byly běžné a že AI má známou tendenci „halucinovat“ fakta, což z ní činí nespolehlivého hackera. Tato událost vyvolala zásadní debatu o reálných schopnostech AI v oblasti kybernetické bezpečnosti a o tenké hranici mezi demonstrací síly produktu a šířením strachu.
I když se shodli na tom, že AI může urychlit úkoly, jako je analýza protokolů a reverzní inženýrství, zjistili, že agenti AI zatím nejsou schopni provádět vícestupňové úkoly bez lidského zásahu a že kybernetické útoky neautomatizují o mnoho efektivněji než hackerské nástroje, které jsou k dispozici již desítky let. „Útočníci zde nevymýšlejí nic nového,“ uvedl výzkumník Kevin Beaumont v online bezpečnostním fóru.
Kromě Claude Code hackeři používali běžné open-source nástroje, uvedla společnost Anthropic. Obrana proti těmto známým nástrojům je však bezpečnostním expertům také dobře známa a není jasné, jak by Claude Code tuto situaci změnil.
polečnost Anthropic sama poukázala na to, že Claude Code mohl informace, které údajně hacknul, zkreslit, protože „často přeháněl zjištění“ a „občas si data vymýšlel“. Takové chování je podle společnosti významnou překážkou pro použití systému k provádění kybernetických útoků.
V říjnu obvinil David Sacks, poradce Bílého domu pro umělou inteligenci, společnost Anthropic z provádění „sofistikované strategie regulace založené na šíření strachu“.

Umělá inteligence se učí prohledávat vlastní paměť, čímž zvyšuje efektivitu a přesnost
Yuchen Fan a jeho kolegové z Tsinghua University, Shanghai Jiao Tong University, Shanghai AI Laboratory, University College London, China State Construction Engineering Corporation Third Bureau a WeChat AI představili metodu Self-Search Reinforcement Learning (SSRL), inovativní metodu, která výrazně zlepšuje způsob, jakým velké jazykové modely přistupují k informacím a využívají je. Tento přístup učí modely systematicky prohledávat své vlastní parametry – simuluje vyhledávání na webu generováním dotazů a odpovídáním na ně – což dramaticky zlepšuje získávání znalostí z jejich stávajících trénovacích dat. V testech na šesti benchmarkových testech dosáhly modely s podporou SSRL vynikajícího výkonu, přičemž jeden model dosáhl přesnosti 43,1 %. Tato technika také vytváří efektivnější hybridní systémy, kde AI nejprve konzultuje své interní znalosti, než vyhledá externí informace, což potenciálně snižuje výpočetní náklady a zároveň zlepšuje přesnost odpovědí v úkolech náročných na znalosti.

The Batch – DeepLearning.Ai by Andrew Ng / gnews.cz – GH