Koalice odpůrců umělé inteligence pokračuje v hledání argumentů, které by zpomalily její rozvoj. Pokud někdo vyjadřuje upřímné obavy z konkrétních dopadů AI – například že by mohla vést k vyhynutí lidstva – lze takový postoj respektovat, i když s ním nemusíme souhlasit. Znepokojivější je však situace, kdy některé organizace aktivně testují, jaké argumenty nejlépe ovlivní veřejnost a obrátí ji proti AI, a tyto narativy pak šíří lobbisté, politici nebo firmy sledující vlastní zájmy.
Velká studie britské skupiny ukázala, že tvrzení o vyhynutí lidstva kvůli AI u veřejnosti příliš nezabírá. Tento argument byl populární před několika lety, ale postupně ztratil sílu. Naopak větší odezvu mají témata jako využití AI ve válce nebo její dopady na životní prostředí. Silně působí také obavy ze ztráty pracovních míst a ohrožení dětí. Lze očekávat, že právě tyto argumenty budou v budoucnu dominovat veřejné debatě.
Je důležité zdůraznit, že všechny tyto oblasti si zaslouží seriózní pozornost. Využití AI ve vojenských konfliktech je skutečně znepokojivé, environmentální dopady je nutné pečlivě sledovat a minimalizovat, ztráta práce má reálné dopady na jednotlivce i rodiny a ochrana dětí je zásadní hodnotou. Problém nastává ve chvíli, kdy jsou tato komplexní témata zjednodušována a zneužívána k prosazení úzkých zájmů na úkor širší veřejnosti.
Příkladem může být situace, kdy velké technologické firmy upozorňují na rizika AI, aby omezily šíření open-source řešení, která jim konkurují. Podobně zkreslené vnímání panuje u datových center – veřejnost často přeceňuje jejich ekologickou zátěž, přestože patří mezi velmi efektivní infrastruktury. Brzdění jejich výstavby by tak mohlo životnímu prostředí spíše uškodit než pomoci. Také v oblasti zaměstnanosti dochází k nadsazování dopadů – některé firmy připisují propouštění AI, i když ve skutečnosti jde o důsledek předchozího nadměrného náboru.
Taková propaganda může vést k nevhodným regulacím, které nakonec situaci zhorší. Historie nabízí varování – například přehnané obavy z jaderné energie vedly k jejímu omezení, což přispělo ke zvýšení emisí i zdravotním problémům spojeným se znečištěním ovzduší. Podobnému scénáři by bylo vhodné se u AI vyhnout.
Aktuálně se diskutuje návrh legislativního rámce pro AI, který má zabránit roztříštěnosti pravidel mezi jednotlivými státy a podpořit jednotný přístup. Cílem je umožnit rozvoj AI při zachování ochrany spotřebitelů a práv jednotlivých regionů. Pokud by byl přijat, mohl by vytvořit stabilní prostředí pro další inovace.
Do budoucna je klíčové zachovat racionální přístup. Je třeba omezovat škodlivé aplikace – ať už využívají AI, nebo ne – a zároveň pečlivě vyvažovat přínosy a rizika na základě vědeckých poznatků. Při hodnocení kritiky AI je důležité rozlišovat mezi konzistentními a věcnými argumenty a mezi těmi, které pouze reagují na aktuální nálady veřejnosti. Jen tak lze zabránit tomu, aby přehnané obavy brzdily technologie, které mohou přinést významné výhody celé společnosti.
deeplearning.ai/gnews.cz – GH