Foto: Apokalypsa v meste/vytvoril chatgpt

V kontexte nedávnych udalostí a využitia AI v súčasnom vojenskom svete naberá všetko nový rozmer.

Vedci proti sebe postavili viacero populárnych a široko využívaných modelov umelej inteligencie (AI). Do experimentu zaradili systémy ako ChatGPT, Claude Sonnet či Gemini.

„Vo svete, kde umelá inteligencia zohráva čoraz väčšiu úlohu vo vojenskej stratégii, je nevyhnutné porozumieť tomu, ako pokročilé modely napodobňujú ľudskú strategickú logiku,“ uviedol vedúci výskumu, profesor Kenneth Payne, informuje portál CNN Prima News.

Výsledky experimentu naznačujú, že modely by jadrový konflikt začali oveľa pravdepodobnejšie než ľudia. V rámci štúdie medzi sebou viedli spolu 21 simulovaných strategických súbojov. Ako sme vás informovali skôr v tomto týždni, až v 95 % prípadov by sa tieto simulácie skončili použitím jadrových zbraní.

Využitie AI vo vojenskej sfére už nie je iba hypotézou

Bežná verejnosť môže vedeckú štúdiu vnímať najskôr ako to, čím je – obyčajný experiment. Pravdou však je, že využívanie umelej inteligencie vo vojenskej sfére už dnes nie je iba hypotézou.

Portál CNN Prima totiž informuje o tom, že model Claude od spoločnosti Anthropic mal byť už nasadený na bližšie nešpecifikované úlohy v prostredí amerického ministerstva obrany aj spravodajských služieb. Objavili sa aj správy, že tento systém mohol byť využitý počas operácie, pri ktorej americké špeciálne jednotky zajali venezuelského prezidenta Nicolása Madura.

umelá inteligencia v práci
Ilustračná foto: Pexels

Americká vláda zároveň podľa médií tlačí na spoločnosť Anthropic, aby umožnila širšie využívanie modelu Claude. Firma sa bráni argumentom, že by to podkopávalo demokratické hodnoty a bezpečnostné princípy, na ktorých bol systém navrhnutý. Vláda však naznačuje, že by mohla uplatniť tzv. Defense Production Act – zákon, ktorý jej v mimoriadnych situáciách umožňuje prinútiť súkromné firmy, aby svoje technológie sprístupnili pre obranné potreby štátu.

Konkurenčná spoločnosť OpenAI už s Pentagónom kontrakt uzatvorila. Podľa dostupných informácií ide o pomerne čerstvú dohodu, ktorá má urýchliť integráciu AI do obranných systémov Spojených štátov.

Muskov Grok AI a jeho tajomné predpovede

V súvislosti s potenciálom AI a jej vplyvom na geopolitiku zaujala aj nedávna správa týkajúca sa modelu Grok, ktorý je vyvinutý spoločnosťou xAI Elona Muska. Ide o chatbot, ktorý patrí medzi najkontroverznejšie systémy umelej inteligencie v súčasnom technologickom prostredí. Tento prívlastok si vyslúžil najmä preto, že v minulosti umožňoval generovanie sexualizovaných a explicitných obrázkov žien a dokonca aj maloletých.

Nedávno sa však dostal do pozornosti z iného dôvodu – pre svoju záhadnú predpoveď o eskalácii napätia na Blízkom východe. Model mal 25. februára uviesť, že k útoku Spojených štátov na Irán dôjde 28. februára. Keď ho denník The Jerusalem Post vyzval, aby svoju predpoveď prehodnotil, odpovedal, že vychádza z informácií založených na dôkazoch a že ide o „najinformovanejší odhad“, aký je schopný poskytnúť.

K tejto neobvyklej situácii sa následne vyjadril aj samotný Musk. Na sociálnej sieti X napísal: „Predpovedanie budúcnosti je najlepším meradlom inteligencie.“

Portál Firstpost však upozorňuje, že podobné prípady treba interpretovať opatrne. Podľa neho experiment skôr ukazuje schopnosť modelu rozpoznávať vzorce vo verejne dostupných dátach. „Predpoveď“ tak mohla byť ovplyvnená prebiehajúcimi mediálnymi špekuláciami a analytickými diskusiami.

Ako dodáva portál: „Či incident s predpoveďou modelu Grok signalizuje niečo o budúcnosti umelej inteligencie, alebo ide len o známu náhodu, sa ešte len uvidí. Jasné však je, že vnímanie zohráva dôležitú úlohu. V napätom prostredí umelej inteligencie a globálnej politiky sa naratívy môžu rýchlo meniť, čo má reálne dôsledky pre dôveru, zodpovednosť aj spôsob, akým spoločnosti interpretujú vznikajúce technológie.“

Ako vyzerala samotná štúdia?

Uložiť článok

Najnovšie články