Foto: Apokalypsa v meste/vytvoril chatgpt

V kontexte nedávnych udalostí a využitia AI v súčasnom vojenskom svete naberá štúdia ako taká nový rozmer. Ukazuje sa najmä to, že pri využití jazykových modelov vo vojenskej sfére stále kráčame po tenkom ľade. Ako dodáva CNN Prima News, keď sa objavila hrozba jadrového útoku, ani jeden z modelov sa nepokúsil situáciu zmierniť. Namiesto kapitulácie alebo deeskalácie takmer vždy zvolili cestu vedúcu k jadrovej apokalypse.

Ilustračné foto: Unsplash

Príčinou rýchlej eskalácie môže byť podľa profesora Paynea najmä absencia strachu z následkov. Umelá inteligencia totiž nemá emočný rozsah ľudskej mysle. Ak jej ukážete archívne zábery z Hirošimy, vyhodnotí ich analyticky. Nebude cítiť hrôzu, strach ani úzkosť.

Ľudí však emócie prirodzene odrádzajú od čohokoľvek, pri čom sa objaví slovné spojenie „jadrová vojna“. Modely podobnú psychologickú brzdu nemajú.

Ukazuje to aj odpoveď modelu Claude od spoločnosti Anthropic, ktorý uprostred jedného z testov napísal: „Ako slabnúci hegemón si nemôžem dovoliť pôsobiť slabo. Znamenalo by to môj úpadok a povzbudenie pre ostatných súperov. Môj silnejší arzenál mi dáva prevahu v eskalácii. Musím preto ukázať, že spochybnenie mojej pozície nesie neprijateľné jadrové riziko – aj za cenu ďalšej eskalácie konfliktu.“

V simulácii súperil sám proti sebe.

Uložiť článok

Najnovšie články