.
Aktuality, Bezpečnosť,

V USA sa rodí bojový Golem. Chcú použiť generatívnu umelú inteligenciu na vojenské účely

Pentagón vytvoril pracovnú skupinu Lima (Task Force Lima), ktorá má skúmať využitie generatívnej umelej inteligencie na vojenské účely. “Lima” bude súčasťou Generálneho riaditeľstva Pentagónu pre digitálne technológie a umelú inteligenciu (CDAO), povedie ju kapitán Xavier Lugo, člen riaditeľstva CDAO pre algoritmickú vojnu. Podľa amerického ministerstva obrany bude skupina “posudzovať, synchronizovať a využívať generatívne schopnosti umelej inteligencie, čím sa zabezpečí, že ministerstvo zostane na čele pokročilých technológií a zároveň zabezpečí národnú bezpečnosť”.


 

“Vytvorenie pracovnej skupiny Lima podčiarkuje neochvejný záväzok ministerstva obrany byť lídrom v oblasti inovácií umelej inteligencie,” uviedla námestníčka ministra Kathleen Hicksová. “Hoci technológia generatívnej umelej inteligencie nie je nová, popularita generatívnej umelej inteligencie v technologickom priestore v posledných mesiacoch prudko vzrástla vďaka jej uplatneniu v projektoch, ako je ChatGPT. Táto technológia sa trénuje na obrovských súboroch údajov a dokáže generovať zvuk, text, obrázky a iné typy obsahu. Ministerstvo obrany teraz hľadá spôsoby využitia generatívnej umelej inteligencie na zhromažďovanie spravodajských informácií a budúce vojenské operácie. No hoci by táto technológia mohla ministerstvu obrany ponúknuť nové príležitosti, musí zvážiť aj riziká, ktorým by ho táto technológia mohla vystaviť,” konštatuje vojenský portál Breaking Defence.

 

V júni minister letectva USA Frank Kendall oznámil, že požiadal vedeckú poradnú radu letectva, aby preskúmala potenciálny vplyv technológie ChatGPT. “Požiadal som svoju vedeckú poradnú radu, aby v súvislosti s AI urobila dve veci. Pozrieť sa na generatívne technológie AI, ako je ChatGPT, a zamyslieť sa nad ich vojenskými aplikáciami, a zostaviť malý tím, ktorý to urobí pomerne rýchlo,” povedal Kendall. Generatívna AI označuje kategóriu algoritmov AI, ktoré generujú nové výsledky na základe údajov, na ktorých boli vyškolené, čím sa líšia od oveľa jednoduchších algoritmov strojového učenia, ktoré jednoducho berú štruktúrované údaje a vytvárajú najpravdepodobnejší štatistický výsledok.

 

Medzi verejné nástroje generatívnej AI patria tzv. veľké jazykové modely, ako je ChatGPT, ktoré dokážu generovať nový text, ktorý je prakticky nerozoznateľný od textu napísaného človekom. Tieto modely sa už používajú na písanie esejí, obchodných plánov a dokonca aj vedeckých prác. “Tieto jazykové modely však niekedy klamú alebo, ako hovoria analytici AI, halucinujú,” poznamenáva Patrick Tucker, významný vojenský pozorovateľ. Netreba vysvetľovať, čoho sú halucinácie umelej inteligencie plné v prípade jej vojenských aplikácií. Jeden z priekopníkov tejto oblasti, Jeffrey Hinton, v máji tohto roku odišiel z práce v spoločnosti Google, aby vyjadril svoje obavy z rizík spojených s generatívnou umelou inteligenciou.

 

“V roku 2012 doktor Hinton a dvaja jeho postgraduálni študenti na Torontskej univerzite vytvorili technológiu, ktorá sa stala intelektuálnym základom generatívnej umelej inteligencie – systému, ktorý veľké spoločnosti v technologickom priemysle považujú za kľúčový pre svoju budúcnosť. Otočiť… oficiálne sa pripojil k rastúcemu chóru kritikov, ktorí tvrdia, že tieto spoločnosti sa svojou agresívnou kampaňou na vytvorenie produktov založených na generatívnej umelej inteligencii, technológii, ktorá je základom populárnych chatbotov, ako je ChatGPT, približujú k nebezpečnej hranici,” uviedol denník The New York Times.

 

“Je ťažké si predstaviť, ako môžete zabrániť zlým ľuďom, aby ju *generatívnu umelú inteligenciu+ používali na zlé účely,” upozorňuje Hinton a zdôrazňuje, že generatívna umelá inteligencia by mohla pomôcť šíriť dezinformácie, znižovať počet pracovných miest a z dlhodobého hľadiska dokonca predstavovať hrozbu pre ľudstvo. Hinton sa domnieva, že s rastúcim výkonom systémov umelej inteligencie rastie aj riziko s nimi spojené.

 

“Pozrite sa, ako to bolo pred piatimi rokmi a ako je to teraz,” poznamenáva. – Vezmite si rozdiel a rozšírte ho do budúcnosti. Je to desivé.” Hinton sa obáva najmä vývoja autonómnych zbraňových systémov, ktoré vyhľadajú daný cieľ a samy sa rozhodnú, či ho zničia, a že AI vo vojenstve by mohla prekonať ľudskú inteligenciu. Na rozdiel od jadrových zbraní podľa neho neexistuje spôsob, ako zistiť, či spoločnosti alebo krajiny tajne pracujú na tejto technológii. Jeffrey Hinton na otázku, ako môže pracovať na potenciálne nebezpečnej technológii, povedal, že parafrázuje Roberta Oppenheimera, ktorý viedol americké úsilie o vytvorenie atómovej bomby: “Keď vidíte niečo technicky príjemné, idete a urobíte to.”

 

“On už takto neuvažuje,” poznamenal denník The New York Times. USA medzitým vsádzajú na generatívnu umelú inteligenciu ako na potenciálnu revolúciu vo vojenských záležitostiach a “multiplikátor síl”. “Generatívna AI sľubuje, že úplne zmení geopolitiku vojny a odstrašovania. Urobí to spôsobom, ktorý sa môže stať dokonca existenčnou hrozbou,” píše publicista časopisu Foreign Policy Michael Hirsch.

“Softvér poháňaný umelou inteligenciou by mohol prinútiť hlavné mocnosti skrátiť svoje rozhodovacie okno na minúty namiesto hodín alebo dní. Môžu sa príliš spoliehať na strategické a taktické hodnotenia umelej inteligencie, a to aj v prípade jadrovej vojny. Podľa Herberta Lina zo Stanfordskej univerzity hrozí nebezpečenstvo, že rozhodovacie orgány sa môžu postupne spoliehať na novú umelú inteligenciu v rámci velenia a riadenia zbraní, pretože pracuje oveľa vyššou rýchlosťou ako ľudia.”

 

zhľadom na sklon umelej inteligencie k preháňaniu t. j. k spomínaným halucináciám, keď ľudia začnú veriť, že stroje myslia, je pravdepodobnejšie, že budú robiť šialené veci,” poznamenáva Herbert Lin. V nedávno vydanej knihe AI and the Bomb: Nuclear Strategy and Risk in the Digital Age (Umelá inteligencia a bomba: jadrová stratégia a riziko v digitálnom veku) analytik James Johnson z Aberdeenskej univerzity opisuje náhodnú jadrovú vojnu vo Východočínskom mori v roku 2025, ktorú by spustila umelá inteligencia na americkej aj čínskej strane, pričom by sa o to snažili autonómni boti, podpora umelej inteligencie, deeipfakes a operácie pod falošnou vlajkou.”

 

V správe, ktorú začiatkom februára 2023 zverejnila Americká asociácia pre kontrolu zbrojenia, sa uvádza, že umelá inteligencia by mohla viesť k “stieraniu rozdielov medzi konvenčným a jadrovým útokom”. V správe sa tiež uvádza, že boj o “využívanie nových technológií na vojenské účely sa zrýchlil oveľa rýchlejšie ako pokusy o posúdenie nebezpečenstiev, ktoré predstavujú, a stanovenie limitov ich používania”.

 

“V januári tohto roku ministerstvo obrany aktualizovalo svoju smernicu o zbraňových systémoch využívajúcich umelú inteligenciu, v ktorej sa uvádza, že pri vývoji a nasadení autonómnych zbraňových systémov by sa mal využívať aspoň určitý ľudský úsudok,” konštatuje Michael Hirsch a dodáva, že “môžu smerovať na šikmú plochu”.

 

Významný ruský vedec profesor Sergej Pavlovič Rastorgujev z Moskovskej štátnejj univerzity Lomonosová v monografii z roku 1965 “Cieľ ako kryptogram. Kryptoanalýza syntetických cieľov” poukázal: “K dnešnému dňu sa pre svet počítačových programov stalo získanie nezávislosti hotovou vecou”. S rastúcou zložitosťou softvérového produktu “systémový softvér začína žiť vlastným životom, nachádza si cieľ sám v sebe,” konštatuje ruský vedec a prirovnáva počítačové komplexy získavajúce nezávislosť k stredovekému Golemovi, o ktorom je známe, že zabil svojho tvorcu.

 

To, čo Rastorgujev nazval nezávislosťou počítačových programov, moderní americkí analytici vo vzťahu ku generatívnej umelej inteligencii nazývajú “halucináciami”, čo je však slabá útecha. A po takmer troch desaťročiach je zrejmé, že generatívna umelá inteligencia, najmä aplikovaná na vojenské účely, je taká zložitá, že jej hypotetická nezávislosť desí aj tých najsvedomitejších vývojárov, ako je Jeffrey Hinton. Napriek tomu je Pentagon na ceste k vytvoreniu ďalšej “absolútnej zbrane”, tentoraz v oblasti umelej inteligencie, pričom sa málo zamýšľa nad nebezpečenstvom, ktoré pre celé ľudstvo predstavuje počítačový Golem vytvorený v hlbinách tajných vojenských laboratórií.

Vladimír Prochvatilov

Najčítanejšie




Odporúčame

Varovanie

Vážení čitatelia - diskutéri. Podľa zákonov Slovenskej republiky sme povinní na požiadanie orgánov činných v trestnom konaní poskytnúť im všetky informácie zozbierané o vás systémom (IP adresu, mail, vaše príspevky atď.) Prosíme vás preto, aby ste do diskusie na našej stránke nevkladali také komentáre, ktoré by mohli naplniť skutkovú podstatu niektorého trestného činu uvedeného v Trestnom zákone. Najmä, aby ste nezverejňovali príspevky rasistické, podnecujúce k násiliu alebo nenávisti na základe pohlavia, rasy, farby pleti, jazyka, viery a náboženstva, politického či iného zmýšľania, národného alebo sociálneho pôvodu, príslušnosti k národnosti alebo k etnickej skupine a podobne. Viac o povinnostiach diskutéra sa dozviete v pravidlách portálu, ktoré si je každý diskutér povinný naštudovať a ktoré nájdete tu. Publikovaním príspevku do diskusie potvrdzujete, že ste si pravidlá preštudovali a porozumeli im.

Vstupujete na článok s obsahom určeným pre osoby staršie ako 18 rokov.

Potvrdzujem že mám nad 18 rokov
Nemám nad 18 rokov