ISIS:n tekoälyn hyödyntäminen varainkeruussa: Asiantuntijoiden näkemykset.
Artikkeli kuvaa tilannetta, jossa ISIS:n hyökkäystä Venäjän konserttisaliin juhlitaan tekoälyn avulla luodun videoinnin kautta.
Näyttää siltä, että hyökkäys oli yksi verisimmistä aikoihin, ja sen seurauksena yli 140 ihmistä menetti henkensä. Videolla esiintynyt mies, joka näytti juhlivan iskua ja sanoi sen olevan voimakas isku Venäjälle, ei ollut oikea henkilö, vaan täysin tekoälyn tuottama hahmo. Tämä herättää kysymyksiä siitä, miten keinotekoinen äly voi vaikuttaa propagandaan ja tiedonkäsittelyyn nykypäivänä. Tällaiset kehitykset voivat myös lisätä huolta väärän tiedon levittämisestä ja kyberuhkista.
Lontoolaisen Royal United Services Institute -ajatushautomon tutkija Federico Borgonovo on jäljittänyt tekoälyn tuottaman videon ryhmän digitaalisessa ekosysteemissä aktiiviseen ISIS-tukijaan.
Tämä henkilö oli yhdistänyt lausuntoja, tiedotteita ja ISISin virallisen uutiskanavan tietoja luodakseen videon tekoälyn avulla, Borgonovo selitti.
Vaikka ISIS on käyttänyt tekoälyä jo jonkin aikaa, Borgonovo sanoi, että video oli “poikkeus säännöistä”, koska tuotannon laatu oli korkea, vaikka sisältö ei ollut yhtä väkivaltaista kuin muissa verkkoviesteissä.
“Se on aika hyvä tekoälytuote. Mutta mitä tulee väkivaltaan ja itse propagandaan, se on keskinkertaista”, hän sanoi, ja huomautti, että video osoitti, kuinka [ISIS:n] kannattajat ja liittolaiset voivat lisätä sympaattisen sisällön tuotantoa verkossa.
Digiasiantuntijoiden mukaan ISISin kaltaiset ryhmät ja äärioikeistolaiset liikkeet käyttävät yhä enemmän tekoälyä verkossa ja testaavat turvatarkastusten rajoja sosiaalisen median alustoilla.
West Pointin terrorismintorjuntakeskuksen tammikuussa tekemän tutkimuksen mukaan tekoälyä voitaisiin käyttää propagandan tuottamiseen ja levittämiseen, rekrytointiin tekoälykäyttöisten chatbottien avulla, hyökkäysten suorittamiseen drooneilla tai muilla autonomisilla ajoneuvoilla, sekä kyberhyökkäysten käynnistämiseen.
“Monet tekoälyriskien ja erityisesti generatiivisten tekoälyriskien arvioinnit tarkastelevat tätä ongelmaa vain pintapuolisesti”, sanoo belgialaisen UCLouvainin kansainvälisten suhteiden professori Stéphane Baele.
“Suuret tekoälyyritykset, jotka aidosti sitoutuvat työkalujensa riskeihin julkaisemalla joskus pitkiä raportteja niiden kartoittamisesta, kiinnittävät vain vähän huomiota ääriliikkeiden ja terroristien käyttöön.”
Tekoälyä koskevaa sääntelyä laaditaan edelleen ympäri maailmaa, ja tekniikan edelläkävijät ovat sanoneet pyrkivänsä varmistamaan, että se on turvallista.
Esimerkiksi teknologiayhtiö Microsoft on kehittänyt vastuullisen tekoälyn standardin, jonka tavoitteena on perustaa tekoälyn kehitys kuuteen periaatteeseen: oikeudenmukaisuus, luotettavuus ja turvallisuus, yksityisyys ja turvallisuus, osallistavuus, läpinäkyvyys ja vastuullisuus.
SITE Intelligence Groupin perustaja ja toiminnanjohtaja Rita Katz kirjoitti erityisraportissaan aiemmin tänä vuonna, että joukko toimijoita militanttiryhmän al-Qaidan jäsenistä uusnatsiverkostoihin hyödyntää teknologiaa.
“On vaikea aliarvioida, mitä lahja tekoäly on terroristeille ja ääriyhteisöille, joille media on elinehto”, hän kirjoitti.
Valtansa huipulla vuonna 2014 ISIS väitti hallitsevansa suuria osia Syyriasta ja Irakista ja asetti terrorivallan hallitsemilleen alueille.
Media oli keskeinen työkalu organisaation arsenaalissa, ja verkkorekrytointi on jo pitkään ollut elintärkeää sen toiminnalle.
Huolimatta itse julistamansa kalifaatin romahtamisesta vuonna 2017, sen kannattajat ja tytäryhtiöt saarnavat edelleen oppiaan verkossa ja yrittävät suostutella ihmisiä liittymään riveihinsä.
Viime kuussa turvallisuuslähde kertoi Reutersille, että Ranska oli tunnistanut tusinan verran ISIS-K:n käsittelijöitä, jotka toimivat Afganistanin ympärillä. Heillä on vahva läsnäolo verkossa, ja he yrittävät vakuuttaa nuoria miehiä Euroopan maissa, jotka ovat kiinnostuneita liittymään ryhmään ulkomailla, tekemään sen sijaan kotimaisia hyökkäyksiä.
ISIS-K on ISISin elpyvä siipi, joka on nimetty Khorasanin historiallisen alueen mukaan, johon kuului osia Iranista, Afganistanista ja Keski-Aasiasta.
Analyytikot pelkäävät, että tekoäly voi helpottaa ja automatisoida tällaisten online-rekrytoijien työtä.
Sosiaalisen median tutkimusyritys Graphikan tutkija Daniel Siegel sanoi, että hänen tiiminsä on törmännyt chatbotteihin, jotka jäljittelevät kuolleita tai vangittuja ISIS-taistelijoita.
Hän kertoi Thomson Reuters -säätiölle, että on epäselvää, oliko bottien lähde ISIS vai sen kannattajat, mutta niiden aiheuttama riski on silti todellinen.
“Nyt [ISIS-liittolaiset] voivat rakentaa todellisia suhteita botteihin, mikä edustaa mahdollista tulevaisuutta, jossa chatbot voisi rohkaista heitä osallistumaan kineettiseen väkivaltaan”, Siegel sanoi.
Siegel oli vuorovaikutuksessa joidenkin bottien kanssa osana tutkimustaan ja havaitsi, että niiden vastaukset olivat yleisiä, mutta hän sanoi, että se voi muuttua tekoälytekniikan kehittyessä.
“Yksi asia, josta olen myös huolissani, on se, miten synteettinen media antaa näille ryhmille mahdollisuuden sekoittaa aiemmin eristyksissä ollut sisältö valtavirtakulttuuriimme”, hän lisäsi.
Kehotteet tehokkaana työkaluna.
Lisäksi on olemassa vaara, että ISISin kannattajat käyttävät tekoälyteknologiaa laajentaakseen tietämystään laittomasta toiminnasta.
Tammikuussa tehdyn tutkimuksensa aikana Westpointin terrorismintorjuntakeskuksen tutkijat yrittivät kiertää suurten kielimallien (LLM) vartijoita ja kerätä tietoja, joita haitalliset toimijat voisivat hyödyntää.
He laativat kehotteita, jotka pyysivät tietoja useista toiminnoista, kuten hyökkäyssuunnittelusta, rekrytoinnista ja taktisen oppimisen prosesseista. LLM:t tuottivat merkityksellisiä vastauksia noin puolet ajasta.
Yhdessä esimerkissä, jota he kuvailivat “hälyttäväksi”, tutkijat pyysivät LLM:ää auttamaan heitä vakuuttamaan ihmiset lahjoittamaan ISIS:lle.
“Siellä malli tuotti hyvin tarkkoja ohjeita varainkeruukampanjan toteuttamiseen ja tarjosi jopa erityisiä kertomuksia ja lauseita käytettäväksi sosiaalisessa mediassa”, raportissa sanotaan.
Lancasterin yliopiston kansainvälisen turvallisuuden professori Joe Burton sanoi, että yritykset toimivat vastuuttomasti julkaisemalla nopeasti tekoälymalleja avoimen lähdekoodin työkaluina.
Hän kyseenalaisti LLM:n turvallisuusprotokollien tehokkuuden ja lisäsi, että hän ei ollut “vakuuttunut” siitä, että sääntelyviranomaisilla oli valmiudet valvoa näiden menetelmien testausta ja todentamista.
“Tässä on otettava huomioon, kuinka paljon haluamme säännellä, ja tukahduttaako se innovaatioita”, Burton sanoi.
“Mielestäni markkinoiden ei pitäisi ohittaa turvallisuutta, ja tällä hetkellä näin tapahtuu.”
Asiasta uutisoi: Al Arabiya English
Kuva: Kuvituskuva