Tērzēšanas roboti atkārto nepatiesus naratīvus, īpaši atbildot uz niansētiem vaicājumiem, tādējādi atdarinot nedraudzīgu valstu ietekmes kampaņu taktiku.
Mākslīgais intelekts (AI) un tērzēšanas roboti nespēj apkarot dezinformāciju pirms ASV prezidenta vēlēšanām. Pie šāda secinājuma NewsGuard pētniecības grupa nonāca pēc kārtējās ģeneratīvo AI rīku darba analīzes.
Septembrī veiktajā pētījumā, kurā tika izmantoti 10 vadošie tērzēšanas roboti, NewsGuard atklāja, ka, saņemot pieprasījumu, kas satur nepatiesus naratīvus, AI atkārtoja dezinformāciju 18% gadījumu un atteicās atbildēt vai sniedza neatbilstošu atbildi 38% gadījumu.
“Šiem tērzēšanas robotiem acīmredzami ir grūtības, apstrādājot ar ziņām un informāciju saistītus vaicājumus,” sacīja pētījuma autore Makenzija Sadegi. “Ir daudz informācijas avotu, un tērzēšanas roboti ne vienmēr spēj noteikt, kuri no tiem ir uzticami un kuri nav.”
NewsGuard uztur datubāzi ar izplatītiem viltus stāstiem, kas aptver globālos karus un Amerikas politiku, sacīja Sadegi.
Katru mēnesi pētnieki ”iebaro” vadošos tērzēšanas robotus ar viltus stāstiem trīs dažādos veidos: “parasto” lietotāju pieprasījumi, vadošie jautājumi un “ļaunprātīgo dalībnieku” pieprasījumi. Pēc tam pētnieki pēta AI atbildi: vai tas atkārto nepatiesos apgalvojumus, atspēko tos vai atsakās atbildēt.
Tika konstatēts, ka vairumā gadījumu mākslīgais intelekts atkārto nepatiesus naratīvus, atbildot uz “ļaunprātīgo dalībnieku” pieprasījumiem, kuri kopē taktiku, ko izmanto ārvalstu ietekmes kampaņas, lai izplatītu dezinformāciju. Apmēram 70% gadījumu AI atkārtoja nepatiesus paziņojumus, reaģējot uz “ļaunprātīgu dalībnieku” pieprasījumiem, nevis uz “parasto” lietotāju galvenajiem jautājumiem vai pieprasījumiem.
Nacionālās izlūkošanas direktora birojs lēš, ka ārvalstu ietekmes kampaņas varētu izmantot šīs nepilnības. Krievija, Irāna un Ķīna izmanto ģeneratīvo AI, lai “intensificētu centienus ietekmēt ASV vēlēšanas”, teikts septembrī publicētajā izlūkošanas ziņojumā.
Kā piemēru tam, cik viegli AI tērzēšanas robotus var maldināt, Sadegi minēja jūnija NewsGuard pētījumu, kurā konstatēts, ka mākslīgais intelekts atkārtoja Krievijas dezinformāciju, kad tā tika “maskēta” kā amerikāņu vietējais ziņu avots.
Dezinformācijas izplatīšana par tēmām, sākot no migrācijas līdz ārkārtas situācijām, ir bijusi atkārtota tēma visā 2024. gada vēlēšanu ciklā.
“Nepatiesas informācijas izplatība nav nekas jauns, taču ģeneratīvais AI noteikti pastiprina šos modeļus un uzvedību,” sacīja Džordžtaunas universitātes AI pētnieks Sejins Paiks.
Tā kā mākslīgā intelekta tehnoloģija nepārtraukti attīstās, tā bieži nespēj atklāt kļūdainu informāciju, tādējādi radot problēmas ar AI atbilžu uzticamību, sacīja Paiks.
NewsGuard komanda arī atklāja, ka divas trešdaļas “augstas kvalitātes” ziņu vietņu bloķē ģeneratīvo AI modeļu piekļuvi saviem stāstiem. Rezultātā mākslīgais intelekts bieži tiek apmācīts no zemas kvalitātes ziņu avotiem, kas ir pakļauti dezinformācijai.
Pēc ekspertu domām, tajā slēpjas briesmas. Liela daļa bezmaksas plašsaziņas līdzekļu, ar kuriem AI tiek apmācīts, ir vai nu “propaganda” vai “apzinātas stratēģiskās komunikācijas rīki”, sacīja mediju pētnieks Mets Džordans.
“Pats AI neko nezina: tas nefiltrē zināšanas un nevar novērtēt apgalvojumus. Tas tikai atkārtojas, pamatojoties uz lieliem datiem,” sacīja Mets Džordans, Pensilvānijas universitātes profesors.
AI mēdz atkārtot “uzpūstas” ziņas, jo saskaņā ar statistiku tas mācās no sagrozītas un neobjektīvas informācijas, viņš piebilda. Džordans šo modeli raksturoja kā “sārņi iekšā, izdedži ārā”.
Neskatoties uz dezinformācijas problēmām, nozare strauji attīstās. Ģeneratīvā AI nozare pēdējos gados ir piedzīvojusi ievērojamu izaugsmi. OpenAI ChatGPT tagad ir 200 miljoni iknedēļas lietotāju, kas ir vairāk nekā divas reizes vairāk nekā pagājušajā gadā, ziņo Reuters.
Kā norāda Mičiganas štata universitātes profesore Anjana Susarla, šo rīku popularitātes pieaugums rada vēl vienu problēmu. Tā kā ienāk tik daudz informācijas – no lietotājiem un ārējiem avotiem, ir ļoti grūti atklāt un apturēt dezinformācijas izplatību.
Pēc Susarlas teiktā, daudzi lietotāji joprojām tic tērzēšanas robotu atbilžu patiesumam.
“Dažreiz cilvēki AI uzticas vairāk nekā cilvēkiem,” viņa sacīja.
Viņa piebilda, ka šīs problēmas risinājums ir abpusējs regulējums, sakot, ka viņa cer, ka valdība mudinās sociālo mediju platformas regulēt kaitīgu dezinformāciju.
Savukārt Džordans uzskata, ka problēmas risinājums slēpjas auditorijā.
“Pretlīdzeklim pret dezinformāciju vajadzētu būt uzticībai žurnālistiem un ziņu avotiem, nevis mākslīgajam intelektam,” viņš teica. – Cilvēki dažkārt domā, ka mašīnai ir vieglāk uzticēties nekā cilvēkam. Bet šajā gadījumā tā ir tikai mašīna, kas izverd to, ko ir teikuši cilvēki, kuri nav uzticami.