Take a fresh look at your lifestyle.

Big Tech ei tunne AI-valimiste valeinformatsiooni punkti

0

Meta teatas kolmapäeval (8. novembril), et see nõuaks sildid poliitilistele reklaamidele, mida on tehisintellekti või muud tehnoloogiat kasutades digitaalselt muudetud viisil, mis võib olla eksitav.

Teade tuleb päev pärast Microsofti teatas Samuti astus ta mitmeid samme valimiste kaitsmiseks, sealhulgas pakkus tööriistu tehisintellektiga loodud sisu vesimärgistamiseks ja võttis kasutusele kampaania edumeeskonna, et nõustada poliitilisi kampaaniaid tehisintellekti, küberjulgeoleku ja muude seonduvate küsimuste alal.

Järgmine aasta on sel sajandil valimiste jaoks kõige olulisem aasta, kus valima lähevad USA, India, Ühendkuningriik, Mehhiko, Indoneesia ja Taiwan. Kuigi paljud on mures sügava võltsimise ja valeinformatsiooni mõju pärast valimistele, rõhutavad paljud eksperdid, et tõendid nende mõju kohta valimistele on seni parimal juhul piiratud. Eksperdid tervitavad meetmeid, mida tehnoloogiaettevõtted on võtnud valimiste aususe kaitsmiseks, kuid väidavad, et desinformatsiooniga võitlemiseks on vaja põhjalikumaid muudatusi poliitilistes süsteemides.

Kuidas AI võib valimisi mõjutada

Tehnikaettevõtted on võetud vaatluse alla pärast nende rolli eelmistel valimistel. 2021. aastal avaldatud veebipõhise huvikaitserühma Avaaz aruanne leidis, et oodates oma algoritmide muutmiseks 2020. aasta USA presidendivalimistele eelneva kuuni, võimaldas Meta oma platvormil levida valeinformatsioonil. Metat on kritiseeritud ka sisu reklaamimise eest, mis seab kahtluse alla 2022. aasta Brasiilia valimiste kehtivuse, ja sisu võimendamise eest, mis võis kaasa aidata Myanmari rohingja etnilise rühma vastu toime pandud inimõiguste rikkumistele.

Viimastel aastatel on AI areng kiiresti edenenud. Generatiivne tehisintellekt, mis võimaldab kasutajatel luua teksti, heli ja videot, kerkis 2022. aasta novembris välja OpenAI ChatGPT väljalaskmisega.

Generatiivset AI-d on USA poliitilistes reklaamides juba mitu korda kasutatud, kuigi igal juhul saadi aru, et AI-d on kasutatud. Aprillis andis Vabariiklik Partei välja an AI loodud reklaam eesmärk oli näidata, mis juhtuks president Joe Bideni tagasivalimisel. Juunis postitas Florida vabariiklasest kuberneri ja presidendikandidaadi Ron DeSantise X kampaania konto video mis sisaldas tehisintellektiga loodud pilte endisest presidendist Donald Trumpist, kes embab dr Anthony Fauci.

A küsitlus novembris avaldati, et 58% USA täiskasvanutest on mures, et tehisintellekt võib 2024. aasta presidendivalimiste ajal suurendada valeteabe levikut.

Loe rohkem: Föderaalne tehisintellekti määrus läheneb

Uuringud leiavad aga järjekindlalt, et desinformatsioon ei ole mõõdetavalt muutnud eelmiste USA valimiste tulemusi, ütleb Saksamaa Bambergi ülikooli politoloogiaprofessor Andreas Jungherr, kes märgib, et teiste erialade, näiteks meediauuringute ja psühholoogia akadeemikud kalduvad. et anda rohkem usaldust valeinformatsiooni mõjudele valimistele.

Näiteks a paber aastal avaldatud Loodus 2023. aastal ei leidnud „pole tõendeid sisulise seose kohta Venemaa välismõjutuskampaaniaga kokkupuute vahel [in 2016] ja muutused hoiakutes, polariseerumises või hääletamiskäitumises.

Sageli hindavad inimesed väärinfo mõjusid üle, kuna nad hindavad üle nii seda, kui lihtne on muuta inimeste seisukohti sellistes pingelistes küsimustes nagu hääletuskäitumine, kui ka seda, kui võimekad on desinformatsiooni võimaldavad tehnoloogiad, nagu AI, ütleb Jungherr.

Kuigi tõenäosus, et tehisintellekti loodud desinformatsioon võib mõjutada avalikku arvamust piisavalt, et valimisi mõjutada, on väga väike, võib tehisintellektil olla tulevikus siiski kahjulik mõju valimistele ja poliitikale laiemalt, ütleb keskuse teadur Elizabeth Seger. Ühendkuningriigis asuva uurimisorganisatsiooni AI juhtimine Tulevikus võidakse massiliste veenmiskampaaniate läbiviimiseks kasutada väga isikupärastatud AI-toega sihtimist koos ülimalt veenvate tehisintellekti agentidega. Ja 2024. aastal võib ainuüksi süvavõltsingute olemasolu vähendada inimeste usaldust peamiste teabeallikate vastu, ütleb Seger.

Seda on juba juhtunud. 2019. aastal kasutati väidet, et Gaboni tollase presidendi Ali Bongo video oli võlts. õigustada riigipöördekatse. Hiljem samal aastal steriliseeriti kahtlustatava video mõju Malaisia ​​valitsuskabineti ministrist, kes osales seksuaalaktis koos poliitilise abiga. väited et videot muutis tehisintellekt.

“Oht, mida sageli tähelepanuta jäetakse ja mis leiab aset selles valimistsüklis palju tõenäolisemalt, ei seisne selles, et generatiivset tehisintellekti ei kasutata sügavate võltsingute tegemiseks, mis meelitavad inimesi mõtlema, et kandidaat on nii ja nii tegi midagi kohutavat,” ütleb Seger. “Kuid nende tehnoloogiate olemasolu kasutatakse tõendite väärtuse ja usalduse õõnestamiseks peamiste teabevoogude vastu.”

Valimiste kaitse

Siiani on valitsused võtnud piiratud meetmeid, et leevendada tehisintellekti mõju valimistele. USAs arve võeti kongressis kasutusele mais, mis nõuaks AI-ga loodud pilte või videoid kasutavate poliitiliste reklaamide puhul lahtiütlemist. Augustis palus föderaalne valimiskomisjon teavet selle kohta, kas ta peaks muutma määrust, mis keelab poliitilistel reklaamidel teiste kandidaatide või poliitiliste parteide valeandmete esitamise, et lisada tahtlikult petlik tehisintellekt, kuid see ei ole veel meetmeid võtnud.

Tehnikaettevõtted, kes on ettevaatlikud mainekahjude pärast, mida Meta sai oma rolli tõttu 2020. aasta valimistel, hakkavad tegutsema. Juulis kindlustas Valge Maja vabatahtlikud kohustused mille eesmärk on tagada seitsme juhtiva AI-ettevõtte, sealhulgas Meta ja Microsofti AI-süsteemide ohutud ja usaldusväärsed. Üks kohustustest oli AI-ga loodud visuaalse ja helisisu päritolu- või vesimärgitehnika väljatöötamine ja kasutuselevõtt. Veel kaheksa ettevõtet sisse loginud septembris võetud kohustustele.

Meta ja Microsofti sellenädalased sammud järgivad teadaanne Google’i ja YouTube’i emaettevõtte Alphabeti arvamus, et see nõuaks nähtavat avalikustamist poliitilistel reklaamidel, mis sisaldavad sünteetiliselt loodud sisu, mis kujutab ebaautentselt tegelikke inimesi või sündmusi.

Princetoni ülikooli professor ja teadur Arvind Narayanan ja Sayash Kapoor on vaidles vastu võimekam AI ei süvenda valeinformatsiooni probleemi, sest eksitavat sisu on juba suhteliselt lihtne toota ja igaüks, kes seda soovib, saab seda juba teha. Valeinformatsiooni saab kõige paremini lahendada sotsiaalmeedia saitide ja muude digitaalsete platvormide sisu modereerimisega.

AI-arendajate vesimärgi- ja päritolumeetmed on tõenäoliselt ebatõhusad, kuna pahatahtlikud osalejad pääsevad hõlpsasti juurde avalikult avaldatud tehisintellekti mudelitele, näiteks Meta’s Llama 2, ütleb Jungherr. “Ma väidan, et see on nende ettevõtete katse vältida negatiivset katvust, ” ütleb ta. “Ma pole tingimata kindel, et nad eeldavad, et need vahendid valimisi nihutavad.”

Zürichi ülikooli digitaalse demokraatia labori teadlane Sacha Altay ütleb, et poliitiliste reklaamide avalikustamine võib kokku puutuda sarnaste probleemidega. “Ma arvan, et on hea, et poliitilised reklaamid peavad avalikustama, kui nad kasutavad generatiivset tehisintellekti,” ütleb Altay. “Ainus asi on see, et võib-olla ei avalikusta need halvad näitlejad, kes soovivad generatiivset tehisintellekti kuritarvitada, nii et ma pole täpselt kindel, kuidas nad seda jõustavad.”

“Lõpuks arvan, et see taandub peaaegu sellele, kuidas poliitikud kasutavad infoökosüsteemi võimu võitmiseks või järgijate saamiseks häälte saamiseks, isegi kui nad valetavad ja levitavad valeinformatsiooni,” ütleb Altay. “Ma arvan, et kiiret lahendust pole.”



Read original article here

Leave A Reply