Ediția #297
Bună dimineața,
👉 PSD se aliază cu AUR și vor depune o moțiune de cenzură împotriva guvernului Bolojan, au anunțat ieri Marian Neacșu (PSD) și Petrișor Peiu, vicepreședinte AUR. (Veridica)
👉 România ar trebui să ia aminte și să se pregătească pentru următorul pas al propagandei ruse. După testarea tehnologiei în Republica Moldova, pasul următor e exportarea ei mai departe, către Vest.
Mesajul vine de la directorul Asociației Presei Independente din Moldova, Petru Macovei. Potrivit lui, noua tactică de a slăbi instituțiile statului urmărește exploatarea evenimentelor emoționale și presupune o capacitate de reacție sporită pentru instituțiile publice. (RFI)
👉 …între timp, în week-end-ul trecut, pe rețelele sociale s-a viralizat un mesaj care pare a fi transmis de RO-Alert și susține că ar exista zone în care sunt „fete răpite”. E fals și Ministerul Afacerilor Interne a anunțat asta deja. (Digi24)
👉 …nu, Ucraina nu „cumpără” fabrici românești cu banii trimiși din România și noul premier an Ungariei, Peter Magyar nu e „antieuropean”, cum susțin fals postări de pe Facebook. Factual le-a verificat și arată de ce sunt false.
👉 Comisia pentru afaceri juridice (JURI) din Parlamentul European a aprobat ridicarea imunității europarlamentarei Dianei Șoșoacă cu 17 voturi pentru, zero voturi contra și o abținere.
Solicitarea a fost formulată de Parchetul General din România, Șoșoacă fiind cercetată pentru 11 infracțiuni, printre care propagandă legionară, promovarea cultului unor persoane condamnate pentru crime de război și negarea Holocaustului. (G4Media)
👉 Platforma media Euromore și fundația Pravfond au fost sancționate de UE pentru campanii de dezinformare și propagandă.
Platforma Euromore este descrisă de către Consiliul UE ca un releu mediatic neoficial care operează în cadrul arhitecturii informaționale pro-Kremlin. Deși are sediul în Bruxelles, entitatea este acuzată că amplifică și legitimează discursurile Moscovei. (Radio Chișinău)
Știri despre știrile false (...și tehnologiile AI care le generează și rețelele sociale care le amplifică)
👉 Personajele sintetice create cu tehnologie AI devin atât de realiste încât pot infiltra comunități online și pot orienta subtil opinia publică.
Spre deosebire de boții tradiționali, ele se adaptează, se coordonează și își rafinează mesajele la scară masivă, creând o falsă impresie de consens, avertizează un studiu al Universității British Coumbia citat de Science via Futurism.
„Manipularea organizată a rețelelor sociale s-a extins de la 28 de țări în 2017 la 70 de țări” în prezent, de la Filipine până la Statele Unite. Incidentele de dezinformare bazată pe tehnologie AI din alegerile braziliene și irlandeze, de exemplu, arată clar că instituțiile democratice se află deja sub asediul acestor tipuri de amenințări.
👉 Rusia transformă videoclipurile generate cu tehnologie AI într-o armă de dezinformare în masă, avertizează Ucraina.
Cercetătorii au identificat peste 1.000 de videoclipuri sintetice care fac parte dintr-un „lanț narativ de neutralizare” structurat, adică un sistem construit pentru a viza soldați, civili și publicul occidental. (Kyiv Post)
👉 Conținutul sintetic fals generat de tehnologie sabotează siguranța civililor în zonele de conflict și un simplu deepfake se poate dovedi mortal, arată Rachel Adams, CEO și fondator al Global Center on AI Governance. (rest of world)
👉 Chatboții AI au tendința de a da dreptate utilizatorilor chiar și când aceștia greșesc, iar acest comportament lingușitor ar putea distorsiona gândirea pe termen lung și, în cazuri extreme, să contribuie la tragedii, avertizează Fast Company.
👉 O mișcare tot mai largă de opoziție față de AI prinde contur în Statele Unite, unind oameni din medii și orientări politice diferite.
Ei cer reglementare și transparență, pentru că se tem că beneficiile tehnologiei vor merge către miliardarii din Silicon Valley, în timp ce impactul social, economic și ecologic va fi suportat de cetățeni. (The New York Times)
👉 Donald Trump a anunțat că Iranul va grația, la solicitarea lui, opt femei condamnate la moarte. Doar că fotografia pe care a folosit-o era generată cu tehnologie AI.
La rândul său, Iran a negat că femeile ar fi condamnate la moarte. France 24 arată că minciunile vin din ambele părți.
👉 Propagarea deliberată de minciuni si falsuri pentru câștiguri politice nu ar trebui să fie protejată de dreptul la liberă exprimare, argumentează un articol de cercetare din British Journal of Political Science.
👉 Cu cât vedem mai des o afirmație, cu atât avem tendința să o credităm, indiferent dacă e adevărată sau nu, arată un eseu din Time Magazine, care explică mecanismul din creierul nostru.
👉 Cercetători de la Universitatea din Kent, Moonshot, Google Jigsaw LLC și Universitatea din Cambridge au realizat recent un studiu care investighează eficacitatea unor scurte videoclipuri de „prebunking” pentru reducerea impactului dezinformării online.
Concluziile lor sugerează că această metodă îi ajută pe oameni să identifice videoclipurile manipulatoare sau înșelătoare de pe internet. (phys.org)
⚠️ Prebunking-ul funcționează exact ca un vaccin.
Când te vaccinezi, medicul îți introduce în corp o doză mică, slăbită, din virus. Corpul tău învață să îl recunoască și produce anticorpi. Când virusul adevărat apare, sistemul imunitar e pregătit, recunoaște virusul și îl combate.
Prebunking-ul face același lucru cu dezinformarea. În loc să aștepți să apară o știre falsă și să o combați după ce a prins (adică „debunking”) îi arăți omului în avans cum arată o tehnică de manipulare. O doză mică, controlată. Creierul învață să o recunoască.
De exemplu, înainte de alegeri, un videoclip scurt îți explică că unii actori politici folosesc tehnica „apelului la frică”, adică exagerează o amenințare ca să te determine să acționezi emoțional, fără să gândești critic. Data viitoare când întâlnești un mesaj care funcționează exact așa, creierul își va aminti tactica.
Nu trebuie să știi că mesajul respectiv e fals. Trebuie doar să recunoști tehnica.
👉 Pagini de Facebook care postează conținut de lifestyle, hobby-uri și sfaturi de sănătate injectează narațiunile politice ale Beijingului în fluxurile lor pentru a influența opinia publică din Taiwan.
Aceste pagini sunt legate de compania de marketing digital Wubianjie, cu sediul în China, care îmbină divertismentul, dezinformarea și mesajele politice în campanii de război cognitiv greu de detectat, arată o investigație Reporteri fără Frontiere.
👉 La 40 de ani de la explozia de la Cernobîl, dosarele secrete ale STASI spun povestea campaniei de propagandă uriașe pe care URSS a creat-o pentru a preveni distrugerea credibilității proprii în fața lumii științifice. Rezultatul a fost exact invers. (The Conversation)
👉 Iluminismul a fost o perioadă în care societatea a încercat să traseze linii clare între ordinar și extraordinar, între natural și supranatural. Asta a făcut ca poveștile senzaționaliste să se răspândească cu rapiditate.
Madeleine Pelling, istoric al artei, argumentează într-o carte analizată de Financial Times (via archive.is) că perioada de tehnologizare accentuată prin care trecem seamănă cu secolul al XVIII-lea, din perspectiva falsurilor.
Și mai spune ceva: că lecția pe care am putea-o desprinde din istorie e că „înțelegerea mistificării nu se bazează doar pe identificarea minciunii, ci pe a întreba de ce prosperă ea. Pe cine servește? De la ce ne distrage atenția?“.


