Ediția #292
Bună dimineața,
👉 Ministerul Mediului, Apelor și Pădurilor (MMAP) a depus plângere penală împotriva dezinformărilor care au asociat în mod fals decizii administrative din domeniul mediului cu riscuri la adresa securității naționale.
„(...) dezinformarea climatică și de mediu a devenit, la nivel european, o vulnerabilitate recunoscută. Răspândirea deliberată a unor informații false privind investiții în baraje, lucrări hidrotehnice sau politici de protecție a mediului poate submina încrederea publică în instituții, poate afecta implementarea proiectelor finanțate din fonduri europene și poate genera tensiuni sociale nejustificate.”, a anunțat, săptămâna trecută, MMAP, prin intermediul unui comunicat.
👉 Principala voce anti-imigrație din România, parlamentarul AUR Dan Tanasă, a răspândit un fals potrivit căruia, în 2025, în România erau înregistrați 140.000 de muncitori străini necalificați, dintre care „foarte mulți fără un loc de muncă”.
În realitate, arată datele obținute de PressOne, numai circa 0,2% din angajații străini aduși din țări non-UE sunt înregistrați în sistemul de șomaj al statului, iar o parte dintre ei sunt reîncadrați în muncă.
👉 Mai întâi, o știre fabricată sau distorsionată apare într-o publicație obscură dintr-un stat UE. Apoi, rețelele afiliate Kremlinului o preiau, o traduc și o amplifică.
În cele din urmă, același conținut revine în R. Moldova, de data aceasta prezentat drept „confirmare din presa occidentală”.
Prin acest circuit, propaganda își ascunde originea și capătă o aparență de legitimitate. Sursa inițială dispare din vedere, iar mesajul ajunge la public cu o autoritate împrumutată, greu de contestat, arată Ziarul de Gardă.
👉 Debunkeria e un podcast produs de Info Sud Est, unde redacția ajută cititorii să facă curățenie prin haosul digital. Vă invit s-o folosiți ca resursă, mai ales pentru tinerii cu care vreți să vorbiți despre capcanele din spațiul virtual.
👉 Nu, Maia Sandu nu are legătură cu dosarul Epstein. (Veridica)
👉 …și actorul Eric Dane a murit din cauză că suferea de Sclerozei Laterale Amiotrofice (ALS), nu din cauză că s-ar fi vaccinat anti-COVID19. (Factual)
Știri despre știrile false - și tehnologiile care le amplifică
👉 Instrumentul de căutare inversă a imaginilor (reverse image search, n. red.) al Google generează răspunsuri sumarizate cu AI inexacte pentru imagini fabricate și înșelătoare legate de conflictul dintre Statele Unite ale Americii și Iran.
Asta a constatat NewsGuard, expunând o vulnerabilitate semnificativă într-un sistem utilizat pe scară largă pentru verificarea autenticității imaginilor.
👉 …dealtfel, un val de videoclipuri distorsionate sau fabricate s-a răspândit masiv online de când a început războiul cu Iranul, alimentat parțial de campanii de propagandă cu influență legată de stat, în special în ceea ce privește cine câștigă războiul și cât de grave au fost pierderile. (ABC News)
👉 …în același timp, Tehran Times, un cotidian în limba engleză aliniat statului iranian, a publicat pe X o imagine despre care susținea că arată echipamente radar americane „complet distruse” la o bază din Qatar.
În realitate, era o versiune manipulată cu ajutorul inteligenței artificiale a unei imagini Google Earth din anul trecut, reprezentând o bază americană din Bahrain. (AFP via RFI)
👉 …și tot dezinformarea generată de tehnologia AI, despre războiul SUA-Israel cu Iranul, este monetizată de creatori online, au declarat experți pentru BBC Verify:
„Analiza noastră a identificat numeroase exemple de videoclipuri generate de tehnologie AI și imagini satelitare fabricate, folosite pentru a vehicula afirmații false și înșelătoare despre conflict, care au adunat în total sute de milioane de vizualizări online.”
⚠️ Ascensiunea tehnologiei AI generative a amplificat considerabil capacitatea actorilor statali și a propagandiștilor de a fabrica imagini satelitare convingătoare în timpul conflictelor majore și e o tendință despre care cercetătorii avertizează că are implicații de securitate concrete în lumea reală.
👉 X a anunțat că utilizatorii care postează videoclipuri generate cu tehnologie AI despre un conflict armat, fără a dezvălui că acestea au fost create cu ajutorul tehnologiei, vor fi suspendați din programul de monetizare al platformei pentru 90 de zile. Abaterile repetate vor duce la o suspendare permanentă din program. (NiemanLab)
Celelalte tipuri de dezinformare cu AI rămân în plată :)
👉 Dacă vreți să înțelegeți mai multe despre spațiul informațional din Iran, vă recomand interviul ăsta cu un fact-checker iranian care lucrează din exil încă din 2017. (Poynter Institute)
👉 Agenți nord-coreeni folosesc tehnologia AI pentru a păcăli firmele occidentale să îi angajeze, avertizează Microsoft.
Compania afirmă că instrumentele AI ascund identitățile candidaților falși, care transferă apoi salariile obținute din locuri de muncă IT la distanță către Coreea de Nord. (The Guardian)
👉 Un istoric care a primit în secret finanțări de la statul rus a ajuns să prezinte poziții favorabile Rusiei la o conferință despre securitate globală, organizată de OSCE. OCCRP arată cum s-a întâmplat totul.
👉 Curtea Supremă de Justiție a Indiei a amenințat cu represalii după ce un judecător a rezolvat o dispută asupra unei proprietăți citând ordine și legi care nu există - generate cu tehnologie AI. (BBC)
👉 Un eseu care argumentează nevoia unui acord internațional care să reglementeze etichetarea conținutului realizat cu tehnologie AI. (Modern Diplomacy)
👉 Meta permite publicitate politică în campania electorală din Ungaria, deși a anunțat anul trecut că retrage complet opțiunea de pe platformă, după ce Comisia Europeană a impus reguli de transparență crescute.
În primele șase săptămâni ale anului 2026, Meta a permis reclame politice pe paginile a 457 de politicieni și organizații ale Fidesz, TISZA și DK analizate. (Lakmusz.hu via EDMO)
👉 Dezinformările au supraevaluat succesul Teheranului în a bombarda obiective ale SUA și Israel, în replică la atacul asupra Iranului. France 24 explică exact cum.
👉 Metarăzboiul e un termen care apare în 2021, în cercetări cu autori chinezi, și descrie un stadiu nou al propagandei amplificate de rețele sociale și tehnologie AI.
Dacă propaganda clasică încerca să te convingă de ceva anume (că liderul este măreț, că dușmanul este perfid și că partidul are întotdeauna dreptate), noua formă nu atacă anumite convingeri, ci mecanismele care le formează: încrederea în surse, capacitatea de a distinge între fapt și ficțiune și disponibilitatea de a căuta adevărul în primul rând.
Dacă propaganda clasică spune „Crede asta”, noua propagandă spune „Nu mai crede nimic”. Sau, și mai periculos: „Nu merită efortul să încerci să găsești adevărul, oricum toți mint.” (VoxUkraine.org)
👉 Alegătorii elvețieni au respins un referendum care propunea reducerea drastică a finanțării postului public de radio-televiziune SRG. 62% s-au opus planului de diminuare a taxei anuale de licență, o măsură despre care criticii au avertizat că ar slăbi mass-media și ar alimenta dezinformarea.
Campania își propunea reducerea taxei anuale de licență, pe care toate gospodăriile elvețiene sunt obligate să o plătească, de la 335 franci elvețieni (432 de dolari) la 200 de franci. (Reuters)
👉 Un articol 404Media arată cum putem vorbi cu cineva care trece prin episoade psihotice induse sau asociate utilizării inteligenței artificiale. (n.r. ‘AI Psychosis’).
Experții spun că primul pas este să identifici momentul în care cineva are nevoie de ajutor - iar abordarea cu compasiune și fără prejudecăți este cea mai grea și esențială parte.
👉 The Verge arată cum verifică experții autenticitatea imaginilor și a video-urilor în epoca deepfake-urilor. (via Archive.is)
👉 The Guardian demontează „mitul Babei Vanga” și arată că multe dintre afirmațiile atribuite prezicătoarei bulgare nu au fost niciodată consemnate, însă numele ei susține în continuare teorii ale conspirației și narațiuni geopolitice.



Adevărul absolut nu există.
Mulțumim mult!