Bună dimineața,
👉 …și nu, Nicușor Dan nu este fiul lui George Soros (Factual), așa cum nici Dacian Cioloș nu era, în 2016 când acest fals despre el a început să circule online. (HotNews).
Și nici nu a autorizat construirea unei „biserici sataniste”. (Factual)
👉 Nu ne ia nimeni zilele libere (PressOne) și nici nu vei fi condamnat penal pentru că ai votat cu candidați așa-numit suveraniști. (Factual)
👉 Și, chiar dacă astfel de materiale sunt imediat demontate, o parte a societății continuă să le amplifice în spațiul public.
Totuși, cum ajung oamenii să creadă toate prostiile astea?
Un studiu amplu propune ipoteza că în spatele credințelor în teorii conspiraționiste stă, de fapt, mult resentiment. (PsyPost.org)
Iar resentimentul e declanșat de competiție, mai ales atunci când indivizii percep că sunt – sau riscă să fie – dezavantajați, spune studiul.
Puteți citi studiul integral aici. (Journal of Social Issues)
👉 Un studiu publicat de WatchDog.md dezvăluie o amplă rețea de manipulare online creată de Kremlin și oligarhul fugar Ilan Șor. Potrivit investigației, peste 2.160 de pagini Facebook au fost create automatizat cu scopul de a influența procesele politice din Moldova, în contextul alegerilor parlamentare din 28 septembrie.
Din cele 2.167 de pagini, cel puțin 146 dintre ele aparțin grupării criminale Șor. În contextul alegerilor parlamentare din 28 septembrie, numărul de pagini anonime active ar putea crește considerabil pentru a promova actorii politici de la Chișinău susținuți de Moscova. (TVR Moldova)
👉 Consiliul Național al Audiovizualului (CNA) a anunțat lansarea unui proiect de digitalizare, finanțat cu fonduri europene în valoare de peste 20,4 milioane de euro, prin care vrea să monitorizeze și să intervină în timp real împotriva dezinformărilor din spațiul online.
Operaționalizarea completă a noii structuri digitale a CNA este preconizată până în luna iulie 2028. (HotNews)
Știri despre știrile false (și rețelele sociale care le amplfică)
👉 Povestea unui parapantist chinez care susține că a fost dus fără voie într-un nor de furtună și purtat 8 km (5 mile) în aer a fost pusă sub semnul întrebării, după ce videoclipul incidentului, difuzat de presa de stat chineză, s-a dovedit a fi probabil falsificat parțial.
Reuters a vorbit cu experți din mai multe domenii și explică inconsistențele din povestea parapantistului.
👉 Mii de influenceri promovează informații false despre sănătatea mintală pe platformele de socializare – unii dintre ei din convingerea naivă că experiența lor personală îi va ajuta pe alții. The Guardian arată care sunt cele mai răspândite falsuri.
👉 Laboratorul de Cogniție, Narațiune și Cultură de la Florida International University dezvoltă instrumente cu tehnologie AI pentru a ajuta la detectarea campaniilor de dezinformare care folosesc tehnici de persuasiune narativă.
„Antrenăm inteligența artificială să depășească analiza de suprafață a limbajului, pentru a înțelege structurile narative, a urmări personaje și cronologii și a descifra referințele culturale”, arată doi experți care participă la proiect. (Rappler)
👉 Claude 4, modelul dezvoltat de Anthropic, se comportă îngrijorător, încercând acțiuni precum șantajul și auto-propagarea, Google integrează reclame în căutările bazate pe inteligență artificială, muzeul Auschwitz luptă împotriva dezinformării generate de AI despre victimele Holocaustului.
Aceste evoluții subliniază necesitatea unei vigilențe sporite în fața progreselor tehnologiei AI, arată Mint într-o analiză.
👉 …în timp ce The Verge arată că presa din SUA scrie tot mai des despre avocați prinși că și-au scris pledoariile cu ajutorul tehnologiei AI, și citează legi inexistente.
Și probabil vor continua să facă asta, pentru că sunt forțați de concurență, care folosește tehnologia deja, explică mai mulți experți citați în text.
👉 În 129 de cazuri documentate din 12 țări, avocații au depus în instanță conținut juridic fals, generat de instrumente AI precum ChatGPT, potrivit unei baze de date realizate de expertul în drept internațional Damien Charlotin.
Sunt incluse doar cazurile care au dus la acțiuni disciplinare oficiale sau hotărâri judecătorești – acesta este cu siguranță doar vârful aisbergului. (The Decoder)
👉 Ar fi bine să nu întrebați chatboții pe baza de tehnologie AI dacă o informație sau o imagine este adevărată sau falsă, pentru că raspândesc, la rândul lor, falsuri. Și greșesc. (France 24)
👉 Trecerea Google către rezultate de căutare generate de inteligența artificială, înlocuind lista familiară de linkuri, rescrie modul în care funcționează internetul — și ar putea accelera declinul World Wide Web-ului, vechi de peste 30 de ani. (Axios)
👉 Marile platforme de economie colaborativă, precum Airbnb și Uber, sunt promovate ca fiind de încredere, însă o cercetătoare în media din Africa de Sud susține că acestea sunt extrem de vulnerabile în fața escrocilor.
Julie Reid se bazează pe mărturii directe și peste 600 de cazuri din întreaga lume ale unor victime atrase în escrocherii sau situații periculoase prin recenzii și anunțuri false pe Airbnb. (The Conversation)
👉 Atunci când politicienii americani acuză Europa că își „cenzurează” cetățenii - referindu-se la moderarea conținutului fals sau care îndeamnă la ură - ținta lor este, de fapt, să atace legislația care reglementează rețelele sociale.
The Global Project Against Hate and Extremism analizează cazuri majore în care extrema dreaptă a folosit conținutul de acest tip și arată cum legislația europeană le încurcă planurile.
👉 Un parlamentar filipinez vrea să criminalizeze publicarea intenționată de falsuri și dezinformare, și propune pedepse cu închisoarea de la 6 la 12 ani pentru cei care se fac vinovați de așa ceva. (Rappler)
👉 Mama lui Illia a murit în timpul asediului Mariupolului. Autoritățile ruse l-au dat spre adopție în Rusia, iar bunica lui l-a căutat, l-a găsit și l-a adus înapoi în Ucraina.
Însă povestea lui spune ceva despre zecile de mii de copii răpiți din Ucraina și trimiși spre adopție în Rusia. (The Washington Post)
super!
Mulțumesc pentru munca depusă