In questo episodio di Privacy Letters :
L’invasione silenziosa dei media fake generati da IA
EU “Going Dark”: Privacy A Rischio
La Privacy è Morta e Sepolta
Il Teatro della Disinformazione
Boot:
Mentre i missili solcano i cieli del Medio Oriente e le diplomazie mondiali si muovono a tentoni tra dichiarazioni di condanna e timidi tentativi di mediazione, un altro conflitto, meno visibile ma non meno devastante, è già in pieno corso: la guerra cibernetica tra Iran e Israele. Una guerra che non si combatte con carri armati e trincee, ma con codici malevoli, server compromessi e reti silenziosamente violate. Un conflitto che non si vede, ma che può spegnere una città, sabotare un impianto nucleare, orientare un'opinione pubblica, e destabilizzare interi sistemi democratici.
Nel teatro geopolitico più instabile del pianeta, la dimensione digitale è ormai parte integrante della strategia militare. Non più un accessorio tecnologico, ma un’arma vera e propria, capace di incidere sugli esiti del conflitto e, soprattutto, sulle percezioni del conflitto stesso.
Israele, con la sua Unità 8200 élite del controspionaggio informatico è da tempo all’avanguardia nel settore. L’Iran, dal canto suo, ha affinato le proprie capacità tramite gruppi avanzati di hacker legati ai Pasdaran, capaci di colpire banche, centrali energetiche, aeroporti, persino ospedali. In questa guerra silenziosa, ogni attacco è al tempo stesso azione militare, messaggio politico e operazione psicologica.
Ma ciò che dovrebbe inquietarci maggiormente è che il cyberspazio ha abolito i confini. Un attacco mirato tra due nazioni può propagarsi in pochi istanti e raggiungere bersagli civili a migliaia di chilometri di distanza. Può colpire una banca italiana, un’università americana, una piattaforma logistica globale. Può insinuarsi nei nostri dispositivi quotidiani, violare la nostra privacy, condizionare le nostre scelte. Può, in altre parole, rendere ogni cittadino parte – involontaria ma non irrilevante – di una guerra di cui non ha scelto di far parte.
E qui sorge la domanda cruciale: siamo preparati? Le democrazie occidentali, tanto attente alla trasparenza e al pluralismo, rischiano di diventare terreno fertile per manipolazioni informatiche sempre più sofisticate. La guerra cibernetica, infatti, non colpisce solo infrastrutture: colpisce le coscienze. L’obiettivo non è solo sabotare un sistema, ma destabilizzare una società, seminare dubbio, sfiducia, divisione.
In questo senso, la guerra tra Iran e Israele non è un caso isolato, ma un laboratorio geopolitico globale. È il banco di prova per una nuova era del conflitto, dove la superiorità tecnologica vale quanto quella militare, e dove la sicurezza nazionale passa anche e soprattutto per la cybersicurezza.
L’illusione che le guerre moderne siano lontane sta crollando. Il conflitto non è più “là fuori”. È nelle nostre reti, nei nostri telefoni, nei nostri media. E il nemico, a differenza dei soldati, non indossa una divisa.
Mai come oggi serve consapevolezza. Serve un'alfabetizzazione digitale diffusa, una strategia politica lucida, e una nuova cultura della sicurezza che non si limiti alla difesa, ma comprenda la responsabilità etica di chi progetta, gestisce e governa la tecnologia.
Perché nel mondo che viene, a decidere chi vincerà non sarà solo chi lancia i missili. Ma anche e forse soprattutto chi controlla l’informazione, chi scrive il codice, chi racconta la guerra.
L’invasione silenziosa dei media fake generati da IA
C’è una nuova specie di inquinamento che sta infestando Internet, e questa volta non parlo di spam o pubblicità moleste. Parlo di contenuti creati interamente da intelligenze artificiali, camuffati da notizie vere. Sono siti, canali social, video e articoli che sembrano usciti da redazioni giornalistiche… ma che in realtà non sono stati scritti da nessuno. Nessun giornalista, nessun editor, nessun fact-checker. Solo algoritmi.
E la cosa più inquietante? Funzionano. Stanno crescendo ovunque, spesso indisturbati.
Cosa sta succedendo?
Negli ultimi mesi, sono stati individuati centinaia (anzi, migliaia) di siti in tutto il mondo che pubblicano articoli scritti da IA. Alcuni sembrano testate vere, altri sono più “grezzi” ma comunque convincenti. L’obiettivo? Dipende. In alcuni casi si tratta solo di guadagnare soldi con la pubblicità: più articoli = più traffico = più click. In altri, si entra nel territorio più torbido della propaganda e della manipolazione politica.
Su TikTok e YouTube, ad esempio, ci sono video che mostrano finti giornalisti o voci sintetiche che raccontano notizie con un taglio molto preciso: spesso sensazionalistico, polarizzante, o semplicemente falso. Tutto generato da IA. Facce inventate, voci robotiche sempre più simili a quelle umane, e testi creati in serie.
Chi c’è dietro?
A volte si tratta di gruppi che vogliono semplicemente fare soldi. Ma in diversi casi, dietro ci sono governi o organizzazioni che cercano di influenzare l’opinione pubblica. OpenAI ha recentemente rivelato che i suoi strumenti – come ChatGPT – sono stati usati da attori legati a Russia, Cina e Iran per produrre contenuti a tema politico. Campagne ben organizzate, ma non sempre efficaci (per ora).
Quello che preoccupa, però, è la scala. Grazie all’intelligenza artificiale, oggi chiunque può creare migliaia di articoli in pochi minuti. È una fabbrica della disinformazione.
Il problema non è solo cosa leggiamo, ma quanto.
Con così tanti contenuti in circolazione, iniziamo a perdere la capacità di distinguere tra il vero e il falso. Quando il feed è pieno di notizie "credibili" ma scritte da un algoritmo, il rischio è che le fonti affidabili vengano annegate nel rumore.
E la cosa è ancora più pericolosa perché non si tratta di contenuti evidentemente falsi o assurdi. Non sono bufale stile “Elvis è vivo”. Sono notizie quasi credibili, mezze vere, mezze costruite. È questo che rende tutto più subdolo.
Possiamo fare qualcosa?
Fortunatamente sì. I grandi social (TikTok, Facebook, X…) stanno investendo molto per identificare e fermare account falsi o campagne coordinate. Alcune tecnologie aiutano a capire se un contenuto è stato generato da IA. E in Europa, sono già in vigore leggi come il Digital Services Act e l’AI Act, che impongono regole precise sulle piattaforme e sugli usi dell’intelligenza artificiale.
Ma la vera difesa siamo noi. Serve più consapevolezza. Dobbiamo imparare a riconoscere i segnali d’allarme:
Un sito sconosciuto ma con troppe “breaking news”.
Video con voci strane o troppo neutre.
Notizie che sembrano fatte per provocare, non per informare.
E serve anche più fiducia nei media veri. Quelli imperfetti, certo, ma fatti da persone vere. Perché l’informazione, per essere sana, ha bisogno di umanità. Non di automatismi.
In conclusione
L’IA non è il nemico. È uno strumento. Ma come ogni strumento potente, può essere usato bene o malissimo. L’invasione silenziosa dei media sintetici non è più una previsione futuristica. È una realtà già iniziata. E riguarda tutti noi.
Saperla riconoscere, parlarne e rifiutare l’indifferenza… è il primo passo per difendersi.
L'Europa contro la crittografia: cosa nasconde davvero il piano "Going Dark"
Da alcuni anni l'Unione Europea sta discutendo strategie per garantire alle autorità un maggiore accesso ai dati digitali. Al centro di questo dibattito vi è il cosiddetto "problema della crittografia", percepito come un ostacolo per le indagini penali. Il piano che ne deriva si chiama "Going Dark" e rischia di compromettere un pilastro fondamentale della nostra società digitale: la privacy.
Il contesto: cosa significa "Going Dark"
Il termine "Going Dark" viene utilizzato dalle autorità per descrivere la difficoltà crescente di accedere alle comunicazioni e ai dati digitali a causa dell'uso diffuso della crittografia end-to-end. Una tecnologia ormai comune nelle app di messaggistica e nei dispositivi connessi.
Nel 2022, la Commissione Europea ha istituito un gruppo di lavoro ad alto livello denominato High-Level Group on Access to Data for Effective Law Enforcement. Lo scopo era individuare soluzioni operative per superare questi ostacoli, nel rispetto del diritto e dei principi europei. Ma le modalità con cui è stato strutturato il gruppo e le raccomandazioni prodotte hanno sollevato forti perplessità.
Un processo poco trasparente e sbilanciato
Il gruppo di lavoro ha operato con notevole riservatezza. I suoi membri erano in gran parte rappresentanti delle forze dell’ordine, delle intelligence nazionali e dei ministeri dell’interno. Solo marginalmente è stata coinvolta la società civile, e in misura ancora minore il mondo accademico o le organizzazioni per i diritti digitali.
Il risultato è un insieme di 42 raccomandazioni che mirano ad aumentare l’accesso delle autorità ai dati cifrati. La maggior parte di queste proposte è tuttora non pubblica, ma alcune informazioni sono trapelate attraverso inchieste giornalistiche e fonti interne.
Le proposte principali
Secondo quanto emerso, le raccomandazioni includono:
L’obbligo per le app di messaggistica di conservare metadati e informazioni identificative degli utenti, anche oltre quanto necessario per motivi tecnici o legali.
L’introduzione di sistemi di accesso ai contenuti cifrati attraverso tecnologie come le backdoor o il client-side scanning, cioè la scansione automatica dei contenuti direttamente sui dispositivi prima che vengano cifrati.
La progettazione di dispositivi e software che includano, fin dalla fase di sviluppo, la possibilità di accesso da parte delle autorità.
Sanzioni penali per i soggetti che non collaborano con queste misure, comprese le aziende che offrono servizi di comunicazione sicura.
Si parla inoltre del ritorno della conservazione obbligatoria dei dati su scala europea, con l’estensione della data retention anche ai fornitori di servizi over-the-top, come WhatsApp o Telegram.
Reazioni e divisioni tra gli Stati membri
La proposta ha spaccato l’Unione. Il Lussemburgo si è opposto fermamente all’idea di indebolire la crittografia, difendendola come diritto fondamentale. La Germania ha mostrato un atteggiamento più cauto, sostenendo l’idea di collaborare con l’industria tecnologica, pur non escludendo completamente interventi normativi.
Altri Stati sembrano invece favorevoli a una linea più decisa, ritenendo che la sicurezza nazionale e la lotta alla criminalità giustifichino queste misure.
La Commissione Europea, tramite il comitato CATS, ha accolto con favore l’insieme delle raccomandazioni, suggerendo che potrebbero trasformarsi in un'agenda operativa nei prossimi anni.
La posizione dell’Italia nel piano “Going Dark”
Nel dibattito europeo sul cosiddetto piano “Going Dark”, l’Italia si colloca tra i Paesi che mostrano maggiore apertura verso un rafforzamento dei poteri di accesso ai dati da parte delle autorità, anche a scapito della riservatezza delle comunicazioni.
Secondo alcune fonti, l’Italia ha sostenuto l’urgenza di strumenti efficaci per contrastare criminalità organizzata e terrorismo, pur di fronte all’ostacolo rappresentato dalla crittografia end-to-end. Questo orientamento si è tradotto in un appoggio alla proposta di introdurre meccanismi tecnici che permettano l’accesso legale ai contenuti cifrati, come il client-side scanning e forme di decrittazione obbligatoria per i fornitori di servizi digitali.
Le autorità italiane hanno inoltre sostenuto l’idea di estendere l’obbligo di conservazione dei dati anche ai cosiddetti servizi OTT (over-the-top), come WhatsApp, Telegram o Signal, che oggi non rientrano nelle stesse regolamentazioni dei tradizionali operatori telefonici.
Questa posizione riflette una visione securitaria già riscontrabile a livello nazionale in diverse iniziative legislative, spesso giustificate dalla necessità di migliorare gli strumenti investigativi.
Le critiche: un rischio per la sicurezza e per la democrazia
Organizzazioni come European Digital Rights (EDRi), esperti indipendenti come Patrick Breyer e aziende impegnate nella protezione della privacy, tra cui Mullvad, mettono in guardia contro il rischio di creare un’infrastruttura di sorveglianza permanente.
I principali punti critici evidenziati sono:
L’indebolimento della crittografia esporrebbe tutti, non solo i criminali, a rischi concreti di violazioni, furti di dati, attacchi informatici e ingerenze straniere.
Una sorveglianza generalizzata violerebbe i principi dello Stato di diritto, minando libertà civili fondamentali come la riservatezza delle comunicazioni, la libertà di espressione e il diritto alla protezione dei dati.
La strategia scelta privilegia un modello repressivo e opaco, in contrasto con il metodo democratico e partecipato che dovrebbe guidare le politiche europee.
Cosa c’è in gioco
Dietro l’apparente tecnicismo di queste proposte si nasconde una questione politica di primaria importanza: il futuro della nostra società digitale.
Se verranno attuate, queste misure rappresenteranno un precedente pericoloso, introducendo un livello di controllo e accesso ai dati che oggi associamo a regimi autoritari più che a democrazie costituzionali. La stessa sicurezza che si intende tutelare potrebbe essere compromessa, poiché una crittografia indebolita non distingue tra forze dell’ordine e soggetti malevoli.
Conclusione
La sfida della sicurezza non può essere affrontata sacrificando le basi della libertà individuale. La crittografia non è un ostacolo alla giustizia: è ciò che garantisce l’integrità delle comunicazioni, la sicurezza informatica e la protezione della vita privata.
L’Unione Europea si trova oggi a un bivio. Può scegliere di rafforzare la fiducia dei cittadini nelle istituzioni attraverso soluzioni rispettose dei diritti fondamentali. Oppure può percorrere la strada del controllo preventivo, avvicinandosi pericolosamente a una società della sorveglianza.
La decisione spetta anche a noi. Informarsi, vigilare e partecipare al dibattito pubblico è il primo passo per difendere ciò che conta.
La fine della privacy nell’era dell’intelligenza artificiale: una morte silenziosa
Per decenni abbiamo vissuto nell’illusione che il mondo digitale fosse modellabile a nostra immagine: privato quando lo volevamo, pubblico solo su nostra decisione. Ma oggi questa illusione si sgretola. Nell’era dell’intelligenza artificiale, la privacy non è semplicemente minacciata: è già stata sepolta, e senza nemmeno un funerale.
Recenti sviluppi normativi e tecnologici hanno trasformato radicalmente il modo in cui vengono trattati i dati personali, specialmente nei contesti dove l’utente si interfaccia con strumenti conversazionali basati su AI, come i chatbot o gli assistenti virtuali. Se fino a ieri bastava premere "cancella" per sentirsi al sicuro, oggi sappiamo che ogni conversazione, ogni parola digitata, ogni dubbio espresso o informazione confidata potrebbe essere archiviata in modo permanente. Non visibile, forse, ma presente. Pronta a riemergere, se necessario.
Quando l’eliminazione non elimina
Una delle convinzioni più diffuse tra gli utenti digitali è che l’eliminazione di un contenuto corrisponda alla sua cancellazione effettiva. Questo presupposto ha alimentato comportamenti fiduciosi, a volte ingenui, nell’uso delle tecnologie intelligenti. Ma la realtà tecnica e legale è più complessa: i sistemi di intelligenza artificiale apprendono dai dati che ricevono e, in molti casi, li conservano in archivi accessibili per motivi di sicurezza, addestramento o controllo legale.
È emersa con chiarezza una verità scomoda: anche se una piattaforma offre la possibilità di cancellare una conversazione, ciò non garantisce che quella conversazione venga eliminata dai server o dalle memorie interne del sistema. Alcuni provider potrebbero essere legalmente obbligati a conservare tali dati per periodi prolungati, o addirittura indefiniti, specialmente in seguito a indagini giudiziarie o contenziosi legali.
Il ruolo della legge: tutela o sorveglianza?
La trasformazione normativa che stiamo vivendo è profonda. I governi stanno cercando di regolamentare un’innovazione che evolve più velocemente delle leggi stesse. Nella corsa per controllare l’uso dell’AI, si stanno tracciando nuovi confini tra ciò che è considerato lecito e ciò che non lo è. Ma nel farlo, si rischia di sacrificare una parte sostanziale della libertà individuale.
Conservare dati sensibili, anche se richiesto da un giudice, comporta una serie di implicazioni etiche: chi stabilisce quando un’informazione è “recuperabile”? Chi vigila sull’uso di queste memorie? Quali garanzie abbiamo che le nostre confidenze non vengano mai sfruttate in contesti diversi da quelli per cui erano state rilasciate?
Le ripercussioni sul lavoro e sulla vita privata
Immaginiamo un avvocato che chiede un consiglio tecnico a un assistente AI, o un medico che discute sintomi ipotetici per cercare un’opinione automatica. O, ancora, un imprenditore che testa un’idea di business con un chatbot. Questi casi, che fino a ieri sembravano comuni e innocui, oggi appaiono potenzialmente rischiosi.
Non solo per la possibilità che informazioni riservate vengano esposte, ma anche perché l’interazione con l’intelligenza artificiale sta creando un archivio invisibile di pensieri, progetti e vulnerabilità personali. Il diritto all’oblio — un concetto fondamentale nelle democrazie moderne — rischia di essere svuotato di significato se la tecnologia non è in grado di garantire la cancellazione definitiva dei dati.
Un cambio di paradigma necessario
La lezione più urgente di questa trasformazione è che dobbiamo cambiare il nostro rapporto con la tecnologia. Non possiamo più considerarci semplici utenti: siamo partecipanti attivi in un ecosistema dove ogni interazione conta e ogni dato lascia una traccia.
Diventa indispensabile:
Essere consapevoli dei termini di servizio di ogni piattaforma utilizzata
Evitare di condividere informazioni sensibili o identificabili, anche in ambienti “apparentemente” privati
Pretendere maggiore trasparenza da parte dei fornitori di servizi AI, in merito alla gestione e conservazione dei dati
Sostenere politiche pubbliche che bilancino innovazione tecnologica e tutela dei diritti individuali
La responsabilità condivisa
La protezione della privacy non è più un compito affidato solo ai legislatori o ai tecnici informatici. È una responsabilità condivisa tra chi sviluppa, chi regola e chi utilizza la tecnologia. È necessario un nuovo patto digitale, fondato sulla fiducia ma anche sulla consapevolezza: perché in un mondo dove nulla si cancella davvero, ogni parola digitata è una scelta che potrebbe tornare a galla.
Conclusione
La privacy non è scomparsa in un grande scandalo, non è morta in un’aula di tribunale con i riflettori puntati. È svanita lentamente, nel silenzio delle interfacce utente, tra una domanda fatta a un chatbot e una risposta generata in tempo reale.
Non ci è stato dato il tempo di elaborare il lutto, perché il cambiamento è stato invisibile. Ma oggi che ne vediamo le conseguenze, possiamo scegliere di reagire. Possiamo esigere un futuro digitale in cui la tecnologia non ci spogli del nostro diritto all’oblio, alla discrezione, alla libertà di essere umani in un mondo di macchine.
Il Teatro della Disinformazione: Media, Potere e la Messa in Scena della Verità
Viviamo in un'epoca in cui l'accesso all'informazione è immediato, globale, illimitato. Eppure, mai come oggi si avverte un senso di disorientamento, sfiducia e spaesamento di fronte a ciò che ci viene raccontato. Le fake news, tradizionalmente viste come l’oscuro sottobosco del web, sembrano essersi trasformate in protagoniste ufficiali della narrazione collettiva. Ma il paradosso più sottile e insidioso è che spesso sono proprio i media, nel loro zelo dichiarato di combattere la disinformazione, a metterla in scena, amplificarla, usarla come maschera. Questo saggio intende esplorare il volto bifronte dell'informazione contemporanea: da un lato l’illusione della verità assoluta, dall’altro il potere che plasma il reale.
1. La costruzione del “falso grottesco”
Nel teatro moderno dell’informazione, un meccanismo inquietante si è fatto strada: l’utilizzo del falso evidente, del ridicolo visibile, come strumento di manipolazione emotiva e cognitiva. Campagne pubblicitarie e segmenti giornalistici vengono costruiti appositamente per mostrare quanto sia assurda una determinata teoria — i rettiliani, i microchip nei vaccini, i terrapiattisti — con l’intento dichiarato di “educare” il cittadino all’autodifesa cognitiva. Eppure, la teatralità di questi contenuti risulta spesso eccessiva, caricaturale, quasi offensiva per l’intelligenza di chi osserva.
La strategia qui non è solo smentire, ma umiliare il pensiero dissidente — anche quello legittimo. Il risultato? L'associazione automatica tra ogni voce critica e la follia. Si crea così un paesaggio mentale in cui il cittadino, pur di non sembrare "complottista", rinuncia a porsi domande. Il pensiero critico, anziché essere incentivato, viene anestetizzato attraverso l'eccesso di ironia e parodia.
2. La verità filtrata e l’illusione del pluralismo
I media tradizionali, pur proclamandosi paladini della verità, non sono entità neutre. Essi operano in un ecosistema regolato da vincoli economici, rapporti con il potere politico, e dinamiche ideologiche. La selezione delle notizie, il linguaggio utilizzato, l’ordine degli eventi, l’attenzione concessa a una voce piuttosto che a un’altra — tutto questo è già una forma di costruzione narrativa. E come ogni narrativa, essa ha i suoi eroi, i suoi nemici, i suoi silenzi.
In tale contesto, il pluralismo si riduce spesso a una molteplicità di opinioni omologate, che differiscono nei dettagli ma non nelle premesse fondamentali. Le posizioni realmente divergenti vengono ridicolizzate o ignorate. Si realizza così una forma sottile di monocultura travestita da dibattito.
3. La strategia del caos: creare confusione per consolidare il potere
Un altro fenomeno cruciale è l’uso strumentale della confusione: inondare lo spazio pubblico con una tale quantità di notizie contrastanti, semi-vere o irrilevanti, da rendere quasi impossibile distinguere il vero dal falso. Questa “strategia del rumore” ha un effetto preciso: non mira a far credere a una bugia, ma a far dubitare di tutto, tranne che delle fonti ufficiali. Quando ogni altra informazione è sospetta, il cittadino torna docilmente al racconto dominante, per semplice bisogno di stabilità.
È qui che si manifesta la forma più subdola di potere: non nel controllo diretto dell’informazione, ma nella creazione di un ambiente dove l’unica certezza possibile è quella concessa dall’alto.
4. La resistenza attraverso la complessità
In questo scenario, la vera forma di resistenza non è il rifiuto cieco del mainstream, né l’adesione automatica alle contro-narrazioni alternative. Entrambe sono reazioni simmetriche, specchi deformanti l’una dell’altra. La vera resistenza è l’intelligenza critica, cioè la capacità di abitare la complessità senza farsi ingabbiare da semplificazioni.
Significa allenare il dubbio, ma non il sospetto paranoico. Significa accettare che la verità esista, ma che sia spesso stratificata, contraddittoria, scomoda. Significa rifiutare tanto il cinismo rassegnato quanto il fideismo ideologico.
E, soprattutto, significa avere il coraggio di dire: “Non so, ma voglio capire”.
Conclusione: contro l’ignoranza spettacolarizzata
I media contemporanei, anziché essere un baluardo contro l’ignoranza, rischiano di trasformarla in spettacolo, in carburante narrativo. La disinformazione non è più solo un errore da correggere: è diventata un personaggio, una maschera utile, un pretesto per rafforzare narrazioni istituzionali. In questo teatro, la verità è un atto di coraggio.
Siamo spettatori e attori insieme, in una scena dove ciò che sembra assurdo non è sempre falso, e ciò che appare serio non è sempre vero. Il nostro compito non è distruggere il palco, ma imparare a riconoscere i fili dietro le quinte.
Notizie In Breve:
Meta ha annunciato che, a partire da questo giugno 2025, introdurrà pubblicità nella sezione "Aggiornamenti" di WhatsApp, visitata ogni giorno da 1,5 miliardi di utenti. Oltre agli annunci, arrivano anche abbonamenti a pagamento per accedere a contenuti esclusivi dei canali e la possibilità per aziende e creator di promuovere i propri canali per aumentare la visibilità. Le pubblicità resteranno confinate nella sezione Aggiornamenti e le chat private continueranno ad essere protette dalla crittografia end-to-end, senza essere utilizzate per “fini pubblicitari”.
La Trump Organization ha lanciato Trump Mobile, un nuovo servizio telefonico destinato a conquistare il pubblico conservatore americano. Presentato da Donald Jr. ed Eric Trump, il progetto include un piano mobile chiamato The 47 Plan a 47,45 $ al mese, con chiamate, SMS e dati illimitati, oltre a servizi aggiuntivi come assistenza medica e stradale.
Fiore all’occhiello è lo smartphone T1, un dispositivo Android dorato, progettato e assemblato negli Stati Uniti, preordinabile a 499 $. Anche se il servizio utilizza le reti di grandi operatori (AT&T, Verizon, T‑Mobile), il marchio Trump punta tutto su patriottismo e innovazione “made in USA”.
Un’operazione più di branding che tecnologica, ma che segna un nuovo capitolo dell’imprenditoria Trump.
Dopo i bombardamenti israeliani del 14 giugno 2025 contro obiettivi in Iran, il governo iraniano ha limitato drasticamente l’accesso a internet. In risposta, Elon Musk ha attivato il servizio satellitare Starlink nel Paese, permettendo a giornalisti, attivisti e cittadini di aggirare la censura e restare connessi.
I terminali Starlink erano già presenti in Iran dal 2022, introdotti clandestinamente da attivisti. Ora diventano un mezzo cruciale per garantire comunicazione libera in un momento di crisi e blackout informativo.
Meta ha introdotto un nuovo avviso per gli utenti che usano Meta AI, il suo assistente basato sull’intelligenza artificiale. L’obiettivo è avvisare in modo chiaro quando i messaggi degli utenti potrebbero finire nel feed pubblico chiamato Discover.
La novità arriva dopo che molti utenti si sono accorti troppo tardi che le loro domande all’AI – spesso contenenti dati personali come nome, email, indirizzo o informazioni sensibili erano visibili a tutti. Finora, la condivisione pubblica era attiva di default, senza un avviso esplicito.
Ora, prima che un messaggio venga pubblicato, l’app mostrerà un messaggio che invita a non inserire dati privati. Meta ha anche disattivato la possibilità di condividere direttamente intere conversazioni testuali.
Inoltre, gli utenti potranno rimuovere contenuti già pubblicati e gestire le preferenze sulla privacy dalle impostazioni dell’app. È un passo avanti importante, ma evidenzia quanto sia necessario leggere con attenzione cosa succede ai nostri dati, anche quando parliamo con un assistente virtuale.
I leader del G7 hanno annunciato un impegno congiunto per accelerare l’adozione dell’intelligenza artificiale nei servizi pubblici e sostenere gli investimenti nelle tecnologie quantistiche. L’obiettivo è migliorare l’efficienza della pubblica amministrazione e mantenere la competitività globale. Particolare attenzione è rivolta anche alle piccole e medie imprese, che saranno aiutate ad accedere e utilizzare l’AI per aumentare produttività e innovazione. Il G7 ha inoltre riconosciuto l’importanza delle tecnologie quantistiche, impegnandosi a promuovere investimenti pubblici e privati in questo settore strategico. Infine, è stata sottolineata la necessità di gestire l’impatto energetico dell’AI e di favorire l’accesso alle nuove tecnologie anche nei Paesi in via di sviluppo.
L’Iran ha imposto nuove restrizioni digitali e ha invitato i cittadini a cancellare WhatsApp, accusando senza prove Meta di collaborare con Israele. Queste misure arrivano in un contesto di crescenti tensioni e cyberattacchi tra Iran e Israele, che hanno portato anche a limitazioni sull’uso di dispositivi connessi ad internet per i funzionari governativi. Solo pochi mesi fa, l’Iran aveva rimosso il blocco su WhatsApp e Google Play, segnando un’apparente apertura che ora è stata rapidamente invertita .
Mastodon fa un ulteriore passo verso la tutela della privacy dei suoi utenti, proibendo lo scraping dei contenuti ed il training dei modelli di AI generativa almeno sull’istanza principale. Oltre a questo, l’età minima di iscrizione passa da 13 a 16 anni.
Il Vaticano ospita questa settimana un conclave inedito: non di cardinali, ma dei principali apostoli della GenAI. Nei saloni dorati dell’Apostolica, i dirigenti di Anthropic, Cohere, Cisco, Google, Meta, Microsoft, IBM e Palantir vengono a predicare la buona novella algoritmica al Santo Padre, ognuno sperando di convertire il Vaticano alla propria visione del progresso. Di fronte a questi guru della Silicon Valley, papa Leone XIV cerca di ricordare che la dignità umana non si programma in Python e che la giustizia sociale non si riduce a una riga di prompt.
News:
WhatsApp Introduces Ads in Status Updates, Promoted Channels, and Channel Subscriptions
The Trump family’s next venture, a mobile phone company
Elon Musk activates Starlink in Iran as Israel-Iran conflict escalates
The 16-billion-record data breach that no one’s ever heard of
Malicious Windows Executable Hidden in JPEG Image via Steganography and Base64 Obfuscation
Innovazione, l’Ue all’Italia: “Sistema poco sviluppato, pensare incentivi”