Privacy Letters #32
Privacy, AI e Sicurezza: falsi esperti, algoritmi e crisi della crittografia svizzera
In Questo Episodio di Privacy Letters:
Falsi Esperti Digitali: Un Rischio per la Sicurezza
Libri Fantasma e Intelligenza Artificiale
La geografia degli algoritmi
Crisi della crittografia: il caso svizzero
Boot:
Viviamo in un’epoca in cui la voce più forte, non necessariamente la più competente, spesso ottiene visibilità. È un fenomeno ormai comune anche nel delicato ambito della sicurezza e della privacy digitale, dove sempre più individui si improvvisano esperti, dispensando consigli online senza una reale comprensione di ciò che stanno dicendo. Purtroppo, l’apparenza di autorevolezza, alimentata da follower e like, basta per trasformare un’opinione mal informata in una "verità" seguita da centinaia di persone.
Questa tendenza è pericolosa. La rete è già terreno fertile per minacce reali: malware camuffati da app innocue, truffe via social, phishing sempre più sofisticato. In questo scenario, l'ultimo di cui dovremmo avere bisogno è chi alimenta la disinformazione, magari suggerendo di disattivare le protezioni di sicurezza del telefono per installare “app alternative” o banalizzando l’importanza dell’autenticazione a due fattori.
Il problema non è solo l’errore in sé, ma il contesto in cui viene veicolato: un ambiente in cui la competenza è spesso sacrificata sull'altare della visibilità. Chi ascolta questi "consigli" rischia non solo di essere meno protetto, ma di sentirsi erroneamente al sicuro. E nulla è più pericoloso, nel mondo digitale, che un utente convinto di sapere come difendersi… senza le giuste basi.
Serve un cambio di rotta. È tempo di ridare valore alla competenza, quella vera, fatta di studio, esperienza, aggiornamento continuo. Non tutti devono essere esperti di cybersecurity, ma tutti dovrebbero sapere distinguere chi lo è davvero da chi gioca a esserlo. In rete, la libertà d’espressione è sacrosanta, ma quando si parla di sicurezza, dovrebbe esserci anche spazio per la responsabilità. Perché la privacy e la protezione dei dati non sono opinioni: sono diritti. E non possono essere lasciati in mano all’improvvisazione.
Il Pericolo dei Consigli Non Informati sulla Sicurezza e Privacy Online: Una Minaccia Reale alla Protezione Digitale
Nel panorama digitale contemporaneo, la sicurezza e la privacy online rappresentano questioni di vitale importanza. Con la progressiva digitalizzazione della nostra vita quotidiana, le informazioni personali sono esposte a vulnerabilità crescenti provenienti da hacker, truffatori e malintenzionati. Mentre la protezione dei dati sensibili è diventata una priorità globale, emerge un pericolo significativo da fonti inaspettate: i cosiddetti "guru" della sicurezza informatica. Individui che, pur privi di competenze tecniche verificabili, dispensano consigli su sicurezza e privacy attraverso i loro canali social, siti web e blog, mascherandosi da esperti. Questo fenomeno non è solo preoccupante, ma rappresenta un concreto rischio per la sicurezza digitale collettiva.
La crescente influenza dei "guru" della sicurezza
Il fenomeno dei "guru" digitali è in rapida espansione. La facilità con cui oggi è possibile creare contenuti online e raggiungere un pubblico vasto ha portato alla proliferazione di autoproclamati esperti in numerosi settori, inclusi quelli della sicurezza informatica e della privacy online. Questi influencer condividono regolarmente suggerimenti su come proteggersi dai rischi digitali, migliorare la sicurezza delle informazioni personali e difendersi dalle minacce cyber.
Tuttavia, un'analisi approfondita rivela che molti di questi consigli si basano su:
Informazioni superficiali o obsolete
Dati non verificati scientificamente
Concetti tecnici fraintesi o mal interpretati
Semplificazioni eccessive di problemi complessi
L'aspetto più allarmante di questo fenomeno è la portata dell'influenza di questi presunti esperti. Con migliaia o addirittura milioni di follower che ripongono in loro una fiducia incondizionata, il potenziale di danno si amplifica esponenzialmente. I seguaci raramente possiedono gli strumenti per verificare l'accuratezza delle informazioni ricevute, creando un pericoloso ciclo di disinformazione che si autoperpetua.
I rischi concreti dei consigli non qualificati
1. Vulnerabilità tecniche aumentate
I consigli errati sulla sicurezza informatica possono avere conseguenze dirette e devastanti. Quando un "guru" raccomanda:
L'utilizzo di software di sicurezza obsoleti o non aggiornati
L'adozione di pratiche di protezione superficiali
Configurazioni che indeboliscono le difese esistenti
Soluzioni "fai-da-te" non testate adeguatamente
il risultato è paradossale: gli utenti che cercano di proteggersi finiscono per compromettere ulteriormente la loro sicurezza digitale.
Un esempio concreto riguarda l'uso di VPN gratuite. Molti influencer promuovono questi servizi come panacea per tutti i problemi di privacy, omettendo di menzionare che numerose VPN gratuite raccolgono e rivendono i dati degli utenti, contraddicendo lo scopo originario della loro adozione.
2. Falso senso di sicurezza
Un pericolo ancora più insidioso è la creazione di un falso senso di sicurezza. Gli utenti che seguono consigli superficiali spesso sviluppano una pericolosa convinzione di essere adeguatamente protetti. Questa percezione errata porta a:
Trascurare misure di sicurezza fondamentali
Ignorare avvisi e segnali di pericolo
Assumere rischi eccessivi online
Abbassare la guardia contro minacce reali
La realtà è che la sicurezza informatica richiede un approccio stratificato e costantemente aggiornato, non soluzioni semplicistiche presentate in un video di pochi minuti.
3. Conseguenze legali e normative
La disinformazione può condurre gli utenti a violare inconsapevolmente normative sulla privacy o leggi sulla protezione dei dati. Ad esempio:
L'uso improprio di software di monitoraggio può costituire violazione della privacy
Il trattamento non conforme dei dati personali può violare normative come il GDPR
L'impiego di strumenti di cracking può comportare conseguenze penali
La condivisione non autorizzata di contenuti protetti può generare responsabilità legali
Queste violazioni, anche se compiute in buona fede seguendo consigli errati, possono avere serie ripercussioni legali, specialmente in ambito aziendale.
Il profilo del "guru" della sicurezza non qualificato
Per riconoscere un presunto esperto di sicurezza informatica non qualificato, è utile identificare alcuni tratti caratteristici:
Indicatori di scarsa affidabilità
Assenza di credenziali verificabili: Mancanza di certificazioni riconosciute nel settore della sicurezza informatica (CISSP, CEH, CompTIA Security+)
Linguaggio sensazionalistico: Uso frequente di termini come "rivoluzionario", "segreto", "hack incredibile" per descrivere soluzioni banali
Semplificazioni eccessive: Presentazione di problemi complessi come facilmente risolvibili con un semplice trucco
Assenza di fonti: Mancata citazione di studi, ricerche o fonti autorevoli a supporto delle affermazioni
Confusione terminologica: Utilizzo impreciso di termini tecnici che rivela lacune conoscitive fondamentali
Conflitti d'interesse non dichiarati: Promozione di prodotti o servizi senza trasparenza sui rapporti commerciali
Case study: Esempi emblematici di disinformazione
Un esempio tipico riguarda la gestione delle password. Numerosi influencer promuovono pratiche come la modifica frequente delle password come misura di sicurezza superiore, quando gli esperti di sicurezza informatica riconosciuti oggi raccomandano l'uso di password uniche, lunghe e complesse gestite tramite password manager, accompagnate dall'autenticazione a due fattori.
L'impatto sociale della disinformazione sulla sicurezza
La proliferazione di consigli non qualificati sulla sicurezza informatica ha implicazioni che trascendono il singolo utente, influenzando l'intero ecosistema digitale:
Erosione della fiducia nelle misure di sicurezza legittime
Quando gli utenti sperimentano fallimenti seguendo consigli errati, tendono a sviluppare scetticismo verso tutte le misure di sicurezza, anche quelle valide. Questo atteggiamento può portare all'abbandono delle pratiche di sicurezza fondamentali, aumentando la vulnerabilità collettiva.
Impatto economico
Le violazioni della sicurezza causate da pratiche inadeguate comportano costi significativi:
Perdite dirette dovute a furti d'identità e frodi finanziarie
Costi di ripristino dei sistemi compromessi
Danni reputazionali per aziende e professionisti
Investimenti in soluzioni inefficaci o controproducenti
Secondo recenti studi, il costo medio globale di una violazione dei dati ha raggiunto i 4,45 milioni di dollari nel 2023, con un incremento significativo attribuibile anche all'adozione di pratiche di sicurezza inadeguate.
Costruire una cultura della sicurezza informata
Per contrastare efficacemente la disinformazione nel campo della sicurezza informatica, è necessario un approccio multidimensionale:
Sviluppo del pensiero critico digitale
È fondamentale educare gli utenti a valutare criticamente le fonti di informazione sulla sicurezza, insegnando a:
Verificare le credenziali degli esperti
Cercare consenso nella comunità scientifica e professionale
Triangolare le informazioni consultando fonti multiple
Distinguere tra opinioni personali e best practice consolidate
Fonti autorevoli e risorse affidabili
È essenziale indirizzare gli utenti verso fonti attendibili come:
Enti governativi specializzati: ENISA (Agenzia dell'Unione Europea per la Cybersicurezza), CISA (Cybersecurity and Infrastructure Security Agency)
Istituzioni accademiche: Dipartimenti di informatica e sicurezza delle principali università
Organizzazioni non profit: Electronic Frontier Foundation, Open Web Application Security Project (OWASP)
Aziende con comprovata esperienza: Team di ricerca sulla sicurezza di Microsoft, Google, IBM e altre realtà consolidate
Approccio stratificato alla sicurezza
È importante promuovere una comprensione della sicurezza come processo stratificato che include:
Misure preventive (firewall, antivirus, formazione)
Sistemi di rilevamento (monitoraggio, alert)
Procedure di risposta (piani di emergenza, backup)
Continuo aggiornamento delle competenze e dei sistemi
Responsabilità condivisa nella protezione digitale
La sicurezza informatica è una responsabilità collettiva che coinvolge diversi attori dell'ecosistema digitale:
Piattaforme social e di condivisione contenuti
Le piattaforme dovrebbero implementare politiche più rigorose per contrastare la disinformazione sulla sicurezza informatica:
Etichettare contenuti non verificati
Promuovere fonti autorevoli
Limitare la visibilità di consigli potenzialmente dannosi
Collaborare con esperti di sicurezza certificati
Media e divulgatori
I professionisti dell'informazione hanno la responsabilità di:
Verificare accuratamente le fonti prima di diffondere consigli sulla sicurezza
Consultare esperti qualificati per validare le informazioni
Presentare la complessità dei temi di sicurezza senza semplificazioni eccessive
Correggere tempestivamente informazioni errate
Utenti finali
Gli utenti devono sviluppare consapevolezza e responsabilità:
Verificare l'autorevolezza delle fonti consultate
Adottare un approccio scettico verso soluzioni troppo semplici
Investire tempo nell'educazione digitale personale
Segnalare contenuti fuorvianti alle piattaforme
Conclusione
La proliferazione di consigli non qualificati sulla sicurezza e privacy online rappresenta una minaccia concreta alla protezione digitale collettiva. Il danno causato dalla disinformazione in questo ambito trascende il singolo individuo, creando vulnerabilità sistemiche che possono essere sfruttate da attori malintenzionati.
Per costruire un ecosistema digitale realmente sicuro è necessario un impegno congiunto:
Promuovere l'alfabetizzazione digitale e il pensiero critico
Valorizzare l'expertise autentica e verificabile
Adottare un approccio sistematico e stratificato alla sicurezza
Responsabilizzare tutte le parti interessate
Solo attraverso questo sforzo collettivo potremo contrastare efficacemente la minaccia rappresentata dalla disinformazione sulla sicurezza informatica e proteggere adeguatamente il nostro futuro digitale.
Libri Fantasma e Intelligenza Artificiale: La Nuova Minaccia alla Sicurezza Digitale delle Elezioni
Nel cuore della campagna elettorale canadese, un’allerta si è accesa in ambienti insospettabili: gli scaffali digitali di Amazon Kindle. Sono venuti improvvisamente a galla oltre 200 pubblicazioni politicamente sensibili sulla piattaforma. La particolarità? La maggior parte di questi “libri” sono stati scritti da intelligenze artificiali generative.
Il Contesto: Elezioni, AI e una Nuova Superficie d’Attacco
Non si tratta di fantascienza. I modelli linguistici generativi — simili a quelli che alimentano chatbot e assistenti virtuali — vengono oggi sfruttati per influenzare opinioni, confondere gli elettori e manipolare i dibattiti pubblici, creando contenuti editoriali apparentemente legittimi.
Questi “libri”, venduti o offerti gratuitamente su Amazon, affrontano temi divisivi come immigrazione, diritti civili, aborto, libertà religiosa e geopolitica. Ma a differenza di vere opere editoriali, non hanno un autore umano, né fonti verificate. Il loro scopo? Intorbidire le acque del discorso democratico, sfruttando la fiducia implicita che molti utenti attribuiscono ai contenuti pubblicati in un marketplace globale come Amazon.
Propaganda Generativa: Un Nuovo Vettore d’Attacco
Per chi si occupa di sicurezza informatica e infosec, il fenomeno rappresenta una nuova superficie d’attacco poco considerata: l’editoria algoritmica. A differenza dei social media — dove i contenuti fake sono più facilmente etichettati, rimossi o segnalati — la distribuzione di testi in formato ebook o print-on-demand è percepita come più “legittima” e meno regolamentata.
Con una grafica minimalista, un titolo provocatorio e una descrizione ottimizzata per il motore di ricerca di Amazon, un contenuto AI può arrivare davanti agli occhi dell’elettore medio senza mai passare attraverso un processo di fact-checking umano.
Implicazioni per la Privacy e la Sicurezza del Discorso Pubblico
Questa operazione di “flooding algoritmico” — l’inondazione dell’ambiente informativo con contenuti sintetici — mina la capacità degli individui di distinguere fonti affidabili da fonti manipolate, creando un rumore cognitivo che rende inefficaci anche i più sofisticati strumenti di discernimento.
Per i professionisti della cybersecurity, si apre un nuovo fronte: la protezione dell’integrità informativa. Se fino a ieri l’attacco avveniva tramite spear phishing o data leaks, oggi la minaccia si presenta sotto forma di "libro" innocuo, ospitato da una piattaforma considerata mainstream.
Amazon e la Responsabilità Algoritmica
Amazon, interpellata sulla questione, ha confermato che i contenuti rispettano formalmente le policy attuali, ma ha promesso ulteriori accertamenti. Tuttavia, il problema è più ampio: può un’infrastruttura digitale globale come Amazon rimanere neutrale di fronte alla weaponizzazione dell’IA?
La risposta richiederà più che linee guida editoriali: serviranno nuove forme di auditing algoritmico, strumenti di tracciabilità dell’origine dei contenuti e, forse, una riflessione sistemica sul concetto stesso di “autore” nell’era dell’AI.
Cosa Possiamo Fare Ora?
Monitorare: chi lavora in threat intelligence dovrebbe tenere d’occhio non solo social media, ma anche gli store digitali come superfici d’attacco.
Etichettare: servono standard trasparenti per indicare quando un contenuto è stato generato da IA, proprio come accade con la pubblicità politica.
Educare: l’alfabetizzazione digitale deve includere la capacità di riconoscere i contenuti sintetici anche nei formati tradizionali.
Conclusione: La Guerra dell’Informazione Passa dalla Libreria
Se le guerre del passato si combattevano con propaganda sui manifesti e quelle recenti sui social network, il prossimo teatro sarà molto più silenzioso e sofisticato: gli store di contenuti digitali. L’IA sta trasformando ogni canale in un possibile vettore di disinformazione — e il prezzo dell’ignorarlo potrebbe essere una democrazia incapace di difendersi.
Vuoi approfondire questi temi ogni settimana? Iscriviti alla newsletter per ricevere analisi su IA, privacy, cybersicurezza e disinformazione direttamente nella tua inbox.
La geografia degli algoritmi: come le piattaforme digitali plasmano e sono plasmate dai contesti locali
Gli algoritmi che stanno dietro alle piattaforme digitali sono spesso visti come funzioni matematiche astratte, operative in un ambiente virtuale senza confini. In realtà, essi sono fortemente legati ai contesti geografici e socio-politici in cui vengono sviluppati e implementati. Questo articolo esamina come la progettazione, la distribuzione e l’adattamento degli algoritmi siano strettamente connessi a infrastrutture fisiche, normative locali e dinamiche culturali.
Infrastruttura algoritmica: geografia dei data center
Nonostante l'apparente intangibilità degli algoritmi, il loro funzionamento dipende da una rete di infrastrutture fisiche ben distribuite:
Localizzazione strategica: I data center, che ospitano i server responsabili dell’elaborazione degli algoritmi, si concentrano principalmente in Nord America, Europa occidentale e alcune zone dell’Asia orientale. Queste regioni offrono infrastrutture tecnologiche avanzate, connessioni ad alta velocità e accesso a risorse tecnologiche.
Efficienza energetica: Paesi come Islanda e Finlandia attraggono investimenti in data center grazie alle loro condizioni climatiche favorevoli che riducono i costi di raffreddamento e all’uso di fonti di energia rinnovabile.
Impatto della latenza: La vicinanza geografica dei server agli utenti finali influenza la latenza, ossia il tempo di risposta delle piattaforme. Ciò determina differenze significative nella qualità del servizio offerto in diverse regioni.
Adattamento algoritmico ai contesti locali
Le piattaforme internazionali come X, Instagram, Google e TikTok personalizzano i loro algoritmi per rispondere alle peculiarità dei mercati locali:
Ottimizzazione linguistica: Gli algoritmi devono essere tarati per riconoscere e interpretare centinaia di lingue e dialetti, garantendo così una corretta analisi del contenuto e una moderazione efficace.
Sensibilità culturale: Differenze culturali e sociali influenzano le modalità con cui i contenuti vengono valutati e filtrati. Ciò richiede sistemi algoritmici capaci di adattarsi alle normative locali e ai valori culturali specifici.
Modelli di interazione regionali: Le abitudini di utilizzo variano notevolmente da una regione all'altra. Dati sul comportamento degli utenti raccolti localmente permettono agli algoritmi di evolversi e affinarsi in base alle esigenze e alle preferenze specifiche di ciascun territorio.
La regolamentazione algoritmica: un mosaico normativo
Le leggi e le regolamentazioni nazionali e regionali modellano direttamente il funzionamento degli algoritmi:
Il GDPR e la protezione dei dati: In Europa, il Regolamento Generale sulla Protezione dei Dati impone restrizioni rigorose sulla raccolta e l’uso dei dati, costringendo le piattaforme a implementare funzioni specifiche per garantire la privacy e il rispetto dei diritti degli utenti.
Modelli di censura e controllo in Cina: Gli algoritmi in Cina devono operare all’interno di un sistema normativo che prevede la censura e il controllo dei contenuti, influenzando il modo in cui i dati vengono analizzati e distribuiti.
Quadri normativi emergenti: Paesi come India, Brasile e Canada stanno lavorando alla definizione di regolamentazioni specifiche sugli algoritmi, contribuendo a una frammentazione del panorama globale e a nuove sfide per le piattaforme internazionali.
Disuguaglianze algoritmiche e bias nei dati
Gli algoritmi, pur basandosi su modelli matematici, non sono immuni da bias e squilibri:
Bias nei dataset: I dati usati per addestrare gli algoritmi riflettono spesso una rappresentazione geografica non equilibrata, poiché la maggior parte dei dati proviene da regioni con una forte presenza digitale. Questo porta a prestazioni inferiori e a discriminazioni indirette verso popolazioni meno rappresentate.
Il divario digitale: Le differenze in termini di accesso alla tecnologia e alla connettività influenzano i dati raccolti, penalizzando gli utenti delle aree con infrastrutture limitate.
Concentrazione del potere decisionale: Le scelte progettuali e strategiche, che influenzano direttamente il comportamento degli algoritmi, sono prese in hub tecnologici come la Silicon Valley, creando uno squilibrio nel controllo e nella distribuzione delle opportunità digitali.
Algoritmi nel contesto geopolitico
Oltre all’impatto tecnico, gli algoritmi rivestono un ruolo strategico nelle dinamiche geopolitiche attuali:
Strumenti di soft power: L’esportazione di piattaforme digitali, accompagnata da algoritmi avanzati, diventa uno strumento di influenza politica e culturale a livello internazionale.
Sovranità digitale: Alcuni Stati, tra cui Russia e Cina, hanno sviluppato sistemi alternativi alle piattaforme occidentali per esercitare maggiore controllo sulle proprie informazioni e sulla comunicazione interna.
Manipolazione dell'informazione: Gli algoritmi, se manipolati, possono essere usati per influenzare opinioni e comportamenti, dando vita a vere e proprie "guerre dell'informazione" che hanno ripercussioni sulla sicurezza nazionale.
Resistenze e strategie locali
Le comunità e le realtà locali stanno reagendo agli impatti degli algoritmi in diversi modi:
Sfruttamento delle regole algoritmiche: Gli utenti e le comunità locali imparano a "giocare" con il sistema, sfruttando le regole stabilite dagli algoritmi per dare visibilità a contenuti specifici.
Alternative digitali: In risposta alle esigenze non soddisfatte dalle piattaforme globali, nascono soluzioni locali che offrono funzionalità e interazioni più in linea con le necessità territoriali.
Educazione e consapevolezza: Crescono iniziative volte a migliorare l’alfabetizzazione digitale e algoritmica, consentendo agli utenti di comprendere meglio il funzionamento dei sistemi e di difendersi da eventuali manipolazioni.
Conclusione
La geografia degli algoritmi dimostra che i sistemi digitali non operano in un vuoto astratto, ma si sviluppano e si adattano in base a un complesso intreccio di fattori tecnologici, normativi, culturali ed economici. Comprendere queste dinamiche è fondamentale per progettare algoritmi più trasparenti, equi e resilienti alle sfide globali e locali.
Il futuro richiede lo sviluppo di sistemi che sappiano bilanciare una presenza globale con un forte radicamento nei contesti locali, evitando omologazioni e garantendo una distribuzione più equa dei benefici digitali.
La Svizzera è ancora un baluardo della privacy? Nuove leggi minacciano crittografia e anonimato
Per decenni la Svizzera è stata sinonimo di riservatezza, neutralità e protezione dei dati. Ma ora, una nuova proposta legislativa rischia di infrangere questa immagine, colpendo duramente i servizi che tutelano la privacy digitale degli utenti — e con possibili ripercussioni globali.
La proposta che allarma
Le nuove norme allo studio prevedono che servizi come VPN, email e app di messaggistica sicura identifichino i propri utenti ed offrano accesso alle comunicazioni criptate, qualora richiesto dalle autorità. Questo significa compromettere i principi fondamentali della crittografia end-to-end e della navigazione anonima.
Aziende come Proton VPN, Threema e Nym hanno già espresso forte opposizione, sottolineando come questa legge possa portare alla fine della privacy digitale in Svizzera. Secondo i rappresentanti di queste società, le nuove disposizioni andrebbero a minare proprio ciò che ha reso la Svizzera un punto di riferimento globale per la sicurezza dei dati.
Un danno anche per l'economia digitale svizzera
L'impatto potrebbe andare oltre i confini nazionali. Anche aziende straniere che operano in Svizzera sarebbero obbligate a rispettare questi requisiti, mettendo a rischio le loro politiche di protezione dei dati e inducendole a trasferire le sedi altrove.
Il paese alpino potrebbe così perdere il proprio status di hub globale per la sicurezza digitale, con conseguenze economiche significative per un settore in forte crescita. Gli analisti prevedono una possibile migrazione di talenti e capitali verso giurisdizioni che mantengono un approccio più rigoroso alla protezione dei dati.
La posta in gioco: crittografia e libertà
La crittografia non è solo una questione tecnica: è uno strumento essenziale per la libertà di espressione, la protezione dei whistleblower, la sicurezza di giornalisti e attivisti in regimi repressivi. Colpirla significa esporre milioni di persone a nuovi rischi, riducendo le loro possibilità di comunicare in modo sicuro.
Esperti di sicurezza informatica hanno evidenziato come l'indebolimento della crittografia crei inevitabilmente vulnerabilità che possono essere sfruttate non solo dalle autorità legali, ma anche da attori malintenzionati, mettendo paradossalmente a rischio la sicurezza nazionale che la legge intende proteggere.
La reazione: proteste e consultazioni
Le aziende coinvolte stanno guidando una campagna di sensibilizzazione rivolta sia ai cittadini svizzeri che alla comunità internazionale. La consultazione pubblica resterà aperta fino al 6 maggio 2025, offrendo l'occasione ai cittadini svizzeri e alle organizzazioni internazionali di opporsi e influenzare il processo decisionale.
Diverse associazioni per i diritti digitali, tra cui la Electronic Frontier Foundation e Privacy International, hanno già espresso il loro sostegno alla campagna contro queste misure, sottolineando come rappresentino un pericoloso precedente anche per altre democrazie.
Conclusione: Un precedente pericoloso
Il rischio è chiaro: se anche paesi come la Svizzera, tradizionalmente all'avanguardia nella protezione della privacy, iniziano a compromettere la crittografia, il futuro della privacy globale è in serio pericolo. Non si tratta solo di proteggere le informazioni personali, ma di difendere un principio universale: il diritto alla riservatezza nell'era digitale.
Le prossime settimane saranno cruciali per determinare se la Svizzera manterrà il suo ruolo storico di guardiano della privacy o se cederà alle pressioni per un controllo più invasivo delle comunicazioni digitali, con conseguenze che potrebbero estendersi ben oltre i suoi confini.
Notizie In Breve:
Google ha deciso di non bloccare più automaticamente i cookie di terze parti su Chrome. Offrirà agli utenti la possibilità di scegliere se accettare o meno il tracciamento. Sotto pressione delle autorità regolatorie , la scelta è stata presa per bilanciare le esigenze di privacy con quelle del settore pubblicitario . Il progetto Privacy Sandbox continuerà per migliorare la privacy online senza danneggiare la pubblicità digitale.
Il 23 aprile 2025, la Commissione Europea ha inflitto le prime sanzioni nell’ambito del Digital Markets Act (DMA), colpendo due giganti tecnologici: Apple e Meta. Le multe ammontano rispettivamente a 500 milioni e 200 milioni di euro, segnando un importante precedente nell’attuazione del regolamento volto a garantire maggiore equità e trasparenza nei mercati digitali europei.Apple è stata multata per aver impedito agli sviluppatori di comunicare liberamente agli utenti l’esistenza di alternative più economiche al di fuori dell’App Store. Questa restrizione è stata considerata un ostacolo alla concorrenza, in violazione delle disposizioni chiave del DMA.Meta è stata sanzionata per la pratica del “consenso o pagamento” introdotta su Facebook e Instagram, che obbligava gli utenti a scegliere tra l’accettazione della pubblicità personalizzata (basata sui dati personali) o il pagamento per evitare gli annunci. Secondo la Commissione, tale meccanismo limitava in modo ingiustificato la libertà di scelta degli utenti.Entrambe le società hanno annunciato l’intenzione di opporsi alle decisioni. Apple ha criticato la mancanza di chiarezza nelle regole del DMA e accusato Bruxelles di modificarne l’interpretazione in corso d’opera. Meta, invece, ha definito la sanzione un “dazio multimiliardario” che penalizza le aziende statunitensi, favorendo in modo sproporzionato i competitor europei e cinesi.Queste sanzioni rappresentano un segnale forte da parte dell’Unione Europea: il Digital Markets Act non è solo un quadro normativo, ma uno strumento che sarà applicato con rigore. Le aziende che non si adegueranno rischiano sanzioni ancora più elevate, fino al 10% del fatturato globale annuo — o fino al 20% in caso di recidiva.
L’episodio segna una nuova fase nella regolamentazione del digitale e potrebbe avere ripercussioni significative non solo sui modelli di business delle big tech, ma anche sulle relazioni commerciali tra UE e Stati Uniti.
Secondo un articolo di TorrentFreak del 23 aprile 2025, il capo dell'unità britannica per i crimini contro la proprietà intellettuale ha ammesso che gli utenti di servizi IPTV pirata nel Regno Unito corrono un rischio minimo di arresto. Le forze dell'ordine si concentrano principalmente su gruppi criminali organizzati e rivenditori di alto livello, piuttosto che sui singoli consumatori. Tuttavia, l'uso di questi servizi non è privo di rischi: oltre a finanziare attività criminali, gli utenti possono esporsi a frodi e furti di dati personali. Le autorità utilizzano lettere di diffida per scoraggiare i trasgressori minori, ma le risorse limitate rendono difficile perseguire ogni individuo coinvolto.
Un’indagine condotta da Cybernews ha portato alla luce una grave falla di sicurezza nella piattaforma di monitoraggio dei dipendenti WorkComposer, utilizzata da oltre 200.000 utenti in tutto il mondo. A causa di una configurazione errata di un bucket Amazon S3 non protetto, sono stati esposti pubblicamente più di 21 milioni di screenshot raccolti dai computer dei lavoratori.
Gli screenshot, acquisiti automaticamente dal software per valutare la produttività, contenevano informazioni altamente sensibili, tra cui email aziendali, conversazioni interne, documenti riservati, credenziali d’accesso e chiavi API. La fuga di dati rappresenta un rischio significativo per la sicurezza informatica delle aziende coinvolte, oltre a sollevare serie preoccupazioni in merito alla privacy dei dipendenti.
Dopo la segnalazione da parte del team di ricerca, l’accesso ai dati è stato messo in sicurezza. Tuttavia, l’incidente mette in evidenza i rischi connessi all’uso di strumenti di sorveglianza sul posto di lavoro e sottolinea l’urgenza per le aziende di adottare misure di protezione dei dati più rigorose e responsabili.
Un gruppo di cyber-spionaggio russo, noto come UNC5812, ha lanciato una campagna mirata contro i militari ucraini utilizzando un malware Android nascosto in un'app di mappatura falsa chiamata "Sunspinner". Questa app, promossa attraverso un canale Telegram e un sito web, si presentava come uno strumento per evitare la leva militare, ma in realtà installava un malware che consentiva agli attaccanti di accedere ai dati del dispositivo, tracciare la posizione in tempo reale e registrare audio. Il malware richiedeva agli utenti di disattivare le protezioni di sicurezza di Android per funzionare correttamente. Google ha identificato e bloccato l'attività dannosa, evidenziando l'importanza di rimanere vigili contro tali minacce.
WhatsApp ha introdotto una nuova funzione chiamata Advanced Chat Privacy, progettata per proteggere le informazioni sensibili scambiate nelle chat private e di gruppo.Questa funzione impedisce l'esportazione delle chat e il salvataggio automatico dei media condivisi, come foto e video, su app esterne. Inoltre, blocca l'utilizzo dei contenuti delle chat da parte di Meta AI, l'assistente basato sull'intelligenza artificiale. Gli utenti possono attivare questa impostazione nelle opzioni di privacy della chat. Una volta attivata, tutti i partecipanti alla conversazione saranno informati dell'abilitazione o disabilitazione della funzione, promuovendo la trasparenza. Sebbene questa funzione rappresenti un passo avanti nella protezione della privacy, non impedisce ancora la possibilità di effettuare screenshot o di scaricare manualmente i media.Questa novità si aggiunge ad altre funzionalità di sicurezza recentemente implementate, come il "Chat Lock", che consente di proteggere le chat con password o dati biometrici, e la "Secret Code", che permette di nascondere completamente le chat bloccate utilizzando un codice segreto.
Apple ha lanciato una campagna pubblicitaria che sembra prendere di mira Google Chrome, promuovendo Safari come "un browser davvero privato" e mettendo in evidenza le preoccupazioni riguardo ai cookie di tracciamento e alle pratiche di raccolta dati di Chrome. Secondo Tom's Guide, anche se la pubblicità non dice esplicitamente agli utenti di smettere di usare Chrome, rappresenta una mossa strategica poiché, secondo quanto riferito, Google mira ad aumentare la presenza di Chrome sugli iPhone dal 30% al 50% degli utenti.
Sam Altman, CEO di OpenAI, ha dichiarato che è troppo presto per stabilire regole definitive sulla privacy per l'intelligenza artificiale, poiché la tecnologia si evolve troppo rapidamente. Ritiene che serva una risposta dinamica ai problemi man mano che emergono. Altman ha evidenziato la mancanza di protezioni legali simili al segreto professionale per gli utenti AI che condividono informazioni sensibili. Secondo lui, sarà la società, non solo le aziende, a dover definire nuovi quadri normativi.
News:
Apple fined $570M and Meta $228M for breach of EU law
AI election interference enters the Amazon era
WhatsApp's new Advanced Chat Privacy protects sensitive messages
Proposed Swiss encryption laws may have a severe impact on VPNs – what you need to know
Sam Altman: AI privacy safeguards can’t be established before ‘problems emerge’
China’s Secret Weapon? How EV Batteries Could Be Weaponized to Disrupt America
AirPlay Vulnerabilities Expose Apple Devices to Zero-Click Takeover
WhatsApp Launches Private Processing to Enable AI Features While Protecting Message Privacy