
La 47ª Global Privacy Assembly si è svolta a Seoul dal 15 al 19 settembre 2025 e ha riunito autorità di protezione dei dati da decine di paesi per discutere, confrontarsi e adottare raccomandazioni concrete sull’impatto privacy dell’IA. Durante l’evento si sono svolte sessioni pubbliche e incontri a porte chiuse tra le autorità, oltre a numerosi eventi collaterali dedicati a temi pratici come open source, trasferimenti internazionali e istruzione digitale.
Tra i provvedimenti più rilevanti approvati durante l’assemblea ci sono tre risoluzioni focalizzate sull’intelligenza artificiale e la tutela dei dati.
La prima, co-firmata da più Autorità — con il supporto della delegazione italiana — ribadisce che il quadro giuridico esistente sulla protezione dei dati si applica integralmente all’IA e richiama alcuni principi non negoziabili: corretto fondamento giuridico, limitazione delle finalità, minimizzazione dei dati, trasparenza e accuratezza. Le Autorità partecipanti si sono impegnate a potenziare l’attività di sensibilizzazione verso sviluppatori e decisori, a coordinare meglio l’enforcement e a condividere esperienze pratiche sull’IA generativa.
La delegazione italiana, guidata dal Garante e dalla Vicepresidente Ginevra Cerrina Feroni ha poi posto il tema del “pay or consent” — quei modelli che richiedono un pagamento per ottenere servizi senza tracciamento o privacy stronger — evidenziando un rischio etico e normativo: la libertà del consenso è sostanziale, non formale; non può trasformarsi in una discriminante dove la protezione dei dati diventa un privilegio di chi può pagare.
Su pubblicità e profilazione la posizione declinata dalla delegazione italiana è netta: il marketing digitale è lecito solo se trasparente, corretto e rispettoso della libertà degli individui. In Italia la pratica consolidata resta quella del consenso esplicito, specifico e informato come base per alcune attività di marketing, mentre l’uso del legittimo interesse come giustificazione per pubblicità personalizzata rimane sotto stretta osservazione, soprattutto quando vi siano ragioni di rischio per categorie vulnerabili, come i minori — tema che è stato richiamato anche nel dibattito sul caso TikTok del 2021.
Altri punti caldi emersi dai lavori riguardano la supervisione umana delle decisioni automatizzate — che deve essere reale ed effettiva e non una mera formalità — e l’urgenza di integrare l’educazione alla privacy e all’alfabetizzazione digitale dall’infanzia fino all’università, per contrastare fenomeni sempre più concreti come deepfake, cyberbullismo e furti d’identità. Inoltre, nei side event l’Autorità italiana ha condiviso esperienze pratiche su casi di intelligenza artificiale open source (Replica, ChatGPT, Deepseek), ribadendo la difficoltà di cooperazione con alcuni fornitori e la necessità di basi giuridiche chiare per l’uso di dati nei grandi modelli di linguaggio.
Infine, merita una nota un elemento positivo emerso dall’impegno italiano: il Privacy Tour del Garante — un’iniziativa di promozione della cultura della privacy e dell’uso responsabile delle tecnologie — è stato riconosciuto come progetto significativo nel panorama internazionale, risultando tra i finalisti nella categoria “Education”. È un promemoria utile: non bastano regole scritte, servono formazione, dialogo e strumenti concreti perché i principi si traducano in comportamenti quotidiani e tutela reale per le persone.
La lezione che arriva da questa edizione della Global Privacy Assembly è doppia: da un lato, il quadro normativo sulla protezione dei dati rimane centrale e da applicare anche all’intelligenza artificiale; dall’altro, la sfida è politica e culturale: conoscere davvero l’IA è fondamentale per trasformarla in uno strumento di supporto reale, e non viverla come una minaccia per la nostra sicurezza e privacy.
Per raggiungere questo obiettivo è necessaria un’educazione che parta dall’infanzia, una collaborazione internazionale e dei veri investimenti per trasformare i principi privacy in garanzie effettive.
Leggi anche: Design Privacy dei siti web: ancora troppi ostacoli per gli utenti