I massimi esperti di protezione dei dati personali a livello globale si sono riuniti a Seul per la 47ª edizione della Global Privacy Assembly (GPA), l’evento annuale che riunisce oltre 140 autorità e agenzie di tutto il mondo. L’argomento principale di quest’anno è stato uno solo: l’intelligenza artificiale (IA) e le sue implicazioni per i diritti dei cittadini. Presente anche una delegazione del Garante italiano, guidata dalla vicepresidente Ginevra Cerrina Feroni.
Regole chiare per l’IA
Al termine dei lavori, i partecipanti hanno approvato tre risoluzioni fondamentali. La prima, promossa anche dal Garante italiano, ribadisce in modo perentorio che le norme sulla protezione dei dati si applicano pienamente all’IA. In particolare, è stata sottolineata la necessità di rispettare cinque principi chiave per l’addestramento dei modelli di IA:
- Base giuridica corretta: i dati devono essere raccolti in modo lecito.
- Limitazione delle finalità: i dati non possono essere usati per scopi diversi da quelli per cui sono stati raccolti.
- Minimizzazione: è necessario utilizzare solo i dati strettamente necessari.
- Trasparenza: gli utenti devono sapere come vengono usati i loro dati.
- Accuratezza: i dati devono essere precisi e aggiornati.
Le altre due risoluzioni approvate hanno puntato i riflettori su due temi altrettanto cruciali: la necessità di una supervisione umana reale e non solo formale sulle decisioni automatizzate e l’importanza di integrare l’educazione digitale nei programmi scolastici, per contrastare fenomeni come il cyberbullismo, i deepfake e i furti d’identità.
Maggiori informazioni nella nota del Garante Privacy