Nei corridoi delle istituzioni europee è tornato un confronto che sembrava in pausa: la discussione sui controlli nelle app di messaggistica è ripartita con una svolta politica significativa. Dopo mesi di stallo il testo sulla prevenzione degli abusi sessuali sui minori ha ottenuto un primo via libera tecnico, segnando un cambio di linea da parte della Germania e l’astensione dell’Italia. Si tratta di un passo che potrebbe riconfigurare il rapporto tra tutela dei minori e privacy nelle comunicazioni private, ma lascia ancora molte incognite aperte.
Chi ha deciso e perché
Il pacchetto noto come Child Sexual Abuse Regulation — spesso chiamato in pubblico chat control — ha ricevuto l’approvazione del Coreper, l’organismo che raccoglie i rappresentanti permanenti degli Stati membri. Il testo approvato elimina l’obbligo di una scansione preventiva massiva dei messaggi e introduce invece un modello che lascia alle aziende la possibilità di adottare strumenti di controllo su base volontaria. Questa soluzione è stata interpretata come una via di mezzo tra chi chiedeva regole stringenti e chi difendeva la riservatezza delle comunicazioni.

La decisione non è stata unanime: oltre alla Germania, che ha cambiato opinione sostenendo la versione “opzionale”, si sono registrati voti contrari da parte di Repubblica Ceca, Paesi Bassi e Polonia. L’astensione dell’Italia è stata letta come una scelta cautelativa, che riflette il dibattito interno tra tutela dei minori e tutela dei dati. Un dettaglio che molti sottovalutano è come questo equilibrio dipenda non soltanto dalla legge, ma dalle scelte tecniche che le piattaforme decideranno di fare.
Sul piano pratico il testo conferma verifiche limitate già previste dalla normativa transitoria in vigore, ma apre la porta a investimenti privati: se le aziende sceglieranno di attivare soluzioni di detection, la portata reale dei controlli dipenderà dalle tecnologie adottate e dalle politiche di gestione dei dati. Lo raccontano i tecnici del settore: la traiettoria dipende più dagli investimenti che dalle parole del regolamento.
Il prossimo passaggio e le incognite operative
La strada ora passa al Consiglio: il Consiglio dell’Unione europea dovrà pronunciarsi su una versione definitiva nel corso di una riunione in calendario per l’inizio di dicembre. Se arriverà il via libera politico, si apriranno i triloghi tra Consiglio, Parlamento e Commissione per definire il testo finale. Questi negoziati sono cruciali perché determineranno limiti, procedure e controlli effettivi. Un aspetto che sfugge a chi vive in città è che le decisioni tecniche sugli algoritmi avranno effetti concreti sulla vita quotidiana degli utenti.
Un altro elemento da tenere d’occhio è la normativa transitoria, che scade il 3 aprile 2026 e già impone verifiche limitate alle piattaforme. Se le istituzioni non chiuderanno il negoziato per tempo, si creerà una finestra normativa incerta che potrebbe prolungare l’attuale regime provvisorio. La presidenza danese, che ha guidato la stesura del testo, passerà il testimone a Cipro, lasciando la trattativa a una nuova squadra che erediterà questioni non risolte.
Resta aperto il nodo più dibattuto: senza obblighi chiari, le piattaforme potrebbero decidere di non investire in strumenti di scansione o di adottare soluzioni meno invasive ma meno efficaci. Un dettaglio che molti sottovalutano è il fattore economico: sviluppare e gestire sistemi di detection richiede risorse e regole chiare sulla protezione dei dati. In assenza di paletti definiti, il compromesso raggiunto rischia di tradursi in una norma che lascia ampio margine di discrezionalità, e la tutela reale dei minori dipenderà tanto dalle scelte private quanto dalle garanzie pubbliche.
