La Commissione Europea ha recentemente avviato un’indagine approfondita nei confronti di Meta, la società madre di Facebook e Instagram, per possibili violazioni delle norme dell’Unione Europea contenute nel Digital Services Act (DSA), che mira a proteggere i minori online.
Bruxelles esprime preoccupazione per il fatto che i sistemi di Facebook e Instagram, inclusi i loro algoritmi, possano contribuire a stimolare dipendenze comportamentali nei bambini, creando effetti di isolamento e depressione che rappresentano un rischio per la loro salute mentale. In particolare, l’attenzione è rivolta anche ai metodi di verifica dell’età messi in atto da Meta.
In risposta alle preoccupazioni sollevate, un portavoce di Meta ha dichiarato: “Vogliamo che gli adolescenti abbiano esperienze online sicure e adatte alla loro età. Per questo nell’ultimo decennio abbiamo sviluppato oltre 50 strumenti e politiche pensate proprio per proteggerli. Questa è una sfida che tutto il settore si trova ad affrontare, e siamo pronti a condividere maggiori dettagli sul nostro lavoro con la Commissione Europea”.
La risposta di Meta riflette l’importanza che l’azienda attribuisce alla sicurezza e al benessere degli utenti più giovani, mentre si prepara ad affrontare l’indagine dell’UE. Tuttavia, l’indagine rappresenta un chiaro segnale dell’attenzione crescente che le autorità europee stanno dedicando alla regolamentazione delle piattaforme digitali e alla protezione dei minori online.
È fondamentale per le piattaforme digitali come Meta garantire che le loro politiche e i loro strumenti siano efficaci nel proteggere i giovani utenti e nel mitigare i rischi associati all’uso delle loro piattaforme. L’indagine dell’UE potrebbe portare a cambiamenti significativi nelle pratiche di regolamentazione e di sicurezza delle piattaforme sociali, con potenziali implicazioni anche per altre aziende del settore.