Pulsantiera di navigazione Home Page
Pagina Facebook Pagina Linkedin Canale Youtube Versione italiana
Notizie
Notizie legali

INFORMATION TECHNOLOGY

Digital Services Act - DSA: designato dalla Commissione UE il primo gruppo di piattaforme e motori di ricerca online di dimensioni molto grandi (VLOP e VLOSE).

La Commissione UE ha adottato le prime decisioni di designazione a norma del regolamento sui servizi digitali (Reg. 2022/2065 UE), che riguardano 17 piattaforme online di dimensioni molto grandi e 2 motori di ricerca online di dimensioni molto grandi, con un raggio d'azione di almeno 45 milioni di utenti attivi al mese, vale a dire:

Piattaforme online di dimensioni molto grandi.

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando

Motori di ricerca online di dimensioni molto grandi.

Bing
Google Search

Le piattaforme sono state designate sulla base dei dati utente che erano tenute a pubblicare entro il 17 febbraio 2023.

Le società designate hanno ora 4 mesi di tempo (scadenza al 25 agosto 2023) per conformarsi a tutti i nuovi obblighi stabiliti dal regolamento sui servizi digitali. Tali obblighi mirano a conferire autonomia e responsabilità e a proteggere gli utenti online, compresi i minori, imponendo ai servizi designati di valutare e attenuare i propri rischi sistemici e di predisporre solidi strumenti di moderazione dei contenuti.

Ciò comporta in particolare quanto segue.

Maggiori poteri agli utenti.
  • gli utenti saranno informati con chiarezza sul motivo per cui ricevono determinate raccomandazioni e avranno il diritto di non partecipare ai sistemi di raccomandazione basati sulla profilazione;
  • gli utenti dovranno poter segnalare facilmente i contenuti illegali e le piattaforme saranno tenute a esaminare con diligenza le segnalazioni;
  • gli annunci pubblicitari non possono essere selezionati sulla base dei dati sensibili dell'utente (come l'origine etnica, le opinioni politiche o l'orientamento sessuale);
  • le piattaforme devono contrassegnare tutti gli annunci pubblicitari come tali e informare gli utenti su chi li promuove;
  • le piattaforme devono fornire, nelle lingue degli Stati membri in cui operano, una sintesi delle proprie condizioni generali redatta in modo semplice e comprensibile.

Protezione dei minori rafforzata.
  • le piattaforme dovranno riprogettare i loro sistemi per garantire un livello elevato di tutela della vita privata, di sicurezza e di protezione dei minori;
  • non è più consentita la pubblicità mirata basata sulla profilazione dei minori;
  • valutazioni specifiche dei rischi, anche per quanto riguarda gli effetti nocivi sulla salute mentale, dovranno essere presentate alla Commissione 4 mesi dopo la designazione e rese pubbliche non più tardi di un anno dopo;
  • le piattaforme dovranno ridefinire i propri servizi, compresi le interfacce, i sistemi di raccomandazione e le condizioni generali, per attenuare tali rischi.
Moderazione dei contenuti più diligente, meno disinformazione.
  • le piattaforme e i motori di ricerca devono adottare misure per affrontare i rischi connessi alla diffusione di contenuti illegali online e agli effetti negativi sulla libertà di espressione e di informazione;
  • le piattaforme devono avere condizioni generali chiare e applicarle in modo diligente e non arbitrario;
  • le piattaforme devono disporre di un meccanismo che consenta agli utenti di segnalare i contenuti illegali e prendere provvedimenti rapidi sulla base delle notifiche ricevute;
  • le piattaforme devono analizzare i propri rischi specifici e predisporre misure di attenuazione - ad esempio per contrastare la diffusione della disinformazione e l'uso non autentico dei loro servizi.
Maggiore trasparenza e assunzione di responsabilità.
  • le piattaforme devono garantire che le loro valutazioni dei rischi e la loro conformità a tutti gli obblighi imposti dal regolamento sui servizi digitali siano sottoposte a un audit esterno e indipendente;
  • le piattaforme dovranno dare ai ricercatori l'accesso ai dati accessibili al pubblico. In un secondo tempo sarà istituito un meccanismo specifico per i ricercatori abilitati;
  • le piattaforme dovranno rendere pubblici i repertori di tutti gli annunci pubblicitari apparsi sulla loro interfaccia;
  • le piattaforme devono pubblicare relazioni di trasparenza sulle decisioni di moderazione dei contenuti e sulla gestione dei rischi.
Entro 4 mesi dalla notifica delle decisioni di designazione, le piattaforme e i motori di ricerca designati sono tenuti ad adeguare i propri sistemi, risorse e processi per garantire la conformità al regolamento, a creare un sistema indipendente di controllo della conformità e a svolgere e presentare alla Commissione la loro prima valutazione annuale dei rischi. Tutto ciò entro il 25 agosto 2023.

Valutazione dei rischi.


Le piattaforme dovranno individuare, analizzare e attenuare un'ampia gamma di rischi sistemici, dal modo in cui i contenuti illegali e la disinformazione possono essere amplificati attraverso i loro servizi fino all'impatto sulla libertà di espressione e sulla libertà dei media.  Analogamente, dovranno essere valutati e attenuati i rischi specifici relativi alla violenza di genere online e alla protezione online dei minori e della loro salute mentale. I piani di attenuazione dei rischi delle piattaforme e dei motori di ricerca designati saranno oggetto di audit e di vigilanza indipendenti da parte della Commissione.   

Una nuova architettura di vigilanza.

L'osservanza del regolamento sui servizi digitali sarà garantita da un'architettura di vigilanza paneuropea. Sebbene l'autorità competente per la vigilanza delle piattaforme e dei motori di ricerca designati sia la Commissione, quest'ultima collaborerà strettamente con i coordinatori dei servizi digitali nel quadro di vigilanza istituito dal regolamento sui servizi digitali. Tali autorità nazionali, responsabili anche della vigilanza sulle piattaforme e sui motori di ricerca più piccoli, devono essere istituite dagli Stati membri dell'UE entro il 17 febbraio 2024. Entro la stessa data tutte le altre piattaforme devono conformarsi agli obblighi previsti dal regolamento sui servizi digitali e fornire ai propri utenti la tutela e le garanzie previste da quest'ultimo.

Per garantire il rispetto del regolamento sui servizi digitali, la Commissione sta inoltre rafforzando le proprie competenze multidisciplinari interne ed esterne e ha recentemente istituito il Centro europeo per la trasparenza algoritmica (ECAT), che la coadiuverà valutando se il funzionamento dei sistemi algoritmici sia in linea con gli obblighi di gestione dei rischi.

La Commissione sta inoltre istituendo un ecosistema di applicazione digitale che riunisce le competenze di tutti i settori pertinenti.

Accesso dei ricercatori ai dati.

La Commissione UE ha inoltre pubblicato un invito a presentare contributi sulle disposizioni previste dal DSA in relazione all'accesso dei ricercatori ai dati. Tali disposizioni sono concepite per monitorare meglio le azioni adottate dai fornitori di piattaforme per contrastare i contenuti illegali, come i discorsi d'odio, e altri rischi per la società quali la diffusione della disinformazione, come pure i rischi che possono incidere sulla salute mentale degli utenti.

I ricercatori abilitati avranno la possibilità di accedere ai dati di qualsiasi piattaforma o motore di ricerca online di dimensioni molto grandi per condurre ricerche sui rischi sistemici nell'UE: potranno ad esempio analizzare le decisioni delle piattaforme in merito a ciò che gli utenti vedono e con cui interagiscono online, avendo accesso a dati precedentemente non divulgati. Alla luce dei riscontri ricevuti, la Commissione presenterà un atto delegato per definire un processo semplice, pratico e chiaro per l'accesso ai dati e che conterrà adeguate garanzie contro gli abusi. La consultazione si concluderà il 25 maggio.
Stampa la pagina