Moderazione dei social, così il Digital Service Act (e Agcom) potrebbe risolvere le dispute

26 gennaio 2021

Nel dibattito di questi giorni su come agire di fronte agli episodi di blocco degli account social da parte delle grandi piattaforme si è fatto poco riferimento alle potenzialità della nuova proposta di regolamento europeo, il Digital Service Act (DSA).

Il testo della proposta di regolamento è molto recente (dicembre 2020) ed quindi è probabile che molti commentatori non abbiano avuto il tempo di approfondirne i dettagli, complice anche l’assenza di un testo in italiano, ma sicuramente siamo di fronte a uno scenario innovativo in materia di contenuti illegali online. Ne ho scritto a pochi giorni dalla presentazione da parte della Commissione EU e varrebbe pertanto la pena di tornarci sopra alla luce degli ultimi avvenimenti che hanno accesso un forte dibattito su censura, contenuti illeciti e libertà di espressione.

Cosa prevede il Digital Service Act

Il regolamento stabilisce norme armonizzate sulla fornitura di servizi di intermediazione nel mercato interno. In particolare, definisce:

  • un quadro per l’esenzione condizionale dalla responsabilità dei prestatori di servizi di intermediazione;
  • norme sugli obblighi di dovuta diligenza specifici adattati a determinate categorie specifiche di fornitori di servizi di intermediazione;
  • norme sull’attuazione e il rispetto del presente regolamento, anche per quanto riguarda la cooperazione e il coordinamento tra le autorità competenti.

Moderazione dei contenuti

Con riferimento a cosa sono i contenuti illegali, l’articolo 2 della proposta li descrive come qualsiasi informazione, che, di per sé o in base al riferimento a un’attività, compresa la vendita di prodotti o la prestazione di servizi, non è conforme al diritto dell’Unione o al diritto di uno Stato membro, indipendentemente dall’oggetto preciso materia o natura di tale legge.

Sempre all’articolo 2 si definisce cosa viene inteso per moderazione dei contenuti: le attività intraprese dai fornitori di servizi intermediari volte a rilevare, identificare e affrontare contenuti illegali o informazioni incompatibili con i loro termini e condizioni, forniti dai destinatari del servizio, comprese le misure adottate che influenzano la disponibilità, la visibilità e l’accessibilità dei quel contenuto illegale o quelle informazioni, come la retrocessione, la disabilitazione dell’accesso o la loro rimozione, o la capacità dei destinatari di fornire tali informazioni, come la chiusura o la sospensione dell’account di un destinatario.

Obblighi di due diligence

Nel capitolo 3 del DSA si entra nel merito di quello che è definito Due diligence obligations for a transparent and safe online environment e in questo contesto vale la pena di soffermarsi per comprendere quali opzioni offre la proposta comunitaria.

L’articolo 20 stabilisce che le piattaforme online sospendono, per un periodo di tempo ragionevole e previo avviso, la fornitura dei loro servizi ai destinatari che spesso forniscono contenuti manifestamente illegali. Le piattaforme online sospendono, per un periodo di tempo ragionevole e dopo aver emesso un preavviso, il trattamento delle comunicazioni e dei reclami presentati tramite i meccanismi di notifica e azione e i sistemi interni di trattamento dei reclami di cui agli articoli 14 e 17, rispettivamente, da individui o entità o da ricorrenti che presentano frequentemente comunicazioni o reclami manifestamente infondati.

Le piattaforme online valutano, caso per caso e in modo tempestivo, diligente e obiettivo, se un destinatario, un individuo, un’entità o un denunciante commette l’uso improprio di cui ai paragrafi 1 e 2, tenendo conto di tutti fatti e circostanze rilevanti evidenti dalle informazioni disponibili sulla piattaforma online. Tali circostanze includono almeno quanto segue:

  • il numero assoluto di elementi di contenuto manifestamente illegale o di comunicazioni o reclami manifestamente infondati, presentati nell’ultimo anno;
  • la loro proporzione relativa rispetto al numero totale di elementi di informazione forniti o avvisi presentati nell’ultimo anno;
  • la gravità degli abusi e le sue conseguenze;
  • l’intenzione del destinatario, individuo, entità o denunciante.

Le piattaforme online definiscono, in modo chiaro e dettagliato, la loro politica in relazione all’uso improprio di cui ai paragrafi 1 e 2 nei loro termini e condizioni, anche per quanto riguarda i fatti e le circostanze di cui tengono conto nel valutare se alcuni comportamenti costituiscono un uso improprio e la durata della sospensione.

A questo punto è evidente che tali disposizioni potrebbero aiutarci, in coordinamento con altre nel DSA che prevedono, ad esempio all’art.17 un sistema di gestione dei reclami, la creazione all’art.32 del compliance officer e all’art.38 la designazione dell’autorità nazionale del Digital Service Coordinator competente che dovrà interfacciarsi con le piattaforme.

Il regolamento pilota italiano

A questo punto l’Italia può già oggi vantare un regolamento pilota a livello globale che è stato messo a regime per la tutela del diritto d’autore.

Ispirandoci al sistema gestito da Agcom anche per la gestione di contenuti illeciti di genere diverso sui social, si potrebbe definire un meccanismo di analisi e salvaguardia delle parti che da un lato consenta alla piattaforma di agire secondo i termini e le condizioni del servizio, e quindi procedere con eventuali sospensioni e blocchi degli account per violazione, ma dall’altro, tramite Agcom, sarebbe possibile prevedere un meccanismo di reclamo sotto la supervisione di un’autorità amministrativa terza, con una procedura cautelare, al fine garantire allo stesso tempo rapidità di intervento e superare il modello di “polizia privata” che oggi viene opposto da molti giuristi all’azione autonoma senza contraddittorio della piattaforma.