Nel linguaggio informatico il termine “hosting” viene utilizzato per indicare una tipologia di servizio di rete, per mezzo del quale le pagine appartenenti a un sito o a un’applicazione web, gestite da terzi soggetti, vengono allocate su un determinato server, con possibilità degli utenti della rete di accedervi.
Questa tipologia di servizio è generalmente fornita da imprese specializzate, note come “web hosting providers”, che mettono a disposizione dei clienti, sia privati che aziende, i server dei propri datacenter, alla cui gestione quest’ultimi possono provvedere tramite appositi pannelli di controllo.
Compito dell’hosting provider è quindi garantire la fruibilità delle pagine web da parte degli utenti, mantenendole online 24 ore su 24.
Con riferimento a questa tipologia di servizio, uno degli aspetti su cui maggiormente si è interrogato il legislatore, così come la dottrina e la giurisprudenza, è la determinazione del regime di responsabilità dell’hosting provider, con riguardo alle eventuali condotte illecite poste in essere da chi, per suo tramite, accede alle pagine web.
La responsabilità del provider alla luce della direttiva 2000/31/CE
Il principale riferimento normativo per delineare la qualificazione giuridica della responsabilità del provider è rappresentato dalla direttiva 2000/31/CE – c.d. “direttiva sull’e-commerce” – la quale, a livello nazionale, è stata attuata con il D.lgs. n. 70/2003.
Con specifico riferimento all’attività di hosting, che l’art. 16 del D.lgs. n. 70/2003 definisce come “memorizzazione di informazioni fornite da un destinatario del servizio”, il provider viene generalmente ritenuto responsabile delle informazioni memorizzate soltanto nel caso in cui sia a conoscenza del contenuto illecito delle stesse e se, pur avendone avuto notizia, non provveda alla tempestiva rimozione.
Tale orientamento è stato più volte confermato dalla Corte di Cassazione, da ultimo con la sentenza n. 7708/2019, che ha affermato come sia imputabile all’hosting provider la responsabilità per la mancata rimozione dei contenuti illeciti, nel caso in cui lo stesso:
- sia a conoscenza della natura illecita dei contenuti pubblicati dagli utenti;
- la natura illecita dell’altrui condotta sia riscontrabile con l’ordinaria diligenza che è lecito attendersi da un operatore della rete;
- abbia la concreta possibilità di attivarsi per la rimozione di detti contenuti.
Tale orientamento, tuttavia, è stato profondamente rivisitato da una recente pronuncia della Corte di Giustizia dell’UE.
I nuovi confini della responsabilità del provider
La Corte di Giustizia dell’UE, con una sentenza del 3 ottobre 2019, ha sancito il principio per cui il diritto dell’Unione non impedisce che sia imposto a un prestatore di servizi di hosting di rimuovere contenuti identici e, in alcuni casi, equivalenti ad altri contenuti precedentemente dichiarati illeciti.
Il diritto dell’Unione, inoltre, permette che tale ingiunzione possa essere fatta valere a livello mondiale, nell’ambito del diritto internazionale pertinente.
I principi in oggetto sono stati affermati in una pronuncia con la quale è stata intimata a Facebook la rimozione di un commento e di ulteriori contenuti ritenuti diffamatori pubblicati da un utente sulla piattaforma social.
La sentenza in oggetto si basa su una reinterpretazione della direttiva 2000/31/CE, specificamente dell’art. 15 comma 1. Questa norma stabilisce che non è imputabile ai prestatori di servizi di hosting “un obbligo generale di sorveglianza sulle informazioni che trasmettono o memorizzano né un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite”.
La pronuncia in oggetto appare sin da subito rivoluzionaria, in quanto responsabilizza maggiormente la figura dell’hosting provider, attribuendogli un dovere di sorveglianza “attiva” sui contenuti pubblicati dagli utenti.
La posizione assunta da questa sentenza, peraltro, si pone in posizione diametralmente opposta a quella assunta, sempre di recente, in materia di diritto all’oblio dalla stessa Corte europea.
Il provvedimento, ad ogni modo, suscita numerose perplessità, perché rischia di dilatare eccessivamente l’ambito di azione del provider, legittimando azioni di controllo eccessivamente repressive.
In questo senso, si tenga presente che gli stessi concetti di “identità” ed “equivalenza”, che rappresentano elementi cardine della sentenza, sono parametri di cui è difficile tener conto nella valutazione dei contenuti pubblicati degli utenti, stante anche l’assenza, da parte degli organi comunitari, di indicazioni più precise circa l’effettiva portata degli stessi.
Una loro considerazione in senso eccessivamente estensivo, infatti, rischia di porsi in contrasto con un principio fondamentale quale quello di manifestazione del pensiero, minando di conseguenza anche il diritto degli utenti della rete di accedere alle informazioni.
Come rilevato dallo stesso Facebook, inoltre, la sentenza in oggetto rischia altresì di minare il principio per cui “un Paese non ha il diritto di imporre le proprie leggi sulla libertà di parola ad un altro Paese”.
Un contenuto giudicato offensivo o diffamatorio in un determinato Stato, infatti, potrebbe non essere considerato allo stesso modo in uno Stato differente, ove le norme in materia potrebbero essere meno rigide.
Le possibili applicazioni pratiche della sentenza: l’utilizzo di filtri automatizzati
Analizzate le novità introdotte e i possibili risvolti negativi della sentenza, occorre adesso domandarsi come piattaforme quali Facebook potranno applicare concretamente simili forme di controllo.
La soluzione ad oggi più probabile potrebbe essere l’utilizzo di filtri automatizzati, che operano sulla base di precisi algoritmi, che andranno a rilevare l’identità o l’equivalenza dei contenuti pubblicati con altri precedentemente segnalati e rimossi.
Questa soluzione, tuttavia, rischia ancor di più di minare la libertà di manifestazione del pensiero, non essendo i sistemi di intelligenza artificiale in grado di replicare perfettamente il ragionamento umano.
Simili filtri, infatti, non potendo cogliere le varie sfumature del discorso nel quale determinate frasi sono inserite, potrebbero bloccare anche contenuti di tipo critico o satirico, ritenendoli erroneamente di natura offensiva.
Limiti o garanzie?
Come abbiamo avuto modo di constatare, diversi sono gli interrogativi sollevati da questa pronuncia.
La Corte, infatti, si pone sicuramente in posizione maggiormente garantista per i soggetti cui si riferiscono i contenuti informativi pubblicati sul web.
L’aumento esponenziale degli utilizzatori delle piattaforme social è andato di pari passo con la crescita dei fenomeni diffamatori, attribuire pertanto simili doveri di controllo ai fornitori di servizi di providing potrebbe sicuramente costituire un valido argine al futuro profilarsi di fenomeni analoghi.
D’altro canto, è innegabile come una simile responsabilizzazione del provider potrebbe risultare pregiudizievole per questi soggetti e per gli utenti della rete, che potrebbero vedere pregiudicato il proprio diritto ad informare ed essere informati.
Ad oggi è impossibile prevedere con certezza quali saranno le conseguenze del provvedimento in oggetto, è sicuramente auspicabile che si arrivi ad un equo bilanciamento delle prerogative in gioco, attività quest’ultima che, specie con riferimento ai temi in oggetto, si prospetta di ardua realizzazione.
Redazione Diritto dell’Informatica