#pausacaffé - Quando lo stato ti fa da mamma: il decreto giustizia e il filtro dei contenuti

Scritto da il
Redatto da
legge
porno

Il cittadino tipo italiano nel mondo è sempre riuscito a farsi riconoscere. Una serie lunghissima di stereotipi sono stati nel tempo contrassegnati alla nostra popolazione:

  • mangiamo solo pizza e pasta
  • abbiamo la mafia
  • troppi gesti
  • etc…

Su molte mi trovate d’accordo e di altre non mi importa. Sicuramente però ciò di cui mi dispiace di più è che siamo il terzo mondo delle tecnologie e delle innovazioni. L’Italia, che ha visto protagonisti geni della portata di Fermi, Galileo e Da Vinci, nel 2020 è ancora un paese di vecchi che non sa accendere un PC e non ha capito niente della tecnologia.

Il decreto giustizia ( articolo 7-bis )

Non sono qui per parlare di politica nel senso stretto del termine, per quel che mi riguarda e da quando ne ho sviluppato il senso critico, ricordo solo decisioni totalmente insensate e che ho più volte visto controproducenti, ma di cui non essendo troppo competente mi son sempre astenuto dal formularne sentenze pubbliche. In queste settimane qualcosa è cambiato, l’attenzione è rivolta su un argomento che posso comprendere, giudicare e argomentare.

Ciò che fa molto discutere in questi giorni è il decreto giustizia e nel particolare dell’articolo 7-bis proposto e portato avanti dal senatore della lega Simone Pillon. Sottolineo anche come in realtà questo emendamento non abbia ricevuto alcuna resistenza da nessun altro gruppo parlamentare, e che al momento in cui sto parlando il decreto è stato già approvato.

Partirò subito con quella che è la mia posizione in merito, con alcune riflessioni iniziali: credo che la proposta del senatore sia inappropriata (in relazione a quelle che sono le problematiche odierne), parzialmente inapplicabile e anche fuorviante, la soluzione svia completamente da quello che era il problema. Ma procediamo con ordine

Il testo dell’articolo e l’intervista

Per correttezza di informazione, è mio dovere informare che ho prelevato il testo del decreto dal sito www.key4biz.it/

Articolo 7-bis.
(Sistemi di protezione dei minori dai rischi del cyberspazio)

1.I contratti di fornitura nei servizi di comunicazione elettronica disciplinati dal codice di cui al decreto legislativo 1° agosto 2003, n. 259 devono prevedere tra i servizi preattivati sistemi di parental control ovvero di filtro di
contenuti inappropriati per i minori e di blocco a contenuti riservati ad un pubblico di età superiore agli anni diciotto.

2. Questi servizi devono essere gratuiti e disattivabili solo su richiesta del consumatore, titolare del contratto.

3. Gli operatori di telefonia, di reti televisive e di comunicazioni elettroniche assicurano altresì adeguate forme di pubblicità di tali servizi in modo da assicurare che i consumatori possano compiere scelte informate.

4. In caso di violazione degli obblighi di cui ai commi precedenti l'Autorità per le garanzie nelle comunicazioni ordina all'operatore la cessazione della condotta e la restituzione delle eventuali somme ingiustificatamente addebitate agli utenti, indicando in ogni caso un termine non
inferiore a sessanta giorni entro cui adempiere.

La stessa redazione che riporta il testo sul proprio sito ha fatto un’intervista a quelli che sono i protagonisti nel panorama politico di questa decisione, compresa opposizione e moige.

L’analisi

Cos’è che viene realmente chiesto agli operatori telefonici e quindi proposto e garantito alle famiglie?

Un filtro preventivo ( disattivabile però dietro richiesta esplicita del titolare della linea ) per i contenuti considerati (da chi poi) inappropriati per i minori o comunque riservati ad un pubblico maggiorenne.

Un primo pensiero già solo leggendo questo testo è che il concetto di genitore sia profondamente cambiato, oggi un padre o una madre vogliono essere deresponsabilizzati delle cose che circondano il proprio figlio, parlerò più avanti di questo perché bisogna sottolineare a mio parere come oggi un bambino cresca fondamentalmente stando a contatto non con i propri genitori, ma con la tecnologia.

Inappropriato

In questo periodo di crisi post epidemia penso che l’ultimo dei problemi politici dovrebbe essere quello di censura dei contenuti del web, giusta o sbagliata che sia. Attualmente accendere dibattiti su contenuti del genere suona molto come “distogliere l’attenzione” dalle reali problematiche che ci hanno afflitto e ci stanno affliggendo in questo duro anno (d’altronde senza poter andare allo stadio per le partite di calcio, come li distrai i cittadini?).

Non so se quest’atteggiamento possa essere o no volontario (non vorrei passare per un complottista), fatto sta che gli organi politici italiani (senza fare menzioni ad un appartenenza più che un’altra) non sono stati assolutamente all’altezza di gestire e organizzare i profondi cambiamenti che la situazione ci ha imposto.

Volendo tralasciare gli aspetti economici (che sono comunque una conseguenza di tutte le altre sfere di gestione che son state sbagliate) e volendo anche solo ragionare sul lato tecnologico è importantissimo sottolineare come si sia sofferta la mancanza di un’infrastruttura di rete capace di gestire il picco di connessioni durante il lockdown, la mancanza di supporto a studenti e lavoratori che non avevano gli strumenti per operare con il telelavoro o le lezioni telematiche, una mancanza nel pubblicizzare ed educare la popolazione allo sfruttamento delle piattaforme online per il programma solidarietà digitale o per mettere in atto la propria attività commerciale online e molto altro.

Penso sia chiaro come i problemi tecnologici in Italia non sono stati sicuramente legati alle mancanze di filtri di contenuti e che la fase attuale dovrebbe servire a rafforzare questi aspetti, collaborando con i diversi operatori e non ostacolando il loro operato per operati futili come parental control preventivi.

Inapplicabilità strutturale

Non mi aspetto che questa sezione sia compresa da chi non ha familiarità con il settore della tecnologia, così come mi aspetto che chi come me ha a che fare ogni giorno con questi argomenti percepisca già quanto può essere pericoloso, inutile e controproducente.

I criteri di applicabilità ( casi d’uso )

Esattamente quali sono i criteri secondo il quale un contenuto è considerato inappropriato? Questo è forse una delle problematiche più frequenti in tutti i campi dell’informatica e specialmente nel campo delle decisioni prese dalle I.A.

Sono due i concetti che rendono concreto questo dubbio.

Apprendimento supervisionato

Nel riconoscere e catalogare immagini, video e contenuti multimediali di vario genere, è importantissimo il tipo di algoritmo usato nonché quella che in gergo è la fase di addestramento di tale software. Semplificando, una gran parte di algoritmi sono configurati dando una serie di “campioni” di prova del quale si conosce il risultato, un po’ come fareste con dei bambini, dicendogli cosa è giusto e cosa è sbagliato fino a che si nota che questi hanno imparato il concetto.

Sottolineiamo ora un concetto chiave: esattamente come quando spieghi le cose ad un bambino, non sai esattamente quali saranno i criteri che lo porteranno ad una scelta, supponiamo di insegnargli a giudicare con 1000 immagini cosa sia un contenuto inappropriato ai minori e quindi notare in seguito che altri 1000 campioni li classifichi bene da solo, saremo mai sicuri che quell’algoritmo classificherà per sempre contenuti correttamente? La risposta è no, infatti essendo i criteri di giudizio a noi sconosciuti, non potremmo sapere se esistono contenuti che per un motivo o per un altro non saranno considerati inappropriati pur se lo sono (questi contenuti vengono detti anche falsi negativi) e, ancora più grave, non sapremmo mai quanti e quali contenuti vengono censurati a priori pur non avendo niente di inappropriato (contenuti che in gergo vengono chiamati falsi positivi). Questo è un enorme limite tecnico che potrebbe portare ad una profonda mutazione del modo con il quale ci approcciamo al web.

L’etica di chi sceglie cosa approvare e cosa no

Anche ammesso che esista un algoritmo perfetto, chi decide cosa è appropriato che un filtro faccia passare o no? Supponiamo che alla scelta di cosa sia giusto filtrare e cosa no (e quindi chi addestra l’algoritmo) ci sia un soggetto con una mentalità completamente diversa da voi, potreste essere ancora in grado di dire che questa persona sta facendo anche i vostri interessi? Sottolineiamo che la legge parla di contenuti inappropriati e non di contenuti pornografici, sotto intendendo anche cose come la violenza, la religione o le ideologie.

Cosa è violenza per voi? io ad esempio fossi genitore, non farei mai vedere una partita di calcio allo stadio a mio figlio, poiché un ambiente violento. Ma questo ragionamento si applica a qualunque dei concetti sopra elencati. Un profilo di Instagram di una modella è un contenuto inadatto e inappropriato? Una pagina che spiega cos’è il corano? Un video dell’istituto Luce che parla di fascismo? Questi e altri esempi sono sicuramente incognite per noi che ci stiamo ragionando su, ma chi dovrà selezionare i contenuti che l’algoritmo dovrà filtrare avrà una sua opinione su cui noi non solo non potremmo averne il controllo, ma non ne avremo neanche potere decisionale.

Un sistema pensato già pieno di falle

Questa sezione è sia la più tecnica ma anche quella che più banalmente spiega quanto inefficace e impotente sia qualsiasi precauzione presa da politici o provider che vogliono controllare il meccanismo intrinseco dello scambio di dati della rete.

Attualmente si parla dell’oscurazione di specifici siti più che di un filtro di singoli file, ma nell’articolo vogliamo vagliare tutte le opzioni probabili.

Quale tipo di dati?

Oggi giorno lo scambio di dati multimediali è totalmente imprevedibile nonché vario e complesso. Partiamo dalla tipologia di dati scambiati e supponiamo di voler quindi bloccare il traffico dati di Immagini.

In quale formato di immagini vogliamo gestire questo traffico? Eh sì, perché purtroppo non esiste un solo formato di alcun tipo di dato, e non è escluso che possano nascere anche altri formati di immagini in futuro, questo implicherebbe che il filtro dovrebbe prevedere la nascita di nuovi formati o aggiornarsi continuamente con ogni nuova tecnologia, ciò non è scontato né semplice. Ma non è neanche tutto: le immagini possono essere inglobate in archivi, crittografate (sulla crittografia ci torneremo anche dopo) e condivisa la password o ancora si possono nascondere immagini in altre immagini apparentemente pulite grazie a tecniche di steganografia. Questo ragionamento valido per un formato di dati così semplice come le immagini diventa ancora più complesso con formati sensibilmente più sofisticati come i Video.

Quale sito?

Nella supposizione di voler oscurare interi siti web, le soluzioni atte ad ingannare un filtro sono ancora più numerose.

Il problema dell’aggiornamento ad esempio rimane, si fa fatica anche ad aggiornare i filtri su siti di presunta pedopornografia in quanto non è semplice stare dietro alla creazione di nuovi siti che possono nascere da un giorno all’altro e poi diffusi tramite gruppi di altre piattaforme.

Ma il problema profondo è che l’oscuramento del sito “nasconde” solo l’indirizzo mnemonico e non l’indirizzo IP, il che rende totalmente inutile qualsiasi provvedimento di questo genere.

Banalmente un qualunque ragazzino (che ricordo essere molto più preparato tecnologicamente di questi nonnetti che prendono decisioni al governo) potrebbe decidere di usare una VPN per aggirare i sistemi, un browser web come TOR che sfrutta un proprio sistema di VPN o ancora più semplicemente cambiando l’indirizzo di risoluzione dei DNS usando quelli di Google.

HTTPS, P2P e altre forme di scambio

Anche la forma di scambio è un problema per questo approccio. Partiamo dal presupposto che ormai la maggioranza dei siti web comunica tramite connessioni certificate e protette da protocolli di sicurezza che cifrano lo scambio diretto dei contenuti, questo rende già dal principio impossibile per qualunque provider leggere i contenuti che si inviano da un sito o si scaricano da esso (oltre alla grave problematica di privacy che si andrebbe a creare se ci fosse qualcuno o qualcosa che decide cosa possiamo inviare e a chi)

Ma non è tutto, infatti i contenuti problematici sono diffusi in minima parte tramite siti web e questo è stato largamente dimostrato da Instant Messenger (Whatsapp, Telegram, Skype ecc..), Torrent e reti peer 2 peer (ricordate il buon vecchio eMule? Esiste ancora ).

Un provvedimento fuorviante: resposabilità?

Sicuramente la sezione più importante e controversa di questo articolo. Che toccherà da vicino quello che è il rapporto stato-progresso-famiglia.

La prima domanda che viene in mente in questo momento è perché ora? Nell’intervista di cui sopra, sembrerebbe che sia un rapporto di causa-effetto in relazione alle richieste di famiglie che stanno reagendo a questo periodo di didattica a distanza dei propri figli. Tali soggetti, sarebbero preoccupati del maggior tempo che i figli occupano davanti lo schermo, esposti maggiormente a quelli che sono i pericoli del web. Questo mi ha posto davanti a due grosse riflessioni sull’ipocrisia di questa gente.

La prima sta nel modo in cui le famiglie affrontano la rivoluzione digitale e come questa abbia influenzato il modo di interfacciarsi tra genitori e figli. Ho lavorato per un po’ di tempo al ristorante di famiglia, ciò che notavo è quanto i genitori pur di mangiare in tranquillità e non avere preoccupazioni lasciassero i loro dispositivi in mano a pargoli (anche nella culla) senza minimamente preoccuparsi di quali contenuti passassero sullo schermo. Mi viene in mente il brano di Rancore e Silvestri (Argento vivo) che tra le tante denuncia una situazione odierna in cui un bambino viene cresciuto davanti uno schermo.

I genitori di oggi (che non si capisce perché vogliano diventare tali se non vogliono neanche crescere i propri figli) pretendono che sia la tecnologia a prendersi cura della crescita dei propri figli per poi lamentarsi di come questi siano cresciuti male e diversi da loro chiedendosi come ciò sia potuto accadere

E questo porta alla mia seconda perplessità, perché quando giunge il tempo di prendersi le responsabilità di eventuali comportamenti errati, giunge il tempo del vecchio metodo dello “scarica barile”: quello che si sta chiedendo con questa legge è che siano i provider e lo stato a prendersi le responsabilità di quello che i figli guardano sui dispositivi e non dei genitori che avranno un ulteriore motivazione per deresponsabilizzarsi e voltare lo sguardo verso altri interessi.

Il problema da risolvere è: siamo dunque sicuri che sappiamo cosa si può trovare in internet? O più probabilmente è comprendere che non tutti oggi dovrebbero far figli se non sanno poi come crescerli?

history_edu Revisioni