La salute dei nostri figli va tutelata dai rischi dei social

Notizie
16/06/2023

L'intervista di Carlo Calenda a Huffington Post

Carlo Calenda, dopo l’incidente di Casal Palocco, lei ha rilanciato la proposta di Azione sul divieto ai minori di 13 anni di accedere ai social. In cosa consiste?


“La nostra proposta è mutuata dalla legge francese che vieta l’utilizzo dei social network ai minori di 15 anni. Noi diciamo che bisogna avere almeno 13 anni per poter essere presenti sulle piattaforme, e permettere l’utilizzo tra 13 e 15 anni solo con autorizzazione dei genitori. Del resto i 13 anni sono già previsti dal codice di autoregolamentazione delle piattaforme.”.

E come pensa di limitare l’accesso ai minori?

“Attraverso l’utilizzo di un identity provider. In altre parole c’è un ente terzo, non il social network, che certifica l’età di chi si iscrive, senza alcuna violazione della privacy. Questo diventa custode dei dati del minore”.

Come potrebbe funzionare?

“Chi vuole aprire un profilo Twitter, Facebook, TikTok o altro, al momento dell’iscrizione, deve obbligatoriamente inserire un codice generato dall’identity provider accreditato, che può essere lo Spid o la carta di identità elettronica, che certifica che si è in possesso dei requisiti anagrafici”.

Quindi sarebbe completamente diverso dal sistema di autocertificazione attualmente in uso. Non crede che possa esserci una resistenza da parte delle Big Tech?

“Si lo penso. Ma visto che anche nel loro codice di autoregolamentazione ci sono i 13 anni non comprendo a cosa si potrebbero appellare. Aggiungo che in caso di mancato rispetto della normativa scatterebbero le multe previste che non sono affatto trascurabili. Prevediamo comunque un periodo di consultazioni. Se ci sono soluzioni tecniche migliori della certificazione dell’età anagrafica ben vengano. E badi bene abbiamo evitato di ribaltare la responsabilità sui social senza indicare una strada possibile di verifica come invece fa la legge francese dove scatta una multa che può arrivare fino al 1% del fatturato globale”.

E chi verifica?

“Nel caso della legge francese chiunque. Può farlo un genitore e dire: mio figlio ha 12 anni, sta su Twitter, non ci può stare e voi non avete verificato. A quel punto si interviene. Ma questo approccio alla francese, a mio parere, non può funzionare, perché effettivamente il controllo è molto difficile”.

E allora?

“Per questo abbiamo pensato alla certificazione attraverso l’identity provider. Diamo la delega per legge a Palazzo Chigi a fare i decreti attuativi solo dopo un periodo di consultazione con le piattaforme. Se poi le piattaforme si opporranno a qualsiasi tipo di controllo la legge scatterà così com’è”.

Questa legge però non avrebbe evitato l’incidente di Casal Palocco.

“No certo. Né l’ho mai sostenuto. Per questo caso ci vuole la responsabilità sui contenuti pubblicati. Quello che però la nostra norma avrebbe evitato è che quegli influencer fossero visti da centinaia di migliaia di preadolescenti. Ma, ripeto, nel caso di specie, le piattaforme avrebbero dovuto identificare quei contenuti pericolosi ed eliminarli”.

A proposito, lei ha anche detto che i social network dovrebbero essere responsabili di ciò che pubblicano.

“Io dico che gli algoritmi dovrebbero oscurare le challenge come fanno come il nudo. O YouTube trova l’algoritmo esattamente come lo implementa per farti vedere quello che vuoi, o prima o poi accadrà che alla prima causa verranno considerati responsabili, e quel punto verrà giù tutto. Ma la nostra proposta non incide su questo. Noi vogliamo vietare i social ai minori di 13 anni in un modo che sia implementabile”

Però l’unico tentativo in questo senso è il Digital Service Act. L’Unione europea si è dovuta limitare a riconoscere la responsabilità per i contenuti illegali o pericolosi non rimossi nonostante l’amministratore del social sapesse della loro esistenza. Mattia Feltri, nel Buongiorno, fa notare che si tratta di una resa. Lei come pensa di dare la responsabilità di ciò che viene pubblicato sulla piattaforma a YouTube?

“Ma non penso di farlo io. Credo però che ci debba essere una applicazione estensiva di quel principio: e cioè siccome tu la conoscenza di quei contenuti ce l’hai perché li proponi per categoria attraverso gli algoritmi e riesci a vietare già determinate categorie, allora puoi farlo pure con le challenge. Il punto che dobbiamo sfatare è che non ci siano cose non regolabili. Non ci possiamo permettere di lasciare che Musk, Zuckerberg &co si arricchiscano a discapito della salute mentale dei nostri figli”.

Musk per esempio ha detto che lui il Digital Service Act non lo applicherĂ  a Twitter.

Certo lui vuole l’anarchia digitale.

Più che anarchia alle Big tech è sempre stata concessa la possibilità di autoregolamentarsi. Ma l’autoregolamentazione, come strategia principale per risolvere i problemi posti dal digitale, si è conclusa. Tanto che l’Europa ha avvertito l’esigenza di intervenire dal punto di vista legislativo.

Ma quella è la lobby più potente del mondo. Musk viene in italia, intrattiene relazioni, per i propri interessi. Di certo non è qui in vacanza. Il punto è: quanto forte è la politica? Quanto è sottomessa a questo tipo di potere? Basta vedere un incontro tra un presidente del consiglio e un imprenditore di successo per capirlo. Io non voglio distruggere una generazione di adolescenti. E per questo mi batterò perché tutto questo sia regolato”.

Il problema è che parliamo di uno spazio nuovo: l’infosfera. Quei ragazzi di Casal Palocco erano off-line o on-line? Erano Onlife, per citare Luciano Floridi. Crede che le leggi di cui parliamo possano essere utili in questo nuovo spazio?

“Ma proprio perché il confine tra on Line e off Line è labile che vanno regolati entrambi gli spazi. Altrimenti i comportamenti illeciti ma non punibili si trasferiscono nella vita reale. Abbiamo postulato che il mondo digitale sia un mondo separato dalla realtà materiale, ma non è un mondo separato dalla realtà materiale. I fatti di Casal Palocco dimostrano che gli effetti di quello che succede nel digitale si toccano con mano nella vita di tutti i giorni. Per questo la legge per vietare i social ai minori di 13 anni è importante”.

Ma un conto è una legge per limitare l’età anagrafica per accedere alle piattaforme, un conto dire che YouTube deve avere la responsabilità.

“Loro hanno tutti gli algoritmi per definire cosa può starci o no su Youtube. E quindi ci deve essere una categorizzazione dei contenuti a rischio ed eliminarli. E aggiungo che la responsabilità non è: se ne era a conoscenza. Perché loro hanno tutti gli strumenti per saperlo”.

E quindi farĂ  una nuova proposta di legge?

“No perché c’è una discussione in Europa. Dico che in linea teorica dovrebbe funzionare così, in linea pratica aspetto che vada avanti il Digital Service Act. E vediamo come verrà interpretato dai tribunali quando entrerà in vigore. Mi auguro che gli algoritmi che vietano determinati contenuti vengano implementati in questo senso”

(Intervista a cura di A. Sarno disponibile qui)