Se correte spesso e avete bisogno di ascoltare qualcosa di intelligente per non annoiarvi su percorsi stranoti, probabilmente scaricate qualche podcast. Io sono abbonato a La versione di Oscar (Giannino). Quindi ascolto la trasmissione quasi sempre in differita. Oggi ho sentito (con colpevole ritardo) la puntata del 25 aprile dedicata alla questione dei dati personali, della privacy, del ruolo di Facebook e Google (principalmente) nel condizionare l’opinione pubblica. Ospiti della trasmissione Alfonso Fuggetta e Christian Rocca. Due temi mi hanno sollecitato una riflessione.

Il primo riguarda i famigerati algoritmi: per garantire che violazioni del diritto d’autore vengano tempestivamente cancellate, come prevede il nuovo diritto europeo in merito, Facebook ha introdotto degli algoritmi che – scansionando tutto quanto viene pubblicato e confrontandolo con tutto ciò che è coperto da diritto d’autore (vengono le vertigini a pensare alla gravosità enorme del compito) – individuano l’abuso e lo oscurano automaticamente. Analogamente, Facebook ricerca informazioni che reputa passibili di violazione di regole e le oscura (Alessandra Mussolini si è lamentata perché Instagram ha bloccato il suo profilo a causa della pubblicazione di foto del celebre nonno scattate sulla sua tomba, probabilmente identificate dall’algoritmo come una possibile apologia di fascismo, che nel nostro paese costituisce violazione del codice penale). Può un intervento di questo tipo essere assimilato alla censura? Questa domanda (non questo caso specifico) ha motivato il voto contrario del Governo italiano alla direttiva sul copyright ed è la stessa domanda che si sono posti gli ospiti di Giannino. Se la selezione la fa l’algoritmo, è evidente che chi scrive l’algoritmo assume un potere di selezione dell’informazione, pertanto chi più opportunamente dovrebbe scriverlo questo algoritmo? Un’impresa privata come Facebook o Google? O uno Stato? Esclusa la seconda opzione – si intuiscono facilmente le controindicazioni a questa soluzione – dobbiamo necessariamente accontentarci della prima? La mia modesta proposta è che alcuni algoritmi, quelli che presiedono alla pubblicazione di informazioni sensibili o solo potenzialmente capaci di violare le norme e pertanto da considerare come “bene comune” o di interesse generale, debbano essere scritti dalle imprese che gestiscono le piattaforme digitali ma poi sottoposte a dibattito pubblico, emendate e alla fine approvate, secondo criteri definiti dall’ordinamento europeo. In questo caso l’istituzione sovranazionale si limita a stabilire le regole cui deve attenersi il dibattito pubblico, i temi di sua pertinenza e le condizioni alle quali l’impresa è tenuta ad adeguarsi alle conclusioni. A scanso di equivoco, per dibattito pubblico intendo un processo di democrazia deliberativa codificato, dal quale si asterranno coloro che sono abituati al chiacchiericcio digitale ma non sono disponibili alla fatica del confronto ordinato che richiede ascolto e rispetto degli altri, fino alla capacità di accettare compromessi.

Il secondo tema è la proposta di Christian Rocca – provocatoria come il titolo del suo ultimo libro “Chiudete Internet” – di modificare il paradigma della gratuità e quindi far pagare l’uso dei social network, che a quel punto potrebbero rinunciare a monetizzare i dati degli utenti, perché avrebbero un flusso di ricavi sostitutivo. Il rischio in questo caso è che una parte significativa degli utenti attuali rinunci all’uso di queste piattaforme. Un male? Un bene? Non saprei, ma a fronte di questo scenario probabilmente si raggiungerebbe un compromesso: lasciare la libertà agli utenti di decidere se pagare per tutelare i propri dati o accettare lo scambio tra accesso gratuito e autorizzazione al commercio dei dati personali. Un compromesso molto “liberale”, all’apparenza capace di conciliare gli interessi di tutte le parti. Peccato che si configuri come una delle tipiche trappole che il mercato riserva agli attori deboli: sbagliamo ad immaginare che in questo caso ad accettare lo scambio per avere l’accesso gratuito sarebbero gli utenti meno abbienti (condizione economica associata ad altre dimensioni sociali come il basso grado di istruzione, al quale conseguono minori capacità di accesso al sapere astratto, alla disponibilità degli strumenti cognitivi necessari a un adattamento rapido alle condizioni in mutamento del mercato del lavoro…)? Ad accettare di pagare un prezzo sarebbero gli altri, quelli che con maggiore probabilità sono già attrezzati per difendersi dalla manipolazione. Se l’ipotesi è corretta, con quella soluzione ci troveremmo due segmenti di utenti ben polarizzati: da una parte il popolo, esposto a tentativi di condizionamento dell’opinione che il controllo dei dati rende possibili; dall’altra le élite, in grado di pagare per porre una barriera tra sé e le possibilità di manipolazione. Vi ricorda qualcosa?

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...