Asimov, algoritmi e bufale

Prima Legge: Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno.
Seconda legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge.
Terza legge: Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge.

(Manuale di Robotica, 56ª Edizione – 2058 d.C.)

Fantascienza pura, almeno dal momento in cui Asimov le scrisse, nella prima metà del secolo scorso, fino a non molto tempo fa. Ma questa visione fantastica, oggi, non pare più solo fantasia. Certo, robot fisici come quelli immaginati da Asimov sono ancora abbastanza rari e più prototipi che oggetti pienamente operativi, ma robot virtuali sono sempre più presenti. Vivono e prosperano in mezzo a noi. Anzi, sono diventati un elemento essenziale della nostra vita quotidiana.
Sono quei famosi algoritmi (usatissimi da Google, Facebook, Booking.com e tanti altri big della rete) che aiutano l’utente, che gli creano intorno un ambiente confortevole, rispondente il più possibile alle sue preferenze, esigenze, necessità e gli consigliano materiali, prodotti, servizi. E questi algoritmi si nutrono di parole, di quelle parole che usiamo per cercare informazioni online, per discutere, commentare, indignarci, offendere, reagire.

Ora, come ben afferma Eli Pariser nel suo The Filter Bubble questi algoritmi creano un ecosistema personale di informazioni che in qualche modo separa l’individuo dal resto del mondo (reale o virtuale che sia ormai fa poca differenza). In questi ecosistemi personali le opinioni, le teorie e le interpretazioni si polarizzano, e lo fanno in maniera forte.
Lo sapevamo già da tempo, in maniera più o meno intuitiva, ma ora ne abbiamo prove sostanziali. Il lavoro di Walter Quattrociocchi e di altri ricercatori (qui e nel suo recente e piacevole libro Misinformation: Guida alla società dell’informazione e della credulità) ha messo ben in luce che queste bolle, o camere di risonanza (echo chambers vengono chiamate di solito), sono ben definite e separate, e che chi le frequenta è poco influenzabile da quel che succede in altre “stanze”. Così bufale, notizie false, complotti, troll e simili vengono trasmessi e amplificati. Il tutto a velocità incredibili, date le caratteristiche del mezzo e una strana incredibile rapidità di riflessi dei partecipanti che rilanciano e commentano al volo, spesso senza neanche legger bene di cosa si tratti.
Pare sconfortante, e qualcuno ha reagito male come Caitlin Dewey, che, scoraggiata, ha chiuso la sua colonna What was fake on the Internet this week dedicata a sfatare bufale e notizie false ritenendola ormai inutile.
Ma disinformazione, bolle, echo chambers ecc. sono poi così ineluttabili? Forse sì, o forse invece qualcosa si può fare.
Discorsi sul comportamento etico degli algoritmi cominciano a farsi sempre più frequenti (come questi del Centre for the Internet and Human Rights). In fondo dietro ogni programma che influenza e guida le nostre decisioni c’è un umano che esprime giudizi su cosa conta e cosa no, e sempre più questi giudizi non sono neutrali.
E almeno gli aspetti più antipatici di quanto circola in rete possono essere condizionati da come ci comportiamo, dalle parole che usiamo e da come le usiamo.
Ci vorrà forse del tempo, ma siamo ottimisti e convinti che si debba cominciare ad agire in maniera efficace.
E Parole O_Stili mi pare importante per questo scopo.

Archives

ASSOCIAZIONE PAROLE OSTILI, Via Milano 4/1, 34132, Trieste, C.F. 90153460325 @2016 - 2024
A cura di spaziouau | Privacy Policy | Trasparenza