domenica 17 settembre 2017

Toc Toc, sono il futuro. E faccio cagare

L'idea che il mondo sia un posto migliore grazie alla tecnologia è un'idea che si è diffusa parecchio negli ultimi tempi. Se solo ci fosse un giudice elettronico, super partes, sarebbe meraviglioso, no? E vostro onore, sono colpevole di aver mantenuto io stesso questa linea di pensiero, almeno in parte.

La linea dominante di questa corrente di pensiero parte dal presupposto che un "giudice elettronico"  evitando i tipici errori che commettiamo noi, esseri umani. I nostri Bias, le convinzioni ataviche, non avrà avuto la diarrea il giorno prima. La moglie non gli avrà messo le corna.
Ma la verità è che uno strumento del genere avrà incistate dentro di se, sotto forma di codice, o se volete, sarà stato "allenato" su dei dati che sono corrotti da principio.

Per farla semplice, come funziona un'intelligenza artificiale? Si utilizza una struttura conosciuta come "rete neurale" che simula il funzionamento del nostro cervello e le si da da mangiare una caterva di dati, nel caso del nostro giudice, gli facciamo leggere tutte le sentenze dal 1800 ad oggi, così capisce come funziona il nostro sistema giudiziario. Non gli diamo le leggi per capirle e applicarle, gli facciamo vedere come abbiamo applicato noi quelle leggi. Così la nostra intelligenza artificiale si può fare un'idea di come comportarsi di fronte ad un nuovo caso.

In questo procedimento ci scontriamo immediatamente contro due limiti colossali. 

1) Il concetto di giustizia è un costrutto sociale che si modifica con il passare del tempo, quello che oggi è accettabile è stato inaccettabile una volta, quello che oggi è inaccettabile, lo è stato una volta. Spesso determinati comportamenti sono considerati inaccettabili/accettabili in paesi diversi nello stesso momento. Un AI non si ricalibra automaticamente con il mutare della legge, perché non capisce cosa significa una legge.

2) Un'AI viene caricata di tutti i Bias degli esseri umani. Immaginatevi un'intelligenza artificiale educata sulla legislazione Americana degli anni 60' o su quella italiana dello stesso periodo. I neri se la sarebbero vista male. E il matrimonio riparatore, beh, dopotutto non era così male.


3) Gli errori giudiziari si sono sempre commessi e sono conseguenza del nostro desiderio di trovare un colpevole "adatto" alla situazione. Se seguite un minimo di cronaca giudiziaria sapete cosa intendo. Spesso non importa che le prove siano tutte a favore dell'accusato, quando l'accusato è l'unico indiziato, beh, sono cazzi suoi.
Pensate solo alla vicenda "Marta Russo". Un omicidio senza un movente, senza arma del delitto, con testimoni costretti a modificare la propria testimonianza perché si adattasse all'accusa (sotto minaccia di diventare loro, gli accusati). E di casi simili ce ne sono a decine, credete forse che i processi siano eventi che si svolgono nell'iperuranio? Si svolgono qui, sulla terra e non sono certo perfetti né rendono onore a quella "certezza del diritto" di cui ci si riempie sempre la bocca. E se non ci credete, guardate come reagisce la gente appena qualcuno viene accusato di un omicidio/stupro/rapina. Ci vorranno un paio d'ore solo per ripulire la bava rabbiosa che cola giù dai social. E se l'accusato risulta poi innocente? Chissenefrega, nessuna scusa, non vedo post con migliaia di scuse in giro per  Daniele Barillà anzi, scommetto che in pochi si ricordano di chi fosse.
Nemmeno cito il sistema giudiziario americano, dove Dio solo sa quanti poveri cristi, di solito negri, sono stati condannati alla pena capitale per errore. Una mostruosità orribile. Non so voi, ma io non riesco ad immaginare niente di più disgustoso di una persona innocente che cammina verso la sedia elettrica, si siede, cosciente di essere innocente, saluta i suoi cari, che saranno magari stati convinti dalla stampa che il loro caro è un mostro che deve venire abbattuto. Se anche quella persona, per miracolo, venisse graziata (ma questo comporterebbe costi colossali per il sistema, dovresti risarcirlo per quanto possibile, chiedere scusa, prostarti a terra dopo un ingiustizia simile! Quindi no, meglio eliminare l'errore, friggendolo).

E un AI imparerebbe anche questo. Perché l'intelligenza artificiale non arriva da Vega, l'abbiamo creata noi, con dietro le nostre motivazioni e i nostri preconcetti. Siete persone intelligenti, capite cosa intendo.

Ma andiamo avanti. Non c'è solo questo a preoccuparmi tra le evoluzioni a cui stiamo assistendo. Avrete sentito anche voi sta storia delle fake news, scommetto. Una volta le chiamavamo, semplicemente, minchiate, ma come diceva un tizio che una volta aveva spaccato l'internet, l'inglese rende tutto più figo. Se vi dicono che vostra madre è una mignotta, vi offendete, ma figlio di escort suona fine. Comunque, la maggior parte delle minchiate si diffondono alla velocità della luce su Facebook, voi non fate in tempo a scrivere qualcosa di attentamente ragionato, controllato, riveduto, che vi spunta una roba così in prima pagina:

I NEGRI GAY VOLANTI STANNO INVADENDO L'ITALIA PASSANDO DAL BRENNERO!!!


 E quando controlli scopri che la notizia è stata condivisa un trilione di volte in dieci secondi. Ci puoi fare qualcosa? No, tu sicuramente no, ma forse la piattaforma che condivide questa roba potrebbe farlo, facebook dico, o come la chiamano quelli che la conoscono bene torrentedimerdaesondato.

Così parte la lotta alle fakenews. Sapete chi è stato bannato in quanto distributore di bufale? Lercio. Per chi non lo sapesse, lercio.it è un giornale satirico accomunabile al caro vecchio Vernacoliere. Non sono bufale, sono notizie appositamente inventate per far riflettere, far riflettere sulle cazzate, quelle vere. Sono metabufale. Assieme a Lercio (poi riaperto a furor di popolo) sono stati chiusi i profili di Ermes Maiolica (un altro genio poco compreso) e  chissà quanti altri. Cosa è successo? Facile, facebook non ha assunto un orda di redattori per scandagliare il social e decidere cosa era/non era falso e pericoloso ha semplicemente utilizzato il meccanismo di feedback del sistema (segnala!!) per togliere tutta la roba che secondo una parte della popolazione era "finta" non so voi, ma questa cosa puzza, vagamente, di fascismo. Nel frattempo sono rimaste intoccate pagine essenziali "la terra è piatta eppure non le interessa una masteoctomia" o "i vaccini causano l'halzheimer". Okay, le ultime due me le sono inventate, scommetto non ve n'eravate accorti.
E in pratica siamo in mano ad un algoritmo che decide, sulla base di chissà quale stronzata, cosa è accettabile e cosa no. Decide che un capezzolo (femminile ovviamente) è inaccettabile mentre uno che inneggia ai pogrom/lager nazisti/eliminazione degli ebrei-negri-svizzeri-polacchi va benone. Cancellarono una foto storica, questa:


 Un algoritmo di riconoscimento immagini ha "capito" che l'immagine rappresentava una bambina nuda, cosa che normalmente abbiniamo ad una cosa terribile, la pornografia infantile. Peccato che non potesse capire tutto il background storico e culturale che sta dietro a questa foto, non ha niente di pornografico questa foto, a qualcosa di osceno, ma per motivi che un algoritmo non può capire. Vogliamo veramente che scelte fondamentali come cosa censurare passino per un sistema così ridicolmente disfunzionale?

Io non so voi, però ho l'impressione che tutta questa faccenda ci stia sfuggendo di mano. La cosa che mi preoccupa ancora di più è che, quando finalmente ci renderemo conto che bisognerebbe dare un'aggiustata al sistema, non potremo farlo, perché non sapremo neppure dove cominciare.

Ah, vi ricordate quando in 1984 Orwell descriveva un sistema che permetteva al grande fratello di controllarti e vedere quello che facevi/dicevi in casa tua? Una roba spaventosa, meno male che una mostruosità simile non esiste. O no?


 
Vi presento Echo Look, il nuovo sistema di Amazon per farsi i cazzi tuoi, facendoti pure pagare per farlo.








Ma anche la competizione si è attrezzata bene. Questo è Google home, un simpatico attrezzo che si fa i cazzi tuoi costantemente, ascoltando tutto quello che dite a casa vostra.


Google Home, I cazzi tuoi li veniamo a ritirare direttamente a domicilio.
E se pensate che i dati che passano per questi oggetti verranno trattati nel rispetto delle "normative sulla privacy"(!!!) e soprattutto, pensate che "io non faccio niente di male, quindi non mi preoccupo" vi dico solo che siete scemi. Non riesco a vedere nessun'altra ragione per infilarsi in casa un attrezzo che ascolta quello che dite perché non avete voglia di digitare due parole sulla tastiera.

P.s. Se siete curiosi e volete sapere cosa google sa di voi e può condividere a richiesta, andate qui e scaricatevi il vostro archivio.E già che ci siete, immaginatevi cosa potrebbe succedere se quei dati finissero nelle mani sbagliate.

Kurdt

Nessun commento: