Durante le vacanze estive (ahimè terminate) ho deciso di approfondire la conoscenza di algoritmi ed intelligenza artificiale (AI). Non che fossi partito proprio con questa idea ma, vuoi l’età che avanza (è passato il momento delle nottate in discoteca), il tempo a disposizione, il piacere di leggere con il sottofondo del mare e, soprattutto, la curiosità nella scelta del primo libro acquistato in libreria (L’algoritmo e l’oracolo di A. Vespignani), hanno determinato il tutto.
Ecco, da qui vorrei partire: la curiosità.
La curiosità ci salverà dall’algoritmo
La mia curiosità ha apportato nell’algoritmo (processo di acquisto) una variabile non determinata, casuale potremmo dire, finendo per scombinare tutto, arrivando ad un’azione non prevista. Mi spiego meglio.
Professionalmente mi occupo di comunicazione e marketing (indegnamente di editoria e giornalismo, ma questo è un altro discorso…). I libri che acquisto solitamente online sono tutti incentrati su questi argomenti, così come i video che guardo su YouTube, il mio feed di LinkedIn, i podcast di Spotify, persino Netflix inizia a propormi serie e film centrati su questi miei interessi professionali. Ed io ne sono anche contento, mi semplificano la vita, suggerendomi cose per me utili.
Gli algoritmi mi conoscono, imparano e migliorano ogni giorno.
Ma…
Ma…
Ma…
E sì, c’è un “Ma”, grosso come una casa.
Perchè gli algoritmi mi “incasellano” in un modello ideale, sono io, ma un IO “perfetto”. Ed io invece sono pieno di difetti. Ad esempio non credo se non vedo, non parlo se non conosco, ma soprattutto mi annoia la routine, per cui sono infinitamente curioso. E’ questo il motivo per cui volevo capire come, partendo dai dati, si arriva alle informazioni e, attraverso algoritmi sempre più complessi, alle predizioni.
Così, dopo aver letto il libro di Vespignani, mi sono incuriosito ancor di più, sono tornato in libreria ed ho acquistato “Le macchine di Dio” (di Helga Nowotny).
Ho capito che gli algoritmi “sono verbi” che “fanno cose: archivia quello, recupera questo, confronta quest’altro…”. Il problema è che nel fargli fare cose sempre più complesse abbiamo perso la capacità di comprendere del tutto cosa fanno. In sostanza non sempre siamo in grado di “forzare la scatola nera (black box) del machine learning, che spesso impedisce persino a chi l’ha progettata di capire come un algoritmo è arrivato a prendere la sua decisione” (Nowotny).
Allora, mi sono detto, qui entra in gioco l’etica e la morale, per far si che, nel costruire un mondo digitale regolato sempre più da algoritmi, si vada nella direzione voluta e non in quella “imposta” e “richiesta” dalle macchine per migliorare l’efficienza del sistema. Sono corso di nuovo in libreria ed ho acquistato “Etica dell’intelligenza artificiale” di Luciano Floridi ed ho scoperto che:
- l’intelligenza artificiale non è intelligente. Come? E cosa è allora? Un surplus di capacità di azione di cui disponiamo (e disporremo sempre più in futuro) per portare a termine compiti, eseguendo degli algoritmi. Non c’è alcun legame con l’intelligenza umana (cognitiva), al massimo possiamo parlare di intelligenza riproduttiva (di un’azione). Ma, secondo Floridi, se togliamo proprio di mezzo il termine “intelligenza” non sarebbe male;
- l’intelligenza artificiale non è intelligente, ma svolge meglio di noi alcuni compiti, soprattutto se gli si costruisce intorno un mondo ad hoc (digitale ed infosfera). Possiamo stare certi che questo avverrà sempre più rapidamente;
- il passaggio dalla biosfera alla infosfera non avviene per caso, siamo noi che lo determiniamo (Floridi parla di design di questo nuovo mondo). In questa fase di progettazione e costruzione è fondamentale avere le idee chiare perchè poi difficilmente si potrà tornare indietro e correggere… la filosofia e l’etica dovrebbero essere le stelle polari cui affidarsi.
Bene, ora ne so decisamente qualcosa in più! So, ad esempio, che se fossi rimasto a casa probabilmente avrei letto (su suggerimento di un algoritmo) un libro di marketing o di comunicazione, ed invece… benedetta curiosità!
Suggerimento, siate curiosi, non lasciatevi “incasellare” da un algoritmo, confondetegli le idee. “Il mondo è bello perchè è vario” mi diceva sempre mia nonna, cliccate su cose che non conoscete, interagite anche con post che non vi piacciono, tenete la mente aperta e vigile, vedrete che nessun algoritmo riuscirà a catalogarvi.
Proxima Centauri o Proxima Chorizo? La “stupidità” dell’Intelligenza Artificiale
E’ il 31 luglio, le ferie stanno per terminare, quando il fisico francese Étienne Klein twitta sul suo profilo una “Foto di Proxima Centauri, la stella più vicina al Sole, situata a 4,2 anni luce da noi. È stata presa dal JWST (telescopio spaziale James Webb). Questo livello di dettaglio… Un nuovo mondo si svela giorno dopo giorno”.
Niente da dire, la foto è affascinante, così come la fonte autorevole (Étienne Klein fisico e filoso della scienza è anche direttore del Cea – Commissariat à l’énergie atomique et aux énergies alternatives).
In molti, studiosi e gente comune iniziano a diffondere la foto. A questo punto se ne accorge anche l’algoritmo di Google (che fa sempre più uso di intelligenza artificiale). Un algoritmo che stando a quanto riferisce chi lo ha pensato, si basa sul famoso acronimo “EAT” (Esperienza, Autorevolezza ed Affidabilità) per indicizzare e posizionare i contenuti. Il post (ed il buzz che ha iniziato a produrre) soddisfa tutti i requisiti: esperienza, autorevolezza, affidabilità. Ci siamo, quella è la foto di Proxima Centauri! Fotografata dal telescopio spaziale James Webb ed ormai “primo risultato di Google usando come chiave di ricerca Proxima Centauri (fonte “L’esperimento sociale dello scienziato che ha spacciato una fetta di salame per la stella Proxima Centauri“, di Gianluca Dotti, Wired).
E invece no.
In realtà si tratta di una molto più comune, terrestre e banale fettina di “Chorizo”, un salame piccante iberico.
E’ uno scherzo: “Vengo a presentare le mie scuse a coloro che la mia bufala, che non aveva nulla di originale al riguardo, potrebbe aver scioccato. Voleva semplicemente esortare alla cautela con immagini che sembrano eloquenti di per sé. Scherzo di uno scienziato”, così twittava il 3 agosto il nostro Étienne.
Saremmo capaci di trarre un insegnamento da quanto accaduto, per evitare pericoli ben più gravi?
Ragioniamo per assurdo e mettiamo caso che Messi (o Ronaldo) postino per gioco un video fake in cui riescono a segnare un gol di quelli che come nel cartone animato di Holly e Benji. Che so, una rovesciata con doppio salto mortale all’indietro. Esperienza, Autorevolezza, Affidabilità, ci sono tutte. Il gol è fattibile, si può fare è su Google (?!). Migliaia di ragazzini a prendere un pallone provando ad imitarlo, con qualche problema per la cervicale..
Altro esempio, con diversa gravità e rischio. Rimaniamo in Francia (visto che sono loro ad aver iniziato) e, sempre per assurdo, poniamo venga hackerato il profilo di Jean-Bernard Lévy (Presidente del C.d.A. e Amministratore Delegato di Électricité de France – EDF) per poi postare un allarme (fake) fuga radioattiva da una delle centrali nucleari francesi. Di nuovo, Esperienza, Autorevolezza, Affidabilità, di nuovo Google (???!!!).
Non c’è molto da aggiungere, ci sarebbe invece molto da riflettere. Ed agire…
Siamo una giovane realtà editoriale e non riceviamo finanziamenti pubblici.
Il nostro lavoro è sostenuto solo dal contributo dell’editore (CuDriEc S.r.l.) e dagli introiti pubblicitari. I lettori sono la nostra vera ricchezza. Ogni giorno cerchiamo di fornire approfondimenti accurati, unici e veri.
Sostieni Moondo, sostieni l’informazione indipendente!
Desidero inviare a Moondo una mia libera donazione (clicca e dona)
GRATIS!!! SCARICA LA APP DI MOONDO, SCEGLI GLI ARGOMENTI E PERSONALIZZI IL TUO GIORNALE
La tua opinione per noi è molto importante.
Ora anche su Google News, clicca qui e seguici
Potrebbe interessarti anche: