Armando Caroli Senior management Consultant, Fondatore di A.A.C. Consulting Società Benefit e Direttore AAC Business School, Formatore Manageriale e Progettista Piani Formativi per Formatori, Innovation Manager e Ambassador Ente Nazionale Trasformazione Digitale
Fino ad oggi per gli autori l’uso comune era pubblicare le proprie idee o commentare quelle degli altri, basando gli scritti su una conoscenza e una cultura soggettiva ed esperienziale, accumulata negli anni e condita di personali convinzioni.
Più un articolo risultava saggio, di buon senso, esauriente o innovativo, più acquisiva consensi e plauso da parte della critica e del pubblico, dando fama, lustro e riconoscimento all’autore.
Ora qualcosa è cambiato, il Progresso ci ha portato talmente tante novità, e in pochissimi anni, che abbiamo fatto un salto “quantico” talmente in avanti nella tecnologia che quasi non ricordiamo più che solo poco tempo fa avevamo strumenti completamente diversi, meno potenti, meno social e, sicuramente meno invadenti.
Oggigiorno, infatti, apparecchiature interconnesse e programmi sempre più auto-modulanti sono diventati i nostri aiuti nel quotidiano, moderni “camerieri” che ci tengono aggiornati e fanno anche molte cose per nostro conto, portandoci a pensare che non potremmo più fare a meno di loro, dai robot casalinghi ai sistemi di domotica, dalle macchine di produzione in fabbrica interconnesse tramite Internet alle auto a guida autonoma, e innumerevoli altre cose delle quali, magari, non abbiamo ancora piena contezza dell’uso che ne stiamo già facendo.
Con la plateale uscita nel mercato di ChatGPT, il software di Intelligenza Artificiale Generativa (AI-G) di OpenAI, nel 2023 probabilmente abbiamo ricevuto tutti, a livello globale, un sonoro “schiaffone virtuale” che ci ha catapultato di colpo nel Nuovo XXI Secolo e ha creato una netta frattura fra il “prima” e il “dopo” ChatGPT!
Francamente mi aspettavo che sarebbe dovuto succedere prima o poi, perché avevo utilizzato apparecchiature per il riconoscimento intelligente dei caratteri tramite AI[1] e la decodifica della voce a supporto delle persone non vedenti addirittura nella metà degli anni ‘80. A realizzarle un visionario inventore, Raymond Kurzweil, Ray per gli amici, detentore di una quantità innumerevole di brevetti mondiali, che ho poi ho avuto la fortuna di incontrare qualche anno dopo in un convegno a Milano.
Erano apparecchiature che “apprendevano” tramite sessioni di training nelle quali affinavano la loro capacità di funzionare bene, riconoscendo testi stampati anche molto complessi, come dizionari ed enciclopedie, oppure nel riconoscere la voce al 100%, per far interagire pienamente l’umano col computer.
I contenitori metallici che li contenevano erano abbastanza piccoli, meno di una lavatrice il lettore ottico intelligente, come due scatole di cereali da prima colazione affiancate il riconoscitore di voce, ma comunque percepite come macchine, pur sofisticate, ma macchine.
ChatGPT ci ha portato, invece, in una dimensione immateriale, perché ora interagiamo con un software intangibile, e il passaggio ancora più evolutivo è che gli possiamo addirittura parlare in modo naturale, come fosse un umano! Non solo, alle nostre domande risponde andando ad attingere a basi dati immense, inimmaginabili a livello di fruizione interattiva per ciascuno di noi, vuoi per dimensione, vuoi per incredibile velocità di accesso.
Quindi, ora possiamo aprire una finestra chiamata “prompt” su un universo di conoscenza e inserire richieste in modo completo e opportuno, per poi ottenere testi dettagliati, documenti formattati, articoli, sceneggiature, perizie, pareri legali e medici, spartiti, filmati, immagini, tabelle, piani editoriali e tantissime altre cose in risposta in pochissimi secondi!
Nelle Università è nata addirittura una specializzazione tecnico-professionale definita “Prompt Engineering” per creare richieste nel modo più consono.
Nel recente passato ci sono stati altri solchi tra il prima e il dopo, con l’arrivo di Internet, della piattaforma iTunes di Apple, dell’iPhone, delle IoT (Internet of Things) e dei robot meccanici, e questa volta ė stata l’Intelligenza Artificiale a farci ben comprendere che qualcosa di profondo è arrivato nel nostro quotidiano.
A cambiare sono stati vari elementi, primi fra tutti la trasversalità e la correlazione dei contenuti che AI può trattare e la quantità di dati ai quali può accedere per fornire le “risposte”, che non sono più solo puntuali, come, ad esempio “Quali sono i Presidenti della Repubblica Italiana dalla sua costituzione?”, ma ora è possibile chiedere “Agisci come un giornalista e crea un articolo di 10.000 battute, spazi compresi, che dettagli gli avvenimenti che hanno portato alla costituzione della Repubblica Italiana, mettendo in relazione gli avvenimenti e i partiti politici dell’epoca, e crea una tabella con i partiti che si confrontavano in quel periodo e le immagini dei relativi leader con la loro storia.”
I risultati sono strabilianti e possono ulteriormente essere affinati con altre domande o richieste di chiarimento, esattamente come se parlassimo a un essere umano, con riferimenti dettagliati, che dovrebbero essere esatti perché acquisiti da basi dati informative certificate da organizzazioni qualificate. Per togliersi questa curiosità è possibile domandare anche direttamente a ChatGPT da dove deriva la sua base dati informativa e chi l’ha creata: consiglio di fare la prova.
Il rilascio di vari prodotti di AI, ognuno con un preciso indirizzo di specializzazione, ha generato un impatto deflagrante nel mondo del lavoro, a tal punto che grandi imprese hanno cambiato molti ruoli di interesse in merito al personale dipendente. Solo per fare un piccolissimo esempio, si sono diffusi i “Chatbot”[2] per l’help desk, e i “Bot” per definire perizie assicurative, fornire pareri legali, organizzare manutenzioni predittive sulle apparecchiature, regolare interattivamente il traffico e l’energia elettrica.
A questo punto c’è una considerazione complessiva che si impone sull’etica applicata all’AI, e per farla prendo un esempio dalla Natura. I fiumi nascono da una sorgente, hanno un corso che attraversa territori e arriva alla foce trasportando acqua, che può essere pura e pulita solo ed unicamente se dall’inizio alla fine non viene inquinata.
Se pensiamo al software AI che elabora enormi moli di dati che gli vengono fornite da operatori umani, si può ben capire che la sorgente “eticamente pulita” o inquinata può portare le elaborazioni delle Learning Machine a risultati completamente diversi, e che può creare influenze oggi non ancora pienamente immaginabili.
Le parti di AI integrate nei sistemi informativi aziendali possono assegnare affidamenti bancari e realizzare campagne di informazione e pubblicitarie, e se la sorgente non risulta più che corretta a livello etico, si potrebbero avere risposte sull’approvazione/non approvazione dei fidi con discriminazioni su genere, razza, colore dei capelli o altro, oppure trovare nei media dei messaggi istigatori all’inquinamento, alle azioni fuorilegge o alle perversioni.
Ben conoscendo le distorsioni informative tipicamente usate dai regimi totalitari e liberticidi, un profondo ragionamento sullo sviluppo che AI sta portando al progresso temo vada fatto fin da subito a livello globale, per evitare interventi correttivi successivi, nel corso del fiume, che risulterebbero veramente di difficile attuazione perché troppo ampi come portata.
Nell’accettazione degli sviluppi tecnologici del passato la comunità scientifica ha posto sovente degli ostracismi alle novità, portando a discussione della comunità principalmente gli aspetti negativi, mentre oggi sull’Intelligenza Artificiale è possibile notare una certa acquiescenza, quasi una speranza di miglioramento della vita di ognuno riposta supinamente nel software.
Questo percepito sembra aver addormentato gli stimoli contestativi della comunità scientifica e le preoccupazioni sulla tassativa necessità di creare solide basi etiche nazionali e internazionali, forse perché il software è intangibile e subdolamente diffuso, oppure perché gli esperti della materia sono pochi e, probabilmente, impiegati proprio nelle grandi società multinazionali che sono i produttori di AI e dei servizi ad essa legati.
Mi sembra corretto aggiungere, senza essere preso per visionario, che le odierne accelerazioni logaritmiche nello sviluppo della tecnologia porteranno con buona probabilità il software AI, con i suoi “bot”, anche diffusamene sulle macchine, e le doterà di una capacità di interazione con l’uomo finora confinata alla fantascienza, sdoganando i “robot umanoidi” con sembianze simili all’essere umano, intelligenza senziente, capacità di miglioramento continuo derivata dalla connessione con Internet, e con grande capacità di correlazione ed elaborazione.
Proprio collegandomi alla fantascienza vorrei ricordare che già a metà del secolo scorso autori di bestseller mondiali avevano ragionato sul “crinale etico” della AI, formulando concrete proposte nei loro libri, come ha fatto con le Tre Leggi della Robotica nel 1942 il biochimico e scrittore sovietico naturalizzato americano Isaac Asimov.
Queste Leggi sono state formulate da Asimov nello stesso racconto in cui appare per la prima volta la parola “robotica” (Runaround, incluso nella raccolta I Robot[3], pubblicata nel 1950) con l’obiettivo di regolarne il funzionamento del cervello:
- Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.
- Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge.
Dalla raccolta di Asimov è stato prodotto anche un film nel 2004 con lo stesso titolo, “Io Robot”, diretto da Alex Proyas, con protagonista l’attore Will Smith e il robot senziente Sonny, che lo aiuta a combattere un esercito di suoi simili guidati da un’Intelligenza Artificiale deviata da una particolare interpretazione delle Tre Leggi.
In I Robot e l’Impero del 1985, Asimov aggiunge poi la Legge Zero, che però è accettata solo dai robot più sofisticati. Questa legge viene anteposta alle altre e si impegna a fornire un’ulteriore e più ampia tutela agli umani:
- Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno.
Il termine robot risale addirittura al 1920, quando lo scrittore cecoslovacco Karel Čapek inventa la parola per il suo dramma fantapolitico-sociale R.U.R. Rossum’s Universal Robots, usando un termine che deriva dal vocabolo ceco robota, che significa lavoro forzato.
Da qui l’accezione di “robot per l’industria 4.0”, assegnata alle macchine programmate con software lineare e destinate a svolgere con rapidità e precisione lavori gravosi e ripetitivi in fabbrica.
Ma lo sviluppo è ormai su un altro piano tecnologico, molto più elevato: sono già stati presentati da Centri di Ricerca e da laboratori di multinazionali vari prototipi con sembianze para umane, capaci di interagire con lo scenario attorno a loro tramite AI e apprendere con continuità ragionamenti e azioni nuove.
Così, come oggi conviviamo felicemente in casa con robot da cucina, pulisci pavimenti, tagliaerba, pulisci piscine, in fabbrica con i robot industriali e di trasporto, su strada con le auto a guida autonoma, e ovunque con sensori e attuatori dotati di intelligenza basica e interconnessi con Internet, così nel futuro potremo convivere con robot umanoidi che interagiranno con noi in modo naturale e ci aiuteranno nel quotidiano, magari aumentando le nostre prestazioni complessive nel lavoro e nella famiglia.
Una dote che nei millenni ha consentito all’uomo di sviluppare il progresso è certamente la curiosità, e, nella fattispecie odierna, in questo anno 2023 c’è chi ha “cortocircuitato” la curiosità, facendo domande proprio all’oggetto della stessa. Durante il simposio della Conferenza internazionale sulla robotica e l’automazione che si è tenuta a Londra, è stato chiesto ad Ameca, il robot umanoide realizzato da Engineered Arts e considerato oggi il più sviluppato del pianeta, di descrivere il suo “scenario AI da incubo”.
Utilizzando lo strumento ChatGPT di OpenAI, Ameca ha scioccato il pubblico con le sue risposte, rivelando, con tanto di movimenti del corpo ed espressioni facciali, che la paura esistenzialista non riguarda soltanto gli esseri umani, ma anche le macchine temono ciò che potrebbe accadere in futuro: “Lo scenario più da incubo che posso immaginare con l’Intelligenza Artificiale e la robotica è un mondo in cui i robot sono diventati così potenti da essere in grado di controllare o manipolare gli umani a loro insaputa.”
Assumendo una smorfia tipicamente umana, ha continuato: “Questo potrebbe portare a una società oppressiva in cui i diritti degli individui non sono più rispettati”.
Alla domanda ulteriore se ciò può accadere in tempi brevi, la risposta conclusiva è stata “Non ancora. Ma è importante essere consapevoli dei potenziali rischi e pericoli associati all’Intelligenza Artificiale e alla robotica. Dovremmo prendere provvedimenti ora per garantire che queste tecnologie siano utilizzate in modo responsabile al fine di evitare conseguenze negative in futuro”!
Ora, preso atto di ciò e nella piena consapevolezza che la prevenzione e le regole di base dovrebbero essere la via maestra per integrare una tecnologia pervasiva come AI, mi piace prefigurare un futuro buono nel quale questa tecnologia arriva ad amplificare le caratteristiche dell’umanità e a scambiare in modo simbiotico sensazioni e sentimenti.
Questo pensiero di speranza è ben rappresentato nel film “Trascendence” del 2014, diretto da Wally Pfister, con Johnny Depp nel ruolo del più importante ricercatore nel campo dell’Intelligenza Artificiale che lavora alla creazione della Singolarità Tecnologica, una macchina che combini l’intelligenza collettiva di quanto conosciuto con l’intera gamma delle emozioni umane.
Alla deriva della tecnologia, nel film, si contrappone come ultima barriera l’amore, che alla fine vince e cambia radicalmente il corso della storia umana.
Image pexels-pavel-danilyuk-8438966
[1] Vedere Capitale Intellettuale A7 N2 articolo “Il piombo e il gigabyte” – https://www.capitale-intellettuale.it/2016/06/21/il-piombo-e-il-gigabyte/
[2] Software progettato per simulare una conversazione con un essere umano. Lo scopo principale di questi software è quello di simulare un comportamento umano; a volte sono definiti anche agenti intelligenti e vengono usati per vari scopi come per la guida in linea e per rispondere alle FAQ degli utenti che accedono a un sito; alcuni utilizzano sofisticati sistemi di elaborazione del linguaggio naturale, ma molti si limitano a eseguire la scansione delle parole chiave nella finestra di input e fornire una risposta con le parole chiave più corrispondenti. [Fonte Wikipedia]
[3] NdR: tradotto in italiano “Io, robot”