article banner
Overview

L’evoluzione dell’intelligenza artificiale è quella che avevamo previsto?

Nel 1970 Marvin Minsky, uno dei padri dell’intelligenza artificiale, in un’intervista a Life, preconizzò che ben presto avremmo avuto una macchina “dotata della stessa intelligenza generale dell’essere umano medio” (cd. intelligenza generale).

Indubbiamente se, allo stato attuale, l’ipotesi di una macchina così intelligente è un’utopia fondata sulla superiorità della logica digitale rispetto a quella umana e sulla destrutturazione dello spazio e del tempo, la questione del ruolo che deve avere l’intelligenza artificiale nella nostra Società è centrale nell’attuale dibattito sull’argomento.

L’intelligenza artificiale, infatti, si pone sia come strumento che può agevolare l’uomo nei suoi compiti e attività sia come sistema di previsione di decisioni future, capace pertanto di incidere in misura significativa sulle nostre scelte.

Il dibattito sull’intelligenza artificiale muove, innanzitutto, dalla comprensione di cosa si intenda per intelligenza artificiale e quali siano i meccanismi alla base del suo funzionamento.

Come è noto non esiste una definizione di intelligenza Artificiale che comprenda le diverse funzioni e applicazioni di questa disciplina scientifica se non il suo scopo che è quello di “definire o sviluppare programmi o macchine che mostrano un comportamento che verrebbe definito intelligente se fosse esibito da un essere umano” (F. Rossi).

Negli ultimi anni la portata e l'impatto dell'intelligenza artificiale si sono espansi a un ritmo vertiginoso, per la crescita esponenziale della velocità dei computer, per l’incremento esplosivo della quantità di dati disponibili, per il cloud computing (nuvola informatica) al punto che l’intelligenza artificiale è diventata il motore chiave della "quinta rivoluzione industriale" caratterizzata dalla cooperazione fra macchine intelligenti ed esseri umani.

Questi fattori, uniti alla convergenza di diversi tipi di capacità della macchina (Planning, Vision, Expert System, Natural Language Processing, Robotics e Speech), tra cui quello di apprendere dai dati (Machine learning), hanno reso le previsioni sempre più accurate e hanno indotto ad applicare l’intelligenza artificiale all’interno di domini specifici (cd. intelligenza artificiale debole): dalla medicina alla finanza, dall'industria all'istruzione, dalle armi all’informazione fino alla gestione delle risorse.

Uno dei settori più evidenti in cui l'intelligenza artificiale ha fatto progressi significativi è quello del riconoscimento del linguaggio naturale e del riconoscimento di immagini.

Gli algoritmi di apprendimento profondo (deep learning) che si basano su reti neurali artificiali, con strati di semplici nodi computazionali paragonabili ai neuroni, hanno dimostrato un'accuratezza sempre maggiore nel riconoscere oggetti nelle immagini e nell'elaborare il linguaggio umano in modo naturale, mostrando prestazioni a livello umano su vari benchmark professionali e accademici.

Un esempio in questo senso è ChatGPT il nuovo chatbot di intelligenza artificiale reso disponibile gratuitamente al pubblico da OpenAI nel novembre 2022, in grado di rispondere a domande, di chattare con persone e di generare un testo, sulla base di input testuali in linguaggio naturale che utilizza il  Large Language Model (LLM), un modello di deep learning addestrato su un vasto corpus di testi. In due mesi, lo strumento, è stato utilizzato da 100 milioni di utenti (USB) che hanno potuto così testare gli effetti dell’intelligenza artificiale in grado di generare conoscenza da ciò che ha appreso dagli esseri umani, senza neppure la necessità di intermediazione di un esperto.

Altri progressi importanti riguardano l’apprendimento non supervisionato in cui gli algoritmi di IA acquisiscono i dati “grezzi”, senza che siano previamente etichettati (labeling) e, sulla base di una rappresentazione semplificata dei propri dati di addestramento, imparano a generare nuovi testi e nuovi contenuti creativi, come la musica e l'arte. 

GPT 4.0 (Generative Pre-trained Transformer), il modello licenziato da OpenAI a marzo 2023, ci ha mostrato che la macchina, grazie alle reti neurali, può scrivere una e-mail un blog o un articolo (copy.AI) ma, nelle sue applicazioni, può anche generare contenuti multimodali: un’immagine (Midjourney), comporre musica (Soundraw.io), tutelare i diritti (do Not Pay) e  anche creare un avatar di noi stessi (Anime AI).

Un altro settore in cui l’intelligenza artificiale sta affinando le sue capacità è quello degli algoritmi predittivi che superano la logica formale e il perimetro del codice sorgente, per esprimere un modello che è ricavato utilizzando le informazioni estratte dai dati (data mining).

La validità delle risposte della macchina non deriverebbe da assiomi prescrittivi ma dalla capacità di rispondere alle domande secondo modelli che potrebbero aggiornarsi anche attraverso l'interazione con l'ambiente circostante e i feedback umani (apprendimento di rinforzo).

Questi algoritmi di machine learning trovano applicazione nell’healthcare, nella finanza, nel marketing e stanno trasformando il modo in cui gli esseri umani forniscono giudizi, richiedendo agli utilizzatori un mind set adeguato per rilevare un eventuale errore dell’algoritmo derivante sia dall’imperfetta applicazione della funzione costruita sui dati di test (errore di generalizzazione) che dall’assenza di alcuni scenari nei dati di apprendimento.

Nonostante i progressi e i vantaggi dell'intelligenza artificiale, non si tratta di una tecnologia infallibile: spesso le sue risposte necessitano di essere comprese e interpretate.

Inoltre esistono anche dei rischi significativi su scala sociale associati all'utilizzo di questa tecnologia che devono essere presi in considerazione, senza tuttavia prospettare scenari catastrofici, come quelli di un’umanità ridotta ad automi, rappresentata nel film Wall.E.

Tra i principali rischi e i danni causati dall'utilizzo dell'intelligenza artificiale vi sono la disinformazione aumentata e amplificata  dagli algoritmi di raccomandazione e dagli LLM che possono produrre una convincente disinformazione nota come "allucinazioni"; il rafforzamento delle diseguaglianze sociali per l’utilizzo di dati e di risultati di addestramento distorti;  l’erosione della privacy degli utenti perché i modelli di intelligenza artificiale prelevano dal Web o acquistano dati ma non rilasciano mai informazioni su quelli utilizzati per addestrarli.

Il Center for AI Safety (CAS) di San Francisco, un’organizzazione di ricerca no profit, ha individuato  otto rischi su larga scala connessi  allo sviluppo competitivo dell’intelligenza artificiale  tra cui la costruzione di armi, la ricerca del potere, l’accentramento della tecnologia nelle mani di poche industrie.

In Europa uno dei principali rischi percepiti è quello dell'automazione del lavoro umano. L'IA potrebbe sostituire una vasta gamma di attività e professioni, mettendo a rischio l'occupazione di milioni di persone in diversi settori. La disuguaglianza economica potrebbe aumentare  in mancanza di politiche e di misure adeguate per mitigare gli impatti negativi della disoccupazione tecnologica.

Un altro rischio avvertito riguarda l'etica dell'IA. I sistemi di IA non sono così buoni come i dati su cui vengono addestrati: oltre a perpetuare pregiudizi esistenti o discriminare certi gruppi di persone, potrebbero generare, anche con l’inganno, un’intelligenza artificiale “canaglia” (Yoshua Bengio).

La privacy e la sicurezza dei dati sono ulteriori questioni importanti correlate all'IA. Gli algoritmi di apprendimento automatico richiedono grandi quantità di dati per essere addestrati, ma l'utilizzo indiscriminato e non regolamentato di tali dati, ivi compresi quelli sintetici, la difficoltà di verificarne l’accuratezza e la pertinenza potrebbe condurre ad una violazione della privacy delle persone in termini di controllo delle informazioni fornite e di correttezza delle decisioni.

Inoltre la corruzione o la manipolazione dei data set di input e le violazioni della sicurezza dei dati potrebbero portare a un abuso della tecnologia perché non sono immediatamente percepibili stante le caratteristiche del modello che non funziona con deduzioni logiche e non è necessariamente trasparente.

Per garantire che l’impatto dell’intelligenza artificiale sia equo, sicuro e sostenibile per l'intera società di recente gli esperti dell’Organizzazione delle Nazioni Unite hanno individuato tre strumenti: la regolamentazione normativa, una maggiore trasparenza, e la supervisione umana.

Si tratta pertanto di governare e indirizzare l’intelligenza artificiale con un approccio antropocentrico e capire come gli esseri umani e le macchine potranno lavorare insieme al meglio, per affrontare le pressanti sfide della società, espandendo ed estendendo l'esperienza umana, piuttosto che replicarla o addirittura sostituirla.

Occorrerà valorizzare la creatività umana, la curiosità e l’empatia (Paul McDonagh-Smith) e soltanto se le macchine rappresenteranno il meglio di ciò che siamo e che potenzialmente potremmo essere, avremo in mano le chiavi del nostro futuro.