Nuovo e utile

Ma l’intelligenza artificiale è “intelligente”?

Prima di chiederci quali rischi porta con sé l’apparentemente inarrestabile diffusione dell’intelligenza artificiale, forse potremmo domandarci se e quanto l’intelligenza artificiale sia intelligente per davvero.

CHE COSA VUOL DIRE “INTELLIGENZA”. Il fatto è che, a proposito di intelligenza, non esistono risposte semplici. Sappiamo che, per noi esseri umani, “intelligenza” è la facoltà di intendere (i latini dicevano, appunto, intellìgere) ciò che ci circonda e di estrarne un senso. È la capacità di elaborare pensiero astratto e di imparare, di ricordare, di applicare ad altri ambiti ciò che impariamo e ricordiamo. E ancora: “intelligenza” è ciò che ci permette di valutare ed esprimere giudizi, di risolvere problemi, di inventare, di entrare in relazione coi nostri simili. Ed è molto altro ancora.
Sappiamo inoltre che i ricercatori hanno proposto diversi modelli dell’intelligenza, nessuno dei quali tanto soddisfacente da guadagnarsi il consenso dell’intera comunità scientifica.

NON TROPPO ALLA LETTERA. Sappiamo, infine, che i test del quoziente d’intelligenza sono tutt’altro che affidabili: misurano solo certe prestazioni, facili da valutare dal punto di vista quantitativo. E privilegiano chi appartiene al contesto culturale bianco occidentale, a partire dal quale i test medesimi sono stati costruiti, mentre sottostimano capacità intellettive valorizzate da altre culture.
In sostanza: “intelligenza artificiale” è un nome molto suggestivo e alimenta la nostra meraviglia. Ma sarebbe meglio non prendere l’”intelligenza” delle macchine troppo alla lettera, nel momento in cui non riusciamo a definire bene, in tutta la sua complessità, nemmeno l’intelligenza umana, con la quale dovremmo avere una certa dimestichezza.

SUPERARE SINGOLE PRESTAZIONI UMANE. Però niente ci vieta di fare qualche confronto parziale. Potremmo così scoprire (a dircelo un bell’articolo uscito su Science ) un fatto notevole. In singoli compiti che non esiteremmo a definire “intelligenti” – per esempio, l’elaborazione del linguaggio naturale (NLP, Natural Language Processing) – programmi di intelligenza artificiale (AI) che inizialmente hanno prestazioni di gran lunga inferiori a quelle degli esseri umani possono arrivare a surclassarli nell’arco di un solo anno.

In altre parole: oggi un’AI può superare meglio di voi un test di comprensione linguistica costituito da domande sull’articolo che state leggendo, anche perché se lo ricorda parola per parola. E la stessa cosa succede con il riconoscimento e la classificazione delle immagini.
Il grafico che segue mostra – ed è piuttosto impressionante – il tempo che ci hanno messo, dal momento del lancio, i diversi programmi di intelligenza artificiale per raggiungere e superare le prestazioni medie umane in compiti che riterremmo squisitamente umani. Il fatto notevole è che in passato l’AI è migliorata nell’arco di decenni. Ora, invece, migliora nell’arco di mesi.

ERRORI STUPIDI. Ma non tutto va liscio come sembra.
Quando si esce dal laboratorio, l’intelligentissima intelligenza artificiale compie errori stupidi. Può non capire il senso di una frase che finisce con una negazione: per esempio” pensavo che il volo sarebbe stato terribile, ma non lo è stato”. Oppure può essere incapace di rispondere a domande ambigue, o che hanno più di una risposta corretta. Può fare pasticci coi numeri. Può soffrire di allucinazioni, anche perché il suo enorme archivio-dati non distingue tra testi fattuali e testi di narrativa fantastica.
O, ancora, può replicare e amplificare i pregiudizi di chi l’ha programmata, o le distorsioni dei dati sui quali è stata addestrata. Per esempio, un’AI addestrata a selezionare personale sulla base di curricula prevalentemente maschili può penalizzare candidature femminili (questo è successo ad Amazon).
Tutto ciò non è per niente intelligente.

Oppure, un’AI calibrata per valutare perfettamente immagini mediche provenienti da un laboratorio può trovarsi del tutto spaesata di fronte a quelle che le arrivano da un laboratorio diverso. E un’AI capace di intercettare gli insulti razzisti può non intercettare quelli sessisti.

POTENTE, VELOCE, SPECIALIZZATA. Tutto ciò ci dice un paio di cose: l’intelligenza artificiale è molto veloce, molto potente e molto specializzata. Non ha, almeno per ora, la flessibilità propria dell’intelligenza umana, che integra esperienza sensoriale, competenze pragmatiche ed emotive e pensiero astratto. A un bambino basta vedere una decina di gatti per capire che cos’è un gatto. Può girarci attorno, accarezzarlo, prenderlo in braccio e dargli da mangiare. Sarà anche capace di riconoscere un gatto di ceramica alto cinque centimetri. O un gatto in un cartone animato, o un costume carnevalesco da gatto, e potrà disegnarlo o descriverlo, il gatto.

MIGLIAIA E MIGLIAIA DI ESEMPI. L’intelligenza artificiale, che non ha un corpo, non si traveste per carnevale e non accarezza i gatti, non ce la fa. Le servono migliaia e migliaia di esempi selezionati ed etichettati come “gatto” per imparare a riconoscerne uno. (Di etichettatura dei dati abbiamo già parlato nel primo articolo di questa serie).
Quando infine diventa capace di farlo, e lo fa velocissimamente, può tuttavia sfuggirle il senso dello Stregatto di Alice. O può spaesarsi se trova la didascalia “Il gufo e la gattina” sotto le foto di Barbra Streisand e George Segal.
Un recentissimo articolo uscito su Britannica è molto tassativo su questo tema. I ricercatori non sono in grado di modellare neanche il sistema nervoso di uno scarafaggio, e figuriamoci quello di un essere umano. Dunque, è difficile pensare che comportamenti altamente complessi come la comprensione, la pianificazione e il ragionamento possano emergere dalla semplice integrazione di capacità di base, per quanto potenziate e velocizzate. Non vuol dire che non ci arriveremo, ma di certo non ci siamo ancora.

UN LAVORO INFERNALE. Tra l’altro: selezionare ed etichettare dati per l’intelligenza artificiale è un lavoraccio che chiede un sacco di manovalanza. E può trattarsi di manovalanza sottopagata ed esposta a condizioni, letteralmente, infernali.
Ce lo racconta un’inchiesta di Time. GPT3, il modello fondativo (foundation model) da cui si trae ChatGPT, addestrato su miliardi di testi tratti da internet, ha impressionanti capacità linguistiche. Ha però anche un’imbarazzante propensione a riproporre i commenti sessisti, violenti e razzisti di cui internet trabocca.
È impossibile eliminare manualmente tutti gli input tossici riesaminando a uno a uno miliardi di dati già caricati. Quindi OpenAI, la società a cui ChatGPT fa capo, pensa di costruire un programma addestrato apposta per rilevare il linguaggio tossico. E, poiché l’unico modo per spiegare all’AI come riconoscere il linguaggio tossico è fornirle un’enormità di esempi già etichettati come “tossici”, delega questo compito a Sama. Si tratta di un’azienda che impiega lavoratori in Kenya, Uganda e India per etichettare i dati per clienti della Silicon Valley come Google, Meta e Microsoft. Sama si presenta come un’azienda di “intelligenza artificiale etica”, che ha contribuito a far uscire dalla povertà più di 50.000 persone.
L’inchiesta di Time racconta però come in Kenya siano stati impiegati lavoratori pagati un massimo di 2 dollari l’ora, su turni di 9 ore, per etichettare testi di contenuto violento, sessista o pornografico. Tutti hanno subito pesanti conseguenze a livello psicologico.
Se qualcuno ha avuto la fantasia di un’AI sempre al servizio degli esseri umani, beh, sembra che succeda anche il contrario. E, per gli esseri umani, mettersi al servizio dell’AI può essere faticoso, malpagato e traumatico.

SFUOCATURE. Restiamo dalle parti di ChatGPT e del suo essere, o meno, “intelligente”.
È il New Yorker a sostenere che ChatGPT non è altro che una copia sfuocata del web. L’argomentazione è convincente. Per funzionare, ChatGPT individua ed estrae le regolarità statistiche, cioè le formule linguistiche più ricorrenti, dalla sterminata quantità di testi che prende in rete. Lo fa a partire da un modello che mette in fila le parole selezionandole in base alla probabilità che ciascuna parola segua la porzione di testo che la precede.
In questo modo può restituire, rispondendo a qualsiasi richiesta (prompt) e in una forma grammaticalmente corretta, non una specifica informazione, ma qualcosa che è la sintesi meccanica di quanto appare con maggior frequenza in migliaia di contenuti che condividono una o più parole o sequenze di parole-chiave. Il risultato è un discorso formalmente impeccabile, a cui manca però ogni profondità e, per così dire, ogni spigolo.
Qualsiasi analisi di testi tratti dal web – spiega il New Yorker – rivela che frasi come “l’offerta è bassa” spesso appaiono vicino a frasi come “i prezzi salgono”. Una chatbot che incorpora questa correlazione può, quando viene posta una domanda sull’effetto della carenza di offerta, rispondere parlando di aumento dei prezzi. Ma se un grosso chatbot com’è ChatGPT incorpora così tante correlazioni tra termini economici da poter offrire risposte plausibili e ben formulate a molte domande sul tema, questo non vuole dire che capisce la teoria economica.

TESTI DI SERVIZIO. D’altra parte, ogni giorno viene prodotta un’enorme quantità di testi di servizio, ai quali non si chiede né profondità né originalità. Quindi possiamo usare l’AI per riconfezionare in un battibaleno materiali tratti dal web risparmiandoci la fatica della ricerca. E sicuramente eludendo il copyright (su questo tema torniamo in seguito). Otterremo però contenuti via via più generici e sfuocati, specie quando la macchina comincerà a riconfezionare materiali che essa stessa ha confezionato. Lo farà amplificando le sfuocature. E moltiplicando fraintendimenti, errori e allucinazioni come questa, riguardante la  “stretta relazione” che avrebbe unito il filosofo Platone e l’attore Laurence Olivier.

Chat GPT allucinazioni

Intanto – e anche questo va detto – in tutto il mondo una sterminata schiera di persone continua a interrogare l’AI ponendole domande insidiose, con l’esplicito scopo di svelarne le debolezze. E, con ciò, ponendo anche l’intelligenza collettiva al servizio dei ricercatori che lavorano per scovare i difetti e migliorare le prestazioni dell’AI.
In conclusione, il New Yorker ci esorta a non antropomorfizzare la macchina. Questo è del tutto controintuitivo, perché è proprio la caratteristica capacità di riformulare testi esistenti a darci l’illusione che ChatGPT “capisca” qualcosa.
Del resto, la nostra comunicazione umana si fonda sul presupposto che chiunque ci risponda a tono possa e voglia capire quanto gli diciamo. Difficile, dunque, resistere alla tentazione istintiva di estendere la facoltà della comprensione anche all’AI.

POCO SAGGIA, PER NIENTE SPIRITOSA. Troviamo però un indizio notevole sulle effettive capacità dell’AI se consideriamo una delle più squisite e peculiari facoltà umane: il senso dello humor. L’umorismo, scrive Jacopo Cirillo sul Tascabile, è sempre una combinazione di wit e wisdom, spirito e saggezza. La saggezza di conoscere il mondo e lo spirito adatto (l’arguzia, se preferite) per avere a che fare con le persone. Attenzione, però: saggezza non significa nozionismo o semplice conoscenza. La semplice conoscenza – quella insegnabile a un bot in maniera intuitiva e semplice – è per esempio il sapere che il pomodoro è un frutto; la saggezza è quella di non metterlo in un’insalata di frutta.
Certo, l’AI, se richiesta, può raccontarci una barzelletta. Anzi: più barzellette di quante un essere umano possa tenere a mente.
Ma per insegnare a una macchina come diventare spiritosa (e renderla, con questo, davvero indistinguibile da noi) dovremmo prima di tutto trasferirle i meccanismi logici (per esempio, il ribaltamento) su cui si fonda la comicità. Questo si può fare: basta darle una sufficiente quantità di dati. Dovremmo poi darle la saggezza necessaria a non mettere pomodori nell’insalata di frutta, e questo è già più complicato. E dovremmo – cosa a oggi impossibile – renderla consapevole di sé, del contesto e del tipo di relazione che c’è con il suo interlocutore.
Racconta Cirillo che, quando lui prova a scherzare con la macchina, quella “si arrabbia”. Rifiuta, cioè, lo scarto logico dell’umorismo, e in automatico rientra nei confortevoli canoni delle risposte previste dalla media statistica: quelle che “sembrano”, ma non sono, frutto di autentica comprensione. L’articolo, tra l’altro, è oltre che illuminante anche molto divertente.

L’INCANTESIMO E L’ANIMA. Su un tema per certi versi analogo, lo scrivere poesie, pubblica un articolo altrettanto illuminante e divertente l’Atlantic. ChatGPT è pronta a poetare (e, se serve, lo fa rispettando anche la metrica) su qualsiasi argomento, dalla tassa di successione ai calzini. E così esordisce: Oh, calzini, fidi compagni dei miei piedi! Questa prestazione peraltro conferma la sua assoluta mancanza di sense of humor.
Ma a mancare è soprattutto l’incantesimo che la poesia sa creare, proprio per la sua natura di schema linguistico che comprime dati disordinati di esperienza, emozione, verità o conoscenza trasformandoli in discorso memorabile.
E ancora: la newsletter di Axios racconta invece che religiosi di fedi diverse (pastori luterani, rabbini) provano ad affidarsi a ChatGPT per scrivere sermoni, per esempio compilando un prompt come Predicami la resurrezione di Lazzaro in Giovanni, 11. I riferimenti biblici e teologici e le conseguenti esortazioni prodotte dall’AI risultano pertinenti, ma il discorso nel suo complesso vien fuori noiosetto e privo di empatia e compassione.
Insomma, è senz’anima.

In un vibrante articolo pubblicato dal New York Times, Noam Chomsky affronta la questione alla radice: finché saranno i programmi di apprendimento automatico a dominare il campo dell’intelligenza artificiale, le loro prestazioni, anche se utili in ambiti limitati, restano del tutto non paragonabili a quelle della mente umana. Che è un sistema sorprendentemente efficiente e persino elegante, che opera con piccole quantità di informazioni. E non prova a stabilire pure correlazioni brute tra dati, ma a creare spiegazioni. Lo fa istintivamente, cercando ogni volta una coerenza tra spiegazione, contesti ed esperienza che all’AI per forza di cose sfugge. In breve: ChatGPT e i suoi fratelli ragionano solo in termini di probabilità, e sono costituzionalmente incapaci di bilanciare creatività e (necessarie!) costrizioni.

C’è però un curioso (e decisamente marginale) utilizzo di ChatGPT che sembra delineare una certa capacità inventiva. A raccontarcelo è il Guardian: Alexandra Woolner, che pubblica i suoi lavori all’uncinetto su TikTok, prova a domandare all’AI di scrivere uno schema per produrre un narvalo all’uncinetto. Dopotutto, l’AI sa scrivere stringhe di codice, e dopotutto anche le istruzioni per lavorare all’uncinetto vengono espresse in un astruso codice fatto di asterischi, parentesi e abbreviazioni.
Chat GPT produce uno schema plausibile. La signora esegue. Il video che mostra il risultato sfiora il milione di visualizzazioni. Il prodotto è quello che vedete qui sotto. È minuscolo, ha due pinne e somiglia a una creatura marina, “carina ma inquietante”. La signora decide di chiamarla Gerald.

ChatGPT_uncinetto

L’INTELLIGENZA ARTIFICIALE TTI. Ora, proviamo a seguire il piccolo Gerald che, con la mediazione di un’artefice umana, viene concepito come stringa di codice e poi diventa qualcosa che possiamo vedere (e che potremmo toccare). Cominciamo così ad addentrarci nell’universo delle immagini: quelle che ci restituiscono l’aspetto di (e che potrebbero corrispondere a) entità fisiche, e quelle che traducono in forma visiva idee e fantasie.
Se da una chatbot come ChatGPT passiamo a un’intelligenza artificiale TTI, cioè Text To Image, le cose cambiano e diventano un po’ più complicate. Stiamo parlando di macchine che non scrivono, ma producono immagini a partire da istruzioni espresse in parole. Si chiamano DALL-E 2, MIdjourney, Stable Diffusion.

IMMAGINI NUOVE. Anche queste AI lavorano a partire da dati etichettati, cioè da un’infinità di immagini corredate da descrizioni. Ma non si accontentano di catalogarle, come fa per esempio l’AI che elabora radiografie, o quella per il riconoscimento facciale. Possono eseguirne di nuove mimando una miriade di tecniche diverse, dalla pittura a olio all’illustrazione al tratto, alla fotografia. Oppure possono clonare lo stile di un singolo autore del quale dispongano di una sufficiente serie di esempi. Possono interpolare gli stili di più artisti (non sanno però sviluppare uno stile proprio, per quanto bizzarro, come faceva DeepDream, forse anche per imprecisioni nella programmazione).

SOGGETTO, TECNICA, STILE. L’interazione tra l’AI e l’essere umano che le propone un prompt prevede dunque non un singolo livello di interazione, ma almeno tre livelli: quello del soggetto dell’immagine, quello della tecnica, quello dello stile. Modificando l’input a ciascuno di questi tre livelli, il risultato cambia.
C’è anche uno scarto in più, nel passaggio da un prompt verbale a una risposta visiva, perché è difficile che un comando verbale possa descrivere un’immagine in ogni suo dettaglio, sfumatura, scelta compositiva. Gli ambiti, diciamo così, di libertà interpretativa della macchina sembrerebbero molto più ampi. E infatti.

DOVE VA IL DIBATTITO. E infatti, mentre a proposito dell’AI che parla e scrive il dibattito pubblico si è subito spostato sulla sfocatura dei contenuti, l’apparente precisione formale delle risposte, la loro sostanziale carenza di componenti emotive e gli “errori stupidi”, invece il dibattito sull’AI che restituisce immagini ha preso immediatamente altre strade: si può o meno fare arte con l’AI? Possiamo ancora definire “autore” di un’immagine qualcuno che, nella realtà, ha scritto un testo, l’ha corredato di indicazioni su tecnica e stile, e infine ha scelto la più soddisfacente tra le innumerevoli interpretazioni alternative fornite dalla macchina?
E, ancora: nel momento in cui una macchina governa ambiti così ampi di espressione, quanto ci risulta difficile ricordarci che è “una macchina”? La mia impressione, scrive Gregorio Mancini su Singola, è che con i TTI, già al livello attuale, ci stiamo affacciando nella zona grigia tra strumento e persona: tra la generica autonomia che hanno tutti gli oggetti e l’autonomia non circoscrivibile che fino a tempi recenti avevamo riscontrato solo tra esseri viventi. Nell’arte, questi strumenti persona che sono le AI devono essere intesi come una metà di un essere duale che diventa realmente creativo solo quando la parte umana e quella artificiale si fondono.
Il punto di vista può non essere condivisibile, ma è di sicuro suggestivo.

MA COME FUNZIONA? Giusto per ricordarci nuovamente che di macchine stiamo parlando, forse vale la pena di compiere una piccola digressione sui modi in cui un’AI TTI può essere addestrata. Provo a raccontare le due-tre cose che mi è parso di capire.
Ormai sappiamo che bisogna in primo luogo caricare una quantità di dati, cioè di immagini corredate da descrizioni testuali, in modo che l’AI possa correlare le une con le altre, e poi lavorarci sopra scomponendole, per poi ricomporle.
Le tecnologie divergono in base all’obiettivo che si vuole perseguire: produrre immagini fotorealistiche, oppure ottenerne di inedite. In questo secondo caso anche tecniche e stili vanno etichettati e correlati.

RETI NEURALI IN COMPETIZIONE. Un modello di apprendimento può essere basato su GAN (Generative Adversarial Network).  In sostanza, ogni descrizione viene tradotta in numeri che ne indicano il contenuto semantico. A partire da questi, una rete neurale generativa produce una nuova immagine.
Le immagini prodotte nelle fasi iniziali possono essere rumorose (cioè sporche, imprecise). La cosa interessante è che la rete neurale che produce immagini (il generatore) viene messa in competizione con una seconda rete neurale antagonista (il discriminatore), il cui compito è distinguere tra immagini generate ex novo e immagini originali. In questo modo, e grazie alla retroazione, ciascuna delle reti neurali migliora le prestazioni dell’altra. L’AI è ottimizzata quando le immagini generate sono, per il discriminatore, indistinguibili dagli originali.  

RAPPRESENTAZIONE LATENTE. Il VAE (Variational Autoencoder) è invece il modello più usato per produrre illustrazioni. E anche in questo caso il processo è in sé interessante.
I dati inseriti vengono compressi da un encoder in una rappresentazione latente (una sequenza di valori numerici che rappresentano linee, forme, colori…)e quest’opera di riduzione permette di estrarre le informazioni più rilevanti scartando le variazioni non significative. Sarà un decoder, attraverso un processo di campionamento casuale, a costruire un’immagine inedita, che viene poi regolarizzata per ridurne le imprecisioni e che idealmente non è uguale a nessuna delle immagini caricate, anche se da queste trae tutte le caratteristiche salienti.

DAL RUMORE ALL’IMMAGINE. Un terzo modello (Diffusion) lavora direttamente sull’immagine, che viene  generata a partire da rumore casuale (immaginiamo uno schermo pieno di pixel). Durante una sequenza di passaggi, l’AI fa in modo che il rumore si addensi, costruendo tratti via via più dettagliati, nei punti in cui, a partire dal suo addestramento, ritiene che quell’addensamento debba essere più probabile.

Come lavora Stable Diffusion

SCONCERTANTE. In realtà, pensare che qualsiasi immagine, dal Giudizio Universale di Michelangelo a Topolino, al ritratto di Gandhi, possa essere triturata e scomposta in infinitesimi brandelli di informazione, o in puro rumore, e poi ricomposta in forma diversa è abbastanza sconcertante.
Forse smette di esserlo se pensiamo che, dopotutto, quanto avviene con le AI TTI non è più complicato o sorprendente di quanto avviene tra la nostra retina e il nostro cervello. A parte il fatto che, le immagini, noi ce le selezioniamo e ce le etichettiamo da sempre e ce le ricostruiamo nella mente da sempre.
O, forse, tutto ciò può apparirci ancora più sconcertante.

ARS COMBINATORIA. Un’altra cosa che il nostro cervello sa fare molto bene è combinare elementi esistenti in modo inedito e appropriato (cioè: non casuale, arbitrario o inutile).  In questo atto c’è l’essenza della creatività che, poiché niente si crea dal niente, è intrinsecamente, come scrive Umberto Eco,  ars combinatoria.
Ecco: un altro fatto notevole è che, sul combinare, e in apparenza al di là della probabilità statistica, anche l’AI va alla grande.
La cosa più sorprendente, scrive la Mit Technology Review, è che l’AI può prendere due concetti non correlati e metterli insieme in modo per molti aspetti funzionale. Qui sotto, la combinazione tra una poltrona e un avocado, realizzata con DALL-E 2.

Poltrona-avocado DALL-E

Qui, invece, alcune immagini ottenute utilizzando il medesimo prompt con Midjourney. E, bisogna dirlo, un paio di queste poltroncine sono dotate, oltre che di intrinseca congruenza con la richiesta espressa dal prompt, anche di una discreta valenza estetica.

poltrone avocado Midjourney

UN’INFINITÀ DI DOMANDE. Tutto ciò può dar luogo a un’infinità di domande, alle quali per ora ci sono, mi pare, poche e incerte risposte.
Per esempio: può un’AI, che non è né senziente né, in senso proprio, intelligente, e che non ha alcuna intenzionalità, produrre risultati dotati di qualche valore creativo?
O può essere invece che lo spazio creativo dell’AI stia proprio nelle lacune che, dal prompt all’esecuzione di un’immagine, l’AI deve riempire in modi che sfuggono alla previsione degli agenti umani?  E, magari, può essere che la creatività delle macchine stia perfino nelle imprecisioni della programmazione (pensiamo anche alle “allucinazioni” di Chat GPT).
Soprattutto, ammesso e non concesso che i risultati inediti della combinatoria di un’AI abbiano qualche sorta di valore, possiamo davvero parlare di “creatività”?

CREATIVITÀ SCIPPATA. E ancora: quanta creatività umana viene scippata dall’AI, che pesca dal web non solo figure ma anche tecniche e stili che sono propri di un singolo artista? E come è possibile proteggere efficacemente con un copyright non un’opera o un complesso di opere, ma lo stile che le accomuna? L’inquietante verità sul copyright dell’AI è che nessuno sa cosa succederà dopo, scrive The Verge.
Il problema non riguarda solo le immagini, ma anche la musica e la scrittura. Se dai all’AI dieci romanzi di Stephen King (e magari, aggiungo io, un’elementare traccia della trama) e le dici di produrre un romanzo di Stephen King, si tratta di un uso corretto?

LEGGERE QUANTO ACCADE NEL CERVELLO. E che cosa succede se l’intelligenza artificiale riesce, letteralmente, a leggere quanto accade nel nostro cervello? Un recentissimo articolo uscito su Science ci dice proprio questo: a partire dalle sole scansioni cerebrali, l’AI può, dopo adeguato addestramento, riconoscere e ricostruire le immagini che una persona sta vedendo.

Per certi versi si tratta, se non di una vera e propria lettura delle mente, almeno della lettura di una specifica e complessa attività cerebrale. Qui il confronto tra le immagini viste dagli occhi umani (sopra) e le immagini autonomamente ricostruite dall’AI a partire dalle onde cerebrali (sotto).

onde cerebrali e riconoscimento immagini

ALTRI PASSI AVANTI. È ancora più recente (14 marzo 2023) l’annuncio del lancio di GPT-4, un’evoluzione di Chat-GPT che accetta input non solo di testo ma anche di immagini, ed è più affidabile, creativa e capace di gestire istruzioni sfumate o ambivalenti di quanto non fosse la versione precedente.
Nello stesso giorno, Google annuncia la prossima introduzione di funzionalità proprie dell’AI dentro GMail, Google Docs e altre app proprietarie. Per esempio, dovrebbe essere sufficiente fornire a GMail una semplice lista a punti perché questa generi un’email completa.

Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia, scrive nel 1958 Arthur C. Clarke (sì, quello di 2001 Odissea nello spazio).
Il terzo (e, per ora, ultimo) articolo di questa serie proverà a raccontare alcune possibili conseguenze di un così tumultuoso, rapido, sorprendente e per molti aspetti magico succedersi di cambiamenti.

Questo è il secondo di una serie di tre articoli sull’intelligenza artificiale.
Il primo racconta la storia dell’IA dagli esordi a oggi: Che succede con l’intelligenza artificiale?

Il terzo dà conto dei rischi: Allarmi sull’IA: troppi o ancora troppo pochi?
Il quarto parla di norme e garanzie che, a oggi, sono pressoché inesistenti: Norme per l’IA: come agiscono, quali mancano.
L’immagine che illustra questo articolo è stata creata da Tristan Wolff con Midjourney.

7 risposte

  1. Molti studenti di design fanno ars combinatoria simile a quella degli esempi, con risultati mediamente migliori perché risultanti da una ben maggiore capacità critico-analitica. Combinando inoltre nuovi elementi si gratificano divertendosi, cosa improbabile per una macchina. Quando la moglie di Albert Einstein visitò uno dei primi calcolatori che occupava una parte rilevante di un edificio del MIT, si meravigliò delle dimensioni e della complessità dell’apparato rispetto ai risultati di calcolo ed esclamò: “Mio marito normalmente fa le stesse cose con una matita sul retro di una busta”. Gli esempi di design mi paiono a questo livello proporzionale di risultato.
    ChatGPT sarebbe stato così approssimativo nel citare l’episodio? Una precisione maggiore nel definire date, circostanze, luoghi, avrebbe aumentata la comprensione dell’analogia che la visione delle poltrone avocado mi ha evocato?
    Siamo solo all’inizio di un’avventura che ora ha prioritariamente, se non esclusivamente, finalità economiche. L’interazione con la AI nelle applicazioni commerciali di enti, fornitori di servizi e della PA non è attualmente incoraggiante e mi auguro che l’utilizzo militare della AI sia meno idiota, dati i tempi e le implicazioni del suo massiccio utilizzo nel presente e nel prossimo futuro.

    1. Grazie del commento, Rodolfo!
      La storia della moglie (Elsa, la seconda, per chi ama il gossip) di Einstein è deliziosa.
      Non è certo sorprendente che uno studente di design produca risultati migliori di quelli di una macchina.
      È però sconcertante, credo, che una macchina, senza neanche sapere quello che fa, e senza mai essersi seduta su una poltrona o aver assaggiato un avocado, riesca a disegnare qualcosa che noi possiamo riconoscere come una poltrona-avocado.
      Per il resto: viviamo in tempi interessanti e, incrociando le dita, staremo a vedere.

  2. Il merito di questi studi (paradossalmente, ma non tanto) è di farci comprendere alcune modalità di funzionamento della mente umana, quelle più matematizzabili, legate, per esempio, al combinare dati o ad individuare in essi sequenze ricorrenti.
    Cioè, svelano l’inconscio matematico della mente umana. La grande quantità di dati (omogenei e selezionati) che alimenta i calcolatori dà alla macchina un vantaggio notevole e rimedia a quegli” errori” creativi della mente umana. Al riguardo, la singolarità creativa, l’arte, è espressione di una mente divergente.
    Scoprire quanto di matematico vi sia nella mente, scoprire la equazioni (complesse) delle orbite celesti, ci parla di un codice comune, di un mondo scritto e leggibile in caratteri matematici, di un universo ordinato (dotato di ordine, non-caotico).
    Non bisogna pensare che il paragone mente matematica sia riduttivo: anche la matematica è un’approssimazione alla realtà, sempre più complessa e varia di un modello. Un tempo il modello geocentrico con l’ausilio di epicicli era sufficiente a predire la posizione degli astri. Poi Copernico propose un modello eliocentrico con orbite circolari e velocità uniformi, ma c’era sempre uno scarto con l’osservazione. Keplero propose un modello con orbite ellittiche e velocità variabili. Newton trovò le proporzioni dell’attrazione gravitazionale che così doveva tener conto di tutti i corpi vicini. Einstein superò la concezione di uno spazio e di un tempo assoluti. La fisica quantistica sfida la razionalità della relatività di Einstein.
    E la partita non è finita. La matematica continua la sua ricerca. L’uomo cerca le leggi del mondo, le leggi della psiche che gli consentono di conoscere il mondo e sé stesso.
    Ci si può chiedere se la mente razionale, calcolatrice, analitica, sia tutta la mente o una parte, quella conscia, quella premiata dall’evoluzione, quella culturalmente più occidentale. L’intelligenza è buon adattamento, fare buon uso delle risorse, risolvere problemi. Ma quali sono questi problemi? Primum vivere. Ma la vita tramite la nostra intelligenza ce ne pone anche altri che forse sono varianti più complesse del semplice nutrimento e riproduzione.
    Si potrebbe provare a costruire una macchina che suggerisca come escludere la guerra come mezzo di risoluzione delle controversie tra stati. Tra tutte le ricerche mi sembra che in questo campo ci sia ancora molto da fare. Invece la partita sulle bombe intelligenti è andata avanti.
    Dopo averla de-sacralizzata, l’uomo sta replicando la natura. Farà meglio di essa?

  3. Bentornata Annamaria,
    ho letto questi due interessanti articoli in un sol colpo, ma un’immagine non mi abbandonava mai: il grafico dell’effetto Dunning-Kruger.
    “La macchina è riuscita a formare una frase da sola – è intelligentissima”, e poi, con il tempo si è passati a “mmm, ok, mette assieme cose, ma ripete, non crea”. Ora il grafico sta di nuovo risalendo la china, ma con un entusiasmo un po’ più legato alle effettive prestazioni.

  4. L’intelligenza è la capacità di produrre idee nuove, mentre la AI non ne è capace perchè noi per primi ignoriamo come si fa, perciò la AI può essere tutto tranne che intelligente. Perchè poi l’essere umano cerchi di replicare la propria mente resta un mistero; come cercare di produrre piselli artificiali, saranno perfetti ma immangiabili. Se veramente fossimo capaci di produrre intelligenza sarebbe molto meglio crearne una diversa dalla nostra per poterci confrontare, sempre che si abbia il coraggio di farlo.

  5. Stimolato anche da NeU ho letto “Etica dell’intelligenza artificiale” di Luciano Floridi, filosofo di Oxford, grande indagatore della IA. Scrive Floridi: “Noi siamo e rimarremo, in qualsiasi prevedibile futuro, il problema, non la tecnologia. … Dovremmo preoccuparci della vera stupidità umana, non dell’intelligenza artificiale immaginaria, e concentrarci sulle sfide reali che l’IA solleva”. Le riflessioni di Floridi sono lunghe, documentate, complesse ma mi hanno fornito qualche ulteriore elemento di chiarificazione. Grazie Annamaria e buona avventura a tutti.

Lascia un commento

MENU
I post di NeU Risorse sulla creatività
Clicca per leggere le prime pagine 
TUTTO NEU
Creative Commons LicenseI materiali di NeU sono sotto licenza Creative Commons: puoi condividerli a scopi non commerciali, senza modificarli e riconoscendo la paternità dell'autore.
RICONOSCIMENTI
Donna è web 2012
Primo premio nella categoria "Buone prassi"
Primo premio nella categoria "Web"
Articoli di NeU sono stati scelti per le prove del 2009 e del 2019
creatività delle donne_CHIMICA

Creatività delle donne e patriarcato

Non possiamo smettere di parlarne. Dunque provo a raccontarvi come pregiudizi e stereotipi, sostenuti da oltre tre millenni di patriarcato, hanno impedito e tuttora ostacolano

Che succede con l’intelligenza artificiale?

“Non perfetta ma straordinariamente impressionante”.Così McKinsey, società internazionale di consulenza strategica, descrive in un recente articolo la prestazione di ChatGPT, il modello di intelligenza artificiale

Ops. Hai esaurito l'archivio di NEU.