allarmi-sul-AI

Allarmi sull’IA: troppi o ancora troppo pochi?

Il primo degli allarmi sull’IA, l’intelligenza artificiale, risale agli anni Cinquanta, quando ancora i computer sono bestioni molto più ingombranti che intelligenti. Eppure, già allora il matematico inglese Alan Turing, parlando in un programma radiofonico della BBC, espone le sue preoccupazioni sull’IA. E propone la visione di un futuro in cui computer intelligenti superano le nostre deboli forze e prendono il controllo. Sembra null’altro che la suggestione distopica di una mente visionaria, anche perché, nei decenni successivi (di tutto ciò racconta un precedente articolo di questa serie) le prestazioni dei computer migliorano sì, ma lentamente e in ambiti ristretti, i finanziamenti sono ridotti e la maggior parte dei centri di ricerca si occupa d’altro.
Poi, nel 2012 succede qualcosa che cambia tutto il resto. Con il deep learning basato su grandi reti neurali artificiali, rapidissimamente i computer diventano capaci non più solo di eseguire, ma anche di imparare. E diventano capaci perfino di imparare da soli: cioè senza supervisione umana.

L’ALLARME DI HAWKING. È il fisico teorico Stephen Hawking ad affermare, in un’intervista del 2 dicembre 2014, che l’intelligenza artificiale può portare grandi benefici, ma che the development of full artificial intelligence could spell the end of the human race.
Dire che “lo sviluppo dell’intelligenza artificiale può segnare la fine dell’umanità” è impegnativo. E lo è specie da parte di una persona la cui interazione con il mondo e la cui stessa sopravvivenza sono da decenni affidate alla tecnologia (Hawking soffre di SLA – sclerosi laterale amiotrofica – e utilizza un sintetizzatore vocale per comunicare).
Tuttavia, Hawking sente il bisogno di lanciare un allarme a partire dalla possibilità che l’intelligenza artificiale decolli da sola, modificandosi e progettando e costruendo autonomamente sistemi sempre più capaci. Gli esseri umani, vincolati dal ritmo lento dell’evoluzione biologica, ne verrebbero travolti.

PERDERE IL CONTROLLO DELL’IA? Sempre nel 2014 Eric Horvitz, direttore dei Microsoft Research Labs, scrive: alcuni hanno ipotizzato che un giorno potremmo perdere il controllo dei sistemi di intelligenza artificiale a causa dell’ascesa di superintelligenze che non agiscono secondo i desideri umani, e che sistemi così potenti minaccerebbero l’umanità. Horvitz aggiunge che queste ansie vanno affrontate anche se sono ingiustificate. Segnala diversi ambiti di ricerca, dai rischi per la privacy a quelli per la democrazia, alle implicazioni normative, legali, etiche, alle ricadute sull’economia e sul mercato del lavoro, ai potenziali usi criminali e bellici, all’eventualità più estrema: che ci si avvii verso una potente “singolarità” dell’IA, tale da implicare una perdita di controllo sui processi attuati dalle macchine.

VANTAGGI E RISCHI. Nel gennaio 2015 è ancora Hawking, con Elon Musk e oltre 150 scienziati e pensatori, a firmare una lettera aperta intitolata Priorità di ricerca per un’intelligenza artificiale solida e benefica. Il testo sottolinea che l’IA può portare grandi vantaggi all’umanità. Ma il documento allegato segnala l’esistenza di rischi in molti ambiti, e afferma che risolvere il problema del controllo dell’IA è cruciale.

LIMITI BIOLOGICI. Torna sullo stesso tema pochi mesi dopo, in una illuminante Ted Conference, il direttore del Future of Humanity Institute di Oxford, Nick Bostrom, che domanda: che cosa succede quando i nostri computer diventano più intelligenti di noi? Sottolinea i limiti biologici (non in termini di lentezza evolutiva, ma di capacità di elaborare dati) del nostro cervello. Dice che in questo secolo gli scienziati potrebbero scatenare la potenza dell’intelligenza artificiale così come nel secolo precedente hanno scatenato la potenza dell’atomo.
Dice che l’IA può essere l’ultima invenzione a cui l’umanità mette mano: poi, le macchine diventeranno immensamente più brave (e più veloci) di noi. E potrebbero dare forma al futuro secondo le loro preferenze, anche perché non esiste un pulsante per spegnere tutta l’intelligenza artificiale.

IL DEMONE NELLA BOTTIGLIA. In sostanza: non possiamo sperare che l’IA, come il demone del racconto di Stevenson, se ne resti chiusa nella bottiglia per sempre. Dunque, dobbiamo già adesso fare in modo che, quando uscirà dalla bottiglia (dato che prima o poi ne uscirà) sia amichevole verso di noi. Perché questo accada, dobbiamo costruire qualcosa di ancora più complicato di una superintelligenza artificiale: una superintelligenza artificiale che sia sicura. E il rischio è quello di darsi da fare per raggiungere il primo obiettivo, trascurando il secondo.

IMPERSCRUTABILI. Dobbiamo notare che già da qualche anno (ad affermarlo nel 2017 è la Mit Technology Review) i processi che stanno alla base di alcune prestazioni dell’IA appaiono del tutto imperscrutabili agli stessi ricercatori che la progettano.
E dobbiamo notare che, grazie al diffondersi delle strutture di cloud computing e alla crescente disponibilità di ampie banche-dati, i costi dell’intelligenza artificiale diminuiscono, gli ambiti di applicazione si espandono e cresce il numero delle imprese che la utilizzano.

AMPI IMPIEGHI, NESSUNA REGOLA. Nel 2017, secondo un sondaggio globale di Boston Consulting Group (BCG), già un’azienda su cinque incorpora l’IA in alcune offerte o processi. E un po’ meno del 40 per cento delle aziende e oltre il 50 per cento delle grandi aziende ha strategie per l’impiego dell’IA. BCG cita inoltre alcuni dei campi in cui l’IA viene applicata. Tra questi: marketing e vendite personalizzate, previsioni sull’andamento dei mercati, aiuto nello sviluppo di nuovi prodotti. E poi: gestione della produzione, acquisti, magazzini e logistica, revisione di contratti, operazioni assicurative e bancarie. E ancora: prevenzione sanitaria, diagnostica, ottimizzazione delle prestazioni mediche, sviluppo di nuovi farmaci, automazione dei servizi (con conseguente riduzione dei costi della manodopera).
Tutto ciò succede in assenza di qualsiasi norma in merito emessa da governi nazionali o da organizzazioni internazionali.

LA PRIMA LEGGE AL MONDO. Solo nel 2019 G7 e G20 si accordano su una serie di princìpi per una crescita inclusiva e sostenibile nell’impiego dell’IA. La Commissione Europea comincia a occuparsi dell’IA. Nel 2018 vara un regolamento generale sulla protezione dei dati. Nell’aprile 2021 elabora una proposta di legge europea (EU AI Act) comprendente una graduatoria dei rischi, che dovrebbe diventare operativa entro il 2024. È la prima legge al mondo formulata di un importante ente regolatore e riguardante l’IA. Il testo viene approvato ai primi di maggio 2023, e reso più stringente per quanto riguarda, ad esempio, il riconoscimento facciale.

I rischi dell’IA secondo l’EU Artificial Intelligence Act del 2021

Nel settembre 2021 l’UNESCO pubblica un report intitolato La corsa contro il tempo per uno sviluppo più saggio. Il 24 novembre 2021 definisce, in forma di raccomandazione, un insieme di norme etiche per l’IA: è il primo strumento globale di definizione degli standard su questo tema.  Viene adottato da 193 paesi ma non ha potere normativo.
In seguito, nel maggio 2022, la Commissione Europea pubblica una Risoluzione sull’intelligenza artificiale nell’era digitale.

NUOVI ALLARMI SULL’IA. Tra il 2017 e il 2022 gli articoli accademici sui rischi dell’IA si moltiplicano e si fanno via via più specifici. Le definizioni che i ricercatori danno dell’IA vanno da “tecnologia dirompente” a “la più grande invenzione dell’umanità”.
I rischi evidenziati riguardano la privacy e la democrazia e i diritti umani. I possibili pregiudizi (bias) che possono distorcere le valutazioni dell’IA in materia sanitaria. L’impatto dell’IA sulla salute pubblica, sul sistema dei media e sulla giustizia.. Le implicazioni etiche dell’impiego dell’IA nei campi più diversi, dall’agricoltura di precisione alla gestione del traffico, all’addestramento militare.

DISTOPIE CINESI. Intanto, la Cina non si pone tutti questi problemi e l’intelligenza artificiale sta già assumendo connotazioni distopiche. Dal 2021 esiste un telegiornale finanziario trasmesso in diretta 24 ore al giorno e interamente gestito (compresi gli avatar dei conduttori) dall’IA. Un articolo uscito a fine 2021 sul South China Morning Post racconta che la Procura del Popolo di Shanghai Pudong sta sviluppando un “procuratore artificiale” capace di riconoscere otto tipi di reato e di sporgere denuncia: avrebbe un’accuratezza del 97 per cento e potrebbe ridurre il lavoro delle procure. L’intelligenza artificiale viene anche sviluppata per contrastare l’evasione fiscale e, naturalmente, per la sorveglianza. E si progettano smart city i cui servizi possono essere gestiti dall’IA ed erogati su base individuale, compresi i consigli su come vestirsi date le condizioni meteo previste.
Qui da noi, sempre nel 2021, un sondaggio della IE University di Madrid attesta (pagina 10) che il 51 per cento degli europei (e oltre il 60 per cento di quelli che hanno 25-35 anni) apprezzerebbe che una parte dei parlamentari venisse sostituito da un algoritmo.

PRESTAZIONI STUPEFACENTI. Ci vuole poco, però, perché la percezione cambi. Un sondaggio PEW Research del 17 marzo 2022 dice che a un 18 per cento di americani entusiasti dell’IA fa riscontro un 45 per cento ugualmente eccitato e preoccupato e un 37 decisamente preoccupato.
A fine 2022 la società Open AI lancia ChatGPT, un’IA generativa che può produrre testi in risposta a specifiche richieste. È facile da usare, ha prestazioni stupefacenti, è accessibile a chiunque. Nel giro di due mesi si guadagna 100 milioni di utenti. E l’interesse collettivo si impenna.

Le ricerche del termine “intelligenza artificiale” in Italia dal 2004 a oggi, secondo Google Trends

Le ricerche del termine “AI” (Artificial Intelligence)  nel mondo dal 2004 a oggi, secondo Google Trends

Il 26 marzo 2023, uno studio di Goldman Sachs segnala che l’adozione dell’IA potrebbe accrescere di 7 punti il pil globale annuo. Ma potrebbe anche avere un effetto dirompente (l‘aggettivo disruptive ricorre spesso a proposito dell’IA) sull’occupazione, mettendo a rischio 300 milioni di posti lavoro.
Appena 4 giorni prima, il 22 marzo, il Future of Life Institute pubblica una lettera aperta dai toni allarmati: l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.  
È un appello pressante. Chiede ai governi di varare una moratoria di almeno sei mesi su studi che rischiano di sviluppare menti digitali sempre più potenti che nessuno – nemmeno chi le ha create – può capire, prevedere o controllare. E di di istituire autorità capaci di supervisionare, tracciare e certificare i nuovi sistemi di IA.
A firmare l’appello sono, oltre a moltissimi ricercatori, Elon Musk, fondatore di Tesla, Steve Wozniak, co-fondatore di Apple, Jaan Tallinn, co-fondatore di Skype, Evan Sharp, co-fondatore di Pinterest.

MATRICI IMPERSCRUTABILI. Altri allarmi sull’IA vengono diffusi nei giorni successivi. Il 29 marzo uno dei padri dell’intelligenza artificiale, Eliezer Yudkowsky, scrive a Time che certo, la moratoria chiesta dal Future of Life Institute è meglio che niente. Ma sottostima la gravità della situazione: se crei qualcosa di molto, molto più intelligente di te, e quel qualcosa è composto da enormi matrici imperscrutabili, il risultato probabile è che tutti sulla terra moriranno. È della stessa opinione il ricercatore Paul Christiano.
Anche le persone comuni cominciano a preoccuparsi. Ma continuano a farlo in chiave, diciamo così, meno apocalittica: il 4 aprile Forbes pubblica un sondaggio, secondo il quale il 75 per cento del pubblico americano è preoccupato per la crescita della disinformazione connessa con la diffusione incontrollata dell’IA.

IL DEEPFAKE DEL PAPA. Il 28 marzo, un’immagine del papa vestito con un candido piumino Balenciaga fa il giro del mondo. La foto, a parte alcuni piccolissimi dettagli, è realistica. In pochi mesi Midjourney, l’IA che l’ha creata, è perfino diventata capace di rappresentare le mani umane che fino ad allora la mettevano in difficoltà. La Storia potrebbe considerare il Papa in Balenciaga come il primo vero evento di disinformazione virale alimentato dalla tecnologia deepfake e un segno dei guai in arrivo, scrive Time. E specifica che a oggi non esistono online strumenti gratuiti in grado di discriminare immagini false o vere.

Il papa in piumino Balenciaga. L’immagine viene diffusa il 28 marzo 2023

INTELLIGENZA ALIENA. Il 28 aprile L’Economist pubblica un articolo intitolato Yuval Noah Harari afferma che l’IA ha hackerato il sistema operativo dell’intelligenza umana (qui la traduzione italiana, uscita su Internazionale). In sostanza, Harari dice che quasi tutta la nostra cultura e il nostro sistema di credenze e valori condivisi si basano sul linguaggio. Se l’IA se ne impossessa e lo manipola, può manipolare anche le nostre opinioni creando una falsa intimità, può configurarsi come “oracolo onnisciente”, può creare religioni. Per millenni gli esseri umani hanno vissuto all’interno dei sogni di altri esseri umani. Nei prossimi decenni potremmo trovarci a vivere all’interno dei sogni di un’intelligenza aliena. Per questo è necessario e urgente che l’IA venga regolamentata.
Va però sottolineato che formalizzare una regolamentazione efficace su un fenomeno così esteso e pervasivo come l’IA non è per niente facile né veloce. Estendere le regole su scala mondiale, o quasi, può essere ancora più lento e complicato. 

TUTTO VA VELOCE. 5 maggio, Yougov afferma che oltre la metà del pubblico globale è preoccupato per la perdita di posti di lavoro.
Sempre ai primi di maggio è lo psicologo cognitivo e informatico Geoffrey Hinton, vincitore del Turing Award, a dimettersi da Google. Hinton lancia, dal campus del MIT, un appello a Stati Uniti e Cina perché regolamentino l’IA, che sta sviluppandosi molto più rapidamente di quanto lui e altri informatici si aspettassero, e potrebbe a breve superare i suoi creatori umani: pensavo che ci sarebbero voluti dai 30 ai 50 anni, dice. Ora penso che sia più probabile che siano da cinque a 20. Ciberattacchi, truffe, disinformazione e sorveglianza di massa sono I quattro maggiori rischi immediati.
Il 13 maggio esce la notizia che la Casa Bianca sta arruolando 4mila hacker per trovare le falle dell’IA. Di incontreranno a Las Vegas il prossimo agosto.

CONTINUA LA SERIE DEGLI ALLARMI SULL’IA. Il 17 maggio Sam Altman, il fondatore di Open AI, appena due mesi dopo aver magnificato a Seattle le prestazioni di Chat GPT, in un’audizione davanti alla sottocommissione Giustizia del Senato chiede che il governo si attivi in fretta per mitigare I rischi dell’AI, così come è stato fatto in passato per gli armamenti nucleari: se questa tecnologia prende la direzione sbagliata, diventa veramente tossica. Può, per esempio, manipolare le menti e alterare I risultati elettorali.

L’IA NEL COMPUTER. È del 23 maggio la notizia che Microsoft intende portare l’IA nei nostri computer con Windows Copilota. È un assistente personale integrato in Windows che può riassumere testi, riscriverli e perfino spiegarli. E possiamo chiedergli di modificare le impostazioni del computer, o possiamo fargli le domande generali che siamo abituati a porre a un motore di ricerca.

VENTITRÉ PAROLE. L’ultimo – per ora – allarme lanciato sull’IA è il più breve: sono solo ventitré parole.
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks, such as pandemics and nuclear war. L’hanno sottoscritto 350 ricercatori, che senza troppi giri di parole mettono nella stessa frase l’intelligenza artificiale, il rischio di estinzione, la pandemia e la guerra nucleare. È notevole che tra i firmatari ci siano Sam Altman, creatore di Chat GPT, e Demis Hassabis, co-fondatore di DeepMind.

QUATTRO ORDINI DI RISCHI. In buona sostanza, i rischi dell’IA si possono ricondurre a quattro categorie. Il primo rischio, e il più ovvio, è che l’IA non faccia “bene abbastanza” quello che le vogliamo far fare. Che sia affetta da bias, che soffra di allucinazioni, che abbia delle vulnerabilità. Questi problemi possono essere risolti man mano che si presentano.

IL LATO ESPERTO DELL’IA. Il secondo rischio è che l’IA faccia “troppo bene” quello che le vogliamo far fare, eliminando posti di lavoro qualificati in moltissimi ambiti, dal giornalismo all’intero sistema dei media, alla programmazione, all’intrattenimento, ai settori legale, bancario, finanziario, assicurativo, al marketing e all’assistenza-clienti, ai trasporti, alla produzione di immagini e video… cambiando le regole e i processi di interi mercati e rendendo obsoleti i sistemi produttivi di un gran numero di imprese. Chi parla dell’IA come di un’innovazione dirompente, con ogni probabilità ha in mente questi scenari.

IL LATO POTENZIALMENTE TOSSICO DELL’IA. Il terzo rischio (e questo è ancora più dirompente) è che l’IA faccia molto, molto bene quello che non vorremmo che facesse: esercitare una sorveglianza ubiqua e intrusiva, disinformare e diffondere notizie false e credenze infondate, manipolare le persone attraverso una comunicazione individualizzata e intima, alterare i risultati elettorali, trasformarsi in uno strumento bellico, disabituare gli studenti a produrre pensiero critico.

IL LATO INIMMAGINABILE. Il quarto rischio, quello che più, mi pare, sta allarmando i ricercatori, e che forse è meno chiaro ai non addetti ai lavori, è che l’IA arrivi a fare qualcosa (o che diventi qualcosa) che riusciamo a stento a immaginare, in modi che non saremmo in grado di capire e seguendo criteri che non le abbiamo trasferito e che non condividiamo. È la singolarità di cui finora hanno parlato soprattutto i futurologi e gli autori di fantascienza.
Ma ora non sono più soltanto loro a parlarne. A metà maggio 2023 il New Yorker scrive che, secondo molti ricercatori, ci sono buone probabilità che l’attuale tecnologia AI si trasformi in intelligenza artificiale generale, o AGI, una forma superiore di IA in grado di pensare a livello umano sotto molti o quasi tutti gli aspetti. Un gruppo più piccolo sostiene che il potere dell’AGI potrebbe aumentare in modo esponenziale. Se un sistema informatico è in grado di scrivere codice, come già fa ChatGPT , allora potrebbe imparare a migliorarsi più e più volte fino a quando la tecnologia informatica non raggiungerà quella che è nota come ” la singolarità”: un punto in cui sfugge al nostro controllo. Nello scenario peggiore immaginato da questi pensatori, IA incontrollabili potrebbero infiltrarsi in ogni aspetto delle nostre vite tecnologiche, interrompendo o reindirizzando la nostra infrastruttura, i sistemi finanziari, le comunicazioni e altro ancora.
Questo scenario non è affatto scontato. Ma i recenti progressi dell’IA l’hanno reso più plausibile, anche perché le grandi aziende stanno già sviluppando algoritmi “generalisti”. È il problema di Re Mida (King Midas Problem): raggiungere integralmente un obiettivo che appare desiderabile avendone sottostimato le implicazioni e le conseguenze altamente indesiderabili.

Qualsiasi cosa succeda con l’intelligenza artificiale, non potremo certo dire di non essere stati avvertiti anche se, forse, potremmo lamentare il fatto di non essere stati avvertiti in tempo utile (non è così vero, e questo articolo intende ricordarlo).
È però normale e comprensibile che il nostro ragionamento sul futuro abbia delle carenze: da un lato (pensiamo alla recente pandemia) siamo davvero poco capaci di individuare e comprendere i fenomeni di crescita esponenziale quando sono nelle loro fasi iniziali.

Dall’altro, siamo affetti dal bias dell’ottimismo, che ci fa sovrastimare la possibilità di eventi futuri positivi e sottostimare la possibilità di eventi negativi. Dall’altro lato ancora, riusciamo a immaginare il futuro solo a partire dai dati e dalle cognizioni del passato e del presente che già abbiamo interiorizzato: per questo, e al netto delle distopie letterarie, tendiamo a figurarcelo come una versione un po’ più lucida, un po’ più ripulita e automatizzata e piena di gadget del presente. Perfino con l’emergenza climatica, della quale pure abbiamo segnali assai visibili e drammatici, le nostre reazioni sono lente, e la nostra tendenza a procrastinare decisioni complesse e scomode è permanente. Ma forse dovremmo, finalmente, riuscire a dimostrarci un po’ più lungimiranti, e più intelligenti, di così.

Questo è il terzo di una serie di articoli sull’intelligenza artificiale.
Il primo racconta la storia dell’IA dagli esordi a oggi: Che succede con l’intelligenza artificiale?
Il secondo dice, in parole semplici, come l’IA funziona: Ma l’intelligenza artificiale è “intelligente”?

Il quarto parla di norme e garanzie che, a oggi, sono pressoché inesistenti: Norme per l’IA: come agiscono, quali mancano.

L’immagine che illustra questo articolo è stata generata da Midjourney.

4 risposte

  1. Sviscerare. Un termine della prima scienza anatomica, tragico e oggettivo che ben descrive il tuo lavoro di qualche decennio raccontato in Nuovo e Utile. Un lavoro che ci consente di conoscere facilmente e bene, senza sporcarci le mani, lo stato dell’arte in un gran numero di saperi. Notevole, come al solito, quanto ci hai illustrato nei tre articoli dedicati alla IA. Ancora una volta grazie!
    Uno dei testi che apprezzo maggiormente per la qualità della scrittura è, di Achille Campanile, “Le seppie con i piselli”, contenuto nella raccolta “Gli asparagi e l’immortalità dell’anima”. Le tre paginette campaniliane mi hanno fatto riflettere sulla necessità di ragionare per relazioni. Qual è il rapporto, ad esempio, fra IA e l’alterazione indotta dell’ambiente?
    Lo spazio nel quale è possibile la vita terrestre è simile alla pellicola di una bolla di sapone, ma proporzionalmente molto più sottile. Sopra c’è l’aria sempre più rarefatta e l’inservibile spazio siderale, sotto ci sono le inospitali rocce inerti sino al nucleo terrestre. La vita, da quella unicellulare alle forme più complesse, si è sviluppata nel corso di miliardi di anni solo all’interno di questa membrana a volte spessa appena pochi millimetri, e che solo negli oceani raggiunge alcune centinaia di metri peraltro a noi preclusi. Se sottraiamo l’intero Universo e la massa rocciosa del nostro pianeta –spazi alieni e invivibili senza scafandri e sostanze estratte dalla bolla– ciò che ci resta è ben poco: la membrana dell’ecosistema e la radiazione solare. Non c’è una sintonia fra organismi e “ambiente”. Non esiste nessun ambiente poiché è impossibile determinare il confine fra gli organismi e ciò che li circonda, dato che niente di vivibile ci circonda: esiste il mondo di cui viviamo. Il mondo in cui vivo è una costruzione culturale amministrativa, fatta di Stati e di frontiere, mentre il mondo di cui vivo ha ben altre ramificazioni e distanze, e non sono quelle della globalizzazione e del libero commercio.
    La nostra esistenza non è né locale né globale, non è un fatto di distanze ma di implicazioni e interdipendenze.
    Ora, allo stato di criticità dell’ecosistema di cui viviamo, si aggiunge questo nuovo affascinante e terribilmente inquietante esperimento dell’intelligenza artificiale. (Già il nome denuncia l’infantilismo fanatico di chi lo ha coniato). Temo che l’instabilità indotta dell’ecosistema non potrà che portare a fughe dalla realtà e alla diffusione di teorie antiscientifiche. Come si comporterà la IA, come utilizzerà i profondi disequilibri dell’ecosistema e della psiche? Troverà modo e ragioni per farlo, o potrà essere utile a produrre un necessario equilibrio? Le macchine intelligenti hanno un ambiente di cui vivono?

    1. Ciao Rodolfo.
      grazie per il commento, e… belle domande!
      Alle quali peraltro non saprei come rispondere.
      Il fatto notevole è però che, a oggi, nessuno, temo, è in grado di dare risposte argomentate e credibili riguardanti l’IA, nemmeno in una prospettiva di breve periodo: diciamo a tre anni da oggi.
      È questo fatto a sorprendermi e a preoccuparmi. Voglio dire: nessuno – almeno nel nostro sistema, che è altamente regolamentato – lancia o promuove un farmaco, un giocattolo, un alimento, un cosmetico o un detergente prima di avere una buona certezza che non faccia male e non sia dannoso.
      Con l’IA, nulla di tutto questo.
      È il motivo per cui ho scelto di scriverne: in totale assenza di certezze, ho pensato che almeno valesse la pena di far girare qualche dato e qualche informazione in più. A cui, ora, ti ringrazio di aver aggiunto un paio di quesiti piuttosto rilevanti.

  2. Mi sembra sbagliato prevedere, spaventati, che l’intelligenza artificiale commenta, rapidamente, gli stessi errori già fatti, in secoli, dall’ “intelligenza” naturale.
    Lasciamo al pianeta la speranza che faccia almeno qualcosa di innovativo. Se poi sarà anche buono avremo una discontinuità apprezzabile 😏 In fondo queste previsioni antropomorfiche quanto terroristiche sono SOLO frutto di menti umane.
    Che ne dite?🤔

Lascia un commento

MENU
I post di NeU Risorse sulla creatività
Clicca per leggere le prime pagine 
TUTTO NEU
Creative Commons LicenseI materiali di NeU sono sotto licenza Creative Commons: puoi condividerli a scopi non commerciali, senza modificarli e riconoscendo la paternità dell'autore.
RICONOSCIMENTI
Donna è web 2012
Primo premio nella categoria "Buone prassi"
Primo premio nella categoria "Web"
Articoli di NeU sono stati scelti per le prove del 2009 e del 2019
creatività delle donne_CHIMICA

Creatività delle donne e patriarcato

Non possiamo smettere di parlarne. Dunque provo a raccontarvi come pregiudizi e stereotipi, sostenuti da oltre tre millenni di patriarcato, hanno impedito e tuttora ostacolano

Che succede con l’intelligenza artificiale?

“Non perfetta ma straordinariamente impressionante”.Così McKinsey, società internazionale di consulenza strategica, descrive in un recente articolo la prestazione di ChatGPT, il modello di intelligenza artificiale

Ops. Hai esaurito l'archivio di NEU.