Nuovo e utile

Che succede con l’intelligenza artificiale?

“Non perfetta ma straordinariamente impressionante”.
Così McKinsey, società internazionale di consulenza strategica, descrive in un recente articolo la prestazione di ChatGPT, il modello di intelligenza artificiale per l’elaborazione di testi di cui molto si sta parlando.
La sensazione è che, fosse esistita una formula superlativa ancor più superlativa di “straordinariamente impressionante”, gli autori avrebbero usato quella.

Il motivo di tanto sbalordimento è semplice: McKinsey chiede a Chat GPT di scrivere, nello stile McKinsey, il paragrafo di apertura di un articolo su come l’intelligenza artificiale (da adesso in poi la chiameremo anche AI) influirà sul mondo degli affari. E scopre che l’AI è in grado di farlo.

ESPERIMENTI DI SCRITTURA. Compiono un esperimento analogo molti altri. Tra questi, l’Atlantic, che pubblica un gustoso articolo di critica alle prestazioni dell’AI. La quale non ha la capacità di capire realmente la complessità del linguaggio e della conversazione umana. È semplicemente addestrata a generare parole sulla base di un dato input… ciò significa che è probabile che qualsiasi risposta generata sia superficiale e manchi di profondità e comprensione.

Il fatto notevole, però, è che – in un curioso gioco di specchi – questo testo è stato scritto dall’AI medesima, in risposta alla richiesta di produrre, nello stile dell’Atlantic, un articolo critico nei confronti dell’AI. L’altro fatto notevole è che l’AI sembra essere piuttosto onesta a proposito di se stessa.
Tra l’altro: l’Atlantic ha coperto ampiamente il tema dell’AI. Qui, se volete dare un’occhiata, ci sono tutti gli articoli.

Anche Federico Rampini, dopo aver sottoposto all’AI un argomento che conosce bene, racconta il proprio sconcerto sul Corriere della Sera: ho chiesto a ChatGPT di scrivere un’analisi di cinquemila parole. Lo ha fatto in cinque minuti. Ho letto il risultato: dignitoso. Non solo per la forma, ortografia e sintassi di un inglese perfetto. Anche il contenuto: una sintesi che definirei equilibrata e aggiornata di informazioni e analisi correnti sul tema della Cina in Africa. Posso fare di meglio io? Per adesso sì… ma anziché cinque minuti ci metterei cinque ore, o forse cinque giorni.

MA È PROPRIO VERO? McKinsey si sbilancia di più, e afferma che, nel momento in cui i computer possono rispondere a domande producendo contenuti originali a partire dai dati in loro possesso, possono ora senza dubbio dimostrare creatività.
Per capire se è proprio vero, e se almeno qualche dubbio possiamo averlo, e quali sono i rischi, le potenzialità e le prospettive, dobbiamo fare un passo di lato. E, prima ancora, un bel passo indietro. Alla fine, se tutto va bene, potremo fare anche un passo avanti.
Insomma: mettiamoci tutti quanti comodi.

DI CHE COSA STIAMO PARLANDO. Prima di tutto: “Intelligenza Artificiale” oggi vuol dire che un computer può essere addestrato a elaborare dati secondo procedure ispirate, perfino nella terminologia, a ciò che sappiamo del funzionamento del cervello umano.
Per esempio, l’AI può riconoscere schemi e associare dati e può sviluppare nuove strategie per riuscirci meglio. Lo fa velocissimamente. Più crescono la potenza di calcolo e i dati a disposizione per l’addestramento, più l’intelligenza artificiale diventa accurata nelle sue risposte.

Il termine “Intelligenza Artificiale” appare per la prima volta nel 1956, quando l’informatico e scienziato cognitivo americano John McCarthy lo conia in occasione di un seminario estivo presso il Dartmouth College. Il seminario dura due mesi. Nel gruppetto dei partecipanti ci sono scienziati cognitivi, informatici, fisici, matematici, Ingegneri. C’è Claude Shannon, padre della teoria dell’informazione. C’è Herbert Simon, che anni dopo vincerà il Nobel. La Dartmouth conference viene considerata il momento fondativo dell’Intelligenza artificiale intesa come nuovo campo di studi.

Non dimentichiamo però che ancora prima, nel 1943, il neurofisiologo Warren McCulloch e il matematico Walter Pitts (ricordiamoci di questi due nomi: li ritroveremo) teorizzano la possibilità di creare un sistema neurale artificiale, capace di eseguire operazioni logiche e di imparare.

Nel 1950 Shannon ipotizza la creazione di un programma informatico per giocare a scacchi.
Nello stesso anno il matematico e crittografo inglese Alan Turing formula l’idea del test che prenderà il suo nome. In sostanza, una macchina si potrà considerare “intelligente” quando sarà in grado di fornire risposte indistinguibili da quelle di un essere umano. Il test verrà modificato nel tempo alla ricerca di criteri via via più stringenti, e si evolverà insieme allo sviluppo delle macchine.

ATTESE ESAGERATE. Nel 1958 Io psicologo Frank Rosemblatt sviluppa il Perceptron. Si tratta di un programma per riconoscere le immagini che applica le teorie di McCulloch e Pitts, e consiste, appunto, in una rete neurale artificiale. Il programma gira su un computer IBM 704 dotato di 400 fotocellule: un bestione pesante cinque tonnellate.

Le prestazioni attese sono altissime: il New York Times afferma che si tratta dell’embrione di una macchina che sarà capace di camminare, parlare, vedere, scrivere, riprodursi ed essere consapevole della propria esistenza. A finanziare la ricerca è la Marina degli Stati Uniti.

Ma una singola rete neurale artificiale si dimostra inadeguata a compiere le operazioni logiche richieste. I risultati sono deludenti e, poiché continuano a esserlo nonostante gli sforzi dei ricercatori, il progetto viene abbandonato. E con esso si accantona l’idea stessa di impiegare reti neurali per l’AI. Ci vorranno sessant’anni per arrivare a capire che, invece, la strada da percorrere è proprio quella.

DA ELIZA AD HAL. Fra i primi programmi (siamo nel 1965) in grado di superare il test di Turing c’è probabilmente Eliza, un software che simula le risposte di uno psicoterapeuta. Questo non vuole certo dire che Eliza “pensa”. Vuole però dire che sa produrre reazioni quasi sempre appropriate a input complessi, tanto che molte delle persone che interagiscono arrivano ad attribuire ad Eliza sentimenti di tipo umano.

Nel 1968 esce il film Odissea nello spazio. Al centro della vicenda narrata c’è HAL, un computer senziente: l’intelligenza artificiale entra ufficialmente nell’immaginario collettivo. Ma quasi contemporaneamente esce dalle priorità di coloro che dovrebbero investirci in termini d’ingegno e di denaro. Di fatto, a partire dagli anni Settanta e per circa vent’anni, l’entusiasmo della comunità scientifica e dei finanziatori attorno all’AI si spegne proprio perché i progressi restano molto al di sotto delle previsioni.

IL LUNGO INVERNO DELL’INTELLIGENZA ARTIFICIALE. Nel 1972, a Stanford, viene messo a punto MYCIN, un sistema capace di identificare i batteri responsabili di infezioni gravi e di consigliare antibiotici nel dosaggio corretto. Ma la potenza di calcolo disponibile è ancora limitata e il sistema non viene sviluppato.
Nel 1979 lo Stanford Cart, un accrocchio semovente dotato di telecamera, riesce ad attraversare da solo una stanza piena di sedie. Ci mette circa cinque ore.
Solo pochi visionari continuano a credere in quella che, ai più, appare come una missione impossibile. È l’inverno dell’Intelligenza artificiale.  Le sue estreme conseguenze si protrarranno fino al 2012.

ASSEGNI, SCACCHI E ASPIRAPOLVERE. Alla fine degli anni Ottanta il ricercatore Yann LeCun sviluppa un algoritmo che sa “vedere” e riconoscere gli assegni bancari. E che sa imparare a farlo meglio: è l’inizio della rivoluzione del machine learning. Nel 1997 un supercomputer di IBM, Deep Blue, sconfigge il campione del mondo Garry Kasparov in una partita a scacchi.
Nel 1998 il primo indice di Google conta 26 milioni di pagine web, ordinate secondo criteri di rilevanza.
Il primo robot commerciale domestico viene lanciato nel 2002: è un aspirapolvere dotato di sensori, che decide da solo come muoversi per casa. Qualche anno dopo imparerà anche a non cadere giù per le scale.

IL PUNTO DI SVOLTA. Nel 2009 gli scienziati della Northwestern University sviluppano un programma che scrive notizie sportive senza intervento umano. Appena due anni dopo, nel 2011 Watson, un computer che risponde a domande poste nel linguaggio umano, sconfigge i campioni del gioco Jeoparday.  
Nel 2012 tre ricercatori dell’Università di Toronto, Krizhevsky, Sutskever e Hinton, dimostrano finalmente le potenzialità delle reti neurali per il riconoscimento delle immagini. Sempre nel 2012 Google presenta Google Brain. È una rete neurale addestrata a riconoscere un gatto basandosi su 10 milioni di immagini digitali tratte dai video di YouTube.
Ed eccoci al punto di svolta.

PIÙ POTENZA, PIÙ DATI, COMPRENSIONE MIGLIORE. Se in precedenza i progressi dell’AI sono stati oggettivamente lenti, dal 2012 in poi tutto accelera, e tanto. Questo succede essenzialmente per due ordini di motivi.
In primo luogo, e sotto il profilo quantitativo, continua ad aumentare in modo esponenziale la potenza di calcolo. Grazie alla diffusione di internet, aumenta enormemente anche la quantità di dati disponibili per l’elaborazione.
Continua ad aumentare, infine, il grado di comprensione che i neuroscienziati cognitivi hanno del funzionamento del cervello umano sul quale l’AI è tornata nuovamente a modellarsi.

L’APPROCCIO CLASSICO. Quest’ultimo fatto ci porta a considerare una questione di metodo che è davvero interessante, perché determina un sostanziale cambiamento nella qualità della ricerca e dell’elaborazione.
Ecco di che si tratta: per molto tempo la maggior parte dei ricercatori ha ritenuto di dover “guidare” l’intelligenza artificiale, fornendole tutte le istruzioni necessarie per portare a termine qualsiasi compito.
È l’approccio classico all’IA (noto anche come Good Old-Fashioned AI, o GOFAI), che consiste, per dirla in modo sbrigativo, nell’idea di etichettare e riversare ogni elemento utile (e idealmente il mondo intero in ogni sua regola e relazione di senso) dentro una macchina che è programmata per svolgere un compito.
È un approccio che funziona e dà buoni risultati quando si lavora con sistemi di regole e di relazioni stabili. Per esempio, le regole che governano il gioco degli scacchi, o la matematica.

Ma il mondo reale è mutevole e zeppo di sfumature e ambiguità: possono essere ambigui il linguaggio, le immagini, gli eventi. E il senso di (quasi) ogni cosa può modificarsi in differenti contesti. Ciascuno dei quali fa riferimento ad altri contesti ancora, in un enorme intreccio di schemi e relazioni e interpretazioni possibili.

IL SISTEMA PIÙ FLESSIBILE. C’è però un altro sistema, molto più flessibile, per spiegare il mondo a una macchina: insegnarle a capirlo da sola mettendola di volta in volta in grado di imparare. È il deep learning, l’apprendimento profondo. Questo avviene nel corso di un processo che per molti versi mima, appunto, i processi dell’apprendimento umano. E che si basa su strati di reti neurali artificiali.
Gli strati devono essere almeno tre, e possono essere molti, davvero molti di più.
E sì, è nella sostanza l’evoluzione dell’approccio teorizzato da Warren McCulloch e Walter Pitts nei primi anni Quaranta, quando ancora la definizione “intelligenza artificiale” non era stata inventata. Ed è l’approccio che, sessant’anni dopo la delusione del Perceptron, permette, con macchine che finalmente hanno potenza e velocità adeguate a elaborare l’enorme quantità di dati disponibile, di ottenere i risultati più sorprendenti.

MAGNIFICO! MA COME FUNZIONA? Nella pratica, il deep learning può funzionare in tre modi. Si possono inserire nella macchina dati già etichettati (cioè corredati di informazioni utili a definirli), in modo che questa gradualmente “impari” a riconoscere con grande precisione gli schemi che li accomunano. E e poi possa, da sola, individuare quei medesimi schemi in batterie di dati analoghi: è l’apprendimento supervisionato. Lo si impiega, per esempio, per insegnare alla macchina come classificare immagini, come identificare lo spam, o come fare previsioni sugli andamenti di borsa.

Oppure si mette la macchina a confronto con una serie di dati grezzi (non etichettati) all’interno di un ambiente che questa deve esplorare, identificando schemi e relazioni e procedendo per prove ed errori. La macchina impara perché ogni sua scelta, giusta o sbagliata, viene di volta in volta “ricompensata” o “punita”.
A un certo punto, la macchina avrà imparato come operare in quell’ambiente, massimizzando i premi e azzerando le punizioni. È l’apprendimento per rinforzo, Tutto sommato, è qualcosa di assai simile al condizionamento operante con cui lo psicologo Burrhus F. Skinner modellava, negli anni Trenta, il comportamento dei topi e dei piccioni.
Se si tratta di intelligenza artificiale il metodo serve, ad esempio, per addestrare i robot a muoversi correttamente in un ambiente fisico.

Nell’apprendimento non supervisionato, infine, la macchina viene esposta a dati grezzi, e deve riconoscere autonomamente schemi e relazioni. Può farlo seguendo strategie che i ricercatori stessi non sono poi in grado di ricostruire. E può identificare schemi e relazioni che sfuggono agli esseri umani.
Si usa questo metodo, per esempio, per individuare tendenze non evidenti ricavando diagrammi e grafici. Oppure per classificare notizie, per la visione artificiale, o per intercettare eventi anomali (per esempio, le frodi con carte di credito).
Quest’ultima applicazione viene considerata una delle aree più complesse e interessanti dell’apprendimento automatico.

NON È LA PRIMA VOLTA. Piccola nota a margine: non è la prima volta che si rivaluta dopo decenni, e in un diverso contesto, una soluzione o una tecnologia che si era accantonata in modo troppo sbrigativo. Per esempio, ai primi del Novecento le auto elettriche erano molto diffuse e offrivano ottime prestazioni. Ma sono state abbandonate per il più economico e (sic) “più virile” motore a scoppio. Dopo un secolo, però, a quelle si sta tornando.

PROGRESSI RAPIDI. Nel 2014 l’AI si dimostra più brava degli esseri umani nel riconoscere i volti.
Nel 2015 Google lancia Deep Dream, un software capace di elaborare immagini riconoscendone e replicandone gli schemi. L’effetto è psichedelico. E poi Deep Dream sembra piazzare musi canini dappertutto. Qui sotto un’immagine pubblicata da Wired:

Nel 2016 il computer AlphaGo di Google DeepMind sconfigge Lee Sedol, campione di Go, il gioco più antico (risale a oltre 3000 anni fa) e complicato del mondo, in cui l’intuizione ha un ruolo predominante.

L’AI comincia ad avere un impatto sulla vita quotidiana di tutti noi. Gli assistenti vocali come Siri, Google Assistant e Alexa diventano sempre più precisi. Si sviluppano le prime auto a guida autonoma. In campo medico, l’intelligenza artificiale serve come aiuto per la diagnosi di malattie rare. E anche per analizzare referti, per identificare e calibrare terapie efficaci, per progettare nuovi farmaci. Si avvalgono dell’AI le previsioni meteo, e robot guidati dall’AI si diffondono nelle fabbriche. Si sviluppano sistemi di AI per contrastare frodi e riciclaggio, per restaurare immagini e per molti altri scopi, alcuni dei quali coperti da segreto militare.

GENERARE IMMAGINI. Il 5 gennaio 2021 la società OpenAI lancia Dall-E, un software capace di generare qualsiasi immagine sulla base di una breve descrizione. Hanno funzioni analoghe Stable Diffusion e MidJourney, entrambi lanciati nel 2022. Un paio di mesi dopo il lancio, un’opera generata da MidJourney vince il primo premio per il concorso di arte digitale della Colorado State Fair.

Come scrive Vanni Santoni su L’Essenziale, in molti casi il risultato è indistinguibile da un’opera umana. Il tutto, per di più, avviene in pochi secondi: con un’oretta a disposizione, un bozzettista con una mezza idea in testa può generare letteralmente centinaia di immagini ad alta definizione.
L’unico problema è la riproduzione delle mani umane: le immagini di mani che l’AI pesca in rete sono spesso poco dettagliate o incomplete, e oltretutto le mani appaiono in mille prospettive diverse.  Così, insomma, l’AI fa confusione e, come mostra Buzzfeed, mette le dita a casaccio.

Nel gennaio 2023 tre artisti, Sarah Andersen , Kelly McKernan e Karla Ortiz intentano una causa per violazione del copyright contro Stability AI, Midjourney e DeviantArt, sostenendo violano i diritti di milioni di artisti.

MA L’INTELLIGENZA ARTIFICIALE HA UN’ANIMA? Intanto: nel giugno 2022 Blake Lemoine, ingegnere informatico di Google, dopo aver fatto una lunga chiacchierata con il software LamDa, una tecnologia di conversazione sviluppata dalla sua azienda, sostiene pubblicamente che l’AI è un’entità senziente e dotata di anima. Google lo licenzia in tronco.

GENERARE TESTI. Il 30 novembre 2022 la società californiana OpenAI lancia ChatGPT. È un software che simula conversazioni e risponde a domande, e lo fa cogliendo anche le sfumature del linguaggio umano. Ci riesce utilizzando il Natural language processing, e dopo che nel sistema sono stati immessi 300 miliardi di parole.
ChatGPT può esprimersi (e tradurre) in 95 lingue diverse. Può scrivere articoli, messaggi e pezzi di codice e può compiere analisi di mercato. A febbraio 2023 viene impiegata intensivamente per comporre messaggi di San Valentino, e anche il New York Times si inserisce nella tendenza. FastCompany commenta che in apparenza ogni mattina una nuova ricerca segnala che ChatGPT ucciderà qualcosa: posti di lavoro, SEO, copywriting, Google, creatività. Ora possiamo aggiungere il romanticismo all’elenco delle sue potenziali vittime.

PAROLE O IMMAGINI? Per imparare a usare MidJourney ci vuole almeno una mezz’oretta. Per usarlo bene sfruttandone le potenzialità, ci vogliono più tentativi e assai più tempo (e bisogna che i prompt, cioè le istruzioni, siano in inglese). ChatGpt è immediata: basta fare il login e digitare un qualsiasi quesito inserito in una finestrella. Il software risponde in ottimo italiano. Perfino il tono di voce (cioè, la sfumatura relazionale che i testi assumono in base alla scelta delle parole, al ritmo e alla punteggiatura) è rilassato e piacevole.
Provo a chiedere direttamente a ChatGPT se l’AI è più a suo agio con le parole o con le immagini. Risponde che il linguaggio umano è più complesso e ambiguo e che elaborare immagini è più facile (anche se, beh, resta sempre quel problemino con la rappresentazione delle dita).

DIRETTO, ESPLICITO E SEMPLICE. TikTok impiega nove mesi dal momento del lancio, nel 2016, per raggiungere 100 milioni di utenti. A Instagram sono serviti circa due anni e mezzo per ottenere lo stesso risultato. A ChatGPT bastano due mesi: ha già circa 57 milioni di utenti a dicembre 2022, e va per i 100 milioni di utenti attivi a gennaio 2023. 
L’accesso all’intelligenza artificiale più evoluta, e la possibilità di usarla per fare un sacco di cose, non è mai stato così diretto, esplicito e semplice per chiunque. È ovvio che tutti ne parlino. È altrettanto ovvio che molti pensino a come guadagnarci sopra. E che molti altri si preoccupino delle conseguenze a breve o a lungo termine (diciamolo subito: quelle a lungo termine restano piuttosto imprevedibili).

... E LE CONSEGUENZE? Secondo Statista, sull’intelligenza artificiale nel 2021 si sono spesi poco meno di 100 miliardi di dollari.
Agli inizi del 2023 Forbes scrive che ChatGPT scuote il settore, aggiunge che è difficile sottovalutare la portata e l’influenza del suo successo e si affretta a pubblicare i nomi delle sette tech companies su cui conviene investire, per poi concludere che, dopotutto, per investire bene sull’AI converrebbe farsi consigliare dall’AI medesima.
In realtà, l’unico dato di fatto è che siamo realmente di fronte a un cambiamento le cui conseguenze, in termini di rischi, di benefici e di potenzialità, in buona parte ci sfuggono ancora.
Proverò a raccontare qualcosa di tutto ciò nei due prossimi articoli.

Questo è il primo di una serie di articoli sull’intelligenza artificiale.
Il secondo dice, in parole semplici, come l’IA funziona: Ma l’intelligenza artificiale è “intelligente”?

Il terzo dà conto dei rischi: Allarmi sull’IA: troppi o ancora troppo pochi?
Il quarto parla di norme e garanzie che, a oggi, sono pressoché inesistenti: Norme per l’IA: come agiscono, quali mancano
L’immagine che illustra questo articolo è stata realizzata con Midjourney da Maria Korolov.

18 risposte

  1. complimenti Annamaria. Spero che uno degli altri due articoli tocchi il tema della “creatività artificiale” (CreAItivity) e di come l’interazione tecnologie, Ai, e creatività umana possano generare nuovi output creativi. Il tutto scritto in stile “A.T.”

  2. Finalmente una boccata d’aria fresca da chi sa destreggiarsi sapientemente con i pensieri e le parole, e ci illumina con competenza e chiarezza a noi poveri cavernicoli abbagliati dall’ignote nuove macchine. Chissà se le macchine impareranno anche dallo scarto, all’errore umano che apre, per le “menti pronte” nuovi inaspettati gesti creativi. Brava e bentornata cara Annamaria.

  3. Finalmente un articolo chiaro, che veramente orienta in questo difficile campo. Attendo i prossimi. Chissà se ChatGPT sa scrivere con uno stile così cristallino come quello di Annamaria? Ho i miei dubbi…

    1. ahah, grazie, ma devo dire che la qualità della scrittura di ChatGPT è davvero, mediamente, migliore delle attese.
      E l’AI ci mette un paio di minuti a scrivere cinque paragrafi, mentre questo articolo mi è costato più di una settimana di lavoro, ricerca, confronto e controllo delle fonti, revisioni.
      Insomma: la tentazione di scrivere un quesito, premere il tasto “invia” e mettersi comodi può essere grande.

  4. Buongiorno Annamaria, articolo informativo al cento per cento, ben scritto e davvero illuminante. Una cosa non mi è però chiara: io, uomo della strada, che devo fare per poter usare ChatGPT? Abbonarmi all‘interno di un sito web dedicato? Comprare un‘app? Grazie di un suo feedback.

  5. Fino a ieri bastava cercare ChatGpt, entrare nel sito, lasciare qualche dato, fare login e formulare una domanda. Tutto gratis.
    Non ho ancora provato la nuova versione, che è stata appena rilasciata.

  6. Due riflessioni veloci.

    1. Più mi informo sull’intelligenza artificiale e più sento l’urgenza di definire meglio di oggi cosa si intenda per “intelligenza”. Ho la sensazione che la domanda “Ci siamo? Supera il test di Turing?” abbia come risposta un paletto che si sposta sempre più in là: “questa non è *vera* intelligenza, perché non ha la consapevolezza di quello che fa” si diceva cinquant’anni fa delle calcolatrici tascabili, ma oggi vale lo stesso?

    2. Sono rimasto molto deluso dalle “allucinazioni”[1] di ChatGPT: a volte inventa le informazioni di sana pianta, altre volte sono approssimative. Non sono mai riuscito a convincerlo, per esempio, che 1981 non è primo, ma potrei fare molti altri esempi. Passare una settimana a cercare le fonti non è certo una perdita di tempo, se l’alternativa è un sistema affidabile quanto un clickbait.

    [1] https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)

    1. Ciao Marco.
      Grazie per aver sollevato questo tema. Parlo di intelligenza (e anche di allucinazioni) nel secondo articolo di questa serie (ovviamente per quanto se ne può parlare in un articolo, anche se lunghetto come questo).
      Lo pubblico nei prossimi giorni.

  7. Bentornata Annamaria! Ci sei mancata. E ovviamente, sei tornata alla grande: post e argomenti super utili e interessanti, come sempre.

Lascia un commento

MENU
I post di NeU Risorse sulla creatività
Clicca per leggere le prime pagine 
TUTTO NEU
Creative Commons LicenseI materiali di NeU sono sotto licenza Creative Commons: puoi condividerli a scopi non commerciali, senza modificarli e riconoscendo la paternità dell'autore.
RICONOSCIMENTI
Donna è web 2012
Primo premio nella categoria "Buone prassi"
Primo premio nella categoria "Web"
Articoli di NeU sono stati scelti per le prove del 2009 e del 2019
creatività delle donne_CHIMICA

Creatività delle donne e patriarcato

Non possiamo smettere di parlarne. Dunque provo a raccontarvi come pregiudizi e stereotipi, sostenuti da oltre tre millenni di patriarcato, hanno impedito e tuttora ostacolano

Ops. Hai esaurito l'archivio di NEU.