Dialogo con Marco Passarotti – #3

Questa è un’intervista molto particolare, non solo per il tema, ma soprattutto perché per la prima volta era presente tutto lo studio, in occasione del nostro consueto Aper-ELLO! Davide introduce tema e ospite a tutti.

Davide

L’intelligenza artificiale è sotto gli occhi di tutti, ma come viene trattata è un disastro totale. Uno dei pochi in giro che possa parlare con cognizione di causa di questo tema è lui, il Prof. Passarotti, che insegna Linguistica computazionale all’Università Cattolica di Milano. 

Questo incontro di oggi diventa un dialogo, aperto alla comunità, che ha come tema la cura. La cura abbinata al concetto di design, al concetto di progetto e cultura del progetto. Per cui vedere come la cura può diventare una modalità di affrontare la vita. 

Siccome la linguistica, il linguaggio, la parola, il verbo sono il senso stesso della vita, se non la vita, vorrei che approfondissimo questo concetto.

 

Marco

Uno dei lemmi della vostra Regola afferma: “Il punto di partenza del nostro saper fare è la parola. Il linguaggio determina le conoscenze, le relazioni, i valori dell’uomo: è la fonte e il manifesto del pensiero.” La linguistica è la disciplina che si occupa di come funziona il linguaggio umano. Il linguaggio non è qualcosa di vano, ma  qualcosa che determina il nostro saper fare… è precisamente il punto di partenza. In questo momento noi stiamo usando una comunicazione verbale che auspicabilmente ha un mittente e un destinatario che si comprendono. 

Studiare il linguaggio umano è per me la disciplina più umanistica che esista. Più della letteratura che è un’applicazione del linguaggio umano. Più della storia, che è raccontata attraverso il linguaggio umano. Noi siamo gli unici esseri viventi su questa terra che parlano, scrivono, si esprimono verbalmente. Cercare di capire come funziona questo straordinario strumento che tutti noi usiamo quotidianamente, senza renderci conto delle enormi attività cognitive che facciamo, significa entrare nell’intimo di noi stessi. 

 

Davide

E come si inserisce la linguistica computazionale nel confronto intimo con noi stessi?

Marco

Negli ultimi anni abbiamo avuto uno straordinario testimonial [ndr: mostra il telefono cellulare]. Qui dentro c’è un sacco di linguistica computazionale. 

Le vere rivoluzioni tecnologiche sono quelle di cui non ci si accorge, perché non sono faticose, entrano a far parte della tua vita e le dai per scontate. Quando voi scrivete un messaggio su WhatsApp e ve lo corregge, o addirittura vi prevede quello che viene dopo, e spesso ci azzecca, quella è linguistica computazionale. È entrata nella nostra vita, è diventata patrimonio di tutti. 

L’intelligenza artificiale è una straordinaria manifestazione di trattamento automatico del linguaggio. Perché nel momento in cui io mi interfaccio ad un chatbot, come può essere ChatGPT, con cosa mi interfaccio? Con la lingua. ChatGPT non inizia a parlare da solo, inizia a parlare rispondendo ad un prompt, cioè a una domanda, a una richiesta, a un’indicazione. L’intelligenza artificiale si chiama generativa, non a caso, perché genera sequenze di parole: è uno straordinario strumento di trattamento automatico del linguaggio. 

Precedentemente l’esempio che facevo era Google. Tutti noi abbiamo imparato, learning by doing, a fare le query e sappiamo, anche se nessuno mai ce l’ha detto, che nelle query di Google non dobbiamo mettere le function words, che neanche sappiamo cosa sono: articoli, preposizioni, congiunzioni,  verbi ausiliari. Si inseriscono solo le parole chiave.

Se prima, con sistemi di ricerca come Google, ci “accontentavamo” di informazioni, adesso, grazie all’intelligenza artificiale e ai sistemi chatbot tipo ChatGPT, possiamo ottenere conoscenza.

E l’intelligenza artificiale ci stupisce, ci spaventa, perché agisce usando lo strumento che più ci definisce come esseri umani e più ci distingue da tutte le altre specie: la lingua. 

Ma per la prima volta, e questo è interessantissimo, stiamo vivendo la dissociazione fra il linguaggio e il pensiero. Tendiamo ad umanizzare l’intelligenza artificiale perché si comporta come noi nel linguaggio. Se ad esempio poniamo la stessa domanda a ChatGPT adesso e tra un’ora, il contenuto della risposta probabilmente sarà lo stesso, ma la forma sarà diversa, non userà le stesse parole: frasi più lunghe, frasi più brevi, vocaboli diversi… come noi umani. 

Per la prima volta abbiamo a che fare con un’entità che non è un essere umano e che si comporta verbalmente in modo simile a noi, ma che ha una dissociazione fra il linguaggio e il pensiero che non ha. Siamo abituati a pensare che le parole esprimano i pensieri di chi le pronuncia. L’intelligenza artificiale dissocia forma e contenuto: risponde, ma non comunica il proprio pensiero, perché non ce l’ha.

 

Guja

Sembra una vera e propria interazione umana, anche se uno dei due interlocutori non lo è.

 

Marco

Esatto! Perché l‘intelligenza artificiale si esprime, ma non pensa. E dobbiamo sapere che abbiamo a che fare con delle macchine che funzionano in modo generativo predittivo. Avrete sentito parlare del fatto che siamo nell’era della generative predictive AI. Per motivi di economia cognitiva, a volte parliamo senza fare uno sforzo cognitivo. Ai miei studenti faccio questo esempio: “Non mi ricordo quanti anni ha Demi Moore. Datemi un secondo che lo cerco su…?”

 

Tutti

Google, Internet.

 

Marco

Perfetto: data una sequenza di caratteri “lo cerco su..” ci sono parole che sono molto più probabili ad occorrere dopo. È molto più probabile che venga “Google” o “Internet”, che non bicchiere. Suona strano, non solo perché è semanticamente incoerente, ma perché tutti noi agiamo con sequenze di caratteri, spesso predeterminate, che ci portano a dire delle cose piuttosto che altre.

 

William

L’abitudine.

 

Marco

E l’abitudine è figlia di che cosa? Dell’addestramento, dell’esposizione: ostensione si chiama. Cioè, un bambino di 12 anni è osteso, è stato esposto, a circa 120-130 milioni di parole, che sembra tanta roba. I sistemi come ChatGPT vengono addestrati con centinaia di miliardi di parole. Nessun essere umano sarà mai esposto a quella quantità. Allora, date sequenze di caratteri, prevede la parola più probabile successiva, velocissimamente. E lo fa attraverso raw data: dati puri, parole, sequenze di parole. Qual è la più grande raccolta di parole? Internet. Ogni giorno, milioni e milioni di parole in migliaia di lingue.
Oggi il vero petrolio, la vera ricchezza, sono i dati. Chi possiede i dati ha una delle tre condizioni per sviluppare un Large Language Model, che è la conoscenza che sta alla base di un sistema di intelligenza artificiale. Un modello è definito come una rappresentazione astratta di un qualcosa. Una grammatica è un modello: è una rappresentazione astratta del funzionamento del linguaggio. Il Language Model sono modelli enormi, perché addestrati con i big data, che descrivono il funzionamento del linguaggio. Avere tanti dati è una delle tre condizioni per sviluppare un Large Language Model: tanti dati, algoritmi avanzati di addestramento, di machine learning, e potenza computazionale. Perché per processare miliardi e miliardi di parole, ci vogliono supercomputer. Questo processing è fatto attraverso le reti neurali, che funzionano per nodi e relazioni: nodi in input, le parole in input, e nodi in output, le parole in output. E tra loro ci sono dei nodi di mezzo, che si chiamano hidden layer, che sono simili ai nostri neuroni cerebrali e hanno relazioni fra di loro, edges, che corrispondono alle sinapsi.

 

Guja

Abbiamo sviluppato un modello uguale al nostro cervello.

Marco

Esatto. In Italia stiamo sviluppando un paio di Large Language Model dell’italiano a livello statale, insieme a Leonardo, il mega computer di Bologna: uno si chiama Minerva, l’altro si chiama Lamantino.

 

Daniele

Quello che penso, mi chiedo e non riesco a capire però è: va bene tutto, l’ostensione, il neural network, i raw data… Ma cosa c’è dentro il large language model? Cioè, ci sono delle regole? Cosa c’è dentro? 

Marco

Allora, la core knowledge di un large language model sono gli embeddings, che sono una rappresentazione in uno spazio vettoriale delle parole in base al loro comportamento nel corpus di addestramento. L’assunto di base è You shall know a word by the company it keeps.

 

Davide

Dimmi con chi mangi e ti dirò cosa sei. 

Marco

Esattamente. Facciamo un esempio. Vi dico una parola che non esiste: “parapalla”. Cosa pensate voi? E’ un nome femminile, non è un verbo né una preposizione: questo già dice che siete delle macchine straordinarie. Non sapete il significato di parapalla, però se vi dico che non sono un buon cuoco e che ieri sera, nonostante le mie minime abilità culinarie, ho cucinato un’ottima pasta aggiungendo semplicemente un po’ di parapalla dopo la cottura…

 

Daniele

Classico trucco. 

Marco

Ecco, lui mi ha dato una risposta che è totalmente coerente: il classico trucco della parapalla. Avete individuato alcune parole che io ho detto per capirlo. Non è “ieri sera”, non è stato “pessimo”. Sono state “culinarie”, “cucinato”, “pasta”. In base ai vicini, il significato di una parola che non avete mai sentito salta comunque fuori. 

 

Federica

Quindi è la precisione e la qualità nella scelte delle parole del nostro prompt che determinano la precisione e la qualità nella risposta del chat bot.

 

Marco

Certo. I Large Language Model sono basati sull’attenzione, Attention Based. Come fanno le macchine ad avere attenzione? Usando gli embeddings: vedono che in quella frase ci sono delle parole che portano quella frase in una certa area dello spazio vettoriale. E allora, se arriva una parola nuova, o se devono generarne una nuova, sarà collocata in quello spazio vettoriale. L’intelligenza artificiale generativa predittiva genera sequenze di parole prevedendo qual è il termine più probabile data una sequenza di parole. Si chiama autoregressive o causal generation. Autoregressive perché torna indietro, causal perché la generazione è causata da quello che viene prima. Quello che viene prima sono migliaia e migliaia di parole. Infatti un sistema di intelligenza artificiale non genera da solo, ma ha bisogno di un prompt perché se non ha una sequenza di parole da cui partire, non può generare nulla. Quindi scrivere un buon prompt significa scrivere una sequenza di parole che è la migliore per generare la risposta che volete.

 

Davide

È un arte.

 

Marco

E’ un’arte che va insegnata. Perché noi abbiamo a che fare con una macchina potentissima che può essere usata malissimo. Come tutte le tecnologie potenti, può essere usata molto bene e molto male. Ci si fan le guerre con e per questi mezzi. Inoltre, c’è il rischio che la maggior parte delle persone saranno utenti passivi dell’intelligenza artificiale. Questo è un problema enorme. “L’ha detto ChatGPT”, “me lo sono fatto fare da ChatGPT”. Io ho studenti che si fanno scrivere la tesi da ChatGPT. Questo non va bene? Dipende. Se lo studente ha fornito a un sistema di intelligenza artificiale contenuti innovativi e gli si è fatto mettere in forma, in forma migliore, ad esempio un testo in inglese da ChatGPT, è un uso intelligente di ChatGPT. Se poi lo rilegge e lo corregge ulteriormente, è un uso saggio di ChatGPT. Se noi cerchiamo di battere la macchina sulla conoscenza, non ce n’è. Il livello ultimo è la saggezza. La saggezza è la comprensione della conoscenza. Capire la conoscenza, interiorizzarla, farla propria e saperla applicare, fare la cosa giusta nel momento giusto. Quella lì è la saggezza. Ad oggi le macchine non hanno saggezza. Perché hanno dissociazione fra linguaggio e pensiero. Fra forma e contenuto.

 

William

Infatti volevo farti una domanda. Tu hai detto “ad oggi”: secondo te prima o poi la macchina riuscirà a essere anche pensante?

 

Marco

Non lo so. Io non metto limiti alla capacità della ricerca umana. Quindi non ti dirò mai di no, ma non vedo le condizioni al momento. Con la tecnologia attuale, non ci sono le condizioni perché questo avvenga. Rimane predittiva, generativa e analogica. Cioè quello che predice, quello che genera, è analogo a quello che ha imparato. È il suo limite. Non è creativa. Però appare creativa perché quello che ha imparato è talmente ampio che nessuno lo sa. E quindi sembra nuovo.

 

Erika

A me diverte molto giocare con i miei figli con Gemini. Perché la tipologia di domande che pongono per me è impensabile, il modo in cui riescono a dialogare per me è assurdo. Loro riescono a dialogare, io non riesco.

 

Marco

Perché lo trattano come un essere umano. Infatti un grandissimo problema è il fatto che molta gente li prende per essere umani. Nel momento in cui gli metti la semiotica, cioè metti questo strumento dentro a un umanoide, a un robot umanoide, e questo ti parla, c’è gente che si innamorerà.

 

Davide

Ma non c’è dubbio. Su questo tema sono già stati fatti diversi film. Però questa è la vittoria della macchina che rende simile l’uomo. Perché l’uomo non riesce a comprendere l’inganno.

 

Marco

È il test di Turing superato al massimo livello.

 

Daniele

Noi oggi siamo arrivati a questo punto sicuramente anche con l’evoluzione della capacità di calcolo delle macchine. Con la nascita dei nuovi sistemi quantistici, che ci permettono di avere una potenza di calcolo mille mila volte superiore a qualunque altro computer mai esistito, questa cosa una volta che verrà applicato al machine learning e all’intelligenza artificiale può dare i suoi frutti…

 

Marco

Non è un fatto di calcolo, è un fatto proprio di tecnologia. La tecnologia attuale non è fatta per la saggezza. Potrà elaborare velocemente, generare meglio. Però è stato dimostrato in un bellissimo paper pubblicato l’anno scorso su Nature che i sistemi di intelligenza artificiali addestrati su se stessi collassano. Mi spiego. Per addestrare un sistema, più dati ho meglio è. Gli attuali sistemi di intelligenza artificiale sono addestrati su dati presi dal web. Ad oggi, il web ha dei contenuti che sono all’80% prodotti da esseri umani. Cinque anni fa era il 99%. Fra un po’ di anni sarà ancora meno, al 50%. È stato dimostrato che nel momento in cui ho uno strumento straordinario che produce, che genera testi, e io produco miliardi e miliardi di parole fatte dal sistema di intelligenza artificiale e uso questi miliardi di parole per andare ad arricchire ed allargare il mio training set, alla terza generazione di questo giro collassano. Collassare è un termine tecnico, e vale a dire che tendono a concentrarsi sulla distribuzione probabilisticamente più alta, cioè parlano tutti nello stesso modo. Usano tutti le stesse parole, non c’è più varietà. La forza dell’essere umano è la creatività, è la varietà, è l’indeterminismo, è la capacità di fare, mettere insieme delle cose che non stanno assieme. La grandezza di Rimbaud è scrivere “A nera”, la sinestesia “a” e “nera” negli embeddings non erano vicini. Rimbaud, poeta, prende due cose che sono lontane, ma le unisce e le fa suonare. Questa è la creatività al più alto livello. Al più basso livello sono io che scrivo una lettera d’amore alla mia fidanzata. E accosto delle parole in modo forse un po’ banale, ma le ho accostate io.
Il linguaggio è una zona grigia. Nessun linguista serio vi dirà “questa è la regola”. La lingua è la cosa più democratica che ci sia. Sono i regimi che impongono la lingua in modalità top down. Imporlo dall’alto in basso non è il modo in cui una lingua funziona, è il modo in cui una lingua di regime funziona. Che è un’altra cosa.
Oggi dobbiamo essere saggi, perché le macchine sono più forti di noi a livello di conoscenza. Ma la saggezza è un collo di bottiglia molto stretto. Purtroppo temo che solo una piccola fetta della società potrà permettersi di essere un utente attivo dei sistemi di intelligenza artificiale. Questo socialmente è molto pericoloso, soprattutto se i sistemi di intelligenza artificiale sono in mano a 4 o 5 company nel mondo.

 

Davide

Allora, questo prendersi cura, questo design della cura, non è una strada per andare verso il concetto di saggezza?

 

Marco

Secondo me sì. Cioè è prendersi cura dell’essere umano e dei suoi tratti distintivi che sono due qua evidenziati: la saggezza, che ci distingue dalle macchine, perché è ciò che ci rende umani, e il linguaggio. Perché noi siamo pigri, la vita è basata sulla legge del minimo sforzo, che governa il mondo, tutti gli esseri viventi, persino le piante. Se possiamo delegare ad una macchina un compito, lo faremo. Se io posso andare a Roma col treno, lo farò. Le rivoluzioni industriali hanno generalmente portato nella nostra vita delle tecnologie che ci hanno alleggerito fisicamente la vita.

Questa è una rivoluzione industriale, una rivoluzione tecnologica, che però ha un impatto diverso, non sulla fisicità, ma sulla cognizione.

Se io posso delegare ad una macchina di scrivere una lettera, se posso delegare ad una macchina di leggere un libro per me, di tradurre un testo, io lo farò. Solo che progressivamente perderemo la capacità di farlo noi. Io non so più andare a Roma a piedi, ma i nostri antenati lo facevano.

Se noi deleghiamo il linguaggio di una macchina, deleghiamo il tratto più distintivo dell’essere umano.

E la gente non sa più leggere, non sa più scrivere, non sa più capire un testo scritto. Adesso con l’intelligenza artificiale sarà molto peggio se noi non implementiamo una pedagogia. Io, che sono un super formato sul linguaggio perché è il mio lavoro, mi accorgo – e per fortuna che mi accorgo – che le mie capacità linguistiche stanno diminuendo, ho meno lessico, ho meno attenzione. Il pensiero critico, che è quello che si perderà, è fatto di tre cose: l’attenzione, la memoria, e la capacità decisionale. Stiamo perdendo tutte e tre! Attenzione bassissima: dieci minuti, un quarto d’ora, i miei studenti dopo un’ora e mezza sono cotti. La memoria: non ci ricordiamo più niente. La nostra generazione aveva conoscenza, sapeva le cose. Ora non sappiamo più nulla, sappiamo dove andare a trovare la conoscenza, ma non ce l’abbiamo, non la possediamo. Capacità decisionale: se deleghiamo sempre ad una macchina di prendere decisioni per noi, non saremo più in grado di prenderle. Quindi avremo meno pensiero critico, e avendo meno pensiero critico saremo cittadini meno critici, e quindi meno liberi. Questo è un grandissimo problema ed è una sfida di libertà civile. Io sono assolutamente convinto. Il problema è che non lo faremo – io predico nel deserto – perché non ci sono le condizioni per farlo. Non abbiamo gli insegnanti che sanno come funziona.

 

Davide

Ti pongo una domanda. Immaginati che siamo nel 2035. Tutti usano l’intelligenza artificiale. Il nostro studio no. O meglio, cerchiamo di usarla senza subirla, applicando saggezza e spirito dell’anima, come ci siamo detti prima.
Questo approccio ti dà la possibilità di evitare il collasso in qualche modo, di trovare una fessura in cui entrare?

 

Marco

La fessura è evidente. Cioè, gli strumenti di intelligenza artificiale sono stati chiamati pappagalli stocastici – stochastic parrots, Emily Bender. Il pappagallo ripete su base stocastica, cioè probabilistica, quello che ha imparato. È la sua forza ed è la sua debolezza. Ha un’apparente creatività perché comunque associa cose che noi non abbiamo mai visto, semplicemente perché non abbiamo la onniscienza. Però associa solo quello, oltre a quello nulla. E se il sistema di intelligenza artificiale si alimenta di se stesso, si stringe sempre di più, collassa.

 

William

La saggezza è l’unica condizione per comprendere ciò che ci circonda, o ce ne sono altre?

 

Marco

Non lo so, mi è difficile dirlo. Io dico che è una condizione necessaria. Cioè comprendere la conoscenza è una condizione necessaria per poter generare nuova conoscenza. È la base di tutto. Se tu non hai compreso non generi.

 

Davide

Questo è interessante, perché il tema che uno sa ma non capisce è terribile. Uno può sapere tantissime cose senza capire.

 

Erika

Nella scuola di mia figlia lavorano molto sull’etimologia delle parole. Ad esempio, adesso sta studiando storia e gli spiegano che cos’è un antropologo, cos’è un archeologo. Questo gli dà il senso del perché una parola è così, aprendole la conoscenza. Poi usano il dizionario. Quando mi hanno detto di comprarlo mi sono emozionata.

 

Marco

Tra l’altro il prossimo anno si farà una nuova rivoluzione. Perché in università, come immaginerete, i professori arrivano in aula, hanno le slide e iniziano a parlare. Io non le uso più, le uso solo per me. Altrimenti gli studenti confondono le slide con il libro di testo. E questo è deleterio. Quindi adesso io entro e inizio a parlare. Guardo io le slide, loro devono prendere appunti e addirittura, cosa rivoluzionaria, gli darò un libro da studiare. Tutto lo devono leggere, dall’inizio alla fine. Devono leggere perché i miei studenti della magistrale non sanno leggere un libro.
La mia sensazione è che la punta della piramide sia molto più alta di un tempo, anche dei miei tempi, ma molto più stretta: i bravissimi sono molto meno, ma sono pazzeschi, perché sfruttano tutte le opportunità del tempo contemporaneo. Poi, scendendo, la media è più o meno, dal punto di vista quantitativo, simile a quella di allora, ma è più bassa come qualità, mentre la parte bassa, ai miei tempi non si sarebbe iscritta all’università.

 

Erika

Le istituzioni invece normano eticamente questo genere di tecnologia? A livello di Unione Europea.

 

Marco

Allora, c’è l’AI Act (Artificial Intelligence Act), che è stato pubblicato dalla Commissione Europea. E alla Commissione Europea lavorano eticisti. Noi abbiamo uno molto bravo in Cattolica, che insegna nel mio corso di laurea. Si chiama Enrico Panai e ha appena scritto un libro che si chiama “L’etica dell’AI spiegata a mio figlio” – è un dialogo con il figlio. Ed Enrico è molto bravo, lui lavora con la Commissione Europea sulle questioni etiche dell’intelligenza artificiale. Le più semplici, chiare, sono il cosiddetto data filtering, cioè si filtrano i dati in input ai sistemi di intelligenza artificiale in fase di addestramento, togliendo ad esempio contenuti razzisti, oppure discriminatori, o ancora tutta la parte di privacy. Cioè se voi chiedete a ChatGPT di fornirvi l’elenco dei nomi dei dipendenti dell’Università Cattolica del Sacro Cuore, che sono stati assunti tra il 2000 e il 2021, non ve lo dà. Non può darvelo perché i dati sono filtrati, non perché non vi abbia accesso – Google ha accesso, ma non può usarli. Quindi si sta iniziando adesso, ma siamo ancora nel far west assoluto. E’ come arginare il mare con una scopa. Non puoi ad esempio vietare a uno studente di scrivere la sua tesi con il supporto di sistemi di intelligenza artificiale, piuttosto evitare che lui o lei lo faccia senza mettere niente di suo. Ma il vero punto dovrebbe essere formare i ragazzi in modo tale che non ci arrivino neanche a pensare una cosa del genere.

 

William

Sono abbastanza scettico su quest’ultima cosa che hai detto.

 

Marco

Ma sì perché gli studenti cattivi e gli studenti bravi ci saranno sempre. Ai miei tempi c’erano quelli che pagavano dei professori in pensione per scrivergli le tesi. Noi dobbiamo appassionarli a una disciplina, far capire loro che studiare è un valore aggiunto nella società.

 

Guja

Ma ci sono dei sistemi che riescono a capire se un testo è stato scritto dall’intelligenza artificiale? Cioè, ci può essere un controllo potenziale sulle tesi?

 

Marco

Diciamo che un buon professore legge due righe e capisce subito se questo non l’ha scritto lui. Ma ci sono certamente dei sistemi di plagiarism detection, che ritrovano in automatico il plagio. Perché per certi versi ogni produzione di un sistema di intelligenza artificiale è un plagio. Quindi sì, ci sono dei sistemi, ma un buon professore lo capisce perché conosce i suoi studenti e sa cosa possono dare. L’ultima mia studentessa, Ginevra, la più brava che abbia mai avuto, secondo me già a 24 anni scrive un articolo da sola meglio di ChatGPT. Ma Ginevra è un fenomeno. Cioè ce n’è una ogni dieci anni.

 

William

La punta della piramide.

 

Marco

La punta della punta della piramide. Turbo nel cervello. Fenomenale.

 

Sofia

Volevo porre un’ultima domanda in chiusura del dibattito, anche se non penso abbia una risposta. Secondo te oggi c’è una metodologia di narrazione adatta a raccontare il cambiamento attuale nella società? Nel senso, io non penso che la letteratura sia in grado di stare dietro alla contemporaneità, ma non penso neanche che il cinema sia adatto come forma narrativa. Questa cosa mi ha particolarmente colpito perché pensavo che in quegli anni, la tecnologia fosse obsoleta, mentre la mente umana, essendo più creativa, potesse parlare di diversi concetti in modo molto più ampio e quindi stimolare di più l’interesse del pubblico. Invece mi è stato confermato l’opposto…

 

Marco

Allora, il cinema secondo me non è del tutto fallimentare. Ad esempio “Her” o “2001, Odissea nello spazio” con HAL. HAL è pazzesco perché è un sistema di intelligenza artificiale. Quello è il 1968, quindi c’è una visione futuristica incredibile. Però tu giustamente dici, quelli che raccontano il cambiamento contemporaneo. HAL è un film che guarda avanti, futuristico. Io non sono un artista, non ti so rispondere da questo punto di vista. Non conosco neanche tutte le possibili forme d’arte. Ho la sensazione che si debba raccontare il linguaggio in un modo diverso. Un po’ come fecero i futuristi. Poi non so come declinarlo questo. Però a un certo punto si arriva all’esasperazione del linguaggio con il verso e tutto. E poi c’è un impoverimento, una chiusura. Cioè il linguaggio lo abbiamo sfruttato talmente tanto che lo abbiamo destrutturato, distrutto con i futuristi. Quella è una forma di manifestazione della perdita di importanza della parola.

 

Erika

Sì, è vero. E anche solo l’idea, ad esempio, di dover scegliere qualcosa da leggere è quasi angosciante.

 

Marco

Guardate anche la fruizione della musica. I giovani non si ricordano più il titolo di una canzone. Io mi ricordo l’ordine delle canzoni di “Master of Puppets” dei Metallica, perfettamente. Perché avevo solo quel disco e lo ascoltavo cento volte. Quindi credo che si debba giocare un po’ su questa cosa, sul troppo non sfruttato e il poco valorizzato. Non so che forma d’arte, però vedo il messaggio da dare. Cioè vedo i contenuti nuovi, che hanno cambiato il modo di relazionarci all’arte stessa. Se consideriamo la musica, la letteratura, il cinema, noi ci relazioniamo a queste espressioni d’arte in un modo fortemente effimero. Perché l’effimero è ciò che governa la nostra vita, purtroppo, in questo momento. Quello che produce l’influencer ad esempio ha la vita di una mosca. Le parole di Dante hanno vita secolare.
Questa incoerenza che abbiamo tra avere delle vite più lunghe, ma dei prodotti più brevi, è qualcosa che secondo me l’arte dovrebbe rappresentare. L’arte per sua natura è duratura. Il capolavoro di Giotto sta lì da secoli.

 

Sofia

Secondo me viviamo in un periodo molto strano, anche in ambito lavorativo, perché quello che ci valorizza è la creatività, però è come se ci fosse un’omologazione di questa creatività.

 

Marco

Perché c’è un mercato che accoglie principalmente quello. Realtà come la vostra ad esempio servono a rompere, a uscire da questo schema, altrimenti si collassa verso la distribuzione più probabile. Voi lavorate nella creatività, questa è una grandissima cosa, ed è una creatività che può accostare in modo nuovo le informazioni. E quella roba lì è ciò che scarta rispetto all’intelligenza artificiale, altrimenti sostituirà anche voi.

 

Erika

Ci vuole anche resilienza.

 

Marco

Ci vuole resilienza, ci vuole culo, tanto. Ci vuole fede. Ci vuole confidenza nel farcela. Ci vuole una famiglia dietro che creda in te. Perché se i tuoi genitori ti dicono “oh, stai facendo una stupidata”, è difficile. Ci vuole un compagno o una compagna che ti capisce. Ci vogliono i soldi. Io ho potuto fare il ricercatore perché i miei la minestra me la mettevano se non ce la facevo. Perché ero figlio di un ricercatore che capiva la passione. Cioè, non è solo bravura. E anche tante condizioni. Poi mi è andata bene, però poteva andar male. Ma le condizioni me le hanno create loro. Devo sempre ringraziare loro. Avere un compagno o una compagna che capisce quando uno fa certi lavori che scartano e sono molto rischiosi, secondo me è importantissimo. Lo dice uno che l’ha persa la compagna a causa del lavoro. Io ho dedicato tutto al lavoro, e ho perso una famiglia. Poi me la sono ritrovata, per fortuna. Però è difficile avere anche compagni che diventano gelosi a volte della tua passione. Succede. Io mi sono sentito dire “Avrei preferito che mi tradissi con una donna, invece mi hai tradita con Lila [ndr. un progetto di ricerca dell’università Cattolica di Milano]”. Potevo stare con lei e mi sarei divertito.
Senti, vado. Vado perché… se no mi lascia anche questa!