Intelligenza artificiale: ma di cosa stiamo parlando?

(Articolo pubblicato in anteprima su AgendaDigitale.eu)

Intelligenza Artificiale (IA o AI all’inglese): uno degli ultimi “hype” del mondo digitale. Dopo i primi grandi computer, il personal computer, il mobile computing, i sistemi esperti (prima “stagione” dell’AI), internet, i social media, l’IoT, il cloud computing, blockchain, il metaverso… ora è il momento del ritorno dell’Intelligenza Artificiale. Che non è un attore nuovo, perché i già citati “Sistemi Esperti” sono stati i primi casi di successo dell’AI, anche se erano sistemi a regole e non sistemi probabilistici come l’AI generativa. Dagli anni 70, dopo i successi dei Sistemi Esperti, venne il grande inverno dell’AI… ed ora eccoci qui tutti impazziti per i vari Claude, ChatGPT, Copilot, Gemini.

Ormai non c’è convegno in cui non si parli di AI, non c’è articolo (incluso questo) che non abbia “Intelligenza Artificiale” nel titolo, non c’è rivista di settore (e non) che possa fare a meno di spendere pagine e pagine sul tema. Per non parlare dei libri che proliferano: libri di tecnici e di esperti di AI, libri di filosofi, libri di psicologi, persino libri di teologi, tutti accumunati dal fatto di parlare di AI. Non sarà un po’ troppo?

Ci sono segnali che mostrano che forse siamo già nella curva discendente dell’Hype-cycle: Gartner, ad esempio, ormai mette l’AI generativa al confine tra il “Peak of inflated expectations” e il “Trough of Disillusionment”[1], mentre Luciano Floridi ha recentemente pubblicato un articolo dal titolo eloquente: “Why the AI Hype is another Tech Bubble”[2].

Anche se, da un altro punto di vista, questo parlare di AI per sottolineare che si tratta di un hype, di una “tech bubble”, è ancora un modo per alimentare il fiume di parole sull’AI. Un fiume di parole a volte interessante, raramente illuminante, spesso vacuo e sconcertante. Ad un recente congresso a cui ho partecipato un relatore ha sostenuto che con i LLM[3] (AI generativa), possiamo fare a meno dei CRM[4] (sistemi di gestione della relazione con i clienti). Ora, a parte il fatto che si tratta in entrambi i casi di acronimi di tre lettere, credo che l’affermazione sia per lo meno azzardata. È come dire che se mi compro una Tesla posso fare a meno della casa. Che l’AI generativa possa dare un contributo alla gestione della relazione con i clienti sotto forma di assistant, copilot, bot è indubbio, che il CRM sia riducibile a questi temi, denota una carenza totale di comprensione di ciò di cui si sta parlando, sia lato AI che CRM. Ma nella follia isterica in cui siamo e in cui tutti parlano di tutto, ci sta che i Large Language Model o LLM (base dell’AI generativa) possano sostituire tanti altri acronimi di tre lettere: gli LMS[5], le API e gli SDK[6], ma anche i CIO[7] e forse i CEO[8]. Del resto, qualche tempo fa qualcuno non teorizzava che con gli Smart Contracts e le DAO (altro acronimo di tre lettere), ossia le Decentralized Autonomous Organizations[9], avremmo potuto fare a meno di tutta la gerarchia aziendale? Scusate l’abbuffata di acronimi, ma credo renda l’idea della confusione in cui ci troviamo. Ma quindi, di cosa stiamo parlando?

Di cosa stiamo parlando?

Condivido con voi un esperimento che faccio quando mi capita di tenere una lezione a qualche master. Ovviamente il mio intervento, nel titolo o nell’agenda, include le paroline magiche: “Intelligenza artificiale per…”, “Come applicare l’Intelligenza Artificiale a…”. Quindi sì, faccio outing, anche io sono colpevole di alimentare il chiacchiericcio sull’AI. Per ragionare sul “di cosa stiamo parlando” prendo un brano che parla di AI (Artificial Intelligence) o di IA (Intelligenza Artificiale) e sostituisco il termine AI o IA con “servizi digitali”, “digitale”, “trasformazione digitale”… Ecco per esempio un brano preso dall’”AI Competence Framework for students” dell’UNESCO (a sinistra la versione originale, a destra quella alterata):

In questo caso, ma succede quasi sempre, non solo il brano è leggibile anche in questa seconda versione, ma ha forse ancora più senso che nella versione originale. Parlare di AI, se non lo facciamo in modo superficiale, è un’occasione per parlare degli impatti della tecnologia sulle organizzazioni, di change management, di come misurare il valore degli investimenti tecnologici, delle metodologie che vanno scelte caso per caso (lean, agile, PM tradizionale o ibrido, design thinking…), di sicurezza, di impatto sociale, di cultura digitale e di reskilling, di portfolio management, di governance e di tanti altri temi fondamentali. Ecco, se parliamo anche di questo, non è tempo sprecato parlare di AI.

Leggi e paradossi

L’AI è diventato ormai un catalizzatore di riflessioni sulla tecnologia e sull’evoluzione accelerata che stiamo vivendo. Per millenni l’evoluzione è stata molto lenta, ma negli ultimi decenni l’accelerazione è evidente.

R. Kurzweil, geniale e controverso futurista e inventore, ha coniato la “law of accelerating returns” per spiegare che l’evoluzione tecnologica segue una curva esponenziale che ci condurrà alla singolarità:

Non voglio fare considerazioni sulla singolarità, evento mitico o mitologico in cui le leggi dell’universo conosciuto non varranno più e la superintelligenza artificiale verrà creata. Non voglio nemmeno fare previsioni sulla tecnologia, perché in questo ambito più che in altri il numero di previsioni sbagliate è impressionante e divertente[10]. Personalmente non credo nella superintelligenza artificiale cosciente. Sono più vicino a Floridi che a Kurzweil e credo che, come sostiene Floridi in “Etica dell’Intelligenza Artificiale”[11], l’AI sia più una nuova modalità dell’agire che dell’intelligenza. Infatti, con i nuovi strumenti di AI, abbiamo trovato il modo di scindere l’intelligenza dalla capacità di agire in modo intelligente. Abbiamo costruito macchine che agiscono in modo intelligente (o che noi definiamo intelligente) senza avere la minima idea di quello che stanno facendo. È la vittoria della sintassi sulla semantica. Chiunque abbia “dialogato” con uno dei tanti tool di AI generativa sa bene di cosa sto parlando. La loro capacità di intrattenere una conversazione su qualsiasi argomento è impressionante, benché non abbiamo nessuna comprensione della semantica sottostante. Sono però bravissimi a gestire la sintassi e a concatenare, grazie a enormi quantità di dati e a interpolazioni statistiche, parole e concetti senza senso per l’AI ma assolutamente sensati per noi. Ecco, quando parliamo di AI a mio parere parliamo dell’evoluzione della specie umana, dove la tecnologia sta occupando un posto sempre più importante. Questo cammino ci porterà verso un nuovo modello di uomo e di società, magari vicino al concetto di “noosfera”[12] di T. De Chardin, oppure all’apocalisse? Lo scopriremo vivendo…

Non ho risposte, ma farei tre considerazioni.

  1. La prima è che le innovazioni tecnologiche, come insegna l’hype cycle di Gartner, di solito cominciano a produrre valore quando non se ne parla più molto e scendono dal “peak of inflated expectations”. Quindi, per vedere i primi frutti maturi delle applicazioni di AI, bisognerà probabilmente aspettare qualche anno. Chi avrà la costanza di investire sull’AI in modo metodico, prudente e strutturato coglierà dei frutti concreti. Gli altri butteranno via tanti soldi ed energie. Il “plateau of productivity” arriverà, ma non è ancora qui, nonostante i tanti proclami di mirabolanti risparmi in ore uomo o di licenziamenti dovuti all’AI.

 

  1. La seconda considerazione è che la nostra capacità di governance di questi fenomeni sarà la chiave del nostro futuro. Mi piace qui citare un autore che amo molto:

 

«Il mondo della tecnica e le sue forze scatenate non potranno essere dominati che da un nuovo atteggiamento che ad esse si adatti e sia loro proporzionato. L’uomo è chiamato a fornire una nuova base di intelligenza e di libertà che siano, però, affini al fatto nuovo, secondo il loro carattere, il loro stile e tutto il loro orientamento interiore. L’uomo dovrà porre il suo vivo punto di partenza, dovrà innestare la sua leva di comando là, dove nasce il nuovo evento.» (R. Guardini – Lettere dal lago di Como)

Poche parole sono più attuali di queste: per governare l’intelligenza artificiale (ossia, come abbiamo visto, l’evoluzione digitale) serve una “nuova base di intelligenza”. Qui nessuno ha la ricetta, molte organizzazioni internazionali si stanno muovendo (in primis l’Europa con il suo AI Act), ma l’impressione è che serva un accordo planetario che includa anche i due grandi produttori di tecnologie di oggi, ossia USA e Cina.

 

  1. La terza considerazione è che ora più che mai serve tornare ad una “fusione di saperi”, come succedeva ad esempio nel medioevo, quanto la distinzione tra i saperi e la loro specializzazione non era così netta. Non penso solo ai grandi intelletti del medioevo, così ben rappresentati dal personaggio fittizio di Guglielmo da Baskerville del Nome della Rosa. Gugliemo da Baskerville, teologo e filosofo ma anche un po’ scienziato, si ispirava a Guglielmo di Occam[13], che ci ha lasciato uno dei principi più importanti per guidare la ricerca scientifica, il famoso “rasoio di Occam”. Oppure Alberto Magno, Ruggero Bacone e tanti altri, che univano la cultura umanistica allo studio scientifico della natura. Ma anche, più umilmente, i notai bolognesi del XIII e XIV secolo[14]. Non tutti sanno che molte delle più importanti rime in volgare (ad esempio di Guinizzelli o di Dante) sono state ritrovate nei libri dei notai bolognesi. Infatti, quando avevano una pagina bianca da riempire, invece che tracciare una riga copiavano una poesia. Anche questo un bell’esempio di ibridazione di saperi.

 

Concludo con una grande domanda, la cui risposta (che non ho) è il predittore più importante di come si evolverà il nostro futuro: la velocità con cui noi come specie sapremo evolvere le nostre capacità di governo sarà adeguata alla velocità dell’evoluzione tecnologica? È il paradosso della Legge di Martec, che dice che “La tecnologia evolve ad una velocità esponenziale mentre le organizzazioni umane e sociali evolvono alla velocità logaritmica”.

La legge di Martec si basa su due fatti: l’evoluzione esponenziale della tecnologia (si veda la “law of accelerating returns”) e la lentezza con cui le organizzazioni umane cambiano. Sul primo punto non possiamo essere certi che continui all’infinito, potrebbe esserci uno stop o un rallentamento, però in assenza (speriamo) di catastrofi verosimilmente è un trend che continuerà. Mentre sulla capacità di evoluzione e di cambiamento delle organizzazioni, penso che chiunque abbia lavorato in un’organizzazione di medie grandi dimensioni sa di cosa sto parlando. Forse le nostre organizzazioni (in senso lato: aziende ma anche nazioni ed entità sovranazionali) non sono più adatte al compito di governare certi fenomeni? Dobbiamo ristrutturare tutto in modalità più “agile”?  Anche su questo, come ho scritto in altri articoli[15], potremmo paradossalmente prendere spunto dal medioevo e dal Signore degli Anelli

[1] https://www.gartner.com/en/newsroom/press-releases/2024-08-21-gartner-2024-hype-cycle-for-emerging-technologies-highlights-developer-productivity-total-experience-ai-and-security

[2] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4960826

[3] Large Language Models, la base dell’AI generativa, anche se si dovrebbero ormai chiamare Foundation Models.

[4] Customer Relationship Management, ossia un Sistema di gestione delle relazioni con i clienti.

[5] Learning Management Systems: l’AI come sostituto delle piattaforme di eLearning

[6] Application Programming Interface e Software Development Kit, strumenti fondamentali nello sviluppo software

[7] Chief Information Officer: il Direttore dei Sistemi Informativi serve ancora con l’Intelligenza Artificiale?

[8] Chief Executive Officer, o amministratore delegato. Serve ancora in un mondo governato dall’AI?

[9] https://en.wikipedia.org/wiki/Decentralized_autonomous_organization

[10] https://www.forbes.com/sites/robertszczerba/2015/01/05/15-worst-tech-predictions-of-all-time/

[11] https://www.raffaellocortina.it/scheda-libro/luciano-floridi/etica-dellintelligenza-artificiale-9788832854091-3667.html

[12][12] https://www.teilhard.it/noosfera

[13] https://it.wikipedia.org/wiki/Guglielmo_di_Occam

[14] https://www.treccani.it/enciclopedia/memoriali-bolognesi_%28Enciclopedia-Dantesca%29/

[15] https://www.agendadigitale.eu/cultura-digitale/lorganizzazione-agile-chiave-dellevoluzione-digitale-cosa-possiamo-imparare-dai-monasteri-benedettini/

https://www.agendadigitale.eu/cultura-digitale/digital-evolution-la-lezione-delle-cattedrali-romaniche/

https://www.agendadigitale.eu/sanita/governance-della-trasformazione-digitale-cambiare-approccio-col-metodo-gandalf-ecco-come/

Lettera ai miei figli sul futuro dell’Intelligenza Umana ai tempi dell’intelligenza artificiale: il modello Start Trek (serie classica e TNG)

Intelligenza umana e intelligenza artificiale: competizione o collaborazione? L’intelligenza artificiale soppianterà le competenze umane o le complementerà?  In questa lettera ai miei figli propongo un modello, non nuovo: quello di Star Trek (serie Classica e TNG).

Leggi tutto “Lettera ai miei figli sul futuro dell’Intelligenza Umana ai tempi dell’intelligenza artificiale: il modello Start Trek (serie classica e TNG)”