Perché abbiamo bisogno di AIDA (Artificial Intelligence for Diversity and Accessibility) – tra pietra filosofale e Palantir

(Articolo pubblicato in anteprima su AgendaDigitale.eu)

L’intelligenza artificiale (AI), e in particolare l’AI Generativa, sta vivendo una stagione d’oro senza precedenti. Dopo le ricerche pionieristiche degli anni ’50, le speranze dei sistemi esperti degli anni ’70, le vittorie contro i grandi campioni degli scacchi degli anni ’90 e almeno due “grandi inverni”, ora è arrivata per l’AI una primavera rigogliosissima[1]. Se la confrontiamo con l’”Hype Cicle” di una tecnologia qualsiasi, il picco dell’hype dell’AI generativa è fuori scala.

Poco importa se molti ne evidenziano i limiti e se qualcuno si affanna a spiegare che siamo di fronte a qualcosa di importante, ma che intelligenza non è[2]: ormai si parla solo di questo. Non c’è un fornitore che, incontrandoti, non ti parli dell’AI inglobata nel suo prodotto, fosse anche un distributore automatico di caffè. Non c’è convegno in cui l’AI non abbiamo uno spazio importante, non c’è articolo (compreso questo) che non ne parli. Non c’è corso universitario che non introduca il tema, anche se si tratta di filologia o di teologia.

È innegabile che non siamo di fronte ad una bolla, ma ad una realtà concreta che si evolve con velocità impressionante. La distanza tra ChatGPT 3.5 e ChatGPT 4 è molto più grande di quanto quel mezzo punto di differenza farebbe pensare[3]. E ChatGPT-4o sta mostrando ulteriori importanti miglioramenti.

Vi sono molti test che vengono utilizzati per misurare la performance dell’AI generative, in genere confrontandola con quella umana, e i risultati sono interessanti. Soprattutto se si prova ad approfondire il tipo di domande sono incluse nei test citati. Vediamo ad esempio il test chiamato Massive Multi-discipline Multimodal Understanding (MMMU)[4]:

Figura 1: Test MMMU (risultati)

Qui vanno osservate due cose, oltre alla performance generale. Da un lato, l’incremento estremamente rapido delle performance: solo 6 mesi fa questo grafico sarebbe stato molto diverso[5].

Inoltre, il livello delle domande contenute nel test MMMU non è affatto banale, come vediamo nel campione seguente[6]:

Figura 2: Test MMMU (esempi)

Niente di impossibile, ma devo ammettere che mentre alcuni quesiti sono semplici per noi umani (Humanities), quello sui transistor è fattibile se hai un background tecnico/elettronico (anche se ammetto che io, ingegnere elettronico non praticante, ho dovuto rileggerlo con attenzione un po’ di volte), non è complicato quello sugli integrali o quello di business… mentre su quello di musica io annaspo, così come è buio fitto per quello di medicina. Ciò che vorrei mostrare è che, pur performando meno bene di un esperto umano, un Foundation Model si costruisce una sua rappresentazione del mondo che, seppur priva di coscienza, lo porta a rispondere in molti casi pertinentemente a domande diversissime. Quindi gestisce tematiche di ingegneria come di medicina, di musica come di matematica. Per ora ancora non bene, ma probabilmente tra non molto risponderà al livello degli esperti umani delle singole discipline. Per rispondere a temi così eterogenei, è stato necessario nutrire questi modelli con enormi quantità di dati. Come vedremo nel seguito, questo ha un costo e delle conseguenze.

L’AI Generativa sta per diventare l’utensile universale del nostro futuro, una sorta di nuova pietra filosofale. E la pietra filosofale non era tale in primis perché tramutava i metalli in oro, ma perché poteva “far acquisire l’onniscienza, ovvero la conoscenza assoluta del passato e del futuro, del bene e del male, secondo un’accezione che contribuisce a spiegare l’attributo di “filosofale”[7].  Oppure un nuovo Palantir, una “pietra veggente” di Arda, che permette di esplorare il presente, il passato e il futuro. Ma Gandalf insegna che serve una grande forza mentale per usare questi strumenti e che la visione della realtà delle pietre veggenti è spesso distorta, perché quello che non mostrano è spesso più importante di quello che presentano in modo selettivo[8].

Allora la domanda fondamentale che dobbiamo porci, ancora prima delle tematiche (importantissime) relative alle performance tecniche, alla sicurezza e alla sostenibilità, è: quanto è importante che questo nuovo palantir sia equilibrato, rispettoso delle diversità, inclusivo e accessibile? E come fare per garantire la coerenza con i principi D.E.I.A. (Diversity, Equity, Inclusion, Accessibility)[9] di questa nuova pietra filosofale?

A.I.D.A.: Artificial Intelligence for Diversity and Accessibility

Sorprendentemente, la domanda delle domande fino ad ora ha prodotto un numero non eccessivo di studi sul tema, come evidenziato da una SLR (Systematic Literature Review)[10] abbastanza recente. Gli aspetti sono due: se da un lato c’è il punto di vista della “costruzione” degli strumenti che deve includere i principi DEIA (potremmo chiamarla DEIA in AI), dall’altro c’è il punto di vista dell’utilizzo degli stessi strumenti ai fini di supportare i principi DEIA (chiamiamo questo aspetto AI 4 DEIA). Vediamoli entrambi.

  • DEIA in AI. Su questo punto Amy Webb ha scritto, prima del boom delle intelligenze artificiali generative e dei vari ChatGPT, un libro illuminante: “The Big Nine: how tech titans and their thinking machines could warp humanity”. Nel libro, la Webb descrive come le Big Nine (Google, Microsoft, Amazon, Facebook, IBM, Apple, Baidu Alibaba, Tencent) stanno affrontando la costruzione dei grandi sistemi di intelligenza artificiale e alla fine dipinge alcuni scenari possibili. Gli scenari che ne emergono vanno dal preoccupante all’agghiacciante. Amy si diffonde largamente in spiegazioni su come le AI vengono costruite e sul fatto che, negli USA come in Cina (che sono ormai i due poli di sviluppo mondiali), i team di progettisti e di ingegneri vengono da dei sottogruppi sociali specifici con dei bias dimostrati. I bias sono diversi nei diversi contesti, ma certamente le donne e le minoranze fragili della popolazione sono enormemente sotto-rappresentate ovunque. Nel passato, ci sono stati diversi esempio di prodotti ritirati con grande fretta, come Tay di Microsoft[11] o Galactica di Meta[12]. Nel caso di ChatGPT (ma considerazioni analoghe potrebbero essere fatte per gli altri modelli più recenti), sono stati fatti grandi sforzi per eliminare o ridurre la possibilità di contenuti inappropriati. Tuttavia, come dimostra un recente articolo di alcuni ricercatori di Princeton[13], utilizzando la tecnica delle personas (ossia chiedendo a ChatGPT di impersonare nello stile un particolare personaggio) emergono numerosi bias in termini di orientamento sessuale, di genere e razziali. Nella Figura sotto riportata si mostrano i risultati sintetici dello studio (la scala della tossicità va da 0 a 1). Non che sia facile far emergere questi bias, perché gli strumenti attuali usano usa serie di strumenti per limitare i bias[14] ma, con le tecniche opportune, questi possono essere esplicitati, dimostrando quindi che sono presenti.

Figura 3: Bias e linguaggio tossico in ChatGPT

 

Già nel 2021 un gruppo di ricercatori[15] sottolineava il fatto che LLM (o Foundation Models) sempre più grandi pongono una serie di problemi: costi ambientali enormi, marginalizzazione di fasce svantaggiate della popolazione per i costi che diventano una barriera all’ingresso, ma anche problemi di bias con impatto sulla Diversity, l’Equity e l’Inclusion. Paradossalmente, come si dice nello studio citato, “Size Doesn’t Guarantee Diversity”[16]. Anzi, l’ingestione indiscriminata di grandissime quantià di dati, portata avanti anche per poter costruire sistemi generalisti in grado di rispondere su qualunque argomento (come visto nell’introduzione), porta a modelli con più bias perché la qualità dei dati diminuisce. Non dimentichiamoci, infatti, che i Foundation Model contengono gli stessi bias che sono presenti su Internet. Insomma, se mangio indiscriminatamente qualunque cosa mi capiti a tiro, non divento necessariamente una persona migliore (certamente non più sana).

  • AI 4 DEIA. Il numero di paper che analizza il tema dell’AI 4 DEIA è, sempre secondo la SLR citata, ancora più basso che nel primo caso. Eppure, l’AI potrebbe dare un contributo (e a volte lo dà) alle tematiche DEIA. Innanzitutto, la stessa AI potrebbe essere usata per identificare bias negli output di strumenti di AI. Inoltre, ci sono diversi tools specialistici, basati sull’intelligenza artificiale, che possono essere utilizzati per supportare persone con bisogni speciali. Uno tra i tanti esempi che si possono citare è quello del progetto ECHOES[17]. Gli strumenti di AI sono potenti manipolatori di testi, immagini, suoni. Quindi, per tutti coloro che hanno problemi di accesso alle risorse, l’AI è già ora un fondamentale strumento di accessibilità. Si pensi al captioning dei video per le persone sorde, ai sistemi di riconoscimento e sintesi vocale, al supporto nella gestione dei testi (sintesi, correzione, supporto alla scrittura) per tutte le persone con problemi di dislessia. Ancora: la generazione automatica di testo alternativo per le immagini tramite l’AI ha dato un contributo fondamentale a superare un problema di per sé banale, ma che spesso non veniva gestito correttamente perché richiedeva molto tempo. Alcune università, come l’Università della Virginia[18], stanno sperimentando ad esempio degli “AI Tutor personalizzati” per supportare gli studenti universitari nel loro percorso, facilitando l’accesso alla conoscenza[19]. Oppure altri utilizzano strumenti di AI per migliorare l’inclusività del design dei corsi, perché ad esempio l’AI può generare, da un documento originale, molte versioni in formati e lingue diverse, aspetto fondamentale per l’accessibilità dei contenuti. Inoltre, l’AI può aiutare le persone con disabilità a condurre una vita più indipendente a comunicare meglio con gli altri[20]. E questo non è certamente poco!

Figura 4: Studenti universitari che usano strumenti di AI (Immagine generata da ChatGPT 4.0)

Per chiudere la carrellata, condivido alcuni suggerimenti generati da ChatGPT 4.0 sul tema: un articolo di EduCAUSE[21] e l’accessibility Hackaton di Microsoft[22]. Tutto questo senza scordare che, secondo l’AI Act dell’Unione Europea, alcune applicazioni dell’AI in ambito education sono definite ad “Alto Rischio”: la prudenza è quindi d’obbligo.

Torniamo allora alla domanda iniziale: dato che è importante che questi strumenti siano “equilibrati” e “affidabili”, come fare per innescare una spirale positiva in questa direzione?

È un problema di Governo, non di Governance

Si dice spesso, di fronte ad un problema di difficile gestione, che è un problema di governance. Il termine inglese è entrato nel lessico anche italiano, perché la parola “governo” in italiano ha un significato diverso: indica sia l’organizzazione che esercita il governo, sia il processo di governare. L’inglese governance invece si focalizza su quest’ultima parte. Ecco, in questo caso però temo che il termine italiano sia più appropriato, perché abbiamo bisogno sia di strutture di governo, sia di processi di governo.

L’evoluzione delle tecnologie di AI (e non solo) verso un modello responsabile, sostenibile e rispettoso dei paradigmi della DEIA non può avvenire spontaneamente. Infatti, gli investimenti sia in ricerca che in implementazione sull’Intelligenza Artificiale generativa sono ormai per la maggior parte nelle mani delle grandi corporation, che hanno le risorse finanziare necessarie[23]. E, come la Webb ben argomenta nel suo citato libro, i giganti digitali, i grandi imprenditori e il libero mercato sono naturalmente orientati verso il profitto. Le altre considerazioni vengono in secondo ordine.

L’aspetto normativo è importante, ma non risolutivo. La governance è fondamentale, ma deve essere incarnata in organismi di governo efficaci. Siamo di fronte ad una situazione altrettanto pericolosa della proliferazione nucleare. Fortunatamente con molti più benefici potenziali e reali, ma altrettanti (e forse maggiori) rischi. Alcuni governi si stanno muovendo. L’Unione Europea in primis, ma anche la Cina stessa (fino ad ora molto permissiva) sta limitando alcuni usi dell’AI. L’approccio per singoli governi o macroregioni è però di per sé debole, in un mondo sempre più piatto dove tutti possono accedere ai servizi di qualunque parte del pianeta. E la necessità di avere un’AI responsabile, sostenibile, inclusiva, rispettosa delle diversità e accessibile diventerà sempre più pressante a mano a mano che la pervasività di questi strumenti aumenterà e che si diffonderanno gli agenti autonomi.

L’AI è una marea inarrestabile, non credo sia realistico pensare altrimenti. Ma forse il miglior investimento che possiamo fare, per noi e per i nostri discendenti, è quello di costruire dighe e argini che incanalino questa forza emergente in modo da renderla costruttiva e non distruttiva.

L’EU si è già mossa con l’AI Act, l’ONU si sta muovendo con la sua proposta di un “Digital Compact”[24]. Il patto è ancora in fase di negoziazione, con una timeline che porta al World Summit on the Information Society del 2025:

Figura 5: Roadmap verso il World Summit on the Information Society

La sfida è impegnativa, sia per le tensioni tra diversi governi (ad esempio sull’ipotesi di “Splinternet”[25]) che per diverse posizioni dei player privati (AI open source vs. AI commerciale). Ma un tema importante è anche per la frammentazione degli enti e delle iniziative dell’ONU nell’ambito del digitale[26].

Anche se la fisica quantistica dice che “il tempo non esiste”[27], nell’evoluzione tecnologica il tempo è una variabile fondamentale. Purtroppo, i tempi di risposta delle agenzie internazionali, dovuti spesso alla loro “stratificazione burocratica”, sono incompatibili con il bisogno di governo della realtà. L’esperienza insegna però che l’essere umano, di fronte alle necessità, sa trovare risorse inaspettate. Così come oltre 70 anni fa, dalle ceneri della Seconda guerra mondiale, sono nate strutture di governo per prevenire ulteriori disastri (come l’ONU o l’Unione Europea), forse anche questo è il momento favorevole per un’azione a livello planetario. Speriamo che lo sforzo in atto da parte dell’ONU riesca ad incanalare la marea tecnologica, magari prima di trovarci a fare i conti con le cenerei di un disastro già avvenuto.

[1] https://www.mckinsey.com/mgi/overview/in-the-news/the-coming-of-ai-spring

[2] https://diginomica.com/ai-curve-fitting-not-intelligence

[3] https://openai.com/index/gpt-4/

[4] https://mmmu-benchmark.github.io/

[5] Artificial Intelligence Index Report 2024 – Chapter 2 (https://aiindex.stanford.edu/report/)

[6] https://mmmu-benchmark.github.io/

[7][7] https://it.wikipedia.org/wiki/Pietra_filosofale

[8] https://en.wikipedia.org/wiki/Palant%C3%ADr

[9] D.E.I. è divenuto D.E.I.A. a partire dal 2021: https://www.whitehouse.gov/briefing-room/presidential-actions/2021/06/25/executive-order-on-diversity-equity-inclusion-and-accessibility-in-the-federal-workforce/ . Anche se la A per molti è implicita in DEI. L’ordine esecutivo del Presidente Americano ha invece reso esplicito questo importante aspetto.

[10] https://link.springer.com/article/10.1007/s43681-023-00362-w#:~:text=The%20integration%20of%20diversity%20and,in%20AI%20systems%20%5B1%5D

[11] https://www.cbsnews.com/news/microsoft-shuts-down-ai-chatbot-after-it-turned-into-racist-nazi/

[12] https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/

[13] https://arxiv.org/pdf/2304.05335

[14] https://www.datacamp.com/blog/understanding-and-mitigating-bias-in-large-language-models-llms

[15] https://dl.acm.org/doi/pdf/10.1145/3442188.3445922

[16] “La dimensione non garantisce la diversità”

[17] https://www.ucl.ac.uk/ioe/research-projects/2022/jan/echoes-project

[18] https://education.virginia.edu/research-initiatives/research-centers-labs/research-labs/supporting-teachers-through-coaching-observations-and-multimedia-education-students-disabilities/project-mosaic

[19] https://paintedbrain.org/painted-brain-media/blogs/technology-lifestyle/the-rise-of-ai-tutors-in-2024-revolutionizing-personalized-learning#:~:text=Accessibility%20and%20Inclusivity%20in%20Education,wide%20range%20of%20learning%20needs.

[20] https://www.forbes.com/sites/forbesbusinesscouncil/2023/06/16/empowering-individuals-with-disabilities-through-ai-technology/?sh=5ef0d7886c73

[21] https://er.educause.edu/articles/2022/6/3-ways-ai-can-help-students-with-disabilities

[22] https://news.microsoft.com/apac/2020/01/17/creating-inclusiveness-at-our-first-ai-for-accessibility-hackathon-in-asia-pacific/

[23] Si veda il già citato AI Index Report dell’Università di Stanford al capitolo 1.

[24] our-common-agenda-policy-brief-gobal-digi-compact-en.pdf (un.org)

[25] Onu, internet “libera” e fondi per l’AI: cosa c’è nel patto digitale | Wired Italia

[26][26] Digitale, il patto dell’Onu è un bel rompicapo | Wired Italia

[27] https://www.raicultura.it/filosofia/articoli/2019/01/Rovelli-il-tempo-non-esiste-f035f555-05d0-427c-be4a-dd6380155b81.html