
Abbiamo chiesto alla professoressa Barbara Caputo, Ordinaria al Department of Control and Computer and Engineering del Politecnico di Torino di chiarire luci e ombre dell’AI – Al centro di questa fenomenologia, resti sempre l’essere umano –I doveri del legislatore – Differenza tra scienza e tecnologia
Quali sono le principali sfide e opportunità dell’intelligenza artificiale, espressione della ricerca scientifica? E in che modo l’intelligenza artificiale sta cambiando il nostro modo di vivere e lavorare?
Rischi e opportunità dell’intelligenza artificiale. L’intelligenza artificiale è l’insieme di algoritmi, di programmi software che permettono di elaborare il dato digitale. Il dato digitale ormai sta diventando tutto. Noi siamo abituati ad avere l’ AI che gestisce le nostre e-mail, quindi decide cosa finisce nel mail box quello che leggiamo e cosa invece finisce nello spam, l’intelligenza artificiale (AI) è quella che ci aiuta quando facciamo le foto col telefonino ad inquadrare bene i volti, l’intelligenza artificiale è quella che quando ci colleghiamo al nostro social preferito decide in che ordine vediamo i contributi dei nostri amici, chi è parte del nostro network condiviso, l’ha reso pubblico, quindi le opportunità sono gigantesche perché tutto ormai sta diventando dato digitale.
Siamo nel mezzo della transizione digitale, quindi sempre di più, sempre nuovi settori economici e sociali, sempre più parti della nostra vita diventeranno dato digitale e quindi le opportunità sono veramente grandi. Si parla molto di tutto quello che si può fare, nuovi prodotti, nuovi lavori, e io credo, mi piace sottolineare, anche tra le opportunità, la possibilità di mettere in sicurezza i lavori che ci sono, in questo momento in cui la sicurezza sui posti di lavoro è tristissima e questo territorio lo sa, purtroppo, ne è cosciente. Alludo a qualcosa che ricade pesantemente sulle spalle del lavoratore. E, dico, sarebbe certamente una grande opportunità se l’intelligenza artificiale facesse diventare i macchinari e tutto intorno a noi, durante i lavori, assolutamente sicuro e quindi non sia più l’uomo, il lavoratore, a prendersi la responsabilità di conoscere, rispettare e seguire le procedure di sicurezza, ma che siano le “macchine”, divenute intelligenti, a salvaguardare la vita dei lavoratori da ogni possibile rischio letale.
Anche i rischi naturalmente, quando ci sono questi cambiamenti epocali, sono grandissimi: soprattutto il rischio di perdere il controllo della situazione. Se vogliamo, il fatto che una tecnologia possa agevolare enormemente la nostra vita, il lavoro, il progresso industriale, la ricerca, non significa che in nome del profitto si debba fare sempre tutto in qualsiasi modo.
Io credo sia molto importante che il decisore politico faccia ogni sforzo affinché l’operatività dell’essere umano, uomo o donna che sia, resti saldamente al centro di ogni fase evolutiva del proprio lavoro. L’intelligenza artificiale alla fine è qualcosa di straordinariamente importante, inventata e creata “dagli esseri umani per gli uomini e le donne”. Non possiamo quindi immaginare l’Intelligenza artificiale come un “pilota automatico”, semmai, come copilota, dove il pilota, l’essere umano, deve avere sempre la prima e l’ultima parola.
Credo di avere aver dato una risposta esplicita anche al secondo interrogativo.
Professoressa, quali sono le implicazioni etiche che l’Intelligenza artificiale comporta?
Dal punto di vista etico in questo momento l’utilizzo dell’intelligenza artificiale che avviene senza una vera regolamentazione e senza una vera certificazione espone al grandissimo rischio etico di discriminare qualsiasi gruppo sia sottorappresentato in certi scenari. Cosa vuol dire questo? L’intelligenza artificiale è una tecnologia “data driven”, quindi è guidata dai dat; quindi se bambini con gli occhi azzurri fino adesso non si sono mai iscritti ad una scuola di calcio, per l’algoritmo dell’intelligenza artificiale, i bambini con gli occhi azzurri non sono bravi a fare i calciatori e quindi se per qualche motivo ci sono pochi posti, rispetto ai bambini che fanno richiesta di una scuola calcio, bisogna prendere bambini che hanno gli occhi marroni o verdi, o neri o grigi ma non quelli con gli occhi azzurri perché non sono bravi.
Chiaramente questo non ha senso, ma nasce dal fatto che nei dati manca qualcosa. Quindi quando si parla di un bias (pregiudizio presente nell’AI) si allude al rischio di discriminazione. Si sta dicendo cioè che se non si sta molto attenti nel preparare i dati, il combustibile, l’acqua che annaffia la crescita di questi modelli di intelligenza artificiale, rischiamo di trovarci in queste situazioni. Da un punto di vista tecnico, il problema è noto ed è relativamente chiaro quali possono essere i correttivi per evitare queste situazioni.
Di nuovo, siamo in un momento storico in cui di fatto non esiste normativa, per cui noi come consumatori, come utenti, se qualche cosa è intorno a noi, se una decisione viene presa dall’algoritmo di AI, non ci viene comunicato e quindi non possiamo neanche sapere se questa decisione possa essere in qualche modo collegata a un bias. Quando dico se una decisione intorno a noi viene presa con l’intelligenza artificiale, penso a quello che è oggi il nostro quotidiano, se noi chiediamo alla banca di alzare il limite della nostra carta di credito, la decisione non la prende una persona, la decisione la prende l’intelligenza artificiale.
E’ già così da tantissimi anni, quindi l’AI è parte della nostra vita e questo piccolissimo esempio ci fa capire come veramente nel nostro quotidiano sia importante vigilare affinché ci sia una regolamentazione, una certificazione che ci metta tutti in sicurezza e ci permetta quindi di fruire di tutto il progresso che l’intelligenza artificiale può provocare senza però che nessuno si faccia male.
Quali sono le prospettive future? L’intelligenza artificiale può condizionare l’esistenza degli esseri umani?
Rispetto a quali siano le prospettive future dell’intelligenza artificiale, io credo che quello che abbiamo visto con “ChatGPT” sia un esempio di intelligenza artificiale che possa diventare più democratica. Riassumo brevemente i fatti: nel novembre del 2022 OpenAi, un’azienda statunitense, ha reso possibile utilizzare gratuitamente un software che si chiama “ChatGPT”. Cioè, un software che rende possibile fare domande ed avere risposte da un algoritmo automatico. Questo chatbot funziona meravigliosamente e può generare testi, risposte, con una proprietà di linguaggio, una naturalezza che ha veramente sorpreso il mondo, perché la quantità di utenti che si sono registrati sul sito di OpenAi, ha deciso di utilizzare questo strumento per fare le cose più disparate.
Ecco questo sicuramente ha scatenato molte preoccupazioni, molte paure, che si possono vedere come un segno della fame di AI e soprattutto la fame di usare le AI senza avere l’intermediazione di quelle poche grandi aziende che in questo momento sono dominanti nel settore. Il fatto di avere reso pubblico questo algoritmo ha permesso a tutto il mondo di usare le AI e immaginare nuovi business, nuove aziende, nuovi prodotti.
Io credo che con una solida cornice normativa che metta in sicurezza le persone, noi potremmo arrivare all’intelligenza artificiale con un motore, con un qualche cosa che riesca veramente a liberare tante energie in questo momento creative, energie positive della parte più giovane della popolazione mondiale che ha voglia di inventarsi un futuro. Io credo che l’intelligenza artificiale se ben governata, se ben gestita, possa veramente aiutarci in questa direzione.
Che differenza c’è sostanzialmente tra scienza e l’altissimo livello tecnologico conseguito?
La differenza tra scienza e tecnologia non la devo certamente inventare io. Grazie al cielo siamo Italiani e Galileo Galilei col metodo scientifico sperimentale ha tracciato le linee e poi il resto del mondo. L’ intelligenza artificiale, gli algoritmi che abbiamo non sono basati sulla scienza, sono modelli di tipo fenomenologico, ovvero sono modelli, che hanno una capacità descrittiva e si basano principalmente sui fenomeni che vengono osservati, ovvero sui dati. Quando si parla di scienza, si allude ad un insieme di teorie ben definito: una teoria è qualcosa che ha capacità descrittiva, quindi descrive quello che vediamo, ma ha anche capacità predittiva, quindi predice quello che avverrà.
Gli algoritmi dell’intelligenza artificiale a volte hanno capacità di predizione verso l’applicazione del manifatturiero e nella manutenzione. Ma quando si parla di una teoria con capacità predittive, ci si riferisce a una capacità predittiva rispetto ai propri modelli, non rispetto alle performances. Da un punto di vista pratico, la differenza tra scienza e tecnologia è notevole: la scienza sta dentro i laboratori dell’Università; la tecnologia sta nei prodotti.
Mi piace osservare che grazie a tutta una serie di azioni, acceleratori, incubatori universitari, azioni di Cassa Depositi e Prestiti che stanno veramente cercando di fare alzare il volume dell’ innovazione tecnologica del Paese. Tutto questo sta diventando sempre più frequente nei sogni, nelle ambizioni dei ragazzi che studiano nelle nostre Università; sogni che non vuol dire soltanto pensare di studiare all’estero, ma di creare nuove aziende, start up in Italia. Il mostro auspicio è che la speranza si traduca sempre più spesso in realtà.
In che modo gli Stati possono condizionare questa “verità” considerata parte attiva del Pianeta?
Gli Stati hanno in questo momento storico una responsabilità grandissima rispetto allo sviluppo dell’intelligenza artificiale. Io sono stata molto colpita dal fatto che la Premier Meloni durante la conferenza stampa al G20 abbia parlato di intelligenza artificiale, l’abbia indicata come un tema fondamentale da mettere al centro dell’agenda politica dei leader mondiali ed abbia pubblicamente dichiarato che alla presidenza del G7 Italiana metterà proprio al centro il tema dell’intelligenza artificiale e della sua regolamentazione.
Non era mai successo prima che un Presidente del Consiglio Italiano parlasse di AI in questi termini e ne riconoscesse la centralità. Al di là dell’Italia, l’intelligenza artificiale è chiaramente un fenomeno mondiale e quindi va governata, va gestita, va regolamentata e certificate. A livello mondiale ci sono moltissimi segnali. In questa direzione molte cose si stanno muovendo, a Washington. Il Congresso Americano ha fatto moltissime audizioni con esperti dalle aziende: dal mondo delle accademie statunitensi, proprio per raccogliere opinioni e dare un senso ai lavori del Congresso. E’ vero che per sua natura il legislatore non può muoversi alla velocità con cui si muove l’economia, la società, la scienza, ed è anche vero che è un momento storico in cui la quantità di ricercatori nell’AI è enorme e quindi il progresso è veramente molto molto veloce.
Però io credo che si intravedano i grandi temi. Abbiamo parlato del bias, quindi del fatto che non ci siano discriminazioni, sicuramente un grandissimo tema è quello del rispetto della persona, quindi mettere l’uomo al centro, fare in modo che l’AI sia volano di economia e crescita di opportunità e non qualcosa che vada ad acuire le disuguaglianze economiche. Tutti i segnali che arrivano dicono che i decisori politici a livello mondiale sono pienamente consapevoli dell’importanza della sfida e quindi dobbiamo e vogliamo essere ottimisti, naturalmente vigilando sempre in maniera puntuale.
Gianni Maria Stornello