COSENZA «L’intelligenza artificiale non ha un’anima, non ha una opinione, non ha una coscienza», ha sottolineato qualche giorno fa ai nostri microfoni, il fisico Federico Faggin. L’uomo considerato il “padre” del microchip scommette sugli uomini e ridimensiona il fattore “rischio” dell’intelligenza artificiale. Alla faccia di chi come Bill Gates, fondatore di Microsoft, ritiene che i chatbot guidati da intelligenza artificiale «potranno fornire un supporto altrettanto efficace quanto un tutor umano». Senza tener conto del clamoroso addio di uno dei creatori dell’intelligenza artificiale, Geoffrey Hinton, dimessosi dall’incarico di ingegnere capo di Google, preoccupato dall’impatto degli effetti futuri. Insomma, chi ha dato vita all’intelligenza artificiale dovrebbe essere capace a governare le macchine, a prevedere e contrastare eventuali pericoli. «Di certo non bisogna fare allarmismi», sostiene al Corriere della Calabria il professore Gianluigi Greco, direttore del dipartimento di Matematica e Informatica dell’Università della Calabria che cita Adriano Olivetti. «La sua filosofia è quanto mai attuale. Noi dobbiamo pensare alla tecnologia al servizio dell’uomo, e non agli uomini al servizio delle tecnologie».
Sono necessarie delle regole? «Serve ragionare assieme sui pericoli, ma penso che l’enfasi – ad esempio – su ChatGpt, sulla possibilità che sottragga dei posti di lavoro, porti il discorso in una dimensione errata». Si spieghi meglio. «Queste tecnologie sono in grado di dirci ciò che già è stato scritto da qualche parte. Ma il giornalista, un creativo, lo scienziato, ha bisogno di trovare cose che non sono scritte da qualche parte». Ed allora perché abbiamo paura? «Perché accade ogni qualvolta vi è una rivoluzione alle porte. Abbiamo paura dell’ignoto». «Ma proviamo a ragionare – aggiunge il prof – Noi abbiamo già delle macchine intorno a noi che sono più brave degli uomini. Ad esempio, nessuno di noi pensa di poter correre più velocemente della propria automobile. Perché allora dobbiamo aver paura dell’intelligenza artificiale?». «Questo tipo di intelligenza – chiosa – è una manifestazione puramente sintattica che può certamente creare problemi se è mal utilizzata, ma non arriva alla semantica. Non riesce a capire i nessi logici, non riesce a ragionare, a creare nuove forme di astrazione. Ecco. Dobbiamo saperla utilizzare, conoscerla e sfruttarla».
L’Università della Calabria è leader in un progetto del Pnrr sulle intelligenze artificiali «che ci pone tra le 10 Università spoke e il tema del nostro è Green-aware AI», racconta il prorettore Unical Francesco Scarcello, esperto di fama internazionale nel campo dell’Intelligenza artificiale. L’obiettivo principale del Centro coordinato dall’Unical è quello di studiare gli aspetti fondamentali relativi alla progettazione di agenti e sistemi di IA che siano attenti all’ambiente e al risparmio energetico. «Green non vuol dire solo ambiente, ma vuol dire sostenibilità e quindi anche inclusione sociale, sviluppo dell’uguaglianza di genere, risparmio energetico e dunque un’intelligenza artificiale che si apre agli altri e sarà fondamentale per lo sviluppo di tutti».
«L’intelligenza artificiale non è solo Gpt – continua – ma è molto di più, una sfida che noi stiamo cogliendo. L’obiettivo di questo progetto è proprio quello di studiare l’intelligenza artificiale del futuro che sarà fondamentale per la crescita di tutti». Uno strumento nuovo che sta stravolgendo le nostre vite? «Siamo tutti, persino noi addetti ai lavori, sorpresi dagli sviluppi di velocità veramente straordinaria a cui stiamo assistendo negli ultimi anni. Quindi dobbiamo abituarci e imparare ad usarla. E’ normale che all’inizio vi siano timori ed errori», aggiunge il prorettore. Cosa si aspetta nell’immediato futuro? «Impareremo ad usarla come un’intelligenza aumentata, uno strumento che darà all’uomo la possibilità di sfruttare queste enormi potenzialità. L’intelligenza aumentata è il futuro».
Il ricorso all’intelligenza artificiale può rappresentare, in alcuni casi, anche determinati e pericolosi fattori di rischio. Ne è convinto Domenico Talia, professore ordinario di sistemi di elaborazione delle informazioni presso la Facoltà di Ingegneria dell’Università della Calabria e Presidente del Centro ICT dell’Unical. Talia, autore di diversi libri a carattere scientifico sul tema dei Big Data, pone l’accento sull’addio di Geoffrey Hinton da Google, «una persona di un’estrema competenza». Che «segnala la necessità di porre la giusta attenzione su questo tipo di tecnologie, sicuramente molto utili in futuro ma soltanto se saremo in grado di conoscerle bene».
«È sempre l’uomo a dover gestire le macchine – aggiunge Talia – altrimenti i rischi sono importanti». Di quali rischi parliamo? I sistemi di artificial intelligence hanno capacità decisionale, però è gravissimo pensare che una macchina possa decidere l’assunzione di una lavoratrice o di un lavoratore o addirittura – come accade in America, sostenere i giudici nel prendere decisioni in un processo, sono cose che stanno avvenendo. Questo è gravissimo», sottolinea il docente. Che non nega l’utilità e il supporto offerto dalle macchine, ma «le decisioni dobbiamo prenderle noi».
(f.benincasa@corrierecal.it)
x
x