L'Intelligenza Artificiale alla guida di una macchina

Intelligenza Artificiale: ai limiti tra tecnologia, innovazione e etica

Condividi su

Se ne parla sempre più spesso, in ogni ambito, come sfida, con diffidenza, con prudenza, ma anche con l’entusiasmo di lanciarsi verso le novità tecnologiche accogliendone i lati positivi. È l’Intelligenza Artificiale il principale argomento su cui si discute già da tempo e  che rischia di diventare il “tormentone” dell’ estate 2023.

Cos’è l’Intelligenza Artificiale

IA o in inglese AI (Artificial Intelligence) è la sigla con cui si designa l’abilità di un sistema tecnologico di risolvere problemi o svolgere attività secondo meccanismi che si avvicinano a quelli della mente umana. In effetti questa definizione nasconde un ossimoro in sé: se l’intelligenza completa è tipica dell’essere umano come può essere “artificiale” e non “umana”?

Intelligenza Artificiale, posti di lavoro e tecnologia

Eppure l’ IA non è una novità perché è nata già quando è apparso il primo cellulare; oggi si applica alle automobili con quel computer che decide la temperatura, la velocità più adatta, calcola se semaforo è verde, previene i rischi del traffico intorno a noi, decide i tempi di frenata e di arrivo, se posto in un parcheggio, gira il volante per effettuare la manovra, spegne o accende i fari. Oltre all’automobile,  si applica anche alla guida di treni e  delle metropolitane senza autista. Da qui l’allarme disoccupazione e le cifre che calcolano come nel giro di 6 anni avremo ben 400 milioni di posti di lavoro in meno. D’altro canto invece c’è chi parla della nascita di nuovi lavori e di nuove figure professionali per azionare l’ IA, indicando come ci saranno 97 milioni di posti di lavoro in più. Insomma, è caos anche sul fronte dell’occupazione lavorativa! Ma l’ IA è anche nell’impianto che a casa accende l’aria condizionata, la musica, il forno o il robot per pulire e lavare il pavimento. E’ nei droni e nei robot che portano medicine ai pazienti lontani, percorrendo la strada più breve ed evitando i rischi e i pericoli di una passeggiata a piedi per arrivare a destinazione. Ancora. E’ negli smartphone come ChatGPT che permette di scrivere articoli, temi, risolvere problemi sui banchi di scuola, ma anche in Photoshop che crea il virtuale sfruttando la voce e le immagini reali, creando un clone  umano quasi perfetto nella voce e nell’aspetto, ma anche aggiungendo notizi e immagini false  che si  confondono troppo facilmente con la realtà. Ma la domanda sempre più frequente è  quella atavica, quella – per intenderci – del Dottor Jekill e Mr. Hyde: riusciranno a sostituire l’intelligenza umana?

Intelligenza Artificiale e etica

A questo proposito vorrei riferire di un convegno in particolare, organizzato dall’Ordine dei Giornalisti del Lazio lo scorso 8 luglio presso il Consorzio Universitario “Humanitas” a Roma in cui è stato affrontato il tema di “Chi legittima il controllo – se controllo ci deve essere – del falso e del vero rispetto ai prodotti dell’ IA?”. Da qui so genera subito una questione etica. Certo il rischio di temi in classe, notizie, prodotti tecnologici falsi che convivano accanto a quelli veri è reale. Ma perché parlare di controllo? Perché non considerare l’ IA come una risorsa che propone soluzioni diverse dall’ordinario, che ci offre una gamma più ampia di scelte, spesso in contrasto o in disaccordo con le nostre scelte quotidiane, che diversifica conversazioni, argomenti e fonti da cui  deriviamo le nostre informazioni permettendoci di considerare un orizzonte tecnologico più ampio rispetto a quello consueto in cui ci si muove? La vice-presidente della Lega Italiana per i Diritti Umani, Tiziana Primozich ha infatti  posto l’accento sulla “selezione” – tutta umana e ben poco artificiale!- che occorre fare con mente critica proprio sui prodotti tecnologici o culturali che l’ IA crea. Le fake news, come anche le immagini rielaborate al pc con uno sfondo improbabile o con dei particolari incoerenti rispetto al contesto, vanno riconosciute, selezionate e scartate. Per fare questo occorre per tutti una formazione di base sempre più specialistica proprio sulla nuova tecnologia e sulle nuove e infinite risorse che essa offre: per conoscerle, per usarle scientemente, ma soprattutto per servirsene positivamente, magari per creare immagini innovative o nuove forme d’arte. Così anche a scuola per i minori occorre che siano i genitori e gli adulti a controllare l’uso che ne fanno. Come font per un articolo compilativo o come base delle ricerche per le materie scolastiche può e deve essere valorizzata, perché rispetto ad un motore di ricerca offre infinite varianti e una maggiore completezza di informazioni, rielaborandole e mettendole in sequenza logica. Tuttavia  bisogna evitare le manipolazioni e riconoscerne l’artificiosità per evitare quel “caos epistemico” di cui ha parlato Gennaro Colangelo nel convegno di cui sopra, docente alla Lumsa ed esperto di comunicazione e formazione. A parlare invece di responsabilità genitoriale per sostenere la scuola e gli altri enti pubblici nella formazione dei più piccoli, è stata Iside Castagnola, membro del Comitato Media e Minori presso il Ministero dello Sviluppo Economico.

I relatori del convegno "IA: finiremo per essere governati dagli algoritmi?"

I relatori del convegno "IA: finiremo per essere governati dagli algoritmi?"

Intelligenza Artificiale: come individuarla e comprenderne gli errori

I rischi dell’Intelligenza Artificiale crescono poi esponenzialmente se si pensa che il crimine se ne può impadronire per estorcere denaro, per falsificare profili e identità, per proporre video fake e manipolare gli anziani, ad esempio facendo credere loro  di essere amici dei figli in pericolo e inducendoli a pagare somme enormi di denaro per truffe megagalattiche. Pertanto sono stati creati dei software di controllo che sanno smascherare gli algoritmi prodotti dall’ IA e non reali. Ad es. per ChatGPT è stato creato un prodotto con uno scanner – Chabot AI”che rileva gli algoritmi e individua gli scritti prodotti artificialmente. Del resto l’IA genera errori, sia di coerenza logica (scarsa o eccessiva) in un testo, ma anche perché crea contenuti su quelli che ci sono già, crea immagini distorte e con una scarsa messa a fuoco su particolari spesso sbagliati o improbabili. Il tutto perché è un’intelligenza “generativa” su base data e non creativa, come la definisce giustamente Giovanni Bonati, Consigliere parlamentare per la transizione digitale. Del resto si parla anche di truffe amorose – in cui per chat ci si innamora di un avatar totalmente inesistente – o di truffe di magia nera, in cui si simula la comunicazione con un morto riproducendo con un algoritmo la sua voce da vivo in modo quasi perfetto.

Le allucinazioni dell’ Intelligenza Artificiale e l’uso corretto

Anche in questo caso si può smascherare l’IA perché piuttosto spesso si creano le cosiddette “allucinazioni dell’ IA”: un particolare che non quadra, una frase senza collegamento con quanto esposto prima, una fonte che se verificata spesso non esiste. Così riguardo ad un componimento dettato da ChatGPT a un alunno sarà molto più utile non leggerlo e correggerlo, ma chiedere all’alunno quali comandi ha dato all’ IA, come ha usato le prime informazioni ottenute, con quali richieste ha raffinato la ricerca e quale obiettivo pensava di raggiungere. Del resto l’ IA si addestra: dalle nostre richieste sempre più specialistiche e particolareggiate “impara” ad essere più precisa, ma anche a darci le risposte che cerchiamo. E’ dunque un’opportunità che, al pari delle altre tecnologie, non deve generare paure infondate o essere respinta a priori., come afferma Massimo Di Leo, imprenditore e Digital Artist. Bisogna invece conoscerla a fondo, saperla usare, considerarla un’occasione di stimolo per migliorare le nostre informazioni e conoscenze per poi servirsene, al pari di qualsiasi altro mezzo tecnologico, come strumento per produrre notizie, strumenti, immagini e prodotti tecnologiche sempre più precise e raffinate!


Condividi su