Naturalmente parliamo d’intelligenza artificiale

Illustrazione @_nico189

Oramai ne hanno sentito parlare anche i sassi. OpenAI, una start up che si occupa dello sviluppo e dell’impiego dell’intelligenza artificiale, a novembre 2022 ha rilasciato ChatGPT, un sistema di conversazione basato sulle IA. La classica data in cui si stabilisce un prima e un dopo, e per cui occorre fare un attimo di chiarezza.

Quando parliamo di IA siamo nel campo della linguistica informatica e indichiamo una tecnologia sofisticata e complessa che, secondo la definizione più diffusa, studia sistemi hardware e software che riproducono delle particolari capacità umane, dall’interazione all’apprendimento e adattamento fino all’elaborazione di ragionamenti e pianificazioni. Questi sistemi hanno visto il loro sviluppo a partire dagli anni cinquanta ad opera del matematico e crittografo britannico Alan Turing, il quale, dopo la seconda guerra mondiale, si dedica al progetto di sviluppo del primo computer e al contempo inizia ad elaborare un impianto teorico sulla questione dell’intelligenza artificiale. In uno studio apparso sulla rivista Mind nel 1950 dal titolo “Computer machinery and intelligence”, Turing si chiede se le macchine possano pensare e successivamente elabora il famoso Test di Turing: se durante un dialogo attraverso la modalità scritta una persona non riesce a stabilire se l’interlocutore sia un essere umano o una macchina, il test risulta superato. Nonostante questo test sia stato nel tempo messo in discussione, rimane una tappa fondamentale della storia dell’intelligenza artificiale. Storia che, arrivata fino a noi, ha visto una poderosa diffusione di questi sistemi negli ambiti più disparati come la pubblicità, i videogiochi, gli algoritmi di raccomandazione che sono alla base ad esempio di tutti gli e-commerce e le piattaforme social, gli assistenti vocali sui cellulari, le automobili, i servizi di localizzazione e mappature ma anche la cyber security e il mondo della medicina. A loro volta, queste tecnologie digitali si basano su alcune altre tecniche: il Machine Learning, il Deep Learning, il Natural Language Processing e la Computer Vision.

Con il rilascio di ChatGPT, che si propone un miglioramento della performance e qualità dell’interazione tra gli esseri umani e la tecnologia, è tornata nel dibattito pubblico la questione che riguarda le criticità conseguenti all’uso dell’intelligenza artificiale e il possibile sorgere di problemi di carattere etico.

Intanto, va registrato che nelle ultime settimane la corsa all’AI ha registrato nuovi balzi in avanti, coinvolgendo diverse aziende (e magari quando leggerete questo articolo ce ne saranno già stati altri!). OpenAI ha infatti annunciato il nuovo motore di addestramento ChatGPT-4, che amplia le funzionalità iniziali fornendo dati aggiornati in tempo reale (gli aggiornamenti precedenti si fermavano al 2021) attraverso l’implementazione di plug-in sviluppati per i modelli di linguaggio. Microsoft ha invece presentato un nuovo software basato su ChatGPT, Microsoft 365 Copilot, che dovrebbe svolgere dei compiti al posto degli utenti poiché, come si legge in una nota stampa, “combina la potenza dei modelli linguistici di grandi dimensioni (Llm) con i dati presenti in Microsoft Graph e nelle app di Microsoft 365”. In termini pratici questo significa che la piattaforma potrà stilare una prima bozza di un documento word, creare delle slide con Power Point o redigere un report dopo una riunione su Teams. Se le potenzialità dischiuse da queste operazioni si prefigurano altissime, resta aperta la questione dell’uso dell’intelligenza artificiale e delle criticità connesse all’aspetto etico. Su questo fronte, il colosso di Redmond non ha fornito indicazioni ma ha intanto licenziato il gruppo di Etica e società, mantenendo però attivo l’ufficio Responsible AI, in un momento che, come sottolinea The Platformer, queste tecnologie altamente connesse all’intelligenza artificiale stanno per entrare in contatto con un pubblico vasto, e quindi sarebbe necessario un monitoraggio del loro sviluppo responsabile e dei possibili rischi collegati.

Nel frattempo anche Google si è preparato alla competizione sul tema AI e per alcuni utenti tester negli Stati Uniti e nel Regno Unito ha messo a disposizione Bard, un chatbot che potrebbe essere il diretto concorrente di ChatGPT, con il quale condivide potenzialità, caratteristiche ma anche limiti e difetti.

Se anche Bard potrà rispondere alle domande e dialogare con le persone in merito a molti diversi argomenti, con alti livelli di comprensione e interazione sempre più simili a quelli umani, sono già emersi problemi legati a inesattezze o a risposte non corrette del sistema, anche a seguito di usi non responsabili degli utenti. Uno dei rischi dei chatbot è infatti la nascita di fake news o di allucinazioni, risposte senza alcun fondamento di verità quando la tecnologia tenta di imitare le risposte dell’uomo, o in casi peggiori la diffusione di linguaggi inappropriati o pregiudiziali, che coinvolgono questioni di discriminazione legate alle tematiche più delicate quali il sesso, le minoranze etniche, il genere. Spesso queste problematiche nascono dall’imitazione del sistema delle modalità che l’utente utilizza nell’interazione, modalità che però la tecnologia non sa discernere e non sa contrastare essendo incapace di applicare filtri legati all’etica o alla morale. In un libro illuminante uscito lo scorso anno con il titolo “Etica dell’intelligenza artificiale”, l’autore Luciano Floridi, Professore di Filosofia ed Etica dell’informazione all’Università di Oxford e chairman del Data Ethics Group dell’Alan Turing Institute, definisce la IA come una forma nuova di agire efficiente ma non intelligente, che anzi amplifica il divario tra la capacità di agire e l’intelligenza.

Le tecnologie digitali, infatti, da un lato ci rendono possibile la risoluzione di qualsiasi problema, ma d’altro canto non ci obbligano ad essere intelligenti per farlo.

Quella di Floridi non è un’accusa a questi sistemi, è semmai un monito a guardare a queste tecnologie per quello che sono, ricordando che necessitano di essere controllate e indirizzate con spirito etico, al fine di guidarle e asservirle ad una utilità sociale. E se pensiamo al lavoro di agenzia, il nostro pane quotidiano fatto di pensiero e creatività, lo scrivere da una parte non potrà prescindere da questi strumenti, ma dall’altro dovrà mantenere intatto il nostro senso critico: perché come ha scritto il copywriter Paolo Iabichino, “se il vostro scrivere è replicabile da una qualsiasi intelligenza artificiale, il problema è il vostro scrivere, non l’intelligenza artificiale”. Perché l’accelerazione tecnologica che stiamo vivendo (dalla ‘Fantascienza’ alla ‘Scienza Fantastica’ per dirla con Jacopo Perfetti) ci deve preoccupare non per le macchine che pensano come gli uomini, ma per la deriva di uomini che pensano come le macchine. Il dualismo opportunità/pericolo è sempre esistito di fronte alla non-conoscenza, ma davanti agli strumenti dobbiamo sempre, sempre, sempre chiederci il ‘come’ usarli.  Nel nostro processo creativo e in tutti gli ambiti che il futuro ci presenterà. A partire da… ora. 

CONDIVIDI