"libero pensiero e libera espressione, senza pregiudizi e senza schieramenti"

venerdì 16 giugno 2023

CHATGPT: OPPORTUNITÀ O MINACCIA?

TECNOLOGIA

di Maria Lanzetta

In questi ultimi anni l'intelligenza artificiale generativa ha subìto una profonda e rapida evoluzione, passando dalle primissime applicazioni di chatbot, basate su un set di regole ben definite ma statiche e circoscritte, a piattaforme conversazionali più sofisticate, guidate da un sistema di apprendimento automatico derivato dall’interazione con gli utenti, fino ad arrivare a ChatGPT

ChatGPT, come è ormai noto, è un’applicazione di intelligenza artificiale conversazionale estremamente avanzata - sviluppata dalla società di ricerca OpenAI -, che utilizza una tecnologia di elaborazione del linguaggio naturale (NLP), definita Generative Pre-trained Transformer 3 (GPT-3). Essa utilizza un modello di rete neurale denominato ‘trasformatore’, il quale è stato addestrato su un consistente database di testo. Nel momento in cui viene fornito un input o un prompt a ChatGPT, il modello di rete neurale analizza tale testo e usa le informazioni apprese dal database, per generare in modo automatico un contenuto di qualità simil-umana. Per cui, quando un utente inserisce una richiesta, ChatGPT dovrebbe essere in grado di generare una risposta pertinente e coerente all’interno della conversazione. A differenza dei comuni chatBot, generalmente utilizzati per attività specifiche quali, per esempio, il servizio clienti su portali, ChatGPT può essere impiegato per molte attività diverse e in svariati contesti, e la sua funzione non si limita solo a rispondere a domande puntuali, ma è anche in grado di svolgere compiti e attività molto più elaborate. Praticamente, è un sistema di intelligenza artificiale che si avvicina tantissimo al modello umano, capace di conversare con le persone, interagirci in modo abbastanza logico e coerente, essendo stato istruito per dialogare con l’utente, attraverso l’utilizzo di algoritmi di apprendimento automatico: questo gli consentirebbe, quindi, di rispondere adeguandosi al contesto del dialogo. Di conseguenza, le risposte appaiono analoghe a quelle di una persona, e danno all’utente la sensazione di una conversazione interattiva, in contrapposizione alla tradizionale ricerca unidirezionale, utilizzata solitamente con i vari browser di navigazione su Internet.

Una guerra tra titani
Ora, mentre OpenAI lo scorso novembre catalizzava l’attenzione del mondo intero con il lancio di ChatGPT, a dicembre Google, sentendosi minacciata nella sua posizione di leader nell’ambito del “Search”, decideva di dare un’accelerata alle attività di sviluppo di prodotti AI-based e, per giustificare il suo ritardo, dichiarava di voler avere un approccio più prudente rispetto ai concorrenti, criticandone l’imprevedibilità e l’inaffidabilità della tecnologia. Così soltanto 6 mesi dopo - lo scorso maggio -, Google annunciava Bard, la sua nuova applicazione basata su AI generativa, costruita su un modello linguistico di grandi dimensioni (LLM) noto come LaMDA (Language Model for Dialogue Applications) ottimizzato su Transformer, architettura di rete neurale ideata da Google nel 2017, su cui è stata, peraltro, modellato anche ChatGPT. Il punto di forza di Bard sta nel fatto che integra tutti gli strumenti a marchio Google, peccato, però, che al momento è stata rilasciata in 180 paesi ma non in Europa (presumibilmente a causa delle norme restrittive GDPR). Nel frattempo Microsoft, anticipando Google e battendola sul tempo, nei primi giorni dello stesso mese presentava il suo nuovo chatbot Bing Chat GPT-4, che il colosso americano ha aperto gratuitamente a tutti, senza doversi registrare in una lista di attesa, infatti basta accedere alla nuova versione di Bing o Edge con il proprio account Microsoft, per provare la nuova applicazione. In realtà, il modello su cui si basa Bing Chat è Prometheus, che di fatto rappresenta un’evoluzione dello stesso GPT-4,  caratterizzato da modelli di addestramento che permettono di generare contenuti e dati più aggiornati, quasi in tempo reale. E poi c’è Amazon che, dopo aver avuto un ruolo da pioniere con Alexa, l’assiste vocale intelligente basato su cloud, ha deciso di cavalcare anch’essa l’onda della Generative AI, puntando a creare applicazioni di AI generativa integrate, in collaborazione con Hugging Face velocizzando il processo di formazione, ottimizzazione e diffusione di modelli di linguaggio combinato con elementi visivi. Ovviamente, la Cina non è stata a guardare ed è entrato in gioco Baidu (per intenderci il corrispondete ‘Google’ cinese) con Ernie bot, un chatbot che per ora è in fase di test ed accessibile su invito, anch’esso basato su un modello linguistico addestrato con AI generativa, in grado di simulare risposte e conversazioni “intelligenti” con gli utenti. Un’applicazione che in Cina sembrerebbe non aver riscontrato grande entusiasmo, forse perché, inevitabilmente, sottoposta alle censure del Governo cinese che, notoriamente, non darebbe molto spazio alla libera informazione.

Potenzialità e ambiti applicativi
Indubbiamente le aree di applicazione che potrebbero trarre grandi benefici dall’adozione di piattaforme di AI conversazionale generativa come ChatGPT sono numerose, a partire dall’assistenza clienti, in cui chatbot e consulenti virtuali sono in grado di gestire un'ampia gamma di domande e richieste, migliorando l'efficienza, riducendo i tempi di attesa e aumentando il grado di soddisfazioni dei clienti. Analogamente nel settore finanziario, per effettuare analisi di dati, previsione dei trend di mercato e nella gestione del rischio, può diventare un utile supporto per prendere decisioni su investimenti e per la gestione del portafoglio. Un altro esempio di potenziale utilizzo di ChatGPT è anche nel settore medico-sanitario, dove può essere impiegata nella diagnosi e nel trattamento di malattie, nella personalizzazione della terapia e nella ricerca di nuovi farmaci. Potremmo andare avanti con una lunga lista di ambiti applicativi, in cui l’AI generativa può rivelarsi utile ed efficace, ma dove ChatGPT sembrerebbe essere uno strumento davvero rivoluzionario, è soprattutto in tutte quelle attività che richiedono sviluppo di contenuti: nell’elaborazione di testi coerenti su molteplici argomenti, da articoli di carattere politico, di cronaca, tecnici, fino ad arrivare alle ricette di cucina. Non solo, questa applicazione dovrebbe essere in grado di svolgere attività creative quali scrivere email, generare post social, tradurre e addirittura comporre poesie; gli algoritmi su cui si basa, inoltre, consentono di correggere errori, eseguire calcoli, programmare e molto altro ancora. Tutto questo sembrerebbe fantastico!
Ma possiamo fidarci completamente di tutto quello che ci ‘racconta’ ChatGPT? E, soprattutto, quanto può essere pericoloso uno strumento di questo tipo?

Limiti e minacce
ChatGPT è stato lanciato lo scorso novembre e ha generato immediatamente grande consenso e apprezzamento, per la sua capacità di fornire risposte dettagliate e apparentemente molto accurate, risultando, come si diceva sopra, molto vicine a una conversazione umana. E’ fuori dubbio che si tratti di un modello linguistico estremamente ampio, dal momento che è basato su oltre un triliardo di parametri ed è in grado di elaborare miliardi di parole in pochi secondi, tuttavia, nonostante ciò, con il suo crescente utilizzo, si è incominciato a mettere in discussione la sua totale attendibilità. In effetti, bisogna stare attenti a non sottovalutarne alcuni limiti, dall’affidabilità delle risposte alla difficile verificabilità delle fonti. In realtà, sebbene ChatGPT venga addestrato su una grande quantità di dati e di testo, attualmente non ha una comprensione intrinseca del mondo reale, pertanto può avere difficoltà a interpretare il contesto di una conversazione, a cogliere le sfumature del linguaggio umano, espressioni idiomatiche o modi di dire, così come non dispone di buon senso: questo fa sì che possano essere generate risposte imprecise o irrilevanti. Un’altra limitazione di ChatGPT è che non tiene conto degli eventi in corso e neanche di quelli più recenti, nel senso che non conosce tutte le informazioni generate dopo il 2021. Quindi, se la necessità è quella di avere informazioni aggiornate, non solo si rischia di avere risposte poco attendibili, ma addirittura fuorvianti. Da considerare, inoltre, che ChatGPT è più efficace nel fornire risposte specifiche a domande precise e circoscritte, mentre lo è meno in quelle aperte, così come in conversazioni più astratte, contenenti elementi di carattere emotivo. Alla luce di ciò, è fondamentale tener ben presente che questo tipo di applicazione può rappresentare, certo, un enorme supporto in quelle attività di tipo standard e ripetitive, tipicamente noiose e molto dispendiose di tempo, ma necessita sempre dell’intervento umano. Per cui, una volta che un testo viene generato sulla base di determinati input, sarà comunque necessario intervenire con delle modifiche, per adattarlo alle esigenze specifiche di un particolare contesto, o per inserire informazioni importanti che il modello potrebbe ignorare. Inoltre, almeno per il momento, ChatGPT non può sostituire l'empatia umana, quindi è importante fare attenzione al tono e allo stile del testo che viene elaborato. A ciò si aggiungono, poi, quei fenomeni che in gergo sono chiamati ‘allucinazioni’, ovvero risposte totalmente infondate, generate da una sorta di mescolanza di realtà e finzione: questo succede soprattutto quando si chiedono compiti particolarmente complessi, è quasi come se ChatGPT andasse in tilt.
E’ evidente, dunque, che la conoscenza umana e il buon senso abbiano un ruolo fondamentale e imprescindibile nell’utilizzo di tali applicazioni; insomma non possiamo prendere per ‘oro colato’ tutto ciò che ChatGPT ci racconta. Solo la capacità di discernimento che si fonda sulle nostre conoscenze, competenze ed esperienze, possono guidarci in un utilizzo virtuoso di tali strumenti, i quali possono essere estremamente pericolosi e fuorvianti soprattutto per i giovani utenti, se non vengono educati a sviluppare un proprio bagaglio di conoscenze – magari costruite su fonti più tradizionali e attendibili – e una propria capacità critica.
E poi c’è la delicata questione della privacy, a proposito della quale, lo scorso marzo in Italia era arrivato lo stop del Garante della Privacy che aveva bloccato l’uso di ChatGPT fino al 30 aprile, termine entro cui OpenAI avrebbe dovuto provvedere a implementare procedure di raccolta e trattamento dei dati secondo le normative in vigore; a informare chiaramente gli utenti sul trattamento dei loro dati e ottenere il loro consenso esplicito; a garantire che gli utenti possano esercitare il diritto alla cancellazione dei dati personali e a monitorare costantemente i rischi per la privacy: lo scorso marzo, infatti, si era verificato un data breach che ha causato la dispersione di dati di oltre 100.000 utenti. A tutto questo si aggiungeva un altro aspetto che ha allarmato il Garante della Privacy, relativamente all’utilizzo dell’applicazione da parte di utenti giovani.  Effettivamente sembrerebbe che, per quanto le regole di ChatGPT proponessero l’utilizzo del software dai 13 anni in su, non ci sarebbero stati sufficienti filtri per controllare l'età di chi lo usa. E la tutela dei più giovani è una questione a cui il Garante ha deciso di dare una priorità assoluta, perché è molto alto il rischio che le nuove generazioni “native digitali” ne facciano un uso indiscriminato, senza un minimo di consapevolezza e senso critico. Di fronte a tale disposizione, OpenAI aveva fin da subito manifestato la propria volontà a collaborare, in modo tale da ottenere la revoca del provvedimento e, quindi, poter rendere nuovamente accessibile l’App nel territorio italiano. 
Attualmente ChatGPT è ritornata operativa in Italia, e lo stesso Garante con un comunicato ufficiale, ha fatto sapere che la controversia con OpenAI si è conclusa con pieno adempimento, da parte dell'azienda americana, alle indicazioni dell'Autorità contenute nel precedente provvedimento. Adesso, al momento della registrazione all’applicazione, la prima cosa che salta all’occhio sembrerebbe essere la richiesta agli utenti di confermare di avere più di 18 anni oppure di averne più di 13, nel quale caso è necessario il consenso dei propri genitori. Sono presenti, inoltre, link all'informativa sulla privacy e a un articolo che spiega come viene sviluppato e ‘addestrato’ il massiccio modello linguistico che sta alla base del funzionamento di ChatGPT. E’ stata, inoltre, gestita anche la questione delle cronologia, per cui gli utenti italiani possono, sì, mantenere lo storico delle proprie conversazioni, ma hanno anche modo di cancellare agevolmente tutta la cronologia dall’impostazione del proprio profilo.


ChatGPT ed etica
Ora, al di là dei vari aspetti in materia tecnica e di diritto, è opportuno soffermarsi a fare qualche riflessione di carattere etico e morale. Tanto per cominciare, una minaccia fin troppo palese è che applicazioni, quale ChatGPT e simili, rischino di determinare un appiattimento del cervello umano, portando le persone a impigrirsi mentalmente e a farci un eccessivo affidamento, con il pericolo di impoverire il proprio pensiero critico e indebolire le proprie capacità di discernimento. Non è un caso che i pionieri e i promotori di tale tecnologia stiano facendo un passo indietro: recentemente infatti, alcuni dei più grandi esperti al mondo nel campo dell’Intelligenza Artificiale hanno lanciato un vero e proprio appello, per mettere in pausa lo sviluppo di ChatGPT e analoghe applicazioni, per definire a monte regole condivise e protocolli di sicurezza e di Governace, affinché  l'AI non finisca per sopraffare l’umanità, causando un profondo cambiamento nella nostra civiltà. Tra i firmatari di questa petizione ci sono nomi illustri, a partire proprio da Elon Musk, CEO di Tesla, SpaceX, Twitter e tra i fondatori proprio di OpenAI insieme a Sam Atman; Steve Wozniak, co-fondatore di Apple, così come luminari dell’intelligenza artificiale quale Yoshua Bengio, vincitore del premio Turing (una specie di Nobel per l’Infomation Technology), e lo storico israeliano Yuval Noah Harari, noto per i suoi bestseller sulla storia dell’uomo e della civiltà. Tutte voci autorevoli che hanno preso coscienza del problema e si sono dichiarati seriamente allarmati su  una tecnologia, che si sta dimostrando molto più pervasiva e sovrastante di quanto ci si potesse immaginare. Lo stesso Geoffrey Hinton, considerato uno dei maggiori esperti di reti neurali, nonché uno dei padri dell’AI, ha deciso di lasciare Google, dove per 10 anni ha dato un grande contributo in termini di ricerca e innovazione, per potere esprimere liberamente le proprie preoccupazioni sull'evoluzione dei sistemi AI e sull’ondata di disinformazione a riguardo. Hinton, infatti, teme che l’intelligenza artificiale possa sconvolgere il mercato del lavoro, sostituendosi prepotentemente all’uomo, e paventa il rischio, fin troppo concreto, che la nostra esistenza possa essere schiacciata da un fenomeno ‘fuori controllo’, a  causa di sistemi che l’umanità non sarebbe più in grado di gestire e dominare.
Ora, al di là di possibili scenari apocalittici, neanche tanto remoti,  attualmente stiamo parlando, di fatto, di una tecnologia dirompente e pervasiva su cui, verosimilmente, nel corso dei prossimi 10 anni, si vedranno notevoli progressi in termini di capacità ed efficienza, ma non dobbiamo dimenticare che deve essere sempre l’uomo a governarla e non il contrario, altrimenti si corre il rischio di una vera e propria regressione dell’essere umano. Quindi, ben venga ChatGPT con tutte le sue straordinarie e sorprendenti potenzialità, ma facciamone un utilizzo intelligente e consapevole, non abdichiamo completamente all’uso della nostre capacità intellettive e conoscitive … insomma non mandiamo in pensione anticipata il nostro cervello!

L'articolo è stato pubblicato su NewsImpresa di giugno


fonti: Intelligenzaartificialeitalia.net, Spremutedigitali.com, diritto.it, Il Sole 24 Ore,  Repubblica, Wired, today.it, Avvenire, Wall Street Italia