Cosa è ChatGpt, l’intelligenza artificiale a portata di mano

Vantaggi e svantaggi, Alcuni consigli per utilizzarla al meglio

L’intelligenza artificiale non è il futuro, bensì il presente. Anzi, in alcuni Paesi, certi modelli di Ia (intelligenza artificiale, appunto) sono persino vecchi. Pensiamo al Giappone. Ora, quando noi parliamo di Ia subito il pensiero corre ad Hal 9000, il computer del capolavoro di Stanley Kubrick 2001 Odissea nello spazio: «I’m sorry, Dave. I’m afraid I can’t do that (Mi spiace, temo di non poterlo fare, ndr)», dice Hal quando si rifiuta di obbedire ai comandi dell’astronauta. Una macchina che ha dunque preso il sopravvento sull’umano che l’ha creata. Una forma di intelligenza capace in tutto e per tutto di replicare quella umana. L’intelligenza, sì, forse, ma non la coscienza, perché come scrive nel suo ultimo libro (Irriducibile, Mondadori) lo scienziato italiano Federico Faggin: «Ciascuno di noi ha una coscienza unica e irripetibile. Nessuna macchina potrà ricrearla. È il teorema della non clonabilità dell’informazione quantistica che ci assicura di ciò. Un computer non potrà mai essere cosciente, in quanto le sue informazioni e i suoi programmi sono sempre copiabili».

Chiedi e ti sarà risposto

Prendiamo ad esempio ChatGpt, la più nota fra le “intelligenze artificiali”. È sviluppata da OpenAI, società fondata nel 2015 da Elon Musk, Sam Altman e altri e che oggi – anche grazie agli investimenti annunciati da Apple e Nvidia – si avvia a superare i 100 miliardi di dollari di valore. Lo scrive il “Wall Street Journal”, c’è dunque da fidarsi. ChatGpt si basa su una rete neurale avanzata, addestrata su una vasta raccolta di dati strutturati, presi da Internet. Il processo di addestramento consiste nell’esporre il modello a miliardi di frasi e parole in modo che impari le strutture linguistiche, il contesto e le relazioni tra le parole.

L’Ia si basa su algoritmi, modelli matematici e tecniche avanzate come il machine learning (apprendimento automatico da macchina a macchina) e il deep learning (apprendimento profondo). Questi sistemi apprendono dai dati, migliorando le loro prestazioni nel tempo grazie all’esperienza. Tradotto, significa che la ChatGpt – anche nella sua versione base – è una sorta di super assistente che, su nostra richiesta, fa una ricerca tra miliardi di dati in un tempo di pochi secondi.

Alla Chat potete rivolgere qualunque domanda, e lei andrà a cercare la risposta visionando tutti i dati che abbiamo a disposizione e rispondendo quasi immediatamente. La Chat va “educata” (se avrete un tono gentile vi risponderà con un tono gentile), va interrogata sapendo che quanto più precisa sarà la nostra domanda tanto più precisa sarà la risposta. Ma soprattutto va usata con la consapevolezza che ogni risposta va comunque rivista, analizzata e soprattutto verificata. La ChatGpt può dare risposte errate o fuorvianti, poiché non ha una vera comprensione del mondo come un essere umano. Inoltre, non ha accesso a informazioni aggiornate in tempo reale, a meno che non sia stato addestrato su dati recenti. Però – fatte le debite verifiche – potrete fare in un tempo molto breve, rispetto allo svolgere una ricerca planetaria con le vostre mani, cose prima impensabili.

Pro e contro

Oggi un numero sempre più rilevante di persone la usa, per le finalità più disparate. Scrivere un testo, anche in un’altra lingua, fare ricerche e verificare delle diagnosi mediche, per fare un esempio spinoso. E qui si entra nel campo di battaglia fra “Apocalittici e integrati”, come furono definiti da Umberto Eco in un suo famoso libro del 1964. E si va dal “capo” di Google Sundar Pichai, che ha affermato: «L’intelligenza artificiale è una delle cose più importanti su cui l’umanità sta lavorando. È più profonda dell’elettricità o del fuoco», fino al famoso fisico Stephen Hawking, che a proposito dei rischi dell’Ia incontrollata ha detto: «Lo sviluppo dell’intelligenza artificiale completa potrebbe significare la fine della razza umana».

Già, ma allora come si fa a controllarla? E, soprattutto, è possibile farlo? L’Unione Europea ci sta provando, cercando di imporre un bollino da apporre su ogni “prodotto” (video, audio etc.) realizzato con l’ausilio della Ia. Ma basterà, o servirà, o rappresenterà l’approccio giusto? Certo i rischi ci sono sempre, soprattutto a fronte di una novità così sostanziale. Il principale è quello di continuare a regalare dati su di noi, che saranno utilizzati da altri a fini a noi sconosciuti e con profitti di cui non beneficeremo. A meno di non essere azionisti – ad esempio – di Nvidia, che negli ultimi due anni ha visto aumentare le proprie azioni del 1000%. Per dirla con Shoshana Zuboff, docente da più di 40 anni alla Harvard Business School, continueremo ad essere i fornitori inconsapevoli e non consensuali di quello che ha definito in un famoso libro, Il capitalismo della sorveglianza. Ovvero di un modello che si basa sull’estrazione, l’analisi e la vendita dei dati personali degli utenti da parte delle grandi aziende tecnologiche, come Google e Facebook, al fine di prevedere e influenzare i comportamenti umani per profitto. Non solo dunque una minaccia per la privacy individuale, ma soprattutto per la stessa democrazia.

Nemica dell’ambiente

C’è poi l’enorme tema della sostenibilità ambientale.
Primo: l’addestramento di grandi modelli di Ia, come Gpt, richiede una notevole potenza di calcolo e, quindi, una grande quantità di energia elettrica.
Secondo: i data center che eseguono operazioni di Ia consumano anche acqua per il raffreddamento e possono portare a un elevato consumo di risorse naturali.
Terzo: l’hardware utilizzato per l’Ia ha un ciclo di vita relativamente breve a causa della rapida obsolescenza tecnologica. La produzione e lo smaltimento di questi dispositivi elettronici contribuiscono all’inquinamento, in particolare attraverso l’estrazione di risorse minerarie e la gestione dei rifiuti elettronici. Un esempio significativo è il modello Gpt-3, il cui addestramento ha richiesto un consumo energetico paragonabile all’emissione di tonnellate di CO₂, aggravando il problema del cambiamento climatico. Anche su questo bisognerà attrezzarci e al più presto perché la rivoluzione è iniziata, andrà lontano e tanto vale seguirla da subito.

Arti Ahluwalia, professoressa presso il Dipartimento di Ingegneria dell’Informazione all’Università di Pisa, lavora all’intersezione fra biologia e tecnologia, studiando come i sistemi artificiali possano essere resi più efficienti e sostenibili attraverso l’integrazione con il mondo biologico. Secondo Ahluwalia, «la paura verso la robotica e l’Ia deriva spesso dall’ignoranza, e il progresso tecnologico è inevitabile e fa parte di un’evoluzione continua, simile alla rivoluzione agricola. Non possiamo arrestare il progresso e chi non si adatta potrebbe rischiare l’estinzione». Viene allora da parafrasare la frase finale di Humphrey Bogart nel film L’ultima minaccia del 1952, riferita allora alla stampa. Oggi potremmo dire: «È il progresso bellezza, il progresso, e tu non ci puoi far niente, niente!».

P.S. Per scrivere questo articolo è stata usata (anche) la ChatGpt.

Attenzione a…

C’è anche il risvolto della medaglia: se da un lato l’intelligenza artificiale (Ia) promette di rendere la vita più facile, dall’altro questo vale anche per i truffatori. Qui di seguito elenchiamo alcune buone norme di comportamento per difendersi, fra quelle contenute nella guida del Movimento per la difesa del cittadino dedicata all’Ia.

  1. L’Ia permette di creare mail estremamente somiglianti a quelle di banche, istituti finanziari o enti governativi.
    Come difendersi? Controllare bene l’indirizzo email del mittente, ignorare le mail che chiedono informazioni personali ed evitare di cliccare subito sui link.
  2. Con l’Ia si possono imitare voci, anche di conoscenti, rendendole molto simili a quelle reali. Come difendersi? Interrompere la chiamata al minimo sospetto ed eventualmente richiamare l’ente o la persona a un numero verificato.
  3. Immagini e video possono essere modificate per diffondere false notizie.
    Come difendersi? Verificare le fonti dell’immagine o del video, specialmente se contengono contenuti sensazionali o inaspettati.
  4. L’Ia permette di creare sui social network campagne pubblicitarie di prodotti inesistenti o fraudolenti.
    Come difendersi? Acquistare solo da siti web e venditori verificati, controllandone la reputazione prima di fare una transazione on line.
  5. Dati e grafici generati artificialmente possono indurre a investimenti truffa.
    Come difendersi? Approfondire sempre ogni proposta di investimento e consultare un consulente finanziario prima di prendere una decisione.

Iscriviti alla Newsletter

Le notizie della tua Cooperativa, una volta alla settimana. Guarda un esempio

Errore: Modulo di contatto non trovato.

Potrebbe interessarti