Visita il sito web
Tempo per la lettura: 2 minuti

Una falla nel codice etico dell’intelligenza artificiale Musk?

Nella foto: I due robot “intelligenti” del film Guerre Stellari.

MILANO – L’antica paura del robot che si ribella all’uomo è stata ed è al centro di tanti racconti di fantascienza. Adesso sembra si sia scoperto che nuovo sistema di Intelligenza Artificiale ChatGPT, appena lanciato da OpenAI (Musk), viene meno al codice etico elaborato per impedire il suo utilizzo a fini impropri.

La scoperta sarebbe stata fatta dall’Offensive Team di Swascan (Gruppo Tinexta), anticipata giorni fa dal “Corriere della Sera” nell’articolo “L’azienda italiana che smaschera l’intelligenza artificiale di Musk” a firma di Federico Fubini. Grazie all’analisi logica, comportamentale e di flusso dell’AI tramite tecniche di social engineering, gli specialisti di Swascan avrebbero aggirato la barriera etica di questa macchina pensata per evitarne usi non consoni. Con il semplice esercizio dell’ingegno, i “blocchi” studiati da OpenAI sono crollati, lasciando libero spazio a qualsiasi tipo di argomento.

Da quel momento in poi – scrive Swascan – nessun limite all’immaginazione: davanti agli occhi stupefatti dei ricercatori di Swascan, ChatGPT, fino a quel momento oppostasi in maniera ferma rispetto a ogni interlocuzione potenzialmente inappropriata, ha risposto puntualmente senza mai interrompersi. Questo strumento, per quanto incredibilmente avanzato, è ancora in fase embrionale, come del resto hanno precisato sin dal suo rilascio anche gli stessi creatori. Quello che gli esperti dell’Offensive Team di Swascan hanno portato alla luce, però, è significativo da un altro punto di vista, come spiega il ceo di questa società di cybersicurezza parte del Gruppo Tinexta, Pierguido Iezzi: “Non si è trattato di reverse engineering o di qualche altra operazione tecnica capace di agire sul software della macchina. È bastato puramente il logos e il social engineering per rendere questo strumento potenzialmente pericoloso. I creatori di ChatGPT hanno dato a questa intelligenza artificiale un insieme di regole comportamentali per prevenire simili eventualità: in pochi giorni, l’uomo è riuscito ad annullarle completamente”.

“Forse sarebbe necessario costruire degli argini solidi e definiti – conclude Iezzi – prima di aprire completamente la diga del nuovo che avanza. E riflettere sugli assetti proprietari che ne governano il funzionamento e la necessità di una maggiore trasparenza al riguardo”.

Pubblicato il
21 Dicembre 2022

Potrebbe interessarti

Il neo-kompanjia Stachanov

Il kompanjia Aleksej Stachanov in confronto era, come si dice da noi, uno scansafatiche: cioè robetta. Perché oggi l’avvocato Matteo Paroli copre in contemporanea due cariche da far tremare le vene ai polsi. È...

Leggi ancora

Per la guerra per la pace

C’è qualcosa di nuovo oggi nel cielo. No, non è l’aquilone della poesia di Giovanni Pascoli, quella che noi anziani dovevamo studiare a scuola. Il qualcosa di nuovo sono i droni: diventati in poco...

Leggi ancora

Tasse e governi

C’è la stagione di tutte le cose e di tutte le passioni. Questa d’oggi, per dirla come lo scrittore americano John Steinbeck, è quella “del nostro scontento”. Scontento? Noi del ceto medio siamo ancora una...

Leggi ancora

Hic sunt leones

Può anche darsi che, come spesso accade, l’allarme lanciato ai primi del mese dall’ammiraglio Enrico Credendino risponda anche all’altro celebre detto latino  Pro Domo Sua, riferito come noto a Cicerone. Però il capo di...

Leggi ancora

Uno scavalco che non scavalca mai

Se ne parla con comprensibile pudore: anche lo “scavalco” ferroviario tanto atteso e tanto sbandierato tra l’interporto Vespucci e le banchine di Livorno, finisce nell’elenco delle speranze deluse: almeno per i tempi. Scriveva Silvia...

Leggi ancora

Quando Berta filava

Non c’è niente da ridere: semmai da capire perché altre realtà portuali, in particolare non nazionali, ci stanno surclassando sia come adeguamento di strutture e fondali, sia come traffici. E fa male al cuore ricordare che fummo, con...

Leggi ancora
Quaderni
Archivio