Occhio all’intelligenza artificiale, può ingannare i sondaggi (e la ricerca delle scienze sociali)
L’allarme del prof. Panizza (Imt Lucca) con i colleghi di Cambridge. Quali contromosse

In primo piano il professor Folco Panizza della Scuola Imt di Lucca
LUCCA. «L’intelligenza artificiale generativa è ormai in grado di simulare perfettamente le risposte degli esseri umani: un’abilità che rischia di “inquinare” i risultati dei sondaggi online usati dalla ricerca sociale, ma anche dalla politica». Parte da qui la Scuola Imt di Lucca per presentare il lavoro di uno dei propri studiosi, Folco Panizza, docente della Scuola Imt di Lucca, con il team di ricerca MoMiLab che incrocia strumenti delle neuroscienze con l’imaging cerebrale e la psicofisiologia sperimentale con le neuroscienze cognitive. Il risultato è un lavoro realizzato da Panizza in tandem con due colleghi dell’università di Cambridge, Yara Kyrychenko e Jon Roozenbeek: è stato pubblicato su “Nature”, una fra le più importanti riviste scientifiche che esistano al mondo.
Nello studio dal titolo “Gli strumenti di intelligenza artificiale per la compilazione di sondaggi superano le capacità umane” si mette in evidenza il grande mutamento che sta rivoluzionando le ricerche nelle scienze sociali: negli ultimi vent’anni – viene sottolineato – le piattaforme di reclutamento online che aiutano i ricercatori a effettuare «in modo rapido e economico» sondaggi che coinvolgono «un gran numero di persone». E qui si citano strumenti come Amazon Mechanical Turk, Prolific, Cloud Research’s Prime Panels e Cint’s Lucid definendoli «strumenti essenziali».
Ma resta il problela della accuratezza : non sono mancate le preoccupazioni relative a sondaggi fasulli o falsificati da una partecipazione solo fittizia. Gli studiosi segnalano che in taluni test i partecipanti cercano di cavarsela nel minor tempo possibile perché sono interessati solo a monetizzare il compenso («in genere 6-12 dollari all’ora») e dunque mirano soltanto a cavarsela quanto più alla svelta possibile.
I tre firmatari dell’analisi mettono in guardia: basta il 3-7% di dati “inquinati” per rendere inaffidabili i risultati e distorceli al punto da rendere imprecise le interpretazioni. È un problema che «sta peggiorando», dicono. Anche perché i docenti rilevano che, secondo recenti studi, «tra il 30% e il 90% delle risposte alle indagini sulle scienze sociali può essere inautentico o fraudolento». È una questione che si fa sentire soprattutto nel caso che si faccia riferimento a gruppi sociali specifici o ai margini, comunque magari difficili da reperire o contattare e per questo sono in genere reclutati online: questo aspetto aumenta «il rischio di frodi e interferenze» per via dell’utilizzo di programmi automatizzati (bot).
La novità adesso sta proprio lì: è un salto di qualità che aggrava fortemente il pericolo di inaffidabilità dei risultati perché i sistemi di risposta basati sull’intelligenza artificiale – viene messo in risalto – oggi sono in grado di generare risposte fluide, coerenti e sensibili al contesto, spesso superando le capacità di scrittura degli esseri umani.

Sondaggio
Il professore dell’istituto universitario lucchese di studi avanzati segnala che «gli strumenti di riconoscimento dell’intelligenza artificiale utilizzati finora per distinguere gli esseri umani dai bot non sono più efficaci». Aggiungendo poi: «Oggi, quando analizziamo le risposte di un sondaggio, non siamo più in grado di stabilire se chi ha risposto sia una persona o meno e, di conseguenza, tutti i dati raccolti sono potenzialmente contaminati».
Dal quartier generale della istituzione accademica lucchese si segnala che i tre studiosi indicano una strada per provare a risolvere il problema invitando a «un cambiamento di strategia su più fronti». A cominciare dall’«analizzare i modelli di risposta e i metadati comportamentali, come la velocità di digitazione della risposta, i tasti premuti e il comportamento di copia e incolla: tutti parametri che possono aiutare a identificare le risposte statisticamente improbabili per un essere umano».
Ma è soprattutto un altro elemento che può aiutare a distinguere le risposte date dalle macchine da quelle date dagli umani: occorre «costringere le macchine a fallire» perché – viene fatto rilevare – le macchine «sono molto brave a imitare il comportamento degli esseri umani, ma sono molto meno brave a commettere gli errori tipici degli esseri umani». Da tradurre così: se la risposta è troppo perfetta, già di per sé questo può essere un segnale.
Resta comunque indispensabile per i ricercatori come pure per le piattaforme di sondaggi (ma anche per chi finanzia le ricerche) prendere «precauzioni mirate per salvaguardare l’integrità dei dati, man mano che le capacità dell’intelligenza artificiale continuano ad avanzare». Passa da qui – viene ribadito – «la protezione della credibilità della ricerca nelle scienze sociali, e non solo».











