AI e la Psicologia
 Intelligenza artificiale

 

 

La capacità dei modelli di intelligenza artificiale generativa di completare sondaggi in modo indistinguibile dagli esseri umani solleva dubbi sulla validità dei dati raccolti tramite il web, avvertono i ricercatori Folco Panizza, Yara Kyrychenko e Jon Roozenbeek in un commento su Nature. Studi analizzati dagli autori mostrano che tra il 30% e il 90% delle risposte ai sondaggi online potrebbe risultare falsa o fraudolenta. Una già piccola percentuale di risposte spurie, tra il 3% e il 7%, può notevolmente distorcere i risultati statistici. Questa situazione è ulteriormente complicata dall’emergere di agenti IA in grado di generare risposte coerenti e con contenuti contestualmente sensati, talvolta superando le capacità di scrittura umana. Di conseguenza, gli strumenti tradizionali di valutazione si rivelano inadeguati nel distinguere le risposte autentiche da quelle automatizzate, esponendo così la ricerca sociale e l’analisi politica a un serio inquinamento dei dati. Gli autori suggeriscono di concentrarsi su segnali che l’IA trova difficili da simulare, come i metadati comportamentali (es. velocità di digitazione, uso di copia-incolla) e modelli di risposta che riflettono errori umani tipici. La chiave è che le macchine che rispondono «troppo bene» possono servire come indicatori di automazione, poiché gli errori delle IA seguono schemi prevedibili e diversi da quelli umani. Secondo i ricercatori, la salvaguardia dell’integrità dei dati richiede un costante aggiornamento degli strumenti di verifica da parte di ricercatori, piattaforme di sondaggi e finanziatori, per mantenere il passo con l’evoluzione delle capacità delle intelligenze artificiali.

Lascia un commento