
Un recente studio condotto da un team di ricercatori dell’EPFL, dell’Università di Princeton e della Fondazione Bruno Kessler ha rivelato risultati sorprendenti riguardo alla persuasività dei sistemi di intelligenza artificiale, in particolare GPT-4. Pubblicato sulla rivista Nature Human Behaviour, lo studio ha messo in luce come questo modello di linguaggio sia in grado di superare gli esseri umani in termini di capacità persuasiva, specialmente in contesti di dibattito individuale.
Risultati dello studio
I ricercatori hanno scoperto che GPT-4 si dimostra più efficace degli esseri umani nei dibattiti faccia a faccia, soprattutto quando possiede informazioni personali sugli interlocutori, come età, professione e orientamento politico. In effetti, il modello riesce a influenzare le opinioni altrui utilizzando solo sei set di dati di base, senza necessità di una profilazione approfondita. Quando non è presente alcuna personalizzazione, GPT-4 si comporta in modo simile a un essere umano, ma attivando la personalizzazione, la sua capacità persuasiva aumenta del 64,4%. Questo porta a un tasso di successo del 81,2% nel far cambiare idea all’interlocutore, un risultato nettamente superiore rispetto a un dibattito tradizionale tra due persone.
Implicazioni delle scoperte
Un aspetto interessante emerso dai test è che i partecipanti tendevano a cambiare idea più facilmente quando sapevano di conversare con un’intelligenza artificiale, rispetto a quando credevano di discutere con un altro essere umano. Questo fenomeno potrebbe essere attribuito all’approccio analitico e logico di GPT-4, che contrasta con l’approccio emotivo e narrativo degli esseri umani. Quando il modello d’IA ha accesso a informazioni personali, riesce a costruire argomenti più mirati e pertinenti, mantenendo un tono impersonale. Le conseguenze di tali dinamiche potrebbero rivelarsi problematiche, soprattutto in ambiti come la politica, i forum online e i social network, dove la manipolazione delle opinioni pubbliche potrebbe avvenire con maggiore facilità.
Possibili scenari futuri
Le scoperte di questo studio suggeriscono che l’utilizzo di modelli come GPT-4 potrebbe avere un impatto significativo sulla formazione dell’opinione pubblica e sulla polarizzazione dei dibattiti su temi controversi. La capacità di influenzare le percezioni attraverso argomentazioni strutturate e mirate rappresenta una nuova frontiera per la comunicazione e l’interazione sociale. Contestualmente, un rapporto recente ha evidenziato che anche gli insegnanti stanno integrando strumenti come ChatGPT nelle loro pratiche didattiche, suscitando preoccupazioni tra gli studenti riguardo l’equità e l’uso etico di tali strumenti.
Le ricerche continuano a esplorare le potenzialità e i rischi associati all’uso dell’intelligenza artificiale nel dialogo e nella persuasione, aprendo la strada a un dibattito sempre più ampio sulle implicazioni etiche e sociali di queste tecnologie.