Il co-fondatore di Ethereum, Vitalik Buterin, ha elogiato una nuova abitudine che sta prendendo piede su X: gli utenti che chiamano l’IA della piattaforma, Grok, per esprimere un parere sui tweet. In un post sul suo account X, Buterin ha definito “la facilità con cui si può chiamare Grok su Twitter” uno degli sviluppi più importanti per la “propensione alla verità” del sito, paragonando il suo impatto solo a quello di Community Notes. Ha aggiunto che un vantaggio chiave è l’imprevedibilità delle risposte di Grok, raccontando episodi in cui le persone si aspettavano che il bot confermasse affermazioni politiche estreme, ma invece venivano sorprese quando Grok “li smentiva”.
Grok, il chatbot sviluppato da xAI e integrato in X, è rapidamente diventato una parte visibile delle dinamiche di conversazione della piattaforma. Gli utenti spesso invocano Grok nelle risposte per chiedergli di verificare delle affermazioni, fornire contesto o semplicemente prendere in giro un post chiedendo il verdetto del bot. Questo comportamento, che può assomigliare a una forma automatizzata di “dunking”, ha cambiato il modo in cui si svolgono i dibattiti sul sito: invece di interagire con l’autore originale, molti partecipanti si rivolgono a Grok come arbitro terzo.
Rafforzare la verità su X
L’approvazione di Buterin arriva in un contesto di dibattito più ampio su se le IA collegate ai social network migliorino il discorso pubblico o ne amplifichino gli istinti peggiori. I sostenitori sottolineano la capacità di Grok di fornire rapidamente contesto e correggere falsità evidenti, aiutando i lettori a smascherare la disinformazione. Gli scettici avvertono che trasformare un’IA in un’arma retorica rischia di abbassare il livello delle discussioni, invitando le persone a usare il fact-checking come strumento di umiliazione piuttosto che di comprensione.
La controversia sul comportamento di Grok si è intensificata dopo diversi episodi di alto profilo in cui il bot ha fornito risposte inaspettate, talvolta infiammatorie, quando sollecitato su argomenti sensibili. Giornalisti e ricercatori hanno segnalato schemi di risposte strane o politicamente cariche, che hanno portato a critiche su come Grok venga guidato e moderato. Questi episodi hanno reso alcuni osservatori cauti nel fare affidamento su una singola IA collegata alla rete per giudicare affermazioni controverse.
I commenti di Buterin riecheggiano anche il suo precedente apprezzamento per Community Notes, la funzione decentralizzata di fact-checking su X che ha descritto come un passo incoraggiante verso la ricerca della verità tramite la comunità sulle piattaforme social. Sottolineando entrambi gli strumenti, ha segnalato il suo sostegno a meccanismi multilivello e informati dalla comunità che possono contrastare la disinformazione, riconoscendo implicitamente la natura imperfetta e talvolta sorprendente delle risposte automatiche.
Finché Grok continuerà a essere intrecciato nelle interazioni quotidiane su X, la tensione tra la sua utilità e la sua imprevedibilità probabilmente persisterà. Per ora, gli utenti stanno sperimentando: alcuni trattano il bot come un rapido controllo di sanità mentale; altri lo usano come arma; e alcuni, come osserva Buterin, rimangono sorpresi quando la macchina si rifiuta di recitare la parte che si aspettavano.
