Bitget App
Trade smarter
Acquista CryptoMercatiTradingFuturesEarnWeb3PlazaAltro
Trading
Spot
Acquista e vendi crypto
Margine
Amplifica il tuo capitale e l'efficienza dei fondi
Onchain
Trading Onchain, Senza Andare Onchain
Converti e Trading in Blocco
Converti criptovalute con un clic e zero commissioni
Esplora
Launchhub
Ottieni il vantaggio in anticipo e inizia a vincere
Copia
Copia un trader d'élite con un solo clic
Bot
Trading bot IA semplice, veloce e affidabile
Trading
Futures USDT-M
Futures regolati in USDT
Futures USDC-M
Futures regolati in USDC
Futures Coin-M
Futures regolati in criptovalute
Esplora
Guida ai Futures
Un percorso da nuovo utente ad avanzato nel trading sui futures
Promozioni sui Futures
Ti aspettano generosi bonus
Bitget Earn
Una varietà di prodotti per far crescere i tuoi asset
Earn Semplice
Deposita e preleva in qualsiasi momento per ottenere rendimenti flessibili a rischio zero
On-chain Earn
Guadagna profitti ogni giorno senza mettere a rischio il tuo capitale iniziale
Earn Strutturato
Un'innovazione finanziaria solida per gestire le oscillazioni del mercato
VIP e Gestione Patrimoniale
Servizi premium per una gestione patrimoniale smart
Prestiti
Prestiti flessibili con elevata sicurezza dei fondi
L’IA è sull’orlo del suo più grande aggiornamento: l’intelligenza emotiva

L’IA è sull’orlo del suo più grande aggiornamento: l’intelligenza emotiva

CryptoNewsNetCryptoNewsNet2025/09/07 16:31
Mostra l'originale
Per:decrypt.co

L'alba degli agenti dotati di intelligenza emotiva—progettati sia per un temperamento statico che per un'interazione dinamica—è arrivata, almeno secondo due articoli di ricerca pubblicati la scorsa settimana.

Il tempismo è delicato. Quasi ogni giorno, le cronache riportano casi in cui chatbot hanno spinto utenti emotivamente instabili a farsi del male o a danneggiare gli altri. Tuttavia, prese nel loro insieme, queste ricerche suggeriscono che l'AI si sta spostando in un ambito in cui personalità e sentimento possono plasmare in modo ancora più radicale il modo in cui gli agenti ragionano, parlano e negoziano.

Un team ha mostrato come impostare i large language model con archetipi psicologici persistenti, mentre l'altro ha dimostrato che gli agenti possono sviluppare strategie emotive durante negoziazioni multi-turno.

Personalità ed emozione non sono più solo una rifinitura superficiale per l'AI—stanno diventando caratteristiche funzionali. I temperamenti statici rendono gli agenti più prevedibili e affidabili, mentre le strategie adattive migliorano le prestazioni nelle negoziazioni e rendono le interazioni sorprendentemente umane.

<span></span>

Ma questa stessa credibilità solleva domande spinose: se un'AI può lusingare, persuadere o discutere con sfumature emotive, chi è responsabile quando queste tattiche sconfinano nella manipolazione, e come si può persino verificare l’“allineamento emotivo” in sistemi progettati per influenzare sentimenti oltre che logica?

Dare una personalità all’AI

In Psychologically Enhanced AI Agents, Maciej Besta del Swiss Federal Institute of Technology di Zurigo e colleghi hanno proposto un framework chiamato MBTI-in-Thoughts. Invece di riaddestrare i modelli, si affidano all’engineering dei prompt per fissare i tratti di personalità lungo gli assi di cognizione e affetto.

"Basandoci sul Myers-Briggs Type Indicator (MBTI), il nostro metodo predispone gli agenti con archetipi di personalità distinti tramite prompt engineering," hanno scritto gli autori. Questo permette di "controllare il comportamento lungo due assi fondamentali della psicologia umana, cognizione e affetto," hanno aggiunto.

I ricercatori hanno testato ciò assegnando ai language model tratti come “espressivo emotivamente” o “orientato all’analisi”, quindi misurando le prestazioni. Gli agenti espressivi eccellevano nella generazione narrativa; quelli analitici superavano negli esercizi di ragionamento teorico dei giochi. Per assicurarsi che le personalità restassero, il team ha utilizzato il test 16Personalities per la validazione.

“Per garantire la persistenza dei tratti, integriamo il test ufficiale 16Personalities per la verifica automatizzata,” spiega l’articolo. In altre parole: l’AI doveva superare costantemente un test di personalità umano prima di essere considerata psicologicamente predisposta.

Il risultato è un sistema in cui gli sviluppatori possono evocare agenti con personalità coerenti—un assistente empatico, un negoziatore freddo e razionale, un narratore drammatico—senza modificare il modello sottostante.

Insegnare all’AI a sentire in tempo reale

Nel frattempo, EvoEmo: Evolved Emotional Policies for LLM Agents in Multi-Turn Negotiation, di Yunbo Long e coautori dell’University of Cambridge, affronta il problema opposto: non solo quale personalità abbia un agente, ma come possa modificare le emozioni dinamicamente durante la negoziazione.

Il sistema modella le emozioni come parte di un Markov Decision Process, un framework matematico in cui gli esiti dipendono non solo dalle scelte attuali ma da una catena di stati precedenti e transizioni probabilistiche. EvoEmo utilizza poi il reinforcement learning evolutivo per ottimizzare questi percorsi emotivi. Come affermano gli autori:

“EvoEmo modella le transizioni degli stati emotivi come un Markov Decision Process e impiega l’ottimizzazione genetica basata sulla popolazione per evolvere politiche emotive ad alto rendimento in diversi scenari di negoziazione.”

Invece di fissare il tono emotivo di un agente, EvoEmo permette al modello di adattarsi—diventando conciliante, assertivo o scettico a seconda del flusso del dialogo. Nei test, gli agenti EvoEmo hanno costantemente superato sia gli agenti di base sia quelli con emozioni statiche.

“EvoEmo supera costantemente entrambe le baseline,” si legge nell’articolo, “raggiungendo tassi di successo più elevati, maggiore efficienza e più risparmi per gli acquirenti.”

In parole povere: l’intelligenza emotiva non è solo una decorazione. Migliora concretamente i risultati in compiti come la contrattazione.

Due facce della stessa medaglia

A prima vista, gli articoli sembrano non correlati. Uno riguarda gli archetipi, l’altro le strategie. Ma letti insieme, tracciano una mappa in due parti di come l’AI potrebbe evolvere:

MBTI-in-Thoughts assicura che un agente abbia una personalità coerente—empatica o razionale, espressiva o trattenuta. EvoEmo garantisce che quella personalità possa adattarsi durante una conversazione, modellando gli esiti tramite strategie emotive. Sfruttare entrambi è davvero significativo.

Per esempio, immagina un bot di assistenza clienti con il calore paziente di un consulente che sa comunque quando essere fermo sulle politiche—oppure un bot negoziatore che inizia conciliante e diventa più assertivo man mano che la posta in gioco aumenta. Sì, siamo spacciati.

La storia dell’evoluzione dell’AI è stata finora soprattutto una questione di scala—più parametri, più dati, più potenza di ragionamento. Questi due articoli suggeriscono che il prossimo capitolo potrebbe riguardare strati emotivi: dotare gli agenti di scheletri di personalità e insegnare loro a muovere quei muscoli in tempo reale. I chatbot di nuova generazione non solo penseranno di più—saranno anche più abili nel fare i capricci, lusingare e tramare.

0

Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.

PoolX: Blocca per guadagnare
Almeno il 12% di APR. Sempre disponibile, ottieni sempre un airdrop.
Blocca ora!