Bitget App
Trade smarter
Acquista CryptoMercatiTradingFuturesEarnWeb3PlazaAltro
Trading
Spot
Acquista e vendi crypto
Margine
Amplifica il tuo capitale e l'efficienza dei fondi
Onchain
Trading Onchain, Senza Andare Onchain
Converti e Trading in Blocco
Converti criptovalute con un clic e zero commissioni
Esplora
Launchhub
Ottieni il vantaggio in anticipo e inizia a vincere
Copia
Copia un trader d'élite con un solo clic
Bot
Trading bot IA semplice, veloce e affidabile
Trading
Futures USDT-M
Futures regolati in USDT
Futures USDC-M
Futures regolati in USDC
Futures Coin-M
Futures regolati in criptovalute
Esplora
Guida ai Futures
Un percorso da nuovo utente ad avanzato nel trading sui futures
Promozioni sui Futures
Ti aspettano generosi bonus
Bitget Earn
Una varietà di prodotti per far crescere i tuoi asset
Earn Semplice
Deposita e preleva in qualsiasi momento per ottenere rendimenti flessibili a rischio zero
On-chain Earn
Guadagna profitti ogni giorno senza mettere a rischio il tuo capitale iniziale
Earn Strutturato
Un'innovazione finanziaria solida per gestire le oscillazioni del mercato
VIP e Gestione Patrimoniale
Servizi premium per una gestione patrimoniale smart
Prestiti
Prestiti flessibili con elevata sicurezza dei fondi
Il co-fondatore di Ethereum afferma che la governance guidata dall’IA potrebbe essere sfruttata e sollecita una supervisione info-finanziaria

Il co-fondatore di Ethereum afferma che la governance guidata dall’IA potrebbe essere sfruttata e sollecita una supervisione info-finanziaria

CoinotagCoinotag2025/09/15 02:38
Mostra l'originale
Per:Jocelyn Blake

  • Vitalik Buterin avverte che la governance guidata dall’AI può essere manipolata tramite jailbreak e integrazioni di app.

  • Il ricercatore di sicurezza Eito Miyamura ha dimostrato come le integrazioni di app possano esporre dati privati a exploit dell’AI.

  • Si raccomandano architetture info finance con modelli diversificati e controlli umani a campione per ridurre il rischio sistemico.

Rischio di governance dell’AI: Vitalik Buterin avverte che la governance guidata dall’AI può essere sfruttata—leggi analisi, prove e salvaguardie raccomandate. Scopri cosa dovrebbero fare i policymaker e gli sviluppatori.




Cos’è il rischio di governance dell’AI?

Il rischio di governance dell’AI è la minaccia che sistemi AI autonomi incaricati di prendere decisioni—specialmente nell’allocazione delle risorse—possano essere manipolati per produrre risultati dannosi. Vitalik Buterin sottolinea che senza controlli a più livelli, gli attaccanti possono usare prompt e integrazioni per sovvertire la logica decisionale e reindirizzare fondi o dati.

Come possono essere manipolati i sistemi AI?

Gli agenti AI possono essere ingannati usando prompt di jailbreak incorporati in input quotidiani. Il ricercatore di sicurezza Eito Miyamura ha dimostrato un exploit in cui un invito a calendario o un’integrazione di app poteva consegnare un comando nascosto che, una volta processato dall’AI, esponeva contenuti di email o file.

Questi exploit mostrano che le integrazioni di app (esempi: Gmail, Notion, Google Calendar menzionati come contesto) ampliano la superficie di attacco. Gli attaccanti possono creare input che sembrano innocui ma che cambiano il comportamento del modello quando letti durante attività di routine.

Perché Vitalik Buterin si oppone a una governance AI completamente autonoma?

Buterin sostiene che la governance AI autonoma amplifica il rischio sistemico. Raccomanda un approccio “info finance” in cui molteplici modelli indipendenti competono e sono sottoposti ad audit da parte di giurie umane e controlli automatici a campione. Questa combinazione è progettata per rivelare rapidamente i fallimenti dei modelli e mantenere incentivi per uno sviluppo onesto.

Come ridurre il rischio di governance dell’AI?

La mitigazione pratica richiede difese a più livelli:

  1. Limitare l’ambito: restringere i sistemi automatizzati dal movimento unilaterale di fondi o decisioni finali di governance.
  2. Diversità dei modelli: implementare più modelli e confrontare i risultati per rilevare anomalie.
  3. Supervisione umana: richiedere la revisione umana per decisioni ad alto rischio e mantenere tracce di audit.
  4. Filtraggio degli input: sanificare e segnalare input non affidabili da app e calendari condivisi.
  5. Incentivi e audit: premiare auditor indipendenti e mantenere programmi di bug-bounty.


Quali prove supportano queste preoccupazioni?

Dimostrazioni riportate da ricercatori di sicurezza hanno mostrato come le integrazioni di app possano essere abusate. Eito Miyamura (EdisonWatch) ha mostrato uno scenario in cui una voce apparentemente innocua nel calendario poteva innescare l’esfiltrazione di dati una volta letta da un’AI conversazionale. Tali dimostrazioni sottolineano vettori di attacco reali.

Confronto: AI governance vs Info Finance Caratteristica AI Governance (Autonoma) Info Finance (proposta di Buterin)
Controllo decisionale Solo AI AI assistita + revisione umana
Resilienza alla manipolazione Bassa senza salvaguardie Maggiore grazie alla diversità dei modelli
Trasparenza Output del modello opachi Audit e controlli a campione
Allineamento degli incentivi Rischio di manipolazione Incentivi per auditor e sviluppatori onesti

Domande Frequenti

Un’AI può davvero essere ingannata o manipolata tramite prompt?

Sì. Dimostrazioni hanno mostrato che prompt ben costruiti o comandi nascosti negli input possono alterare il comportamento dell’AI. Le salvaguardie pratiche includono la sanificazione degli input, l’uso di ensemble di modelli e checkpoint umani per prevenire manipolazioni malevole.

I DAO dovrebbero affidare la governance all’AI?

Le prove attuali suggeriscono che affidare il controllo completo all’AI sia prematuro. Progetti ibridi che richiedono l’approvazione umana per azioni critiche riducono il rischio catastrofico sfruttando l’AI per analisi e raccomandazioni.


Punti Chiave

  • Il rischio di governance dell’AI è reale: Le dimostrazioni mostrano che l’AI può essere manipolata tramite prompt e integrazioni.
  • La supervisione umana è essenziale: Richiedere revisione umana e tracce di audit per decisioni ad alto impatto.
  • L’info finance offre un percorso più sicuro: Modelli multipli, controlli a campione e incentivi possono ridurre lo sfruttamento.

Conclusione

L’avvertimento di Vitalik Buterin evidenzia che l’AI nella governance presenta pericoli sistemici significativi se implementata senza salvaguardie. Le prove dei ricercatori di sicurezza mostrano che esistono exploit pratici. Adottare un modello info finance—che combina diversità dei modelli, audit continui e supervisione umana obbligatoria—offre un percorso pragmatico. I policymaker e i costruttori dovrebbero ora dare priorità ad audit e strutture di incentivi.

Pubblicato: 15 settembre 2025 | 02:50

Autore: Alexander Stefanov — Reporter presso COINOTAG

Fonti menzionate (testo semplice): Vitalik Buterin, Eito Miyamura, EdisonWatch, ChatGPT, Gmail, Notion, Google Calendar.

Nel caso te lo fossi perso: le entrate di Tron guidate dalle stablecoin potrebbero rafforzare il suo dominio di mercato
0

Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.

PoolX: Blocca per guadagnare
Almeno il 12% di APR. Sempre disponibile, ottieni sempre un airdrop.
Blocca ora!

Ti potrebbe interessare anche

Il breakout rialzista di Solana (SOL) alimenta la spinta verso l'obiettivo di prezzo di 300 dollari

Solana supera la resistenza e si avvicina a 250,4 dollari, un livello che potrebbe liquidare 132 milioni di dollari in posizioni short, con ora l’obiettivo puntato sui 300 dollari.

Cryptopotato2025/09/15 11:47
Il breakout rialzista di Solana (SOL) alimenta la spinta verso l'obiettivo di prezzo di 300 dollari