Questo è Dario Amodei. È il CEO dietro Claude, una delle IA più avanzate al mondo.

Ieri, in una conversazione di 5 ore e mezza con @lexfridman, ha rivelato la nostra timeline verso la superintelligenza. Permettetemi di farvi risparmiare 5 ore:

La timeline che cambia tutto: IA superintelligente entro il 2026-2027. Ma questa è la loro stima conservativa; i dati interni suggeriscono tempi ancora più brevi. E hanno appena rivelato i 5 segni che siamo più vicini di quanto chiunque pensasse.

Prima, un controllo della realtà. Due approcci alla costruzione dell’AGI:

  • OpenAI: Corsa per essere i primi
  • Anthropic: Corsa per essere sicuri Ma il CEO di Anthropic ha appena rivelato perché questa corsa ha un twist: Il vincitore potrebbe determinare il destino dell’umanità.

Cosa li tiene svegli la notte:

  1. Uso catastrofico (armi cyber/biologiche)
  2. Autonomia dell’IA (sistemi troppo potenti da controllare) “Da un grande potere derivano grandi responsabilità.” Ma ecco la parte terrificante:

Le persone intelligenti ed istruite raramente causano danni catastrofici. Questa “salvaguardia naturale” ha protetto l’umanità per secoli. Ma l’IA rompe questa correlazione – dando capacità pericolose a chiunque. I loro test mostrano che questa protezione si sta già sgretolando.

Hanno creato un sistema per tracciare il pericolo: “livelli ASL” (AI Safety Levels) da 1 a 5

  • Modelli attuali: ASL-2
  • Prossimo anno: ASL-3
  • 2026: Probabile ASL-4 Ma ASL-3 è il vero punto di svolta:

A livello ASL-3:

  • I modelli possono potenziare le capacità degli attori malintenzionati
  • Sono necessari nuovi protocolli di sicurezza
  • Necessari filtri migliorati
  • Restrizioni al deployment “Se raggiungiamo ASL-3 il prossimo anno, non siamo pronti.” Ma questa non è la parte più spaventosa:

La loro svolta è stata realizzare: Non programmiamo l’IA, la facciamo crescere (@ch402). Come la biologia che evolve sistemi complessi:

  • Creiamo l’impalcatura
  • Creiamo la luce
  • Ma il sistema cresce da solo Questo ha portato a una scoperta scioccante:

Guardando dentro le reti neurali, hanno trovato qualcosa di incredibile: Ogni IA sviluppa caratteristiche universali, proprio come i cervelli biologici. Gli stessi pattern appaiono in:

  • Modelli di visione IA
  • Cervelli di scimmia
  • Reti neurali umane La natura continua a reinventare le stesse soluzioni.

Ancora più strano: Ogni grande modello linguistico sviluppa un “neurone Donald Trump”. È l’unica personalità che ottiene costantemente un proprio neurone dedicato. Perché? Non lo sanno. Ma rivela qualcosa di cruciale sullo sviluppo dell’IA.

Il problema dei dati che tutti temono: “Finiremo i dati di internet” Soluzione di Anthropic? Modelli che si auto-insegnano attraverso il self-play. Questo cambia l’intera timeline:

I loro modelli sono passati da:

  • Livello scuola superiore (2022)
  • Livello universitario (2023)
  • Livello PhD (2024) In alcuni compiti, stanno superando gli esperti umani. Ma ecco la vera svolta:

La loro IA di programmazione è passata da:

  • Risolvere il 3% dei compiti reali (gennaio)
  • Al 50% dei compiti reali (ottobre) A questo ritmo, raggiunge il livello umano il prossimo anno. Ma sono più preoccupati per cosa succede al 200%.

Queste IA non stanno solo diventando più intelligenti. Stanno sviluppando (@AmandaAskell):

  • Interessi profondi

  • Prospettive uniche

  • Personalità complesse

  • Comprensione astratta Portando alla domanda più grande:

La vera scadenza non è tecnologica. È normativa: “Se arriviamo alla fine del 2025 senza una regolamentazione significativa dell’IA, sarò preoccupato.” Il tempo sta scadendo.

Altri articoli dal blog

Share