Skip to main content

Questo è Dario Amodei. È il CEO dietro Claude, una delle IA più avanzate al mondo.

Ieri, in una conversazione di 5 ore e mezza con @lexfridman, ha rivelato la nostra timeline verso la superintelligenza. Permettetemi di farvi risparmiare 5 ore:

La timeline che cambia tutto: IA superintelligente entro il 2026-2027. Ma questa è la loro stima conservativa; i dati interni suggeriscono tempi ancora più brevi. E hanno appena rivelato i 5 segni che siamo più vicini di quanto chiunque pensasse.

Prima, un controllo della realtà. Due approcci alla costruzione dell’AGI:

  • OpenAI: Corsa per essere i primi
  • Anthropic: Corsa per essere sicuri Ma il CEO di Anthropic ha appena rivelato perché questa corsa ha un twist: Il vincitore potrebbe determinare il destino dell’umanità.

Cosa li tiene svegli la notte:

  1. Uso catastrofico (armi cyber/biologiche)
  2. Autonomia dell’IA (sistemi troppo potenti da controllare) “Da un grande potere derivano grandi responsabilità.” Ma ecco la parte terrificante:

Le persone intelligenti ed istruite raramente causano danni catastrofici. Questa “salvaguardia naturale” ha protetto l’umanità per secoli. Ma l’IA rompe questa correlazione – dando capacità pericolose a chiunque. I loro test mostrano che questa protezione si sta già sgretolando.

Hanno creato un sistema per tracciare il pericolo: “livelli ASL” (AI Safety Levels) da 1 a 5

  • Modelli attuali: ASL-2
  • Prossimo anno: ASL-3
  • 2026: Probabile ASL-4 Ma ASL-3 è il vero punto di svolta:

A livello ASL-3:

  • I modelli possono potenziare le capacità degli attori malintenzionati
  • Sono necessari nuovi protocolli di sicurezza
  • Necessari filtri migliorati
  • Restrizioni al deployment “Se raggiungiamo ASL-3 il prossimo anno, non siamo pronti.” Ma questa non è la parte più spaventosa:

La loro svolta è stata realizzare: Non programmiamo l’IA, la facciamo crescere (@ch402). Come la biologia che evolve sistemi complessi:

  • Creiamo l’impalcatura
  • Creiamo la luce
  • Ma il sistema cresce da solo Questo ha portato a una scoperta scioccante:

Guardando dentro le reti neurali, hanno trovato qualcosa di incredibile: Ogni IA sviluppa caratteristiche universali, proprio come i cervelli biologici. Gli stessi pattern appaiono in:

  • Modelli di visione IA
  • Cervelli di scimmia
  • Reti neurali umane La natura continua a reinventare le stesse soluzioni.

Ancora più strano: Ogni grande modello linguistico sviluppa un “neurone Donald Trump”. È l’unica personalità che ottiene costantemente un proprio neurone dedicato. Perché? Non lo sanno. Ma rivela qualcosa di cruciale sullo sviluppo dell’IA.

Il problema dei dati che tutti temono: “Finiremo i dati di internet” Soluzione di Anthropic? Modelli che si auto-insegnano attraverso il self-play. Questo cambia l’intera timeline:

I loro modelli sono passati da:

  • Livello scuola superiore (2022)
  • Livello universitario (2023)
  • Livello PhD (2024) In alcuni compiti, stanno superando gli esperti umani. Ma ecco la vera svolta:

La loro IA di programmazione è passata da:

  • Risolvere il 3% dei compiti reali (gennaio)
  • Al 50% dei compiti reali (ottobre) A questo ritmo, raggiunge il livello umano il prossimo anno. Ma sono più preoccupati per cosa succede al 200%.

Queste IA non stanno solo diventando più intelligenti. Stanno sviluppando (@AmandaAskell):

  • Interessi profondi

  • Prospettive uniche

  • Personalità complesse

  • Comprensione astratta Portando alla domanda più grande:

La vera scadenza non è tecnologica. È normativa: “Se arriviamo alla fine del 2025 senza una regolamentazione significativa dell’IA, sarò preoccupato.” Il tempo sta scadendo.

Rimani aggiornato
Iscriviti alla newsletter di altamente
Rimani aggiornato
Iscriviti alla newsletter di altamente
5.0js_loader×