In un’intervista esclusiva al Guardian, Jared Kaplan, cofondatore e Chief Scientist della società di intelligenza artificiale Anthropic, ha lanciato un chiaro monito alla comunità scientifica e ai governi: il rapido sviluppo di AI in grado di addestrarsi autonomamente potrebbe portare entro pochi anni a una “esplosione di intelligenza” non governabile. Secondo Kaplan, il tempo per agire è limitato: “Dobbiamo decidere entro il 2030 se permettere alle AI di evolversi da sole”.
Anthropic è nota per il suo approccio alla sicurezza dell’AI, con progetti come Claude, il rivale “responsabile” di ChatGPT. Kaplan sostiene che lo sviluppo incontrollato di modelli in grado di apprendere e migliorarsi senza supervisione umana potrebbe sfuggire di mano. “L’autonomia dell’addestramento apre la porta a dinamiche evolutive imprevedibili”, afferma, evocando lo scenario noto come “intelligenza artificiale generale” (AGI).
Secondo l’esperto, la politica è in ritardo: “I governi stanno appena iniziando a regolamentare i modelli attuali, ma intanto si sviluppano sistemi capaci di auto-migliorarsi”. Kaplan invoca un quadro normativo internazionale, ispirato a quello della non proliferazione nucleare.
Il dibattito sull’AGI è sempre più centrale nel mondo della tecnologia: tra entusiasti e scettici, cresce la consapevolezza che il modo in cui gestiremo i prossimi anni sarà decisivo per l’umanità.
🔗 Fonte: The Guardian
#AGI #SicurezzaAI #EticaTecnologica #Anthropic #FuturoDigitale
Nerd per passione e per professione da oltre 30 anni, lavoro nel mondo dell’innovazione tecnologica come CTO e consulente, progettando ecosistemi software complessi e scalabili. Parallelamente mi dedico alla formazione informatica, condividendo esperienze e buone pratiche maturate sul campo.
Scopri di più sulla mia attività di consulenza su lucedigitale.com Mi trovi anche su LinkedIn
















