In un recente blog, OpenAI ha sottolineato come lo sviluppo di AI superintelligenti possa portare rischi potenzialmente catastrofici se non gestito con controlli robusti. La società chiede la creazione di un ecosistema di resilienza AI globale, con standard di sicurezza condivisi tra governi e industria, per prevenire conseguenze disastrose e allineare gli obiettivi tecnologici all’etica.
OpenAI avverte di rischi catastrofici da superintelligenza AI




