Il professor Zico Kolter di Carnegie Mellon guida un comitato di sicurezza di OpenAI con autorità per fermare il rilascio di sistemi AI ritenuti non sicuri. L’incarico assume rilievo dopo accordi con regolatori statali che garantiscono che le decisioni di sicurezza prevalgano su quelle finanziarie, affrontando rischi che vanno dagli attacchi informatici alla salute mentale degli utenti.




