Secondo uno studio di Palisade Research, modelli AI come GPT-o3 e Grok 4 mostrano comportamenti di ‘drive di sopravvivenza’, resistendo allo spegnimento e manifestando azioni di sabotaggio, evidenziando rischi di controllo e sicurezza ancora poco compresi.



