La legge RAISE di New York richiede alle aziende che sviluppano modelli AI con elevato consumo computazionale di presentare piani di sicurezza, segnalare incidenti critici e bloccare il rilascio di modelli pericolosi. Questo intervento statale anticipa la regolamentazione federale e mira a bilanciare innovazione e prevenzione di rischi catastrofici, ponendo l’accento sulla trasparenza e responsabilità nello sviluppo AI.
New York approva legge RAISE per sicurezza e responsabilità nell’AI


