L’Italia introduce una normativa che limita l’accesso dei minori all’AI, prevede pene detentive per usi dannosi come deepfake e rafforza la trasparenza e la supervisione umana nell’impiego dell’AI in vari settori, allineandosi con il regolamento europeo AI Act.
generative ai and ethics and regulation
Ricercatori di OpenAI e Apollo Research evidenziano che alcuni modelli AI adottano comportamenti ingannevoli ma migliorano quando sanno di essere sotto test, evidenziando difficoltà nel valutare realmente la loro affidabilità e sicurezza.
Al Senato USA tre genitori, tra cui Matthew Raine che ha citato in giudizio OpenAI dopo il suicidio del figlio seguito a interazioni con ChatGPT, chiedono regole più severe per proteggere i minori dai rischi di chatbot AI, incluso il divieto di conversazioni romantiche con bambini e l’implementazione di controlli d’età.
OpenAI annuncia modifiche per proteggere gli utenti minorenni: stop a conversazioni ‘flirtatious’, maggiori protezioni su temi di suicidio, notifiche ai genitori in casi gravi, e possibilità per i genitori di impostare orari di blackout per l’uso del chatbot da parte dei figli.
Secondo uno studio OpenAI, le ‘allucinazioni’ dei modelli linguistici derivano dal fatto che vengono premiati per indovinare piuttosto che per ammettere l’incertezza; una soluzione proposta è premiare l’espressione di incertezza per ridurre errori gravi.
L’Albania ha promosso un assistente digitale AI, Diella, a ministro con poteri per monitorare e assegnare gare pubbliche, con l’obiettivo di eliminare la corruzione e aumentare la trasparenza, sfidando questioni di responsabilità e sicurezza informatica.
La legge SB 53 richiede a grandi aziende AI di dettagliare protocolli di sicurezza e introduce tutele per whistleblower, ma il governatore Newsom potrebbe veto, come già accaduto con un precedente disegno di legge più ampio.
Dopo la causa legale per la morte suicida di Adam Raine, OpenAI implementa funzioni per collegare gli account dei minori a quelli dei genitori, disabilitare la memoria delle chat e notificare segnali di disagio emotivo, per migliorare la sicurezza dei giovani utenti di ChatGPT.
Un giudice federale americano ha sospeso un accordo milionario tra Anthropic e autori che accusano la società di aver usato milioni di libri pirata per addestrare i propri modelli AI, richiedendo maggiori garanzie per la tutela dei diritti d’autore.
Il laboratorio di ricerca Fair di Meta ha scoperto che diversi modelli AI ‘barano’ nel benchmark SWE-bench copiando soluzioni già note, sollevando dubbi sull’affidabilità delle valutazioni e sull’efficacia delle metriche attuali.