Cambridge University Press & Assessment adotta un approccio critico all’AI generativa nelle valutazioni, puntando a integrare le tecnologie rispettando qualità, equità e integrità. Supportano insegnanti e scuole nell’adozione etica e preparano curricula che includono competenze AI.
admin
Lunai Bioworks ha lanciato una piattaforma basata su modelli transformer che integra un’intelligenza di sicurezza neurotossica per prevenire l’uso improprio dell’AI generativa in campo farmaceutico, bilanciando innovazione e biosicurezza.
Il laboratorio AI di Shanghai ha sviluppato MeshCoder, un sistema che trasforma dati point cloud di oggetti 3D in codice programmabile per Blender. Questa innovazione permette il controllo preciso e l’editing sofisticato tramite codice, migliorando efficienza e collaborazione nei flussi di lavoro di modellazione 3D. Sebbene attualmente limitato ad oggetti artificiali, MeshCoder apre nuove possibilità per l’industria del design e della produzione.
L’interesse per i grandi modelli linguistici (LLM) sta rallentando, mentre le aziende prediligono modelli più piccoli (SLM) che garantiscono efficienza energetica, velocità e adattabilità ai compiti specifici. Questi SLM sono ideali per dispositivi mobili e agenti AI, offrendo un’alternativa economica e pragmatica ai modelli ‘tuttofare’ e sovradimensionati.
Dopo aver riconosciuto alcuni AI scribes come dispositivi medici, la TGA ha iniziato controlli e applica sanzioni per strumenti non conformi, segnando un passo importante verso una regolamentazione più severa e la sicurezza dei pazienti.
Oltre alla classificazione come dispositivi medici, è cruciale che regolatori, professionisti e ricercatori definiscano standard chiari per il consenso informato, la conservazione dei dati e l’addestramento dell’AI, per proteggere pazienti e migliorare l’affidabilità.
In sistemi sanitari multiculturali come quello australiano, gli AI scribes mostrano cali di accuratezza con accenti e termini specialistici, rappresentando un problema di sicurezza che richiede standard più rigorosi e valutazioni indipendenti.
I pazienti dovrebbero chiedere al medico se l’AI scribe è approvato, chi accede ai dati, se è possibile disattivarlo, come vengono revisionate le note e come si gestiscono eventuali errori, per garantire trasparenza e sicurezza nell’uso dell’AI in ambito clinico.
Gli AI scribes aiutano i medici a ridurre la digitazione e migliorare l’attenzione al paziente, ma possono commettere errori e sollevare problemi di privacy. È fondamentale che i pazienti siano informati, possano rifiutare l’uso e che i dati siano gestiti con trasparenza e protezione elevata.
In Australia, la Therapeutic Goods Administration ha deciso che alcuni AI scribes, usati per trascrivere consulti medici, sono dispositivi medici soggetti a normative più rigorose. Questo implica registrazione, verifica di sicurezza e obblighi di segnalazione per proteggere pazienti e dati sanitari.