In Australia, la Therapeutic Goods Administration ha deciso che alcuni AI scribes, usati per trascrivere consulti medici, sono dispositivi medici soggetti a normative più rigorose. Questo implica registrazione, verifica di sicurezza e obblighi di segnalazione per proteggere pazienti e dati sanitari.
generative ai and healthcare
Gli AI scribes aiutano i medici a ridurre la digitazione e migliorare l’attenzione al paziente, ma possono commettere errori e sollevare problemi di privacy. È fondamentale che i pazienti siano informati, possano rifiutare l’uso e che i dati siano gestiti con trasparenza e protezione elevata.
I pazienti dovrebbero chiedere al medico se l’AI scribe è approvato, chi accede ai dati, se è possibile disattivarlo, come vengono revisionate le note e come si gestiscono eventuali errori, per garantire trasparenza e sicurezza nell’uso dell’AI in ambito clinico.
In sistemi sanitari multiculturali come quello australiano, gli AI scribes mostrano cali di accuratezza con accenti e termini specialistici, rappresentando un problema di sicurezza che richiede standard più rigorosi e valutazioni indipendenti.
Oltre alla classificazione come dispositivi medici, è cruciale che regolatori, professionisti e ricercatori definiscano standard chiari per il consenso informato, la conservazione dei dati e l’addestramento dell’AI, per proteggere pazienti e migliorare l’affidabilità.
Dopo aver riconosciuto alcuni AI scribes come dispositivi medici, la TGA ha iniziato controlli e applica sanzioni per strumenti non conformi, segnando un passo importante verso una regolamentazione più severa e la sicurezza dei pazienti.
Al WHX Tech di Dubai, Dr Avi Mehra e Harvey Castro discutono come bilanciare opportunità, governance, sicurezza e fiducia nell’uso dell’AI generativa in sanità. Si parla di modelli specializzati, robotica e apprendimento dai sistemi sanitari globali per accelerare un’adozione sicura.