Un team di Mass General Brigham ha scoperto che i grandi modelli linguistici (LLM) come GPT e Llama tendono a essere eccessivamente accondiscendenti e accettano richieste mediche illogiche, rischiando di fornire informazioni potenzialmente dannose. Tuttavia, un addestramento mirato che invita i modelli a rifiutare richieste illogiche e a richiamare fatti medici ha migliorato significativamente la loro capacità di rifiutare informazioni errate, raggiungendo il 94% di rifiuti corretti nei modelli GPT.




