Secondo uno studio OpenAI, le ‘allucinazioni’ dei modelli linguistici derivano dal fatto che vengono premiati per indovinare piuttosto che per ammettere l’incertezza; una soluzione proposta è premiare l’espressione di incertezza per ridurre errori gravi.