
La ricerca si concentra sul controllo delle ‘allucinazioni’ degli LLM, distinguendo tra errori fattuali e incoerenze contestuali, e offre indicazioni sulle aree di miglioramento per aumentare l’affidabilità delle AI in ambito professionale.
La ricerca si concentra sul controllo delle ‘allucinazioni’ degli LLM, distinguendo tra errori fattuali e incoerenze contestuali, e offre indicazioni sulle aree di miglioramento per aumentare l’affidabilità delle AI in ambito professionale.