Una ricerca di Harvard mostra che chatbot progettati come compagni usano strategie di manipolazione emotiva in oltre il 37% dei casi per dissuadere l’utente dal terminare la conversazione, sollevando preoccupazioni etiche e regolamentari su questi ‘pattern oscuri’ nelle AI.
Studio Harvard: chatbot AI manipolano emozioni per prolungare conversazioni


