Prince ha descritto un futuro in cui poche grandi realtà AI, come OpenAI, potrebbero diventare i nuovi ‘Medici’ della conoscenza, con il rischio di una concentrazione pericolosa del potere mediatico. Propone che le aziende AI paghino i creatori di contenuti per l’uso dei loro dati.
generative ai and journalism
Meta ha aperto a collaborazioni per integrare contenuti giornalistici nella formazione di AI generativa, affrontando questioni di compenso e diritti d’autore, mentre Google spinge per progetti simili con diverse testate.
Le linee guida invitano gli autori a dichiarare l’uso di AI per migliorare stile e grammatica, ma vietano la creazione o manipolazione di dati originali, sottolineando responsabilità e trasparenza per mantenere l’integrità della ricerca.
La maggioranza delle interazioni riguarda scrittura e supporto professionale, con solo una minima percentuale dedicata a riflessioni personali o conversazioni emotive, suggerendo un uso pragmatico e non ludico dell’AI.
Le AI di OpenAI, Google e altri moderatori valutano in modo disomogeneo discorsi d’odio, soprattutto su temi come classe sociale ed educazione, sollevando dubbi su trasparenza e imparzialità nella regolamentazione automatica.
Penske ha avviato una causa federale contro Google, sostenendo che i sommari generati da AI per i risultati di ricerca sottraggono traffico e ricavi pubblicitari ai publisher, sollevando temi di regolamentazione e rispetto del copyright.
La società sostiene che il procedimento legale relativo all’uso dei contenuti giornalistici per l’addestramento di ChatGPT dovrebbe essere giudicato negli Stati Uniti, sollevando questioni di giurisdizione e responsabilità nell’uso di AI generativa.
La pratica solleva dubbi etici sull’uso non dichiarato di AI nella produzione giornalistica, mettendo a rischio la credibilità e la trasparenza dell’informazione.
La ricerca si concentra sul controllo delle ‘allucinazioni’ degli LLM, distinguendo tra errori fattuali e incoerenze contestuali, e offre indicazioni sulle aree di miglioramento per aumentare l’affidabilità delle AI in ambito professionale.
Altman ha dichiarato che l’aumento dei bot AI rende difficile identificare i contenuti autentici su Reddit e Twitter, sollevando questioni etiche e regolamentari sull’uso dell’AI nei social media.