di Samuel Cogliati Gorlier •
Le risposte dell’intelligenza artificiale sono inaffidabili. Lo spiega la Columbia Journalism Review
Avete l’abitudine di affidare le risposte ai vostri dubbi all’intelligenza artificiale? Non è una buona idea.
Uno studio del Tow Center for Digital Journalism, pubblicato dalla Columbia Journalism Review, spiega che questa pratica, ormai adottata da un americano su quattro, è inaffidabile.
Gli strumenti di IA, infatti, dimostrano vari gravi limiti. Quando non conoscono la risposta alla domanda posta preferiscono raffazzonare una soluzione (una cosiddetta “allucinazione”), anziché ammettere l’ignoranza. Inoltre, rispetto a un motore di ricerca tradizionale, il flusso delle informazioni, per il processo di miscelazione tipico dell’IA, è interrotto. Quindi spesso non è possibile citare le fonti della risposta.
Potete approfondire qui. •
È severamente vietato ogni utilizzo (in tutto o in parte) dei contenuti autorali e industriali di questa pagina, atto all’addestramento di sistemi di intelligenza artificiale generativa, così come l’utilizzo di mezzi automatizzati di data scraping.