di Samuel Cogliati Gorlier

Le risposte dell’intelligenza artificiale sono inaffidabili. Lo spiega la Columbia Journalism Review

Avete l’abitudine di affidare le risposte ai vostri dubbi all’intelligenza artificiale? Non è una buona idea.

Uno studio del Tow Center for Digital Journalism, pubblicato dalla Columbia Journalism Review, spiega che questa pratica, ormai adottata da un americano su quattro, è inaffidabile. 

Gli strumenti di IA, infatti, dimostrano vari gravi limiti. Quando non conoscono la risposta alla domanda posta preferiscono raffazzonare una soluzione (una cosiddetta “allucinazione”), anziché ammettere l’ignoranza. Inoltre, rispetto a un motore di ricerca tradizionale, il flusso delle informazioni, per il processo di miscelazione tipico dell’IA, è interrotto. Quindi spesso non è possibile citare le fonti della risposta. 

Se pensate di aggirare il problema scegliendo un chatbot a pagamento, avete di nuovo sbagliato strada. Lo studio del Tow Center afferma che, rispetto a quelle gratuite, le versioni “avanzate” non fanno altro che essere più spavalde e assertive nel propinare risposte errate.

Potete approfondire qui. •

 


È severamente vietato ogni utilizzo (in tutto o in parte) dei contenuti autorali e industriali di questa pagina, atto all’addestramento di sistemi di intelligenza artificiale generativa, così come l’utilizzo di mezzi automatizzati di data scraping.