ChatGPT a volte inventa le risposte? La stessa OpenAi spiega il perché, ma potrebbe deludervi - Affaritaliani.it

MediaTech

Ultimo aggiornamento: 13:03

ChatGPT a volte inventa le risposte? La stessa OpenAi spiega il perché, ma potrebbe deludervi

NewsGuard intanto afferma che il tasso di informazioni false diffuso da AI e chatbot è cresciuto al 35% in un anno

di Matteo Posci

ChatGPT a volte fornisce volutamente informazioni errate. OpenAI afferma che il problema è nel sistema di incentivi dei modelli linguistici

L'intelligenza artificiale non sarebbe così infallibile quanto vorremmo. Una ricerca della stessa OpenAI afferma infatti che nonostante la costante evoluzione di modelli linguistici come GPT-5, capita spesso che ChatGPT fornisca informazioni non vere che vengono descritte come "affermazioni plausibili ma false". Stando ai ricercatori il problema non potrà mai essere eliminato completamente in quanto i modelli linguistici imparano a prevedere la parola successiva ma non è capace di distinguere tra vero e falso.

Un'altra ricerca di NewsGuard, invece, afferma che il tasso di informazioni false diffuse dai chatbot più famosi in un anno è passato dal 18% al 35%.

Leggi anche: ChatGpt, ecco perché i down dell'IA sono più pericolosi. Un account out può incidere sul business

Questa "approssimazione" da parte dell'intelligenza artificiale si riscontra soprattutto quando si parla di fatti rati o arbitrati come la data di nascita di una persona non famosa. In questi casi l'AI fornisce risposte che sono sbagliate ma risultano apparentemente convincenti.

Leggi anche: ChatGpt in down, non un caso isolato: quattro "crash" in pochi mesi. Ecco che cosa succede

Il problema principale per OpenAI restano però gli incentivi errati da parte dei sistemi di valutazione. I ricercatori fanno l'esempio di un test a scelta multipla in cui conveniente tirare a indovinare. Lasciando la risposta vuota si prende zero, mentre provando c'è la possibilità di ottenere un punto. Il sistema infatti premia solo la percentuale di risposte esatte da parte dell'AI e quindi il modello impara che conviene dare comunque una risposta, anche a rischio di sbagliare.

La proposta è quindi di introdurre un sistema di valutazione che penalizzi gli errori effettuati con sicurezza e dia un punteggio basse alle risposte incerte e "non lo so".

CLICCA QUI PER ALTRE NOTIZIE SUL MONDO DELLA TECNOLOGIA E HITECH