Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Eccu cumu OpenAI pensa à pulisce ChatGPT di false informazioni

Eccu cumu OpenAI pensa à pulisce ChatGPT di false informazioni

Scritta da Amaka Nwaokocha via CoinTelegraph.com,

OpenAI hà u scopu di riduce l'allucinazioni AI in ChatGPT aumentendu e cumpetenze di matematica, postu chì a supervisione di u prucessu mostra prumessa per migliurà a precisione …

U 31 di maghju, OpenAI hà annunziatu i so sforzi per rinfurzà e capacità di risolve i prublemi matematichi di ChatGPT, cù u scopu di riduce i casi di allucinazioni di intelligenza artificiale (AI) . OpenAI hà enfatizatu a mitigazione di l'allucinazioni cum'è un passu cruciale versu u sviluppu di l'IA allineata.

In marzu, l'intruduzione di l'ultima versione di ChatGPT – ChatGPT-4 – hà ulteriormente propulsatu l'AI in u mainstream. Tuttavia, i chatbots AI generativi anu longu affruntatu cù una precisione fattuale , generando occasionalmente informazioni false, cumunimenti chjamate "allucinazioni".

L'allucinazioni AI si riferiscenu à i casi induve i sistemi di intelligenza artificiale generanu outputs in fattu sbagliati, ingannevoli o micca supportati da dati di u mondu reale. Queste allucinazioni ponu manifestà in diverse forme, cum'è a generazione d'infurmazioni falsi, cumpunendu avvenimenti o persone inesistenti, o furnisce dettagli imprecisi nantu à certi temi.

OpenAI hà realizatu una ricerca per esaminà l'efficacità di dui tipi di feedback: "surveglianza di u risultatu" è "surveglianza di prucessu". A supervisione di u risultatu implica feedback basatu annantu à u risultatu finali, mentre chì a supervisione di u prucessu furnisce input per ogni passu in una catena di pensamentu. OpenAI hà valutatu questi mudelli utilizendu prublemi di matematica, generendu parechje soluzioni è selezziunendu a suluzione più altu classificatu secondu ogni mudellu di feedback.

Dopu un'analisi approfondita, a squadra di ricerca hà truvatu chì a supervisione di u prucessu hà datu un rendimentu superiore in quantu incuragisce u mudellu à aderisce à un prucessu appruvatu da l'omu. In cuntrastu, a supervisione di u risultatu hè stata più sfida à scrutinizà in modu coerente.

OpenAI hà ricunnisciutu chì l'implicazioni di a supervisione di u prucessu si estendenu oltre a matematica, cù più investigazioni necessarie per capisce i so effetti in diversi duminii. Hà espresu a pussibilità chì, se i risultati osservati si mantenenu in cuntesti più larghi, a supervisione di u prucessu puderia offre una cumminazione favurevule di rendiment è allineamentu cumparatu cù a supervisione di u risultatu. Per facilità a ricerca, a cumpagnia hà publicatu publicamente l'insieme di dati cumpletu di a supervisione di u prucessu, invitendu l'esplorazione è u studiu in questa zona.

Ancu s'è OpenAI ùn hà micca furnitu istanze esplicite chì anu incitatu a so investigazione in allucinazioni, dui avvenimenti recenti esemplificanu u prublema in scenarii di a vita reale.

In un incidente recente, l'avucatu Steven Schwartz in u casu Mata versus Avianca Airlines hà ricunnisciutu chì s'appoghjanu à u chatbot cum'è una risorsa di ricerca. Tuttavia, l'infurmazioni furnite da ChatGPT sò diventate interamente fabbricate, mettendu in risaltu u prublema in manu.

ChatGPT di OpenAI ùn hè micca l'unicu esempiu di sistemi di intelligenza artificiale chì scontranu allucinazioni. Durante una dimostrazione di a so tecnulugia di chatbot in marzu, u chatbot Bing AI di Microsoft hà esaminatu i rapporti di guadagnu è hà generatu figuri imprecisi per cumpagnie cum'è Gap è Lululemon.

Tyler Durden ghjovi, 06/01/2023 – 22:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/heres-how-openai-plans-cleanse-chatgpt-false-information u Fri, 02 Jun 2023 02:00:00 +0000.