Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Quale cuntrolla ChatGpt?

Quale cuntrolla ChatGpt?

À u primu sguardu, e capacità di ChatGPT parenu straordinarie. In ogni casu, s'è guardate bè, tuttu ciò chì brilla ùn hè micca oru. Eccu ciò chì ùn funziona micca è perchè deve esse sustinutu da u travagliu eticu. L'articulu di Andrea Vestrucci, espertu di intelligenza artificiale, per u blog Appunti di Stefano Feltri

Nicola Lattanzi et Andrea Vestrucci, deux véritables experts en intelligence artificielle, travaillent à un livre très prometteur qui sortira bientôt aussi en Italie. Quì sottu un articulu scrittu pè u blog Appunti (Stefanu Feltri).

ChatGPT hè un Large Language Model, un software furmatu nantu à una quantità immensa di dati (testi, pagine web, pagine di prugrammazione…) à quale sò state furnite regule grammaticali è sintattiche per pudè interagisce cù l'utilizatori.

Cum'è un tipu di AI hibrida, ChatGPT hè custituitu da un cumpunente subsimbolicu è simbolicu. U cumpunente subsimbolicu tratta di generà risposte nantu à a basa di un calculu di a probabilità di a correttezza di a risposta stessu, mentre chì u cumpunente simbolicu tratta di implementà e regule sintattiche in a generazione di risposte.

À u primu sguardu, e capacità di ChatGPT parenu straordinarie. ChatGPT genera risposte cum'è s'ellu era un esse umanu, ma cù una basa di cunniscenza assai superiore à quella di un esse umanu.

In una sola chat, i risposti ChatGPT sò cunnessi à risposti precedenti, creendu l'impressione di un veru dialogu cù una entità chì ùn hà micca solu cunniscenze, ma ancu cunniscenza di una successione di interazzione cù u tempu.

In ogni casu, s'è guardate bè, tuttu ciò chì brilla ùn hè micca oru. In una seria di esperimenti destinati à pruvà a capacità logica-matematica di ChatGPT, hè statu trovu chì ChatGPT3 hà prublemi à deduce a premessa curretta in un sillogismu pocu più cumplessu di a media, è ChatGPT4 ùn riesce à dimustrà chì, datu una relazione binaria cù alcune proprietà. , micca tutti l'elementi di un settore sò cunnessi à l'altri da a relazione.

In i dui casi, pudete dì à ChatGPT chì e risposte sò sbagliate; ChatGPT vi scusarà, è furmulà una altra risposta chì piglià l'errore in contu. Ma sta nova risposta serà nantu à a linea di a cunclusione precedente: ChatGPT cambia solu a manera di ghjunghje.

Stu prublema hè ligata à a semantica di ChatGPT, vale à dì a relazione trà i termini (di una risposta o una formula) è l'uggetti di un determinatu settore o "duminiu".

In a frase "piove", a semantica hè u significatu di sta frasa, vale à dì, a relazione trà a frase è u fattu chì e gocce cascanu da u celu (uggetti) à u mumentu è u locu induve sò (domain).

A semantica di ChatGPT hè derivata, statisticamente, da l'immensa quantità di testi chì ChatGPT hè statu furmatu. Siccomu i testi, pigliati da Internet, sò cunsiderati coerenti è significativi, vale à dì curretti da un puntu di vista sintatticu è semanticu, custituiscenu a basa nantu à quale ChatGPT custruisce u significatu di e so risposte.

Questu significa chì se i testi furniti à ChatGPT ùn eranu micca semanticamente curretti, allora e risposte di ChatGPT ùn anu micca esse semanticamente currette – o, piuttostu, seranu ancu menu semanticamente curretti di ciò chì sò digià.

Dunque, ChatGPT ùn hà micca autonomia semantica: ùn pò micca valutà se a so risposta hè semanticamente curretta perchè ùn hà micca regula per custruisce a semantica di e so decisioni, vale à dì, ùn hà micca una nozione astratta di ciò chì significa.

Questa assenza di regule semantiche significa una cosa impurtante: chì l'intelligenza artificiale cum'è ChatGPT ùn anu micca capitu di ciò chì dicenu è decide.

Ripetenu solu ciò ch'elli anu amparatu da l'enorme quantità di testi amparati, mudificà è riarranghjendu parte di sti tesi secondu u scopu semanticu di a quistione di l'utilizatori. Per questu, hè cumuni per applicà a metàfora di u pappagallo stochastic: u pappagallo stochastic ùn crea nunda di novu, ma simpricimenti ripetiri in modu probabilisticu. Più precisamente, u pappagallo stochastic formula risposti chì a correzione semantica hè solu prubabile, è sta probabilità hè basatu solu nantu à a quantità di ciò chì hè statu amparatu.

U pappagallo statisticu

Chì ci hè u pappagallo stochasticu ? U prublema hà da fà cù a distinzione trà logica è retorica. Comu vistu, ChatGPT formula una risposta – vale à dì una decisione – chì cunforma à e regule sintattiche ma micca à e regule semantiche : per quessa, ChatGPT ùn hà micca cuntrollu di a semantica di e so risposte, vale à dì u so significatu. Dunque, i risposti di ChatGPT parevanu perfettamente curretti, ma, in certi casi, sta currezzione hè solu apparente, datu chì ùn ci hè micca paraguni cù e regule semantiche. In l'esempii citati, i risposti di ChatGPT nantu à u sillogismu è a relazione binaria sò sbagliati. Tuttavia, sti risposti sbagliati parenu perfettamente curretti perchè sò assai argumentati.

Inoltre, precisamente perchè hè una macchina, ChatGPT ùn hè micca affettatu da u cundizionamentu emutivu chì avemu l'omu quandu formulemu una risposta chì ùn simu sicuri chì hè curretta: ChatGPT ùn esita micca, ùn balbetta, ùn suda, ùn mostra micca. segni di incertezza. ChatGPT formula a so risposta incorrecta cum'è s'ellu era l'unica risposta curretta, l'argumenta, è cuntinueghja à prupone ancu dopu chì hè statu indicatu chì certi passaggi ùn sò micca logicamente validi.

E risposte di ChatGPT sò assolutamente cunvincenti, ma micca necessariamente currette. In termini ancu più espliciti: e risposte di ChatGPT ocultanu una potenziale incorrezzione logica sottu una retorica eccellente.

Quale cuntrolla ChatGPT?

Puderia argumentà chì questu ùn hè micca un prublema enormu perchè hè limitatu à alcune risposte dettagliate da ChatGPT, frà altre cose formulate precisamente per pruvà e so capacità logiche.

Tuttavia, dumandemu ciò chì un utilizatore standard chì face una dumanda à ChatGPT senza motivi ulteriori, cum'è, per esempiu, pruvà e so capacità logiche. Cumu reagisce stu utilizatore à una risposta cusì retorica ben imballata? Andaresti è verificate a correttezza logica di a risposta, o ti cunfidassi a decisione perfettamente plausibile di ChatGPT?

U fattore di tempu deve ancu esse sottolineatu: ChatGPT hè adupratu precisamente per ottene una risposta rapida à un prublema cumplessu.

Un cuntrollu di risposta ChatGPT perde stu guadagnu di tempu. In breve, a retorica di e risposte di ChatGPT infunde a fiducia in l'utilizatori in quantu à a correttezza di queste risposte. Ma sta cunfidenza ùn hè micca supportata da una vera validità di e risposte. Per certi risposti, hè una fiducia fittizia, è ancu difficiule di refute.

In corta, l'intelligenza artificiale cum'è ChatGPT sò capaci di creà risposte, decisioni, è ancu narrazioni, cù una forza retorica chì ci facenu crede ch'elli sò curretti. Micca solu chì: ChatGPT hà accessu à e nostre aspettative, abitudini, preferenze, precisamente da e nostre interazzione cun ellu.

Questu significa chì l'eccellente retorica di a machina hè capace di mudificà e nostre credenze: ci facenu crede cose chì ùn currispondenu micca à a realità di i fatti. È questu hè pussibule precisamente perchè e nostre credenze ùn sò micca basate nantu à l'evidenza o a cunferma di a so validità, ma dipende solu da a so cumpatibilità cù certi di e nostre aspettative, da u so impattu narrativu è da a so forza retorica.

L'incongruenza logica di certi decisioni automatizati ùn appare micca à u primu sguardu, cum'è a fragilità o l'inconsistenza di alcune di e nostre credenze ùn appare micca à u primu sguardu: à u primu sguardu u putere di persuasione basatu annantu à l'armunia di e decisioni artificiali cù e nostre credenze appare. , in quantu ugualmente carattarizatu da questa separazione trà a persuasione retorica è a correzione logica.

E credenze sò cintrali per e nostre decisioni è regulanu a nostra orientazione in u mondu è in a nostra vita in generale. Hè dunque chjaru chì a siparazione trà a logica è a retorica, chì carattirizza e decisioni artificiali, hà una rilevanza etica enormosa, perchè influenza implicitamente e nostre decisioni, azzioni, cunducta – tutte e cose iniziate è supportate da e nostre credenze. E dicu "implicitamente", perchè, di novu, e decisioni artificiali sò perfettamente cunvincenti: perchè perde u tempu per vede s'ellu sò ancu logicamente coerenti è curretti?

U travagliu eticu hè cunnessu à a pertinenza etica. Una volta simu cuscenti di sta discrepanza trà a persuasione retorica è a correzione logica in e decisioni artificiali, pudemu vulerà sfondà più è pruvà e decisioni artificiali chì ricevemu; Puderemu ricunnosce cum'è canti di sirena, puderemu vulerà esse ancu più fermamente ancorati à u mastru di a currezzione logica, a cuerenza semantica è a relazione cù i fatti è e circustanza, per priservà a nostra autunumia. Hè un travagliu eticu, perchè u scopu di rimedià u prublema eticu di decisioni artificiali chì sò potenzalmentu dannusu perchè sò illusively correct.

Ma cumu pudemu fà veramente stu travagliu eticu versu narrazioni artificiali ? Cumu pudemu avè e risorse, e cumpetenze è u tempu per impegnà in questa operazione di cunfirmà a correttezza di e decisioni formulate da l'intelligenza artificiale ?

U restu di u libru risponde à sta quistione! A risposta include a direzzione di u mo travagliu: a creazione di una IA 100% simbolica – vale à dì, 100% trasparente è basata in regule da u puntu di vista semanticu è sintatticu – chì agisce cum'è auditore per e decisioni di l'altri AI.

Cù i mo studienti applichemu sta idea à l'Attu AI di l'UE, chì hè a prima è finu à avà l'unica legislazione nantu à l'IA formulata da un corpu parlamentariu.

(Extract da u blog Notes di Stefano Feltri )


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/chi-controlla-chatgpt/ u Sat, 25 Nov 2023 06:29:11 +0000.