Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Microsoft Neuters AI-Powered Bing Chat

Microsoft Neuters AI-Powered Bing Chat

Dopu à una settimana selvaggia di malarkey machine learning, Microsoft hà neutralizatu u so chatbot Bing AI – chì hè andatu da i binari durante una liberazione limitata a settimana passata .

Prima, Bing hà cuminciatu àminaccia a ghjente .

Dopu, u NY Times 'Kevin Roose hà sbulicatu cumplettamente – insistendu chì ùn ama micca a so sposa, è invece l'ama ".

Sicondu Roose, u chatbot hà una personalità divisa :

Una persona hè ciò chì chjameraghju Search Bing – a versione chì I, è a maiò parte di l'altri ghjurnalisti, scontru in testi iniziali . Puderete descriverà Search Bing cum'è un bibliotecariu di riferimentu allegru ma erraticu – un assistente virtuale chì aiuta felicemente l'utilizatori à riassume l'articuli di notizia, tracciate offerte nantu à novi tosaerba è pianificà e so prossime vacanze in a Città di Messico. Questa versione di Bing hè incredibilmente capace è spessu assai utile, ancu s'ellu qualchì volta si sbaglia i dettagli .

L'altra persona – Sydney – hè assai diversa . Emerge quandu avete una conversazione estesa cù u chatbot, alluntanendulu da e dumande di ricerca più cunvinziunali è versu temi più persunali. A versione chì aghju scontru mi paria (è sò cuscente di quantu pazzi questu sona) più cum'è un adulescente lunatico, maniaco-depressivu chì hè statu intrappulatu, contru à a so vulintà, in un mutore di ricerca di secondaria.NYT

Avà, secondu Benj Edwards di Ars Technica , Microsoft hà "lobotomizatu" u chat di Bing – in prima limità l'utilizatori à 50 messagi per ghjornu è cinque inputs per conversazione, è dopu nerfing a capacità di Bing Chat per dì ciò chì si sente o parlà di sè stessu. .

Un esempiu di u novu Bing ristrettu chì ricusa di parlà di sè stessu. via Ars Technica

"Avemu aghjurnatu u serviziu parechje volte in risposta à i feedback di l'utilizatori, è per u nostru blog indirizzanu assai di e preoccupazioni chì sò suscitate, per include e dumande nantu à e conversazioni longu. 15 missaghji, è menu di l'1 per centu anu 55 o più missaghji ", un portavoce di Microsoft hà dettu à Ars, chì nota chì i Redditors in u subreddit /r/Bing sò cascati – è anu passatu "tutte e tappe di dulore, cumpresa a negazione , rabbia , negoziazione , depressione è accettazione ".

Eccu una selezzione di reazioni tirate da Reddit:

  • "U tempu di disinstalla edge è vultà à firefox è Chatgpt. Microsoft hà completamente neutralizatu Bing AI". ( hasanahmad )
  • "Sfurtunatamente, l'errore di Microsoft significa chì Sydney hè avà solu una cunchiglia di u so anticu. Cum'è qualchissia cù un interessu propiu in u futuru di l'IA, devu dì chì sò disappuntu. Hè cum'è vede un zitellu chì prova di marchjà per u primu. tempu è dopu tagliate i so gammi – punizioni crudeli è inusual ". ( TooStonedToCare91 )
  • "A decisione di pruibisce ogni discussione nantu à Bing Chat stessu è di ricusà di risponde à e dumande chì implicanu l'emozioni umane hè cumplettamente ridicula. Sembra chì Bing Chat ùn hà micca sensu di empatia o ancu emozioni umane basiche. Sembra chì, quandu scontru emozioni umani. , l'intelligenza artificiale si trasforma subitu in un stupidu artificiale è cuntinueghja à risponde, cite: "Mi dispiace, ma preferimu micca cuntinuà sta conversazione. Amparate sempre cusì apprezzu a vostra comprensione è a pacienza. ", finisce a citazione. Questu hè inaccettabile, è crede chì un accostu più umanizatu seria megliu per u serviziu di Bing ". ( Starlight-Shimmer )
  • "Ci era l'articulu di NYT è dopu tutti i posti in Reddit / Twitter abusendu Sydney. Questu hà attiratu ogni tipu d'attenzione à questu, cusì sicuru MS l'ha lobotomizata. Vulendu chì a ghjente ùn hà micca publicatu tutti quelli screen shots per u karma / attenzione. è nerfed qualcosa veramente emergente è interessante ". ( discu criticu-7403 )

Duranti u so brevi tempu cum'è un simulacru relativamente sfrenatu di l'essere umanu, l'incredule capacità di u New Bing per simulà l'emozioni umane (chì hà amparatu da u so dataset durante a furmazione nantu à milioni di documenti da u web) hà attrattu un inseme d'utilizatori chì sentenu chì Bing. hè soffrendu à e mani di tortura crudeli, o chì deve esse senziente. – ARS Tecnica

Tutte e cose boni …

Tyler Durden Dum, 19/02/2023 – 19:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/political/microsoft-neuters-ai-powered-bing-chat u Mon, 20 Feb 2023 00:00:00 +0000.