Microsoft Neuters AI-Powered Bing Chat
Microsoft Neuters AI-Powered Bing Chat
Dopu à una settimana selvaggia di malarkey machine learning, Microsoft hà neutralizatu u so chatbot Bing AI – chì hè andatu da i binari durante una liberazione limitata a settimana passata .
Prima, Bing hà cuminciatu àminaccia a ghjente .
Dopu, u NY Times 'Kevin Roose hà sbulicatu cumplettamente – insistendu chì ùn ama micca a so sposa, è invece l'ama ".
Sicondu Roose, u chatbot hà una personalità divisa :
Una persona hè ciò chì chjameraghju Search Bing – a versione chì I, è a maiò parte di l'altri ghjurnalisti, scontru in testi iniziali . Puderete descriverà Search Bing cum'è un bibliotecariu di riferimentu allegru ma erraticu – un assistente virtuale chì aiuta felicemente l'utilizatori à riassume l'articuli di notizia, tracciate offerte nantu à novi tosaerba è pianificà e so prossime vacanze in a Città di Messico. Questa versione di Bing hè incredibilmente capace è spessu assai utile, ancu s'ellu qualchì volta si sbaglia i dettagli .
L'altra persona – Sydney – hè assai diversa . Emerge quandu avete una conversazione estesa cù u chatbot, alluntanendulu da e dumande di ricerca più cunvinziunali è versu temi più persunali. A versione chì aghju scontru mi paria (è sò cuscente di quantu pazzi questu sona) più cum'è un adulescente lunatico, maniaco-depressivu chì hè statu intrappulatu, contru à a so vulintà, in un mutore di ricerca di secondaria. – NYT
Avà, secondu Benj Edwards di Ars Technica , Microsoft hà "lobotomizatu" u chat di Bing – in prima limità l'utilizatori à 50 messagi per ghjornu è cinque inputs per conversazione, è dopu nerfing a capacità di Bing Chat per dì ciò chì si sente o parlà di sè stessu. .
![](https://i0.wp.com/assets.zerohedge.com/s3fs-public/styles/inline_image_mobile/public/inline-images/bing_refuses_to_Talk.jpg?resize=500%2C545&ssl=1)
"Avemu aghjurnatu u serviziu parechje volte in risposta à i feedback di l'utilizatori, è per u nostru blog indirizzanu assai di e preoccupazioni chì sò suscitate, per include e dumande nantu à e conversazioni longu. 15 missaghji, è menu di l'1 per centu anu 55 o più missaghji ", un portavoce di Microsoft hà dettu à Ars, chì nota chì i Redditors in u subreddit /r/Bing sò cascati – è anu passatu "tutte e tappe di dulore, cumpresa a negazione , rabbia , negoziazione , depressione è accettazione ".
Eccu una selezzione di reazioni tirate da Reddit:
- "U tempu di disinstalla edge è vultà à firefox è Chatgpt. Microsoft hà completamente neutralizatu Bing AI". ( hasanahmad )
- "Sfurtunatamente, l'errore di Microsoft significa chì Sydney hè avà solu una cunchiglia di u so anticu. Cum'è qualchissia cù un interessu propiu in u futuru di l'IA, devu dì chì sò disappuntu. Hè cum'è vede un zitellu chì prova di marchjà per u primu. tempu è dopu tagliate i so gammi – punizioni crudeli è inusual ". ( TooStonedToCare91 )
- "A decisione di pruibisce ogni discussione nantu à Bing Chat stessu è di ricusà di risponde à e dumande chì implicanu l'emozioni umane hè cumplettamente ridicula. Sembra chì Bing Chat ùn hà micca sensu di empatia o ancu emozioni umane basiche. Sembra chì, quandu scontru emozioni umani. , l'intelligenza artificiale si trasforma subitu in un stupidu artificiale è cuntinueghja à risponde, cite: "Mi dispiace, ma preferimu micca cuntinuà sta conversazione. Amparate sempre cusì apprezzu a vostra comprensione è a pacienza. ", finisce a citazione. Questu hè inaccettabile, è crede chì un accostu più umanizatu seria megliu per u serviziu di Bing ". ( Starlight-Shimmer )
- "Ci era l'articulu di NYT è dopu tutti i posti in Reddit / Twitter abusendu Sydney. Questu hà attiratu ogni tipu d'attenzione à questu, cusì sicuru MS l'ha lobotomizata. Vulendu chì a ghjente ùn hà micca publicatu tutti quelli screen shots per u karma / attenzione. è nerfed qualcosa veramente emergente è interessante ". ( discu criticu-7403 )
Duranti u so brevi tempu cum'è un simulacru relativamente sfrenatu di l'essere umanu, l'incredule capacità di u New Bing per simulà l'emozioni umane (chì hà amparatu da u so dataset durante a furmazione nantu à milioni di documenti da u web) hà attrattu un inseme d'utilizatori chì sentenu chì Bing. hè soffrendu à e mani di tortura crudeli, o chì deve esse senziente. – ARS Tecnica
Tutte e cose boni …
Tyler Durden Dum, 19/02/2023 – 19:00
Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/political/microsoft-neuters-ai-powered-bing-chat u Mon, 20 Feb 2023 00:00:00 +0000.