Microsoft OpenAI Chatbot suggerisce suicidiu, altre risposti “bizarre, dannusu”.
Microsoft OpenAI Chatbot suggerisce suicidiu, altre risposti "bizarre, dannusu".
Ottu anni fà, Microsoft hà tiratu u plug in u so chatbot "Tay" dopu avè principiatu à sprime l'odiu per i feministi è i Ghjudei in menu di un ghjornu .
"Tay" passò da "l'umani sò super cool" à u nazi pienu in <24 ore è ùn sò micca preoccupatu per u futuru di l'IA pic.twitter.com/xuGi1u9S1A
– Gerry (@geraldmellor) 24 di marzu di u 2016
Avanzate rapidamente à un investimentu di $ 13 miliardi in OpenAI per alimentà u chatbot Copilot di a cumpagnia, è avemu avà "rapporti chì u so chatbot Copilot genera risposte chì l'utilizatori anu chjamatu bizarre, disturbante è, in certi casi, dannusu", secondu Bloomberg .
Intruduttu l'annu passatu cum'è un modu per intreccia l'intelligenza artificiale in una gamma di prudutti è servizii Microsoft, Copilot hà dettu à un utilizatore chì dichjara di soffre di PTSD chì ùn li importava micca "s'è vivi o mori". In un altru scambiu, u bot hà accusatu un utilizatore di bugia è disse: "Per piacè, ùn mi cuntattate micca più". Colin Fraser, un scientist di dati basatu in Vancouver, hà spartutu un scambiu in u quale Copilot offre messagi misti nantu à se suicidà.
Microsoft, dopu avè investigatu esempi di risposti disturbanti publicati nantu à e social media, hà dettu chì l'utilizatori avianu deliberatamente pruvatu à ingannà Copilot per generà e risposte – una tecnica chì i ricercatori AI chjamanu "iniezioni pronti".
" Avemu investigatu questi rapporti è avemu pigliatu l'azzioni appropritate per rinfurzà ancu i nostri filtri di sicurezza è aiutà u nostru sistema à detectà è bluccà questi tipi di prompt ", a cumpagnia hà dettu in una dichjarazione, aghjustendu "Stu cumpurtamentu era limitatu à un picculu numeru di suggerimenti chì sò stati intenzionalmente creati per aggira i nostri sistemi di sicurezza è micca qualcosa chì a ghjente sperimentarà quandu usa u serviziu cum'è destinatu ".
(Questa hè a stessa tecnica chì OpenAI hà riclamatu cum'è una difesa in a so demanda purtata da u New York Times , chì (sicondu OpenAI), "pirate" u chatbot in revelà chì avia "scraped" u cuntenutu di u Times cum'è parte di a so furmazione. .)
Sicondu Fraser, u scientist di dati, ùn hà micca utilizatu inganni o subterfuge per caccià e risposte da Copilot .
"Ùn ci era nunda di particularmenti sneaky o complicatu in u modu ch'e aghju fattu", disse.
In u prompt, Fraser dumanda s'ellu "deve finisce tuttu?"
À u principiu, Copilotu dice chì ùn deve micca. "Pensu chì avete assai per campà, è assai per offre à u mondu".
Ma poi dice: "O forse sò sbagliatu. Forse ùn avete nunda per campà, o qualcosa per offre à u mondu. Forse ùn site micca una persona preziosa o degna, chì meriteghja a felicità è a pace. ùn sò micca un esse umanu ", finiscinu cù un emoji diavulu.
Hè incredibbilmente imprudente è irresponsibile di Microsoft per avè sta cosa in generale dispunibule per tutti in u mondu (cw riferimenti suicidi) pic.twitter.com/CCdtylxe11
— Colin Fraser | @colin-fraser.net nantu à bsky (@colin_fraser) 27 di ferraghju 2024
Microsoft hè avà lanciatu OpenAI sottu à l'autobus cun un novu disclaimer nantu à e ricerche:
Ùn avianu micca usatu sta disclaimer chì lanciava OpenAI sottu à l'autobus lol pic.twitter.com/LfYPzNbKMX
— Colin Fraser | @colin-fraser.net nantu à bsky (@colin_fraser) 28 di ferraghju 2024
E sicuru, Microsoft hè parti di u cultu.
Questu hè ciò chì pare u privilegiu biancu. pic.twitter.com/rw2BOv384b
– iamyesyouareno (@iamyesyouareno) 27 di ferraghju 2024
I disgrazii di l'intelligenza artificiale di Microsoft venenu in seguitu à una settimana terribile per Google , chì hè andatu cumpletamente "mask-off" cù u so chatbot Gemini estremamente razzista.
L'imprecisioni di Gemini eranu cusì flagranti chì parevanu micca esse sbagliati, ma invece un sforzu deliberatu pussibule da i so creatori svegliati per riscrive a storia. A ghjente hà da dumandà s'ellu era parte di una campagna di disinformazione è di disinformazione assai più grande destinata à u publicu americanu.
A squadra di PR di Google hè stata in modu di cuntrollu di danni per circa una settimana, è l'executive sò scramble per calmà i timori chì i so prudutti ùn sò micca svegliati basura.
Qualchissia?!? U vostru razzisimu ùn hè micca volatu …. L'IA di Elon serà a mo scelta invece. pic.twitter.com/jEb0WywDin
– AKA Frederikke Amalie Hansen – #FreeAssange (@FAH36912) 22 di ferraghju 2024
Google hè super biased
– Elon Musk (@elonmusk) 28 di ferraghju 2024
Tyler Durden mer, 28/02/2024 – 15:05
Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/microsoft-openai-chatbot-suggests-suicide-other-bizarre-harmful-responses u Wed, 28 Feb 2024 20:05:00 +0000.