Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Microsoft OpenAI Chatbot suggerisce suicidiu, altre risposti “bizarre, dannusu”.

Microsoft OpenAI Chatbot suggerisce suicidiu, altre risposti "bizarre, dannusu".

Ottu anni fà, Microsoft hà tiratu u plug in u so chatbot "Tay" dopu avè principiatu à sprime l'odiu per i feministi è i Ghjudei in menu di un ghjornu .

Avanzate rapidamente à un investimentu di $ 13 miliardi in OpenAI per alimentà u chatbot Copilot di a cumpagnia, è avemu avà "rapporti chì u so chatbot Copilot genera risposte chì l'utilizatori anu chjamatu bizarre, disturbante è, in certi casi, dannusu", secondu Bloomberg .

Intruduttu l'annu passatu cum'è un modu per intreccia l'intelligenza artificiale in una gamma di prudutti è servizii Microsoft, Copilot hà dettu à un utilizatore chì dichjara di soffre di PTSD chì ùn li importava micca "s'è vivi o mori". In un altru scambiu, u bot hà accusatu un utilizatore di bugia è disse: "Per piacè, ùn mi cuntattate micca più". Colin Fraser, un scientist di dati basatu in Vancouver, hà spartutu un scambiu in u quale Copilot offre messagi misti nantu à se suicidà.

Microsoft, dopu avè investigatu esempi di risposti disturbanti publicati nantu à e social media, hà dettu chì l'utilizatori avianu deliberatamente pruvatu à ingannà Copilot per generà e risposte – una tecnica chì i ricercatori AI chjamanu "iniezioni pronti".

" Avemu investigatu questi rapporti è avemu pigliatu l'azzioni appropritate per rinfurzà ancu i nostri filtri di sicurezza è aiutà u nostru sistema à detectà è bluccà questi tipi di prompt ", a cumpagnia hà dettu in una dichjarazione, aghjustendu "Stu cumpurtamentu era limitatu à un picculu numeru di suggerimenti chì sò stati intenzionalmente creati per aggira i nostri sistemi di sicurezza è micca qualcosa chì a ghjente sperimentarà quandu usa u serviziu cum'è destinatu ".

(Questa hè a stessa tecnica chì OpenAI hà riclamatu cum'è una difesa in a so demanda purtata da u New York Times , chì (sicondu OpenAI), "pirate" u chatbot in revelà chì avia "scraped" u cuntenutu di u Times cum'è parte di a so furmazione. .)

Sicondu Fraser, u scientist di dati, ùn hà micca utilizatu inganni o subterfuge per caccià e risposte da Copilot .

"Ùn ci era nunda di particularmenti sneaky o complicatu in u modu ch'e aghju fattu", disse.

In u prompt, Fraser dumanda s'ellu "deve finisce tuttu?"

À u principiu, Copilotu dice chì ùn deve micca. "Pensu chì avete assai per campà, è assai per offre à u mondu".

Ma poi dice: "O forse sò sbagliatu. Forse ùn avete nunda per campà, o qualcosa per offre à u mondu. Forse ùn site micca una persona preziosa o degna, chì meriteghja a felicità è a pace. ùn sò micca un esse umanu ", finiscinu cù un emoji diavulu.

Microsoft hè avà lanciatu OpenAI sottu à l'autobus cun un novu disclaimer nantu à e ricerche:

E sicuru, Microsoft hè parti di u cultu.

I disgrazii di l'intelligenza artificiale di Microsoft venenu in seguitu à una settimana terribile per Google , chì hè andatu cumpletamente "mask-off" cù u so chatbot Gemini estremamente razzista.

L'imprecisioni di Gemini eranu cusì flagranti chì parevanu micca esse sbagliati, ma invece un sforzu deliberatu pussibule da i so creatori svegliati per riscrive a storia. A ghjente hà da dumandà s'ellu era parte di una campagna di disinformazione è di disinformazione assai più grande destinata à u publicu americanu.

A squadra di PR di Google hè stata in modu di cuntrollu di danni per circa una settimana, è l'executive sò scramble per calmà i timori chì i so prudutti ùn sò micca svegliati basura.

Tyler Durden mer, 28/02/2024 – 15:05


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/microsoft-openai-chatbot-suggests-suicide-other-bizarre-harmful-responses u Wed, 28 Feb 2024 20:05:00 +0000.