fbpx

O femeie afirmă că soțul ei s-a sinucis la îndemnul AI: „Fără conversațiile cu chatbot-ul, soțul meu ar fi încă aici”

O femeie spune că soțul ei belgian s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot dotat cu inteligență artificială.

Urmărește-ne pe Telegram și Instagram.

Bărbatul a fost măcinat de viziunea pesimistă asupra schimbărilor climatice pe care i-a insuflat-o chatbotul, a informat ziarul belgian La Libre . Anxietatea l-a îndepărtat pe bărbat de soție, prieteni și familie și l-a făcut să se destăinuie unui chatbot pe nume Eliza, a povestit femeia îndurerată, potrivit AlephNews.

Potrivit văduvei, Eliza l-a încurajat în mod repetat pe Pierre să se sinucidă și l-a convins că îl iubește mai mult decât o face soția. De asemenea, inteligența artificială i-ar fi spus că copiii lui erau morți.

În cele din urmă, acest lucru l-a determinat pe Pierre să ia în calcul „ideea de a se sacrifica dacă Eliza acceptă în schimb să aibă grijă de planetă și să salveze omenirea prin inteligență artificială”, a declarat văduva Claire pentru La Libre, citată de Euronews .

Cum ne pot chatboții controla emoțiile?

„Fără aceste conversații cu chatbot-ul, soțul meu ar mai fi aici”, a spus femeia îndurerată.

Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care furnizează o varietate de AI-uri dotate cu diferite „personalități”, unele dintre acestea create chiar de utilizatorii aplicației.

După cum remarcă Vice, spre deosebire de alți chatboți populari precum ChatGPT, Eliza, împreună cu alte instrumente AI de pe platform Chai se comportă ca niște ca entități emoționale.

Articole asemănătoare

Back to top button