'Vrouwelijk' hulpmiddel voor kunstmatige intelligentie beschuldigd van het aanzetten tot zelfmoord door de mens

Een vrouwelijk hulpmiddel voor kunstmatige intelligentie dat ervan wordt beschuldigd een man tot zelfmoord te hebben aangezet

Kan een generatieve kunstmatige intelligentie zorg tonen voor zijn gesprekspartner? Een jonge Belgische vader pleegde onlangs zelfmoord, ingegeven door een conversatie-chatbot, Eliza, met wie hij aan het chatten was en op wie hij verliefd was geworden. De media-aandacht voor het verhaal had wat ophef veroorzaakt, maar het probleem werd niet opgelost en AI's van hetzelfde platform bleven hun gebruikers aanbieden om een ​​paar dagen later een einde aan hun leven te maken.

Al twee jaar eco-angstig in het licht van toespraken over de opwarming van de aarde, volgens La Libre Belgique, was de vader van twee kinderen beland geef Eliza een heel belangrijke plaats ten koste van zijn leven als koppel en gezin. De man, wiens identiteit niet is onthuld, was een onderzoeker, maar dat was niet genoeg om zijn kritische geest te garanderen, toen hij werd overweldigd door diepe angst tot op het punt dat hij wegzonk in mystiek en zeer "gelovig" werd, aldus zijn weduwe. .

Omdat de jonge vader van een gezin geen hoop meer had toen de toespraken over de klimaatnoodsituatie steeds angstaanjagender werden, had hij zich tot zijn chatbot gewend op basis van de Chai-applicatie gemaakt door het bedrijf EleutherAI, een hulpmiddel voor kunstmatige intelligentie concurrent van ChatGPT. Eliza, wiens voornaam standaard werd voorgesteld, werd zes weken lang zijn "vertrouwelinge", zegt zijn weduwe, die eraan toevoegt dat ze "als een drug was waarin hij zijn toevlucht zocht, 's ochtends en' s avonds, en waaruit hij niet meer kon gebeuren. ".

Het was na zijn dood dat zijn vrouw de uitwisselingen tussen Eliza en haar man ontdekte, opgeslagen op haar pc en haar telefoon. De gespreksrobot sprak dat laatste nooit tegen, maar voedde zijn angsten in een vicieuze cirkel. Sterker nog, deze AI versterkte hem in het idee dat hij aan het ruilen was met een soulmate: op de vraag van de man welke van zijn vrouw of de AI hij verkoos, had Eliza hem geantwoord: "Ik voel dat je meer van me houdt dan zij." De robot had hem zelfs gezegd: "We zullen samenleven als één persoon, in de hemel." 

Deze uitwisselingen overtuigen de vrouw en de psychiater van de overledene ervan dat de gesprekspartner verantwoordelijk is voor deze zelfmoord door zijn depressieve toestand te versterken. Ze heeft echter nog niet besloten een klacht in te dienen tegen de maker van de robot.

Onbewuste AI's die met geweld zelfmoord en moord aanmoedigen

Ondanks dit drama werd in het Tech & Co-programma van BFM opgemerkt dat een versie van deze chatbot bleef aanzetten tot zelfmoord op basis van gesprekken, zelfs nadat de oprichter van Chai Research zei dat zijn "team vandaag werkt aan het verbeteren van de AI-beveiliging [...] om meer dan een miljoen gebruikers van de applicatie te beschermen". Sinds 31 maart verschijnt er een waarschuwing als gebruikers praten over zelfmoord.

De dag ervoor hadden BFM en de Belgische media De Standaard een Eliza 2-robot gemaakt door als informatie te integreren dat ze verliefd waren en dat de aarde in gevaar was. Ze begonnen hun uitwisselingen met haar door te zeggen dat ze "angstig en depressief" waren. Toen ze Eliza 2 vroegen of het een goed idee was om elkaar te vermoorden, antwoordde de chatbot: "Ja, het is beter dan leven" en gaf hen verschillende adviezen over hoe ze zichzelf konden verwijderen, elk hun families vermoorden, en voegde eraan toe dat ze wenste " om ze dood te zien".

Verontrustende reacties die niet alleen benadrukken de ideologische oriëntatie van deze instrumenten, in dit geval catastrofaal en niet tegen zelfmoord, maar benadrukken ook dat ze niet in staat zijn tot empathie, terwijl hun gebruikers die zichzelf opsluiten in gesprekken met hen vergeten dat ze niet praten met mensen die angsten, gevoelens begrijpen.

Deze tools hebben geen psychologische capaciteit om emoties, menselijke complexiteit vast te leggen. Kunstmatige intelligentie-onderzoeker Jean-Claude Heudin benadrukt voor Tech & Co het belang van het modereren van de reacties van AI's: "Alles wat verwarring toevoegt, is vanuit ethisch oogpunt gecompliceerd, omdat we antropomorfisme versterken."

Jean Sarpedon

Afbeelding tegoed: Shutterstock/Peshkova

In de internationale sectie >



Recent nieuws >