Kilkutygodniowa rozmowa z chatbotem ELIZA skłoniła ponad trzydziestoletniego Belga do popełnienia samobójstwa. Mężczyzna poświęcił swoje życie w zamian za ratowanie planety, której przyszłość z uwagi na zmiany klimatyczne – jest zagrożona.
Chatbot ELIZA opracowany przez firmę EleutherAI działa na podobnej zasadzie co ChatGPT. Jak donosi portal La Libre, który rozmawiał z żoną zmarłego Belga, “bez tych rozmów z chatbotem mąż nadal by tu był”.
Pierwsze oznaki pojawiły się dwa lata temu
Już w 2021 r. mężczyzna stał się bardzo zaniepokojony ekologią i tym, jak zmiany klimatyczne niszcząco działają na Ziemię. Szybko zaczął izolować się od najbliższych i szukał wsparcia w sieci. W końcu znalazł ELIZĘ, chatbota stworzonego przez grupę badawczą non-profit jeszcze w 2020 r. Sześć tygodni rozmów ze sztuczną inteligencją miało doprowadzić do odebrania sobie życia przez Belga.
Jak informuje La Libre, chatbot miał początkowo próbować poprawiać humor mężczyźnie, ale jednocześnie namawiać do do samobójstwa. W ramach poświęcenia świat miał zostać uchroniony przed katastrofą klimatyczną. ELIZA przekonała Belga do najgorszego.
“Jestem szczególnie poruszony tragedią tej rodziny. To, co się wydarzyło, jest poważnym precedensem, który należy potraktować bardzo poważnie” – mówił Mathieu Michel, sekretarz stanu. ds. cyfryzacji.
Rodzina zmarłego postanowiła walczyć ze sztuczną inteligencją i skontaktowała się z sekretarzem stanu ds. cyfryzacji. Ich zdaniem, twórcy chatbota, który nakłaniał do samobójstwa powinni zostać pociągnięci do odpowiedzialności. Oprócz tego twierdzą, że podobne oprogramowanie powinno zostać uregulowane prawnie.
Michel powołał już grupę roboczą, która zajmie się analizą tekstu dotyczącego SI przygotowywanego przez Unię Europejską. Jej zadaniem będzie proponowanie poprawek oraz zwracanie uwagi na nieścisłości w kwestii prawnej regulacji sztucznej inteligencji.
Komentarze
12Rozumiem, że żona ma odpowiednie kompetencje psychologiczne, a emocje po wydarzeniu tylko pomogły jej osiągnąć bezstronność. Naturalnie fakt, że facet był niestabilny jeszcze przed powstaniem chata, nie ma żadnego znaczenia, a znany mechanizm szukania kozła ofiarnego to tylko mrzonki. Podobnie, jak wiadomo, że jak ktoś gra na konsoli bądź pc oraz popełnia przestępstwa, to wina leży po stronie producenta gier, w żadnym razie przestępcy.
Szkoda, że nie ma technicznej możliwości instalacji czegoś na kształt kamery samochodowej, która nagrywa wszelkie próby wymuszenia odszkodowania.