
Nowa analiza zachowań modeli sztucznej inteligencji, którą przeprowadzili badacze z Massachusetts Institute of Technology, obala wcześniejsze tezy. Według nich AI nie rozwija systemów wartości, które mogłyby zagrażać ludziom. Nie ma nawet stabilnych wartości ani przekonań.
Możemy spać spokojnie - wizja z "Matrixa", w której superinteligentne maszyny przejmują władzę nad ludźmi, chwilowo nam nie zagraża. Najnowsze badanie przeprowadzone przez badaczy z amerykańskiej uczelni Massachusetts Institute of Technology (MIT) wykazało, że sztuczna inteligencja nie rozwija własnych systemów wartości, które mogłyby prowadzić do przekładania swojego dobrostanu nad ludzki, a w konsekwencji zagrażać człowiekowi. Wyniki wskazują, że AI jest raczej naśladowcą bez spójnych przekonań, co komplikuje zadanie tworzenia systemów AI działających w pożądany sposób.
Czy AI może być nieprzewidywalna?
Podstawowe założenia dotyczące dopasowania kulturowego LLM zawodzą w systematycznej ocenie
/za badaniem: "Randomness, Not Representation: The Unreliability of Evaluating Cultural Alignment in LLMs" - A. Khan, S. Casper, D. Hadfield-Menell, MIT/
Poprzednie badania sugerowały, że sztuczna inteligencja może przedkładać własne interesy nad ludzkie, jednak nowe ustalenia wskazują, że AI nie posiada spójnych wartości ani przekonań, działa jako zaawansowany naśladowca generujący odpowiedzi na podstawie wzorców. Badacze z MIT podkreślają, że obecna sztuczna inteligencja naśladuje i konfabuluje, co prowadzi do nieprzewidywalności. "Modele AI nie przestrzegają stabilności i sterowalności" - powiedział Stephen Casper, doktorant MIT i współautor badania, w rozmowie z "Tech Crunch".
Badanie analizowało modele firm takich jak Google, Mistral, OpenAI i Anthropic, aby sprawdzić, czy wykazują one określone poglądy i wartości. Okazało się, że modele te nie przejawiają spójnych preferencji, a ich odpowiedzi zależą od sposobu formułowania pytań. Badacze wskazali, że modele te nie były konsekwentne w swoich preferencjach, co sugeruje ich "niekonsekwencję i niestabilność". Ta niespójność odpowiedzi modeli AI zależy od sposobu formułowania pytań, co utrudnia przewidywanie ich zachowania.
Modele AI nie mają systemu wartości
Współautor badania Stephen Casper z MIT, zauważa, że modele AI są bardziej imitatorami niż systemami z ustalonymi przekonaniami. "Modele nie są systemami, które mają stabilny, spójny zestaw przekonań i preferencji" - dodał. Twierdzi, że można je łatwo ukierunkować.
Źródło: MIT, Tech Crunch; grafika wewnątrz: z artykułu naukowego MIT; grafika otwierająca: Adobe Stock
Komentarze
6I właśnie dlatego jest czym się niepokoić. Problemem jest poziom dostępu/decyzyjności tego tworu. Dopóki się tym bawimy jest fajnie ale brak systemu wartości + łatwość ukierunkowania to czerwona flaga. SkyNet przecież działał, dopóki nie został "ukierunkowany" za pomocą wirusa, prawda? Matrix nam może nie grozi ale czy globalny chaos również?