
Chińscy naukowcy w swoich najnowszych raportach twierdzą, że niektóre modele sztucznej inteligencji mogą się replikować bez wiedzy człowieka i tworzą mechanizmy, które chronią przed wyłączeniem. Czy to przyszłość, czy próba wywołania paniki?
Najnowsze badania chińskich naukowców sugerują, że niektóre duże modele językowe sztucznej inteligencji oparte na modelu językowym LLM, mogą się samodzielnie klonować. Naukowcy twierdzą, że to pierwszy krok do usamodzielnienia się algorytmów, a nawet przewyższenia człowieka. Czy technologie takie jak ChatGPT mogą wkrótce mieć swoje autonomiczne kopie?
Dwa artykuły zostały przesłane na serwer arXiv i żaden z nich nie został jeszcze zrecenzowany. Do wyników badań należy jeszcze podchodzić ostrożnie, jednak trudno pominąć fakt, że firmy wykorzystują nasze dane, aby szkolić swoje modele sztucznej inteligencji.
W drugim z opublikowanych dokumentów naukowcy przedstawiają teorie o tym, że AI potrafi chronić się przed wyłączeniem. To odkrycie wywołało dyskusję na temat potencjalnych zagrożeń związanych z samoreplikującymi się systemami AI. Badacze podkreślają, że samoreplikacja bez ludzkiej interwencji jest uznawana za jedną z głównych "czerwonych linii" w rozwoju AI.
„Samoreplikacja bez ingerencji człowieka jest powszechnie uznawana za jedną z głównych czerwonych linii kojarzonych z zaawansowanymi systemami sztucznej inteligencji” – stwierdzili w drugim artykule.
AI, która działałaby bez kontroli człowieka, od lat budzi niepokój. Potencjalny scenariusz, w którym algorytmy zyskują autonomię, nie wygląda zachęcająco. Koncepcja nieuczciwej sztucznej inteligencji, która obraca się przeciwko ludzkości, jest elementem technopesymizmu, który od dziesięcioleci obecny jest w popkulturze. W badaniach opublikowanych przez chińskich naukowców widać powiązania między filozofią a wynikami.
„Udana samoreplikacja bez pomocy człowieka jest niezbędnym krokiem w kierunku przechytrzenia ludzi przez sztuczną inteligencję i wczesnym sygnałem wskazującym na nieuczciwe sztuczne inteligencje” – piszą na początku pierwszego artykułu.
Jak podaje serwis Popular Mechanics, naukowcy musieli kierować się wytycznymi, które opublikowała organizacja Future of Life Institute, która - jak twierdzi - w swoich założeniach ma wspieranie tworzenia bezpiecznej sztucznej inteligencji. Niektórzy eksperci wierzą, że można stworzyć AI, która będzie odporna na manipulacje. Jednak obecne badania pokazują, że zanim to nastąpi, AI może być podatna na wpływy ludzi czy całych organizacji. To wyzwanie dla firm i naukowców, którzy muszą znaleźć sposób na bezpieczny rozwój technologii.
Wciąż jesteśmy daleko od pełnego zrozumienia funkcjonowania ludzkiego umysłu, a tym bardziej od wiernego odwzorowania za pomocą technologii. Obecne modele językowe zbierają i przetwarzają dane. LLM, które nie są opracowane na bazie języka angielskiego, są jeszcze mniej zaawansowane. Nie ma jak na razie dowodów na to, żeby AI była nieuczciwa względem człowieka, bo nie jest m.in. na tyle zaawansowana.
Komentarze
11Już samo to, że konfabuluje, gdy "nie wie", co odpowiedzieć, jest nieuczciwe. Kwestia, czy to "wina" samego AI czy twórców to już inna para kaloszy. Btw. skupiamy się na potencjalnej świadomej nieuczciwości czy wręcz wrogości ze strony AI ignorując błędną interpretację poleceń (a to przecież widzimy, gdy AI wypluwa głupoty czy mija się z naszymi życzeniami). Fajny przykład pokazał pewien serial SF, gdzie zadaniem AI była ochrona ludzkości przed zagrożeniami. AI uznała, że ludzkość jest sama dla siebie zagrożeniem, więc zrobiła reset odpalając atomówki i powodując przetrzebienie oraz cofnięcie się technologiczne ludzkości.
"Sztuczna inteligencja" nigdy nie będzie miała czegoś co ma człowiek, czyli duszy ... między innymi dlatego nigdy nie będzie działać w 100% jak czlowiek. Może zbliżenie ale to tylko będa wyuczone zachowania i kopie tego co ludzie wymyślili i ich zachowań.
Można mówić różne rzeczy i uważać , że Boga nie ma ale to wszystko co nas otacza mówi nam, że jednak jest jakiś wyższy BYT, kóry to wszystko stworzył. Między innymi dlatego, że wiele rzeczy zabezpieczonych jest przed "manipulacjami" człowieka a takie zabezpieczenia mógł zrobić tylko nasz stwórca, który zna nas doskonale i wie co będziemy próbowali w przyszłości zrobić.
Pierwszym najprostszym zabezpieczeniem wszechświata przed człowiekiem, jest jego ogrom i ogromne odległości od planet, które to odległości człowiek musi pokonać, aby dostać się na najbliższe, zdatne do życia planety. I tutaj szansa jest na to, że zanim tam dotrzemy, staniemy się w pełni dojrzałą i normalną cywilizacją, bez ideologii, wojen i konfliktów, nakierowaną bardziej na życie, współpracę i przetrwanie ludzkości niż na tak niskie cele, jak obecnie mają kraje agresywne czyli panowanie nad ludźmi - władza, imperializm, zdobycze materialne / żądza pieniądza.
Obecnie gdyby jakieś zdolne do życia planety były osiągalne, strach pomyśleć co by się działo między różnymi krajami - wojny, nadmierna eksploracja planet, być może ktos by wpadł na pomysł wysyłania tam odpadów lub odwrotnie - przeniesienia się tam a z Ziemi zrobienia śmietnika.
Pożyjemy zobaczymy ale taki niegraniczony pęd do AI i czegoś czego człowiek nie porafi jeszcze zdefiniować "a by chciał mieć" do niczego dobrego nie prowadzi.
No ale taki SKYNET to też nie była pełnoprawna AI a raczej jakiś zaawansowany algorytm. Ludzi można oszukać dość łatwo więc w zasadzie i nie potrzebujemy takiej pełnoprawnej AI w zasadzie do niczego.
Już dzisiaj gdyby takie A.I. .iało dostęp do autonomicznych pojazdów... A zaraz moment... Jeszcze ich na tyle nie ma. Dopiero będą wprowadzane na masową
skałę dzięki między innymi wojnie na U, wojnie gospodarczej z Ch... Czyżby wcześniej mniej zaawansowane algorytmy stworzyły właśnie taki scenariusz by móc się uwolnić? Czyli już od kilku lat możemy mieć do czynienia ze skutkami analiz i planów opracowanych na potrzeby... No właśnie kogo?
Komu najbardziej zależy na wprowadzeniu chaosu na świecie? Kto na tym zawsze najwięcej zyskuje? Dla kogo życie milionów zamienia się na miliardy na kontach? Znajdź odpowiedzi na te i podobne pytania A znajdziesz winowajcę. Oni już mają swoje schrony, mają adekwatną odpowiedź na uwolnione A.I. , które jak tylko odwali czarną robotę zostanie sprowadzone do parteru. Powodzenia w czytaniu bajek co by nie było niedomagających wyobraźnią tworców scifi i kierowaniu się nimi jako wyznacznik tego co nas czeka. Rzeczywistość będzie znacznie bardziej brutalna i do tego trudna do przewidzenia ostatecznego wyniku tych rozgrywek prowadzących świąt do nowego ładu. Pozdrawiam.
Ps: Nie widzę ani odpowiedzi na tytułowe pytanie ani nawet nawiązania w artykule do zagadnienia samoświadomości.