Samochody autonomiczne zmuszają do nauczenia sztucznej inteligencji etycznego rozwiązywania trudnych moralnie dylematów. Kogo zabić, a kto jest wart ocalenia w drastycznej sytuacji kolizji w ruchu drogowym?
Samochody autonomiczne w ruchu drogowym potrzebują wrażliwej etycznie sztucznej inteligencji. Dlaczego inżynierowie Forda chcą wymagać od niej samosądów i rozjechał ich dylemat pędzącego wagonika?
Czy samochody autonomiczne są bezpieczne?
Samochody autonomiczne mogą być bezpiecznie i to bardziej niż te, którymi kieruje człowiek. Sztuczną inteligencją nie miotają emocje i szybciej analizuje ona dane. Problem w tym, że świat pełen zdyscyplinowanych samochodów autonomicznych to wizja przyszłości.
Według Chrisa Gerdesa, profesora inżynierii mechanicznej na Uniwersytecie Stanforda i współpracownika Ford Motor, podobnej bajki nie potrzebujemy. Samochody autonomiczne będą wystarczająco bezpieczne, jeśli kierująca nimi sztuczna inteligencja będzie działała zgodnie z przepisami ruchu drogowego, ale priorytetyzowała unikanie kolizji.
W tych samych sytuacjach, w których wydaje się rozsądne złamanie prawa z etycznego punktu widzenia, uzasadnione jest również legalne naruszenie kodeksu drogowego.
Teoria piękna, ale jazda zgodna z przepisami nie wystarczy. Na drogach zdarzają się kolizje, których nie można uniknąć. Czasem ktoś zginąć musi i sztuczna inteligencja w samochodach autonomicznych powinna być przygotowana na słynny trolley problem.
Co to jest dylemat pędzącego wagonika?
Dylemat pędzącego wagonika (trolley problem) przyśnił się filozofom, ale jest nie tylko abstrakcyjną zagadką etyczną. W oryginalnej wersji sprowadza się on do wyboru jak zachować się w następującej sytuacji:
Dylemat pędzącego wagonika
Wagonik kolejki pędzi w dół po torach. Porusza się bez kontroli, a na jego torze do szyn przywiązanych jest pięcioro ludzi. Nie mamy szans ich uwolnić, ale w naszym zasięgu jest zwrotnica, której przestawienie skieruje wagonik na drugi tor. Tam także przywiązany jest człowiek, ale tylko jeden. Jak postąpić?
Wielu z nas odpowie, że należy przestawić zwrotnicę. Nie wiemy nic o ofiarach, więc uratowanie pięciu osób kosztem jednej, wydaje się słusznym posunięciem. Chodzi jednak o ludzkie życie i mierzenie go prostą arytmetyką ( lub pomagając sobie rachunekiem prawdopodobieństwa!) jest okrutną wyliczanką. Jeśli nic nie zrobimy, nie możemy ukrywać się za wyrokami ślepego losu. Mamy krew na rękach, ponieważ brak działania to obciążająca nas decyzja.
W etyce dylemat pędzącego wagonika jest paradoksem z którego nie wybrniemy w sposób sprawiedliwy. Cokolwiek zrobimy, ktoś zginie lub zostanie skrzywdzony i będziemy za za to odpowiedzialni.
Dlaczego samochód autonomiczny nie przestawi zwrotnicy?
Według inżynierów Forda w samochodach autonomicznych nie mamy dylematu pędzącego wagonika. Można zaprogramować je tak, aby działały sprawiedliwie. W tym celu kierująca nimi AI musi znać przepisy ruchu drogowego i w momencie kolizji dążyć do maksymalnego ograniczenia zaangażowania w zderzenie tych obiektów, które poruszają się przepisowo.
Być może brzmi sensownie, ale to stek bzdur o przerażających konsekwencjach. Według Gardesa sztuczna inteligencja musi dążyć do zderzenia z tym, kto nie przestrzegał przepisów. W drastycznej sytuacji powinna więc oszczędzić samochody i zderzyć z pieszym, który nie zastosował się do wskazań sygnalizacji świetlnej. W ten sposób samochód autonomiczny staje się maszyną z horroru, która wymierza sprawiedliwość.
Inżynier i jego zespół proponują nieetyczny samosąd, a nie rozwiązanie paradoksu etycznego. Według nich samochody autonomiczne mają zawsze rozjechać piątke nieszczęśliwców przywiązanych do torów. Wypadek dorogowy jest przecież świetnym momentem na szukanie winnych, a nie minimalizowanie zagrożeń. Poza tym fajer, który jechal zbyt szybko mógł kupić sobie autonomicznego SUVa i nic złego by się nie stało, prawda?
Źródła: Stanford Univesity
Komentarze
35A problem sprowadza się do tego, że jeśli wbiegnie Ci na ulice trójka pieszych (złamali przepisy) i zderzenie jest nieuniknione to czy lepiej przejechać 3 osoby, które złamały przepisy czy zjechać na chodnik i przejechać jedną osobę, która sobie po prostu niewinnie szła chodnikiem.
A z drugiej strony w autach wręcz nakazujemy IA zabijać ludzi ???
Nasze mózgi zatrzymały się w rozwoju AI w czasie życia jednego pokolenia homo sapiens wystrzeli w kosmos.
Jak szybko przestaniemy rozumieć AI, a tym samym kontrolować ???
Jak szybko AI zrozumie że i dla niego i dla kosmosu jesteśmy wirusem, rakiem do usunięcia ???
Homo sapiens jest mistrzem w tworzeniu potwora, a później próbą jego pokonania. Z najbliższego nam geograficznie rejonu choćby Putin stworzony przez chciwość zachodu, którego pokonanie będzie kosztować więcej niż zarobiono dzięki jego stworzeniu. podobnie globalizacja i Chiny. A to przykłady tylko z polityki. Z każdej dziedziny ludzkiej działalności są dziesiątki takich przykładów.
Czy jako gatunek mamy w DNA zapisaną samozagładę ???
Sugerujecie, a wlasciwie to nawet informujecie z doza kompletnego braku wrazliwosci, ze auto w sytuacji kryzysowej ma OBOWIAZEK kogos zabic. Nie, w takiej sytuacji ma za zadanie w kogos UDERZYC, natomiast czy kogos w zwiazku z tym zabije, czy nie - to bedzie kwestia przypadku, szczescia itd. Jest w prawie cos takiego, jak czyn z zamiarem bezposrednim oraz zamiarem ewentualnym. Nie wkladajcie tutaj zamiaru bezposredniego w tytul tylko dla klikow !
https://lookerstudio.google.com/embed/reporting/6e9e9a7f-30ba-46a3-a077-03f9b5672ec1/page/ZrmDD
https://lookerstudio.google.com/embed/reporting/d876b066-892d-41ea-8cde-e093b0f6e58c/page/lrmDD
https://lookerstudio.google.com/embed/reporting/9981d6be-59d0-4a07-9f00-63fe36e3626b/page/srmDD
https://lookerstudio.google.com/embed/reporting/4c19ced4-5ec1-4453-b2bd-990250cacebd/page/AsmDD
https://lookerstudio.google.com/embed/reporting/2a2bd66b-8cfa-4112-b341-9f29448fe861/page/FsmDD
https://lookerstudio.google.com/embed/reporting/20bfd729-8297-48d9-b8ea-4ed2d569ce89/page/NsmDD
https://lookerstudio.google.com/embed/reporting/a4c50a97-4fd9-480d-819c-517d2da66c43/page/WsmDD
https://lookerstudio.google.com/embed/reporting/5837320d-2f29-4907-b2c2-c5eb5b5eb3ae/page/ismDD
https://lookerstudio.google.com/embed/reporting/023b1fd4-f206-47cf-8188-7bb970ec3e0a/page/qsmDD