W ostatnim czasie coraz głośniej jest w mediach o autonomicznych pojazdach. Oprócz zagadnień stricte technicznych, sporo uwagi pada na dylematy moralne, przed jakimi może stanąć sztuczna inteligencja w momencie wypadku. Na przykład: czy lepiej jest poświęcić pasażerów na rzecz 8-letniej dziewczynki z mamą, które wybiegły na ulicę, czy może system powinien wyżej ocenić życie i zdrowie osób, za które przecież bezpośrednio odpowiada. Okazuje się, że sami mamy problem ze wskazaniem „właściwego” wyjścia z tak drastycznej sytuacji. Ostatnie badania pokazują, że – niespodzianka! – punkt widzenia zależy w dużym stopniu od punktu siedzenia…

Dylematy moralne autonomicznych samochodów - przykład

Przykład etycznego dylematu w przypadku programowania sztucznej inteligencji autonomicznego samochodu (rys. www.technologyreview.com)

Instynkt samozachowawczy, czy zdrowy rozsądek

Naturalnym odruchem każdego zdrowego człowieka jest instynkt samozachowawczy. W przypadku, gdy nie mamy czasu na rozważania natury etycznej, z dużym prawdopodobieństwem wybierzemy opcję dającą nam największe szanse przeżycia. Sytuacja zmienia się drastycznie, kiedy wyboru dokonuje sztuczna inteligencja – bez emocji, bez namysłu, po prostu kierując się zaprogramowanymi dyrektywami. Publiczne dyskusje ujawniają same altruistyczne zapędy, w których często bohatersko ryzykujemy życie na rzecz bliźnich. Anonimowe ankiety – konkretnie 6, rozwiązanych przez 2000 obywateli USA – z kolei pokazują, że niekoniecznie wypowiedzi tego typu odpowiadają naszym wewnętrznym odczuciom. Nie mamy nic przeciwko poświęceniu życia pasażerów, o ile sami jesteśmy zagrożonymi przechodniami. I jednocześnie wolelibyśmy uratowanie pasażerów pojazdu, gdybyśmy sami do nich należeli…

Istnieje jeszcze jedna zaobserwowana tendencja: jeśli przychylamy się do wyboru samochodu poświęcającego życie swoich pasażerów, to istnieje bardzo małe prawdopodobieństwo, że sami chcielibyśmy się w taki samochód zaopatrzyć. Brzmi sensownie.

Dylematy moralne algorytmów

Dylematy moralne autonomicznych samochodów - która opcja to "mniejsze zło"?

Która opcja to „mniejsze zło”? (rys.: Iyad Rahwana, tł.: Damian Nowak)

Jednym z trudniejszych zadań – w kontekście budowy autonomicznych pojazdów – jest projektowanie algorytmu, który będzie kontrolować taki pojazd i jednocześnie umożliwi sztucznej inteligencji podejmowanie właściwych decyzji podczas nieuniknionego wypadku. Wszystko sprowadza się do tzw. trio „niezgodnych celów”: algorytm musi być spójny, nie może wzbudzać publicznego oburzenia i nie może zniechęcać kupców.

Autonomiczne pojazdy są wśród nas

Wszystko wskazuje na to, że ludzie „chcą mieć ciastko i chcą zjeść ciastko”. Jak więc możemy oczekiwać konkretnego rozwiązania od sztucznej inteligencji? Problem jest o tyle istotny, że przyszłość, czyli w pełni autonomiczne samochody na ulicach miast, jest już za rogiem. Mamy na takie dywagacje znacznie mniej czasu, niż by to było dla nas wygodne.

Źródło: [1]