Dlaczego firmy rozwijają w pełni autonomiczną broń (roboty)?
Czym jest w pełni autonomiczna broń?
Ważne pytania związane z rozwojem broni w pełni autonomicznej
Płeć i
broń w pełni autonomiczna Jakie wysiłki podjęto, aby zająć się rozwojem i użyciem w pełni autonomicznej broni?
Kampania na rzecz powstrzymania zabójczych robotów
Źródła informacji
Dalsza lektura
Czym jest w pełni autonomiczna broń?
Broń w pełni autonomiczna to systemy uzbrojenia, które mogą samodzielnie wybierać i strzelać do celów bez interwencji człowieka. W pełni autonomiczna broń może być włączona do oceny kontekstu sytuacyjnego na polu bitwy i decydowania o wymaganym ataku na podstawie przetworzonych informacji.
W pełni autonomiczna broń miałaby działać w oparciu o „sztuczną inteligencję". Sztuczna inteligencja jest zasadniczo tworzona przez obliczenia arytmetyczne i programowanie robota. Brakuje w nim wszystkich cech ludzkiej inteligencji i ludzkiego osądu, które czynią ludzi poddanymi i odpowiedzialnymi za zasady i normy. Wykorzystanie sztucznej inteligencji w konfliktach zbrojnych stanowi fundamentalne wyzwanie dla ochrony ludności cywilnej oraz przestrzegania międzynarodowych praw człowieka i prawa humanitarnego.
Broń w pełni autonomiczna różni się od zdalnie sterowanych systemów uzbrojenia, takich jak drony – te ostatnie są pilotowane zdalnie przez człowieka, podczas gdy w pełni autonomiczna broń nie byłaby kierowana przez człowieka po zaprogramowaniu. Chociaż broń z pełną śmiercionośną autonomią nie została jeszcze wdrożona, obecnie używa się prekursorów tej broni o różnym stopniu autonomii i śmiercionośności.
Kilka państw wspiera i finansuje działania ukierunkowane na rozwój i badania nad w pełni autonomiczną bronią. Wśród nich są Chiny, Niemcy , Indie, Izrael , Republika Korei, Rosja i Wielka Brytania . Systemy robotów o różnym stopniu autonomii i śmiertelności zostały już wdrożone przez Stany Zjednoczone, Wielką Brytanię, Izrael i Republikę Korei.
Ważne pytania związane z rozwojem w pełni autonomicznej broni
Prowadzone prace badawczo-rozwojowe w dziedzinie broni w pełni autonomicznej osiągnęły stan krytyczny, wymagający pogłębionej refleksji nad dalszym rozwojem technicznym takich systemów uzbrojenia. Debata na temat w pełni autonomicznej broni rodzi następujące podstawowe pytania etyczne i dotyczące zasad:
- Czy decyzję o śmierci i życiu można pozostawić maszynie?
- Czy w pełni autonomiczna broń może funkcjonować w etycznie „poprawny" sposób?
- Czy maszyny są w stanie działać zgodnie z międzynarodowym prawem humanitarnym (MPH) lub międzynarodowym prawem praw człowieka (IHRL)?
- Czy te systemy uzbrojenia są w stanie odróżnić walczących z jednej strony od osób bezbronnych i/lub niezaangażowanych z drugiej strony?
- Czy takie systemy mogą ocenić proporcjonalność ataków?
- Kto może zostać pociągnięty do odpowiedzialności?
Kwestie te stawiają pod znakiem zapytania, czy zdolności ludzkie, takie jak ocena zasad proporcjonalności międzynarodowego prawa humanitarnego, konieczności wojskowej i zdolności do rozróżnienia między cywilami a kombatantami, mogą zostać przeniesione na maszynę.
Inne problemy obejmują:
Ochrona ludności cywilnej: Wątpliwe jest, jak skutecznie zaprogramować robota, aby uniknąć ofiar wśród ludności cywilnej, skoro sami ludzie nie są w stanie rozróżniać dzisiejszych konfliktów międzypaństwowych bez wyraźnych granic między różnymi grupami zbrojnymi a cywilami. Odróżnienie aktywnego kombatanta od cywila lub rannego lub poddającego się żołnierza wymaga więcej niż zaawansowanych zdolności sensorycznych i przetwarzania , a robotowi byłoby niezwykle trudno ocenić ludzką intencję w oparciu o interpretację subtelnych wskazówek, takich jak ton głosu lub język ciała.
Proporcjonalność: W niektórych sytuacjach ataki wojskowe nie są przeprowadzane ze względu na ryzyko spowodowania nieproporcjonalnie wysokich szkód cywilnych. Wątpi się, czy system robotyczny jest w stanie podejmować takie decyzje.
Odpowiedzialność: Dzięki autonomicznemu systemowi broni żaden człowiek nie może być pociągnięty do odpowiedzialności za swoje działania w konflikcie zbrojnym. Zamiast tego odpowiedzialność jest rozdzielona między większą, być może niezidentyfikowaną grupę osób, w tym być może programistę lub producenta robota.
Zwiększenie ryzyka wojny: Jak zauważył specjalny sprawozdawca ONZ ds. egzekucji pozasądowych, doraźnych lub arbitralnych w swoim raporcie dla Rady Praw Człowieka, usunięcie ludzi z selekcji i wykonywania ataków na cele stanowi krytyczny moment w nowej technologii co jest uważane za „rewolucję we współczesnej wojnie".
Wezwał państwa do uważnego przemyślenia konsekwencji takich systemów uzbrojenia, zauważając, że taka technologia zwiększa ryzyko, że państwa będą bardziej skłonne do angażowania się w konflikty zbrojne ze względu na zmniejszone prawdopodobieństwo wystąpienia wojskowych ofiar. W pełni autonomiczna broń może obniżyć próg wojny, zwłaszcza w sytuacjach, gdy przeciwna strona nie ma równoważnych systemów do rozmieszczenia w odpowiedzi.
Fajne kalkulatory czy narzędzia represji?
Zwolennicy w pełni autonomicznej broni twierdzą, że systemy te pomogłyby przezwyciężyć ludzkie emocje, takie jak panika, strach czy złość, które prowadzą do błędnej oceny sytuacji i błędnych wyborów w sytuacjach stresowych. Jednak przeciwnicy rozwoju tych systemów uzbrojenia zwracają uwagę, że ta tak zwana przewaga może przerodzić się w ogromne zagrożenie dla osób żyjących w represyjnych systemach państwowych.
W pełni autonomiczna broń może być używana do gnębienia przeciwników bez obawy o protesty, sprzeciw sumienia czy rebelię w ramach państwowych sił bezpieczeństwa. Dehumanizacji celów towarzyszyłaby dehumanizacja ataków. Algorytmy stworzyłyby idealną maszynę do zabijania, pozbawioną empatii, sumienia lub emocji, które mogłyby powstrzymać ludzkiego żołnierza.
Istnieją również powszechne obawy dotyczące programowania ludzkich uprzedzeń w tych maszynach. Maszyna może być zaprogramowana z uprzedzeniami na podstawie rasy, płci, tożsamości płciowej, orientacji seksualnej, statusu socjoekonomicznego lub zdolności.
Proliferacja: Na koniec wyrażono obawy, że w pełni autonomiczne systemy uzbrojenia mogą wpaść w ręce osób nieuprawnionych.
Płeć i w pełni autonomiczna broń
Na przestrzeni dziejów widzieliśmy, że broń symbolizuje władzę. Skojarzenie broni z władzą pochodzi z bardzo szczególnego – i bardzo dominującego – rozumienia męskości. To męskość, w której idee takie jak siła, odwaga i ochrona są utożsamiane z przemocą. Jest to męskość, w której zdolność i chęć użycia broni, angażowania się w walkę i zabijania innych ludzi jest postrzegana jako niezbędna do bycia „prawdziwym mężczyzną".
W pełni autonomiczna broń jest rozwijana w kontekście wspomnianych norm płci i władzy. Badacze płci i technologii od dawna twierdzą, że relacje płci są „materializowane w technologii". Oznacza to, że znaczenie i charakter (normy) męskości i kobiecości są „osadzone" w maszynach. Uczeni ci twierdzą, że produkty technologiczne noszą piętno ich twórców. Jeśli technologia jest rozwijana i wykorzystywana głównie przez mężczyzn działających w ramach brutalnej męskości, ich twory zostaną zaszczepione w ramach myśli, wiedzy, języka i interpretacji.
W pełni autonomiczna broń, jako narzędzie przemocy i wojny, będzie prawdopodobnie miała specyficzne cechy, które mogą jednocześnie wzmacniać i podważać hegemoniczne normy płci. Użycie w pełni autonomicznej broni może prowadzić do przemocy ze względu na płeć wobec mężczyzn. W czasie konfliktu cywilni mężczyźni są często brani na cel – lub liczeni w rejestrach ofiar – jako bojownicy tylko dlatego, że są mężczyznami w określonym wieku.
Chociaż mężczyźni niekoniecznie są celem ataków wyłącznie dlatego, że są mężczyznami, traktowanie seksu jako kluczowego wyznacznika tożsamości i wyrządzanie krzywdy na tej podstawie stanowi przemoc ze względu na płeć.
Oznacza to, że jeśli ktoś wykorzystuje seks jako podstawę do oceny, czy dana osoba jest celem, lub czy zezwala się na atak (czy obecni są tylko mężczyźni?), lub do określenia wpływu ataku później (tj. podczas rejestrowania ofiar). ), to wykorzystują płeć tej osoby nie jako motywację do ataku, ale jako pełnomocnik do identyfikacji bojowników lub „dopuszczalnych celów". To jest przemoc ze względu na płeć . Podważa to ochronę, jaką cywilom należy zapewnić w czasie konfliktów, i narusza wiele praw człowieka, w tym prawo do życia i należytego procesu.
Ma również szersze implikacje we wzmacnianiu norm płci, w tym brutalnej męskości. Zakładanie, że wszyscy mężczyźni w wieku wojskowym są potencjalnymi lub rzeczywistymi bojownikami lub bojownikami, utrwala ideę, że mężczyźni są agresywni, a zatem mogą być celem. To dewaluuje męskie życie – sugeruje, że mężczyźni są stosunkowo bardziej skłonni do poświęcenia niż kobiety. To zwiększa podatność ludzi, zaostrzając innych ryzyk dorosłych mężczyzn cywilnych, takich jak oblicze przymusowej rekrutacji, arbitralnych aresztowań i egzekucji.
Płciowa kultura brutalnych męskości, która otacza rozwój autonomicznej broni, która prawdopodobnie zostanie osadzona w technologii i jej użyciu, stworzy nowe wyzwania w zakresie zapobiegania przemocy, ochrony ludności cywilnej oraz przełamywania esencjalizmu płciowego lub dyskryminacji.
Zrozumienie, w jaki sposób twórcy, operatorzy i ofiary prawdopodobnie będą postrzegać broń autonomiczną w sposób płciowy, ma kluczowe znaczenie dla opracowania zasad, które mogą pomóc przerwać krąg przemocy. Może to obejmować zrozumienie, że działanie broni bez znaczącej kontroli człowieka, broni zaprogramowanej do celowania i zabijania w oparciu o zaprogramowane algorytmy określające, kto jest uważany za zagrożenie, używanej bez zgody w obcych krajach lub na ulicach lokalnych miast, spowoduje straty cywilne, szkody psychiczne, oraz niszczenie infrastruktury cywilnej. Że to z kolei spowoduje gwałtowną, męską reakcję ze strony dotkniętych społeczności, wzmacniając nierówności płci i ucisk.
Jakie wysiłki podjęto, aby zająć się rozwojem i wykorzystaniem w pełni autonomicznej broni?
Podczas posiedzenia Rady Praw Człowieka w kwietniu 2013 r. 24 państwa wzięły udział w prezentacji raportu Specjalnego Sprawozdawcy ds. egzekucji pozasądowych, doraźnych lub arbitralnych Christofa Heynsa oraz omówiono kwestię broni autonomicznej. Państwa uczestniczące wyraziły obawy dotyczące użycia w pełni autonomicznej broni i wyraziły zainteresowanie kontynuowaniem dyskusji.
Na spotkaniu państw-stron Konwencji o niektórych broniach konwencjonalnych (CCW) w listopadzie 2013 r. rządy postanowiły zwołać czterodniowe spotkanie ekspertów na temat broni w pełni autonomicznej. CCW, przyjęte w 1980 r., reguluje broń, która nie pochodzi ze źródeł chemicznych, nuklearnych ani biologicznych.
Od 2014 r. państwa-strony CCW dyskutują, jak radzić sobie z zagrożeniem ze strony robotów-zabójców. W 2016 r. Piąta Konferencja Przeglądowa CCW podjęła decyzję o rozpoczęciu formalnego procesu w 2017 r. w celu omówienia autonomicznych systemów uzbrojenia. Spotkania od tego czasu koncentrowały się na budowaniu wspólnego zrozumienia znaczenia kontroli człowieka i zagrożeń związanych z w pełni autonomiczną bronią. Większość rządów, wraz z Międzynarodowym Komitetem Czerwonego Krzyża (MKCK), sekretarzem generalnym ONZ Antonio Guterresem i kampanią na rzecz zatrzymania zabójczych robotów , doszła do wniosku, że ludzie muszą zachować kontrolę nad programowaniem, rozwojem, aktywacją i/lub fazy operacyjne systemu uzbrojenia.
Rosnąca liczba stanów domaga się wyprzedzającego zakazu zabójczych robotów ( obecnie 28 stanów ). Co więcej, Ruch Państw Niezaangażowanych , największy blok państw działających w ONZ, domagał się prawnie wiążącego instrumentu określającego zakazy i regulacje dotyczące takiej broni; Austria, Brazylia i Chile wspierają negocjacje „prawnie wiążącego instrumentu zapewniającego znaczącą kontrolę człowieka nad krytycznymi funkcjami" systemu uzbrojenia. Kilku innych wyraziło zainteresowanie mechanizmami niewiążącymi prawnie, takimi jak deklaracja polityczna zaproponowana przez Francję i Niemcy .
Dodatkowe poparcie dla zakazu wyszło również od tysięcy naukowców i ekspertów od sztucznej inteligencji . W lipcu 2018 r. złożyli zobowiązanie, że nie będą pomagać w rozwoju ani stosowaniu w pełni autonomicznej broni. Dzieje się to na piętach szerszego aktywizmu społeczności naukowej i technologicznej przeciwko niewłaściwemu wykorzystaniu technologii.
Na przykład 4000 pracowników Google podpisało niedawno list z żądaniem, aby ich firma anulowała umowę Project Maven z Pentagonem, która miała na celu „ulepszenie" ataków dronów za pomocą sztucznej inteligencji . Dwunastu akademików ogłosiło swoje wsparcie dla pracowników technologicznych.
W odpowiedzi firma Google zrezygnowała swoją pracę nad Projektem Maven. Co więcej, ponad 160 przywódców religijnych i ponad 20 laureatów Pokojowej Nagrody Nobla popiera zakaz.
Jednak niewielka garstka państw sprzeciwia się prawnie wiążącym lub politycznym reakcjom na zagrożenia stwarzane przez broń autonomiczną. Stany Zjednoczone argumentują, że rządy i społeczeństwo obywatelskie nie mogą „stygmatyzować nowych technologii" ani ustanawiać nowych międzynarodowych standardów, ale zamiast tego pracować nad zapewnieniem „odpowiedzialnego użycia broni".
Wraz z Australią, Izraelem, Rosją i Koreą Południową Stany Zjednoczone spędziły spotkanie CCW w sierpniu 2018 r., argumentując, że jakiekolwiek konkretne działania są „ przedwczesne " i zażądały, aby CCW spędziło w przyszłym roku na badaniu potencjalnych „ korzyści" autonomicznych systemów uzbrojenia. CCW działa na podstawie konsensusu, który interpretuje się jako wymagający jednomyślności. Oznacza to, że te pięć krajów było w stanie zablokować wszelkie ruchy, aby powstrzymać rozwój tej broni.
Pomimo tego, że zdecydowana większość państw, eksperci AI, naukowcy i aktywiści zgadzają się, że w pełni autonomiczne systemy uzbrojenia nigdy nie mogą być opracowywane ani używane, spotkanie Wysokich Umawiających się Stron w 2018 r. w sprawie CCW , które odbyło się w listopadzie 2018 r ., postanowiło jedynie kontynuować dyskusje w formacie dwóch oddzielnych Sesje GGE w 2019 roku.
Kampania na rzecz zatrzymania zabójczych robotów
W kwietniu 2013 r. grupa organizacji pozarządowych, w tym WILPF, rozpoczęła w Londynie Kampanię Stop Killer Robots . Kampania ustanowiła skoordynowany apel społeczeństwa obywatelskiego o zakaz opracowywania, produkcji i używania w pełni autonomicznych systemów uzbrojenia i ma na celu sprostanie wyzwaniom, jakie stawia przed ludnością cywilną i prawem międzynarodowym, jakie stwarza ta broń. Kampania opiera się na wcześniejszych doświadczeniach z prób zakazu stosowania min lądowych, amunicji kasetowej i laserów oślepiających.
Kampania podkreśla etyczne implikacje uprawnienia maszyn do decydowania między śmiercią a życiem ludzi. Wzywa państwa do wynegocjowania traktatu, który zapobiegawczo zakazuje dalszego rozwoju i użycia w pełni autonomicznej broni. Taki traktat obejmowałby zakaz opracowywania, produkcji i rozmieszczania w pełni autonomicznej broni. Kampania podkreśla, że tę sprawę należy traktować jako pilną troskę, zwłaszcza z perspektywy humanitarnej.
Oprócz zakazu na mocy traktatu międzynarodowego, kampania wzywa również do wprowadzenia zakazu na poziomie krajowym poprzez prawo krajowe i inne środki polityczne.
Kampania rozrosła się do ponad 100 organizacji członkowskich wzywających do zakazu w pełni autonomicznych systemów uzbrojenia i mobilizuje coraz większą liczbę opinii publicznej do przyłączenia się do kampanii mających na celu utrzymanie ludzkiej kontroli nad przemocą.
Zasoby informacji
Kampania na rzecz zatrzymania zabójczych robotów
Relacja ze spotkania ekspertów ONZ w sprawie broni autonomicznej
Kliknij tutaj, aby przeczytać nasze relacje z posiedzeń ONZ w sprawie broni autonomicznej
Dalsza lektura
Międzynarodowy Komitet Czerwonego Krzyża, Sztuczna inteligencja i uczenie maszynowe w konfliktach zbrojnych: podejście skoncentrowane na człowieku , 6 czerwca 2019
Frank Slijper, Alice Beck i Daan Kayser, State of AI — sztuczna inteligencja, wojsko i coraz bardziej autonomiczna broń , PAX, kwiecień 2019
Melissa Chan, Powstanie zabójczych robotów – i dwie walczące kobiety , The Guardian , 8 kwietnia 2019
Dr Emilia Javorsky, Ray Acheson, Rasha Abdul Rahim i Bonnie Docherty, Dlaczego zakazać śmiercionośnej broni autonomicznej , podcast Future of Life Institute , 2 kwietnia 2019 r.
Przesłanie Sekretarza Generalnego ONZ na posiedzenie grupy ekspertów rządowych ds. nowych technologii w obszarze śmiercionośnych systemów broni autonomicznej , 25 marca 2019 r.
Zestaw kampanii, Kampania na rzecz powstrzymania zabójczych robotów, marzec 2019 r.
Ray Acheson, Przewodnik WILPF po zabójczych robotach , Międzynarodowa Liga Kobiet na rzecz Pokoju i Wolności, marzec 2019 r.
Erin Hunt, Dlaczego „zabójcze roboty" nie są ani feministyczne, ani etyczne , OpenCanada.org , 22 stycznia 2019
Kampania na rzecz zatrzymania zabójczych robotów (2018). Kruche rozmowy dyplomatyczne na temat zabójczych robotów kuśtykają do przodu. Presja społeczna jest niezbędna, aby narody zachowały ludzką kontrolę nad użyciem siły, 26 listopada 2018 r.
PAX (2018). Crunch Time - europejskie stanowiska w sprawie śmiercionośnych systemów broni autonomicznej. Listopad 2018
Kampania na rzecz zatrzymania zabójczych robotów we Francji (2018). Dlaczego Francja musi sprzeciwić się rozwojowi zabójczych robotów , listopad 2018 r.
Acheson, Ray (2018). Aby zachować ludzkość, musimy zakazać zabójczych robotów , The Nation , 1 października 2018 r.
WILPF (2018). Oświadczenie WILPF skierowane do Grupy Ekspertów Rządowych ONZ w sprawie broni autonomicznej , 28 sierpnia 2018 r.
WILPF (2018). Oświadczenie WILPF skierowane do Grupy Ekspertów Rządowych ONZ w sprawie broni autonomicznej , 13 kwietnia 2018 r.
Osiągnięcie krytycznej woli (2017). Grupa rządowych ekspertów ds. broni autonomicznej kończy prace na 2017 rok z rozmachem nad nowym traktatem , 20 listopada 2017
Sztokholmski Międzynarodowy Instytut Badań nad Pokojem (SIPRI, 2017). Mapowanie rozwoju autonomii w systemach uzbrojenia , listopad 2017 r.
PAX (2017). Gdzie postawić granicę - Zwiększenie autonomii systemów uzbrojenia, technologii i trendów , listopad 2017 r.
PAX (2017). Utrzymanie kontroli: europejskie stanowiska w sprawie śmiercionośnych systemów broni autonomicznej , listopad 2017 r.
Osiągnięcie krytycznej woli (2016). Państwa zgadzają się na formalny proces dotyczący broni autonomicznej po zakończeniu piątej konferencji przeglądowej CCW , 19 grudnia 2016 r.
Międzynarodowy Komitet Czerwonego Krzyża (MKCK, 2016). Autonomiczne systemy broni: implikacje rosnącej autonomii w krytycznych funkcjach broni , sierpień 2016 r.
Osiągnięcie krytycznej woli (2016). ONZ zgadza się na więcej rozmów na temat broni autonomicznej, ponieważ rośnie poparcie dla prohibicji , 18 kwietnia 2016 r.
WILPF (2016). Oświadczenie WILPF na spotkania ekspertów CCW 2016 nt. śmiercionośnych systemów uzbrojenia autonomicznego , 12 kwietnia 2016 r.
Osiągnięcie krytycznej woli (2015). Bombardowanie, spalanie i zabójcze roboty: relacja ze spotkania wysokich kontrahentów CCW 2015 , 13 listopada 2015
WILPF (2015). Oświadczenie WILPF na spotkania ekspertów w sprawie śmiercionośnych systemów uzbrojenia autonomicznego 2015, 13 kwietnia 2015 r.
Osiągnięcie krytycznej woli (2014). Zabójcze roboty na 26. Radzie Praw Człowieka , 30 czerwca 2014 r.
Osiągnięcie krytycznej woli (2014). Broń autonomiczna na stałe w agendzie międzynarodowej , 18 maja 2014 r.
WILPF (2014). Oświadczenie WILPF na Spotkaniach Ekspertów CCW ds. Systemów Zabójczej Broni Autonomicznej , 13 maja 2013 r.
Human Rights Watch (2016). Tworzenie sprawy - niebezpieczeństwa zabójczych robotów i potrzeba prewencyjnego zakazu , 2016
Human Rights Watch (2015). Mind the Gap: brak odpowiedzialności za zabójcze roboty , kwiecień 2015
Artykuł 36 (2015). Zabijanie maszyną , kwiecień 2015
Human Rights Watch (2014), Shaking the Foundations. Implikacje zabójczych robotów dla praw człowieka , 12 maja 2014 r.
UNIDIR, (2014). Ramowe dyskusje na temat uzbrojenia coraz bardziej autonomicznych technologii , kwiecień 2014 r.
Pax (2014). Śmiertelne decyzje – 8 sprzeciwów wobec zabójczych robotów , luty 2014
Osiągnięcie krytycznej woli (2013). CCW przyjmuje mandat do omówienia zabójczych robotów , 15 listopada 2013 r.
Artykuł 36 (2013). Wielka Brytania twierdzi, że zabójcze roboty nie spełnią wymogów prawa międzynarodowego , 18 czerwca 2013 r.
Osiągnięcie krytycznej woli (2013). Rosnące tempo zapobiegania zabójczym robotom , 30 maja 2013 r.:
Kampania na rzecz zatrzymania zabójczych robotów (2013). U rgent konieczność działań na rzecz zakazu broni pełni autonomiczne: Organizacje pozarządowe zwołać do rozpoczęcia kampanii, aby zatrzymać zabójcy Robots , 23 kwietnia 2013
Docherty, Bonnie (2012). Kłopoty z zabójczymi robotami: dlaczego musimy zakazać w pełni autonomicznych systemów uzbrojenia, zanim będzie za późno , Foreign Policy , 19 listopada 2012
Human Rights Watch (2012). Zakaz „zabójczych robotów", zanim będzie za późno: w pełni autonomiczna broń zwiększyłaby zagrożenie dla ludności cywilnej , 19 listopada 2012
Heyns, Christof (2013). Sprawozdanie Specjalnego Sprawozdawcy w sprawie egzekucji pozasądowych, doraźnych lub arbitralnych , 9 kwietnia 2013 r.
Krishnan, Armin (2009). Zabójcze roboty: legalność i etyka broni autonomicznej. Wydawnictwo Ashgate.
Aby uzyskać więcej aktualnych zasobów, zobacz Kampania na rzecz powstrzymania zabójczych robotów — zalecana literatura
Czy szukałaś/eś poza mass media informacji o tym jakie możliwości mają współczesne roboty?
Czy szukałaś/eś poza mass media informacji o tym, jak można połączyć sztuczną inteligencję (AI), roboty oraz technologię 5G??
Czy opierasz swoje wnioski w oparciu o fakty i dogłębną analizę, ciągle poszukując nowych informacji?
Wykorzystaj do poszukiwań przeglądarkę https://duckduckgo.com/
Źródło: https://www.reachingcriticalwill.org/resources/fact-sheets/critical-issues/7972-fully-autonomous-weapons
https://www.stopkillerrobots.org/about/
Udostępnij wpis swoim znajomym aby mogli zapoznać się z pełnym spektrum informacji i wyrobili sobie własne zdanie nt obecnej sytuacji na Ziemi.
When you subscribe to the blog, we will send you an e-mail when there are new updates on the site so you wouldn't miss them.
Komentarze