technologia
Broń AI zagraża ludzkości, ostrzega najlepszych naukowców
Informatyk Stuart Russell spotkał się w październiku z urzędnikami Departamentu Obrony, aby wydać silne ostrzeżenie, że dodanie sztucznej inteligencji do broni może zniszczyć ludzkość.
Jednak pionierski badacz sztucznej inteligencji, który przez ostatnią dekadę próbował zakazać używania sztucznej inteligencji do znajdowania i zabijania ludzkich celów, nie złożył obietnic od uczestników spotkania.
W tym tygodniu Russell, brytyjski profesor na Uniwersytecie Kalifornijskim w Berkeley, ma jeden z tych przełomowe podręczniki na AI ponad 25 lat temu wykorzysta doroczne wykłady Reitha w radiu BBC, aby pogłębić swoją sprawę.
Jego wezwania do międzynarodowego moratorium na autonomiczną broń śmiercionośną odbiły się echem w społeczności akademickiej. W zeszłym tygodniu ponad 400 niemieckich badaczy sztucznej inteligencji miało otwarte badanie List do rządu federalnego z prośbą o zatrzymanie rozwoju tych systemów przez ich siły zbrojne.
„Zabijanie ludzi nigdy nie powinno być zautomatyzowane w oparciu o formuły algorytmiczne” – czytamy w liście. „Taka dehumanizacja podejmowania decyzji dotyczących życia i śmierci za pomocą autonomicznych systemów broni musi być wykluczona na całym świecie”.
Russell, który regularnie spotyka się z międzynarodowymi rządami, powiedział, że USA i Rosja wraz z Wielką Brytanią, Izraelem i Australią nadal są przeciwne zakazowi.
„Nadal istnieje błąd komunikacyjny, wiele rządów i wojska nie rozumie, na czym polega sprzeciw” – powiedział Russell w wywiadzie dla Financial Times. „Po prostu nie sprzedajemy broni jądrowej w Tesco – i tak samo będzie z tą bronią.
Zabójcza broń AI jest „mała, tania i łatwa w produkcji”. Bez kontroli mogą wkrótce stać się tak wszechobecne jak karabiny automatyczne, których ponad 100 metrów jest własnością prywatną.
W drugim ze swoich czterech wykładów Reitha na temat „Życia ze sztuczną inteligencją”, które od środy będą transmitowane w radiu BBC, Russell ostrzegał, że broń AI nie jest już science fiction, ale porusza się w szybkim tempie, zupełnie nieuregulowana, rozwija się. „Możesz to kupić dzisiaj. Są reklamowane w Internecie ”- powiedział.
W listopadzie 2017 roku turecki producent broni o nazwie STM ogłosił Kargu, w pełni autonomiczny dron zabójcy wielkości piłki do rugby, który może wykorzystywać rozpoznawanie obrazu i twarzy do wykonywania celnych uderzeń. Dron był używany w konfliktach libijskich w 2020 roku do celów pomimo embarga na sprzedaż broni do Libii. odpowiedni Organizacja Narodów Zjednoczonych.
„STM to stosunkowo mały producent w kraju, który nie jest liderem technologicznym. Musisz więc założyć, że wiele krajów prowadzi programy rozwoju tej broni ”- powiedział Russell.
Opisał także harpię izraelskiego rządu – 12-stopowy samolot z nieruchomym skrzydłem, niosący 50-funtowy ładunek wybuchowy, i jego potomka, harpę. Samolot może być pilotowany zdalnie lub może latać autonomicznie po ustaleniu geografii i miejsca docelowego przez operatora.
Harop mógł zostać sprzedany do Indii i Azerbejdżanu, gdzie został zauważony na wideo produkowane przez armię. A Komunikat prasowy przez izraelski przemysł lotniczy na początku tego roku powiedział, że sprzedano ich „setki”.
Russell ostrzegł, że proliferacja broni AI stanowi bezpośrednie i egzystencjalne zagrożenie. „Śmiertelny kwadrokopter napędzany sztuczną inteligencją może być tak mały, jak puszka pasty do butów. . . około trzech gramów materiałów wybuchowych wystarczy, aby zabić osobę z bliskiej odległości. Zwykły pojemnik może pomieścić milion śmiercionośnej broni i. . . wszyscy mogą zostać wysłani do pracy w tym samym czasie ”- powiedział w swoim wykładzie. „Więc nieuniknionym punktem końcowym jest to, że broń autonomiczna staje się tanią, selektywną bronią masowego rażenia”.
Wobec braku działań dyplomatycznych naukowcy łączą siły, aby opracować idealną wersję traktatu zakazującego broni AI. W 2019 roku garstka informatyków, inżynierów i etyków spotkała się w bostońskim domu profesora MIT Maxa Tegmarka, współzałożyciela Future of Life Institute.
W dwudniowym spotkaniu wzięli udział roboetyk Ron Arkin z Georgia Tech; Paul Scharre, były oficer armii amerykańskiej badający przyszłość wojny; i Russell, m.in. Ostatecznie zgodzili się, że określenie minimalnej wagi i rozmiaru materiału wybuchowego powinno być obowiązkowe, aby broń autonomiczna nie mogła być używana jako roje. „To, czego próbujesz uniknąć, to dwóch facetów w ciężarówce strzelających milionem broni” – powiedział Russell.
Ostatecznie wierzy, że rządy takie jak USA, Rosja i Wielka Brytania, które wciąż stawiają opór, mogą jedynie przekonać je do odwołania się do ich poczucia samozachowawczego. Jak powiedział: „Jeśli pytania techniczne są zbyt skomplikowane, twoje dzieci prawdopodobnie mogą je wyjaśnić”.
„Certyfikowany guru kulinarny. Internetowy maniak. Miłośnik bekonu. Miłośnik telewizji. Zapalony pisarz. Gracz.”