Zabawa
Firma zajmująca się sztuczną inteligencją w Battlefield twierdzi, że to jeden z dobrych facetów | PRZEWODOWY
Zamiast tego hasło to mówi mniej o tym, co firma robi, a więcej o tym, dlaczego to robi. Helsingi ogłoszenia o pracę pełen idealizmu i rzuca wyzwanie ludziom z przekonaniem, że „wartości demokratyczne są warte ochrony”.
Trzej założyciele Helsing opisują rosyjską inwazję na Krym w 2014 roku jako sygnał alarmowy, że cała Europa musi być gotowa do odpowiedzi na rosyjską agresję. „Coraz bardziej martwiłem się, że w naszych otwartych społeczeństwach pozostajemy w tyle za kluczowymi technologiami” — mówi Reil. To uczucie wzrosło, gdy obserwował, jak pracownicy Google protestowali przeciwko umowie z Pentagonem w 2018 r., w ramach której Google pomógłby wojsku wykorzystać sztuczną inteligencję do analizy nagrań z dronów. Podpisało go ponad 4000 pracowników list Twierdził, że wspieranie przez Google inwigilacji wojskowej i jej potencjalnie śmiertelnych konsekwencji jest moralnie i etycznie nieodpowiedzialne. W odpowiedzi Google powiedział, że nie przedłuży umowy.
„Po prostu nie rozumiałem logiki, która za tym stoi” — mówi Reil. „Jeśli żyjemy w otwartych i wolnych społeczeństwach, jeśli chcemy być tym, kim chcemy być i mówić to, co chcemy powiedzieć, musimy być w stanie ich chronić. Nie możemy ich brać za pewnik” – obawiał się, że Zachód nieuchronnie zostałby w tyle, gdyby wielka technologia, ze wszystkimi jej zasobami, nie mogła współpracować z przemysłem obronnym. „Czułem, że jeśli oni tego nie zrobią, jeśli najlepsi inżynierowie Google nie chcą nad tym pracować, kto to zrobi?”
Zwykle trudno jest stwierdzić, czy produkty obronne działają tak, jak twierdzą ich twórcy. Firmy, które je sprzedają, w tym Helsing, twierdzą, że przejrzystość szczegółów obniżyłaby skuteczność ich narzędzi. Ale w tej chwili założyciele próbują przekazać obraz tego, co sprawia, że ich sztuczna inteligencja jest kompatybilna z demokratycznymi reżimami, którym chce sprzedawać. „Naprawdę zależy nam na prywatności i wolności i nigdy nie użylibyśmy takich rzeczy jak rozpoznawanie twarzy”, mówi Scherf, twierdząc, że firma chce pomóc personelowi wojskowemu rozpoznawać przedmioty, a nie ludzi. „Są pewne rzeczy, które nie są niezbędne do misji obronnej”.
Ale pełzająca automatyzacja w śmiercionośnej branży, takiej jak obronność, wciąż rodzi drażliwe problemy. Jeśli systemy Helsinga po prostu zapewniają zwiększoną świadomość pola bitwy, która pomaga wojsku zrozumieć, gdzie są cele, to nie jest to problem, mówi Herbert Lin, starszy naukowiec z Centrum Bezpieczeństwa Międzynarodowego i Współpracy Uniwersytetu Stanforda. Uważa jednak, że gdy ten system zostanie wprowadzony, decydenci znajdą się pod presją, aby połączyć go z autonomiczną bronią. „Decydenci muszą oprzeć się temu pomysłowi” – mówi Lin, dodając, że to ludzie, a nie maszyny, muszą ponosić odpowiedzialność za błędy. Jeśli sztuczna inteligencja „zabija traktor, a nie ciężarówkę czy czołg, to jest źle. Kogo należy obwiniać?”
Riel twierdzi, że Helsing nie produkuje broni autonomicznej. „My robimy na odwrót” – mówi. „Opracowujemy systemy sztucznej inteligencji, które pomagają ludziom lepiej zrozumieć sytuację”.
Chociaż operatorzy mogą używać platformy Helsing do zestrzelenia drona, obecnie to człowiek podejmuje tę decyzję, a nie sztuczna inteligencja. Powstaje jednak pytanie, jak dużą autonomię mają ludzie, kiedy ściśle współpracują z maszynami. „Im mniej wyjaśnisz użytkownikom narzędzia, z którymi pracują, tym bardziej traktują je jak magię”, mówi Jensen z Centrum Studiów Strategicznych i Międzynarodowych, twierdząc, że oznacza to, że użytkownicy wojskowi robią za dużo lub za mało Sztuczna inteligencja może zaufać.
Typowy awanturnik. Zły odkrywca. Przyjazny myśliciel. Introwertyk.