technologia
Pionier sztucznej inteligencji twierdzi, że zagrożenie dla świata może być „pilniejsze” niż zmiana klimatu
LONDYN, 5 maja (Reuters) – Sztuczna inteligencja może stanowić „pilniejsze” zagrożenie dla ludzkości niż zmiany klimatyczne, powiedział Geoffrey Hinton, pionier sztucznej inteligencji w piątkowym wywiadzie dla agencji Reuters.
Geoffrey Hinton, powszechnie znany jako jeden z „ojców chrzestnych sztucznej inteligencji”, niedawno ogłosił, że odchodzi z Alphabet (GOOGL.O) po dziesięciu latach pracy w firmie i powiedział, że chce wypowiadać się na temat zagrożeń związanych z technologią bez obaw jego były pracodawca.
Praca Hintona jest uważana za niezbędną do rozwoju współczesnych systemów sztucznej inteligencji. W 1986 roku był współautorem przełomowego artykułu Learning Representations by Back-Propagating Errors, który był kamieniem milowym w rozwoju sieci neuronowych leżących u podstaw technologii sztucznej inteligencji. W 2018 roku otrzymał nagrodę Turinga za przełomowe badania.
Ale jest teraz jednym z coraz większej liczby liderów technologicznych, którzy publicznie wyrażają zaniepokojenie potencjalnym zagrożeniem ze strony sztucznej inteligencji, jeśli maszyny osiągną większą inteligencję niż ludzie i przejmą kontrolę nad planetą.
„Nie chcę lekceważyć zmian klimatu. Nie chcę powiedzieć:„ Nie powinieneś się martwić zmianami klimatycznymi ”. To także duże ryzyko” – powiedział Hinton. „Ale myślę, że to może stać się bardziej pilne”.
Dodał: „W przypadku zmian klimatycznych bardzo łatwo jest zalecić, co powinieneś zrobić: po prostu przestań spalać węgiel. Jeśli to zrobisz, w końcu wszystko będzie dobrze. Z tego powodu nie jest wcale jasne, co powinieneś zrobić.
Wspierany przez Microsoft (MSFT.O) OpenAI zapoczątkował technologiczny wyścig zbrojeń w listopadzie, udostępniając publicznie chatbota ChatGPT opartego na sztucznej inteligencji. Wkrótce stała się najszybciej rozwijającą się aplikacją w historii, osiągając 100 milionów użytkowników miesięcznie w ciągu dwóch miesięcy.
W kwietniu dyrektor generalny Twittera, Elon Musk, dołączył do tysięcy osób, które podpisały list otwarty wzywający do sześciomiesięcznej przerwy w rozwoju systemów potężniejszych niż niedawno uruchomiony GPT-4 firmy OpenAI.
Wśród sygnatariuszy znaleźli się Emad Mostaque, dyrektor generalny Stability AI, badacze z DeepMind, który należy do Alphabet, oraz inni pionierzy sztucznej inteligencji, Yoshua Bengio i Stuart Russell.
Chociaż Hinton podziela obawy sygnatariuszy, że sztuczna inteligencja może okazać się egzystencjalnym zagrożeniem dla ludzkości, nie zgodził się na wstrzymanie badań.
„To całkowicie nierealne” – powiedział. „Jestem w obozie, który uważa, że jest to ryzyko egzystencjalne i jest na tyle blisko, że powinniśmy teraz bardzo ciężko pracować i inwestować wiele zasobów, aby dowiedzieć się, co możemy z tym zrobić”.
W Unii Europejskiej komitet prawodawców odpowiedział na list wspierany przez Muska, wzywając prezydenta USA Joe Bidena do zwołania światowego szczytu z przewodniczącą Komisji Europejskiej Ursulą von der Leyen w sprawie przyszłego kierunku technologii.
W zeszłym tygodniu komisja uzgodniła przełomowy zestaw generatywnych propozycji sztucznej inteligencji, które zmusiłyby firmy takie jak OpenAI do ujawnienia wszelkich materiałów chronionych prawem autorskim wykorzystywanych do szkolenia ich modeli.
W międzyczasie Biden przeprowadził rozmowy z wieloma liderami biznesu AI w Białym Domu, w tym z dyrektorem generalnym Alphabet Sundarem Pichai i dyrektorem generalnym OpenAI Samem Altmanem, obiecując „otwartą i konstruktywną dyskusję” na temat potrzeby większej przejrzystości firm w zakresie ich systemów.
„Liderzy technologii najlepiej to rozumieją, a politycy muszą być zaangażowani” – powiedział Hinton. „To dotyczy nas wszystkich, więc wszyscy musimy o tym pomyśleć”.
Reportaż Martina Coultera, montaż przez Deepę Babington
Nasze standardy: Zasady zaufania Thomson Reuters.