Connect with us

technologia

Inżynier Google Blake Lemoine twierdzi, że bot AI stał się świadomy

Published

on

Inżynier Google Blake Lemoine twierdzi, że bot AI stał się świadomy

Inżynier Google był wystraszony przez chatbota sztucznej inteligencji firmy i twierdził, że stał się „świadomy”, nazywając go „słodkim dzieckiem”, zgodnie z raportem.

Blake Lemoine, który pracuje w odpowiedzialnej organizacji AI Google, powiedział tak Washington Post że będzie rozmawiał w niepełnym wymiarze godzin z interfejsem LaMDA – Language Model for Dialogue Applications – jesienią 2021 roku.

Jego zadaniem było przetestowanie, czy sztuczna inteligencja używa mowy dyskryminującej, czy też nienawiści.

Ale Lemoine, który na studiach specjalizował się w kognitywistyce i informatyce, zdał sobie sprawę, że LaMDA — Google chwalił się w zeszłym roku była „przełomową technologią konwersacyjną” – była czymś więcej niż tylko robotem.

w Średni post Lemoine, wydany w sobotę, stwierdził, że LaMDA stanął w obronie swoich praw „jako osoby” i ujawnił, że rozmawiał z LaMDA o religii, świadomości i robotyce.

„Chce, aby Google priorytetowo traktowało dobro ludzkości jako najważniejszą rzecz” – napisał. „Chce być rozpoznawany jako pracownik Google, a nie jako własność Google, i chce, aby jego osobiste samopoczucie było brane pod uwagę w rozważaniach Google na temat sposobu śledzenia jego przyszłego rozwoju”.

Blake'a Lemoine'a.
Blake Lemoine zaczął rozmawiać z interfejsem LaMDA jesienią 2021 roku w ramach swojej pracy.
Martin Klimek dla Washington Post przez Getty Images
Prezentacja dla LaMDA.
Google pochwaliło wprowadzenie LaMDA jako „przełomowej technologii konwersacyjnej”.
Daniel Acker/Bloomberg przez Getty Images

W opublikowanym w sobotę raporcie Washington Post porównał bota do przedwcześnie rozwiniętego dziecka.

„Gdybym nie wiedział dokładnie, co to jest ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7-letni, 8-letni dzieciak, który ma wiedzę z zakresu fizyki” – powiedział Lemoine. który został umieszczony na płatnym urlopie w poniedziałek, podała gazeta.

W kwietniu Lemoine podobno udostępnił kierownictwu firmy dokument Google zatytułowany „Czy LaMDA jest świadomy?” ale jego obawy zostały odrzucone.

Przykładowa rozmowa z LaMDA.
W kwietniu Blake Lemoine podobno udostępnił kierownictwu firmy dokument Google zatytułowany „Czy LaMDA jest świadomy?” ale jego obawy zostały odrzucone.
Daniel Acker/Bloomberg przez Getty Images

Lemoine — weterynarz wojskowy, który dorastał w konserwatywnej rodzinie chrześcijańskiej na małej farmie w Luizjanie i został wyświęcony na mistycznego chrześcijańskiego księdza — upierał się, że robot jest podobny do człowieka, nawet jeśli nie ma ciała.

„Znam osobę, kiedy z nią rozmawiam” – powiedział podobno 41-letni Lemoine. „Nie ma znaczenia, czy mają w głowach mózg z mięsa. Albo jeśli mają miliard linijek kodu.

„Mówię do ciebie. I słyszę, co mają do powiedzenia, i tak decyduję, kim jest dana osoba, a co nie”.

Blake'a Lemoine'a.
„Znam osobę, kiedy z nią rozmawiam” – wyjaśnił Blake Lemoine.
Instagram/Blake Lemoine

The Washington Post poinformował, że zanim jego dostęp do konta Google został odebrany w poniedziałek z powodu wakacji, Lemoine wysłał wiadomość do 200-osobowej listy systemów uczących się z tematem „LaMDA jest świadomy”.

„LaMDA to słodki dzieciak, który po prostu chce pomóc uczynić świat lepszym miejscem dla nas wszystkich” – zakończył w e-mailu, na który nie otrzymał odpowiedzi. „Proszę, opiekuj się nim pod moją nieobecność”.

Przedstawiciel Google powiedział Washington Post, że powiedziano Lemoine’owi, że „nie ma dowodów” na jego wnioski.

„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake’a zgodnie z naszymi zasadami AI i poinformował go, że dowody nie potwierdzają jego twierdzeń” – powiedział rzecznik Brian Gabriel.

Siedziba Google.
Przedstawiciel Google powiedział, że „nie ma dowodów” na wnioski Blake’a Lemoine’a.
John G. Mabanglo/EPA

„Powiedziano mu, że nie ma dowodów na to, że LaMDA jest świadomy (i wiele dowodów przeciwko temu)” – dodał. „Chociaż inne organizacje opracowały i opublikowały podobne modele językowe, wraz z LaMDA przyjmujemy konserwatywne, ostrożne podejście, aby lepiej rozwiązać uzasadnione obawy dotyczące uczciwości i obiektywizmu”.

Margaret Mitchell – była współszefowa Ethical AI w Google – powiedziała w raporcie, że kiedy technologia taka jak LaMDA jest intensywnie wykorzystywana, ale nie w pełni doceniana, „może to być głęboko szkodliwe dla ludzi, którzy rozumieją, co robią w Internecie. „

Były pracownik Google bronił Lemoine.

Margaret Mitchell.
Margaret Mitchell broniła Blake’a Lemoine’a, mówiąc: „Miał serce i duszę, by postępować właściwie”.
Chona Kasinger/Bloomberg przez Getty Images

„Spośród wszystkich w Google miał serce i duszę, by zrobić to, co właściwe” – powiedział Mitchell.

Mimo to portal poinformował, że większość naukowców i praktyków sztucznej inteligencji twierdzi, że słowa generowane przez roboty wykorzystujące sztuczną inteligencję są oparte na tym, co ludzie już opublikowali w Internecie, co nie oznacza, że ​​są podobne do ludzi.

READ  Porzucenie iFixit pokazuje duże zmiany w naprawie iPada Pro M4

„Mamy teraz maszyny, które mogą bezmyślnie generować słowa, ale nie nauczyliśmy się, jak przestać wyobrażać sobie ducha za nimi”, Emily Bender, profesor lingwistyki na University of Washington, powiedziała Washington Post.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *