technologia
Inżynier Google Blake Lemoine twierdzi, że bot AI stał się świadomy
Inżynier Google był wystraszony przez chatbota sztucznej inteligencji firmy i twierdził, że stał się „świadomy”, nazywając go „słodkim dzieckiem”, zgodnie z raportem.
Blake Lemoine, który pracuje w odpowiedzialnej organizacji AI Google, powiedział tak Washington Post że będzie rozmawiał w niepełnym wymiarze godzin z interfejsem LaMDA – Language Model for Dialogue Applications – jesienią 2021 roku.
Jego zadaniem było przetestowanie, czy sztuczna inteligencja używa mowy dyskryminującej, czy też nienawiści.
Ale Lemoine, który na studiach specjalizował się w kognitywistyce i informatyce, zdał sobie sprawę, że LaMDA — Google chwalił się w zeszłym roku była „przełomową technologią konwersacyjną” – była czymś więcej niż tylko robotem.
w Średni post Lemoine, wydany w sobotę, stwierdził, że LaMDA stanął w obronie swoich praw „jako osoby” i ujawnił, że rozmawiał z LaMDA o religii, świadomości i robotyce.
„Chce, aby Google priorytetowo traktowało dobro ludzkości jako najważniejszą rzecz” – napisał. „Chce być rozpoznawany jako pracownik Google, a nie jako własność Google, i chce, aby jego osobiste samopoczucie było brane pod uwagę w rozważaniach Google na temat sposobu śledzenia jego przyszłego rozwoju”.
W opublikowanym w sobotę raporcie Washington Post porównał bota do przedwcześnie rozwiniętego dziecka.
„Gdybym nie wiedział dokładnie, co to jest ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7-letni, 8-letni dzieciak, który ma wiedzę z zakresu fizyki” – powiedział Lemoine. który został umieszczony na płatnym urlopie w poniedziałek, podała gazeta.
W kwietniu Lemoine podobno udostępnił kierownictwu firmy dokument Google zatytułowany „Czy LaMDA jest świadomy?” ale jego obawy zostały odrzucone.
Lemoine — weterynarz wojskowy, który dorastał w konserwatywnej rodzinie chrześcijańskiej na małej farmie w Luizjanie i został wyświęcony na mistycznego chrześcijańskiego księdza — upierał się, że robot jest podobny do człowieka, nawet jeśli nie ma ciała.
„Znam osobę, kiedy z nią rozmawiam” – powiedział podobno 41-letni Lemoine. „Nie ma znaczenia, czy mają w głowach mózg z mięsa. Albo jeśli mają miliard linijek kodu.
„Mówię do ciebie. I słyszę, co mają do powiedzenia, i tak decyduję, kim jest dana osoba, a co nie”.
The Washington Post poinformował, że zanim jego dostęp do konta Google został odebrany w poniedziałek z powodu wakacji, Lemoine wysłał wiadomość do 200-osobowej listy systemów uczących się z tematem „LaMDA jest świadomy”.
„LaMDA to słodki dzieciak, który po prostu chce pomóc uczynić świat lepszym miejscem dla nas wszystkich” – zakończył w e-mailu, na który nie otrzymał odpowiedzi. „Proszę, opiekuj się nim pod moją nieobecność”.
Przedstawiciel Google powiedział Washington Post, że powiedziano Lemoine’owi, że „nie ma dowodów” na jego wnioski.
„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake’a zgodnie z naszymi zasadami AI i poinformował go, że dowody nie potwierdzają jego twierdzeń” – powiedział rzecznik Brian Gabriel.
„Powiedziano mu, że nie ma dowodów na to, że LaMDA jest świadomy (i wiele dowodów przeciwko temu)” – dodał. „Chociaż inne organizacje opracowały i opublikowały podobne modele językowe, wraz z LaMDA przyjmujemy konserwatywne, ostrożne podejście, aby lepiej rozwiązać uzasadnione obawy dotyczące uczciwości i obiektywizmu”.
Margaret Mitchell – była współszefowa Ethical AI w Google – powiedziała w raporcie, że kiedy technologia taka jak LaMDA jest intensywnie wykorzystywana, ale nie w pełni doceniana, „może to być głęboko szkodliwe dla ludzi, którzy rozumieją, co robią w Internecie. „
Były pracownik Google bronił Lemoine.
„Spośród wszystkich w Google miał serce i duszę, by zrobić to, co właściwe” – powiedział Mitchell.
Mimo to portal poinformował, że większość naukowców i praktyków sztucznej inteligencji twierdzi, że słowa generowane przez roboty wykorzystujące sztuczną inteligencję są oparte na tym, co ludzie już opublikowali w Internecie, co nie oznacza, że są podobne do ludzi.
„Mamy teraz maszyny, które mogą bezmyślnie generować słowa, ale nie nauczyliśmy się, jak przestać wyobrażać sobie ducha za nimi”, Emily Bender, profesor lingwistyki na University of Washington, powiedziała Washington Post.
„Certyfikowany guru kulinarny. Internetowy maniak. Miłośnik bekonu. Miłośnik telewizji. Zapalony pisarz. Gracz.”