Connect with us

technologia

60 Minutes złożyło bardzo złe twierdzenie na temat chatbota Google AI

Published

on

60 Minutes złożyło bardzo złe twierdzenie na temat chatbota Google AI

Odkąd OpenAI wypuściło na świat ChatGPT, widzieliśmy ujęcia, w które ludzie nie chcieli uwierzyć. Niektórzy twierdzili, że chatboty mają plan przebudzenia. Amerykański senator Chris Murphy napisał na Twitterze, że ChatGPT „nauczył” się zaawansowanej chemii. Nawet doświadczeni dziennikarze techniczni pisali historie o tym, jak Chatbot zakochał się w niej. Wygląda na to, że świat zareagowałby na sztuczną inteligencję w sposób, w jaki prawdopodobnie zareagowali jaskiniowcy, gdy po raz pierwszy zobaczyli ogień: z całkowitym zamieszaniem i niespójnym bełkotem.

Jeden z najnowszych przykładów pochodzi z 60 minut, który rzucił swój głos na ring w nowym odcinku poświęconym innowacjom w sztucznej inteligencji, który został wyemitowany w niedzielę w CBS. Odcinek zawierał wywiady z dyrektorem generalnym Google, Sundarem Pichai – i zawierał wątpliwe Roszczenia dotyczące jednego z dużych modeli językowych firmy (LLM).

Tematem klipu jest emergentne zachowanie, które opisuje nieoczekiwany efekt uboczny systemu AI, który niekoniecznie był zamierzony przez twórców modelu. Widzieliśmy już pojawiające się zachowania w innych niedawnych projektach AI. Na przykład naukowcy niedawno wykorzystali ChatGPT do stworzenia generatywnych postaci cyfrowych z celami i pochodzeniem w badaniu opublikowanym online w zeszłym tygodniu. Zaobserwowali, jak system wykonywał kilka wyłaniających się zachowań, takich jak B. dzielenie się nowymi informacjami między postaciami, a nawet nawiązywanie relacji między sobą – coś, czego autorzy początkowo nie planowali dla systemu.

Pojawiające się zachowania to zdecydowanie wartościowy temat na program informacyjny. przy którym 60 minut Jednak klip zmienia się, gdy przedstawiamy twierdzenia, że ​​chatbot Google był w stanie nauczyć się języka, którego wcześniej nie znał, po tym, jak został poproszony o zrobienie tego w tym języku. „Na przykład program Google AI dostosował się sam po otrzymaniu monitu w języku bangladeszu, którego nie był przeszkolony w zrozumieniu” – powiedział w klipie korespondent CBS News, Scott Pelley.

READ  Pixel Fold, oczekiwane nowe funkcje AI

Eksperci AI twierdzą, że to pełny system operacyjny. Bot nie tylko nie mógł nauczyć się języka obcego, „którego nigdy nie był szkolony”, ale także nie nauczył się nowej umiejętności. Cały klip zachęcił badaczy i ekspertów AI do potępienia wprowadzającego w błąd projektu wiadomości na Twitterze.

„Naprawdę mam nadzieję, że dziennikarz przejrzy cały segment @60Minutes w Google Bard jako studium przypadku, jak * nie * opisywać AI”, Melanie Mitchell, badaczka AI i profesor w Instytucie Santa Fe, napisał w tweecie.

„Przestańcie myśleć magicznie w inżynierii! #AI nie może odpowiadać w języku bengalskim, chyba że dane szkoleniowe zostały skażone bengalskim lub są szkolone w języku, który pokrywa się z językiem bengalskim, takim jak asamski, orija lub hindi”, M. Alex O. Vasilescu , naukowiec z MIT, dodano w innym poście.

Warto o tym wspomnieć 60 minut Segment nie powiedział dokładnie, jakiej sztucznej inteligencji używali. Rzecznik CBS powiedział The Daily Beast, że klip nie jest dyskusją na temat Barda, ale osobnym programem AI. Jednak powodem, dla którego ten segment był tak frustrujący dla tych ekspertów, jest to, że ignoruje i manipuluje rzeczywistością tego, co faktycznie może zrobić generatywna sztuczna inteligencja. Nie może „nauczyć się” języka, jeśli w ogóle nie miał do niego dostępu. To byłoby jak próba nauczenia się mandaryńskiego, ale usłyszałeś to dopiero po tym, jak ktoś kiedyś zapytał cię o mandaryński.

W końcu język jest niewiarygodnie złożony – z subtelnymi niuansami i regułami, które wymagają niewiarygodnej ilości kontekstu do zrozumienia i komunikacji. Nie ma sposobu, nawet dla najbardziej zaawansowanego LLM, aby zmagać się z tym wszystkim i nauczyć się tego wszystkiego za pomocą kilku podpowiedzi.

Ponadto program AI prawdopodobnie został już przeszkolony do mówienia po bengalsku, dominującym języku Bangladeszu. Margaret Mitchell (bez związku), badaczka w laboratorium startupowym AT HuggingFace, a wcześniej w Google, wyjaśniła to w wątek na Twitterze argumentować dlaczego 60 minut prawdopodobnie był błędny.

Mitchell zwrócił uwagę, że Bard – niedawno wydany i publicznie dostępny chatbot Google – zawiera prace z wczesnej iteracji jego modelu o nazwie PaLM. W wersji demonstracyjnej z 2022 r. Google pokazał, że PaLM potrafi komunikować się w języku bengalskim i odpowiadać na monity. The Papier za PaLM ujawnił w arkuszu danych, że model został faktycznie przeszkolony w języku z około 194 milionami tokenów w alfabecie bengalskim.

Chociaż nie wiemy, czym był tajemniczy oddzielny program AI, prawdopodobnie opierał się on na tej samej pracy PaLM – co wyjaśniałoby obecność języka bengalskiego w zbiorze danych.

Nie jest jasne, dlaczego Pichai, dyrektor generalny Google, usiadł do wywiadu i pozwolił, by te twierdzenia pozostały niekwestionowane. (Google nie odpowiedział na prośby o komentarz.) Milczał od czasu wyemitowania odcinka, chociaż eksperci wskazywali na wprowadzające w błąd i fałszywe twierdzenia w tym segmencie. Na Twitterze Margaret Mitchell Zalecana Powodem tego może być połączenie przywództwa Google, które nie wie, jak działają ich produkty, a także pozwala rozpowszechniać tandetne wiadomości, aby powiązać je z obecnym szumem wokół Generative AI.

„Chyba [Google executives] dosłownie nie rozumiem, jak to działa” — mówi Mitchell tweetował. „To, co napisałem powyżej, jest prawdopodobnie dla ciebie nowe. I zachęca się ich, aby tego nie rozumieli (zamknij oczy na ten arkusz danych!!).”

Druga połowa filmu również może być postrzegana jako problematyczna, ponieważ Pichai i Pelley omawiają opowiadanie stworzone przez Barda, które „wydawało się tak rozbrajająco ludzkie”, że obaj mężczyźni wyglądali na nieco wstrząśniętych.

Faktem jest, że te produkty nie są magiczne. Nie mogą być „ludźmi”, ponieważ nie są ludźmi. Są to podpowiedzi tekstowe, takie jak te, które masz w telefonie, wyszkolone w znajdowaniu najbardziej prawdopodobnych słów i wyrażeń po serii słów w zdaniach. Powiedzenie, że tak, może dać im poziom władzy, który może być niewiarygodnie niebezpieczny.

READ  Partnerstwo usprawnia obsługę cyfrowej floty

Wreszcie, użytkownicy mogą używać tych generatywnych sztucznej inteligencji na przykład do rozpowszechniania dezinformacji. Widzieliśmy już tę grę z deepfake’ami podobieństw ludzi, a nawet ich głosów.

Nawet sam chatbot może wyrządzić krzywdę, jeśli w końcu przyniesie stronnicze wyniki – coś, co już widzieliśmy w przypadku ChatGPT i Bard. Ponieważ te chatboty mają tendencję do halucynacji i zmyślania wyników, mogą nawet rozpowszechniać dezinformację wśród niczego niepodejrzewających użytkowników.

Potwierdzają to również badania. Ostatnie badania Opublikowane w Raporty naukowe odkryli, że argumenty ChatGPT mogą łatwo wpływać na ludzkie odpowiedzi na pytania moralne – a użytkownicy nawet rażąco nie docenili, jak duży wpływ na nich miały boty.

Wprowadzające w błąd twierdzenia dot 60 minut są tak naprawdę tylko symptomem większego zapotrzebowania na umiejętności cyfrowe w czasie, gdy potrzebujemy ich najbardziej. Wielu ekspertów AI twierdzi, że teraz bardziej niż kiedykolwiek nadszedł czas, aby uświadomić sobie dokładnie, co AI może, a czego nie. Te podstawowe fakty dotyczące botów również muszą być skutecznie przekazywane ogółowi społeczeństwa.

Oznacza to, że osoby z największymi platformami i najgłośniejsze głosy (tj. media, politycy i dyrektorzy dużych technologii) ponoszą największą odpowiedzialność za zapewnienie bezpieczniejszej i bardziej świadomej przyszłości sztucznej inteligencji. Jeśli tego nie zrobimy, możemy skończyć jak wspomniani jaskiniowcy, bawiący się magią ognia – i przy okazji poparzenia.

Uwaga edytora: We wcześniejszej wersji tej historii stwierdzono, że sztuczną inteligencją omawianą w 60-minutowym klipie był Bard, chociaż była to oddzielna sztuczna inteligencja Google.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *