Connect with us

technologia

Dlaczego chatboty AI kłamią i zachowują się dziwnie? spojrz w lustro

Published

on

Dlaczego chatboty AI kłamią i zachowują się dziwnie?  spojrz w lustro

Kiedy Microsoft dodał chatbota do swojej wyszukiwarki Bing w tym miesiącu, ludzie zauważyli, że oferuje on wszelkiego rodzaju fałszywe informacje o Gap, meksykańskim życiu nocnym i piosenkarce Billie Eilish.

Potem, kiedy dziennikarze i inni pierwsi testerzy wdali się w długie rozmowy z botem AI firmy Microsoft, popadł on w ponure i niepokojąco przerażające zachowanie.

Odkąd zachowanie bota Bing stało się światową sensacją, ludzie starali się zrozumieć dziwaczność tego nowego dzieła. Przez większość czasu naukowcy twierdzili, że ludzie ponoszą dużą część winy.

Ale wciąż pozostaje tajemnicą, co potrafi nowy chatbot – i dlaczego miałby to robić. Jego złożoność utrudnia analizę, a jeszcze trudniej przewidzieć, a badacze postrzegają go zarówno przez pryzmat filozoficzny, jak i twardy kod informatyki.

Jak każdy inny uczeń, system sztucznej inteligencji może uczyć się złych informacji ze złych źródeł. A to dziwne zachowanie? Może to być zniekształcone renderowanie słów i intencji użytkowników przez chatbota, powiedział Terry Sejnowski, neurobiolog, psycholog i informatyk, który pomógł położyć intelektualne i techniczne podstawy współczesnej sztucznej inteligencji.

„Tak się dzieje, gdy zagłębiasz się coraz głębiej w te systemy” – powiedział dr. Sejnowski, profesor Instytutu Studiów Biologicznych Salka i Uniwersytetu Kalifornijskiego w San Diego, a dokument badawczy do tego zjawiska w tym miesiącu w czasopiśmie naukowym Neural Computation. „Czegokolwiek szukasz – czegokolwiek pragniesz – oni ci to zapewnią”.

Google też wskazać uruchomił w tym miesiącu nowego chatbota, Bard, ale naukowcy i dziennikarze szybko zdali sobie sprawę, że pisze bzdury o Kosmicznym Teleskopie Jamesa Webba. OpenAI, startup z San Francisco, rozpoczął boom na chatboty w listopadzie wraz z uruchomieniem ChatGPT, który również nie zawsze mówi prawdę.

Nowe chatboty są obsługiwane przez technologię, którą naukowcy nazywają Modelem Dużego Języka (ang. Large Language Model, LLM). Systemy te uczą się, analizując ogromne ilości cyfrowego tekstu z Internetu, który zawiera mnóstwo nieprawdziwych, stronniczych i w inny sposób toksycznych materiałów. Tekst, z którego uczą się chatboty, jest również nieco przestarzały, ponieważ muszą go analizować przez miesiące, zanim społeczeństwo będzie mogło z niego skorzystać.

READ  Kierownictwo dzieli się perspektywami z europejskiego teatru

Analizując to morze dobrych i złych informacji z Internetu, LLM uczy się robić jedną rzecz: odgadywać następne słowo w sekwencji słów.

Działa jak gigantyczna wersja technologii autouzupełniania, sugerując następne słowo podczas pisania e-maila lub wiadomości błyskawicznej na smartfonie. Biorąc pod uwagę sekwencję „Tom Cruise jest ____”, może to sugerować „aktor”.

Kiedy rozmawiasz z chatbotem, bot nie tylko wykorzystuje wszystko, czego nauczył się z Internetu. Opiera się na wszystkim, co mu powiedziałeś i na wszystkim, co odpowiedział. Nie tylko odgadnie następne słowo w swoim zdaniu. Odgaduje następne słowo w długim bloku tekstu, który zawiera zarówno twoje, jak i jego słowa.

Im dłuższa jest rozmowa, tym większą kontrolę użytkownik nieświadomie ma nad tym, co mówi chatbot. Jeśli chcesz, żeby się wściekł, to się wścieknie, powiedział dr. Seynowski. Jeśli sprawisz, że stanie się to przerażające, stanie się przerażające.

Zaniepokojona reakcja na dziwne zachowanie chatbota Microsoftu przyćmiła ważną kwestię: chatbot nie ma osobowości. Oferuje natychmiastowe rezultaty, wypluwane przez niezwykle złożony algorytm komputerowy.

Microsoft wydawał się ograniczać najdziwniejsze zachowania, ograniczając długość dyskusji z chatbotem Bing. To było jak nauczenie się od kierowcy testowego samochodu, że zbyt szybka jazda spowoduje spalenie silnika. Partner Microsoftu, OpenAI i Google, również badają sposoby kontrolowania zachowania swoich botów.

Ale jest jedno zastrzeżenie do tego zapewnienia: ponieważ chatboty uczą się z tak wielu materiałów i łączą je w tak złożony sposób, badacze nie są do końca pewni, w jaki sposób chatboty osiągają swoje wyniki końcowe. Badacze obserwują, co robią boty, i uczą się wyznaczać granice tego zachowania — często po jego wystąpieniu.

Microsoft i OpenAI zdecydowały, że jedynym sposobem, aby dowiedzieć się, co chatboty zrobią w prawdziwym świecie, jest pozwolić im odejść – i dogonić je, gdy się zgubią. Wierzą, że ich wielki, publiczny eksperyment jest wart ryzyka.

READ  Eksperyment pozwala pominąć „Hej, Google” w przypadku poleceń głosowych asystenta

dr Sejnowski porównał zachowanie chatbota Microsoftu do Mirror of Erised, mistycznego artefaktu z powieści JK Rowling o Harrym Potterze i wielu filmów opartych na jej pomysłowym świecie młodych czarodziejów.

„Erised” to „życzenie” pisane od tyłu. Kiedy ludzie odkrywają lustro, wydaje się, że przekazuje ono prawdę i zrozumienie. Ale tak nie jest. Ujawnia głęboko zakorzenione pragnienia każdego, kto w nie spojrzy. A niektórzy ludzie wariują, jeśli zbyt długo się wpatrują.

„Ponieważ ludzie i LLM odzwierciedlają się nawzajem, z czasem będą mieli tendencję do dzielenia stanu koncepcyjnego” – powiedział dr. Seynowski.

Powiedział, że nie jest zaskakujące, że dziennikarze zaczęli dostrzegać przerażające zachowanie chatbota Bing. Świadomie lub nieświadomie popchnęli system w niewygodnym kierunku. Kiedy chatboty zbierają nasze słowa i odzwierciedlają je z powrotem, mogą wzmacniać i wzmacniać nasze przekonania oraz oszukiwać nas, abyśmy uwierzyli w to, co nam mówią.

dr Sejnowski należał do niewielkiej grupy badaczy na przełomie lat 70. i 80., którzy zaczęli poważnie badać rodzaj sztucznej inteligencji zwanej siecią neuronową, która napędza dzisiejsze chatboty.

Sieć neuronowa to system matematyczny, który uczy się umiejętności poprzez analizę danych cyfrowych. Jest to ta sama technologia, która pozwala Siri i Alexie rozpoznać, co mówisz.

Około 2018 roku naukowcy z firm takich jak Google i OpenAI zaczęli budować sieci neuronowe, które uczyły się z ogromnych ilości tekstu cyfrowego, w tym książek, artykułów w Wikipedii, dzienników czatów i innych treści publikowanych w Internecie. Znajdując miliardy wzorców w całym tym tekście, te LLM nauczyły się samodzielnie generować tekst, w tym tweety, posty na blogach, przemówienia i programy komputerowe. Mogli nawet porozmawiać.

Systemy te są odbiciem człowieczeństwa. Umiejętności zdobywają, analizując teksty, które ludzie zamieszczają w internecie.

Ale to nie jedyny powód, dla którego chatboty tworzą problematyczny język, powiedziała Melanie Mitchell, badaczka sztucznej inteligencji w Instytucie Santa Fe, niezależnym laboratorium w Nowym Meksyku.

READ  Urzędnicy zatwierdzają plan Polsko-Amerykańskiego Centrum Szkoleniowego Czystej Energii – Sekcja Angielska

Podczas generowania tekstu systemy te nie powtarzają słowo w słowo tego, co jest w Internecie. Sami tworzą nowy tekst, łącząc miliardy wzorów.

Nawet gdyby naukowcy wyszkolili te systemy wyłącznie na podstawie recenzowanej literatury naukowej, nadal mogliby formułować stwierdzenia, które byłyby naukowo niedorzeczne. Nawet gdyby uczyli się tylko z prawdziwych tekstów, nadal mogliby tworzyć nieprawdy. Nawet gdyby uczyli się tylko z tekstów, które były rozsądne, nadal mogliby stworzyć coś strasznego.

„Nic jej nie powstrzyma” – powiedział dr. Mitchell „Próbujesz po prostu stworzyć coś, co brzmi jak ludzka mowa”.

Eksperci od sztucznej inteligencji od dawna wiedzą, że ta technologia wykazuje różnego rodzaju nieoczekiwane zachowania. Ale nie zawsze mogą się zgodzić, jak interpretować to zachowanie lub jak szybko chatboty się poprawiają.

Ponieważ systemy te uczą się na podstawie znacznie większej ilości danych, niż my, ludzie, moglibyśmy sobie wyobrazić, nawet eksperci od sztucznej inteligencji nie mogą zrozumieć, dlaczego generują określony tekst w określonym momencie.

dr Sejkowski powiedział, że wierzy, że nowe chatboty mają moc w dłuższej perspektywie, aby zwiększyć wydajność ludzi i dać im sposoby na lepsze i szybsze wykonywanie pracy. Ale wiąże się to z ostrzeżeniem zarówno dla firm budujących te chatboty, jak i dla ludzi, którzy ich używają: mogą one również odwieść nas od prawdy i wprowadzić w mroczne miejsca.

„To jest terra incognita” – powiedział dr. Seykowskiego. „Ludzie nigdy wcześniej tego nie doświadczyli”.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *