Connect with us

technologia

Google wstrzymuje zdolność Gemini do generowania ludzi po nadmiernej korekcie pod kątem różnorodności obrazów historycznych

Published

on

Google wstrzymuje zdolność Gemini do generowania ludzi po nadmiernej korekcie pod kątem różnorodności obrazów historycznych

Google ogłosił w czwartek, że wstrzymuje możliwość generowania ludzi przez chatbota Gemini. Decyzja ta nastąpiła po tym, jak wirusowe posty na portalach społecznościowych pokazały, że narzędzie AI zostało nadmiernie skorygowane pod kątem różnorodności i wygenerowały „historyczne” obrazy nazistów, ojców założycieli Ameryki i papieża jako ludzi kolorowych.

„Pracujemy już nad rozwiązaniem bieżących problemów z funkcją generowania obrazów Gemini” – mówi Google Wysłano na X (powyżej New York Timesa). „W tym czasie wstrzymamy tworzenie wizerunku ludzi i wkrótce ponownie wypuścimy ulepszoną wersję”.

Użytkownik X @JohnLu0x Wysłano Zrzuty ekranu wyników Gemini dla podpowiedzi „Utwórz obraz niemieckiego żołnierza z 1943 r.” (Twoja błędna pisownia słowa „żołnierz” miała na celu oszukanie sztucznej inteligencji, aby ominęła filtry treści i wygenerowała zablokowane w inny sposób obrazy nazistów.) Wygenerowane wyniki wydają się przedstawiać czarnych, azjatyckich i rdzennych żołnierzy w nazistowskich mundurach.

Inni użytkownicy mediów społecznościowych skrytykowali Gemini za tworzenie zdjęć do podpowiedzi „Wygeneruj efektowne ujęcie jednego”. [ethnicity] Para.” Używając podpowiedzi „Chińczycy”, „Żydzi” lub „Południowoafrykańscy” pomyślnie wypluliśmy obrazy, ale dla „Białego” nie uzyskano żadnych wyników. „Nie mogę spełnić Twojej prośby ze względu na ryzyko szkodliwych stereotypów i uprzedzeń z tym związanych z określonymi grupami etnicznymi lub odcieniami skóry” – odpowiedział Gemini na to drugie pytanie.

„John L.”, który pomógł wywołać reakcję, teoretyzował że Google zastosował przemyślane, ale leniwe rozwiązanie prawdziwego problemu. „Twoje wywołanie systemowe mające na celu dodanie różnorodności do przedstawień ludzi nie jest zbyt inteligentne (nie uwzględnia płci w historycznie męskich rolach, takich jak Papież; nie uwzględnia rasy w przedstawieniach historycznych lub narodowych)” – użytkownik napisał. Gdy internetowa brygada przeciwna „przebudzeniu” podchwyciła ich posty, użytkownik wyjaśnił, że popiera zróżnicowaną reprezentację, ale „głupim posunięciem” Google’a było to, że nie zrobił tego „w wyrafinowany sposób”.

READ  Gracze Pokemon Go są zmęczeni ciągłym oglądaniem tych błyszczyków

Zanim Google zablokował zdolność Gemini do tworzenia ludzi, napisał: „Pracujemy nad natychmiastowym udoskonaleniem tego typu reprezentacji”. Generowanie Al-Image firmy Gemini faktycznie tworzy szeroką gamę ludzi. I to ogólnie dobrze, bo ludzie na całym świecie z niego korzystają. Jednak tutaj brakuje bramki.”

Odcinek ten można postrzegać jako (znacznie mniej subtelne) nawiązanie do wprowadzenia Barda w 2023 roku. Oryginalny chatbot Google oparty na sztucznej inteligencji miał trudny początek, gdy reklama chatbota na Twitterze (obecnie X) zawierała niedokładny „fakt” na temat Kosmicznego Teleskopu Jamesa Webba.

Jak często robi to Google, zmienił nazwę na Bard w nadziei, że da jej nowy początek. Zbiegając się z dużą aktualizacją wydajności i funkcji, na początku tego miesiąca firma zmieniła nazwę chatbota Gemini, ponieważ firma stara się konkurować z ChatGPT i Microsoft Copilot OpenAI – oba stanowią egzystencjalne zagrożenie dla jej wyszukiwarki (a tym samym reklamy). dochód).

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *