Connect with us

technologia

Microsoft jest oskarżany o sprzedaż narzędzia sztucznej inteligencji, które wyświetla dzieciom brutalne obrazy o charakterze seksualnym

Published

on

Microsoft jest oskarżany o sprzedaż narzędzia sztucznej inteligencji, które wyświetla dzieciom brutalne obrazy o charakterze seksualnym
Microsoft jest oskarżany o sprzedaż narzędzia sztucznej inteligencji, które wyświetla dzieciom brutalne obrazy o charakterze seksualnym

Wydaje się, że generator sztucznej inteligencji Copilot Designer firmy Microsoft zajmujący się przetwarzaniem tekstu na obraz mocno filtruje dane wyjściowe po tym, jak inżynier firmy Microsoft, Shane Jones, ostrzegł, że firma Microsoft zignorowała ostrzeżenia, jakoby narzędzie losowo generowało obrazy przedstawiające przemoc i sceny seksualne, CNBC zgłoszone.

Jones powiedział CNBC, że wielokrotnie ostrzegał firmę Microsoft przed niepokojącą treścią, którą zobaczył, gdy jako wolontariusz brał udział w działaniach czerwonego zespołu mających na celu przetestowanie luk w narzędziu. Microsoft stwierdził, że Microsoft nie wycofał narzędzia ani nie podjął w odpowiedzi środków ochronnych, ani nawet nie wydał informacji mających na celu zmianę oceny produktu, tak aby był on dostępny w sklepie Android Store.

Zamiast tego Microsoft najwyraźniej po prostu polecił mu zgłosić problem firmie OpenAI, twórcy modelu DALL-E, który napędza wyniki Copilot Designer.

Jones powiedział, że OpenAI nigdy nie odpowiedziało, więc podejmował coraz bardziej drastyczne kroki, aby ostrzec opinię publiczną o problemach, które wykrył w narzędziu Microsoftu.

Zaczął od opublikowania listu otwartego wzywającego do OpenAI na LinkedIn. Następnie, gdy dział prawny Microsoftu kazał mu się go pozbyć, zrobił, co mu kazano, ale wysłał także listy do prawodawców i innych interesariuszy, co wywołało alarm we wszystkich kierunkach. Obejmuje to pisma wysłane dzisiaj do Federalnej Komisji Handlu i zarządu Microsoftu, podało CNBC.

W liście Jonesa do przewodniczącej FTC Liny Khan Jones stwierdził, że Microsoft i OpenAI są świadome tych problemów co najmniej od października i „nadal sprzedają produkt wszystkim”. Wszędzie. Każde urządzenie „zostanie wprowadzone na rynek”, chyba że FTC zainterweniuje.

Bloomberg zapoznał się także z listem Jonesa i zgłoszone że Jones powiedział FTC, że chociaż program Copilot Designer jest obecnie reklamowany jako bezpieczny dla dzieci, w niektórych tworzonych przez siebie obrazach przypadkowo tworzy „nieodpowiednie, uprzedmiotowione seksualnie obrazy kobiety”. Można go również wykorzystywać do „generowania szkodliwych treści w wielu innych kategoriach, w tym: uprzedzeń politycznych, picia alkoholu i zażywania narkotyków przez nieletnich, niewłaściwego używania korporacyjnych znaków towarowych i praw autorskich, teorii spiskowych i religii, żeby wymienić tylko kilka”.

W osobnym piśmie Jones wezwał także zarząd Microsoftu do zbadania procesu decyzyjnego Microsoftu dotyczącego sztucznej inteligencji i przeprowadzenia „niezależnego przeglądu procesów raportowania odpowiedzialnych incydentów związanych z sztuczną inteligencją firmy Microsoft”. Nastąpiło to po tym, jak Jones „podjął nadzwyczajne wysiłki, aby spróbować rozwiązać ten problem wewnętrznie”, w tym bezpośrednio raportował zarówno do Biura Odpowiedzialnej Sztucznej Inteligencji firmy Microsoft, jak i „kierownicy wyższego szczebla odpowiedzialnej za Copilot Designer” – podało CNBC.

Rzecznik Microsoftu nie potwierdził, czy Microsoft podejmuje obecnie kroki w celu filtrowania obrazów, ale próba odtworzenia przez Ars podpowiedzi udostępnionych przez Jonesa zakończyła się wyświetleniem komunikatów o błędach. Zamiast tego rzecznik Microsoftu podzielił się tym samym oświadczeniem z CNBC:

Zależy nam na rozwiązywaniu wszystkich problemów pracowników zgodnie z polityką naszej firmy i doceniamy wysiłki pracowników mające na celu badanie i testowanie naszej najnowszej technologii w celu dalszej poprawy ich bezpieczeństwa. Jeśli chodzi o obejście zabezpieczeń lub wątpliwości, które mogą potencjalnie mieć wpływ na nasze usługi lub naszych partnerów, mamy wbudowane w produkcie narzędzia do przesyłania opinii użytkowników i solidne wewnętrzne kanały raportowania, aby właściwie badać, ustalać priorytety i rozwiązywać wszelkie problemy, z których zalecamy pracownikom korzystanie abyśmy mogli odpowiednio zweryfikować i przetestować ich obawy. Ułatwiliśmy także spotkania z kierownictwem produktu i naszym Biurem ds. Odpowiedzialnej Sztucznej Inteligencji w celu przeglądu tych raportów i stale uwzględniamy te opinie, aby wzmocnić nasze istniejące systemy bezpieczeństwa i zapewnić wszystkim bezpieczne i pozytywne doświadczenia.

OpenAI nie odpowiedziało na prośbę Ars o komentarz.

READ  RCMP odrzuca ofertę firmy dotyczącą oferowania bezpłatnego, najnowocześniejszego sonaru do wyszukiwania nazistowskich łodzi i rybaków

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *