Connect with us

technologia

Użytkownicy Slacka byli przerażeni, gdy odkryli, że wiadomości są wykorzystywane do szkolenia sztucznej inteligencji

Published

on

Użytkownicy Slacka byli przerażeni, gdy odkryli, że wiadomości są wykorzystywane do szkolenia sztucznej inteligencji

Po początek Slack AI w lutym, Slack wydaje się wychodzić mocny i bronić swojego niejasnego stwierdzenia Polityka Domyślnie powoduje to wysysanie danych klientów – w tym wiadomości, treści i plików – w celu szkolenia globalnych modeli sztucznej inteligencji Slacka.

Według inżyniera Slacka Aarona MaureraSlack wyjaśniony w jednym Bloga że własna usługa czatu Salesforce nie szkoli dużych modeli językowych (LLM) na danych klientów. Jednak polityka Slacka może wymagać aktualizacji, „aby jaśniej wyjaśnić, w jaki sposób te zasady prywatności współdziałają z Slack AI” – napisał Maurer w Threads, po części dlatego, że polityka „została pierwotnie napisana na temat pracy związanej z wyszukiwaniem/rekomendacjami, którą wykonywaliśmy przez lata przed Slackiem”. sztuczna inteligencja.”

Maurer odpowiedział w wątku post od inżyniera i autora Gergely’ego Orosza, który nalegał, aby firmy zrezygnowały z udostępniania danych do czasu wyjaśnienia polityki, nie na blogu, ale w rzeczywistym języku polityki.

„Inżynier ML w firmie Slack twierdzi, że nie używają komunikatów do uczenia modeli LLM” – napisał Orosz. „Moja odpowiedź jest taka, że ​​obecne warunki im na to pozwalają. Uważam, że taka jest polityka, jeśli jest ona zawarta w polityce. Wpis na blogu nie jest polityką prywatności: wie o tym każda renomowana firma.”

Napięcie wśród użytkowników stanie się wyraźniejsze, jeśli porównasz zasady prywatności Slacka ze sposobem, w jaki firma reklamuje Slack AI.

Zasady ochrony prywatności firmy Slack wyraźnie stwierdzają: „Uczenie maszynowe (ML) i sztuczna inteligencja (AI) to przydatne narzędzia, których używamy w ograniczonym zakresie w celu ulepszenia misji naszego produktu. Aby opracować modele AI/ML, nasze systemy analizują dane klientów (np. aktualności, treści). i pliki) przesłane do Slack oraz inne informacje (w tym informacje o użytkowaniu) zgodnie z definicją w naszej Polityce prywatności i Umowie z klientem.

READ  Losowo: Halo Instagram prezentuje niesamowitą grafikę fanów Mario X Master Chief

W międzyczasie, Strona Slack AI mówi: „Pracuj bez zmartwień. Twoje dane to Twoje dane. Nie używamy ich do szkolenia sztucznej inteligencji w Slack.”

Ze względu na te rozbieżności użytkownicy wezwali Slacka do aktualizacji zasad prywatności w celu wyjaśnienia, w jaki sposób dane będą wykorzystywane na potrzeby Slack AI lub przyszłych aktualizacji AI. Według rzecznika Salesforce firma zgodziła się, że wymagana jest aktualizacja.

„Wczoraj niektórzy członkowie społeczności Slack poprosili o większą przejrzystość naszych zasad prywatności” – powiedział rzecznik Salesforce Ars. „Dzisiaj zaktualizujemy te zasady, aby lepiej wyjaśnić związek między danymi klientów a generatywną sztuczną inteligencją w Slacku”.

Rzecznik powiedział Ars, że aktualizacje zasad wyjaśniają, że Slack nie „rozwija LLM ani innych modeli generatywnych przy użyciu danych klientów”, „nie wykorzystuje danych klientów do szkolenia LLM stron trzecich” ani „nie tworzy ani nie szkoli tych modeli w sposób, który …” Być w stanie uczyć się, zapamiętywać i odtwarzać dane klientów. Aktualizacja wyjaśni również, że „Slack AI korzysta z gotowych rozwiązań LLM, w których modele nie przechowują danych klientów”, aby mieć pewność, że „dane klientów nigdy nie opuszczą granicy zaufania Slacka, a dostawcy LLM nigdy nie będą mieli dostępu do danych klientów”.

Jednak wydaje się, że zmiany te nie rozwiązują kluczowych obaw użytkowników, którzy nigdy wyraźnie nie zgodzili się na udostępnianie czatów i innych treści Slacka do wykorzystania w szkoleniach AI.

Użytkownicy rezygnujący z udostępniania czatów za pomocą Slacka

Ta kontrowersyjna polityka nie jest nowa. Przewodowy ostrzeżony o tym w kwietniu i TechCrunch zgłoszone że polityka ta obowiązuje co najmniej od września 2023 r.

Jednak od wczorajszego wieczoru nastąpił ogromny sprzeciw Wiadomości hakerskie, gdzie użytkownicy Slacka wywołali usługę czatu, ponieważ najwyraźniej nie informowała użytkowników o zmianie zasad, ale zamiast tego domyślnie ją włączała. Krytycy uważali, że wybranie kogokolwiek innego niż Slack nie ma żadnej korzyści.

READ  Aleksander Doba, który przejechał przez Atlantyk, umiera w wieku 74 lat

Stamtąd reakcja rozprzestrzeniła się na media społecznościowe, gdzie SlackHQ pośpieszyła z wyjaśnieniem warunków Slacka za pomocą stwierdzeń, które najwyraźniej nie odpowiedziały na wszystkie uwagi krytyczne.

„Przepraszam, Slack, CO robisz z czatami użytkowników, wiadomościami, plikami itp.?” Corey Quinn, główny ekonomista chmury w firmie zarządzającej kosztami o nazwie Duckbill Group, Wysłano do X. „Jestem pewien, że źle to odczytuję”.

SlackHQ odpowiedział do Quinna po tym, jak ekonomista oświadczył: „Tak bardzo tego nienawidzę” i potwierdził, że zrezygnował z udostępniania danych w swoim płatnym miejscu pracy.

„Aby wyjaśnić, Slack ma modele uczenia maszynowego na poziomie platformy dotyczące takich rzeczy, jak rekomendacje kanałów i emoji oraz wyniki wyszukiwania” – napisał SlackHQ. „I tak, klienci mogą wykluczyć swoje dane z uczenia tych (niegeneratywnych) modeli uczenia maszynowego. Dane klientów są częścią Slack AI – naszego generatywnego doświadczenia AI, które jest natywnie zintegrowane ze Slack.”[and] to oddzielnie zakupiony dodatek, który wykorzystuje modele dużych języków (LLM), ale nie szkoli tych LLM przy użyciu danych klientów.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *