technologia
Polski Urząd Ochrony Danych bada ChatGPT z OpenAI
Sztuczna inteligencja i uczenie maszynowe, Ogólne rozporządzenie o ochronie danych (RODO), technologie nowej generacji i bezpieczny rozwój
Agencja jest najnowszym z szeregu europejskich organów regulacyjnych zajmujących się badaniem LLM
Akshaya Asokan (asokan_akshaya) •
25 września 2023 r
Polski organ ochrony danych wszczął dochodzenie w sprawie ChatGPT OpenAI pod kątem możliwych naruszeń danych.
Zobacz też: Seminarium internetowe na żywo | Cyberodporność: odzyskiwanie po ataku ransomware
Polski Urząd Ochrony Danych Osobowych czyli PUODO powiedział W środę firma zbada OpenAI z siedzibą w San Francisco po otrzymaniu skargi, w której zarzuca się, że stosowana przez nią technologia oparta na modelach wielkojęzykowych może przetwarzać dane niezidentyfikowanego skarżącego z naruszeniem europejskiego ogólnego rozporządzenia o ochronie danych.
„Zarzuty podniesione w skardze podają w wątpliwość systemowe podejście OpenAI do europejskich przepisów o ochronie danych osobowych” – powiedział Jakub Groszkowski, Zastępca Prezesa Urzędu Ochrony Danych Osobowych. „Urząd wyjaśni zatem te wątpliwości, szczególnie na tle podstawowej zasady prywatności od samego początku zakotwiczonej w RODO.”
Obawy wyrażone przez składającego skargę obejmują rzekome generowanie przez ChatGPT „fałszywych informacji” na temat danej osoby. Osoba składająca skargę zarzuciła, że gdy się z nią skontaktowano, OpenAI odmówiło sprawdzenia tych informacji i nie przekazało żadnych dalszych informacji na temat sposobu, w jaki firma przetwarzała dane osobowe tej osoby (jeśli takie istnieją).
W skardze napisano, że praktyki OpenAI naruszają przejrzyste przetwarzanie danych i dostęp do informacji określone w RODO.
OpenAI nie odpowiedziało natychmiast na prośbę o komentarz.
Polski organ regulacyjny jest trzecim europejskim organem ochrony danych, który zgłasza wątpliwości dotyczące ochrony danych w związku z ChatGPT. Wcześniej organy regulacyjne danych we Francji, Włoszech i Hiszpanii wszczęły dochodzenia w sprawie ChatGPT po otrzymaniu podobnych skarg (patrz: Wraz ze wzrostem liczby dochodzeń zwiększa się europejska kontrola ChatGPT).
W miarę jak Unia Europejska zmierza do sfinalizowania pierwszego na świecie kompleksowego rozporządzenia w sprawie sztucznej inteligencji, kontrola nad OpenAI staje się coraz większa. Wniosek, zatwierdzony przez Parlament Europejski w lipcu, zakazuje szeregu zastosowań, takich jak rozpoznawanie biometryczne, w miejscach publicznych uznawanych za szkodliwe dla społeczeństwa (patrz: Europa jest coraz bliżej zasad dotyczących sztucznej inteligencji).
Europejscy urzędnicy tak mają powiedział że chcą innowacji, które wygenerują systemy sztucznej inteligencji, ale jednocześnie starają się zrównoważyć rozwój z obawami o bezpieczeństwo i prawa człowieka.