Connect with us

technologia

Polski Urząd Ochrony Danych bada ChatGPT z OpenAI

Published

on

Polski Urząd Ochrony Danych bada ChatGPT z OpenAI

Sztuczna inteligencja i uczenie maszynowe, Ogólne rozporządzenie o ochronie danych (RODO), technologie nowej generacji i bezpieczny rozwój

Agencja jest najnowszym z szeregu europejskich organów regulacyjnych zajmujących się badaniem LLM

Akshaya Asokan (asokan_akshaya) •
25 września 2023 r

Polski Urząd Ochrony Danych bada ChatGPT z OpenAI
Zdjęcie: Shutterstock

Polski organ ochrony danych wszczął dochodzenie w sprawie ChatGPT OpenAI pod kątem możliwych naruszeń danych.

Zobacz też: Seminarium internetowe na żywo | Cyberodporność: odzyskiwanie po ataku ransomware

Polski Urząd Ochrony Danych Osobowych czyli PUODO powiedział W środę firma zbada OpenAI z siedzibą w San Francisco po otrzymaniu skargi, w której zarzuca się, że stosowana przez nią technologia oparta na modelach wielkojęzykowych może przetwarzać dane niezidentyfikowanego skarżącego z naruszeniem europejskiego ogólnego rozporządzenia o ochronie danych.

„Zarzuty podniesione w skardze podają w wątpliwość systemowe podejście OpenAI do europejskich przepisów o ochronie danych osobowych” – powiedział Jakub Groszkowski, Zastępca Prezesa Urzędu Ochrony Danych Osobowych. „Urząd wyjaśni zatem te wątpliwości, szczególnie na tle podstawowej zasady prywatności od samego początku zakotwiczonej w RODO.”

Obawy wyrażone przez składającego skargę obejmują rzekome generowanie przez ChatGPT „fałszywych informacji” na temat danej osoby. Osoba składająca skargę zarzuciła, że ​​gdy się z nią skontaktowano, OpenAI odmówiło sprawdzenia tych informacji i nie przekazało żadnych dalszych informacji na temat sposobu, w jaki firma przetwarzała dane osobowe tej osoby (jeśli takie istnieją).

W skardze napisano, że praktyki OpenAI naruszają przejrzyste przetwarzanie danych i dostęp do informacji określone w RODO.

OpenAI nie odpowiedziało natychmiast na prośbę o komentarz.

Polski organ regulacyjny jest trzecim europejskim organem ochrony danych, który zgłasza wątpliwości dotyczące ochrony danych w związku z ChatGPT. Wcześniej organy regulacyjne danych we Francji, Włoszech i Hiszpanii wszczęły dochodzenia w sprawie ChatGPT po otrzymaniu podobnych skarg (patrz: Wraz ze wzrostem liczby dochodzeń zwiększa się europejska kontrola ChatGPT).

READ  Domyślne ustawienia techniczne, które należy natychmiast wyłączyć

W miarę jak Unia Europejska zmierza do sfinalizowania pierwszego na świecie kompleksowego rozporządzenia w sprawie sztucznej inteligencji, kontrola nad OpenAI staje się coraz większa. Wniosek, zatwierdzony przez Parlament Europejski w lipcu, zakazuje szeregu zastosowań, takich jak rozpoznawanie biometryczne, w miejscach publicznych uznawanych za szkodliwe dla społeczeństwa (patrz: Europa jest coraz bliżej zasad dotyczących sztucznej inteligencji).

Europejscy urzędnicy tak mają powiedział że chcą innowacji, które wygenerują systemy sztucznej inteligencji, ale jednocześnie starają się zrównoważyć rozwój z obawami o bezpieczeństwo i prawa człowieka.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *