Connect with us

Nauka

Rząd nalegał, aby zająć się „zagrożeniami” związanymi ze sztuczną inteligencją, aby uniknąć „przestraszenia” społeczeństwa

Published

on

Rząd nalegał, aby zająć się „zagrożeniami” związanymi ze sztuczną inteligencją, aby uniknąć „przestraszenia” społeczeństwa

Rząd musi zająć się zagrożeniami związanymi ze sztuczną inteligencją (AI) – w tym potencjalnymi zagrożeniami dla bezpieczeństwa narodowego i utrwalaniem „niedopuszczalnych” uprzedzeń społecznych – aby zapewnić, że społeczeństwo nie będzie „przestraszone” tą technologią, stwierdzili parlamentarzyści.

Komitet ds. Nauki, Innowacji i Technologii (SITC) stwierdził, że sztuczna inteligencja może przynieść korzyści „wiele możliwości”, ale technologia ta stwarza także „wiele zagrożeń dla długo uznawanych i cenionych praw”.

Pokonanie ich ma kluczowe znaczenie dla zapewnienia bezpieczeństwa publicznego i zaufania do technologii, a także pozycjonowania Wielkiej Brytanii „jako lidera w zarządzaniu sztuczną inteligencją”.

W październiku SITC rozpoczęło dochodzenie w sprawie regulacji sztucznej inteligencji, badając jej wpływ na społeczeństwo i gospodarkę.

Stwierdzono, że chociaż dyskusje na temat sztucznej inteligencji toczą się „co najmniej” od lat pięćdziesiątych XX wieku, to uruchomiona w listopadzie zeszłego roku ChatGPT „wywołała globalną dyskusję”.

Prezes SITC Greg Clark powiedział: „Sztuczna inteligencja już zmienia sposób, w jaki żyjemy i z pewnością nastąpi gwałtowny wzrost jej wpływu na nasze społeczeństwo i gospodarkę.

„Sztuczna inteligencja oferuje wiele możliwości, ale niesie ze sobą także wiele ważnych zagrożeń dla dawno ustalonych i cenionych praw – od prywatności osobistej po bezpieczeństwo narodowe – przed którymi ludzie oczekują, że decydenci będą chronić”.

Clark stwierdziła, że ​​wyzwaniami wskazanymi przez komisję „należy się zająć”, aby „zapewnić zaufanie społeczne do sztucznej inteligencji”.

12 głównych wyzwań przedstawionych w raporcie SITC to:

– Uprzedzenia – sztuczna inteligencja wprowadzająca lub utrwalająca „niedopuszczalne” uprzedzenia społeczne
– Prywatność – sztuczna inteligencja, która pozwala identyfikować osoby lub udostępniać dane osobowe
– Wprowadzanie w błąd – generowanie przez sztuczną inteligencję materiału, który „celowo przedstawia błędnie czyjeś zachowanie, opinie lub charakter”
– Dostęp do danych – AI wymaga dużych zbiorów danych, którymi zarządza kilka organizacji
– Dostęp do komputerów – potężna sztuczna inteligencja wymaga znacznej mocy obliczeniowej, która jest ograniczona
– Wyzwanie „czarnej skrzynki” – sztuczna inteligencja nie zawsze potrafi wyjaśnić, dlaczego daje określony wynik, co jest kwestią przejrzystości
– Wyzwania związane z otwartym kodem źródłowym – wymaganie otwartej dostępności kodu mogłoby promować przejrzystość, ale zezwolenie na jego własność mogłoby skoncentrować siłę rynkową
– Własność intelektualna i prawa autorskie – Niektóre narzędzia wykorzystują treści innych osób
– Odpowiedzialność – Jeżeli sztuczna inteligencja jest wykorzystywana przez osobę trzecią do wyrządzenia szkody, w zasadach należy określić, kto jest za to odpowiedzialny
– Zatrudnienie – AI zakłóci miejsca pracy
– Koordynacja międzynarodowa – rozwój ram zarządzania sztuczną inteligencją musi mieć charakter międzynarodowy
– Wyzwania egzystencjalne – niektórzy uważają, że sztuczna inteligencja stanowi „poważne zagrożenie” dla życia ludzkiego i że zarządzanie musi zapewniać ochronę bezpieczeństwa narodowego

READ  „Różne dziwne pomysły” partii rządzącej w Polsce

Clark stwierdził, że żadne ryzyko zawarte w dokumencie nie jest priorytetem i że „należy się nimi wszystkimi zająć łącznie”.

„To nie jest tak, że jeśli masz do czynienia tylko z jednym lub połową, wszyscy mogą się zrelaksować” – dodał.

Grega Clarka

Greg Clark powiedział, że wszystkimi zagrożeniami wskazanymi przez komisję „należy zająć się wspólnie” (James Manning/PA)

W marcu Michelle Donelan, Sekretarz Stanu ds. Nauki, Innowacji i Technologii, przedstawiła parlamentowi białą księgę przedstawiającą „proinnowacyjne podejście do regulacji sztucznej inteligencji”.

Dokument zawierał pięć zasad dotyczących sztucznej inteligencji – bezpieczeństwo, ochrona i solidność; sprawiedliwość; przejrzystość i wyjaśnialność; odpowiedzialność i zarządzanie; oraz możliwość kwestionowania i zadośćuczynienia.

Clark stwierdził jednak, że od pięciu miesięcy sytuacja się zmieniła, a wyzwania nakreślone przez SITC są bardziej „konkretne”.

„Wyzwania, które nakreśliliśmy, są znacznie bardziej konkretne i rząd musi się z nimi zmierzyć” – dodał.

„To wyzwanie dla rządu, ale bardzo ważne jest, aby rozwój technologii nie przewyższał rozwoju myśli politycznej, abyśmy mogli na tym skorzystać i nie ponieść z tego powodu szkody.

„Musisz jednocześnie kierować myśleniem politycznym i rozwojem technologicznym. Jeśli społeczeństwo straci zaufanie i zacznie się bać sztucznej inteligencji, nastąpi reakcja, która utrudni niektóre korzyści”.

SITC przestrzegła również, że ustawa musi zostać przedstawiona parlamentowi na najbliższej sesji oraz przed wyborami powszechnymi, które mają się odbyć w 2024 r.

Dodał, że opóźnienia „ryzykowałyby, że Wielka Brytania, pomimo dobrych intencji rządu, pozostanie w tyle za innymi jurysdykcjami”, takimi jak USA i Unia Europejska.

Według SITC Globalny Szczyt Bezpieczeństwa AI – odbywający się w listopadzie w Bletchley Park – to „złota szansa” dla zarządzania sztuczną inteligencją.

Clark dodał jednak: „Jeśli ambicje rządu mają zostać zrealizowane, a jego podejście ma wykraczać poza rozmowy, konieczne może być pilniejsze podjęcie działań w kierunku wprowadzenia uprawnień ustawodawczych, które jego zdaniem są potrzebne”.

READ  Polski instytut klasyfikuje koty jako „inwazyjny gatunek obcy”

SITC opublikuje swoje ostateczne zalecenia dotyczące polityki w zakresie sztucznej inteligencji „w odpowiednim czasie”.

Rzecznik rządu powiedział: „Sztuczna inteligencja ma ogromny potencjał, aby zmienić każdy aspekt naszego życia i jesteśmy winni naszym dzieciom i wnukom bezpieczne i odpowiedzialne wykorzystanie tego potencjału.

„Dlatego Wielka Brytania gromadzi światowych liderów i ekspertów na pierwszym dużym światowym szczycie w sprawie bezpieczeństwa sztucznej inteligencji, który odbędzie się w listopadzie, co umożliwi szybkie, ukierunkowane działania międzynarodowe w zakresie zabezpieczeń niezbędnych do wspierania innowacji, a jednocześnie pozwoli uniknąć zagrożeń i szkód.

„Nasza biała księga w sprawie regulacji dotyczących sztucznej inteligencji określa proporcjonalne i adaptacyjne podejście do regulacji w Wielkiej Brytanii, podczas gdy nasza grupa zadaniowa Model Foundation koncentruje się na zapewnieniu bezpiecznego rozwoju modeli sztucznej inteligencji przy początkowej inwestycji w wysokości 100 milionów funtów – więcej przeznaczonych środków na sztuczną inteligencję bezpieczeństwa niż jakikolwiek inny rząd na świecie.”

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *