W jaki sposób AI może naruszać prawa podstawowe?

Rozwój sztucznej inteligencji (AI) to rewolucja, której jesteśmy świadkami. AI coraz bardziej wpływa na nasze życie, przynosząc liczne korzyści, ale jednocześnie rodząc istotne zagrożenia dla praw podstawowych. Choć technologia obiecuje neutralność i obiektywizm, w praktyce algorytmy mogą przyczyniać się do dyskryminacji i naruszeń praw człowieka. Sprawdź jak AI może wpływać na różne aspekty praw podstawowych.

1. Dyskryminacja ze względu na płeć i rasę

AI może powielać i wzmacniać uprzedzenia zawarte w danych, na których została przeszkolona. Przykłady:

  • Płeć: Systemy decyzyjne, takie jak te stosowane w branży finansowej, mogą niesprawiedliwie traktować kobiety. Głośna sprawa karty Apple Card pokazała, jak algorytmy przyznają mężczyznom znacznie wyższe limity kredytowe niż kobietom, mimo identycznych sytuacji finansowych. Takie decyzje mogą wynikać z danych historycznych, które niesprawiedliwie przedstawiają kobiety jako mniej wiarygodne finansowo.
  • Rasa: Algorytmy stosowane w wymiarze sprawiedliwości, takie jak systemy oceny ryzyka, mogą faworyzować jedne grupy etniczne kosztem innych. Przykładem jest przewidywanie prawdopodobieństwa recydywy, gdzie osoby czarnoskóre były częściej oceniane jako „wysokie ryzyko” z powodu historycznych danych, które odzwierciedlały systemowy rasizm.

2. Naruszenie wolności słowa

AI odgrywa kluczową rolę w moderacji treści w mediach społecznościowych. Niestety, decyzje te często są nieprzejrzyste i mogą naruszać wolność słowa:

  • Usuwanie treści: Algorytmy mogą błędnie oznaczać legalne wypowiedzi jako nieodpowiednie, np. blokując posty krytyczne wobec rządów lub poruszające trudne tematy społeczne.
  • Cenzura: W niektórych krajach rządy wykorzystują AI do filtrowania treści w internecie, tłumiąc głosy opozycji i ograniczając dostęp do informacji.

3. Naruszenie praw humanitarnych

W kontekście konfliktów zbrojnych sztuczna inteligencja staje się narzędziem, które może bezpośrednio zagrażać życiu i bezpieczeństwu:

  • Bronie autonomiczne: Systemy AI mogą być wykorzystywane do podejmowania decyzji o atakach bez udziału człowieka, co rodzi pytania o odpowiedzialność za ofiary i szkody.
  • Dezinformacja: AI umożliwia masowe tworzenie deepfake’ów i fałszywych informacji, które mogą być wykorzystywane do manipulacji opinią publiczną podczas konfliktów.

4. Prawo do prywatności

AI znacząco wpływa na nasze prawo do prywatności, szczególnie poprzez niekontrolowane przetwarzanie danych osobowych:

  • Inwigilacja: Systemy rozpoznawania twarzy są stosowane w miejscach publicznych, często bez wiedzy lub zgody obywateli, co prowadzi do poczucia stałego nadzoru.
  • Profilowanie: Algorytmy analizujące nasze dane mogą tworzyć szczegółowe profile osobowościowe, które są wykorzystywane do celów komercyjnych lub politycznych, bez naszej zgody.

Jak przeciwdziałać zagrożeniom? Czy AI Act jest w stanie to zrobić?

12 lipca 2024 roku w Dzienniku Urzędowym Komisji Europejskiej opublikowano Rozporządzenie o Sztucznej Inteligencji (AI Act). AI. Jest to pierwszy tego typu akt prawny na świecie, który ustanawia ramy dla etycznego i odpowiedzialnego wykorzystania sztucznej inteligencji. Regulacje te mogą skutecznie przeciwdziałać zagrożeniom w następujący sposób:

Oto najważniejsze cele AI Act:

  1. Wspólne zasady dla całej UE:
    • AI Act wprowadza jednolite przepisy dla sztucznej inteligencji w całej Unii Europejskiej, aby zapewnić, że AI będzie działać zgodnie z prawem i dla dobra ludzi.
  2. Ochrona danych osobowych:
    • Nowe przepisy chronią Twoje dane osobowe, zgodnie z zasadami RODO, i dbają o to, aby były one bezpieczne.
  3. Zakaz szkodliwych praktyk:
    • AI nie może być używane do manipulowania ludźmi, zmuszania ich do podejmowania niechcianych decyzji ani do szkodliwego oceniania ich zachowań (np. tzw. scoring społeczny).
  4. Zakaz rozpoznawania emocji:
    • Systemy AI nie mogą być używane w pracy czy szkołach do oceniania emocji ludzi, ponieważ może to prowadzić do niesprawiedliwości.
  5. Ścisła kontrola ryzykownych systemów:
    • AI, które może mieć duży wpływ na życie ludzi (np. w medycynie czy transporcie), musi być dokładnie sprawdzone, zanim zostanie wprowadzone na rynek.
  6. Edukacja i świadomość:
    • Każdy, kto tworzy, używa lub jest pod wpływem AI, musi wiedzieć, jak ta technologia działa i jak wpływa na życie ludzi.
  7. Ochrona poza UE:
    • Przepisy dotyczą także systemów AI spoza Unii Europejskiej, jeśli ich efekty mają być używane na jej terenie.
  8. Wsparcie dla badań i innowacji:
    • AI wykorzystywane tylko do badań naukowych lub testów nie podlega tym przepisom, aby wspierać rozwój technologii.
  9. Oznaczenia i kontrole:
    • Systemy AI wysokiego ryzyka muszą mieć specjalne oznaczenia i przejść proces oceny, aby były zgodne z prawem.
  10. Kary za łamanie zasad:
    • Firmy, które nie przestrzegają przepisów, mogą zapłacić wysokie kary – nawet do 35 milionów euro.

AI Act ma sprawić, że sztuczna inteligencja będzie bezpieczna, uczciwa i przyjazna dla ludzi, a jednocześnie wspierać rozwój nowoczesnych technologii w sposób zgodny z europejskimi wartościami. Na to jak to będzie wyglądało w praktyce musimy jeszcze poczekać, bo państwa mają 2 lata na wprowadzenie jej postanowień w życie

    Projekt współfinansowany przez Komisję Europejską w ramach Projektu „Building Bridges – Civic Capital in Local Communities”, realizowanego ze środków programu CERV finansowanego ze środków Komisji Europejskiej w ramach programu „Obywatele, Równość, Prawa i Wartości” na lata 2021 – 2027.

    Wyrażone poglądy i opinie są jedynie opiniami autora lub autorów i niekoniecznie odzwierciedlają poglądy i opinie Unii Europejskiej lub Komisji Europejskiej. Unia Europejska ani organ przyznający nie ponoszą za nie odpowiedzialności.

    Skip to content