Wartości etyczne

Różnorodność, niedyskryminacja i sprawiedliwość

Algorytmy muszą być wolne od uprzedzeń, aby zapewniać sprawiedliwe traktowanie wszystkich użytkowników, bez względu na ich pochodzenie, płeć czy status społeczny.

Technologia musi działać w sposób, który szanuje różnice między ludźmi i unika wzmacniania uprzedzeń opartych na takich cechach, jak rasa, płeć, wiek czy orientacja. Aby to osiągnąć, konieczne jest projektowanie systemów AI, które są sprawiedliwe i reprezentatywne. Wymaga to użycia zróżnicowanych danych, testowania algorytmów pod kątem stronniczości i zapewnienia, że decyzje podejmowane przez AI są neutralne i uczciwe. AI ma potencjał wspierania równości, ale tylko wtedy, gdy rozwijana jest w sposób odpowiedzialny i transparentny. Dbanie o różnorodność i sprawiedliwość nie tylko wzmacnia zaufanie do technologii, ale także tworzy przestrzeń, w której każdy użytkownik czuje się szanowany i równy.

Bulletpoints

• Procedury powinny być zaprojektowane w sposób niedyskryminujący, a systemy AI muszą unikać wspierania wzorców, które niesprawiedliwie obciążają określone jednostki lub grupy.

• Sprawiedliwość wspiera się politykami promującymi różnorodność, doceniającymi indywidualne różnice – nie tylko w zakresie płci czy rasy, ale także osobowości, doświadczeń, pochodzenia kulturowego i stylów poznawczych.

• Systemy AI powinny być projektowane tak, aby eliminować uprzedzenia w danych, modelowaniu i algorytmach. Konieczne jest, aby dane były reprezentatywne dla całej populacji i odzwierciedlały jej różnorodność.

• Propozycje badawcze muszą jasno dokumentować, jak uprzedzenia w danych i algorytmach zostaną zidentyfikowane i wyeliminowane, by zapobiec wykluczaniu określonych grup ludzi.

• Wszyscy powinni mieć równy dostęp do technologii, a komunikacja musi być zrozumiała, aby ułatwić zaangażowanie społeczeństwa oraz uzyskiwanie opinii interesariuszy na etapie opracowywania systemów.a

Błędy i heurystyki

Efekt potwierdzenia (confirmation bias)
Osoby projektujące systemy SI mogą skłaniać się do poszukiwania i interpretowania danych oraz wyników, które potwierdzają ich wcześniejsze przekonania. To może prowadzić do utrwalania istniejących nierówności lub dyskryminacji.

Efekt halo (halo effect)
P
ozytywne cechy lub wyniki jednego aspektu systemu SI mogą prowadzić do nadmiernego zaufania do jego sprawiedliwości w innych obszarach, maskując obecność uprzedzeń lub nierówności.

Strategia zaufania do standardów (sleeping at the wheel)
Projektanci mogą polegać na istniejących standardach i normach dotyczących sprawiedliwości, zakładając, że spełnienie tych wymagań gwarantuje brak dyskryminacji, co może prowadzić do zaniechania dalszych analiz.

Machine bias

Brak reprezentatywności
Jeśli dane treningowe nie są reprezentatywne dla wszystkich grup społecznych (np. mniejszości etnicznych, osób z niepełnosprawnościami), system może faworyzować grupy dominujące, co prowadzi do dyskryminacji.

Bias w definicji sukcesu

Algorytmy mogą stosować wskaźniki sukcesu, które nie uwzględniają różnorodności. Na przykład, w systemach rekrutacyjnych kryteria sukcesu mogą faworyzować osoby o podobnym profilu do tych, które wcześniej odnosiły sukces, ignorując różnorodność.

Strategia zmiany zachowania - nudges

Transparentne nudges
System AI mógłby regularnie dostarczać użytkownikom i decydentom jasne informacje na temat podejmowanych decyzji i ich podstaw np. "Ta decyzja została podjęta na podstawie danych dotyczących wieku, płci i miejsca zamieszkania. Czy chcesz sprawdzić inne czynniki?"

Nietransparentne nudges

Systemy mogą działać na podstawie danych zawierających ukryte uprzedzenia, które nie są jasne ani widoczne dla użytkowników, prowadząc do nieświadomej dyskryminacji pewnych grup.

Użytkownicy mogą mieć ograniczony dostęp do informacji o tym, jak działają algorytmy, co uniemożliwia im ocenę, czy decyzje podejmowane przez AI są sprawiedliwe i wolne od uprzedzeń.

Perspektywa prawna

Przepisy przewidują także obowiązki wdrożenia praktyk w zakresie zarządzania danymi odpowiednich do przeznaczenia systemu AI wysokiego ryzyka, a dotyczących zbiorów danych treningowych, walidacyjnych i testowych. Praktyki te powinny dotyczyć m.in. badania pod kątem ewentualnej stronniczości, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii oraz odpowiednich środków służących wykrywaniu ewentualnej stronniczości oraz zapobieganiu jej i jej ograniczaniu. Ponadto AI Act przewiduje , że zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być stosowany system AI wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub na poziomie ich kombinacji. Zbiory danych muszą uwzględniać (w zakresie wymaganym z uwagi na ich przeznaczenie) cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka.

Kontekst

Szczegółowo analizujemy:
• Kontekst użycia i perspektywy interesariuszy.
• Etyczne i odpowiedzialne podejście na każdym etapie wytwarzania produktu.
• Projektowania doświadczeń, zachowań i transparetnych nudges na linii człowiek-AI.
• Proces podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje.

Wszystko po to, żeby zoperacjonalizować etyczne i odpowiedzialne podejście zgodnie z AI Act.

Dobrze osadzone wartości etyczne w działaniu, mogą pomóc Ci budować sukces Twojej firmy

Zacznij praktycznie wykorzystywać etykę AI w swojej firmie -
sprawdź nasze podejście Ethical AI & Human Behaviour.

Sprawdź

Zobacz inne wartości

Różnorodność, niedyskryminacja i sprawiedliwość
Więcej
Strzałka w prawo
Przejrzystość
Więcej
Strzałka w prawo
Dobro społeczne i środowiskowe
Więcej
Strzałka w prawo
Solidność techniczna i bezpieczeństwo
Więcej
Strzałka w prawo
Prywatność i zarządzanie danymi
Więcej
Strzałka w prawo
Odpowiedzialność
Więcej
Strzałka w prawo
Ludzka autonomia i nadzór
Więcej
Strzałka w prawo