Wartości etyczne

Ludzka autonomia i nadzór

Systemy AI muszą wspierać, a nie zastępować ludzkie decyzje, zapewniając, że użytkownicy mają pełną kontrolę nad swoimi działaniami.

Ludzie muszą być szanowani w podejmowaniu własnych decyzji i realizowaniu własnych działań. Szacunek dla ludzkiej samodzielności obejmuje trzy bardziej szczegółowe zasady, które definiują podstawowe prawa człowieka: autonomię, godność i wolność.

Bulletpoints

Prawo do podejmowania decyzji
Użytkownicy końcowi oraz inne osoby, których życie i wolność są dotknięte działaniem systemów AI, nie mogą być pozbawieni możliwości podejmowania fundamentalnych decyzji dotyczących ich własnych spraw.

Ograniczenie autonomicznych decyzji
Aplikacje AI nie powinny podejmować samodzielnych decyzji bez nadzoru człowieka w kwestiach osobistych, ekonomicznych, społecznych i politycznych, które wymagają ludzkiej refleksji i deliberacji.

Ochrona przed manipulacją
Użytkownicy nie mogą być poddawani naciskom, oszustwom, manipulacjom, uprzedmiotowieniu ani dehumanizacji przez systemy AI.

Przeciwdziałanie uzależnieniu od AI
Systemy AI nie powinny celowo stymulować przywiązania ani uzależnienia od swoich operacji. Powinny być projektowane w sposób, który zapobiega powstawaniu takich zjawisk.

Możliwość kontroli i interwencji
Aplikacje AI muszą być zaprojektowane tak, aby operatorzy oraz – w miarę możliwości – użytkownicy końcowi mieli możliwość kontrolowania, kierowania i interweniowania w kluczowe działania systemu.

Przejrzystość działania AI
Użytkownicy muszą otrzymywać zrozumiałe i przejrzyste informacje dotyczące logiki działania systemów AI oraz znaczenia i konsekwencji decyzji podejmowanych przez te systemy.

Błędy i heurystyki

Heurystyka zakotwiczenia (anchoring heuristic)
Użytkownicy mogą nadmiernie opierać się na pierwszych informacjach lub decyzjach podjętych przez system AI, co wpływa na ich kolejne wybory, nawet gdy otrzymają bardziej adekwatne informacje w późniejszym czasie.

Efekt pewności wstecznej (hindsight bias)
Po podjęciu decyzji przez system AI, użytkownicy mogą postrzegać wynik jako bardziej przewidywalny niż był w rzeczywistości, co zmniejsza ich gotowość do interweniowania w przyszłych sytuacjach.

Złudzenie kontroli (illusion of control)
Użytkownicy mogą mieć nieuzasadnione przekonanie, że mają większy wpływ na decyzje podejmowane przez system AI niż w rzeczywistości, co może prowadzić do nieświadomego lekceważenia ryzyka.

Machine bias

Bias wynikający z priorytetów efektywności (Efficiency bias)
Modele językowe i produkty AI mogą być zoptymalizowane pod kątem maksymalnej efektywności, co oznacza, że decyzje mogą być podejmowane szybciej, ale niekoniecznie w sposób bardziej etyczny. W dążeniu do efektywności model może pomijać subtelne, ale istotne różnice w potrzebach użytkowników.

Bias wynikający z długotrwałego wpływu (Long-term influence bias)
Długotrwałe korzystanie z modeli językowych może powodować subtelne zmiany w sposobie myślenia i podejmowania decyzji przez użytkowników. Jeśli użytkownicy są nieświadomie kierowani przez algorytmy w sposób zgodny z ich wcześniejszymi decyzjami, może to prowadzić do „zakotwiczenia” ich przekonań i zmniejszenia otwartości na nowe informacje.

Strategia zmiany zachowania - nudges

System AI może:
• regularnie przypominać użytkownikom o możliwości wystąpienia błędów poznawczych, takich jak efekt potwierdzenia np. „Pamiętaj, aby rozważyć wszystkie dostępne opcje, nie tylko te, które potwierdzają twoje wcześniejsze przekonania.”
• sugerować użytkownikowi krytyczne przemyślenie decyzji przed jej akceptacją.Na przykład: „Czy na pewno wszystkie istotne czynniki zostały uwzględnione? Sprawdź jeszcze raz swoje założenia.”

Nudge transparentne
System AI regularnie przypomina użytkownikom, że ich decyzje mogą być obciążone błędami poznawczymi, np. efektem potwierdzenia. Komunikat: „Rozważ inne opcje, nawet te, które nie zgadzają się z Twoimi wcześniejszymi przekonaniami.”

Ważne:
• Użytkownik zachowuje pełną autonomię, ponieważ jest świadomie zachęcany do refleksji nad swoimi decyzjami.
• System wspiera użytkownika w podejmowaniu bardziej świadomych decyzji, ale nie narzuca swojego wpływu.

Nudge nietransparentne
Przykład nietransparentnego nudge to sytuacja, w której system subtelnie kieruje użytkownika do podjęcia konkretnej decyzji, nie ujawniając, że jest to zamierzony wpływ, np. pokazując tylko najbardziej pozytywne aspekty jednej z opcji.

Ważne:
• Użytkownik może nie zdawać sobie sprawy z tego, że jego decyzja jest ukierunkowana, co ogranicza jego autonomię.
• Brak pełnej wiedzy i możliwości interwencji powoduje, że użytkownik traci kontrolę nad swoim wyborem.

Perspektywa prawna

AI Act zakazuje między innymi wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością ludzką lub celowe techniki manipulacyjne lub wprowadzające w błąd, co może znacząco ograniczać zdolność do podejmowania świadomych decyzji w sposób, który może wyrządzić szkodę. 

Zabronione jest przykładowo także wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osób w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem gdy jest to uzasadnione względami medycznych lub bezpieczeństwa.

Kontekst

Szczegółowo analizujemy:
• Kontekst użycia i perspektywy interesariuszy.
• Etyczne i odpowiedzialne podejście na każdym etapie wytwarzania produktu.
• Projektowania doświadczeń, zachowań i transparetnych nudges na linii człowiek-AI.
• Proces podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje.

Wszystko po to, żeby zoperacjonalizować etyczne i odpowiedzialne podejście zgodnie z AI Act.

Dobrze osadzone wartości etyczne w działaniu, mogą pomóc Ci budować sukces Twojej firmy

Zacznij praktycznie wykorzystywać etykę AI w swojej firmie -
sprawdź nasze podejście Ethical AI & Human Behaviour.

Sprawdź

Zobacz inne wartości

Różnorodność, niedyskryminacja i sprawiedliwość
Więcej
Strzałka w prawo
Przejrzystość
Więcej
Strzałka w prawo
Dobro społeczne i środowiskowe
Więcej
Strzałka w prawo
Solidność techniczna i bezpieczeństwo
Więcej
Strzałka w prawo
Prywatność i zarządzanie danymi
Więcej
Strzałka w prawo
Odpowiedzialność
Więcej
Strzałka w prawo
Ludzka autonomia i nadzór
Więcej
Strzałka w prawo