Wartości etyczne

Odpowiedzialność

Odpowiedzialność za działania i wyniki systemów AI musi być jasno określona, aby zapewnić możliwość identyfikacji podmiotów odpowiedzialnych za ich funkcjonowanie.

Ludzie muszą mieć możliwość zrozumienia, nadzorowania i kontrolowania projektowania oraz działania systemów AI. Osoby zaangażowane w ich rozwój lub obsługę powinny ponosić odpowiedzialność za sposób, w jaki te systemy funkcjonują, oraz za konsekwencje ich działania.

Bulletpoints

  • Twórcy i operatorzy AI muszą odpowiadać za działanie systemu i jego wpływ na ludzi.
  • AI musi być zrozumiała – użytkownicy powinni wiedzieć, jak działa i dlaczego podejmuje konkretne decyzje.
  • Ludzie powinni mieć możliwość monitorowania i kontrolowania decyzji AI lub ich zmieniania, jeśli to konieczne.
  • Projekty AI muszą przewidywać ryzyka etyczne, zapobiegać problemom i minimalizować ich skutki.
  • Systemy AI muszą być audytowalne, a użytkownicy powinni mieć możliwość zgłaszania problemów i skarg.
  • Błędy i heurystyki

    Błąd nadmiernej pewności siebie
    Projektanci i operatorzy mogą przeceniać swoją zdolność do pełnego zrozumienia i kontrolowania działania systemu AI, co skutkuje zaniedbaniem nadzoru i audytów.

    Strategia redukcji złożoności
    Złożone kwestie związane z odpowiedzialnością i nadzorem nad AI mogą być nadmiernie upraszczane, co prowadzi do pominięcia kluczowych aspektów, takich jak ryzyko działania w nieprzewidzianych warunkach.

    Strategia zaufania do technologii
    Decydenci mogą zakładać, że AI jest niezawodna i samowystarczalna, co może skutkować zaniechaniem kluczowych działań w zakresie nadzoru i monitorowania.

    Machine bias

    Bias związany z automatyzacją decyzji
    Ludzie mogą nadmiernie ufać systemom automatycznym, co prowadzi do błędów, jeśli system działa niesprawiedliwie. Odpowiedzialność wymaga mechanizmów nadzoru i możliwości korekty decyzji przez człowieka.

    Strategia zmiany zachowania - nudges

    Transparentne nudges
    Systemy AI mogą oferować łatwe i dostępne mechanizmy zgłaszania problemów, które umożliwiają użytkownikom i interesariuszom informowanie o nieprawidłowościach lub obawach dotyczących działania systemu np. "Jeśli zauważysz jakiekolwiek nieprawidłowości, prosimy o natychmiastowe zgłoszenie problemu.”

    Nietransparentne nudges
    System może promować decyzje algorytmiczne jako bezbłędne i niepodlegające kontroli, co może skutkować zaniechaniem ludzkiego nadzoru.
    np. "Decyzje podjęte przez ten algorytm są zawsze zgodne z najlepszymi praktykami," co może zniechęcać do weryfikacji i audytu.


    Informacje o odpowiedzialności za działanie systemu mogą być ukrywane lub przedstawiane w sposób mylący, co prowadzi do niejasności co do tego, kto odpowiada za błędy lub problemy np. "Odpowiedzialność za decyzje systemu spoczywa na użytkowniku końcowym," bez pełnego wyjaśnienia, w jakich sytuacjach i jak użytkownik może kontrolować działanie systemu.

    Perspektywa prawna

    Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI z 2019 r. (na których brzmieniu można opierać się do czasu które do czasu przyjęcia nowych kodeksów i wytycznych)  przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka.

    AI Act przewiduje, że systemy AI wysokiego ryzyka powinny być projektowane i rozwijane w taki sposób, aby człowiek mógł nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. Przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. Przepisy zwracają uwagę także na konieczność zapewnienia, aby systemy AI wysokiego ryzyka posiadały mechanizmy udzielania wskazówek i informacji ludziom, którym powierzono nadzór, aby mogli oni podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji, jeżeli system nie działa zgodnie z przeznaczeniem. 

    Przepisy prawa zobowiązują także dostawców i podmioty stosujące systemy AI do  podjęcia niezbędnych działań w celu zapewnienia, aby ich personel, zajmujący się w ich imieniu działaniem i wykorzystaniem systemów AI, posiadał odpowiedni poziom kompetencji.

    Kontekst

    Szczegółowo analizujemy:
    • Kontekst użycia i perspektywy interesariuszy.
    • Etyczne i odpowiedzialne podejście na każdym etapie wytwarzania produktu.
    • Projektowania doświadczeń, zachowań i transparetnych nudges na linii człowiek-AI.
    • Proces podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje.

    Wszystko po to, żeby zoperacjonalizować etyczne i odpowiedzialne podejście zgodnie z AI Act.

    Dobrze osadzone wartości etyczne w działaniu, mogą pomóc Ci budować sukces Twojej firmy

    Zacznij praktycznie wykorzystywać etykę AI w swojej firmie -
    sprawdź nasze podejście Ethical AI & Human Behaviour.

    Sprawdź

    Zobacz inne wartości

    Różnorodność, niedyskryminacja i sprawiedliwość
    Więcej
    Strzałka w prawo
    Przejrzystość
    Więcej
    Strzałka w prawo
    Dobro społeczne i środowiskowe
    Więcej
    Strzałka w prawo
    Solidność techniczna i bezpieczeństwo
    Więcej
    Strzałka w prawo
    Prywatność i zarządzanie danymi
    Więcej
    Strzałka w prawo
    Odpowiedzialność
    Więcej
    Strzałka w prawo
    Ludzka autonomia i nadzór
    Więcej
    Strzałka w prawo