Wartości etyczne
Odpowiedzialność
Odpowiedzialność za działania i wyniki systemów AI musi być jasno określona, aby zapewnić możliwość identyfikacji podmiotów odpowiedzialnych za ich funkcjonowanie.
Ludzie muszą mieć możliwość zrozumienia, nadzorowania i kontrolowania projektowania oraz działania systemów AI. Osoby zaangażowane w ich rozwój lub obsługę powinny ponosić odpowiedzialność za sposób, w jaki te systemy funkcjonują, oraz za konsekwencje ich działania.
Bulletpoints
Błędy i heurystyki
Błąd nadmiernej pewności siebie
Projektanci i operatorzy mogą przeceniać swoją zdolność do pełnego zrozumienia i kontrolowania działania systemu AI, co skutkuje zaniedbaniem nadzoru i audytów.
Strategia redukcji złożoności
Złożone kwestie związane z odpowiedzialnością i nadzorem nad AI mogą być nadmiernie upraszczane, co prowadzi do pominięcia kluczowych aspektów, takich jak ryzyko działania w nieprzewidzianych warunkach.
Strategia zaufania do technologii
Decydenci mogą zakładać, że AI jest niezawodna i samowystarczalna, co może skutkować zaniechaniem kluczowych działań w zakresie nadzoru i monitorowania.
Machine bias
Bias związany z automatyzacją decyzji
Ludzie mogą nadmiernie ufać systemom automatycznym, co prowadzi do błędów, jeśli system działa niesprawiedliwie. Odpowiedzialność wymaga mechanizmów nadzoru i możliwości korekty decyzji przez człowieka.
Strategia zmiany zachowania - nudges
Transparentne nudges
Systemy AI mogą oferować łatwe i dostępne mechanizmy zgłaszania problemów, które umożliwiają użytkownikom i interesariuszom informowanie o nieprawidłowościach lub obawach dotyczących działania systemu np. "Jeśli zauważysz jakiekolwiek nieprawidłowości, prosimy o natychmiastowe zgłoszenie problemu.”
Nietransparentne nudges
System może promować decyzje algorytmiczne jako bezbłędne i niepodlegające kontroli, co może skutkować zaniechaniem ludzkiego nadzoru.
np. "Decyzje podjęte przez ten algorytm są zawsze zgodne z najlepszymi praktykami," co może zniechęcać do weryfikacji i audytu.
Informacje o odpowiedzialności za działanie systemu mogą być ukrywane lub przedstawiane w sposób mylący, co prowadzi do niejasności co do tego, kto odpowiada za błędy lub problemy np. "Odpowiedzialność za decyzje systemu spoczywa na użytkowniku końcowym," bez pełnego wyjaśnienia, w jakich sytuacjach i jak użytkownik może kontrolować działanie systemu.
Perspektywa prawna
Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI z 2019 r. (na których brzmieniu można opierać się do czasu które do czasu przyjęcia nowych kodeksów i wytycznych) przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka.
AI Act przewiduje, że systemy AI wysokiego ryzyka powinny być projektowane i rozwijane w taki sposób, aby człowiek mógł nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. Przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. Przepisy zwracają uwagę także na konieczność zapewnienia, aby systemy AI wysokiego ryzyka posiadały mechanizmy udzielania wskazówek i informacji ludziom, którym powierzono nadzór, aby mogli oni podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji, jeżeli system nie działa zgodnie z przeznaczeniem.
Przepisy prawa zobowiązują także dostawców i podmioty stosujące systemy AI do podjęcia niezbędnych działań w celu zapewnienia, aby ich personel, zajmujący się w ich imieniu działaniem i wykorzystaniem systemów AI, posiadał odpowiedni poziom kompetencji.
Kontekst
Szczegółowo analizujemy:
• Kontekst użycia i perspektywy interesariuszy.
• Etyczne i odpowiedzialne podejście na każdym etapie wytwarzania produktu.
• Projektowania doświadczeń, zachowań i transparetnych nudges na linii człowiek-AI.
• Proces podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje.
Wszystko po to, żeby zoperacjonalizować etyczne i odpowiedzialne podejście zgodnie z AI Act.
Dobrze osadzone wartości etyczne w działaniu, mogą pomóc Ci budować sukces Twojej firmy
Zacznij praktycznie wykorzystywać etykę AI w swojej firmie -
sprawdź nasze podejście Ethical AI & Human Behaviour.