Wartości etyczne
Prywatność i zarządzanie danymi
AI musi przestrzegać najwyższych standardów ochrony danych osobowych, zapewniając prywatność użytkowników oraz zgodność z regulacjami.
Prywatność powinna być chroniona poprzez odpowiedzialne modele zarządzania danymi, które zapewniają ich dokładność, reprezentatywność i dają właścicielom pełną kontrolę. To buduje zaufanie i wspiera etyczne, transparentne dzielenie się danymi. Minimalizacja danych nie może służyć ukrywaniu uprzedzeń ani unikania odpowiedzialności za decyzje AI. Etyczne podejście jest kluczowe zarówno dla danych osobowych, jak i nieosobowych – szczególnie w eliminowaniu uprzedzeń rasowych, kulturowych czy płciowych. Aby sprostać tym wyzwaniom, potrzebne są jasne zasady powierzenia i wykorzystania danych, dostosowane do ich różnych typów, od treningowych po analityczne. Odpowiedzialne zarządzanie danymi to fundament AI, która działa zgodnie z wartościami społecznymi i prawami użytkowników.
Bulletpoints
• Systemy AI muszą przetwarzać dane osobowe zgodnie z prawem, uczciwie i przejrzyście.
• Minimalizacja danych i ochrona w fazie projektowania muszą być wkomponowane w modele zarządzania danymi.
• Techniczne i organizacyjne środki ochrony danych (np. anonimizacja, szyfrowanie) muszą być wdrożone.
• Silne środki bezpieczeństwa są konieczne, by zapobiegać naruszeniom danych.
• Dane muszą być pozyskiwane, przechowywane i wykorzystywane w sposób podlegający audytowi.
• Wszystkie badania finansowane przez UE muszą spełniać najwyższe standardy etyczne i być zgodne z RODO.
Błędy i heurystyki
Efekt utopionych kosztów (sunk cost fallacy)
Użytkownicy mogą być skłonni kontynuować korzystanie z systemu AI, mimo że narusza on ich prywatność, z powodu wcześniejszych inwestycji, takich jak czas, dane czy zasoby.
Efekt pewności wstecznej (hindsight bias)
Po naruszeniu prywatności użytkownicy mogą uznać, że zagrożenie było bardziej przewidywalne, niż faktycznie było, co może wpłynąć na ich przyszłe decyzje dotyczące zarządzania danymi.
Błąd nadmiernej pewności siebie (overconfidence bias)
Operatorzy mogą być zbyt pewni, że zastosowane przez nich środki ochrony danych są wystarczające, co prowadzi do zaniedbań w aktualizacji zabezpieczeń lub przeprowadzaniu audytów.
Machine bias
Bias wobec wrażliwych danych
Wrażliwe dane wymagają szczególnej ochrony i odpowiedzialnego podejścia na każdym etapie – od zbierania, przez analizę, po podejmowanie decyzji. Niewłaściwe zarządzanie nimi może prowadzić do stronniczych algorytmów, które faworyzują lub dyskryminują określone grupy.
Manipulacyjne interfejsy użytkownika (dark patterns)
Techniki projektowania mające na celu wpływanie na decyzje użytkowników w sposób, który nie zawsze jest w ich najlepszym interesie. Przykłady obejmują ukrywanie opcji rezygnacji, wymuszanie nieświadomego wyrażania zgody lub utrudnianie dostępu do informacji o prywatności.
Brak zrozumienia decyzji modelu (black box)
Modele LLM, które działają jako tzw. "czarne skrzynki", mogą podejmować decyzje dotyczące przetwarzania danych bez dostarczania wystarczającego wyjaśnienia. To utrudnia użytkownikom zrozumienie, jak ich dane są przetwarzane i jakie mechanizmy ochrony prywatności są stosowane.
Strategia zmiany zachowania - nudges
Transparentne Nudges
System może informować użytkowników o ich prawach do prywatności i ochrony danych podczas każdego logowania lub ważnej operacji np. "Pamiętaj, że masz prawo do dostępu do swoich danych oraz ich usunięcia w dowolnym momencie."
Nietransparentne Nudges
Domyślne ustawienia mogą być skonfigurowane tak, aby maksymalizować zbieranie danych, bez wyraźnego poinformowania użytkowników, np. domyślne włączenie pełnego śledzenia aktywności bez ich świadomej zgody.
System może manipulować interfejsem, aby nakłaniać użytkowników do akceptowania mniej bezpiecznych opcji, np. poprzez bardziej widoczne i atrakcyjne przyciski dla opcji, które pozwalają na szersze zbieranie danych.
Perspektywa prawna
W zakresie w jakim projektowanie, rozwój lub wykorzystywanie systemów AI jest związane z przetwarzaniem danych osobowych dostawcy i podmioty stosujące te systemy zobowiązane są przestrzegać prawa w zakresie ochrony danych osobowych w tym w szczególności tzw. Rozporządzenia RODO. Przepisy AI Act nie wyłączają jego stosowania, przewidując dodatkowe przesłanki i wymogi dla piaskownic regulacyjnych i systemów AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych.
Kontekst
Szczegółowo analizujemy:
• Kontekst użycia i perspektywy interesariuszy.
• Etyczne i odpowiedzialne podejście na każdym etapie wytwarzania produktu.
• Projektowania doświadczeń, zachowań i transparetnych nudges na linii człowiek-AI.
• Proces podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje.
Wszystko po to, żeby zoperacjonalizować etyczne i odpowiedzialne podejście zgodnie z AI Act.
Dobrze osadzone wartości etyczne w działaniu, mogą pomóc Ci budować sukces Twojej firmy
Zacznij praktycznie wykorzystywać etykę AI w swojej firmie -
sprawdź nasze podejście Ethical AI & Human Behaviour.