23 Gru 2024 • 4 min

Framework „FORGOOD” i Responsible AI

Framework „FORGOOD” opracowany przez UCD Geary Institute koncentruje się na etycznym podejściu do stosowania AI i technologii zorientowanych na społeczne dobro. Każdy element tego modelu - Fairness, Openness, Respect, Goals, Opinion, Option, Delegation - stanowi fundament odpowiedzialnego wdrażania AI, z naciskiem na szacunek dla użytkowników, przejrzystość i włączenie społeczności w procesy decyzyjne.

Oto szczegółowy opis poszczególnych elementów tego frameworku:

1. Fairness (Sprawiedliwość)

Ten element odnosi się do zapewnienia równego traktowania wszystkich użytkowników i minimalizacji uprzedzeń. W praktyce oznacza to, że AI oraz procesy decyzyjne powinny być projektowane i testowane w sposób, który eliminuje wszelkie formy dyskryminacji, niezależnie od płci, wieku, rasy czy statusu społeczno-ekonomicznego użytkowników. Osiągnięcie sprawiedliwości wymaga także regularnych audytów i przeglądów pod kątem potencjalnych uprzedzeń.

2. Openness (Otwartość)

Otwartość oznacza pełną przejrzystość działań i decyzji podejmowanych przez AI. Jest to kluczowy element budujący zaufanie użytkowników do systemów opartych na AI. Otwartość wiąże się z możliwością uzyskania informacji na temat tego, jak działa system, jakie dane są wykorzystywane oraz jakie zasady i kryteria kierują decyzjami AI. Dostępność tych informacji pozwala użytkownikom lepiej zrozumieć systemy, z którymi wchodzą w interakcje, i daje im poczucie kontroli.

3. Respect (Szacunek)

Szacunek obejmuje traktowanie użytkowników oraz ich danych osobowych z poszanowaniem prywatności i autonomii. W praktyce oznacza to, że technologie AI powinny być projektowane i wdrażane z uwzględnieniem praw użytkowników do prywatności i ochrony danych, a także ich indywidualnych preferencji i ograniczeń. Element ten podkreśla, że użytkownicy powinni być traktowani jako pełnoprawni partnerzy, a nie jedynie źródło danych.

4. Goals (Cele)

Framework FORGOOD stawia nacisk na to, aby cele technologii AI były zgodne z wartościami społecznymi oraz miały na celu dobro użytkowników i społeczności. Oznacza to, że organizacje i twórcy AI powinni jasno określić, jakie są ich intencje i jakie korzyści mają płynąć z zastosowania danej technologii. Zgodność celów technologii z wartościami społecznymi pozwala uniknąć ryzyka, że AI będzie działać sprzecznie z interesami użytkowników.

5. Opinion (Opinia)

Opinia odnosi się do włączania opinii użytkowników i interesariuszy w proces projektowania, wdrażania i oceny systemów AI. Oznacza to zbieranie regularnych informacji zwrotnych oraz uwzględnianie potrzeb i obaw społeczności korzystających z AI. Opinie użytkowników pozwalają lepiej zrozumieć, jak system jest postrzegany i jakie aspekty wymagają usprawnień. Dzięki temu AI staje się bardziej responsywne i zgodne z oczekiwaniami użytkowników.

6. Option (Opcje)

Opcje oznaczają zapewnienie użytkownikom swobody wyboru i kontroli nad interakcją z AI. Użytkownicy powinni mieć możliwość decydowania o zakresie i sposobie korzystania z AI, a także o przetwarzaniu ich danych. Ten element pozwala użytkownikom dostosować interakcje z technologią do swoich potrzeb i preferencji oraz zwiększa ich poczucie autonomii.

7. Delegation (Delegacja)

Delegacja odnosi się do odpowiedzialnego przekazywania decyzji i procesów AI w sposób, który uwzględnia rolę człowieka jako nadzorcy. Ten element podkreśla, że technologie AI powinny wspierać, a nie zastępować ludzi. AI musi działać w sposób wspierający decyzje ludzkie, a w przypadku decyzji o znaczeniu krytycznym dla jednostek lub społeczności, nadzór człowieka jest kluczowy, by zachować kontrolę i odpowiedzialność za działania AI.

Framework FORGOOD ma na celu tworzenie i wdrażanie AI w sposób etyczny, z poszanowaniem użytkowników i ich wartości. Poprzez uczciwość, otwartość, szacunek, jasno określone cele, uwzględnianie opinii, opcje wyboru i odpowiedzialną delegację decyzji, FORGOOD dąży do budowy technologii AI, która działa na rzecz społecznego dobra i wspiera społeczności, zamiast im zagrażać.

Jeśli zastanawiasz się jak budować wyjaśnialną i odpowiedzialną AI bazując na:
• kontekście użycia i perspektywy interesariuszy,
• etycznym i odpowiedzialnym podejściem na każdym etapie wytwarzania produktu,
• projektowaniu doświadczeń, zachowań i transparetnego wpływu,
• procesie podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje,
• zmieniających się regulacjach i prawie,

pomożemy Ci to zrobić! Sprawdź https://www.kasiaszczesna.pl/ethical-ai-human-behaviour 😉