W ostatnich latach XAI zyskała ogromną uwagę badaczy i praktyków, którzy starają się uczynić systemy AI bardziej przejrzystymi, zrozumiałymi i odpowiedzialnymi. Ostatnie badania dostarczają nowych, fascynujących danych na temat tego, jak wyjaśnienia wpływają na zaufanie użytkowników, ich decyzje i skłonność do korzystania z algorytmów. Przyjrzyjmy się bliżej.
Najnowsze badania skoncentrowało się na tym, jak wyjaśnialność systemów opartych na AI wpływa na awersję do algorytmów (ang. algorithm aversion), czyli tendencję ludzi do unikania korzystania z decyzji algorytmicznych po popełnieniu przez nie błędów.
Przeprowadzono dwa eksperymenty:
- Pierwszy eksperyment sprawdzał, czy wyjaśnialność systemu zmienia sposób, w jaki użytkownicy postrzegają błędy AI. Czy lepiej rozumieją przyczyny błędów? Czy są bardziej skłonni zaufać algorytmowi mimo jego pomyłek?
- Drugi eksperyment badał, jak XAI wpływa na żal decyzyjny użytkowników, czyli poczucie, że mogli podjąć lepszą decyzję, gdyby nie zaufali AI.
Kluczowe wyniki badań
1. Wyjaśnialność redukuje awersję do algorytmów.
- W warunkach z XAI uczestnicy byli bardziej skłonni polegać na inteligentnym agencie (systemie AI), nawet jeśli popełnił on błędy. Dlaczego? Wyjaśnienia pozwalały im zrozumieć, dlaczego błąd wystąpił i jakie były ograniczenia systemu.
- W warunkach bez XAI błędy algorytmu prowadziły do znacznie większej utraty zaufania.
2. XAI pomaga budować zrównoważone zaufanie.
- Co ciekawe, XAI nie zwiększa początkowego zaufania do AI – użytkownicy z wyjaśnieniami mieli początkowo niższe zaufanie do systemu niż ci, którzy ich nie otrzymali. To może wydawać się sprzeczne z intuicją, ale wyjaśnienia pozwalały użytkownikom bardziej realistycznie ocenić ograniczenia AI.
- Efekt ten był korzystny: użytkownicy nie ufali AI ślepo, ale też nie tracili całkowicie zaufania po zaobserwowaniu błędów.
3. Wyjaśnialność zmniejsza żal decyzyjny.
- Żal decyzyjny to uczucie, że można było podjąć lepszą decyzję, gdybyśmy postąpili inaczej. Uczestnicy w warunkach XAI odczuwali znacznie mniej żalu po podjęciu decyzji przy wsparciu AI.
- Dlaczego? Wyjaśnienia pozwalały im uzasadnić swoje decyzje i zrozumieć, że były one racjonalne na podstawie dostępnych informacji.
4. Brak uniwersalnej awersji do algorytmów.
- W kontekstach, gdzie system AI działał dobrze, a błędy nie występowały, uczestnicy nie tylko nie unikali algorytmów, ale wręcz zwiększali swoje zaufanie do nich. To pokazuje, że awersja do algorytmów nie jest uniwersalnym zjawiskiem – jej wystąpienie zależy od kontekstu i doświadczeń użytkowników.
Co to oznacza w praktyce?
Badania pokazują, że wyjaśnialność ma kluczowe znaczenie dla budowania zdrowej relacji między użytkownikami a systemami AI. Oto kilka praktycznych wniosków:
- Projektowanie zrównoważonego zaufania.
- Zamiast budować ślepe zaufanie, systemy AI powinny dostarczać użytkownikom informacji o swoich ograniczeniach i błędach. Takie podejście pomaga użytkownikom podejmować lepsze decyzje i długoterminowo budować zaufanie do technologii.
- Minimalizacja żalu decyzyjnego.
- Wyjaśnienia pozwalają użytkownikom lepiej zrozumieć proces podejmowania decyzji przez AI, co zmniejsza negatywne emocje po ewentualnych błędach.
- Kontekst ma znaczenie.
- Awersja do algorytmów nie występuje w każdym przypadku. Projektanci muszą brać pod uwagę, jak różne grupy użytkowników i różne scenariusze decyzyjne wpływają na ich postrzeganie AI.
Co dalej?
Chociaż wyniki tych badań są obiecujące, autorzy zwracają uwagę na kilka ograniczeń:
- Uczestnikami badań byli głównie studenci, którzy mogą bardziej ufać technologii niż osoby z większym doświadczeniem zawodowym.
- Analizowano tylko jeden typ zadania (zarządzanie zamówieniami). Inne konteksty, jak decyzje finansowe czy medyczne, mogą przynieść inne wyniki.
Dlatego konieczne są dalsze badania, które uwzględnią różnorodne populacje i sytuacje decyzyjne - pamiętaj o tym!
XAI to nie tylko narzędzie do budowania zaufania do sztucznej inteligencji – to fundament bardziej odpowiedzialnego i etycznego korzystania z AI. Wyjaśnialność pomaga użytkownikom lepiej rozumieć ograniczenia technologii, redukuje negatywne emocje związane z błędami i buduje bardziej świadome relacje z algorytmami.
Czy przyszłość AI będzie oparta na XAI? Wszystko wskazuje na to, że tak. W miarę jak systemy AI stają się coraz bardziej zaawansowane i wszechobecne, wyjaśnialność stanie się kluczowym elementem budowania zaufania i odpowiedzialności w technologii.
Jeśli zastanawiasz się jak budować XAI bazując na:
• kontekście użycia i perspektywy interesariuszy,
• etycznym i odpowiedzialnym podejściem na każdym etapie wytwarzania produktu,
• projektowaniu doświadczeń, zachowań i transparetnego wpływu,
• procesie podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje,
• zmieniających się regulacjach i prawie,
pomożemy Ci to zrobić! Sprawdź https://www.kasiaszczesna.pl/ethical-ai-human-behaviour 😉