Jednym z ciekawszych podejść jest wykorzystanie modeli poznawczych, takich jak teoria „szybkiego i wolnego myślenia” opracowana przez Daniela Kahnemana, oraz procesy metapoznawcze. To podejście nie tylko pozwala na lepsze zrozumienie interakcji między AI a człowiekiem, ale także na projektowanie systemów bardziej efektywnych, etycznych i dostosowanych do ludzkich potrzeb. Przykładem takiego rozwiązania jest system FASCAI (Fast and Slow Collaborative AI), który dostosowuje swoje działanie w zależności od pożądanego sposobu przetwarzania informacji przez użytkownika.
Systemy myślenia człowieka a AI
System 1 i System 2 to dwa uzupełniające się mechanizmy przetwarzania informacji przez ludzki umysł:
- System 1 to szybkie, automatyczne, intuicyjne myślenie, które często opiera się na emocjach i heurystykach. Jest kluczowy w sytuacjach wymagających szybkich reakcji, ale jego wadą jest podatność na błędy poznawcze, takie jak efekt zakotwiczenia.
- System 2 jest wolniejszy, analityczny i świadomy. Odpowiada za dokładniejsze przetwarzanie informacji, co czyni go niezbędnym w rozwiązywaniu złożonych problemów.
Sztuczna inteligencja, w zależności od kontekstu, może wspierać jeden z tych systemów lub pobudzać metapoznanie, czyli zdolność refleksji nad własnym sposobem myślenia.
Źródło z badania “Value-based Fast and Slow AI Nudging”
Jak działa FASCAI?
FASCAI to system zaprojektowany do współpracy człowieka z AI w sposób dostosowany do specyfiki zadania i preferencji użytkownika. Kluczowym aspektem jest elastyczność w doborze strategii wspierania procesów poznawczych. FASCAI stosuje trzy modalności zachęcania:
1. Zachęcanie systemu 1: Szybkie myślenie
W tym trybie AI natychmiast przedstawia swoją rekomendację, wykorzystując efekt zakotwiczenia. Takie podejście jest szczególnie skuteczne, gdy:
- Sztuczna inteligencja ma dużą pewność co do swojej odpowiedzi.
- AI osiąga lepsze wyniki niż człowiek w podobnych zadaniach.
Przykład: System AI wspiera diagnostykę medyczną. Po analizie danych pacjenta przedstawia lekarzowi swoją rekomendację, np. wybór konkretnego testu diagnostycznego, bez oczekiwania na wstępną decyzję lekarza.
2. Zachęcanie systemu 2: Wolne myślenie
W tej modalności AI najpierw pozwala użytkownikowi podjąć wstępną decyzję, a dopiero później przedstawia swoją sugestię. Dzięki temu człowiek angażuje się w bardziej analityczny proces decyzyjny, porównując swoje rozwiązanie z rekomendacją AI.
- Ten tryb jest wykorzystywany, gdy pewność AI jest niska mimo dobrych wyników lub gdy AI ma wysoką pewność siebie, ale człowiek tradycyjnie radził sobie lepiej.
Przykład: Platforma inwestycyjna pozwala użytkownikowi zaplanować portfel inwestycyjny, a następnie przedstawia swoją rekomendację. To podejście umożliwia inwestorowi głębszą analizę różnic i zrozumienie strategii AI.
3. Zachęcanie metapoznania: Refleksja nad procesem decyzyjnym
AI pozwala człowiekowi podjąć wstępną decyzję, a następnie pyta, czy użytkownik chce zobaczyć rekomendację AI. Skłania to człowieka do autorefleksji nad własnym poziomem pewności.
- Ta strategia wspiera samodoskonalenie, zwiększa autonomię i może prowadzić do lepszego zrozumienia złożonych decyzji.
Przykład: System oceny pracownika umożliwia menedżerowi wstępne przygotowanie oceny, a następnie proponuje, aby sprawdził rekomendację AI, która uwzględnia dodatkowe dane historyczne i analizy.
Kiedy stosować konkretne modalności?
Wybór strategii zależy od kilku czynników:
- Pewność AI: Gdy pewność jest wysoka, można stosować System 1; gdy niska – lepiej angażować System 2.
- Dotychczasowe wyniki: Jeśli człowiek radzi sobie lepiej, warto stymulować metapoznanie lub wolne myślenie.
- Cele organizacyjne: Nacisk na jakość decyzji, sprawczość użytkownika lub rozwój jego kompetencji może wpłynąć na preferencję konkretnej strategii.
FASCAI to system elastyczny, który nie tylko wspiera różne style myślenia, ale także ewoluuje w odpowiedzi na zmieniające się potrzeby użytkownika.
Sztuczna inteligencja a etyka poznawcza
Integracja procesów poznawczych z AI otwiera nowe możliwości, ale wymaga również zachowania równowagi między efektywnością a autonomią użytkownika. Istnieją wyzwania, takie jak:
- Zagrożenie manipulacją: Nadmierne wykorzystanie efektu zakotwiczenia może ograniczać wolność wyboru.
- Przeciążenie informacyjne: Zbyt częste angażowanie Systemu 2 może prowadzić do zmęczenia decyzyjnego.
- Brak transparentności: Użytkownicy muszą rozumieć, dlaczego AI rekomenduje określoną strategię.
Systemy takie jak FASCAI wskazują jednak, że projektowanie AI w oparciu o zasady współpracy i zaufania może prowadzić do bardziej zrównoważonej interakcji człowiek-AI.
Wykorzystanie teorii „szybkiego i wolnego myślenia” w AI otwiera nowe perspektywy w projektowaniu systemów wspierających decyzje. Dzięki takim rozwiązaniom jak FASCAI możliwe jest tworzenie elastycznych, adaptacyjnych i etycznych systemów, które uwzględniają zarówno ludzkie ograniczenia, jak i mocne strony. W przyszłości takie podejścia mogą stać się fundamentem bardziej świadomego i odpowiedzialnego rozwoju technologii.
Ganapini, M. B., Fabiano, F., Horesh, L., Loreggia, A., Mattei, N., Murugesan, K., Pallagani, V., Rossi, F., Srivastava, B., & Venable, B. (n.d.). Value-based Fast and Slow AI Nudging. Union College, University of Parma, IBM Research, University of Brescia, Tulane University, University of South Carolina, Institute for Human and Machine Cognition.