Ostatnio natrafiłam na artykuł: “Regulating AI: Applying Insights from Behavioural Economics and Psychology to the Application of Article 5 of the EU AI Act” autorstwa Huixin Zhong, Eamonn O’Neill, Janina A. Hoffmann, który daje do myślenia.
Autorzy zauważają, że pierwotne brzmienie Artykułu 5 było krytykowane za brak jasności i niewystarczającą ochronę. Wprowadzono poprawki, aby rozwiązać te problemy, rozszerzając zakres z „technik podprogowych” na „techniki manipulacyjne” i „techniki wprowadzające w błąd”. Jednakże źródła twierdzą, że te poprawki nadal nie zapewniają wystarczającej ochrony.
Techniki podprogowe
Źródła definiują techniki podprogowe jako metody wykorzystujące bodźce poniżej progu percepcji jednostki do wpływania na jej zachowanie.
Autorzy identyfikują trzy kluczowe techniki podprogowe:
- Prezentacja tachistoskopowa
Wyświetlanie bodźców wizualnych przez niezwykle krótkie okresy, aby wpływać na zachowanie w sposób nieświadomy. Na przykład krótkie miganie frazami typu „Pij Coca-Colę” podczas filmu. - Maskowanie bodźca
- Zmniejszanie intensywności bodźca lub zmienianie jego postrzegania poprzez jednoczesne prezentowanie wielu bodźców. Może to obejmować techniki takie jak maskowanie szybkościowe czy odwracanie przekazów w tle.
- Priming konceptualny
Eksponowanie osób na bodźce przekazujące określone znaczenie w celu aktywacji związanych z nimi wspomnień i wpływania na kolejne działania. Przykładem może być priming związany z pojęciami starości czy bogactwa. - Autorzy zauważają, że skuteczność technik podprogowych budzi kontrowersje ze względu na sprzeczne wyniki badań.
AI a techniki podprogowe
Chociaż brak jest konkretnych dowodów na to, że AI obecnie wykorzystuje techniki podprogowe do manipulowania ludźmi, autorzy sugerują, że AI może zwiększać ich skuteczność.
- Mikrotargetowanie
AI może dostosowywać bodźce podprogowe do indywidualnych użytkowników, analizując ogromne ilości danych osobowych z różnych źródeł. - Zastosowanie na dużą skalę
AI może stosować techniki podprogowe wobec szerokiej bazy użytkowników, stale udoskonalając podejście na podstawie informacji zwrotnych od użytkowników.
Techniki manipulacyjne i dezinformacyjne
Źródła rozróżniają manipulację i dezinformację
- Manipulacja zniekształca formę lub strukturę procesu podejmowania decyzji, prowadząc do wyników, które mogą nie leżeć w najlepszym interesie decydenta.
- Dezinformacja polega na dostarczaniu fałszywych informacji, które zniekształcają treść procesu podejmowania decyzji, co może prowadzić do szkodliwych skutków.
- Nudging, koncepcja z zakresu ekonomii behawioralnej, jest omawiany w kontekście technik manipulacyjnych:
- Nudging ma na celu wpływanie na podejmowanie decyzji poprzez wyzwalanie intuicyjnych procesów (heurystyk i uprzedzeń) poprzez zmiany w kontekście decyzji.
- Chociaż nudging często dąży do promowania pozytywnych wyborów, autorzy dostrzegają możliwość jego nadużycia i podkreślają konieczność przejrzystości oraz zgody użytkowników.
Heurystyki a manipulacja przez AI
Autorzy opisują pięć klasycznych heurystyk, które systemy AI mogą potencjalnie wykorzystywać w celach manipulacyjnych:
- Heurystyka reprezentatywności
Ludzie oceniają prawdopodobieństwo zdarzenia na podstawie jego podobieństwa do istniejących stereotypów. AI może to wykorzystać, tworząc bańki informacyjne w mediach społecznościowych i wzmacniając uprzedzenia poprzez rekomendowanie treści zgodnych z już istniejącymi przekonaniami. - Heurystyka dostępności
Ludzie oceniają tematy na podstawie łatwo przypominanych przykładów. AI może to wykorzystać, manipulując dostępnością informacji. Na przykład eksponując negatywne wiadomości o produkcie konkurencji, aby wpłynąć na wybory konsumentów. - Efekt zakotwiczenia
Ludzie w dużym stopniu polegają na pierwszej informacji (kotwicy), którą napotkają, podejmując decyzje. AI może to manipulować, ustawiając kotwice cenowe lub prezentując określone informacje na początku, aby wpłynąć na percepcję użytkownika. - Stronniczość status quo
Ludzie mają tendencję do preferowania obecnego stanu rzeczy. Systemy AI mogą wykorzystywać tę uprzedzenie do promowania określonych zachowań. Na przykład AI Ubera może subtelnie zachęcać kierowców do pracy przez dłuższe godziny, wysyłając powiadomienia o wysokim popycie pod koniec ich zmiany. - Konformizm społeczny
Ludzie dostosowują swoje zachowanie, aby odpowiadało normom grupowym. Systemy AI mogą to wykorzystywać, eksponując popularne produkty lub prezentując opinie od wielu systemów AI, aby zwiększyć postrzeganą wiarygodność.
Krytyka i proponowane poprawki do Artykułu 5
Autorzy argumentują, że obecne brzmienie Artykułu 5 może zapewniać niewystarczającą ochronę dla ogółu społeczeństwa i grup wrażliwych ze względu na skupienie się na subiektywnych intencjach:
- Punkt (a) Artykułu 5 koncentruje się na celowym stosowaniu technik manipulacyjnych, co może wyłączać przypadki, w których twórcy AI nieumyślnie wywołują heurystyki użytkowników. Autorzy sugerują zastąpienie słowa „celowo” zwrotem „wywołuje”, aby to uwzględnić.
- Punkt (b) dotyczy systemów AI, które celowo wykorzystują podatności. Autorzy twierdzą, że systemy AI, które nie uwzględniają specyficznych potrzeb grup wrażliwych, mogą również powodować szkody, nawet bez złych intencji. Proponują dodanie klauzuli nakładającej obowiązek dostosowania systemów AI do specyficznych potrzeb tych grup.
Źródła oferują zniuansowaną perspektywę na temat manipulacji przez AI, podkreślając, że chociaż techniki podprogowe pozostają kontrowersyjne, zdolność AI do wykorzystywania technik manipulacyjnych i dezinformacyjnych stanowi istotne zagrożenie.
Autorzy podkreślają potrzebę jasnych definicji i przykładów w Akcie AI UE oraz proponują poprawki mające na celu zwiększenie jego zdolności ochronnych. Postulują skupienie się na efektach działania systemów AI, niezależnie od intencji ich twórców, aby zapewnić skuteczną ochronę zarówno ogółowi społeczeństwa, jak i grupom wrażliwym.
Regulating AI: Applying Insights from Behavioural Economics and Psychology to the Application of Article 5 of the EU AI Act Huixin Zhong, Eamonn O’Neill, Janina A. Hoffmann Centre for Doctoral Training in Accountable, Responsible and Transparent AI, University of Bath, United Kingdom
Jeśli zastanawiasz się jak budować XAI bazując na:
• kontekście użycia i perspektywy interesariuszy,
• etycznym i odpowiedzialnym podejściem na każdym etapie wytwarzania produktu,
• projektowaniu doświadczeń, zachowań i transparetnego wpływu,
• procesie podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje,
• zmieniających się regulacjach i prawie,
pomożemy Ci to zrobić! Sprawdź https://www.kasiaszczesna.pl/ethical-ai-human-behaviour 😉