AI Act, jako pierwsza kompleksowa regulacja dotycząca systemów sztucznej inteligencji w Unii Europejskiej, stara się nałożyć ograniczenia na jej stosowanie, ale czy idzie wystarczająco daleko w kwestii manipulacji? Artykuł 5 AI Act przewiduje zakaz „technik podprogowych” oraz „wykorzystywania podatności określonych grup”, ale czy te zapisy realnie chronią użytkowników?
Manipulacja – niedopowiedziany problem w AI Act
Manipulacja to jeden z najbardziej problematycznych aspektów działania sztucznej inteligencji. Wynika to z faktu, że AI, w przeciwieństwie do tradycyjnych narzędzi perswazji, potrafi dynamicznie dostosowywać się do użytkownika, analizując jego zachowania, emocje i schematy decyzyjne. Regulacje powinny więc uwzględniać nie tylko techniki wpływu bezpośredniego, ale także strukturalne mechanizmy kształtujące wybory użytkowników.
Artykuł 5 AI Act podejmuje próbę zakazania systemów AI, które „manipulują ludźmi na poziomie podświadomym” lub „wykorzystują podatność określonych grup”. Problem polega na tym, że brakuje jednoznacznej definicji tych pojęć. Co dokładnie oznacza „podświadoma manipulacja”? Czy mowa jedynie o technikach przypominających klasyczne bodźce podprogowe, jak w reklamach z lat 50., czy także o subtelniejszych formach wpływu, takich jak personalizowana architektura decyzji? Czy „wykorzystywanie podatności” dotyczy tylko osób o określonych cechach demograficznych, czy również podatności behawioralnej wynikającej z heurystyk poznawczych, na które każdy człowiek jest narażony?
Luka między regulacją a rzeczywistością manipulacji
Z perspektywy ekonomii behawioralnej oraz etyki technologii, obecne brzmienie Artykułu 5 pozostawia znaczną lukę w ochronie użytkowników. Systemy AI mogą nie tyle działać na poziomie „podprogowym”, co stopniowo modelować preferencje i nawyki użytkowników. Proces ten, znany jako „shaping” (kształtowanie), nie polega na natychmiastowym skłonieniu użytkownika do określonego wyboru, lecz na długoterminowej zmianie jego priorytetów i postrzegania rzeczywistości. W takim ujęciu sztuczna inteligencja nie tyle narzuca decyzję, co zmienia ramy, w których decyzja jest podejmowana.
Regulacja AI Act nie bierze pod uwagę, że algorytmy rekomendacyjne mogą wpływać na użytkowników, selektywnie eksponując ich na określone treści w taki sposób, że z czasem kształtuje się u nich nowe wzorce myślenia. To szczególnie istotne w kontekście modeli predykcyjnych, które analizują, kiedy użytkownik jest najbardziej podatny na sugestię. W ten sposób można manipulować jego zachowaniem w sposób pozornie neutralny, ale skutecznie zmieniający jego decyzje.
Brak precyzyjnych definicji i konsekwencje dla ochrony użytkowników
Kolejnym problemem jest brak jasnego określenia, co dokładnie należy rozumieć przez „świadomą decyzję” użytkownika. W psychologii decyzji wiadomo, że ludzie nie zawsze działają racjonalnie – wpływ na ich wybory mają ograniczona uwaga, zmęczenie poznawcze i błędy heurystyczne. Jeśli systemy AI są projektowane w sposób, który eksploatuje te ograniczenia – np. poprzez stosowanie ciemnych wzorców interfejsu (dark patterns) lub manipulowanie kolejnością prezentowanych opcji – to użytkownik formalnie dokonuje wyboru, ale niekoniecznie w sposób świadomy.
Obecnie AI Act nie odnosi się do tych subtelnych, ale bardzo skutecznych form wpływu. W konsekwencji, nawet jeśli technologia AI nie stosuje klasycznych „technik podprogowych”, nadal może kształtować zachowania użytkowników w sposób, który pozostaje poza zakresem zakazanych praktyk.
Jakie zmiany są potrzebne?
Jeżeli celem regulacji ma być realna ochrona użytkowników, AI Act powinien uwzględniać kilka kluczowych elementów. Po pierwsze, należy rozszerzyć definicję manipulacji tak, aby obejmowała nie tylko wpływ podprogowy, ale również długoterminowe modelowanie preferencji i wykorzystanie podatności poznawczej.
Po drugie, regulacje powinny obejmować personalizowane architektury decyzji, które w sposób dynamiczny dostosowują interfejs i sposób prezentowania informacji w celu zwiększenia skuteczności perswazji. Sztuczna inteligencja ma zdolność analizy słabych punktów użytkownika – czy to poprzez śledzenie jego zachowań w sieci, czy analizę jego emocjonalnej reakcji na różne bodźce. Jeśli AI wykorzystuje te dane do kształtowania interakcji w sposób, który ogranicza autonomię decyzyjną, powinno to podlegać regulacji.
Po trzecie, kluczowe jest precyzyjne zdefiniowanie technik manipulacyjnych i ich rozróżnienie od legalnych form personalizacji. Nie każda personalizacja jest manipulacją, ale jeśli system dynamicznie dostosowuje się do użytkownika w celu skłonienia go do określonego działania, to przestaje być neutralnym narzędziem, a staje się środkiem wpływu.
Ostatecznie, regulacje powinny uwzględniać konieczność audytów i transparentności w projektowaniu AI. Firmy stosujące AI w sposób wpływający na decyzje użytkowników powinny podlegać obowiązkowi ujawnienia, jakie mechanizmy decyzyjne są stosowane oraz jakie heurystyki mogą być wykorzystywane w interfejsie użytkownika.
Podsumowanie
Artykuł 5 AI Act jest pierwszym krokiem w stronę ochrony użytkowników przed manipulacją ze strony sztucznej inteligencji, ale jego obecne brzmienie jest niewystarczające. Pomija mechanizmy długoterminowego modelowania preferencji, dynamiczne architektury wyboru i subtelne formy wpływu, które nie są bezpośrednio „podprogowe”, ale skutecznie zmieniają zachowania użytkowników. Jeśli regulacje mają nadążać za rzeczywistością AI, muszą uwzględniać nie tylko tradycyjne pojęcia manipulacji, ale także nowoczesne mechanizmy wpływu behawioralnego, które czynią systemy sztucznej inteligencji znacznie bardziej perswazyjnymi, niż mogłoby się wydawać.