Inżynieria zgody w erze post-truth: jak AI profiluje psychologicznie całe narody
Najpierw jest drobny impuls. Nagłówek, który trafia w nerw. Wideo, które „czuje się prawdziwe”, zanim w ogóle zdążysz je sprawdzić. Potem przychodzi fala. Komentarze, udostępnienia, oburzenie, ulga, śmiech, wstyd. I dopiero na końcu pojawia się myśl, która brzmi niepokojąco prosto: „To nie ja wybrałam/wybrałem tę emocję. Ona została mi podana”.
W erze post-truth prawda nie znika. Ona po prostu przestaje być jedyną walutą wpływu. Na pierwsze miejsce wchodzi coś bardziej pierwotnego: zgoda. Zgoda na narrację. Zgoda na „wrogów”. Zgoda na rozwiązania. Zgoda na to, co jeszcze wczoraj wydawało się nie do pomyślenia.
A gdy zgodę da się mierzyć, to da się ją też projektować.
AI nie musi „hipnotyzować” ludzi. Wystarczy, że potrafi przewidzieć, co Cię poruszy. A potem podsunąć to w idealnym momencie. W idealnym opakowaniu. Z idealnym akcentem na lęk, dumę, resentyment lub nadzieję.
Czym jest inżynieria zgody
Od propagandy do optymalizacji
Tradycyjna propaganda była jak megafon: jeden komunikat, jedna masa. Dziś megafon zastępuje silnik rekomendacji, a „przekaz” staje się serią mikro-przekazów dopasowanych do setek segmentów.
To nie jest już perswazja oparta na jednym argumentarium. To jest optymalizacja: ciągłe testowanie, co działa na kogo, gdzie i kiedy. Badania i analizy dotyczące psychografii, mikrotargetowania i kampanii danych pokazują, jak marketing polityczny przesuwa się w stronę „psy-ops-like” praktyk: precyzyjnego dopasowania komunikatu do profilu psychologicznego odbiorców.
Post-truth jako środowisko, nie epizod
W post-truth nie chodzi o to, że „ludzie lubią kłamstwa”. Chodzi o to, że informacja konkuruje o Twoją uwagę w warunkach przeciążenia, a emocje są krótszą drogą niż weryfikacja.
Z perspektywy inżynierii zgody liczy się nie to, czy komunikat jest prawdziwy, tylko czy jest skuteczny: czy przestawia Twoje poczucie tego, co normalne, możliwe i konieczne.
Jak AI profiluje psychologicznie całe narody
„Profilowanie narodu” brzmi jak science fiction, ale w praktyce jest to złożenie trzech rzeczy: danych, modeli i dystrybucji.
1) Dane: cyfrowy odcisk palca zbiorowości
AI nie potrzebuje znać Twojego imienia. Wystarczy, że widzi:
- co klikasz i jak długo zostajesz,
- jakie słowa wywołują reakcję,
- jakie tematy powodują „odruch udostępnienia”,
- kiedy jesteś najbardziej podatna/podatny na impuls.
To wszystko składa się na sygnatury populacyjne: wzorce zachowań, które da się liczyć i porównywać między regionami, grupami wiekowymi i bańkami informacyjnymi.
2) Modele: psychometria w wersji przemysłowej
Tu pojawia się kluczowy fakt, który wciąż bywa niedoceniany: z prostych śladów cyfrowych da się statystycznie przewidywać cechy wrażliwe. Klasyczne badanie Kosinskiego i współautorów pokazało, że z samych „polubień” w mediach społecznościowych można przewidywać m.in. cechy osobowości i inne wrażliwe atrybuty.
To nie znaczy, że model „czyta duszę”. To znaczy, że przy dużych zbiorach danych ludzkie wybory stają się przewidywalne statystycznie.
3) Skala: od jednostki do mapy kraju
Kiedy łączysz psychometrię z geografiami uwagi, dostajesz mapę:
- gdzie dominuje lęk przed chaosem,
- gdzie działa opowieść o upokorzeniu,
- gdzie ludzie reagują na „silną rękę”,
- gdzie wystarczy iskra, by zapłonęła fala.
To nie musi być oficjalna „lista psychologiczna obywateli”. Częściej jest to model segmentów: setki profili zachowań i emocji, które da się uruchamiać komunikacją.
Pipeline wpływu: od danych do zgody
Prawdziwa siła nie leży w jednym narzędziu, tylko w procesie.
Zbieranie i łączenie danych
Dane mogą pochodzić z platform, brokerów danych, ankiet, aplikacji, konkursów, testów osobowości, a także z pośrednich wskaźników. Wątek Cambridge Analytica stał się symbolem tej epoki właśnie dlatego, że pokazał, jak „niewinne” mechanizmy danych mogą zostać wciągnięte w polityczny targeting.
Modelowanie: scoring i podatności
Model nie musi mówić „ten człowiek zagłosuje tak”. Wystarczy, że mówi:
- „ta osoba jest podatna na przekaz X”,
- „w tej grupie działa strach, nie argument”,
- „tu najlepiej zagrać obrazem, nie tekstem”.
Testowanie: A/B na emocjach
Najbardziej niepokojący moment to ten, w którym przekaz przestaje być „ideą”, a staje się eksperymentem. Setki wersji komunikatu konkurują, a wygrywa ta, która daje lepszy wynik: klik, udostępnienie, wzrost nieufności, spadek zaufania do instytucji, polaryzacja.
Dystrybucja: rekomendacje i reklamy
Tu wchodzą dwa światy:
- algorytmy feedu i rekomendacji (co widzisz „naturalnie”),
- reklamy polityczne i issue-ads (co jest „pchane” do segmentu).
UE próbuje regulować ten obszar, m.in. przez Rozporządzenie (UE) 2024/900 dotyczące przejrzystości i targetowania reklamy politycznej.
Skutek uboczny jest ironiczny: część platform zapowiedziała w UE zakończenie przyjmowania reklam politycznych, argumentując zbyt wysoką złożoność i ryzyko prawne.
AI w operacjach wpływu: automatyzacja „środka” kampanii
Ważne jest, żeby nie wpaść w bajkę o „AI, która sama steruje wyborami”. Raporty o nadużyciach pokazują coś bardziej realistycznego: modele AI bywają używane do przyspieszania i skalowania etapów pośrednich, takich jak research, dopracowywanie narracji, wariantowanie treści, dopasowanie tonu, tłumaczenia, planowanie dystrybucji.
To wystarczy, by obniżyć koszt manipulacji i zwiększyć jej tempo.
„Profil narodu” jako broń miękka
Są dwa sposoby myślenia o narodzie.
Pierwszy to opowieść: wspólnota, historia, symbole, trauma i duma.
Drugi to telemetria: wskaźniki uwagi, emocji, reakcji, progów pobudzenia i odporności.
Inżynieria zgody wybiera drugie. Bo telemetria daje przewagę: pozwala nie tyle „przekonać”, co ustawić warunki, w których ludzie sami dochodzą do „oczywistego” wniosku.
To jest sedno: najlepsza manipulacja nie wygląda jak przymus. Wygląda jak Twój własny wniosek.
Reguły gry w Europie: przejrzystość, ryzyka systemowe i nowe zakazy
Europa buduje kilka warstw ochrony:
Reklama polityczna: przejrzystość i ograniczenia targetowania
Rozporządzenie (UE) 2024/900 ma wspierać przejrzystość reklamy politycznej oraz ograniczać ryzyka manipulacji i ingerencji zewnętrznej, w tym poprzez zasady targetowania opartego o dane osobowe.
DSA: ryzyka systemowe i wybory
Digital Services Act wprowadza ramę odpowiedzialności i nadzoru nad bardzo dużymi platformami, w tym w obszarach ryzyk dla procesów wyborczych i przejrzystości systemów rekomendacji oraz reklam. Komisja publikuje też wytyczne dotyczące ograniczania ryzyk dla wyborów.
AI Act: zakazane praktyki manipulacyjne
W UE wchodzą też zakazy dotyczące pewnych szczególnie szkodliwych zastosowań AI, m.in. w obszarze manipulacji i wykorzystywania podatności.
Jak się bronić: osobisty firewall na erę post-truth
Nie musisz zostać ekspertem od regulacji. Wystarczy, że odzyskasz trzy kompetencje: tempo, źródło i ślad.
Tempo: opóźnij impuls
Największą dźwignią inżynierii zgody jest pośpiech. Zrób coś pozornie małego:
- jeśli coś Cię oburza, daj sobie 90 sekund,
- zanim udostępnisz, zadaj jedno pytanie: „czy to mnie informuje, czy mnie uruchamia?”.
To nie jest moralność. To jest technika.
Źródło: patrz na pochodzenie treści
W świecie generatywnych deepfake’ów rośnie znaczenie standardów pochodzenia mediów. C2PA i Content Credentials próbują tworzyć „etykietę odżywczą” dla treści: skąd pochodzi, czy było edytowane, czy użyto AI. To nie jest magiczna tarcza, ale jest kierunkiem, w który idzie branża.
Ślad: ogranicz profilowanie tam, gdzie możesz
- korzystaj z opcji feedu nieopartego na profilowaniu, jeśli platforma go oferuje (DSA idzie w stronę większej przejrzystości i alternatyw).
- sprawdzaj biblioteki reklam politycznych tam, gdzie istnieją (to narzędzie transparentności, choć nie idealne).
Konkluzja: post-truth nie wygrywa, jeśli Ty przestajesz być automatem
AI profiluje narody nie dlatego, że jest „wszechmocna”. Profiluje, bo my zostawiamy ślady, a systemy dystrybucji są zbudowane tak, by te ślady monetyzować i wykorzystywać.
Twoja przewaga nie polega na tym, że zawsze odróżnisz prawdę od fałszu w sekundę. Twoja przewaga polega na tym, że potrafisz zatrzymać się na ułamek sekundy wcześniej niż impuls.
I wtedy zgoda przestaje być projektem cudzej maszyny. Zaczyna być Twoją decyzją.
Źródła
Poniżej podaję linki aktywne (klikane) w formie listy:
- Kosinski, Stillwell, Graepel (2013), PNAS: przewidywanie cech wrażliwych z cyfrowych śladów (Facebook Likes).
- Bakir (2020), Frontiers in Communication: analiza psychografii i mikrotargetowania w kontekście Cambridge Analytica.
- ICO (2018) – raport o analityce danych w kampaniach politycznych (UK).
- ICO – materiały o Cambridge Analytica i targetowaniu wyborców.
- Rozporządzenie (UE) 2024/900: przejrzystość i targetowanie reklamy politycznej (EUR-Lex summary).
- Wytyczne KE dot. wdrożenia Rozporządzenia 2024/900 (EUR-Lex).
- UODO (PL): informacja o stosowaniu przepisów od 10 października 2025 r.
- Digital Services Act: strona KE + objaśnienia przejrzystości i obowiązków dla VLOP.
- KE: wytyczne dot. ograniczania ryzyk systemowych dla procesów wyborczych (DSA).
- KE: integracja Code of Practice on Disinformation z DSA (komunikat).
- OpenAI (2024): raport o operacjach wpływu i cyber (threat intelligence).
- OpenAI (2025): raport o zakłócaniu złośliwych użyć AI (case studies).
- C2PA: specyfikacja i opis standardu Content Credentials (pochodzenie treści).
- Adobe: przegląd Content Credentials jako „etykiety” dla treści.
- Reuters/Axios: decyzja Meta o wstrzymaniu reklam politycznych w UE od października 2025 r.
Meta
Fraza kluczowa: inżynieria zgody AI
Tytuł SEO: Inżynieria zgody w erze post-truth: jak AI profiluje psychologicznie narody
Opis SEO: AI potrafi modelować emocje i segmentować całe społeczeństwa, a potem testować przekazy jak kampanie A/B. Zobacz, jak działa inżynieria zgody, co mówią badania o profilowaniu psychologicznym, jakie regulacje wprowadza UE i jak zbudować osobisty firewall na erę post-truth.
Zapisz się do Newslettera
Jeśli chcesz dostawać tylko interesujące materiały — bez spamowania — zapisz się do newslettera Ukrytego Porządku i bądź na bieżąco z tym, co naprawdę przesuwa granice mapy.
