Groźby terrorystyczne online jako wyzwanie dla mediów
Cyfrowy „performans zagrożenia” zamiast wyłącznie fizycznych zamachów
Groźby terrorystyczne online rzadko mają dziś postać jednorazowego, anonimowego maila. Częściej przypominają starannie reżyserowany „performans” w przestrzeni cyfrowej: nagrania wideo w stylu trailerów filmowych, manifesty publikowane na platformach zewnętrznych, zapowiedzi na zamkniętych kanałach i ich kontrolowane „przecieki” do mediów. Celem nie jest wyłącznie przeprowadzenie ataku, lecz wywołanie długotrwałego efektu psychologicznego – lęku, niepewności, poczucia, że „wszędzie może być zagrożenie”.
Terroryści i ekstremiści szybko zrozumieli, że spektakl online ma podobną wartość jak sam czyn. Groźba może być użyta jako samodzielne narzędzie: nie musi zostać spełniona, aby osiągnąć efekt polityczny lub propagandowy. Wystarczy, że media masowo ją podchwycą, a odbiorcy będą ją powtarzać w sieci. W takiej logice media stają się nie tylko obserwatorami, ale częścią scenariusza – im bardziej emocjonalne nagłówki, tym lepiej dla inicjatorów groźby.
Na poziomie operacyjnym groźby terrorystyczne online są często projektowane z myślą o mechanizmach medialnych: godzinach największej oglądalności, typowych reakcjach stacji informacyjnych, dynamice social mediów. Powstaje sprzężenie zwrotne: zamachowiec kalkuluje, że im bardziej spektakularna forma (np. wideo stylizowane na grę komputerową, transmisja na żywo), tym większa szansa na relacje na głównych antenach. Skutkiem jest presja na redakcje, aby „nie przegapić” wydarzenia, nawet kosztem refleksji, jaką rolę odgrywają w całym przedstawieniu.
Wiarygodne zagrożenie a „teatr terroru”
Media bardzo często wrzucają do jednego worka wszystkie groźby – od poważnych, po kompletnie fikcyjne, ale medialnie atrakcyjne. Tymczasem z punktu widzenia bezpieczeństwa i odpowiedzialności redakcyjnej kluczowe jest rozróżnienie między groźbą wiarygodną a „teatrem terroru”.
Groźby wiarygodne to takie, za którymi stoją realne możliwości sprawcy (dostęp do broni, materiałów wybuchowych, sieci wsparcia) albo konkretne działania przygotowawcze, o których wiedzą służby. Często są one dla mediów najmniej spektakularne, bo toczy się wokół nich cicha praca operacyjna, a informacja ujawniana jest w sposób kontrolowany. W skrajnych przypadkach opinia publiczna dowiaduje się o nich dopiero po udaremnieniu ataku.
„Teatr terroru” to z kolei cała gama komunikatów nastawionych wyłącznie na rozgłos: anonimowe wpisy na forach, nagrania nagłaśniające „lojalność” wobec znanych organizacji, groźby kierowane do celebrytów, szkół, instytucji publicznych. Tu kluczowy jest nie potencjał realnego ataku, lecz potencjał medialny. W tym sensie media są dla sprawców nie narzędziem informacji, a darmową agencją reklamową. Każda czołówka serwisu, każdy pasek informacyjny i każdy cytat z groźby to dla nich potwierdzenie skuteczności strategii.
Rozróżnienie między tymi kategoriami jest oczywiście zadaniem służb i ekspertów, nie tylko dziennikarzy. Jednak redakcje mogą wprowadzać praktyczne zasady: nie relacjonować anonimowych gróźb bez weryfikacji, nie cytować ich w całości, nie ilustrować każdego maila bombą na czerwonym tle. Im bardziej widowiskowa oprawa, tym bliżej media do roli reżysera „teatru terroru”, a nie krytycznego obserwatora.
Media jako przyspieszacz obiegu gróźb
Ekosystem groźby terrorystycznej online działa jak system naczyń połączonych. Sygnał pojawia się często w niszowej przestrzeni – zamkniętym czacie, małym forum, grupie na komunikatorze. Żeby przebić się do szerokiej świadomości, musi trafić na „przyspieszacz”: duży profil w social media, rozpoznawalnego influencera, serwis informacyjny lub stację telewizyjną. W momencie, gdy trafi na główny obieg, zamienia się w zjawisko masowe.
Tradycyjnie to media były głównym filtrem. Dziś filtr jest podwójny: z jednej strony redakcje, z drugiej – algorytmy platform społecznościowych. Oba filtry kierują się częściowo podobną logiką: zasięg, zainteresowanie, emocje. W efekcie groźby terrorystyczne online są premiowane jako treści „klikalne”. Materiał o kolejnej groźbie w szkole, przesłanej mailem, potrafi wygenerować więcej wejść niż spokojna analiza działań prewencyjnych. To nie jest przypadek, tylko funkcja systemu.
Gdy groźba zostanie raz „podchwycona”, mechanizm jest dobrze znany: cytaty w mediach, screeny w social mediach, komentarze polityków, reakcje influencerów. Z punktu widzenia odbiorcy wrażenie jest proste: „wszędzie wokół grozi nam atak”. Nawet jeśli w praktyce służby klasyfikują większość takich przypadków jako niskiego ryzyka, komunikat zbiorowy jest inny. Tak właśnie sama groźba – bez ataku – może realizować cele terrorystów.
Presja szybkości kontra weryfikacja i minimalizacja szkód
Każda redakcja żyje pod rosnącą presją szybkości: „bądź pierwszy”, „wejdź z live’em”, „daj pasek”. Taki model pracy jest szczególnie niebezpieczny w odniesieniu do gróźb terrorystycznych online. Informacja często jest niepełna, źródła – niesprawdzone, a intencje sprawcy – niejasne. Mimo to bieżący model newsroomu premiuje pierwszą publikację, nie najdokładniejszą.
Z drugiej strony istnieje obowiązek minimalizacji szkód: nie wywoływać nieuzasadnionej paniki, nie naruszać działań służb, nie uprzywilejowywać scenariusza sprawcy. Powstaje realne napięcie: każda minuta opóźnienia zwiększa ryzyko, że „konkurencja już to ma”, ale każda pochopna publikacja zwiększa ryzyko zrobienia dokładnie tego, czego chce autor groźby.
Rozwiązaniem nie jest więc proste „publikujmy wszystko” albo „ukrywajmy wszystko”. Instytucje medialne potrzebują konkretnych, spisanych procedur na wypadek groźby terrorystycznej w sieci: kto decyduje o publikacji, jakie pytania muszą być zadane (służbom, ekspertom, prawnikom), czy istnieje wewnętrzny standard opisu zdarzenia. Bez takich narzędzi dziennikarz zostaje sam, a decyzje podejmuje pod wpływem emocji i strachu przed utratą „newsa”.

Między wolnością słowa a bezpieczeństwem: fundamenty sporu
Liberalny odruch: nieograniczona debata i lęk przed cenzurą
W demokracjach reakcją odruchową na każdy postulat ograniczenia treści jest obawa przed cenzurą. Historyczne doświadczenia – zarówno ustrojów autorytarnych, jak i mniej jaskrawych form nacisku politycznego – uczą, że zakazów łatwo nadużyć. Argument „z bezpieczeństwa” bywał wykorzystywany do tłumienia opozycji, mniejszości, niewygodnych dziennikarzy. Nic dziwnego, że każde hasło „zablokujmy ekstremistów w mediach” natychmiast spotyka się z pytaniem: „Kto zdefiniuje, kto jest ekstremistą?”.
Ten liberalny odruch ma swoje racjonalne podstawy. Rozbudowana debata, także na trudne i niewygodne tematy, pozwala ujawniać napięcia i rozwiązywać je w przestrzeni publicznej, a nie podziemiu. Zakaz publikowania pewnych idei może prowadzić do ich przeniesienia do zamkniętych baniek, gdzie stają się jeszcze bardziej radykalne. Co więcej, jawna obecność radykalnych poglądów ułatwia służbom ich monitorowanie.
Z drugiej strony absolutyzowanie zasady „żadnych zakazów” ignoruje fakt, że terroryści traktują wolność słowa instrumentalnie. Wykorzystują otwartą przestrzeń medialną nie po to, by uczestniczyć w debacie, ale by ją rozbić, zastraszyć i wywrzeć polityczny szantaż. W tym sensie wolność słowa bez jakichkolwiek ograniczeń może zostać użyta do podcięcia gałęzi, na której sama siedzi.
Bezpieczeństwo publiczne i logika prewencji
Z drugiej strony sporu stoi logika bezpieczeństwa publicznego i służb. Zakłada ona, że im mniej przestrzeni dla propagandy ekstremistycznej, tym mniejsze ryzyko radykalizacji. Jeśli groźby terrorystyczne online nie będą szeroko nagłaśniane, trudniej będzie rekrutować sympatyków, podsycać atmosferę strachu, testować reakcje państwa.
Taka perspektywa jest częściowo słuszna – istnieją badania pokazujące, że intensywna obecność materiałów propagandowych zwiększa prawdopodobieństwo radykalizacji podatnych osób. Problem polega na tym, że logika prewencji ma tendencję do rozszerzania się: skoro nie wiemy, która treść faktycznie zaszkodzi, „lepiej usunąć za dużo niż za mało”. To zaś otwiera drzwi do nadużyć, nadgorliwości i faktycznej cenzury.
Co istotne, logika służb jest z natury niejawna. Decyzje o blokowaniu czy monitoringu często oparte są na materiałach utajnionych, którymi nie można dzielić się publicznie. Dla mediów i obywateli oznacza to brak transparentności – trudno ocenić, czy ograniczenie wolności słowa było konieczne, skoro nie widać pełnego uzasadnienia. W efekcie zaufanie do instytucji może spadać, a teorie spiskowe – rosnąć.
Rola mediów jako brakującego elementu układanki
Zarówno zwolennicy maksymalnej wolności słowa, jak i zwolennicy maksymalnej prewencji często pomijają jednego aktora: media. Debata toczy się wokół relacji „obywatel – państwo” lub „obywatel – platforma”, jakby dziennikarze byli tylko biernymi przekaźnikami. Tymczasem to właśnie redakcje, wydawcy, producenci programów decydują, jak i w jakim kontekście pokazane zostaną groźby terrorystyczne online.
Na tej płaszczyźnie można postawić bardziej precyzyjne pytania niż ogólne „czy cenzurować”. Bardziej użyteczne są dylematy typu: „Czy cytować dosłownie każde hasło z manifestu?”, „Czy pokazywać twarz i imię sprawcy?”, „Czy ilustrować groźbę filmem nagranym przez niego samego?”. To są decyzje redakcyjne, a nie rozstrzygnięcia Trybunału Konstytucyjnego.
Zyskujemy wtedy trzecią drogę: minimalizację szkód poprzez sposób relacjonowania. Groźby mogą zostać opisane, ale bez dodawania im siły rażenia. Media nie muszą udawać, że nic się nie dzieje, ale nie muszą też być megafonem każdego, kto w sieci potrafi napisać „podłożę bombę”.
Cenzura państwowa, moderacja platform, samoregulacja redakcji
Rozsądna debata wymaga rozróżnienia trzech poziomów ograniczeń:
- Cenzura formalna (państwowa) – gdy prawo zakazuje określonych treści pod groźbą sankcji, a sądy lub organy administracji nakazują ich usunięcie.
- Moderacja prywatna (platformy cyfrowe) – gdy serwisy społecznościowe czy hostingowe wprowadzają własne reguły i algorytmy blokowania treści ekstremistycznych.
- Samoregulacja redakcyjna – gdy media ustalają własne standardy etyczne i praktyczne, np. zasady „no notoriety”.
W publicznej dyskusji wszystkie te formy bywają wrzucane do worka „cenzura”, co utrudnia sensowną ocenę. Tymczasem każda z nich niesie inne ryzyka. Państwo ma potencjał największej opresji, ale również najsilniejszą legitymację, jeśli działa zgodnie z prawem i pod kontrolą sądów. Platformy dysponują ogromną władzą technologiczną, ale ich decyzje są często arbitralne i trudno zaskarżalne. Samoregulacja redakcji jest najbardziej elastyczna, ale też narażona na wewnętrzne naciski i błędy.
Kluczowe pytanie brzmi więc nie: „czy ograniczać”, ale: „jak, kiedy i przez kogo”. Inny zestaw narzędzi będzie adekwatny w sytuacji bezpośredniego nawoływania do zamachu, a inny przy relacjonowaniu manifestu, który już i tak krąży w zamkniętych grupach. Zamiast jednego dogmatu – potrzebna jest macierz decyzji, w której każde narzędzie ma jasno określone granice.

Jak media wzmacniają przekaz terrorystów – mechanizmy, o których rzadko się mówi
Efekt megafonu: gdy redakcja staje się głośnikiem propagandy
Najbardziej oczywisty, a jednocześnie najczęściej bagatelizowany mechanizm to efekt megafonu. Terroryści tworzą treści z myślą o tym, że ktoś je nagłośni. Media z kolei, kierowane logiką „informowania o wszystkim, co ważne”, często dokładnie to robią. Skutek: materiał, który bez udziału mediów zobaczyłoby kilkaset osób w niszowej grupie, nagle trafia do milionów widzów w głównym wydaniu wiadomości.
Mechanizm ten działa szczególnie silnie, gdy redakcje cytują groźby bez krytycznego komentarza, w duchu: „Otrzymaliśmy taką groźbę, cytujemy w całości, bo każdy musi wiedzieć”. To prosta droga do przekształcenia zjawiska marginalnego w ogólnokrajową „sprawę narodową”. Co gorsza, często brakuje kontekstu: informacji o tym, że podobne groźby wysyła się masowo, że zdecydowana większość okazuje się fałszywa, że służby mają konkretne narzędzia reakcji.
Czasem wystarczyłaby zmiana akcentów: zamiast odczytywać groźbę krok po kroku, lepiej skupić się na faktach – jak reagują służby, jakie są procedury bezpieczeństwa, co realnie wynika z sytuacji dla mieszkańców danego miasta czy użytkowników danej platformy. Innymi słowy: przenieść ciężar z „co mówi sprawca” na „co robi państwo i społeczeństwo, żeby zminimalizować ryzyko”. Dla terrorystów to ogromna różnica: z roli reżysera przechodzą do roli tła.
Popularna rada brzmi: „Ignorować, nie nagłaśniać”. Sprawdza się przy jednostkowych, ewidentnie trollingowych wpisach, które bez uwagi mediów znikną w cyfrowym szumie. Przestaje działać, gdy groźba – choćby wątpliwa – ma realne skutki: ewakuacje, godziny pracy służb, panikę w szkołach. Wtedy milczenie nie jest neutralne, bo brak rzetelnej informacji zostanie zastąpiony plotką. Rozsądek leży gdzie indziej: informować o skutkach i działaniach, ale nie promować samego komunikatu grożącego.
Istnieją tu całkiem konkretne techniki: brak linkowania do oryginalnych materiałów, rezygnacja z pełnych cytatów na rzecz parafrazy, kadrowanie tak, by nie tworzyć rozpoznawalnego „logo” zamachowca. To nie jest kosmetyka – z badań nad poprzednimi falami terroryzmu wiadomo, że rozpoznawalny wizerunek i nazwa organizacji wzmacniają rekrutację. Ograniczając rozpoznawalność, media nie „ukrywają prawdy”, lecz odmawiają darmowej usługi marketingowej.
Kontrkonstrukcja jest prosta: zamiast wielkiej sceny dla groźby, więcej przestrzeni dla osób, które ją neutralizują – śledczych, analityków, specjalistów od bezpieczeństwa cyfrowego. Wtedy oś opowieści zmienia się z „sprawca kontra bezbronni obywatele” na „sprawca kontra system odporny na szantaż”. W percepcji odbiorców to często kluczowe przesunięcie.
W świecie, w którym każdy może opublikować groźbę terrorystyczną jednym kliknięciem, napięcie między wolnością słowa a bezpieczeństwem nie zniknie. Może być jednak zarządzane rozsądniej – pod warunkiem, że media przestaną udawać, iż są tylko biernym lustrem rzeczywistości, i świadomie wezmą odpowiedzialność za to, komu i w jakiej formie udostępniają swoją scenę.
Algorytmy, ekonomia uwagi i „nagrody” dla groźby
Świadome decyzje redakcji to tylko połowa historii. Druga rozgrywa się w miejscach, o których mało kto myśli, pisząc materiał: w algorytmach dystrybucji treści i ekonomii uwagi. W tradycyjnych mediach to redaktor decydował, co trafi na pierwszą stronę. W środowisku cyfrowym tę rolę przejmują algorytmy platform, które „widzą” przede wszystkim dwa wskaźniki: emocje i zaangażowanie.
Groźba terrorystyczna, nawet jeśli przedstawiona w krytycznym kontekście, jest pod tym względem idealnym „produktem”. Wywołuje lęk, oburzenie, ciekawość. Użytkownicy klikają, komentują, przesyłają dalej. Algorytm nie odróżnia: nie interesuje go, czy użytkownik popiera groźbę, czy ją potępia. Dla systemu to ten sam sygnał: treść jest „angażująca”, więc należy ją wypchnąć wyżej.
Tu ujawnia się paradoks: redakcja może działać odpowiedzialnie – unikać sensacyjnego tonu, nie używać clickbaitowych tytułów – a i tak tekst o groźbie będzie w sieci promowany bardziej niż rzeczowa analiza polityki antyterrorystycznej. Platforma dostarcza „nagrody” w postaci zasięgu, a zasięg zachęca do produkowania kolejnych materiałów na podobny temat. Nie trzeba złej woli, wystarczy zwykła presja wyników.
Popularna rada, by „nie klikać w takie treści”, jest częściowo trafna, ale za naiwna. Odbiorca nie widzi wszystkich mechanizmów po drodze: już samo to, że tekst wyświetla się wysoko na stronie głównej lub w sugestiach, jest rezultatem wcześniejszych decyzji tysięcy innych osób. Alternatywa leży raczej po stronie mediów i platform – w zmianie sposobu mierzenia „sukcesu” materiału.
Praktycznym krokiem może być przestawienie części redakcji z logiki „kliknięć ogółem” na logikę „czasu sensownego zaangażowania” – ile minut czytelnik spędza na materiale, czy przechodzi do analiz, kontekstu, wywiadów ze specjalistami. Tego typu wskaźniki nie eliminują pokusy grania groźbami, ale przynajmniej częściowo ją osłabiają. Zamiast krótkiego szoku premiują treści, które wymagają skupienia.
Estetyka przemocy: obrazy, które zostają w głowie dłużej niż słowa
Drugim, często niedocenianym kanałem wzmacniania przekazu są obrazy. Terroryści od dawna wiedzą, że estetyka przemocy działa równie silnie jak hasła ideologiczne. Kadry z zamaskowaną postacią, manifest odczytywany przed flagą organizacji, ujęcia z kamer „z pierwszej osoby” – to wszystko zostało zaprojektowane tak, by budować mitologię siły i determinacji.
Nawet jeśli redakcja nie powtarza wprost propagandowych sloganów, wystarczy, że wykorzysta kadr z oryginalnego nagrania jako ilustrację artykułu. Dla wielu odbiorców to właśnie obraz, a nie kontekst, będzie głównym nośnikiem znaczenia. Co więcej, te same zdjęcia będą potem żyły własnym życiem w mediach społecznościowych, często już bez podpisów i komentarza, w którym pierwotnie je osadzono.
Popularna praktyka „zaciemniania” twarzy czy zamazywania logotypów bywa dobrej jakości kompromisem, ale nie zawsze. Zdarza się, że rozmycie twarzy zamachowca nadaje mu aurę tajemniczości, a charakterystyczna stylizacja czy rekwizyty i tak czynią go rozpoznawalnym dla potencjalnych sympatyków. Z drugiej strony całkowita rezygnacja z obrazów może zredukować materiał do abstrakcyjnej informacji, przez co odbiorcy nie docenią wagi zagrożenia.
Rozsądniejsza droga biegnie pośrodku. Zamiast powielać wizerunki tworzone przez samego sprawcę, można sięgać po neutralne wizualizacje: grafiki schematycznie pokazujące przebieg zdarzenia, zdjęcia działań służb, mapy, ujęcia z konferencji prasowych. W ten sposób wizualna warstwa przekazu zostaje „przejęta” przez instytucje reagujące, a nie przez tych, którzy grożą.
W jednej z głośnych spraw redakcja telewizyjna zdecydowała się pokazać jedynie statyczne plansze z krótkimi komunikatami służb, całkowicie rezygnując z materiału wideo przesłanego przez sprawcę. Stacja zebrała krytykę za „brak odwagi pokazania prawdy”, ale efekt był taki, że to prokurator, a nie zamachowiec, stał się twarzą całego wydarzenia. To przykład, że również w warstwie wizualnej da się przesunąć oś opowieści.
Normalizacja i znieczulenie: gdy groźby stają się „kolejnym newsem”
Inny problem zaczyna się tam, gdzie kończy się szok. Powtarzane regularnie groźby – niezależnie od ich wiarygodności – mogą prowadzić do normalizacji. Gdy niemal codziennie w serwisach informacyjnych pojawia się news o „kolejnej ewakuacji centrum handlowego po anonimowej groźbie”, odbiorcy przestają odróżniać sytuacje realnie niebezpieczne od medialnego tła.
Na poziomie społecznym rodzi to dwa skrajne zagrożenia. Z jednej strony: zobojętnienie. Obywatele zaczynają ignorować ostrzeżenia, przestają reagować na komunikaty bezpieczeństwa, zakładają, że „to znowu fałszywy alarm”. Z drugiej strony: stały, podprogowy lęk, wrażenie, że terror jest czymś wszechobecnym i nieuchronnym, co z kolei sprzyja spełnieniu oczekiwań szantażystów.
Tu znów wraca pytanie o sposób narracji. Redakcje często wybierają skrótową formułę: „kolejna groźba”, „kolejna ewakuacja”. Taki język sugeruje ciągłość, ale nie pozwala zrozumieć skali i charakteru zjawiska. Gdyby w podobnych materiałach częściej pojawiały się dane zbiorcze – liczba groźb w danym roku, odsetek fałszywych alarmów, informacja o tym, jakie konsekwencje prawne ponoszą autorzy – obraz sytuacji wyglądałby inaczej.
Kontrkoncepcja wobec „każda groźba osobnym newsem” jest prosta: łączyć pojedyncze przypadki w bardziej syntetyczne materiały. Zamiast codziennie informować o pojedynczej fałszywej groźbie, raz na tydzień przedstawić szerszy materiał o trendach, metodach działania służb, przykładach identyfikacji sprawców. Odbiorca dostaje wtedy mniej alarmistycznych powiadomień, ale więcej faktycznej wiedzy.
Prawo jako mapa, nie autopilot: kiedy regulacje zawodzą
Normy prawne dotyczące propagowania terroryzmu, mowy nienawiści czy nawoływania do przemocy są konieczne – bez nich trudno byłoby ścigać autorów poważnych gróźb. Problem zaczyna się wtedy, gdy prawo próbuje pełnić funkcję automatycznego filtra dla dynamicznej, cyfrowej rzeczywistości. Ustawy są z natury ogólne i powolne, internet – szczegółowy i szybki.
W wielu krajach wprowadzono przepisy nakazujące platformom „niezwłoczne” usuwanie treści terrorystycznych pod groźbą wysokich kar. Na papierze brzmi to rozsądnie. W praktyce prowadzi do nadmiernej asekuracji: platformy wolą usunąć więcej niż mniej, blokując nie tylko propagandę, ale też materiały dziennikarskie czy naukowe, które analizują zjawisko. W rezultacie badacze i reporterzy zgłaszają się po dostęp do treści… do policji, bo tylko tam można je jeszcze zobaczyć bez ryzyka usunięcia konta.
Popularna teza głosi, że „wystarczy doprecyzować definicje”, ale problem nie znika. Nawet najlepsza definicja „propagowania terroryzmu” nie odpowie na pytanie, czy artykuł cytujący fragment manifestu w celu jego krytyki powinien zostać zablokowany przez automat. Maszyna nie odróżni ironii od poparcia, krytyki od promocji, kontekstu od cytatu. Algorytmy moderacji treści, choć coraz bardziej zaawansowane, wciąż zawodzą w szarych strefach.
Sensowniejsze podejście zakłada, że prawo wyznacza ramy i minimalne standardy, a szczegółowe rozstrzygnięcia zapadają na poziomie polityk redakcyjnych i platformowych. Zamiast próbować uregulować każdy możliwy przypadek, legislator może wymagać przejrzystości procedur, niezależnych mechanizmów odwoławczych i regularnego audytu decyzji o usunięciu treści. Innymi słowy: mniej twardego katalogu zakazów, więcej wymuszonej transparentności i odpowiedzialności.
Granica „uzasadnionego interesu publicznego”
Jednym z centralnych pojęć, na które powołują się zarówno redakcje, jak i sądy, jest interes publiczny. Informowanie o groźbie terrorystycznej często uzasadnia się właśnie tak: „obywatele mają prawo wiedzieć”. Problem w tym, że to pojęcie wyjątkowo pojemne. Można pod nie podciągnąć zarówno krytyczną analizę polityki bezpieczeństwa, jak i publikację wszystkich szczegółów anonimu, który grozi wysadzeniem kina, o ile nie otrzyma określonej kwoty.
Jeśli interes publiczny ma być czymś innym niż wygodnym alibi, potrzebuje kryteriów. Kilka z nich powtarza się w praktyce lepszych redakcji:
- czy ujawnienie szczegółów groźby realnie zwiększy bezpieczeństwo odbiorców (np. dzięki precyzyjnym wskazówkom, jak się zachować),
- czy dana informacja dotyczy działań władz i służb, które podlegają społecznej kontroli,
- czy publikacja nie stwarza dodatkowego ryzyka naśladowców poprzez opis „instrukcji” działania,
- czy treść można zrozumieć bez cytowania najbardziej drastycznych fragmentów komunikatu sprawcy.
Interes publiczny nie jest więc abstrakcyjnym hasłem, ale zestawem konkretnych pytań zadawanych przed publikacją. Jeśli odpowiedź na większość z nich brzmi „nie”, być może materiał powinien zostać ograniczony, przeformułowany albo całkowicie zarzucony.

Prawo, regulacje i ich granice: kiedy interwencja staje się cenzurą
Od zakazu treści do kontroli debaty
Regulacje antyterrorystyczne powstawały pierwotnie z bardzo wąskim celem: uniemożliwić organizacjom zbrojnym prowadzenie jawnej propagandy i rekrutacji. Z czasem jednak zakres ingerencji rozszerzał się – od zakazu emisji materiałów produkowanych przez konkretne organizacje, przez ściganie osób „pochwalających” zamach, aż po penalizację samoistnego „posiadania treści terrorystycznych” w wersji cyfrowej.
Granica między ochroną bezpieczeństwa a cenzurą przesuwa się zwykle stopniowo. Najpierw wyłącza się spod debaty najbardziej oczywiste przypadki: podręczniki konstruowania ładunków wybuchowych, instrukcje tworzenia broni biologicznej. Potem pojawia się pokusa, by obejmować przepisami szerzej rozumiane „usprawiedliwianie przemocy politycznej”. Ostatecznie w niektórych porządkach prawnych zaczyna się karać za publikację treści, które „mogą zostać odebrane” jako aprobata, niezależnie od intencji autora.
Dla mediów oznacza to realne ryzyko autocenzury. Dziennikarz, który analizuje manifest zamachowca, zaczyna się zastanawiać nie tylko nad etyką, ale też nad tym, czy prokurator nie uzna fragmentu tekstu za „rozpowszechnianie materiału terrorystycznego”. Redakcje, nie mając środków na ciągłe konsultacje prawne, wybierają bezpieczniejsze wyjście: rezygnują z trudniejszych analiz na rzecz powierzchownych relacji.
Popularny postulat, by „dać służbom większe uprawnienia kosztem wolności”, brzmi atrakcyjnie po każdym głośnym zamachu. Rzadko jednak towarzyszy mu pytanie, jakie będą efekty uboczne takiego ruchu w spokojniejszych czasach. Przy szeroko zdefiniowanych przestępstwach „propagowania terroryzmu” łatwo o instrumentalizację prawa wobec niewygodnych mediów czy organizacji pozarządowych badających nadużycia władzy. Nawet jeśli formalnie przepisy nie są do tego używane, sam ich potencjał działa mrożąco.
Platformy między młotem prawa a kowadłem rynku
Platformy cyfrowe znalazły się w szczególnie niewdzięcznej roli. Z jednej strony rządy oczekują, że będą skutecznie usuwać treści terrorystyczne, grożąc sankcjami za każdy „przeoczony” materiał. Z drugiej strony organizacje obywatelskie i część opinii publicznej oskarżają je o cenzurę i tłumienie legalnej debaty. Dodatkowo rynek premiuje wzrost zaangażowania, a więc – jak już była mowa – również kontrowersje i ekstremalne treści.
W odpowiedzi platformy stworzyły rozbudowane regulaminy dotyczące „treści niebezpiecznych”, „organizacji terrorystycznych” czy „mowy nienawiści”. W praktyce jednak większość decyzji o usunięciu konkretnego wpisu zapada automatycznie, na podstawie zgłoszeń użytkowników i detekcji algorytmicznej. System jest tani i skalowalny, ale mało precyzyjny. W efekcie ten sam algorytm potrafi zablokować zarówno nagranie propagandowe, jak i film dokumentalny, w którym badacz tłumaczy strategie rekrutacji.
Platformy lubią podkreślać, że „nie są mediami” i nie ponoszą odpowiedzialności za treści użytkowników. Jednocześnie jednak przejmują funkcje redakcyjne: decydują, co zostanie pokazane, a co schowane; których użytkowników zablokować, których wpisy oznaczyć ostrzeżeniem. W praktyce działają więc jak ogromne, prywatne redakcje bez obowiązku przestrzegania standardów dziennikarskich czy przejrzystości decyzji.
Jedną z rzadko dyskutowanych alternatyw jest rozdzielenie funkcji hostingu i rekomendacji. Platforma mogłaby utrzymywać na serwerach również treści kontrowersyjne, ale niekoniecznie je promować ani proponować kolejnym użytkownikom. Wtedy decyzja, czy materiał zobaczyć, należałaby w większym stopniu do osób świadomie go wyszukujących, a nie do algorytmu, który „podsuwając” groźby, zamienia je w część masowej kultury.
Takie rozwarstwienie funkcji wymuszałoby na platformach jasne kryteria: czym innym jest „materiał na tyle niebezpieczny, że trzeba go usunąć”, a czym innym „materiał zbyt ryzykowny, by algorytm miał go aktywnie promować”. Dziś te dwie kategorie zlewają się w jedną, co prowadzi do zero-jedynkowych reakcji. Gdy rośnie presja polityczna, suwak bezpieczeństwa przesuwa się gwałtownie w stronę prewencyjnego usuwania, a dyskusja o tym, jak ograniczyć rekomendowanie takich treści, niemal znika.
Często przywoływana recepta brzmi: „oddajmy moderację w ręce niezależnych rad ekspertów”. To bywa zasadne przy ocenie najtrudniejszych przypadków, ale kompletnie się nie sprawdzi przy milionach codziennych decyzji – tempo internetu jest inne niż tempo pracy komisji. Bardziej realistyczny model to połączenie: automatyczne ograniczanie zasięgu i oznaczanie treści wysokiego ryzyka, a dopiero przy odwołaniach – wejście ludzi, w tym także zewnętrznych ekspertów, którzy patrzą na kontekst, a nie tylko na fragment wyrwany z całości.
Druga, mniej intuicyjna oś sporu dotyczy tego, kto ma mieć wpływ na reguły. Standardowa propozycja zakłada, że to państwo, poprzez szczegółowe przepisy, wymusi na platformach konkretny sposób moderacji. Przy groźbach terrorystycznych takie podejście łatwo jednak prowadzi do zlania się roli regulatora, służb i „cenzora” w jednej instytucji. Kontrpropozycją jest model wielostronny: przy stole siedzą regulator, przedstawiciele redakcji, platform, organizacji cyfrowych praw człowieka i – jeśli to możliwe – badacze radykalizacji. To nie gwarantuje idealnych decyzji, ale rozprasza władzę i utrudnia ciche przesuwanie granic w imię „walki z terroryzmem”.
W tle pozostaje pytanie o odpowiedzialność ekonomiczną. Dopóki biznesowy rdzeń platform opiera się na maksymalizacji czasu spędzanego w aplikacji, regulacja treści będzie przypominać gaszenie pożaru przy jednoczesnym podlewaniu lasu benzyną. Interwencje prawne, które nie dotykają modelu reklamowego i logiki rekomendacji, mogą poprawić sytuację na marginesie, ale nie zmienią faktu, że groźby terrorystyczne – tak jak inne skrajne treści – są dla algorytmów paliwem zwiększającym zaangażowanie. Dyskusja o „cenzurze” bez rozmowy o tym mechanizmie jest z definicji niepełna.
Ostatecznie spór o to, gdzie kończy się wolność słowa, a zaczyna odpowiedzialność za skutki słów, nie zostanie rozstrzygnięty ani jedną ustawą, ani jednym regulaminem platformy. Media, regulatorzy i odbiorcy będą się uczyć na błędach – także bolesnych. Im szybciej przyjmą do wiadomości, że całkowite bezpieczeństwo bez ryzyka nadużyć i absolutna wolność bez szkód są równie nierealne, tym więcej energii zostanie na projektowanie rozwiązań, które ograniczają szkody, nie zabijając przy tym przestrzeni na krytykę, śledztwa dziennikarskie i analizę zjawisk, które chcielibyśmy, żeby istniały wyłącznie w raportach służb, a nie w naszej codziennej debacie.
Dylemat redakcyjny: informować, minimalizując szkody
Strategie „odchudzania” przekazu sprawcy
Najprostsza porada brzmi: „nie pokazujmy manifestów i nagrań zamachowców”. Problem w tym, że całkowite ignorowanie treści sprawcy nie zawsze jest możliwe ani sensowne. Gdy groźby są wymierzone w konkretną grupę społeczną, przemilczenie motywacji może zostać odebrane jako zatarcie śladu nienawiści. Gdy autor groźby odwołuje się do popularnych narracji politycznych, brak analizy tworzy próżnię, którą natychmiast wypełnią komentatorzy najmniej skrupulatni.
Dlatego część redakcji przechodzi z logiki „pokazać czy nie pokazać” na logikę „jak bardzo odciąć treść od jej pierwotnej funkcji”. Chodzi o zabiegi, które redukują potencjał propagandowy materiału, zachowując przy tym możliwość krytycznego omówienia. W praktyce oznacza to m.in.:
- stosowanie parafrazy zamiast cytatów dosłownych, zwłaszcza przy hasłach, które mogą stać się łatwo powielanym sloganem,
- celowe pomijanie fragmentów o charakterze instruktażowym – nawet jeśli są „medialnie atrakcyjne”,
- ograniczanie elementów wizualnych (logo organizacji, specyficzna estetyka nagrania), które są istotną częścią marki terrorystycznej,
- umieszczanie treści sprawcy w wyraźnie krytycznym kontekście – nie przez publicystyczny komentarz, lecz przez zderzenie z faktami i głosami ekspertów.
Ten sposób pracy ma przeciwników. Pada argument, że parafrazując, dziennikarz „zastępuje” odbiorcy oryginalny przekaz i z definicji wprowadza interpretację. Alternatywa – publikacja w całości – zakłada jednak, że każdy z odbiorców ma czas i kompetencje, by samodzielnie odrzucić manipulację. W wypadku groźby terrorystycznej to założenie bywa życzeniowe. Redakcja działa w warunkach nierównowagi: sprawca ma prosty, emocjonalny komunikat, a odbiorca – tylko kilka sekund uwagi.
Kiedy cisza staje się informacją
Praktyka pokazuje, że także brak relacji może stać się komunikatem. Gdy poważne medium konsekwentnie ignoruje falę gróźb pojawiających się na popularnej platformie, czytelnicy nie widzą zagrożenia – ale też nie rozumieją, dlaczego władze nagle ograniczają swobodę w sieci. Cisza bywa komfortowa dla redakcji, która nie ryzykuje błędu, lecz jednocześnie osłabia społeczną kontrolę nad działaniami państwa.
Pojawia się paradoks: media, które chcą „nie nakręcać paniki”, w praktyce oddają pole rzecznikom prasowym służb i anonimowym kontom w mediach społecznościowych. To one kształtują narrację wokół gróźb, a newsroom próbuje ją potem dogonić, już w defensywie. Rezygnacja z informowania z obawy przed wzmocnieniem sprawcy może więc w rezultacie wzmocnić tych, którzy wykorzystują strach do innych celów politycznych czy komercyjnych.
Wyjściem z tego impasu bywa limitowanie szczegółów przy jednoczesnym reporterskim opisie skutków: jak wyglądały procedury ewakuacyjne, w jaki sposób reagowali pracownicy instytucji, jak działał system powiadomień. Odbiorcy otrzymują konkretną wiedzę operacyjną, a nie jedynie emocjonalne nagłówki o „fali terroru w sieci”. Sprawca przestaje być głównym bohaterem, zastępują go instytucje, które mają realny wpływ na bezpieczeństwo.
Zdjęcie sprawcy z pierwszego planu
Jednym z niewidocznych na pierwszy rzut oka mechanizmów wzmacniania przekazu terrorystów jest personalizacja przekazu. Pojawia się imię i nazwisko, szczegółowy życiorys, zdjęcia z dzieciństwa. Publiczność dostaje gotową „opowieść o potworze” albo – co gorsza – historię, z którą podobni mu ludzie mogą się utożsamić. To nie przypadek, że część służb od lat apeluje o ograniczanie wizerunku zamachowców w mediach.
Popularna rada brzmi: „nie pokazujmy twarzy i nie podawajmy nazwiska”. Działa sensownie przy pojedynczym sprawcy, ale gubi się tam, gdzie mamy do czynienia z rozproszoną siecią sympatyków, którzy na zmianę ról „bohatera” czekają. Sam zakaz publikacji wizerunku nie rozwiązuje problemu, jeśli narracja nadal krąży wokół drobiazgowego odtwarzania jego motywacji i doświadczeń, podanych w atrakcyjnym, fabularnym formacie.
Coraz więcej redakcji sięga po inny model: minimalne dane osobowe, brak zdjęć z prywatnych profili, zero archiwalnych materiałów z uśmiechniętą twarzą. Zamiast tego – skupienie na sieciach wsparcia, kanałach radykalizacji, otoczeniu społecznym. W takiej konstrukcji sprawca staje się jednym z elementów mechanizmu, a nie centralną postacią dramatu. Unika się w ten sposób efektu „czarnej legendy”, który kusi naśladowców obietnicą rozgłosu.
Transparentność wobec odbiorców – ale jak daleko?
Odbiorcy coraz częściej pytają redakcje, dlaczego materiał wygląda tak, a nie inaczej: czemu nie ma nagrania źródłowego, dlaczego manifest nie jest dostępny „do samodzielnej oceny”. W erze łatwego dostępu do treści w innych miejscach proste odwołanie się do „odpowiedzialności redakcyjnej” nie zawsze przekonuje. Stąd trend do dołączania do materiałów krótkich not wyjaśniających przyjęte decyzje: co zostało świadomie pominięte i z jakiego powodu.
Ten rodzaj transparentności ma jednak swoją granicę. Zbyt szczegółowe opisywanie kryteriów moderacji może ułatwić ich obchodzenie osobom planującym kolejne groźby. To klasyczne napięcie znane z innych dziedzin bezpieczeństwa: im więcej informacji o procedurach, tym większa odporność społeczna, ale też większa szansa, że ktoś wykorzysta tę wiedzę przeciwko systemowi.
Praktycznym kompromisem jest opisywanie zasad na poziomie wartości i celów – np. „nie publikujemy fragmentów, które można wykorzystać jako instrukcję” – zamiast technicznych szczegółów wykrywania czy filtrowania. Redakcja sygnalizuje kierunek działania bez odsłaniania całego warsztatu. Odbiorca dostaje ramy interpretacyjne, a nie „instrukcję obsługi” ograniczeń.
Współpraca z ekspertami kontra outsourcing odpowiedzialności
W sytuacjach granicznych redakcje coraz częściej zwracają się do zewnętrznych ekspertów: psychologów, badaczy radykalizacji, prawników. To krok w dobrą stronę, o ile nie zamienia się w wygodne przerzucenie odpowiedzialności. Łatwo o scenariusz, w którym redakcja pyta: „czy możemy to opublikować?”, licząc na jednoznaczną odpowiedź. Tymczasem uczciwy ekspert zwykle odpowiada w trybie warunkowym: „to zależy od kontekstu, formy, grupy docelowej”.
Dlatego bardziej użyteczny bywa inny model: zaproszenie eksperta do współtworzenia materiału, a nie tylko do zaopiniowania gotowego tekstu. Gdy badacz ekstremizmów współpracuje z dziennikarzem od etapu planowania, łatwiej zapobiec typowym błędom – choćby temu, by nie powielać narracji sprawcy bez krytycznego komentarza. W takiej konfiguracji głos eksperta nie jest „tarczą prawną”, lecz elementem rzetelnego opisu zjawiska.
Druga strona medalu to czujność wobec ekspertów instytucjonalnie powiązanych z organami ścigania czy służbami. Ich perspektywa jest cenna, ale siłą rzeczy skoncentrowana na aspekcie operacyjnym. Jeśli tylko taki głos dominuje, relacje medialne mogą niepostrzeżenie przesunąć się w stronę przedłużenia komunikacji państwowej, z pominięciem głosów osób dotkniętych działaniami antyterrorystycznymi, prawników broniących praw obywatelskich czy organizacji społecznych.
Ćwiczenia na chłodną głowę
Groźby terrorystyczne online mają jedną wspólną cechę: pojawiają się nagle i wymuszają natychmiastowe decyzje. Czas reakcji liczony jest w minutach, a nie w dniach. Jeśli redakcja nie ma wcześniej wypracowanych procedur, sięga po najprostsze odruchy: emocjonalne nagłówki, cytowanie w całości, poleganie na oficjalnych komunikatach bez weryfikacji. To moment, w którym teoria o „minimalizowaniu szkód” przegrywa z napięciem newsroomu.
Dlatego coraz więcej redakcji organizuje wewnętrzne „symulacje kryzysowe”. Zespół testuje w bezpiecznych warunkach, jak wyglądałaby praca przy realnym zagrożeniu: kto decyduje o publikacji, jakie są progi weryfikacji, kiedy wysyła się powiadomienia push. Tego typu ćwiczenia, zapożyczone z branży bezpieczeństwa, zmniejszają później presję improwizowania na żywo. Dziennikarz nie musi za każdym razem na nowo wymyślać zasad – odwołuje się do wspólnie przetestowanych scenariuszy.
Taki trening pozwala też zidentyfikować słabe punkty: brak ekspertów „pod telefonem”, niejasny podział ról między redakcją a działem social media, brak wspólnego języka do rozmowy z prawnikami. Zamiast reagować dopiero po kryzysie i „przykręcać śrubę” w kierunku prewencyjnej autocenzury, redakcja ma szansę wypracować środki pośrednie, które utrzymają zdolność informowania, nie stając się przy tym kanałem dystrybucji strachu.






