Szum informacyjny to nie już tylko kwestia treści – to kwestia kodu
W ostatnich latach platformy społecznościowe coraz częściej wykorzystują sztuczną inteligencję do filtrowania treści. Systemy te mają usuwać dezinformację, mowę nienawiści czy przemoc, ale… czy starają się także kontrolować, co możesz powiedzieć? Algorytm nie posiada ludzkiej wrażliwości, działa według zasad, które często są nieprzejrzyste. A to otwiera drogę do „miękkiej cenzury” – gdzie użytkownik nawet nie wie, że jego wypowiedź została ograniczona.
A co na to państwo?
Zamiast hamować zapędy korporacji, rządy je wspierają. Nowe przepisy (jak europejski DSA) pozwalają blokować treści nawet bez decyzji sądu. Wystarczy administracyjna zgoda i… po poście.
Gdzie zaczyna się nadzór algorytmiczny, a kończy wolność słowa?
– Algorytmy szkolone są na danych, które mają swoje uprzedzenia. To, co uznane jest za kontrowersyjne czy „trollujące”, może zostać “usunięte”, zanim wypowiedź ukaże się publicznie. Najczęściej modele nie odróżniają ironii, sarkazmu lub krytycznej dyskusji od dezinformacji.
– W okresach wyborczych lub kryzysowych można zaobserwować, jak zasadność takiego filtrowania maleje — bo politycy naciskają na platformy, by cenzurować treści niewygodne. A algorytmy – wykonywając zadanie – zaczynają usuwać zdania obywateli, którzy próbują krytykować władzę.
Co możesz zrobić?
✔️ Domagaj się przejrzystych zasad moderacji
✔️ Korzystaj z prawa do odwołania, jeśli coś Ci usunięto
✔️ Wspieraj niezależne inicjatywy na rzecz wolności słowa
✔️ Mów głośno o przypadkach ukrywania treści – to się dzieje częściej, niż myślisz
Wolność słowa to nie tylko Twoje prawo. To Twoja odpowiedzialność.
Nie pozwól, by decyzje o tym, co wolno mówić, podejmował bezduszny algorytm.