News

Dezinformacja w mediach społecznościowych: jak algorytmy i AI wpływają na debatę publiczną

dezinformacja fake news media społecznościowe

Media społecznościowe. Dezinformacja. Fake news

Media społecznościowe stały się jednym z kluczowych kanałów pozyskiwania informacji o bieżących wydarzeniach społecznych i politycznych w Unii Europejskiej. Badanie Eurobarometru Social Media Survey z czerwca 2025 roku pokazuje, że aż 66 proc. użytkowników aktywnie poszukuje tam tego typu treści. Jednocześnie podobny odsetek badanych przyznaje, że w bardzo krótkim czasie zetknął się z dezinformacją lub fałszywymi wiadomościami.

Skala zjawiska potwierdza, że platformy społecznościowe odgrywają dziś istotną rolę w kształtowaniu opinii publicznej, ale jednocześnie są środowiskiem sprzyjającym szybkiemu rozprzestrzenianiu się treści niskiej jakości i manipulacyjnych.

Dezinformacja jako jedno z największych zagrożeń w internecie

Dezinformacja i fake newsy są postrzegane jako jedno z najpoważniejszych zagrożeń w przestrzeni cyfrowej. Z badania Postawy Polaków wobec cyberbezpieczeństwa 2025, zrealizowanego przez SW Research na zlecenie Warszawskiego Instytutu Bankowości, wynika, że 32 proc. Polaków uznaje je za największe ryzyko związane z korzystaniem z internetu.

Choć respondenci deklarują świadomość zagrożeń, rzeczywiste działania ochronne są podejmowane znacznie rzadziej. Część użytkowników nie traktuje mediów społecznościowych jako głównego źródła informacji, inni próbują weryfikować treści w różnych źródłach, jednak tylko niewielki odsetek zgłasza lub blokuje podejrzane materiały.

Jak Polacy sprawdzają wiarygodność informacji w sieci

Raport WIB wskazuje, że 43 proc. Polaków deklaruje sprawdzanie wiarygodności informacji w internecie. Tylko 17 proc. robi to przy użyciu kilku metod, takich jak porównywanie źródeł, sprawdzanie autorów czy dat publikacji. Kolejne 26 proc. korzysta z jednej metody weryfikacji, a niemal połowa użytkowników robi to nieregularnie, w zależności od źródła lub tematu.

volvo używane selekt rzeszów

Dane te pokazują, że mimo rosnącej świadomości problemu dezinformacji, kompetencje cyfrowe i nawyki użytkowników wciąż wymagają wzmocnienia.

Algorytmy platform cyfrowych a rozprzestrzenianie dezinformacji

Eksperci zwracają uwagę, że dezinformacja nie jest przypadkowym efektem ubocznym działania platform, lecz konsekwencją sposobu funkcjonowania algorytmów rekomendacyjnych oraz systemów reklamowych. Treści emocjonalne, sensacyjne i kontrowersyjne generują większe zaangażowanie, co przekłada się na zyski reklamowe i ich dalsze promowanie.

W opinii specjalistów kluczowe jest zmodyfikowanie algorytmów w taki sposób, aby promowały treści rzetelne, jakościowe i oparte na faktach, zamiast materiałów wprowadzających w błąd lub polaryzujących użytkowników.

Akt o usługach cyfrowych jako narzędzie walki z dezinformacją

Unijny akt o usługach cyfrowych, obowiązujący od 17 lutego 2024 roku, wprowadził nowe obowiązki dla platform internetowych, w tym serwisów społecznościowych i platform e-commerce. Jego celem jest m.in. ograniczanie nielegalnych treści, przeciwdziałanie zagrożeniom społecznym oraz zwiększenie przejrzystości działania algorytmów.

Przepisy DSA dają Unii Europejskiej możliwość wywierania realnej presji na największe platformy, w tym zobowiązywania ich do wdrażania środków zaradczych oraz korygowania mechanizmów rekomendacji treści, które sprzyjają dezinformacji.

Zmiana algorytmów zamiast cenzury treści

Eksperci podkreślają, że walka z dezinformacją nie powinna polegać na ręcznej moderacji treści ani na arbitralnym rozstrzyganiu, co jest prawdą, a co fałszem. Takie działania mogłyby prowadzić do zarzutów o cenzurę.

Rozwiązaniem ma być zmiana logiki algorytmów w taki sposób, aby nie promowały treści niskiej jakości i nie podbijały materiałów opartych na sensacji, hejcie i silnych emocjach. Celem jest odbudowanie przestrzeni do merytorycznej debaty publicznej i dialogu społecznego.

Treści generowane przez sztuczną inteligencję a ryzyko manipulacji

Coraz większym wyzwaniem dla mediów i użytkowników internetu są treści generowane przez sztuczną inteligencję. Koszt ich produkcji systematycznie spada, co sprzyja masowemu tworzeniu materiałów, które mogą udawać rzetelne informacje, choć nimi nie są.

Zgodnie z unijnymi regulacjami dotyczącymi AI, treści syntetyczne powinny być wyraźnie oznaczane jako wygenerowane sztucznie. Dzięki temu platformy mogłyby ograniczać ich zasięg i nie traktować ich na równi z autentycznymi materiałami dziennikarskimi.

Odbiorcy oczekują oznaczania treści tworzonych z użyciem AI

Badanie Sztuczna inteligencja w mediach zrealizowane na zlecenie Krajowej Rady Radiofonii i Telewizji pokazuje, że większość odbiorców ma świadomość wykorzystywania AI w mediach. Jednocześnie dominuje ostrożność wobec tej technologii.

Respondenci obawiają się manipulacji opinią publiczną oraz wzrostu ryzyka dezinformacji. Zdecydowana większość oczekuje jasnego i czytelnego oznaczania materiałów tworzonych z wykorzystaniem algorytmów sztucznej inteligencji.

Dezinformacja zagrożeniem dla demokracji i debaty publicznej

Sposób działania platform społecznościowych sprzyja polaryzacji, zamykaniu użytkowników w bańkach informacyjnych oraz pasywnemu konsumowaniu treści. Gdy dochodzi do interakcji, często przybiera ona formę konfliktu, hejtu i eskalacji emocji.

Eksperci ostrzegają, że taki model komunikacji osłabia dialog społeczny i utrudnia budowanie konsensusu, który jest fundamentem sprawnie funkcjonującej demokracji. Zmiana wymaga zarówno działań regulacyjnych, odpowiedzialności platform, jak i świadomych decyzji samych użytkowników internetu.

Dodaj komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

To Top