Jak sztuczna inteligencja zagraża zaufaniu do informacji
Minister finansów Bayaz i prof. Stöcker omówią wpływ sztucznej inteligencji na zaufanie informacyjne i demokrację 21 maja 2025 r.
Jak sztuczna inteligencja zagraża zaufaniu do informacji
W czasach, gdy sztuczna inteligencja (AI) coraz częściej wkracza w przepływ informacji, kwestia prawdy i zaufania do informacji staje się niezwykle aktualna. Podczas rozmowy, w której uczestniczył minister finansów dr Danyal Bayaz i ekspert prof. Christian Stöcker, stało się jasne, jak bardzo zmienia się cyfrowe społeczeństwo i jakie wyzwania niesie to ze sobą dla społeczeństwa. FM Badenia-Wirtembergia donosi, że głównymi tematami dyskusji były erozja faktów publicznych i nowe wymiary dezinformacji.
Stöcker i Bayaz dyskutowali m.in. o roli skutków psychologicznych oraz o środkach, jakie zarówno państwo, jak i poszczególni obywatele mogą podjąć, aby przeciwdziałać temu problemowi. Celem jest promowanie odporności społecznej w epoce cyfrowej i wzmacnianie zaufania do prawdy. Podcast na ten temat dostępny jest bezpłatnie na popularnych platformach oraz na kanale YouTube Ministerstwa Finansów.
Manipulacja w mediach społecznościowych
Dostęp do wiarygodnych informacji jest niezbędny dla demokracji. Jednak w ostatnich latach zmieniły się zachowania związane z konsumpcją informacji, co prowadzi do podatności na zagrożenia społeczne. Według raportu przygotowanego przez Federalna Agencja Edukacji Obywatelskiej Zaufanie niemieckiego społeczeństwa do mediów wyniosło w zeszłym roku 47% i dlatego nieznacznie spadło, a zaufanie do rządu spadło nawet do 42%. Towarzyszy temu rosnąca polaryzacja społeczna i zmiana zachowań w zakresie konsumpcji mediów.
Sztuczna inteligencja jest postrzegana jako globalne ryzyko, szczególnie w zakresie rozpowszechniania dezinformacji i dezinformacji. Technologie AI umożliwiają zautomatyzowane tworzenie treści i ukierunkowaną personalizację informacji, zwiększając możliwości manipulacji. Podmioty polityczne w coraz większym stopniu wykorzystują umiejętności algorytmiczne do kontrolowania zachowań użytkowników w Internecie i promowania ich mobilizacji. Stało się to szczególnie widoczne w roku superwyborczym 2024, kiedy zarówno aktorzy polityczni, jak i strategiczne firmy stosowały systematyczną manipulację mediami społecznościowymi.
Aktywizacja i mobilizacja emocjonalna
Treści wybierane za pomocą algorytmów mediów społecznościowych mają na celu maksymalizację zaangażowania użytkowników. Szczególnie polaryzujące treści generują reakcje emocjonalne i dlatego mogą znacznie zwiększyć współczynnik zaangażowania. Influencerzy ugruntowali swoją pozycję w tym kontekście jako ważni gracze i mają duży potencjał mobilizacyjny. Alternatywa dla Niemiec (AfD) w szczególności wykorzystała te strategie do rozpowszechniania swoich komunikatów i zwiększania swojego zasięgu.
Strategie manipulacji obejmują m.in. manipulację treścią z wykorzystaniem sztucznej inteligencji oraz skoordynowane kampanie dezinformacyjne oparte na aktywacji emocjonalnej. Podkreśla się, że koordynacja działań coraz częściej przenoszona jest do zamkniętych grup w serwisach kurierskich. Wpływa to nie tylko na widoczność przekazów politycznych, ale ma także głębokie implikacje dla kształtowania się opinii demokratycznych.
Zalecenia dotyczące działań i perspektyw
W świetle tych niepokojących wydarzeń konieczne są zalecenia dotyczące działań. Federalna Agencja Edukacji Obywatelskiej zaleca wprowadzenie kodeksu postępowania dla partii, publiczne kampanie edukacyjne i promowanie wielostronnego podejścia do zwalczania manipulacji. Ponadto należy poprawić dostęp do informacji na temat wykorzystania danych i algorytmów, aby zapewnić przejrzystość i odzyskać zaufanie publiczne.
Ogólnie rzecz biorąc, w obu raportach podkreślono kluczowe wyzwania, jakie stwarza systematyczna manipulacja informacjami w dobie sztucznej inteligencji. Niezwykle istotne jest, aby politycy, operatorzy platform i organizacje społeczeństwa obywatelskiego współpracowali, aby skutecznie stawić czoła tym wyzwaniom i utrzymać zdrowy, zrównoważony dyskurs.