Ustawa o usługach cyfrowych a odpowiedzialność platform: Ekspert finansowy ostrzega przed grożącymi naruszeniami
Według raportu www.tagesschau.de z unijnej ustawy o usługach cyfrowych wynika, że na dużych platformach, takich jak Instagram, TikTok i Instagram, jest zbyt wiele niebezpiecznych i problematycznych treści. Szczególnie niepokojące jest to, że tylko jedna na trzy treści dotyczące zaburzeń odżywiania, samookaleczeń i samobójstw jest usuwana, mimo że w Internecie należy lepiej chronić zwłaszcza nieletnich. Z nowego badania organizacji pozarządowej „Reset” wynika, że platformy w ogóle lub z wahaniem nie usuwają tutaj danych, co może naruszać nowe przepisy UE – ustawę o usługach cyfrowych (DSA). Było w NDR i „południowoniemieckim…

Ustawa o usługach cyfrowych a odpowiedzialność platform: Ekspert finansowy ostrzega przed grożącymi naruszeniami
Według raportu autorstwa www.tagesschau.de unijny akt prawny o usługach cyfrowych stanowi, że zbyt wiele niebezpiecznych i problematycznych treści na głównych platformach, takich jak Instagram, TikTok i X, nadal nie jest usuwanych lub jest usuwanych bardzo powoli. Szczególnie niepokojące jest to, że tylko co trzecia treść dotycząca zaburzeń odżywiania, samookaleczeń i samobójstw jest usuwana, mimo że w Internecie należy lepiej chronić zwłaszcza nieletnich.
Z nowego badania organizacji pozarządowej „Reset” wynika, że platformy w ogóle lub z wahaniem nie usuwają tutaj danych, co może naruszać nowe przepisy UE – ustawę o usługach cyfrowych (DSA). Był on dostępny wcześniej dla NDR i „Süddeutscher Zeitung”.
Ustawa DSA przewiduje szczególną ochronę małoletnich i nakłada specjalne zasady na duże sieci, w szczególności tak zwane środki zmniejszające ryzyko, takie jak usuwanie, ukrywanie lub ukrywanie treści. Wskaźnik usuwania na Instagramie wynosi 30 procent po doniesieniach o postach dotyczących samobójstwa i samookaleczenia, na X było to tylko 13 procent, a na TikTok wskaźnik usuwania wyniósł zaledwie 1 procent. Zaburzenia odżywiania charakteryzują się najwyższym współczynnikiem śmiertelności wśród chorób psychicznych, co ilustruje znaczenie konsekwentnego usuwania lub ukrywania takich treści.
Platformy wskazują, że wprowadziły już szeroko zakrojone środki bezpieczeństwa i podkreślają, że współpracują z ekspertami, aby wspierać zagrożonych użytkowników. Jednak fakt, że problematyczne treści są nadal tak powszechne, pokazuje, że potrzebne są dodatkowe środki, aby zapewnić zgodność z DSA. Niezastosowanie się do tego może prowadzić do zaostrzenia przepisów i utraty zaufania konsumentów. Należy ściślej monitorować platformy i dopilnować, aby wypełniały one swoje obowiązki w zakresie ochrony nieletnich. Nacisk ze strony UE i społeczeństwa, aby zwiększyć rozliczalność platform, prawdopodobnie wzrośnie w przyszłości.
Przeczytaj artykuł źródłowy na stronie www.tagesschau.de