كيف يهدد الذكاء الاصطناعي الثقة في المعلومات؟

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

سيناقش وزير المالية باياز والبروفيسور شتوكر تأثير الذكاء الاصطناعي على ثقة المعلومات والديمقراطية في 21 مايو 2025.

كيف يهدد الذكاء الاصطناعي الثقة في المعلومات؟

في الوقت الذي يجد فيه الذكاء الاصطناعي طريقه بشكل متزايد إلى تدفق المعلومات، أصبحت مسألة الحقيقة والثقة في المعلومات ذات أهمية كبيرة. وفي محادثة حضرها وزير المالية الدكتور دانيال باياز والخبير البروفيسور كريستيان ستوكر، أصبح من الواضح مدى تغير الجمهور الرقمي وما هي التحديات التي يجلبها ذلك للمجتمع. وزير الخارجية بادن فورتمبيرغ التقارير التي تفيد بأن تآكل الحقائق العامة والأبعاد الجديدة للمعلومات المضللة كانت موضوعات مركزية في المناقشة.

ناقش ستوكر وبياز، من بين أمور أخرى، دور التأثيرات النفسية والتدابير التي يمكن أن تتخذها الدولة والمواطنون الأفراد لمواجهة هذه المشكلة. والهدف هو تعزيز المرونة الاجتماعية في العصر الرقمي وتعزيز الثقة في الحقيقة. البودكاست حول هذا الموضوع متاح مجانًا على المنصات الشهيرة وعلى قناة وزارة المالية على اليوتيوب.

التلاعب بوسائل التواصل الاجتماعي

الوصول إلى المعلومات الموثوقة أمر ضروري للديمقراطية. ولكن سلوك استهلاك المعلومات تغير في السنوات الأخيرة، الأمر الذي أدى إلى ظهور نقاط ضعف اجتماعية. وفقا لتقرير صادر عن الوكالة الفيدرالية للتربية المدنية بلغت ثقة الشعب الألماني في وسائل الإعلام 47% في العام الماضي، وبالتالي انخفضت بشكل طفيف، في حين انخفضت الثقة في الحكومة إلى 42%. ويترافق هذا التطور مع زيادة الاستقطاب الاجتماعي وتغيير سلوك استهلاك وسائل الإعلام.

يُنظر إلى الذكاء الاصطناعي على أنه خطر عالمي، لا سيما فيما يتعلق بانتشار المعلومات المضللة والمعلومات المضللة. تتيح تقنيات الذكاء الاصطناعي الإنتاج الآلي للمحتوى والتخصيص المستهدف للمعلومات، مما يزيد من فرص التلاعب. وتستخدم الجهات السياسية الفاعلة على نحو متزايد المهارات الخوارزمية للتحكم في سلوك المستخدمين على الإنترنت وتعزيز تعبئتهم. أصبح هذا ملحوظًا بشكل خاص في عام الانتخابات الكبرى 2024، عندما تم استخدام التلاعب المنهجي لوسائل التواصل الاجتماعي من قبل كل من الجهات السياسية والشركات الاستراتيجية.

التنشيط والتعبئة العاطفية

يهدف المحتوى المنسق عبر خوارزميات الوسائط الاجتماعية إلى زيادة تفاعل المستخدم إلى أقصى حد. يولد المحتوى الاستقطابي بشكل خاص ردود فعل عاطفية، وبالتالي يمكن أن يزيد معدلات المشاركة بشكل كبير. لقد أثبت المؤثرون أنفسهم كلاعبين مهمين في هذا السياق ولديهم إمكانات تعبئة عالية. وقد استخدم حزب البديل من أجل ألمانيا هذه الاستراتيجيات على وجه التحديد لنشر رسائله وتوسيع نطاق انتشاره.

وتشمل استراتيجيات التلاعب، من بين أمور أخرى، التلاعب بالمحتوى المدعوم بالذكاء الاصطناعي وحملات التضليل المنسقة القائمة على التنشيط العاطفي. تجدر الإشارة إلى أن تنسيق الأنشطة يتم تحويله بشكل متزايد إلى مجموعات مغلقة في خدمات المراسلة. ولا يؤثر هذا على وضوح الرسائل السياسية فحسب، بل له أيضًا آثار عميقة على تشكيل الآراء الديمقراطية.

توصيات للعمل والتوقعات

وفي ضوء هذه التطورات المثيرة للقلق، فإن التوصيات باتخاذ إجراءات ضرورية. توصي الوكالة الفيدرالية للتربية المدنية بإدخال مدونة سلوك للأحزاب، وحملات التثقيف العام وتعزيز نهج أصحاب المصلحة المتعددين لمكافحة التلاعب. وبالإضافة إلى ذلك، ينبغي تحسين الوصول إلى المعلومات المتعلقة باستخدام البيانات والخوارزميات من أجل خلق الشفافية واستعادة ثقة الجمهور.

بشكل عام، يسلط كلا التقريرين الضوء على التحديات الرئيسية التي يفرضها التلاعب المنهجي بالمعلومات في عصر الذكاء الاصطناعي. ومن الأهمية بمكان أن يعمل السياسيون ومشغلو المنصات ومنظمات المجتمع المدني معًا لمعالجة هذه التحديات بشكل فعال والحفاظ على خطاب صحي ومتوازن.