أهم ثلاث مشكلات تتعلق بالخصوصية في الذكاء الاصطناعي - التعرض للمطالبات، ونقص الخصوصية في نماذج الذكاء الاصطناعي المخصصة، واستخدام البيانات الخاصة لتدريب أنظمة الذكاء الاصطناعي.
تعرف على أهم ثلاث قضايا تتعلق بحماية البيانات في مجال الذكاء الاصطناعي (AI) في هذا المقال. تعرف على كيفية استخدام البيانات الشخصية عند استخدام أنظمة الذكاء الاصطناعي ومخاطر الخصوصية التي يفرضها ذلك. اقرأ أيضًا كيف تتعامل الشركات والمنصات مثل ChatGPT مع خروقات البيانات وكيف يمكن لشبكات البنية التحتية اللامركزية تمكين التحكم في البيانات الشخصية. تمت كتابة المقالة بواسطة كريس وير، الرئيس التنفيذي لشركة Verida، وهي شبكة بيانات وهوية لامركزية.
أهم ثلاث مشكلات تتعلق بالخصوصية في الذكاء الاصطناعي - التعرض للمطالبات، ونقص الخصوصية في نماذج الذكاء الاصطناعي المخصصة، واستخدام البيانات الخاصة لتدريب أنظمة الذكاء الاصطناعي.
لقد ولّد الذكاء الاصطناعي (AI) إثارة محمومة بين المستهلكين والشركات على حد سواء - مدفوعًا بالاعتقاد بأن LLMs (نماذج اللغة الكبيرة) وأدوات مثل ChatGPT ستغير الطريقة التي ندرس بها ونعمل ونعيش بها. ومع ذلك، هناك مخاوف تتعلق بالخصوصية حيث أن العديد من المستخدمين لا يفكرون في كيفية استخدام معلوماتهم الشخصية وما هو التأثير الذي قد يحدثه ذلك على خصوصيتهم.
كانت هناك أمثلة لا حصر لها على خروقات بيانات الذكاء الاصطناعي. في مارس 2023، أوقفت OpenAI اتصال ChatGPT مؤقتًا بعد أن أدى خطأ "كبير" إلى تمكين المستخدمين من رؤية سجلات محادثات الغرباء. أدى الخطأ نفسه إلى إتاحة معلومات دفع المشترك، بما في ذلك الأسماء وعناوين البريد الإلكتروني والأرقام الجزئية لبطاقات الائتمان، للجمهور.
في سبتمبر 2023، نشر أحد الموظفين عن طريق الخطأ 38 تيرابايت من بيانات مايكروسوفت، مما دفع خبراء الأمن السيبراني إلى التحذير من أن المهاجمين يمكنهم حقن تعليمات برمجية ضارة في نماذج الذكاء الاصطناعي. وتمكن الباحثون أيضًا من التلاعب بأنظمة الذكاء الاصطناعي للكشف عن السجلات السرية. تسلط خروقات البيانات هذه الضوء على التحديات التي يجب على الذكاء الاصطناعي التغلب عليها ليصبح قوة موثوقة وجديرة بالثقة في حياتنا.
هناك مشكلة أخرى وهي الافتقار إلى الشفافية في أنظمة الذكاء الاصطناعي. يعترف برنامج Gemini، برنامج الدردشة الآلي التابع لشركة Google، علنًا بأن جميع المحادثات تتم مراجعتها من قبل مراجعين بشريين. هناك مخاوف من إمكانية إعادة استخدام المعلومات التي يتم إدخالها في أنظمة الذكاء الاصطناعي وتوزيعها على جمهور أوسع. تواجه شركات مثل OpenAI بالفعل العديد من الدعاوى القضائية التي تزعم أن روبوتات الدردشة الخاصة بها قد تم تدريبها على مواد محمية بحقوق الطبع والنشر.
هناك مشكلة أخرى تتعلق بالخصوصية وهي أن نماذج الذكاء الاصطناعي المخصصة التي تدربها المؤسسات لا تكون خاصة تمامًا عندما تكون موجودة ضمن منصات مثل ChatGPT. ولا توجد طريقة لمعرفة ما إذا كانت المدخلات تُستخدم لتدريب هذه الأنظمة الضخمة أو ما إذا كان من الممكن استخدام المعلومات الشخصية في النماذج المستقبلية.
مصدر قلق آخر هو أن البيانات الخاصة تستخدم لتدريب أنظمة الذكاء الاصطناعي. هناك خوف من أن تكون أنظمة الذكاء الاصطناعي قد استمدت ذكائها من عدد لا يحصى من المواقع الإلكترونية. بالنسبة لبعض هذه المصادر، يمكن القول بأن أصحاب هذه المعلومات لديهم توقعات معقولة بالخصوصية.
من المهم أن نلاحظ أن الذكاء الاصطناعي له بالفعل تأثير قوي على حياتنا اليومية. العديد من الأدوات والتطبيقات التي نستخدمها يوميًا تتأثر بشدة بالذكاء الاصطناعي وتتفاعل مع سلوكنا. وهذا يمثل فرصًا ومخاطر في مجال حماية البيانات.
ولحماية الخصوصية في الذكاء الاصطناعي، يمكن أن تلعب اللامركزية دورًا مهمًا. يمكن لشبكات البنية التحتية المادية اللامركزية (DePINs) ضمان قدرة المستخدمين على الاستفادة الكاملة من فوائد الذكاء الاصطناعي دون المساس بخصوصيتهم. يمكن أن توفر المدخلات المشفرة المزيد من النتائج الشخصية، في حين يمكن أن تضمن LLMs الخصوصية للمستخدمين التحكم الكامل في بياناتهم في جميع الأوقات وحمايتهم من سوء الاستخدام.
ومع ذلك، هناك خطر ألا يتمكن المنظمون من مواكبة السرعة الفائقة لصناعة الذكاء الاصطناعي. ولذلك، يحتاج المستهلكون إلى حماية بياناتهم الخاصة ومراقبة كيفية استخدامها. ويجب أيضًا تعلم الدروس من فضائح حماية البيانات في السنوات الأخيرة.
بشكل عام، سيكون للذكاء الاصطناعي تأثير لا يمحى على حياتنا جميعًا في السنوات القادمة. ومع ذلك، فمن الأهمية بمكان معالجة قضايا الخصوصية للحفاظ على الثقة في التكنولوجيا مع الاستفادة الكاملة من فوائدها.