هيئة مراقبة الخصوصية في الاتحاد الأوروبي تنتقد شفافية ChatGPT، وتطالب بتحسين دقة البيانات

الفئات: AI Newsالعلامات: , , نشرت بتاريخ: مايو 25, 2024قراءة 1 دقيقة

الاتحاد الأوروبيأعرب فريق العمل المعني بالخصوصية التابع لـ OpenAI عن مخاوفه بشأن ChatGPT الخاص بـ OpenAI، مسلطًا الضوء على أن التدابير الحالية المتخذة لضمان الشفافية ليست كافية لتلبية معايير دقة البيانات الصارمة للاتحاد الأوروبي. وفي تقرير نُشر يوم الجمعة، أقرت فرقة العمل بالخطوات الإيجابية التي تم اتخاذها للتخفيف من التفسيرات الخاطئة لاستجابات ChatGPT. ومع ذلك، فقد شدد على ضرورة قيام OpenAI بمعالجة المخاوف العالقة المحيطة بدقة المعلومات التي يولدها برنامج الدردشة الآلي.

يهدف فريق العمل، الذي تم تشكيله من قبل سلطات حماية البيانات الوطنية الأوروبية استجابةً للمخاوف التي أثارتها الهيئات التنظيمية الإيطالية، إلى إنشاء نهج موحد تجاه الآثار المترتبة على الخصوصية لتقنيات الذكاء الاصطناعي مثل ChatGPT. وفي حين أن التحقيقات التي تجريها الهيئات التنظيمية الوطنية لا تزال جارية، فإن التقرير يقدم إجماعًا أوليًا بين السلطات الأوروبية حول هذه المسألة.

تعد دقة البيانات حجر الزاوية في إطار حماية البيانات في الاتحاد الأوروبي. ويؤكد تقرير فريق العمل على الطبيعة الاحتمالية المتأصلة لنظام ChatGPT، والتي يمكن أن تؤدي إلى نتائج متحيزة أو غير صحيحة في الواقع. كما يحذر من احتمال قبول المستخدمين دون انتقاد لردود ChatGPT على أنها دقيقة، خاصة عندما يتعلق الأمر بالمعلومات الشخصية، على الرغم من احتمال حدوث أخطاء.

تحقق من الآخر أخبار الذكاء الاصطناعي وأحداث التكنولوجيا الصحيحة هنا في AIfuturize!

اترك تعليقا