ميتا مقابل جوجل: مواقف مختلفة بشأن الذكاء الاصطناعي والسياسة في الهند
يختلف ميتا وجوجل حول الاستفسارات السياسية لـ AI Chatbot في الهند بعد الانتخابات
قد يكون موسم الانتخابات في الهند قد انتهى، لكن دور روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في المجال السياسي يظل موضوعًا ساخنًا. ميتا قامت مؤخرًا برفع القيود المفروضة على الاستفسارات المتعلقة بالانتخابات لبرنامج الدردشة Meta AI الخاص بها، مما يسمح للمستخدمين بالاستعلام عن نتائج الانتخابات والسياسيين وأصحاب المناصب. ويمثل هذا خروجًا عن النهج الحذر الذي اتبعته الشركة سابقًا، والذي تضمن توجيه المستخدمين إلى موقع لجنة الانتخابات للحصول على هذه المعلومات.
مناهج متناقضة للمعلومات السياسية في Chatbots AI
بينما تبنت Meta سياسة أكثر انفتاحًا، تواصل Google فرض قيود عالمية على الاستعلامات المتعلقة بالانتخابات لتطبيق Gemini AI الخاص بها. ويشكل هذا الموقف الحذر جزءاً من سياسة أوسع يتم تطبيقها خلال الانتخابات الكبرى في جميع أنحاء العالم.
يسلط النهج المتناقض بين ميتا وجوجل الضوء على الجدل الدائر حول دور الذكاء الاصطناعي في نشر المعلومات السياسية. يُظهر استعداد ميتا لرفع القيود بعد الانتخابات درجة من الثقة في قدرة نموذج الذكاء الاصطناعي الخاص بها على التعامل مع الاستفسارات السياسية بدقة.
ومع ذلك، قد ينبع تحذير جوجل المستمر من مخاوف بشأن احتمال قيام الذكاء الاصطناعي بنشر معلومات مضللة أو التلاعب به لأغراض سياسية. وقد واجهت الشركة تحديات سابقة مع ضلال أدوات الذكاء الاصطناعي الخاصة بها، وهو ما قد يكون عاملاً في قرارها بالإبقاء على القيود.
تتبنى روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي، مثل ChatGPT وMicrosoft Copilot، نهجًا مختلطًا. إنهم يتجنبون الإجابة على الأسئلة المباشرة حول الفائزين في الانتخابات ولكن يمكنهم تقديم معلومات حول أصحاب المناصب والسياسيين من خلال الوصول إلى بيانات الويب.
تؤكد المقاربات المتنوعة للاستفسارات السياسية على مدى تعقيد التعامل مع الآثار الأخلاقية والعملية للذكاء الاصطناعي في الساحة السياسية. ومع استمرار تطور أدوات الذكاء الاصطناعي، ستحتاج الشركات إلى النظر بعناية في كيفية الموازنة بين فوائد توفير المعلومات ومخاطر نشر المعلومات المضللة أو المساهمة في الاستقطاب السياسي.
تحقق من الآخر أخبار الذكاء الاصطناعي وأحداث التكنولوجيا الصحيحة هنا في AIfuturize!