OpenAI ، صانعي ChatGPT ، ملتزمة بتطوير أنظمة AI آمنة

صورة1.png

نشرت OpenAI مقالة جديدة في المدونة تلتزم فيها بتطوير الذكاء الصناعي (AI) الآمن والمفيد على نطاق واسع.

تشاتGPT ، مدعومًا بواسطة طراز GPT-4 الأحدث من OpenAI ، يمكنه تحسين الإنتاجية ، وتعزيز الإبداع ، وتوفير تجارب تعلم مخصصة.

ومع ذلك ، تسلِّم OpenAI بأن أدوات الذكاء الاصطناعي تحمل مخاطر طبيعية يجب التعامل معها من خلال تدابير السلامة والنشر المسؤول.

هنا ما تقوم به الشركة للحد من تلك المخاطر.

ضمان سلامة أنظمة الذكاء الاصطناعي

تقوم OpenAI بإجراء اختبارات شاملة، وتسعى للاستشارة الخارجية من الخبراء، وتقوم بتحسين نماذجها الذكية بناءً على ملاحظات البشر قبل إطلاق الأنظمة الجديدة.

إطلاق GPT-4 ، على سبيل المثال ، سبقه أكثر من ستة أشهر من الاختبارات لضمان سلامته وتوافقه مع احتياجات المستخدم.

تعتقد OpenAI أن أنظمة الذكاء الاصطناعي القوية يجب أن تخضع لتقييمات أمان صارمة وتدعم الحاجة إلى التنظيم.

التعلم من استخدام الحقيقة العملية

الاستخدام العملي هو عنصر حاسم في تطوير أنظمة الذكاء الاصطناعي الآمنة. عن طريق إصدار نماذج جديدة بحذر لقاعدة مستخدمين متنامية تدريجيًا ، يمكن لشركة OpenAI إجراء تحسينات تتعامل مع المشكلات غير المتوقعة.

بتقديم نماذج الذكاء الاصطناعي من خلال واجهة برمجة التطبيقات الخاصة بها وموقعها الإلكتروني، يمكن لـ OpenAI مراقبة سوء الاستخدام واتخاذ الإجراءات المناسبة وتطوير سياسات مدروسة لتحقيق التوازن في المخاطر.

حماية الأطفال واحترام الخصوصية

تعمل OpenAI على حماية الأطفال من خلال مطلب التحقق من العمر ومنع استخدام التكنولوجيا الخاصة بها لإنشاء محتوى ضار.

الخصوصية هى جانب آخر أساسي في عمل OpenAI. تستخدم المنظمة البيانات لجعل نماذجها أكثر فائدة مع حماية المستخدمين.

بالإضافة إلى ذلك، تقوم OpenAI بإزالة المعلومات الشخصية من مجموعات البيانات التدريبية وتعديل نماذجها لرفض طلبات المعلومات الشخصية.

سوف يستجيب OpenAI لطلبات حذف المعلومات الشخصية من نظامها.

تحسين الدقة الواقعية

الدقة الواقعية هي تركيز هام لـ OpenAI. يتوقع أن يكون GPT-4 أكثر دقة بنسبة 40% من الإصدار السابق GPT-3.5.

تسعى المنظمة إلى تثقيف المستخدمين حول قيود أدوات الذكاء الاصطناعي وإمكانية وجود عدم الدقة.

البحث المستمر والتفاعل

تؤمن شركة OpenAI بتخصيص الوقت والموارد للبحث في تقنيات التخفيف الفعالة والموازنة.

ومع ذلك، هذا ليس شيئا يمكن أن يتم بمفرده. يتطلب معالجة قضايا الأمان مناقشات شاملة وتجارب ومشاركة واسعة النطاق بين الأطراف المعنية.

تظل OpenAI ملتزمة بتعزيز التعاون والحوار المفتوح لإنشاء بيئة آمنة للذكاء الاصطناعي.

الانتقادات حول المخاطر الوجودية

على الرغم من التزام OpenAI بضمان سلامة أنظمة الذكاء الاصطناعي الخاصة بها وفوائدها الواسعة، إلا أن مقالها في المدونة أثار انتقادات على وسائل التواصل الاجتماعي.

قد عبر مستخدمو تويتر عن خيبة أملهم، مشيرين إلى أن OpenAI لا تعالج المخاطر الحيوية المرتبطة بتطوير الذكاء الاصطناعي.

صوت أحد مستخدمي تويتر عن خيبة أمله، اتهم OpenAI بخيانة مهمتها المؤسِسة والتركيز على التجارة المتهورة.

يشير المستخدم إلى أن نهج OpenAI في مجال السلامة غير عميق وأكثر اهتمامًا بإرضاء النقاد من مواجهة المخاطر الحقيقية القائمة على وجودها.

هذا أمر محبط وفارغ، تزيين النوافذ لأغراض العلاقات العامة.

حتى لم تذكر المخاطر الوجودية المتعلقة بالذكاء الاصطناعي والتي تعد قلقًا مركزيًا للعديد من المواطنين والتقنيين والباحثين في مجال الذكاء الاصطناعي ورواد صناعة الذكاء الاصطناعي بما في ذلك الرئيس التنفيذي الخاص بكم @sama.‏ 

— جيفري ميلر (@primalpoly) 5 أبريل 2023

قام مستخدم آخر بالتعبير عن عدم الرضا عن الإعلان، مؤكدًا أنه يتجاهل المشاكل الحقيقية ويظل غامضًا. كما يشير المستخدم إلى أن التقرير يتجاهل قضايا أخلاقية حرجة ومخاطر تتعلق بوعي الذكاء الصناعي، مما يعني أن النهج الذي يتبعه OpenAI في مسائل الأمان غير كافي.

بصفتي معجبًا بـ GPT-4 ، أشعر بخيبة أمل من مقالتك.

إنه يتجاهل المشاكل الحقيقية، ويبقى غامضًا، ويتجاهل القضايا الأخلاقية والمخاطر الحاسمة المرتبطة بوعي الذكاء الاصطناعي.

أنا أقدر الابتكار، ولكن هذا ليس النهج الصحيح لمعالجة مشاكل الأمان.

فرانكي لابس (@FrankyLabs) 5 أبريل 2023

النقد يؤكد المخاوف الأوسع نطاقًا والنقاش المستمر حول المخاطر الكائنية التي تواجه تطوير الذكاء الاصطناعي.

في حين أن إعلان OpenAI يوضح التزامها بالسلامة والخصوصية والدقة، فمن الضروري التعرف على الحاجة إلى مزيد من النقاش لمعالجة مخاوف أكبر.

مقالات ذات صلة

عرض المزيد >>

أطلق العنان لقوة الذكاء الاصطناعي مع HIX.AI!