استخدام عامل سامسونج لـ ChatGPT يؤدي إلى تسريبات للبيانات السرية

صورة-بدون-عنوان-3 (1).png

اعتمد قسم الشرائح الداخلية في سامسونج على ChatGPT للمساعدة في حل المشاكل في رمزهم المصدري. ومع ذلك ، أثناء استخدام آلية الدردشة الذكية ، تم الكشف عن بالخطأ معلومات سرية مثل رموز المصدر الخاصة ببرنامج جديد ومحاضر الاجتماع الداخلية حول الأجهزة الخاصة بهم. للأسف ، لم تكن هذه حالة عزلة ، حيث تم الإبلاغ عن ثلاث حوادث خلال شهر واحد.

لتجنب وقوع اختراقات مماثلة في المستقبل، تعمل سامسونج الآن على تطوير أداة AI خاصة بها تشبه ChatGPT تكون حصريًا لاستخدام الموظفين الداخلين. سيتيح ذلك لعمالها في المصانع الحصول على مساعدة سريعة وفي نفس الوقت تأمين معلومات الشركة الحساسة. ومع ذلك، ستقوم هذه الأداة الجديدة فقط بمعالجة الاستفسارات التي يكون حجمها 1024 بايت أو أقل.

حدثت المشكلة لأن ChatGPT هو من إدارة شركة طرف ثالث تستخدم خوادم خارجية. لذلك، عندما قامت سامسونج بإدخال رمزها وأطوال الاختبار ومحتوى الاجتماعات الداخلية في البرنامج، تم تسريب البيانات. أعلمت سامسونج قيادتها وموظفيها على الفور بمخاطر تسرب المعلومات السرية. حتى 11 مارس، لم تسمح سامسونج لموظفيها باستخدام الروبوت الدردشة.

سامسونج ليست الشركة الوحيدة التي تواجه هذه المشكلة. العديد من الشركات تقوم بتقييد استخدام ChatGPT حتى يتم وضع سياسة واضحة بشأن استخدام الذكاء الاصطناعي الانتاجي. على الرغم من أن ChatGPT يوفر خيار الاستبعاد لجمع بيانات المستخدم، يجدر بالذكر أن المعلومات التي يتم تزويدها للخدمة قد تصبح متاحة للوصول من قبل المطور.

ما هو تشات جي بي تي وكيف يعمل؟

تشات جي بي تي هو تطبيق ذكاء اصطناعي تم تطويره بواسطة شركة أوبن إي إي لإنتاج نص يشبه النص البشري كرد على دفعات المستخدم. يمكنه إنتاج نص في أنماط متنوعة ولأغراض متنوعة، بما في ذلك كتابة النصوص، الإجابة على الأسئلة، صياغة الرسائل البريدية، إجراء محادثات، ترجمة اللغة الطبيعية إلى كود، وشرح الكود بلغات البرمجة المختلفة.

يعمل ChatGPT عن طريق توقع الكلمة التالية في النص المعطى باستخدام الأنماط التي تعلمها من كمية ضخمة من البيانات أثناء عملية تدريبه. من خلال تحليل سياق الاقتراح وتعلمه السابق، يقوم ChatGPT بإنشاء رد يهدف إلى أن يكون طبيعيًا ومسلسلاً قدر الإمكان.

أي إجراءات اتخذتها سامسونج لمنع تسريبات المستقبل؟

بعد تسريبات البيانات الناجمة عن ChatGPT ، اتخذت سامسونج عدة خطوات لمنع تكرار مثل تلك الحوادث. أولاً ، نصحت الشركة موظفيها بممارسة الحذر عند مشاركة البيانات مع ChatGPT. كما قامت بتنفيذ قيد في طول الأسئلة المرسلة إلى الخدمة ، حيث تم تحديد الحد الأقصى لها بـ 1024 بايت.

علاوة على ذلك، تقوم سامسونج حاليًا بتطوير أداة ذكاء اصطناعي مشابهة لـ ChatGPT، ولكنها حصراً للاستخدام الداخلي للموظفين. سيضمن ذلك أن يتلقى عمال المصنع المساعدة الفورية في حين يتأمنون المعلومات الحساسة للشركة. حتى تطوير هذه الأداة، حذرت سامسونج موظفيها من المخاطر المحتملة المرتبطة باستخدام ChatGPT. كما أشارت إلى أن البيانات المدخلة في ChatGPT يتم نقلها وتخزينها على خوادم خارجية، مما يجعل من المستحيل على الشركة التحكم في البيانات بمجرد تسليمها.

ما هي العواقب التي تعرض لها الموظفون الذين قاموا بتسريب البيانات السرية؟

لم يتم ذكر علناً عن العواقب التي ستواجهها موظفي سامسونج الذين قاموا بتسريب البيانات السرية إلى ChatGPT وفقًا للمعلومات المتاحة. ومع ذلك، تقوم شركة سامسونج الإلكترونية باتخاذ إجراءات لمنع تسريب المزيد من المعلومات الحساسة عبر ChatGPT، وتشمل فرض قيود على حجم الأسئلة المرسلة حتى 1024 بايت. كما حذرت الشركة موظفيها من المخاطر المحتملة لاستخدام ChatGPT.

علاوة على ذلك، تقوم شركة Samsung Semiconductor بتطوير أداة ذكاء اصطناعي خاصة بها للاستخدام الداخلي للموظفين، والتي ستقتصر على معالجة تلميحات تحت 1024 بايت. تشير هذه الإجراءات إلى أن Samsung تأخذ حماية معلوماتها السرية على محمل الجد وتنفذ تدابير للحد من المخاطر المرتبطة باستخدام ChatGPT.

أي نوع من المعلومات السرية تم تسريبه؟

كم مرة تسرب موظفو سامسونج بيانات سرية إلى ChatGPT؟

وفقًا لنتائج البحث، قد قام موظفو سامسونج بتسريب معلومات سرية عن الشركة إلى ChatGPT في ثلاث مناسبات على الأقل.

مقالات ذات صلة

عرض المزيد >>

أطلق العنان لقوة الذكاء الاصطناعي مع HIX.AI!