نظرت شركة كاسبرسكي في الطرق التي يمكن أن يؤثر استخدام العامّة لتطبيق الذكاء الاصطناعي الشهير (ChatGPT) في القواعد المعمول بها في عالم الأمن الرقمي.
وتأتي هذه الخطوة بعد بضعة أشهر فقط من طرح شركة (OpenAI) روبوت الدردشة (ChatGPT) بوصفه واحدًا من أقوى نماذج الذكاء الاصطناعي البرمجية المبتكرة حتى الآن.
وبإمكان التطبيق الجديد شرح المفاهيم العلمية المعقدة بطريقة تتفوق على العديد من المعلمين، كما يستطيع، بناءً على طلب المستخدم، تأليف المقطوعات الموسيقية، وإنشاء النصوص، أيًا كانت تقريبًا.
ويُعدّ (ChatGPT) في الأساس نموذجًا لغويًا قائمًا على الذكاء الاصطناعي، يستطيع إنشاء نصوص مقنعة يصعب تمييزها عن تلك التي يكتبها البشر، ما جعله يلفت انتباه مجرمي الإنترنت الذي يحاولون تطبيق هذه التقنية على تأليف النصوص المستخدمة في هجمات التصيّد الموجه، بعد أن كانت كتابة كل بريد إلكتروني موجّه في السابق أمرًا مكلفًا جدًا، الأمر الذي أعاقهم عن إطلاق حملات جماعية للتصيّد الموجه.
لكن التطبيق (ChatGPT) مهيّأ لإحداث تغيير جذري في توازن القوى، نظرًا إلى أنه يسمح للمهاجمين بإنشاء رسائل بريد إلكتروني تصيّدية مقنعة لأنها ستكون مكتوبة بلغة شخصية، حتى وإن كانت ستُستخدم على نطاق واسع.
موضوعات ذات صلة بما تقرأ الآن:
وبوسع التطبيق أيضًا إضفاء طابع خاص على أسلوب صياغة المراسلات، وإنشاء رسائل بريد إلكتروني مزيفة، ولكنها مكتوبة بلغة مقنعة، لدرجة أنها قد تبدو واردة إلى موظف ما من أحد زملائه، الأمر الذي يعني أن عدد هجمات التصيّد الناجحة قد يزداد.
ووجد العديد من المستخدمين أن بإمكان (ChatGPT) إنشاء شفرات برمجية، ومن ذلك: الأنواع الخبيثة، لذا سيصبح إنشاء أداة برمجية لسرقة المعلومات أمرًا سهلًا وممكنًا دون امتلاك أية مهارات برمجية على الإطلاق.
ومع ذلك، لن يكون لدى المستخدمون الحذرون بطبعهم ما يخشونه، فالحلول الأمنية التي تستطيع اكتشاف البرمجيات الخبيثة التي يبرمجها الأفراد ستكون قادرة على اكتشاف نظيرتها التي تبرمجها الروبوتات، وتعمل على تحييدها بالسرعة نفسها.
وبينما أعرب بعض المحللين عن قلقهم من تمكّن (ChatGPT) من إنشاء برمجيات خبيثة مصممة بطابع شخصي لتناسب كل ضحية بعينها، يرى خبراء كاسبرسكي أن هذه النسخ من البرمجيات ستظلّ تُبدي سلوكًا خبيثًا تتمكّن الحلول الأمنية على الأرجح من ملاحظته. ومن المحتمل أيضًا أن تحتوي البرمجيات الخبيثة التي تكتبها الروبوتات على أخطاء دقيقة وعيوب منطقية، ما يعني أن الأتمتة الكاملة لتشفير هذه البرمجيات لم تتحقق بعد.
ويمكن للقائمين على منظومات الدفاع والحماية الاستفادة من التطبيق (ChatGPT)، بالرغم من أنه قد يكون مفيدًا لمجرمي الإنترنت، إذ يُعد قادرًا، مثلًا، على “شرح” ما يفعله جزء معين من الشيفرات البرمجية بسرعة، ما يلبي بعض احتياجات مراكز العمليات الأمنية، حيث يتعين على المحللين المنشغلين باستمرار تخصيص حدّ أدنى من الوقت لكل واقعة رقمية، ما يجعلهم يرحبون بأية أداة لتسريع عملهم.
ومن المحتمل في المستقبل أن يرى المستخدمون العديد من المنتجات المتخصصة، مثل: نموذج قائم على الهندسة العكسية لتحسين فهم الشيفرات البرمجية، ونموذج (CTF) لحلّ المشكلات الأمنية، ونموذج البحث عن الثغرات الأمنية، وغيرها.
وقال فلاديسلاف توشكانوف، الخبير الأمني لدى كاسبرسكي، إن (ChatGPT) قد يساعد المهاجمين في مجموعة متنوعة من السيناريوهات، مثل صياغة رسائل بريد إلكتروني للتصيد الموجّه بطريقة مقنعة، وذلك بالرغم من أنه لا يؤدّي أي عمل خبيث بالمطلق.
وأشار توشكانوف إلى أن هذا التطبيق غير قادر في الوقت الحالي على أن يصبح نوعًا من الذكاء الاصطناعي المختصّ بالقرصنة الذاتية، موضحًا أن الشيفرة الخبيثة التي تنشئها الشبكة العصبية لن تعمل من تلقاء نفسها على الإطلاق وستظل تتطلب شخصًا متخصصًا ماهرًا لتحسينها وتوظيفها.
وأضاف توشكانوف: “بالرغم من أنه ليس لـ (ChatGPT) تأثير فوري الآن في قطاع الأمن الرقمي، فمن المحتمل أن تصبح الأجيال القادمة من الذكاء الاصطناعي قادرة على إحداث تأثير ما فيه”.
وقال أيضًا: “قد نرى في السنوات القليلة المقبلة كيف تُكيَّف النماذج اللغوية الكبيرة، المدربة على معالجة اللغات الطبيعية وكتابة الشيفرات البرمجية، للتعامل مع حالات استخدام تخصصية في الأمن الرقمي. ويمكن أن تؤثر هذه التغييرات في مجموعة واسعة من أنشطة الأمن الرقمي، بدءًا من ملاحقة التهديدات وحتى الاستجابة للحوادث. لذلك، سوف ترغب شركات الأمن الرقمي في التعرّف على الاحتمالات التي ستقدمها الأدوات الجديدة، فيما تُدرك كيف يمكن لهذه التقنية أن تساعد مجرمي الإنترنت”.