Warning: exif_imagetype(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3314

Warning: file_get_contents(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3336

Warning: exif_imagetype(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3314

Warning: file_get_contents(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3336

Warning: Trying to access array offset on value of type bool in /home/beirutnews/public_html/wp-content/themes/newsbt/includes/ads.php on line 173

Warning: Trying to access array offset on value of type bool in /home/beirutnews/public_html/wp-content/themes/newsbt/includes/ads.php on line 174

صور الذكاء الاصطناعي المزيفة تصنع واقعًا مزيفًا فهل من حلول؟

4 أبريل 2023
صور الذكاء الاصطناعي المزيفة تصنع واقعًا مزيفًا فهل من حلول؟

هل رأيت خلال الأيام الماضية في منصات التواصل الاجتماعي صورة بابا الفاتيكان في معطف أبيض منتفخ، أو صور الرئيس الأمريكي السابق دونالد ترامب والشرطة تحاول القبض عليه بطريقة دراماتيكية، أو صور الرئيس الفرنسي إيمانويل ماكرون وهو يجري بين شرطة مكافحة الشغب وبعض المحتجين محاطًا بسحابة من الدخان، أو صور إيلون ماسك يسير مع (ماري بارا) الرئيس التنفيذي لشركة جنرال موتورز المنافسة لشركته تيسلا!

pic.twitter.com/0W7PGEHgSj
— No Context French 🇫🇷 (@nocontextfre) March 21, 2023

ولكن هذه الأحداث كلها لم تحدث في الواقع، والصور التي انتشرت عبر منصات التواصل الاجتماعي وخدعت مستخدميها كانت مزيفة، وأُنشئت عبر أدوات الذكاء الاصطناعي التوليدي.
وكما اتضح، اعتقد الكثير من مستخدمي منصات التواصل الاجتماعي أن الصور حقيقية، إذ غردت شخصيات مشهورة أنها اعتقدت أن معطف البابا المنتفخ كان حقيقيًا، إذ إن الصورة لم تحمل أي عنصر مخالف للمنطق، ومن الوارد أن الكثير من مستخدمي منصات التواصل لديهم معطف يشبه هذا المعطف فما الغريب أن يكون بابا الفاتيكان لديه معطفًا أيضًا!

موضوعات ذات صلة بما تقرأ الآن:

وأثارت الصور أيضًا عددًا كبيرًا من العناوين الرئيسية، وسارعت المؤسسات الإخبارية لفضح الصور الكاذبة، لا سيما تلك الخاصة بترامب، الذي وجهت له هيئة محلفين كبرى في مانهاتن لائحة اتهام، لكن لم يُقبض عليه.

الصور مزيفة بالتأكيد؛ ولكنها تضعنا أمام مشكلة جديدة:
يوضح الموقف أننا نواجه مشكلة كبيرة عبر الإنترنت؛ إذ أدى ظهور مجموعة جديدة من أدوات الذكاء الاصطناعي إلى جعل إنشاء صور واقعية بالإضافة إلى الصوت والفيديو، أرخص وأسهل من أي وقت مضى، ومن المرجح أن تظهر هذه الصور بوتيرة متزايدة في وسائل التواصل الاجتماعي.
في حين أن أدوات الذكاء الاصطناعي هذه قد تتيح وسائل جديدة للتعبير عن الإبداع، فإن انتشار الوسائط المزيفة المولدة عبرها يهدد أيضًا بمزيد من المعلومات المضللة عبر الإنترنت.
قد يؤدي ذلك إلى زيادة التحديات التي يواجهها المستخدمون والمؤسسات الإخبارية ومنصات التواصل الاجتماعي لفحص ما هو حقيقي، بعد سنوات من الصراع مع المعلومات الخاطئة عبر الإنترنت التي تتميز بمرئيات أقل تعقيدًا.
وهناك أيضًا مخاوف من إمكانية استخدام صور الذكاء الاصطناعي المزيفة في الاحتيال ومضايقة مستخدمي منصات التواصل الاجتماعي، أو إرباك مستخدمي الإنترنت وإثارة سلوكيات معينة، أو إثارة خلافات وهمية بين الطوائف.
فقد قالت (كلير لايبوفيتش) رئيسة قسم الذكاء الاصطناعي في منظمة (Partnership on AI) غير الربحية لشبكة CNN: “إن الصور مقارنة بالنص الذي ينشئه الذكاء الاصطناعي – والذي انتشر في الفترة الأخيرة أيضًا بفضل أدوات مثل: ChatGPT – يمكن أن تكون قوية بشكل خاص في إثارة المشاعر عند مشاهدتها”.
تحذير منصات التواصل الاجتماعي:
تستعد منصات التواصل الاجتماعي لهذه اللحظة منذ سنوات، فقد حذرت بشكل مفصّل من مقاطع الفيديو التي تستخدم التزييف العميق (deepfake)، كما أنها تعلم أن أي شخص يملك برامج لتحرير الفيديو يمكنه إضافة وجوه شخصيات سياسية في الصور المزيفة المثيرة للجدل، ولديها سياسات تقيد أو تحظر مشاركة الوسائط التي تم التلاعب بها والتي قد تضلل المستخدمين.
لكن الانتشار الكبير الذي حدث في الفترة الأخيرة لأدوات توليد الصور التي تستند في عملها إلى نماذج الذكاء الاصطناعي التوليدي وضعت منصات مثل: تويتر، وفيسبوك، وتيك توك في وضع غير مسبوق.
فالصور التي قد يستغرق إنشاؤها نصف ساعة أو ساعة في برنامج الفوتوشوب والبرامج الشبيهة له يمكن الآن صنعها خلال خمس دقائق أو أقل باستخدام أدوات مثل: Midjourney التي يمكن استخدامها  لتوليد أول 25 صورة مجانًا، أو أداة Stable Diffusion التي يمكن استخدامها مجاناً بالكامل.
أدوات الذكاء الاصطناعي التوليدي سريعة التطور:
تحسنت تقنيات الذكاء الاصطناعي بصورة كبيرة خلال الفترة الأخيرة، إذ إن هناك بعض الأدوات موجودة منذ فترة مثل: Stable Diffusion التي كانت تُستخدم خلال العام الماضي لتوليد الصور لكنها لم تكن تولد صور مقنعة مثل الصور التي نراها اليوم.
وخلال الأشهر الستة الماضية؛ تطورت أدوات توليد الصور بشكل كبير، إذ يمكن لأحدث نسخة من Midjourney توليد صور من الصعب للغاية تمييزها عن تلك الحقيقية، فعلى سبيل المثال: معظم الصور المزيفة الحديثة التي انتشرت بصورة كبيرة أُنشئت عبر منصة (Midjourney) وهي منصة عمرها أقل من عام تتيح للمستخدمين إنشاء صور بناءً على مطالبات نصية قصيرة.
وقد قال (ديفيد هولز) الرئيس التنفيذي لشركة Midjourney لشبكة CNN في رسالة عبر البريد الإلكتروني: “إن أحدث إصدار من Midjourney متاح فقط لعدد محدد من المستخدمين المدفوعين”.
كما أوقفت منصة Midjourney هذا الأسبوع الوصول إلى النسخة التجريبية المجانية لإصداراتها السابقة بسبب الطلب غير العادي وإساءة الاستخدام، وفقًا لمنشور (ديفيد هولز) عبر Discord.
في معظم الحالات، لا يبدو أن صناع الصور المزيفة الحديثة كانوا يتصرفون بشكل خبيث؛ إذ إن صور القبض على ترامب أنشأها (إليوت هيجينز) المؤسس المشارك لمجموعة الصحافة الاستقصائية (Bellingcat)، وقد وضح أنها صور مولدة عبر الذكاء الاصطناعي عند نشرها في تويتر قائًلا: “توليد صور عن إلقاء القبض على ترامب في الوقت الذي ننتظر فيه اعتقاله”.

Making pictures of Trump getting arrested while waiting for Trump’s arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023

هل من حلول لمكافحة انتشار صور الذكاء الاصطناعي المزيفة؟
يجري العمل على الحلول التقنية التي تؤكد أن المحتوى مولد عبر الذكاء الاصطناعي منها: استخدام العلامات المائية في الصور أو تضمين ملصق شفاف في البيانات الوصفية للصور، بحيث يعرف أي شخص يشاهدها عبر الإنترنت أنه مولدة عبر الذكاء الاصطناعي.
وقد طورت منظمة (Partnership on AI) غير الربحية مجموعة من الممارسات مع شركاء مثل: OpenAI، وتيك توك، وأدوبي، تضمن توصيات مثل كيفية الكشف عن صور الذكاء الاصطناعي المزيفة وكيف يمكن للشركات مشاركة البيانات حول هذه الصور.
وبالتوازي مع هذه الجهود؛ ظهرت الرسالة المفتوحة التي وقّعها إيلون ماسك وعشرات قادة التقنية والتي تطالب بإيقاف تطوير نماذج الذكاء الاصطناعي الأقوى من نموذج (GPT-4) لستة أشهر على الأقل، إلى أن نضمن الوصول إلى مرحلة الثقة في إيجابية مخرجاتها، وأن مخاطرها تحت السيطرة.
وأخذت الرسالة خطوة أبعد منذ ذلك، إذ طالبت الحكومات بالتدخل في حال عدم انصياع مختبرات الذكاء الاصطناعي كلها للإيقاف المؤقت. وعلى ما يبدو، فالحكومات لديها استعداد لخطوة كهذه، إذ قررت حكومة إيطاليا حجب (ChatGPT) للتحقيق في مدى قانونية جمع النماذج اللغوية للبيانات في مراحل تدربها.


Warning: exif_imagetype(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3314

Warning: file_get_contents(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3336

Warning: exif_imagetype(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3314

Warning: file_get_contents(/home/beirutnews/public_html/wp-content/uploads/2021/11/logo.png): Failed to open stream: No such file or directory in /home/beirutnews/public_html/wp-includes/functions.php on line 3336

Warning: Trying to access array offset on value of type bool in /home/beirutnews/public_html/wp-content/themes/newsbt/includes/ads.php on line 173

Warning: Trying to access array offset on value of type bool in /home/beirutnews/public_html/wp-content/themes/newsbt/includes/ads.php on line 174