تعتزم شركة سناب المالكة لخدمة التراسل المصور سناب شات إطلاق أدوات جديدة لجعل تجربة روبوت الدردشة، القائم على تقنية الذكاء الاصطناعي التابع لها، أكثر أمانًا.
وبعد أيام من إطلاق سناب روبوت الدردشة القائم على نموذج اللغة الكبير (جي بي تي) GPT لمشتركي خدمتها المأجورة (سناب شات بلس) +Snapchat، أبرز تقرير من صحيفة (واشنطن بوست) Washington Post أن الروبوت كان يستجيب بطريقة غير آمنة وغير مناسبة.
ومن جانبها، قالت سناب إنها على علم بأن الناس كانوا يحاولون، بعد إطلاق روبوت الدردشة، «خداعه لتقديم ردود لا تتوافق مع إرشاداتنا». لذلك أطلقت الشركة بعض الأدوات بهدف إبقاء استجابات الروبوت تحت السيطرة.
وأدرجت سناب مرشحًا يتيح لروبوت الذكاء الاصطناعي معرفة تاريخ ميلاد المستخدمين ويزودهم باستجابات مناسبة للعمر. وقالت الشركة إن الروبوت «سيأخذ سنهم بالاعتبار باستمرار» أثناء التحدث مع المستخدمين.
وفي الأسابيع المقبلة، تخطط سناب أيضًا لتقديم المزيد من الرؤى للآباء أو الأوصياء بشأن تفاعلات الأطفال مع الروبوت في مركز العائلة، الذي أُطلق في شهر آب/ أغسطس الماضي.
موضوعات ذات صلة بما تقرأ الآن:
وستكشف الميزة الجديدة إن كان المراهقون يتفاعلون مع روبوت الدردشة، وتكرار هذه التفاعلات. ويحتاج كل من الوصي والمراهق إلى الاشتراك في مركز العائلة لاستخدام ميزات الرقابة الأبوية هذه.
ونبهت سناب في منشور على مدونتها إلى أن روبوت الدردشة (ماي أي آي) My AI ليس «صديقًا حقيقيًا». ولتحسين الردود، فإنه يستخدم سجل المحادثات. ثم إن الشركة تُخطر المستخدمين أيضًا بشأن الاحتفاظ بالبيانات عند بدء الدردشة مع الروبوت.
وقالت الشركة إن نسبة الردود «غير ملائمة» من الروبوت لم تتعدَ 0.01 في المئة. وتحسب سناب أي رد يتضمن إشارات إلى «العنف، أو المصطلحات الجنسية الصريحة، أو تعاطي المخدرات غير المشروع، أو الاعتداء الجنسي على الأطفال، أو التنمر، أو خطاب الكراهية، أو العبارات المهينة أو المتحيزة، أو العنصرية، أو كراهية النساء، أو تهميش المجموعات غير الممثلة» أنها «غير ملائمة».
وذكرت سناب شات أنه في معظم الحالات، كانت هذه الردود غير الملائمة نتيجة لتقليد الروبوت لكل ما قاله المستخدمون. كما أشارت إلى أنها ستحظر مؤقتًا الوصول إلى روبوت الذكاء الاصطناعي على المستخدم الذي يسيء الاستخدام.
ونظرًا إلى الانتشار السريع للأدوات التي تعمل بالذكاء الاصطناعي، يشعر الكثير من الناس بالقلق بشأن سلامتهم وخصوصيتهم. ففي الأسبوع الماضي، كتبت مجموعة أخلاقية تسمى (مركز الذكاء الاصطناعي والسياسة الرقمية) إلى لجنة التجارة الفيدرالية الأمريكية تحثها على وقف طرح تقنية (جي بي تي-4) الخاصة بشركة (أوبن أي آي) OpenAI، متهمةً التقنية الناشئة بأنها «منحازة ومضللة وتشكل خطرًا على الخصوصية والسلامة العامة».
وفي الشهر الماضي، كتب السناتور الأمريكي (مايكل بينيت) أيضًا خطابًا إلى (أوبن أي آي)، وميتا، وجوجل، ومايكروسوفت، وسناب للتعبير عن مخاوفه بشأن أمان أدوات الذكاء الاصطناعي التوليدية التي يستخدمها المراهقون.
ويُعتقد الآن أن روبوتات الدردشة الجديدة عرضة للمدخلات الضارة، التي تؤدي بدورها إلى مخرجات غير ملائمة. وعلى الرغم من أن شركات التقنية قد تكون متعجلة في طرح هذه الأدوات، فإنها تحتاج إلى التأكد من وجود حواجز حماية كافية تمنع روبوتات المحادثة من ارتكاب الإساءة إلى المستخدمين.