شكلت شركة الذكاء الاصطناعي الناشئة OpenAI فريقًا جديدًا يسمى Collective Alignment لإنشاء عمليات ديمقراطية لتشكيل كيفية إدارة برامجها للذكاء الاصطناعي لمعالجة التحيز والعوامل الأخرى، حسبما أعلنت الشركة التي تدعمها مايكروسوفت في تدوينة جديدة.
ويعد فريق Collective Alignment ثمرة لبرنامج المنح لتمويل تجارب العملية الديمقراطية، الذي أطلقته OpenAI في شهر مايو الماضي، والذي يقدم منحًا لتمويل تجارب إنشاء عملية ديمقراطية لتحديد القواعد التي يجب أن تتبعها أنظمة الذكاء الاصطناعي.
وقالت تينا إيلوندو، مهندسة الأبحاث والعضو المؤسس لفريق OpenAI الجديد: “من المهم منح الناس الفرصة لتقديم مدخلات مباشرة أثناء مواصلتنا مهمتنا تجاه النماذج الفائقة الذكاء التي يمكن اعتبارها جزءًا لا يتجزأ من مجتمعنا”.
وقال تيدي لي، مدير المنتج والعضو الآخر في فريق OpenAI الجديد المكون من شخصين: “تستطيع OpenAI عقد شراكة مع Worldcoin، وهو مشروع أسسه الرئيس التنفيذي لشركة OpenAI، سام ألتمان، يوفر طريقة لمعرفة الفرق بين البشر وروبوتات الذكاء الاصطناعي، وذلك لضمان أن البشر فقط هم من يمكنهم التصويت”.
وأشار لي إلى أن الفريق لم يضع أي خطط ملموسة بعد لإدماج Worldcoin.
واستحوذت تقنية الذكاء الاصطناعي التوليدي منذ إطلاق OpenAI لروبوت الدردشة ChatGPT في أواخر عام 2022 على اهتمام الجمهور، مما جعل روبوت الدردشة واحدًا من التطبيقات السريعة النمو.
وتوجد مخاوف بخصوص قدرة الذكاء الاصطناعي على توليد صور التزييف العميق وغيرها من المعلومات الخطأ، وخاصة مع تصاعد الحملة الانتخابية الأمريكية لعام 2024.
ويقول النقاد إن أنظمة الذكاء الاصطناعي، مثل ChatGPT، لديها تحيز متأصل بسبب المدخلات المستخدمة لتشكيل وجهات نظرهم، وقد وجد المستخدمون أمثلة على مخرجات عنصرية أو متحيزة جنسيًا من برامج الذكاء الاصطناعي.
وقالت إيلوندو إن فريق OpenAI الجديد يتطلع بنشاط إلى توظيف مهندس أبحاث وعالم أبحاث.
ويعمل الفريق بشكل وثيق مع فريق Human Data التابع لشركة OpenAI، الذي يبني البنية التحتية لجمع المدخلات البشرية في نماذج الذكاء الاصطناعي الخاصة بالشركة وفرق البحث الأخرى.
وتريد OpenAI تنفيذ أفكار الجمهور بخصوص كيفية ضمان أن نماذجها المستقبلية للذكاء الاصطناعي تتوافق مع القيم الإنسانية.
ويجمع الفريق الجديد المدخلات العامة بخصوص سلوكيات نماذجها في منتجاتها وخدماتها.
نسخ الرابط
تم نسخ الرابط