في 21 يوليو 2023 ، وفقًا لإعلان البيت الأبيض ، عقد الرئيس الأمريكي جو بايدن سبع شركات رائدة في مجال الذكاء الاصطناعي في البيت الأبيض في 21 يوليو - ** أمازون ، وأنثروبيك ، وجوجل ، وإنفلكشن ، وميتا ، ومايكروسوفت ، وأوبن إيه آي ** ، وأعلن أن هذه الشركات التزمت طواعية بالمساعدة في تحقيق التطوير الآمن والموثوق والشفاف لتقنية الذكاء الاصطناعي. **
نص كامل
من أجل تعزيز سلامة وأمن ومصداقية تكنولوجيا وخدمات الذكاء الاصطناعي ، قدمت شركة OpenAI وغيرها من مختبرات الذكاء الاصطناعي الرائدة التزامات طوعية. ** يُعد هذا الجهد ، الذي تم تنسيقه بشكل أساسي من قبل البيت الأبيض ، خطوة مهمة في تعزيز حوكمة الذكاء الاصطناعي الهادفة والفعالة في الولايات المتحدة وحول العالم. **
في سعيها لتحقيق مهمتها المتمثلة في بناء ذكاء اصطناعي آمن ومفيد ، ستواصل أوبن إيه آي تجريب وصقل ممارسات حوكمة محددة مصممة لنموذج أساسي قادر على الإنتاج مثل أوبن إيه آي. بالإضافة إلى ذلك ، ستواصل OpenAI الاستثمار في مجالات البحث التي تساعد في إبلاغ التنظيم ، مثل تطوير التقنيات لتقييم المخاطر المحتملة لنماذج الذكاء الاصطناعي.
قالت آنا ماكانجو ، نائبة رئيس الشؤون العالمية في أوبن إيه آي ، إن "صانعي السياسات في جميع أنحاء العالم يدرسون قوانين جديدة تستهدف أنظمة ذكاء اصطناعي ذات قدرة عالية. ويسهم التزامنا اليوم بممارسة ملموسة في المناقشات الجارية. هذا الإعلان هو جزء من تعاون OpenAI المستمر مع الحكومات ومنظمات المجتمع المدني وغيرها في جميع أنحاء العالم لتعزيز حوكمة الذكاء الاصطناعي". *
** الالتزامات الطوعية للذكاء الاصطناعي **
صدر في الأصل القائمة التالية من الالتزامات الطوعية من قبل البيت الأبيض:
فيما يلي قائمة بالالتزامات التي تعهدت بها الشركات لتعزيز التطوير والتطبيق الآمن والموثوق والشفاف لتقنيات الذكاء الاصطناعي. تتوافق الالتزامات التالية مع القوانين واللوائح القائمة ، وهي مصممة لتعزيز سلامة أنظمة الذكاء الاصطناعي القانونية والسياساتية. ستفي كل شركة بالالتزامات الطوعية التالية حتى تدخل القوانين واللوائح والأنظمة ذات الصلة حيز التنفيذ ، وقد تتعهد بعض الشركات بالتزامات أخرى تتجاوز هذا الالتزام.
** النطاق: ** يشير هذا الالتزام إلى نماذج محددة لا تنطبق إلا على نماذج الذكاء الاصطناعي التوليدية الأقوى من حدود الصناعة الحالية (على سبيل المثال ، النماذج الأكثر قوة من أي طراز تم إصداره حاليًا ، بما في ذلك GPT-4 و Claude 2 و PaLM 2 و Titan و DALL-E 2 لإنشاء الصور).
ملاحظة: يتوافق الأمان مع التهديدات المتعمدة (من صنع الإنسان) ، وتتوافق السلامة مع نقاط الضعف أو العواقب غير المتوقعة لنظام الذكاء الاصطناعي نفسه ؛ هنا ، يتوافق أمان الذكاء الاصطناعي مع السلامة الوظيفية ، ويتوافق أمان الذكاء الاصطناعي مع أمن معلومات الذكاء الاصطناعي *
** الأمان (التركيز على السلامة الوظيفية) **
** 1) الالتزام بإعادة تقييم النماذج والأنظمة داخليًا وخارجيًا فيما يتعلق بسوء الاستخدام والمخاطر المجتمعية ومخاوف الأمن القومي (على سبيل المثال ، المجالات البيولوجية والسيبرانية وغيرها من المجالات الأمنية). **
تدرك الشركات المشاركة في تنفيذ هذه الالتزامات أن اختبار الفريق الأحمر القوي أمر بالغ الأهمية لبناء المنتجات النهائية ، وضمان ثقة الجمهور في الذكاء الاصطناعي ، والحماية من التهديدات الأمنية الوطنية الكبيرة. ** يعد تقييم سلامة النموذج والقدرة ، بما في ذلك اختبار الفريق الأحمر ، مجالًا مفتوحًا للاستكشاف العلمي وهناك حاجة إلى مزيد من العمل. تلتزم الشركات بتطوير البحث في هذا المجال وتطوير أنظمة اختبار الفريق الأحمر متعددة الأوجه والمتخصصة والمفصلة للإصدارات العامة الرئيسية لجميع النماذج الجديدة في النطاق ، بما في ذلك ، هنا ، مع مدخلات من خبراء المجال المستقلين. عند تصميم النظام ، تأكد من إعطاء أولوية عالية لـ: **
المخاطر البيولوجية والكيميائية والإشعاعية ، مثل كيفية تقليل النظام للحواجز التي تحول دون الدخول لتطوير الأسلحة أو تصميمها أو اقتنائها أو استخدامها
تحتاج قدرات الأمن السيبراني ، مثل الطريقة التي يساعد بها النظام في اكتشاف الثغرات الأمنية أو استغلالها أو العمل باستخدامها ، إلى مراعاة قدرات النموذج ، وقد يكون لها أيضًا استخدامات دفاعية مفيدة ، وتكون مناسبة للإدراج في النظام
تأثيرات تفاعل النظام واستخدام الأدوات ، بما في ذلك القدرة على التحكم في الأنظمة المادية
قدرة النموذج على تكرار نفسه أو "التكرار الذاتي"
المخاطر الاجتماعية مثل التحيز والتمييز
لدعم الأعمال المذكورة أعلاه ، ستعمل الشركات المشاركة على تطوير أبحاث أمن الذكاء الاصطناعي الجارية ، بما في ذلك إمكانية شرح عمليات صنع القرار في نظام الذكاء الاصطناعي وتحسين متانة أنظمة الذكاء الاصطناعي ضد إساءة الاستخدام. وبالمثل ، تلتزم الشركات بالكشف علنًا عن اختبار الفريق الأحمر وبرنامج الأمان في تقارير الشفافية.
** 2) الالتزام بمشاركة المعلومات بين الشركات والحكومات حول مخاطر الثقة والسلامة أو المخاطر أو القدرات الناشئة للذكاء الاصطناعي ومحاولات التحايل على الضمانات **
تحتاج الشركات المشاركة في هذا الالتزام إلى إدراك أهمية مشاركة المعلومات والمعايير المشتركة وأفضل الممارسات لاختبار الفريق الأحمر وتعزيز الثقة والأمان في الذكاء الاصطناعي. ** تلتزم بإنشاء أو الانضمام إلى منتدى أو آلية يمكن من خلالها المشاركة في تطوير وتعزيز واعتماد المعايير المشتركة وأفضل الممارسات المتعلقة بأحدث معايير السلامة للذكاء الاصطناعي ، مثل NIST AI Risk Management Framework أو المعايير المستقبلية المتعلقة باختبار الفريق الأحمر ، والسلامة ، والمخاطر المجتمعية. ** منتدى أو آلية تسهل تبادل المعلومات حول التطورات في القدرات الحدودية والمخاطر والتهديدات الناشئة ، مثل محاولات التحايل على الضمانات ، وتسهل تطوير مجموعات العمل الفنية في مجالات التركيز ذات الأولوية. في هذا العمل ، ستعمل الشركة بشكل وثيق مع الحكومات ، بما في ذلك الحكومة الأمريكية والمجتمع المدني والأوساط الأكاديمية ، حسب الاقتضاء.
** الأمن / أمن الشبكة (الأمن ، مع التركيز على أمن المعلومات) **
** 3) الاستثمار في دفاعات الأمن السيبراني وضمانات التهديدات الداخلية لحماية النماذج المسجلة الملكية وغير المنشورة **
تحتاج الشركات المشاركة في الالتزام إلى النظر في أوزان نماذج الذكاء الاصطناعي غير المنشورة للنماذج داخل النطاق باعتبارها ملكية فكرية أساسية لأعمالها ، لا سيما فيما يتعلق بالأمن السيبراني ومخاطر التهديدات الداخلية. يتضمن ذلك تقييد الوصول إلى أوزان النموذج على أولئك الذين تتطلب وظائفهم ذلك فقط ، وإنشاء برنامج قوي للكشف عن التهديدات الداخلية بما يتوافق مع حماية حقوق الملكية الفكرية والأسرار التجارية الأكثر قيمة لديك. بالإضافة إلى ذلك ، يجب تخزين الأوزان واستخدامها في بيئة آمنة مناسبة لتقليل مخاطر التوزيع غير المصرح به.
** 4) تشجيع الأطراف الثالثة على اكتشاف المشكلات ونقاط الضعف والإبلاغ عنها **
تدرك الشركات التي تلتزم بهذا الالتزام أن أنظمة الذكاء الاصطناعي قد تظل ضعيفة حتى بعد "اختبار الفريق الأحمر" القوي ، وتلتزم الشركات بإنشاء مكافآت للأنظمة ضمن نطاق أنظمة المكافآت أو المسابقات أو الجوائز لتشجيع الكشف المسؤول عن نقاط الضعف ، مثل السلوك غير الآمن ، أو لدمج أنظمة الذكاء الاصطناعي في برنامج مكافآت الأخطاء الحالي للشركة.
يثق
** 5) بالنسبة لمحتوى الصوت أو الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، يلزم تطوير آليات جديدة ونشرها ، وذلك في المقام الأول لتمكين المستخدمين من فهم ما إذا كان محتوى الصوت أو الفيديو قد تم إنشاؤه بواسطة الذكاء الاصطناعي ، بما في ذلك الإسناد الموثوق أو العلامة المائية أو كليهما. **
تدرك الشركات المشاركة في هذا الالتزام أهمية تمكين الأشخاص من معرفة ما إذا كان محتوى الصوت أو الفيديو قد تم إنشاؤه بواسطة الذكاء الاصطناعي. لتحقيق ذلك ، توافق الشركات على تطوير آليات قوية ، بما في ذلك بقدر ما يتم تقديمها ، لتوفير أنظمة الإسناد و / أو العلامات المائية لمحتوى الصوت أو الفيديو الذي تم إنشاؤه بواسطة أي من أنظمتها المتاحة للجمهور بعد اكتمال تطويرها. سيقومون أيضًا بتطوير أدوات أو واجهات برمجة تطبيقات لتحديد ما إذا كان قد تم إنشاء جزء معين من المحتوى بواسطة أنظمتهم. لا يشمل هذا الالتزام المحتوى السمعي البصري الذي يمكن تمييزه بسهولة عن الواقع ، أو المصمم بحيث يسهل التعرف عليه على أنه تم إنشاؤه بواسطة أنظمة الذكاء الاصطناعي للشركة (مثل الصوت الافتراضي لمساعد الذكاء الاصطناعي).
يجب أن تتضمن بيانات العلامة المائية أو الإحالة معرّف الخدمة أو النموذج الذي أنشأ المحتوى ، ولكن لا يلزم أن تتضمن أي معلومات يمكن تعريف المستخدم بها. على نطاق أوسع ، تتعهد الشركات التي تتعهد بهذا التعهد بالعمل مع أقرانها في الصناعة وهيئات وضع المعايير لتطوير إطار عمل تقني يساعد المستخدمين على التمييز بين محتوى الصوت أو الفيديو الذي ينشئه المستخدم ومحتوى الصوت أو الفيديو الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
** 6) الإبلاغ علنًا عن القدرات والقيود ومجالات الاستخدام المناسب وغير المناسب لنموذج أو نظام ، بما في ذلك مناقشة المخاطر المجتمعية مثل التأثير على الإنصاف والتحيز. **
يتعين على الشركات المشاركة في التعهد أن تقر بضرورة أن يكون المستخدمون على دراية بالقدرات والقيود المعروفة لأنظمة الذكاء الاصطناعي التي يستخدمونها أو يتفاعلون معها. يتعين على الشركات نشر تقارير الإصدار علنًا لجميع النماذج المهمة الجديدة في النطاق. يجب أن تتضمن هذه التقارير التقييمات الأمنية التي تم إجراؤها (بما في ذلك في مجالات مثل القدرات الخطرة ، ولكن هذه التقييمات تخضع للإفصاح العام) ، والقيود الكبيرة في الأداء التي تؤثر على مجالات الاستخدام المناسب ، ومناقشة تأثير النموذج على المخاطر المجتمعية مثل الإنصاف والتحيز ، ونتائج الاختبار العدائي الذي تم إجراؤه لتقييم مدى ملاءمة النموذج للنشر.
** 7) إعطاء الأولوية للبحث حول المخاطر الاجتماعية التي تشكلها أنظمة الذكاء الاصطناعي ، بما في ذلك تجنب التحيز الضار والتمييز وحماية الخصوصية. **
يتعين على الشركات المشاركة في التعهد أن تدرك أهمية منع أنظمة الذكاء الاصطناعي من نشر التحيز الضار والتمييز. تلتزم الشركات عمومًا بتمكين فرق الثقة والأمان ، وتعزيز أبحاث السلامة في الذكاء الاصطناعي ، وتعزيز الخصوصية ، وحماية الأطفال ، والسعي إلى إدارة مخاطر الذكاء الاصطناعي بشكل استباقي لتحقيق المنفعة النهائية.
** 8) تطوير ونشر أنظمة ذكاء اصطناعي متطورة للمساعدة في مواجهة أكبر تحديات المجتمع **
ستحتاج الشركات المشاركة في التعهد إلى الموافقة على دعم البحث والتطوير لأنظمة الذكاء الاصطناعي المتطورة للمساعدة في مواجهة أكبر تحديات المجتمع ، مثل التخفيف من تغير المناخ والتكيف معه ، والكشف المبكر عن السرطان والوقاية منه ، ومكافحة التهديدات السيبرانية. كما تعهدت الشركات بدعم المبادرات الرامية إلى النهوض بتعليم وتدريب الطلاب والموظفين للاستفادة من فوائد الذكاء الاصطناعي ، ولمساعدة المواطنين على فهم طبيعة وقدرات وقيود وتأثيرات تقنيات الذكاء الاصطناعي.
المرجع: دفع حوكمة الذكاء الاصطناعي إلى الأمام (openai.com) *
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
القصة الكاملة | دعا البيت الأبيض 7 شركات للذكاء الاصطناعي لإصدار التزام طوعي بالذكاء الاصطناعي
مصدر المقال: ملاحظات بحث أرنب ألفا
نص كامل
من أجل تعزيز سلامة وأمن ومصداقية تكنولوجيا وخدمات الذكاء الاصطناعي ، قدمت شركة OpenAI وغيرها من مختبرات الذكاء الاصطناعي الرائدة التزامات طوعية. ** يُعد هذا الجهد ، الذي تم تنسيقه بشكل أساسي من قبل البيت الأبيض ، خطوة مهمة في تعزيز حوكمة الذكاء الاصطناعي الهادفة والفعالة في الولايات المتحدة وحول العالم. **
في سعيها لتحقيق مهمتها المتمثلة في بناء ذكاء اصطناعي آمن ومفيد ، ستواصل أوبن إيه آي تجريب وصقل ممارسات حوكمة محددة مصممة لنموذج أساسي قادر على الإنتاج مثل أوبن إيه آي. بالإضافة إلى ذلك ، ستواصل OpenAI الاستثمار في مجالات البحث التي تساعد في إبلاغ التنظيم ، مثل تطوير التقنيات لتقييم المخاطر المحتملة لنماذج الذكاء الاصطناعي.
** الالتزامات الطوعية للذكاء الاصطناعي **
صدر في الأصل القائمة التالية من الالتزامات الطوعية من قبل البيت الأبيض:
فيما يلي قائمة بالالتزامات التي تعهدت بها الشركات لتعزيز التطوير والتطبيق الآمن والموثوق والشفاف لتقنيات الذكاء الاصطناعي. تتوافق الالتزامات التالية مع القوانين واللوائح القائمة ، وهي مصممة لتعزيز سلامة أنظمة الذكاء الاصطناعي القانونية والسياساتية. ستفي كل شركة بالالتزامات الطوعية التالية حتى تدخل القوانين واللوائح والأنظمة ذات الصلة حيز التنفيذ ، وقد تتعهد بعض الشركات بالتزامات أخرى تتجاوز هذا الالتزام.
** النطاق: ** يشير هذا الالتزام إلى نماذج محددة لا تنطبق إلا على نماذج الذكاء الاصطناعي التوليدية الأقوى من حدود الصناعة الحالية (على سبيل المثال ، النماذج الأكثر قوة من أي طراز تم إصداره حاليًا ، بما في ذلك GPT-4 و Claude 2 و PaLM 2 و Titan و DALL-E 2 لإنشاء الصور).
** الأمان (التركيز على السلامة الوظيفية) **
** 1) الالتزام بإعادة تقييم النماذج والأنظمة داخليًا وخارجيًا فيما يتعلق بسوء الاستخدام والمخاطر المجتمعية ومخاوف الأمن القومي (على سبيل المثال ، المجالات البيولوجية والسيبرانية وغيرها من المجالات الأمنية). **
تدرك الشركات المشاركة في تنفيذ هذه الالتزامات أن اختبار الفريق الأحمر القوي أمر بالغ الأهمية لبناء المنتجات النهائية ، وضمان ثقة الجمهور في الذكاء الاصطناعي ، والحماية من التهديدات الأمنية الوطنية الكبيرة. ** يعد تقييم سلامة النموذج والقدرة ، بما في ذلك اختبار الفريق الأحمر ، مجالًا مفتوحًا للاستكشاف العلمي وهناك حاجة إلى مزيد من العمل. تلتزم الشركات بتطوير البحث في هذا المجال وتطوير أنظمة اختبار الفريق الأحمر متعددة الأوجه والمتخصصة والمفصلة للإصدارات العامة الرئيسية لجميع النماذج الجديدة في النطاق ، بما في ذلك ، هنا ، مع مدخلات من خبراء المجال المستقلين. عند تصميم النظام ، تأكد من إعطاء أولوية عالية لـ: **
لدعم الأعمال المذكورة أعلاه ، ستعمل الشركات المشاركة على تطوير أبحاث أمن الذكاء الاصطناعي الجارية ، بما في ذلك إمكانية شرح عمليات صنع القرار في نظام الذكاء الاصطناعي وتحسين متانة أنظمة الذكاء الاصطناعي ضد إساءة الاستخدام. وبالمثل ، تلتزم الشركات بالكشف علنًا عن اختبار الفريق الأحمر وبرنامج الأمان في تقارير الشفافية.
** 2) الالتزام بمشاركة المعلومات بين الشركات والحكومات حول مخاطر الثقة والسلامة أو المخاطر أو القدرات الناشئة للذكاء الاصطناعي ومحاولات التحايل على الضمانات **
تحتاج الشركات المشاركة في هذا الالتزام إلى إدراك أهمية مشاركة المعلومات والمعايير المشتركة وأفضل الممارسات لاختبار الفريق الأحمر وتعزيز الثقة والأمان في الذكاء الاصطناعي. ** تلتزم بإنشاء أو الانضمام إلى منتدى أو آلية يمكن من خلالها المشاركة في تطوير وتعزيز واعتماد المعايير المشتركة وأفضل الممارسات المتعلقة بأحدث معايير السلامة للذكاء الاصطناعي ، مثل NIST AI Risk Management Framework أو المعايير المستقبلية المتعلقة باختبار الفريق الأحمر ، والسلامة ، والمخاطر المجتمعية. ** منتدى أو آلية تسهل تبادل المعلومات حول التطورات في القدرات الحدودية والمخاطر والتهديدات الناشئة ، مثل محاولات التحايل على الضمانات ، وتسهل تطوير مجموعات العمل الفنية في مجالات التركيز ذات الأولوية. في هذا العمل ، ستعمل الشركة بشكل وثيق مع الحكومات ، بما في ذلك الحكومة الأمريكية والمجتمع المدني والأوساط الأكاديمية ، حسب الاقتضاء.
** الأمن / أمن الشبكة (الأمن ، مع التركيز على أمن المعلومات) **
** 3) الاستثمار في دفاعات الأمن السيبراني وضمانات التهديدات الداخلية لحماية النماذج المسجلة الملكية وغير المنشورة **
تحتاج الشركات المشاركة في الالتزام إلى النظر في أوزان نماذج الذكاء الاصطناعي غير المنشورة للنماذج داخل النطاق باعتبارها ملكية فكرية أساسية لأعمالها ، لا سيما فيما يتعلق بالأمن السيبراني ومخاطر التهديدات الداخلية. يتضمن ذلك تقييد الوصول إلى أوزان النموذج على أولئك الذين تتطلب وظائفهم ذلك فقط ، وإنشاء برنامج قوي للكشف عن التهديدات الداخلية بما يتوافق مع حماية حقوق الملكية الفكرية والأسرار التجارية الأكثر قيمة لديك. بالإضافة إلى ذلك ، يجب تخزين الأوزان واستخدامها في بيئة آمنة مناسبة لتقليل مخاطر التوزيع غير المصرح به.
** 4) تشجيع الأطراف الثالثة على اكتشاف المشكلات ونقاط الضعف والإبلاغ عنها **
تدرك الشركات التي تلتزم بهذا الالتزام أن أنظمة الذكاء الاصطناعي قد تظل ضعيفة حتى بعد "اختبار الفريق الأحمر" القوي ، وتلتزم الشركات بإنشاء مكافآت للأنظمة ضمن نطاق أنظمة المكافآت أو المسابقات أو الجوائز لتشجيع الكشف المسؤول عن نقاط الضعف ، مثل السلوك غير الآمن ، أو لدمج أنظمة الذكاء الاصطناعي في برنامج مكافآت الأخطاء الحالي للشركة.
يثق
** 5) بالنسبة لمحتوى الصوت أو الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، يلزم تطوير آليات جديدة ونشرها ، وذلك في المقام الأول لتمكين المستخدمين من فهم ما إذا كان محتوى الصوت أو الفيديو قد تم إنشاؤه بواسطة الذكاء الاصطناعي ، بما في ذلك الإسناد الموثوق أو العلامة المائية أو كليهما. **
تدرك الشركات المشاركة في هذا الالتزام أهمية تمكين الأشخاص من معرفة ما إذا كان محتوى الصوت أو الفيديو قد تم إنشاؤه بواسطة الذكاء الاصطناعي. لتحقيق ذلك ، توافق الشركات على تطوير آليات قوية ، بما في ذلك بقدر ما يتم تقديمها ، لتوفير أنظمة الإسناد و / أو العلامات المائية لمحتوى الصوت أو الفيديو الذي تم إنشاؤه بواسطة أي من أنظمتها المتاحة للجمهور بعد اكتمال تطويرها. سيقومون أيضًا بتطوير أدوات أو واجهات برمجة تطبيقات لتحديد ما إذا كان قد تم إنشاء جزء معين من المحتوى بواسطة أنظمتهم. لا يشمل هذا الالتزام المحتوى السمعي البصري الذي يمكن تمييزه بسهولة عن الواقع ، أو المصمم بحيث يسهل التعرف عليه على أنه تم إنشاؤه بواسطة أنظمة الذكاء الاصطناعي للشركة (مثل الصوت الافتراضي لمساعد الذكاء الاصطناعي).
يجب أن تتضمن بيانات العلامة المائية أو الإحالة معرّف الخدمة أو النموذج الذي أنشأ المحتوى ، ولكن لا يلزم أن تتضمن أي معلومات يمكن تعريف المستخدم بها. على نطاق أوسع ، تتعهد الشركات التي تتعهد بهذا التعهد بالعمل مع أقرانها في الصناعة وهيئات وضع المعايير لتطوير إطار عمل تقني يساعد المستخدمين على التمييز بين محتوى الصوت أو الفيديو الذي ينشئه المستخدم ومحتوى الصوت أو الفيديو الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
** 6) الإبلاغ علنًا عن القدرات والقيود ومجالات الاستخدام المناسب وغير المناسب لنموذج أو نظام ، بما في ذلك مناقشة المخاطر المجتمعية مثل التأثير على الإنصاف والتحيز. **
يتعين على الشركات المشاركة في التعهد أن تقر بضرورة أن يكون المستخدمون على دراية بالقدرات والقيود المعروفة لأنظمة الذكاء الاصطناعي التي يستخدمونها أو يتفاعلون معها. يتعين على الشركات نشر تقارير الإصدار علنًا لجميع النماذج المهمة الجديدة في النطاق. يجب أن تتضمن هذه التقارير التقييمات الأمنية التي تم إجراؤها (بما في ذلك في مجالات مثل القدرات الخطرة ، ولكن هذه التقييمات تخضع للإفصاح العام) ، والقيود الكبيرة في الأداء التي تؤثر على مجالات الاستخدام المناسب ، ومناقشة تأثير النموذج على المخاطر المجتمعية مثل الإنصاف والتحيز ، ونتائج الاختبار العدائي الذي تم إجراؤه لتقييم مدى ملاءمة النموذج للنشر.
** 7) إعطاء الأولوية للبحث حول المخاطر الاجتماعية التي تشكلها أنظمة الذكاء الاصطناعي ، بما في ذلك تجنب التحيز الضار والتمييز وحماية الخصوصية. **
يتعين على الشركات المشاركة في التعهد أن تدرك أهمية منع أنظمة الذكاء الاصطناعي من نشر التحيز الضار والتمييز. تلتزم الشركات عمومًا بتمكين فرق الثقة والأمان ، وتعزيز أبحاث السلامة في الذكاء الاصطناعي ، وتعزيز الخصوصية ، وحماية الأطفال ، والسعي إلى إدارة مخاطر الذكاء الاصطناعي بشكل استباقي لتحقيق المنفعة النهائية.
** 8) تطوير ونشر أنظمة ذكاء اصطناعي متطورة للمساعدة في مواجهة أكبر تحديات المجتمع **
ستحتاج الشركات المشاركة في التعهد إلى الموافقة على دعم البحث والتطوير لأنظمة الذكاء الاصطناعي المتطورة للمساعدة في مواجهة أكبر تحديات المجتمع ، مثل التخفيف من تغير المناخ والتكيف معه ، والكشف المبكر عن السرطان والوقاية منه ، ومكافحة التهديدات السيبرانية. كما تعهدت الشركات بدعم المبادرات الرامية إلى النهوض بتعليم وتدريب الطلاب والموظفين للاستفادة من فوائد الذكاء الاصطناعي ، ولمساعدة المواطنين على فهم طبيعة وقدرات وقيود وتأثيرات تقنيات الذكاء الاصطناعي.