سياسة الذكاء الاصطناعي

1. مقدمة

تحدد سياسة الذكاء الاصطناعي هذه المبادئ والمعايير وإطار الحوكمة الذي يوجّه التصميم والتطوير والنشر والاستخدام المسؤول لأنظمة الذكاء الاصطناعي (AI) .
LRNOVA LTD
وتهدف هذه السياسة إلى ضمان استخدام تقنيات الذكاء الاصطناعي بطريقة أخلاقية وقانونية وشفافة، تضع الإنسان في صميم العملية، وتنسجم مع رسالة الشركة في تحسين نتائج التعلم والتطوير.

2. نطاق التطبيق

تنطبق هذه السياسة على:

  • جميع المنتجات والخدمات والأدوات الداخلية المعتمدة على الذكاء الاصطناعي والتي تطورها أو تديرها LRNOVA.
  • جميع الموظفين والمتعاقدين والمستشارين والشركاء من الأطراف الثالثة المشاركين في تصميم أو تدريب أو نشر أو اتخاذ قرارات متعلقة بالذكاء الاصطناعي.
  • جميع أنواع البيانات المستخدمة في تدريب أو تحسين أو تقييم أو تشغيل أنظمة الذكاء الاصطناعي، بما في ذلك البيانات النصية والصوتية والمرئية وبيانات الصور الرمزية (Avatars).

3. المبادئ الأخلاقية الأساسية

3.1 التصميم المرتكز على الإنسان
  • يجب أن تعزز أنظمة الذكاء الاصطناعي قدرات الإنسان، لا أن تستبدل الحكم البشري في السياقات الحساسة أو الحرجة.
  • يجب الحفاظ دائمًا على الإشراف البشري، خصوصًا في مجالات التعلم والتقييم وإنشاء المحتوى.
3.2 العدالة وعدم التمييز
  • تلتزم LRNOVA بتقليل التحيز في نماذج الذكاء الاصطناعي ومجموعات البيانات المستخدمة.
  • يجب ألا تميّز أنظمة الذكاء الاصطناعي على أساس العرق أو الجنس أو العمر أو الجنسية أو الدين أو الإعاقة أو أي سمة محمية أخرى.
3.3 الشفافية وقابلية التفسير
  • يجب إبلاغ المستخدمين عند استخدام الذكاء الاصطناعي في إنشاء المحتوى أو الصور الرمزية أو الأصوات أو التوصيات.
  • ينبغي أن تكون مخرجات الذكاء الاصطناعي قابلة للتفسير على مستوى عام، خاصة في سياقات التعلم والتدريب.
  • يجب توضيح أن الوسائط الاصطناعية (مثل الصور الرمزية أو الأصوات المُنشأة بالذكاء الاصطناعي) هي وسائط غير حقيقية.
3.4 المساءلة
  • تتحمل LRNOVA المسؤولية الكاملة عن سلوك ونتائج أنظمة الذكاء الاصطناعي الخاصة بها.
  • يتم تحديد مسؤوليات واضحة لتصميم الأنظمة ونشرها ومراقبتها وإدارة المخاطر المرتبطة بها.
3.5 الخصوصية وحماية البيانات
  • يتم جمع ومعالجة وتخزين البيانات الشخصية وفقًا لقوانين حماية البيانات المعمول بها (مثل اللائحة العامة لحماية البيانات GDPR واللوائح المحلية ذات الصلة).
  • يتطلب استخدام بيانات الصوت أو الصورة أو المظهر الشخصي لإنشاء الصور الرمزية موافقة صريحة ومستنيرة.
  • يتم تطبيق مبدأ تقليل البيانات في جميع الأوقات.
3.6 السلامة والموثوقية
  • يجب اختبار أنظمة الذكاء الاصطناعي ومراقبتها وصيانتها لضمان الدقة والمتانة والتشغيل الآمن.
  • يجب توثيق القيود والمخاطر المعروفة وإبلاغ الجهات المعنية بها داخليًا.

4. الاستخدام الأخلاقي للذكاء الاصطناعي التوليدي والصور الرمزية

4.1 نزاهة المحتوى

يجب أن يكون المحتوى التعليمي المُنشأ بالذكاء الاصطناعي:

  • سليمًا من الناحية التعليمية ومتوافقًا مع الأهداف التدريبية.
  • خاليًا من المعلومات المضللة أو الضارة أو الخادعة.
  • خاضعًا للمراجعة البشرية عند استخدامه في سياقات التدريب المهني أو المؤسسي.
4.2 الصور الرمزية الرقمية واستنساخ الأصوات
  • لا يجوز إنشاء الصور الرمزية أو الأصوات الاصطناعية إلا بموافقة تعاقدية صريحة من الشخص المعني.
  • يُحظر استخدام الصور الرمزية لانتحال شخصية أفراد حقيقيين دون تصريح.
  • لا يُسمح للمستخدمين بإنشاء تمثيلات مضللة أو احتيالية باستخدام أدوات LRNOVA.
4.3 الاستخدامات المحظورة

يُحظر استخدام أنظمة الذكاء الاصطناعي الخاصة بـ LRNOVA في:

  • نشر المعلومات المضللة أو الخداع أو التضليل المتعمد.
  • المراقبة أو التنميط أو التقييم الاجتماعي.
  • أي نشاط ينتهك حقوق الإنسان أو القوانين المحلية أو أخلاقيات المهنة.

5. حوكمة البيانات وتدريب النماذج

  • يجب الحصول على بيانات التدريب بطرق قانونية وأخلاقية.
  • لا يجوز استخدام البيانات الحساسة أو الشخصية في التدريب دون أساس قانوني وموافقة موثقة.
  • يجب تقييم أداء النماذج بشكل دوري لرصد التحيز أو الانحراف أو السلوك غير المقصود.

6. مسؤوليات الأطراف الثالثة والشركاء

  • تخضع نماذج الذكاء الاصطناعي وواجهات البرمجة والأدوات التابعة لأطراف ثالثة لتقييم أخلاقي وأمني قبل دمجها.
  • يجب على الشركاء والموردين الالتزام بمعايير أخلاقية لا تقل عن المعايير الواردة في هذه السياسة.
  • لا تقوم LRNOVA عن علم بدمج تقنيات ذكاء اصطناعي تتعارض مع مبادئها الأخلاقية.

7. الحوكمة والإشراف

  • تقوم LRNOVA بتعيين قيادة مسؤولة عن أخلاقيات الذكاء الاصطناعي والامتثال.
  • يتم مراجعة المخاطر الأخلاقية ضمن دورات تطوير المنتجات ونشرها.
  • يُشجَّع الموظفون على الإبلاغ عن أي مخاوف أخلاقية تتعلق باستخدام الذكاء الاصطناعي دون خوف من أي إجراء انتقامي.

8. التحسين المستمر

تُعد هذه السياسة وثيقة ديناميكية. وتلتزم LRNOVA بما يلي:

  • المراجعة والتحديث الدوري بناءً على التغيرات التنظيمية والتطورات التقنية والتجارب العملية.
  • توفير التدريب المستمر ورفع الوعي للموظفين المشاركين في تطوير ونشر أنظمة الذكاء الاصطناعي.

9. إنفاذ السياسة

قد يؤدي عدم الالتزام بهذه السياسة إلى اتخاذ إجراءات تأديبية أو إنهاء التعاقد أو اتخاذ إجراءات قانونية، وذلك حسب درجة المخالفة.

10. تاريخ السريان

تسري سياسة أخلاقيات الذكاء الاصطناعي هذه اعتبارًا من تاريخ اعتمادها، وتطبق على جميع المبادرات الحالية والمستقبلية للذكاء الاصطناعي في LRNOVA LTD.

Scroll to Top