كيف لا تسمح للذكاء الاصطناعي أن يفسد حياتك
الصفحة الرئيسية التقنيات, الذكاء الصنعي

12 قانون لصناعة الروبوتات.

خلال سنوات كثيرة كان المصطلح "الذكاء الاصطناعي" معمماً جداً ويتصف باتخاذ قرارات بناء على الخوارزميات الآلية. ولكن مع التقدم وشيوع هذه التكنولوجيا أخذت نتائج أعمال الذكاء الاصطناعي تؤثر على حياة الناس أكثر وأكثر ابتداء من استلام القروض وانتهاء بتعيين العقوبات الجنائية.

بيد أنه في غالب الأحيان تتخذ هذه القرارات باستخدام خوارزميات مستورة حاصلة على براءة الاختراع لذا يكاد يستحيل التأكيد ما إذا كانت عادلة و مسوغة فعلاً. لذا باشرت لجان خاصة بتصميم مجموعة من المبادئ التوجيهية هدفها حماية البشرية من مجموعة كاملة من الأخطار التي يخلقها الذكاء الاصطناعي.

منذ فترة تم الإعلان عن هذه المجموعة المكونة من 12 قاعدة شاملة في المشاورة التي تمت في بروكسل. تستهدف هذه القواعد التكامل في الذكاء الاصطناعي بغرض ضمان حماية حقوق الإنسان. سيتمكن الناس بفضلها من استلام المعلومات حول منطق وطريقة اتخاذ القرارات من قبل الذكاء الاصطناعي. كما وستوفر هذه المجموعة النزاهة الضرورية التي تبعد خطر القرارات التمييزية و تضمن الحماية الضرورية للمنظومة من الأخطار الكمبيوترية.

دعا أكثر من 200 خبير و50 منظمة ومن بينها اتحاد العلماء الأمريكيين وإحدى المنظمات الرائدة لحماية المخبرين Government Accountability Project إلى إدخال الأسس، ولكن على الأرجح سيستغرق ذلك شهوراً.

دعنا ننظر في المجموعة الكاملة لهذه القواعد:

  1. حق الشفافية. كل الناس يحق لهم أن يعرفوا خلفية قرارات الذكاء الاصطناعي التي تخصهم. ويضم ذلك الوصول إلى العوامل والمنطق والطرق التي أدت إلى النتيجة النهائية.
  2. حق اتخاذ القرار من قبل الإنسان. للكل الحق على جلب العامل البشري لاتخاذ القرار النهائي.
  3. تحديد الهوية الإلزامي. يجب أن تُقَدم المنظمة المسؤولة عن منظومة الذكاء الاصطناعي للجمهور.
  4. ضرورة توفير النزاهة. على المنظمات أن تتأكد من أن منظومات الذكاء الاصطناعي خالية من التحيز غير العادل والقرارات التمييزية غير المقبولة.
  5. ضرورة التقدير والحساب. لا يجوز تشغيل منظومة الذكاء الاصطناعي إلا بعد التقدير المناسب لأهدافها ووظائفها وأفضلياتها ومخاطرها. على المنظمات تحمل كامل المسؤولية عن القرارات التي يتخذها الذكاء الاصطناعي.
  6. ضرورة ضمان الدقة والأمانة والصحة. على المنظمات توفير دقة وأمانة وصحة القرارات المتخذة.
  7. ضرورة مراقبة كيفية البيانات. على المنظمات تحديد مصادر البيانات والإشراف على كيفيتها وحيويتها قبل إدراجها إلى الخوارزمية.
  8. ضرورة توفير الأمن العام. على المنظمات تقدير المخاطر للأمن العام التي تظهر عند إدراج منظومات الذكاء الاصطناعي التي توجه أو تراقب الأجهزة المادية والقيام بالإشراف على الأمن.
  9. ضرورة توفير الأمن الكمبيوتري. على المنظمات حماية منظومات الذكاء الاصطناعي من أخطار الهجوم الكمبيوتري.
  10. وضع الحظر على التنميط الخفي. يمنع لأية منظمة إنشاء أو استخدام منظومة التنميط الخفي.
  11. وضع الحظر على تقدير المواطنين وفقاً لمعلمات محددة. لا يجوز لأية حكومة إجراء التقدير العام لمواطنيها أو سكانها.
  12. ضرورة إغلاق النظام. لكل منظمة مصممة منظومة الذكاء الاصطناعي الالتزام المباشر على إغلاق عمل المنظومة في حال تعذر إجراء الإشراف المطلوب عليها.
اقرأ أيضا:
الرجاء وصف الخطأ
إغلاق