المقدِّمة
شهدت السنوات الماضية ظهور عشرات من مبادرات تتعلق بأخلاقيات الذكاء الاصطناعي ووثائق الحوكمة، منها تقرير المجلس الوطني الأميركي للعلوم والتكنولوجيا ”الاستعداد لمستقبل الذكاء الاصطناعي“، والميثاق الرقمي الأوروبي لعام ٢٠١٦. ومن أجدد الأمثلة؛ مشروع قانون الذكاء الاصطناعي الأوروبي، و”المخطَّط التوجيهي لميثاق حقوق الذكاء الاصطناعي“ الصادر عن إدارة الرئيس الأمريكي بايدن ونائبه هاريس، و”مبادئ ضمان ذكاء اصطناعي آمن ومأمون وجدير بالثقة“ الصادرة عن البيت الأبيض.
ورغم أنّ (مبادرات) أخلاقيات الذكاء الاصطناعي تؤدّي دورًا مهمًا في تحفيز السلوك المهني الأخلاقي، وفي تحديد الواجبات والمسؤوليات الأساسية لمهندسي الحاسوب، وبالتالي إنشاء تطبيقات عادلة وآمنة وجديرة بالثقة، إلّا أنها تأتي أيضًا مع أوجه قصور عدّة. فغالباً ما تكون المبادئ المُقترَحة غامضة ومجرَّدة ومرِنة أكثر من اللازم وتفتقر إلى الإرشادات العملية للتنفيذ. وهذا يخلق فجوة بين النظرية والتطبيق ويُضعِف عملية تحويل المبادئ إلى إجراءات فعلية في سوق الذكاء الاصطناعي.
وكما يشير الناقدون إلى التعارض المحتمل بين المبادئ الأخلاقية والمصالح التجارية، واستخدام تلك المبادرات في ما يُسمّى ”تبييض الأخلاقيات“ أو ”التزيين الزائف“. كما أنّ معظم مبادئ الأخلاقيات تأتي بصيغة ”قوانين مرنة“ (Soft Laws) دون قوة إلزامية، مما يزيد من مخاطر تبييض الأخلاقيات أو التبييض البيئي. وإضافة إلى ذلك، قد يحدث تحايل تنظيمي عندما تنقل شركة ما عمليات تطوير أنظمة الذكاء الاصطناعي إلى بلدان ذات معايير وقوانين أقل شدّة.
أهم الاستنتاجات
مبادئ أخلاقيات الذكاء الاصطناعي المستوحاة من الليبرالية المنظَّمة
للتغلب على الإشكاليات المذكورة، تُحدِّد الورقة تسعة مبادئ يمكن أن تشكِّل أساسًا لميثاق للحقوق الرقمية. كما توضِّح كيفية تنفيذ هذه المبادئ من خلال إطار تنظيمي يستند إلى الليبرالية المنظَّمة وسياسات المنافسة.
احترام حقوق الإنسان
تتطلَّب الليبرالية المنظَّمة (ذات الجذور الكانطية) نهجًا يتمحور حول الإنسان، ويحفظ المشيئة البشرية، والتحكُّم، والإشراف، والمسؤولية في الاقتصاد الرقمي. يستلزم التحكم البشري في تقنيات الذكاء الاصطناعي، من بين أمور أخرى، مراجعة القرارات المؤتمتة والقدرة على الانسحاب من القرارات المحوسبة. كما يستلزم تقييم الآثار المجتمعية لأنظمة الذكاء الاصطناعي وآثارها على المشيئة البشرية وتعزيز القيم الإنسانية، مثل الرفاهية والازدهار، وإتاحة الوصول إلى التكنولوجيا، وتسخير التكنولوجيا لفائدة المجتمع.
حماية البيانات والحق في الخصوصية
تعني الخصوصية باعتبارها حقًا من حقوق الإنسان ضرورة فرض قيود صارمة على المراقبة واسعة النطاق والتجسُّس التعسفي. كما تشمل ضرورة تمكين الأفراد من تقرير مصيرهم المعلوماتي والسيادة على بياناتهم، ويشمل ذلك التحكُّم في كيفية استخدام تلك البيانات والقدرة على الحد من معالجتها. ويشمل ذلك أيضًا الحق في تصحيح المعلومات أو حذفها، واعتماد مبدأ الخصوصية من مرحلة التصميم، وضمان أمن البيانات، وسنّ قوانين فعّالة لحمايتها.
البرّ ومنع الضرر
يرتبط منع الضرر بالسلامة والأمن. وتتمثل المعايير الأساسية في هذا السياق في ضمان المتانة التقنية لأنظمة الذكاء الاصطناعي، ومنع الاستخدام الخبيث لها، وضمان إمكانية استخدام طرق وأدوات البحث والتطبيقات المتعلقة بها بفاعلية. كما يشمل ذلك توفير خطط طوارئ ومخارج آمنة، وأخذ المخاطر غير المعروفة بعين الاعتبار.
عدم التمييز وحرية الامتيازات
ترتبط مبادئ الليبرالية المنظِّمة في عدم التمييز وحرية الامتيازات بالسعي إلى تجنُّب جميع أشكال التمييز والتلاعب والتنميط السلبي، والحدّ من الانحيازات الخوارزمية أو منعها. ويتطلب ذلك استخدام بيانات شاملة وموثوقة، واعتماد معايير الإنصاف والمساواة والشمول في كل من الأثر والتصميم. كما يستلزم إيلاء عناية خاصة بالفئات الضعيفة والمهمشة، مثل الأطفال والمهاجرين والأقليات العرقية، وبالمخاطر المرتبطة بالتهميش وعدم المساواة.
الإنصاف والعدالة
هناك أربعة أنواع من الإنصاف المرتبط بالذكاء الاصطناعي يجب التمييز بينها؛ البيانات المنصِفة، والتصميم المُنصِف، والنتائج المُنصِفة، والتنفيذ المُنصِف. تتطلب البيانات المُنصِفة التخفيف من الانحيازات وعدم توليد آثار تمييزية أو غير عادلة على الأفراد والمجتمعات المتضرِّرة. ويتطلب التصميم المنصف أن تُبنَى أنظمة الذكاء الاصطناعي بطريقة لا تتضمن متغيرات أو خصائص أو عمليات أو هياكل تحليلية غير منطقية أو غير أخلاقية أو يصعب تبريرها. وتتطلب النتائج المُنصفة ألّا يكون للأنظمة آثار تمييزية أو غير عادلة على حياة الأشخاص الذين تؤثِّر عليهم. ويتطلب التنفيذ المُنصِف نشر أنظمة الذكاء الاصطناعي على يد مُستخدِمين مدرَّبين بشكل كافٍ لتنفيذها بمسؤولية ودون تحيُّز.
الشفافية وقابلية التفسير في أنظمة الذكاء الاصطناعي
يتطلب معيار الشفافية في الليبرالية المنظَّمة قابلية التفسير والتواصل المفتوح، وبيانات وخوارزميات ومشتريات حكومية مفتوحة المصدر، والحق في الوصول إلى المعلومات والتقارير المُنتظَمة، والإخطار عندما يتخِّذ النظام قرارًا بشأن فرد ما، والإخطار عند تفاعل البشر مع تقنيات الذكاء الاصطناعي.
المساءلة والمسؤولية
تشير المساءلة إلى إمكانية التحقُّق من الأنظمة وإعادة إنتاج مخرجاتها، وتتطلَّب الالتزام بمتطلبات التقييم والفحص، وإنشاء جهة رقابية، وإتاحة حق الاستئناف، وتوفير سبل التعويض عن القرارات الآلية، إضافةً إلى الالتزام بمبدأ المسؤولية القانونية واعتماد تشريعات جديدة تدعم ذلك. إضافة إلى ذلك، تشير المساءلة الخوارزمية إلى نظرة الجمهور لممارسات الشركات في مجال الذكاء الاصطناعي، ومتابعة هذه الممارسات من خلال الرقابة الداخلية والخارجية.
الديمقراطية وسيادة القانون
يتطلَّب مجتمع القانون الليبرالي المنظَّم إدماج أنظمة الذكاء الاصطناعي داخل بيئات ديمقراطية تقوم على سيادة القانون، مع ضمان رقابة برلمانية وقضائية كافية، وذلك بما يتوافق مع مفهوم ”أخلاقيات النظام التداولي“. وترتكز هذه الفكرة على نظرية تعاقدية في أخلاقيات الأعمال تقوم على المشاركة والنقاش، أي إشراك أصحاب المصلحة في حوار شامل ومتساوٍ ومتنوِّع، واعتماد نهج ”الإشراك المجتمعي“ (Community-in-the-loop).
الاستدامة البيئية والاجتماعية
تتعلَّق الاستدامة البيئية بالآثار البيئية والبصمة الكربونية لتقنيات الذكاء الاصطناعي، مثل الاستهلاك الكبير للطاقة والانبعاثات التي تُرافِق مراكز تجميع البيانات أو مشكلة النفايات الإلكترونية. وتستلزم الاستدامة الاجتماعية الوعي المستمر لمطوِّري الذكاء الاصطناعي فيما يتعلق بتأثيرات تقنياتهم على الواقع. كما تُعَدّ العناية الواجبة بحقوق الإنسان وتقييم تأثير أصحاب المصلحة عنصرين أساسيين، أي دراسة الآثار المحتملة للتقنيات على الأفراد والمجتمع والعلاقات بينهم.
إطار سياسة ليبرالي منظَّم للذكاء الاصطناعي
من منظور ليبرالي منظَّم، يستند تنفيذ المبادئ المذكورة إلى ركيزتين؛ السياسة التنظيمية وسياسة المنافسة. يُعَدّ قانون الذكاء الاصطناعي الأوروبي خطوة مهمة في الاتجاه الصحيح لتحقيق الركيزة الأولى من إطار أخلاقيات الذكاء الاصطناعي القائم على الليبرالية المنظَّمة. ومع ذلك، ولزيادة توافق القانون مع النموذج الليبرالي المنظَّم، يجب اتخاذ عدّة تدابير إصلاحية، مثل إدخال أو تعزيز:
- إجراءات تقييم المطابقة (CAPs)
- المساءلة الديمقراطية والرقابة القضائية
- آليات التعويض والشكاوى
- حماية العمال
- هيكل الحوكمة
- تمويل وتوظيف سلطات مراقبة السوق
- الاعتبارات المتعلقة بالاستدامة
يجب أن ترافِق تشريعات الذكاء الاصطناعي أيضًا سياسة منافسة مناسبة لمعالجة اختلالات القوة في الاقتصاد الرقمي. وكما أوضحنا في مواضع أخرى، فإن أنظمة مكافحة الاحتكار الحالية في الاتحاد الأوروبي وخاصة في الولايات المتحدة معيبة. فهي لا تستطيع أن تُحقِّق اقتصاد تنافسي بالكامل، ولا أن تفتح الأسواق على نحو فعّال، ولا أن تُعالِج اختلالات القوة في السوق، كما تعجز عن الحد من نفوذ جماعات كسب التأييد (Lobbyists) والسعي وراء الريع، وتعجز عن مراجعة صفقات الاندماج والاستحواذ وعرقلتها بالشكل المطلوب، أو تطبيق الإجراءات السلوكية والهيكلية اللازمة. وقد أظهر الاتحاد الأوروبي إمكانات واعدة، وخاصة في تحقيقاته الأخيرة في قضايا الاحتكار ومقترحاته السياسية. ومع ذلك، ولتحقيق معايير الليبرالية المنظَّمة المذكورة أعلاه بالكامل، علينا أن نعزِّز نظام مكافحة الاحتكار الأوروبي، وأن نشدِّد قانون الأسواق الرقمية (DMA). ويمكننا أن نُحقِّق ذلك بمجموعة من المقترحات الإصلاحية التالية:
- تحديث قوانين مكافحة الاحتكار وملائمتها مع الاقتصاد الرقمي
- نقل عبء الإثبات من هيئات المنافسة إلى أطراف الاندماج
- إرساء افتراض قانوني مضاد للاندماج
- مراجعة الإرشادات الحالية للاندماجات وإدخال رقابة لاحقة عليها
- زيادة استخدام العلاجات السلوكية والهيكلية
- ضمان حيادية المنصات على غرار حيادية الإنترنت
- تحسين التمويل والتوظيف ضمن هيئات مكافحة الاحتكار
- زيادة العقوبات المالية على الممارسات المناهضة للمنافسة
- تحسين حماية المُبلِغين
- تعزيز التعاون الدولي
ما بين الأسطر
لقد انصَبّ تركيز بحثنا حتى الآن على المستوى الكلّي، أي على الدول والحكومات. وفي الخطوة التالية من مشروعنا البحثي، سنوسِّع منهجنا ليشمل المستوى الجزئي (أي علماء البيانات والباحثين في الذكاء الاصطناعي) إضافة إلى المستوى الكلّي (أي الشركات والمنظمات). ونهدف إلى تقديم إرشادات عملية وواضحة لمطوِّري الذكاء الاصطناعي ومشغِّليه والمستشارين السياسيين، بما يتجاوز النظرة العامة لإجراءات الإصلاح الواردة في هذه الورقة، على أمل أن تجد بعض هذه المقترحات طريقها إلى التشريعات المستقبلية الخاصة بأخلاقيات الذكاء الاصطناعي ومكافحة الاحتكار، وكذلك إلى مدوَّنات السلوك المهنية والمؤسسية وإلى الممارسات التجارية حول العالم.
