قوانين وأخلاقيات الذكاء الاصطناعي وتشريعاته

كتابة : بكه

22 أبريل 2024

فهرس المحتويات

شهدت السنوات الأخيرة زيادة كبيرة في أعداد الشركات التي تعتمد على تقنية الذكاء الاصطناعي في تسريع عملياتها الداخلية وأتمتة المهام العادية، بهدف تقليل الأخطاء البشرية قد الإمكان وبالتالي زيادة الإنتاجية، ولكن الكثير من تلك الشركات لا تلقي بالًا بأخلاقيات الذكاء الاصطناعي والتي تضمن استخدام هذه التكنولوجيا بشكل آمن لا يسبب أية مخاطر، لذلك نوضح في هذا المقال ما هي أخلاقيات الذكاء الاصطناعي بشكل عام وفي التعليم، وأخلاقيات بياناته وتشريعاته وقوانينه.

أخلاقيات الذكاء الاصطناعي:

يشير مصطلح أخلاقيات الذكاء الاصطناعي إلى مجموعة من المبادئ التي توجه كيفية استخدام هذه التقنية وتطويرها، وهي المبادئ التي تدمجها المنظمات بشكل رسمي في سياسات أخلاقيات الذكاء الاصطناعي من أجل ضمان إبقاء القرارات التي يتخذها الموظفون وأصحاب المصلحة ضمن المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي، وهو ما يؤدي إلى تقليل المخاطر إلى أدنى حد، والتركيز على تحسين حياة البشر.

ومع زيادة الاعتماد على تقنية الذكاء الاصطناعي في مختلف المجالات، بات على مديري المعلومات وقادة الأعمال معرفة ما هي أخلاقيات هذه التقنية، وكيف يمكنهم تحقيق التوافق بين العمليات وبين أخلاقيات الذكاء الاصطناعي التي تشمل ما يلي:

1- الشفافية

المقصود بشفافية أنظمة الذكاء الاصطناعي، فهم الشركات والعملاء والجمهور كيفية عمل الخوارزميات ولماذا اتخذ الذكاء الاصطناعي قرارات معينة.

وعلى سبيل المثال، قد يقدم عميل أحد البنوك طلبًا عبر الإنترنت بالحصول على قرض ولكنه يُقابل بالرفض، في هذه الحالة يحتاج العميل إلى معرفة سبب رفض الخوارزمية لطلبه، إذ يحصل على المعلومات التي تعزز من فرص قبول طلبه مستقبلًا.

2- الحياد

يُعد الحياد من أبرز مبادئ الذكاء الاصطناعي، والذي يعني أن هذه التقنية يجب أن تعامل الجميع على قدم المساواة دون تمييز أو تحيز، وألا تؤثر أبدًا على الموظفين بطرق مختلفة، وأن يشارك خبراء الموارد البشرية بشكل مباشر في عملية التصميم والاختيار، وقبل نشر أي نظام للذكاء الاصطناعي؛ لا بد من توفير تدريبًا عليه.

3- المساءلة

تُصنف المساءلة كواحدة من أهم أخلاقيات الذكاء الاصطناعي، والتي تعني محاسبة الأشخاص والمنظمات الذين عملوا على نظام الذكاء الاصطناعي في كل مرحلة من مراحل العملية.

والالتزام بمبدأ المساءلة يتطلب تأكد فرق العمل من فهمها لمدى جودة عمل النظام، مع الإشراف على تطوير الخوارزميات، إضافة إلى تحري الدقة عند اختيار البيانات التي يتم إدخالها في النظام لتكون عالية الجودة، كما يتعين على المنظمات الاستعانة بخبراء التنوع واستشارتهم في هذا الأمر.

وفي ذات السياق، لا بد من إجراء مراجعة خارجية لنظام الذكاء الاصطناعي، إذ تم استخدامه  لأغراض حساسة، مثل الخدمات العامة.

4- الموثوقية

يجب أن تكون أنظمة الذكاء الاصطناعي التي تعتمدها المنظمات للقيام بعملياتها موثوقة، من أجل ضمان تحقيق النظام نتائج متسقة وقابلة للتكرار، وهو ما يتعين التأكد منه عند استخدام تلك الأنظمة  لخدمات مهمة، مثل الرعاية الصحية أو تطبيقات الائتمان.

وللتأكد من موثوقية أنظمة الذكاء الاصطناعي لا بد من مراقبتها، حتى يتسنى الإبلاغ عن أية مخاطر على الفور واتخاذ التدابير اللازمة للتقليل منها.

كما يجب أيضًا مراقبة مخرجات الذكاء الاصطناعي، خاصة مع التغير المستمر لمصادر البيانات وظهور مصادر جديدة، وبالتالي تزداد أهمية موثوقية الخوارزميات قياسًا إلى  المجموعة الواسعة من العمليات التي تستفيد من الذكاء الاصطناعي عبر المؤسسة.

5- الأمن

يشكل أمن التكنولوجيا مصدرًا لقلق المنظمات خاصة بعد التهديدات التي تواجه بياناتها المحمية، الأمر الذي أوجب توفير الحماية لنماذج الذكاء الاصطناعي من تلك الهجمات، ولذلك يجب أن يفهم مديرو المعلومات ما هي المخاطر التي تهدد منظماتهم وما هو تأثيرها على التكنولوجيا المُستخدمة، وعليهم  التأكد من أن الذكاء الاصطناعي الذي يعتمدون عليه آمنًا بما يكفي لتقليل المخاطر.

6- الخصوصية

على المنظمات التي تعتمد على تقنية الذكاء الاصطناعي في العمليات التجارية مثل قطاعات الرعاية الصحية والمصارف، حماية بيانات عملائها والحفاظ على خصوصيتهم، ولذلك يتعين على مديري المعلومات التحقق من وجود تدابير لحماية البيانات الحساسة وتوفير خصوصية الأعمال والعملاء في تقنية الذكاء الاصطناعي المُستخدمة.

ويولي الأفراد والشركات اهتمامًا كبيرًا بالخصوصية التي يحصلون عليها من خلال تقنية الذكاء الاصطناعي، خاصة بعد تزايد اعتمادهم على السحابة لإجراء الأعمال والمعاملات وتخزين المعلومات الخاصة، ولذلك يجب أن تتأكد المؤسسات من أن توفر هذه الخصوصية، حتى تحافظ على ثقة عملائها.

7- الشمولية

تعني شمولية أنظمة الذكاء الاصطناعي توفرها وإتاحتها للجميع، بحيث يستطيع كافة الموظفين فهمها بغض النظر عن اختلافاتهم الثقافية أو من ناحية الجنس أو العرق أو التوجه.

اخلاقيات البيانات في الذكاء الاصطناعي:

المقصود بأخلاقيات البيانات في الذكاء الاصطناعي القيم والمبادئ التي تحكم جمع البيانات وتخزينها واستخدامها ونشرها بطريقة أخلاقية عبر هذه التقنية، وهي تشمل ما يلي:

العدالة

في هذه التقنية، يجب أن تكون طريقة جمع البيانات واستخدامها عادلة دون أي تحيز، وألا يؤدي جمعها إلى تفاقم أوجه عدم المساواة أو التحيز القائمة.

الشمولية

يجب أن يكون جمع البيانات واستخدامها شاملين، إذ تشمل هذه العملية إدراك ومعالجة أي تحيزات محتملة في البيانات، والبحث عن أية وجهات نظر غير كاملة.

الوضوح

المقصود بوضوح بيانات الذكاء الاصطناعي هو وضوح مبادئ أخلاق تلك البيانات لجميع أصحاب المصلحة، إذ يتم الإعلان عن الغرض من تجميعها واستخدامها، وأن تكون هناك معلومات متوفرة عن كيفية جمع البيانات وتخزينها وحمايتها.

خصوصية البيانات

عند اعتماد نظام الذكاء الاصطناعي في أي مجال؛ يجب جمع البيانات واستخدامها بطريقة تحمي المعلومات الشخصية للأفراد، من خلال الالتزام بعدم مشاركة تلك البيانات أو استخدامها بطرق تنتهك حقوق خصوصية الأفراد.

المسؤولية

يعني هذا المبدأ مسؤولية جامعو البيانات ومستخدموها عن جمع تلك البيانات واستخدامها بشكل أخلاقي، وبالتالي فهم مسؤولون عن أي ضرر ينجم عن القيام بهذه العملية.

أمن البيانات

يجب اتباع أكثر الطرق أمنًا عند تخزين البيانات وإرسالها، من أجل حمايتها من الوصول إليها أو استخدامها أو الكشف عنها دون إذن.

الشفافية في صنع القرار

عند استخدام البيانات المُجمعة في تقنية الذكاء الاصطناعي في اتخاذ أي قرار؛ يجب أن تكون تلك القرارات قابلة للتفسير، حتى يفهم الأفراد كيفية ولماذا يتم اتخاذ القرارات.

الدقة

يجب أن تكون البيانات المُستخدمة في الذكاء الاصطناعي دقيقة، وهو ما يتحقق من خلال فرز تلك البيانات وتوصيلها ومشاركتها بعناية وعدم إخراجها من سياقها.

الحيادية

فيما يخص الحياد في البيانات المُدخلة إلى نظام الذكاء الاصطناعي؛ فهو شيء لا يمكن لتلك الأنظمة تحقيقه من تلقاء نفسها، بل يتم تنفيذ هذا المبدأ خلال مرحلة جمع البيانات، تلك البيانات التي يجب أن تكون عالية الجودة وخالية من التحيزات التي لا يستطيع الذكاء الاصطناعي التقاطها.

التقييم المستمر

على جميع المنظمات المداومة على تقييم الآثار الأخلاقية المترتبة على ممارساتها في مجال جمع البيانات واستخدامها، مع إجراء أي تغيير يضمن توافق تلك الممارسات مع المبادئ المذكورة.

أخلاقيات الذكاء الاصطناعي في التعليم:

يُعد قطاع التعليم من أهم القطاعات التي اعتمدت نظام الذكاء الاصطناعي خلال السنوات الأخيرة، بهدف تقديم إمكانيات جديدة تعزز من العملية التعليمية.

وتتمثل أخلاقيات استخدام الذكاء الاصطناعي في التعليم التي يجب على المعلمين والقائمين على هذا النظام أن يكونوا على دراية بها فيما يلي:

1- حماية الخصوصية

تُستخدم أنظمة الذكاء الاصطناعي في جمع وتحليل كميات هائلة من بيانات الطلبة، ومنها بعض المعلومات الحساسة مثل البيانات الديموغرافية وصعوبات التعلم والأداء الأكاديمي والسلوك والمعلومات الصحية، وهو ما يفرض على المعلمين معرفة كيفية جمع تلك البيانات وتخزينها واستخدامها، بما يحافظ على خصوصية الطلبة.

2- ضمان العدالة

يجب أن يتأكد المعلمون من أن أنظمة الذكاء الاصطناعي التي يستخدمونها عادلة ولا تميز ضد مجموعات معينة من الطلبة، لأن تلك الأنظمة قد تؤثر على نتائجهم، مثل الدرجات ونتائج القبول.

3- تعزيز المواطنة الرقمية

مع زيادة انتشار أنظمة الذكاء الاصطناعي في جميع المجتمعات؛ بات من الضروري قيام المعلمين بتعليم الطلبة الاعتبارات الأخلاقية لتلك الأنظمة، حتى يصبح الطلبة أفراد رقميين مسؤولين ويتخذون قرارات مستنيرة بشأن استخدامهم للتكنولوجيا.

4- الوضوح والشفافية

يجب أن تكون أنظمة الذكاء الاصطناعي المُستخدمة في التعليم واضحة، حتى يمكن للطلبة والمعلمين فهمها واستيعابها، وبالتالي تصبح لديهم القدرة على الوثوق أو التحقق أو التشكيك في نتائج تلك الأنظمة.

5- المساءلة والمسؤولية

عند استخدام أنظمة الذكاء الاصطناعي في التعليم؛ يجب تقديم معلومات حول المسؤول عن تصميمها أو تطويرها أو نشرها أو استخدامها أو تأثيرها في التعليم، حتى يكون هناك وضوح في توزيع الأدوار والواجبات بين مختلف الجهات الفاعلة المشاركة في النظام البيئي للذكاء الاصطناعي.

قوانين الذكاء الاصطناعي:

بعد مناقشات امتدت لعدة سنوات، وضع الاتحاد الأوروبي أولى تشريعات الذكاء الاصطناعي، وهي مجموعة من القوانين التي تنظم استخدام وتطوير هذا النظام، وذلك للحد من خطورة استخداماته.

وتشمل الالتزامات الرئيسية لاستخدام نظام الذكاء الاصطناعي على عدة نقاط وهي كما يلي:

النظم عالية ومحدودة المخاطر

أنظمة الذكاء الاصطناعي عالية المخاطر هي الأنظمة التي تسبب أضرارًا بالحقوق الأساسية والصحة والسلامة والبيئة والديمقراطية وسيادة القانون، وباتت تلك الأنظمة مُلزمة بتنفيذ عدة متطلبات مثل الخضوع إلى تقييم تأثير الحقوق الأساسية والالتزامات بالوصول إلى سوق الاتحاد الأوروبي.

أما أنظمة الذكاء الاصطناعي محدودة المخاطر، فسوف تخضع لالتزامات بسيطة مثل نشر الملصقات التي توضح استخدام الذكاء الاصطناعي في إنشاء المحتوى، حتى يعرف المستخدمين كيفية استخدامه.

استخدام الذكاء الاصطناعي في إنفاذ القانون

هناك حالات محدودة تسمح لجهات إنفاذ القانون باستخدام نظم تحديد الهوية البيومترية في الوقت الحقيقي في الأماكن العامة، وهي الحد من التهديدات الإرهابية، والكشف عن هوية ضحايا الاستغلال الجنسي والاتجار بالبشر والاختطاف، وتعقب المشتبه في ارتكابهم الجرائم البيئية والجرائم الإرهابية وجرائم الاغتصاب والسطو المسلح والاختطاف والقتل والاستغلال الجنسي.

أنظمة الذكاء الاصطناعي ذات الأغراض العامة

على أنظمة الذكاء الاصطناعي ذات الأغراض العامة الالتزام بمتطلبات الشفافية، مثل إعداد الوثائق الفنية والامتثال لقانون حقوق النشر، ونشر ملخصات حول المحتوى المُستخدم للتدريب على الخوارزميات.

الذكاء الاصطناعي المحظور

هناك العديد من أنظمة الذكاء الاصطناعي التي حظرتها لوائح الاتحاد الأوروبي وهي:

  • تحديد الدرجات الاجتماعية على أساس السلوك الاجتماعي أو الخصائص الشخصية.
  • الأنظمة التي تتلاعب بالسلوك البشري بهدف التحايل على الإرادة الحرة.
  • أنظمة التصنيف البيومترية التي تستخدم خصائص حساسة مثل العرق والتوجه الجنسي والمعتقدات الدينية والسياسية.
  • إنشاء قواعد بيانات للتعرف على الوجه من خلال إجراء كشط غير مستهدف لصور الوجه من الإنترنت.

وفيما يخص عقوبات انتهاك قوانين الذكاء الاصطناعي؛ فهي تتحدد وفقًا لنوع الانتهاك وحجم الشركة صاحبة المخالفة، إذ يتم توقيع عقوبات مالية تبدأ من 7.5 مليون يورو أو 1.5٪ من حجم المبيعات السنوي العالمي، وتصل إلى 35 مليون يورو أو 7٪ من حجم المبيعات العالمي.

دورات تقنية معتمدة في تقنيات المعلومات:

إذا كنت ترغب في صقل خبراتك في مجال حوكمة تكنولوجيا المعلومات وإدارة الخدمات؛ يمكنك الالتحاق بالدورات التدريبية المُعتمدة التي تقدمها منصة بكه التعليمية وهي:

 

وفي الختام، فإن تزايد الاعتماد على الذكاء الاصطناعي في مختلف الصناعات يفرض على المنظمات التأكد من أن هذه التقنية تلبي المعايير الأخلاقية وتحل تحديات الأعمال.

واتساب