3666 144 055
[email protected]
لو أخبرتكم أن Netflix لا تعمل في مجال الإعلام والترفيه فقط؟
Netflix تملك أكبر قاعدة مشتركين في جميع أنحاء العالم، كما أنها تمكنت من الاستمرار في نموها بنسبة 25٪ العام الماضي. وتتنافس قيمتها السوقية مع شركة ديزني، الشركة الترفيهية الأكثر قيمة في العالم. سر قصة نجاح Netflix هو تركيز جزء كبير من عملهم على استخدام تقنيات الذكاء الاصطناعي ليصلوا لفهم دقيق بقاعدة المشتركين لديهم. لا تنظر Netflix فقط إلى التقييمات على عمليات البحث وعدد مرات “التشغيل” يَوْمِيًّا، ولكن أيضًا تجمع البيانات لسجل المشاهدة الكامل للمستفيدين لمليارات الساعات من المحتوى المتدفق شَهْرِيًّا. بالطبع هذا ليس بالأمر الهين، حيث استغرق الأمر منهم 6 سنوات لجمع ما يكفي من بيانات المشاهدين لتصميم طريقة عرض حققت نجاحًا عَالَمِيًّا. إذا، نجاح الأعمال، تجارية أو حكومية، له عدة ركائز من ضمنها استخدام الذكاء الاصطناعي، ولكن هذا الاستخدام قد يستغل بشكل سلبي. لذلك، الكثير من الدول الآن تعمل بجد من أجل وضع أنظمة وتشريعات تحفظ الحقوق وتمنع الاستخدام غير الإيجابي لتقنيات الذكاء الاصطناعي.
لايخفى على من هم في ميدان التقنية والسياسة والقانون، أن الحكومات تواجه مجموعة من التحديات حول سياسات وقوانين استخدام تقنيات الذكاء الاصطناعي. تكلم جيس ويتلستون، عالم في أخلاقيات استخدام الذكاء الاصطناعي، عن الاستثمار في قدرة الحكومات على مراقبة تطور تقنيات الذكاء الاصطناعي. حيث إن الذكاء الاصطناعي كصناعة يعمل على إنشاء مجموعة من البيانات والمقاييس من أجل الإحصاء وتجميع البيانات بشكل يحسن قدرة الحكومات فهم أهم المخاطر التي تنشأ نتيجة استخدام تقنيات الذكاء الاصطناعي. ومن ثم، يتم استخدام هذه البيانات عن طريق توظيف طرف ثالث، مثل مراكز الأبحاث المتخصصة لتحديد احتياجات الحكومات والعراقيل التي تواجهها أو ستواجهها في المستقبل.
لكن، على الرغم من التطور التقني السريع في زمننا هذا، إلا أن هنا تطورا بطيئا في مجال التشريعات والقوانين المختصة بهذا الموضوع. على سبيل المثال، في شهر مايو الماضي، الاتحاد الأوروبي أصدر مسودة نظام قانوني لاستخدام تقنيات الذكاء الاصطناعي، وبذلك يكون هو أول هيئة تتخذ خطوة جادة ومنطقية لتشريعات استخدام الذكاء الاصطناعي.
اعتمد مشروع النظام على تقسيم مخاطر استخدام الذكاء الاصطناعي إلى ثلاث أقسام. القسم الأول أنظمة الذكاء الاصطناعي غير المقبولة، وأنظمة الذكاء الاصطناعي عالية الخطورة، وأنظمة الذكاء الاصطناعي المحدودة المخاطر. ومن هنا تنطلق المؤسسات لتحديد ما إذا كان استخدامها للتقنيات مشروع نظاما أم لا. فتعتبر أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة إذا ترتب عليها استغلالا يسبب ضررا فادحا أو تقييم عواطف الإنسان مثل تقييم مصداقيته وفقا للسلوك الاجتماعي المتوقع. في حين أن أنظمة الذكاء الاصطناعي عالية المخاطر تلك التي تُقَيِّم الجدارة الائتمانية للمستهلك، وتساعد في تعيين الموظفين أو أسلوب الإدارة.
وأخيرا، تشتمل أنظمة الذكاء الاصطناعي المحدودة والمحدودة المخاطر على العديد من تطبيقات الذكاء الاصطناعي المستخدمة حَالِيًّا في جميع أنحاء عالم الأعمال، مثل روبوتات الدردشة والمحادثات وإدارة البيانات المدعومة بالذكاء الاصطناعي… إلخ.
الهدف من هذا المقال هو إن تشريعات الذكاء الاصطناعي تحتاج لذكاء تشريعي أيضا، إذ إن التطور التقني سريع جدا، والأنظمة القانونية لا بد من أن تصمم بشكل يستطيع التنبؤ بالمشكلات المستقبلية لكي، على الأقل، تواجه المشكلات التي قد تحدث إلى حيث إصدار تشريعات جديدة. فهذا المجال ليس بالأمر الهين، إذ إنه مرتبط بشتى المجالات، سواء الأمن القومي والسياسة والعلاقات الدولية، والحياة المدنية.
© 2020 جميع حقوق النشر محفوظة لـ صحيفة مال
الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734