الأحد, 25 مايو 2025
صحيفة مال

No Result
View All Result
  • الرئيسية
  • مؤشر LFII
  • أعضاء مجالس الإدارات
  • مال Think Tank
  • إصدارات خاصة
  • VIP
  • الاخبار الاقتصادية
  • عقار
  • أعمال تك
  • توصيات الاسهم وكبار الملاك
  • مال المدينة
  • English
  • الرئيسية
  • مؤشر LFII
  • أعضاء مجالس الإدارات
  • مال Think Tank
  • إصدارات خاصة
  • VIP
  • الاخبار الاقتصادية
  • عقار
  • أعمال تك
  • توصيات الاسهم وكبار الملاك
  • مال المدينة
  • English
No Result
View All Result
صحيفة مال
No Result
View All Result

هل قوانين حماية البيانات جاهزة لمواجهة الذكاء الاصطناعي التوليدي؟

12 أبريل 2025

سلطان بن سعود بن جنيدب

أولاً: لا يعطي المجد ذاته إلا لمن يحلم به دوما – شارل ديغول
أحدثت أدوات الذكاء الاصطناعي التوليدي نقلة نوعية في آلية إنتاج المحتوى الرقمي، حيث بات بالإمكان توليد النصوص، والأكواد، والصور من خلال نماذج متقدمة تعتمد على كميات ضخمة من البيانات. إلا أن هذا التحول السريع يطرح جملة من التحديات القانونية وأخلاقية معقدة منها: من المسؤول عن الأخطاء؟ ومن يملك ما يُنتج؟ وكيف نحمي بيانات الأفراد في خضم هذا الزخم التكنولوجي؟، لاسيما في نطاق حماية البيانات الشخصية، وحقوق الملكية الفكرية، وتحديد المسؤولية النظامية في حال حدوث أضرار ناتجة عن مخرجات هذه الأدوات. وقد شهدت بعض الأنظمة القضائية ردود فعل تجاه هذه التحديات، كما هو الحال في إيطاليا التي قررت في عام 2023 إيقاف أحد نماذج الذكاء الاصطناعي التوليدي بدعوى مخالفته لمتطلبات حماية البيانات. كما أثيرت قضايا تتعلق باستخدام أدوات برمجية قائمة على الذكاء الاصطناعي لمحتوى محمي دون إذن مسبق، وهو ما يسلّط الضوء على أهمية وجود أطر نظامية واضحة تنظم هذه التطبيقات المتقدمة، وتماشياً مع التوجه الوطني نحو تعزيز الاقتصاد الرقمي، تتجه المملكة إلى دعم استخدامات الذكاء الاصطناعي بمختلف تطبيقاته، وأن هذه الجهود تظل بحاجة إلى مواكبة تنظيمية تضمن التوازن بين التطور التقني وحماية الحقوق النظامية للأفراد. ومن هنا، تأتي أهمية تسليط الضوء على الجوانب القانونية المرتبطة بالذكاء الاصطناعي التوليدي، وتحليل مدى جاهزية البيئة النظامية في المملكة لمعالجة هذه القضايا.

في هذا المقال، أُسلّط الضوء على أبرز التحديات القانونية المرتبطة بالذكاء الاصطناعي التوليدي، وأٌناقش مدى توافقه مع متطلبات حماية البيانات الشخصية، مع تحليل واقع الامتثال في المملكة، واستعراض عدد من التجارب الدولية التي يمكن الاستفادة منها لصياغة نموذج تنظيمي سعودي رائد.

أولاً: الإشكالات القانونية في الذكاء الاصطناعي التوليدي:
تبرز العديد من الإشكاليات القانونية التي تتعلق باستخدام هذه الأدوات، خاصة في جوانب المسؤولية القانونية وحقوق الملكية الفكرية، منها:
المسؤولية القانونية عن الأضرار الناتجة عن استخدام أدوات الذكاء الاصطناعي التوليدي. فمن غير الواضح قانونياً من يتحمل المسؤولية في حالة حدوث خطأ أو ضرر ناتج عن المحتوى الذي يتم توليده. هل يتحمل المطوّر المسؤولية، أم المستخدم، أم كليهما؟ هذا السؤال يفتقد للإجابة في ظل غياب الأنظمة التي تنص بشكل واضح بهذا النوع من التقنيات.
بالإضافة إلى إشكالية الملكية الفكرية. فكثير من الأدوات التوليدية تعتمد على محتوى تم تدريبه باستخدام بيانات قد تكون محمية بحقوق الملكية الفكرية. وبالتالي، إذا قام الذكاء الاصطناعي بتوليد محتوى مشابه لأعمال محمية، هل يُعتبر هذا تعديًا على حقوق النشر؟ وهذا ما تم طرحه في العديد من القضايا، مثل قضية أداة (GitHub) التابعة لـ Copilot، التي واجهت انتقادات لاستخدامها أكواداً مفتوحة المصدر لإنشاء برامج مشابهة دون الحصول على إذن من أصحاب الحقوق، فهذه الإشكاليات تتطلب إطارًا قانونيًا أكثر وضوحًا لتنظيم مسؤوليات المطوّرين والمستخدمين، وتحديد الحقوق والواجبات بدقة في سياق تقنيات الذكاء الاصطناعي.

اقرأ المزيد

ثانياً: التحديات المتعلقة بحماية البيانات الشخصية:
تُعد حماية البيانات الشخصية من أبرز التحديات التي تواجه تطبيقات الذكاء الاصطناعي التوليدي، نظرًا لاعتماد هذه النماذج على بيانات ضخمة قد تتضمن معلومات شخصية، سواء تم جمعها بشكل مباشر أو غير مباشر، دون الحصول على موافقات صريحة أو معرفة مسبقة من أصحاب البيانات، وتبرز الإشكالية بصورة أوضح في النماذج اللغوية الكبرى LLMs))، التي قد تُنتج أحيانًا معلومات يُحتمل أن تعود لأشخاص حقيقيين تم استخدام بياناتهم أثناء عملية التدريب، وهنا يثور التساؤل حول مدى توافق عمليات جمع وتخزين ومعالجة البيانات مع المبادئ الأساسية لحماية الخصوصية، مثل مبدأ تقليل البيانات Data Minimization))، ومبدأ الغرض المحدد (Purpose Limitation)، وحق الأفراد في محو بياناتهم.
وقد شهدت بعض الدول الأوروبية ممارسات رقابية صارمة تجاه هذه النماذج، كما في حالة إيطاليا التي قررت إيقاف استخدام نموذج ChatGPT مؤقتًا في عام 2023، على خلفية اتهامه بجمع بيانات دون سند قانوني واضح، وفشله في توفير الشفافية الكافية للمستخدمين بشأن طريقة استخدام بياناتهم. كما تواجه شركة Clearview AI في الولايات المتحدة دعاوى متعددة نتيجة استخدامها صورًا منشورة عبر الإنترنت لتكوين قاعدة بيانات ضخمة للتعرف على الوجوه، دون الحصول على موافقة صريحة من أصحاب الصور، وهذه النماذج توضح التحدي الحقيقي في إيجاد توازن بين تطوير قدرات الذكاء الاصطناعي، وضمان احترام الحقوق النظامية للأفراد، خصوصًا في ظل غياب آليات رقابية أو تشريعية متقدمة في بعض البيئات القانونية.

ثالثاً: مدى توافق البيئة التنظيمية في المملكة مع هذه التحديات:
مع رؤية المملكة 2030 والتحول الرقمي السريع الذي تشهده، بدأ التوجه نحو اعتماد الذكاء الاصطناعي في العديد من المجالات الاقتصادية والتجارية، وهو ما يطرح تساؤلات حول مدى استعداد البيئة التنظيمية في المملكة لمواكبة هذه التقنيات الحديثة، ومن أبرز الخطوات التي اتخذتها المملكة في هذا الصدد هو نظام حماية البيانات الشخصية الذي صدر في عام 2023م، وهذا النظام جاء ليحمي حقوق الأفراد في حماية بياناتهم الشخصية ويضع أسسًا قانونية واضحة لضبط جمع ومعالجة البيانات. ومع ذلك، فإن الذكاء الاصطناعي التوليدي يتطلب تحديثًا سريعًا لهذه الأنظمة، خصوصًا فيما يتعلق بكيفية التعامل مع البيانات التي يتم جمعها من مصادر متنوعة، مثل الإنترنت ووسائل التواصل الاجتماعي، حيث يصعب تتبع مصدر البيانات بدقة، فلا يوجد إطار تنظيمي محدد يتعامل بشكل دقيق مع قضايا الذكاء الاصطناعي التوليدي. حيث لا تزال بعض التطبيقات الذكية التي تستخدم هذه التقنيات في حاجة إلى وضوح قانوني في تحديد المسؤوليات، سواء كانت للمطورين أو المستخدمين. كما أن غياب الرقابة الفعّالة على التطبيقات التوليدية قد يؤدي إلى استخدام بيانات غير مأذون بها أو توليد محتوى يتجاوز الحدود المسموح بها قانونًا.

وهنا يبرز الحاجة الماسة لتطوير أنظمة قانونية وطنية تواكب التقنيات الحديثة، وتدعم تطبيقات الذكاء الاصطناعي في إطار يحمي حقوق الأفراد، ويعزز الثقة في هذه التقنيات على المستوى المحلي والدولي، مع التحديث المستمر لنظام حماية البيانات الشخصية ليشمل أحكامًا خاصة بالنماذج التنبؤية والتوليدية، بما في ذلك الحق في الاعتراض على استخدام البيانات الشخصية في التدريب، وأهمية إنشاء لجنة وطنية قانونية فنية تُعنى بمتابعة المستجدات في هذا المجال، وتقديم التوصيات للجهات التشريعية والتنفيذية وفقًا لأفضل الممارسات الدولية. وتعزيز الوعي المؤسسي لدى الجهات الحكومية والخاصة بأهمية الامتثال لأنظمة حماية البيانات عند استخدام أدوات الذكاء الاصطناعي، لا سيما المستوردة من خارج المملكة.، وإن تطوير الأطر التنظيمية لهذه التقنيات لا يُعد خيارًا، بل ضرورة لحماية الحقوق، ودعم الابتكار، وضمان استخدام الذكاء الاصطناعي ضمن بيئة موثوقة وعادلة ومنضبطة.

وأخيراً: أحمد شوقي:
وما نيل المطالب بالتمنّي
ولكن تُؤخذ الدنيا غِلابا

وما استعصى على قومٍ منالٌ
إذا الإقدام كان لهم ركابا

السابق

حين تصرخ الأسواق وتصمت بكين.. لحظة التحول في ميزان القوة الاقتصادية

التالي

السعودية ترسم مسارها في خارطة الاقتصاد الفضائي

ذات صلة

هل ما بَرَحَ سعر برميل النفط أنشودة الصبح وهاجس الليل؟!

تطبيق إحسان بحاجة لمراجعة .. المبالغ غير متساوية

1400 طلب إفلاس خلال عام 2024

جوائز ومعايير التميز: مسار نحو النضج المؤسسي أم عبء يثقل الإنتاجية والتطوير



المقالات

الكاتب

هل ما بَرَحَ سعر برميل النفط أنشودة الصبح وهاجس الليل؟!

د.إحسان علي بوحليقة

الكاتب

تطبيق إحسان بحاجة لمراجعة .. المبالغ غير متساوية

زياد محمد حامد الغامدي

الكاتب

1400 طلب إفلاس خلال عام 2024

محمد بن خالد محمد أبو هاشم

الكاتب

جوائز ومعايير التميز: مسار نحو النضج المؤسسي أم عبء يثقل الإنتاجية والتطوير

د. فهد بن سليمان الشعوان

اقرأ المزيد

الناشر: شركة مال الإعلامية الدولية

ترخيص: 465734

روابط سريعة

  • تعريف الموقع
  • جوال مال
  • هيئة التحرير
  • الناشر
  • سياسة الخصوصية وسياسة الاستخدام
  • الشروط والأحكام

تواصل معنا

 3666 144 055  
info@maaal.com  

©2025 جميع الحقوق محفوظة وتخضع لشروط الاتفاق والاستخدام لصحيفة مال

No Result
View All Result
  • English
  • الرئيسية
  • مال المدينة
  • أعضاء مجالس إدارات الشركات المدرجة
  • الميزانية السعودية
  • مال Think Tank
  • إصدارات خاصة
  • توصيات الاسهم وكبار الملاك
  • الإقتصادية
  • VIP
  • مؤشر LFII
  • عقار
  • تقارير
  • إحصاءات عامة
  • أعمال تك

© 2020 جميع حقوق النشر محفوظة لـ صحيفة مال - الناشر: شركة مال الإعلامية الدولية - ترخيص: 465734