الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734
أولاً: لا يعطي المجد ذاته إلا لمن يحلم به دوما – شارل ديغول
أحدثت أدوات الذكاء الاصطناعي التوليدي نقلة نوعية في آلية إنتاج المحتوى الرقمي، حيث بات بالإمكان توليد النصوص، والأكواد، والصور من خلال نماذج متقدمة تعتمد على كميات ضخمة من البيانات. إلا أن هذا التحول السريع يطرح جملة من التحديات القانونية وأخلاقية معقدة منها: من المسؤول عن الأخطاء؟ ومن يملك ما يُنتج؟ وكيف نحمي بيانات الأفراد في خضم هذا الزخم التكنولوجي؟، لاسيما في نطاق حماية البيانات الشخصية، وحقوق الملكية الفكرية، وتحديد المسؤولية النظامية في حال حدوث أضرار ناتجة عن مخرجات هذه الأدوات. وقد شهدت بعض الأنظمة القضائية ردود فعل تجاه هذه التحديات، كما هو الحال في إيطاليا التي قررت في عام 2023 إيقاف أحد نماذج الذكاء الاصطناعي التوليدي بدعوى مخالفته لمتطلبات حماية البيانات. كما أثيرت قضايا تتعلق باستخدام أدوات برمجية قائمة على الذكاء الاصطناعي لمحتوى محمي دون إذن مسبق، وهو ما يسلّط الضوء على أهمية وجود أطر نظامية واضحة تنظم هذه التطبيقات المتقدمة، وتماشياً مع التوجه الوطني نحو تعزيز الاقتصاد الرقمي، تتجه المملكة إلى دعم استخدامات الذكاء الاصطناعي بمختلف تطبيقاته، وأن هذه الجهود تظل بحاجة إلى مواكبة تنظيمية تضمن التوازن بين التطور التقني وحماية الحقوق النظامية للأفراد. ومن هنا، تأتي أهمية تسليط الضوء على الجوانب القانونية المرتبطة بالذكاء الاصطناعي التوليدي، وتحليل مدى جاهزية البيئة النظامية في المملكة لمعالجة هذه القضايا.
في هذا المقال، أُسلّط الضوء على أبرز التحديات القانونية المرتبطة بالذكاء الاصطناعي التوليدي، وأٌناقش مدى توافقه مع متطلبات حماية البيانات الشخصية، مع تحليل واقع الامتثال في المملكة، واستعراض عدد من التجارب الدولية التي يمكن الاستفادة منها لصياغة نموذج تنظيمي سعودي رائد.
أولاً: الإشكالات القانونية في الذكاء الاصطناعي التوليدي:
تبرز العديد من الإشكاليات القانونية التي تتعلق باستخدام هذه الأدوات، خاصة في جوانب المسؤولية القانونية وحقوق الملكية الفكرية، منها:
المسؤولية القانونية عن الأضرار الناتجة عن استخدام أدوات الذكاء الاصطناعي التوليدي. فمن غير الواضح قانونياً من يتحمل المسؤولية في حالة حدوث خطأ أو ضرر ناتج عن المحتوى الذي يتم توليده. هل يتحمل المطوّر المسؤولية، أم المستخدم، أم كليهما؟ هذا السؤال يفتقد للإجابة في ظل غياب الأنظمة التي تنص بشكل واضح بهذا النوع من التقنيات.
بالإضافة إلى إشكالية الملكية الفكرية. فكثير من الأدوات التوليدية تعتمد على محتوى تم تدريبه باستخدام بيانات قد تكون محمية بحقوق الملكية الفكرية. وبالتالي، إذا قام الذكاء الاصطناعي بتوليد محتوى مشابه لأعمال محمية، هل يُعتبر هذا تعديًا على حقوق النشر؟ وهذا ما تم طرحه في العديد من القضايا، مثل قضية أداة (GitHub) التابعة لـ Copilot، التي واجهت انتقادات لاستخدامها أكواداً مفتوحة المصدر لإنشاء برامج مشابهة دون الحصول على إذن من أصحاب الحقوق، فهذه الإشكاليات تتطلب إطارًا قانونيًا أكثر وضوحًا لتنظيم مسؤوليات المطوّرين والمستخدمين، وتحديد الحقوق والواجبات بدقة في سياق تقنيات الذكاء الاصطناعي.
ثانياً: التحديات المتعلقة بحماية البيانات الشخصية:
تُعد حماية البيانات الشخصية من أبرز التحديات التي تواجه تطبيقات الذكاء الاصطناعي التوليدي، نظرًا لاعتماد هذه النماذج على بيانات ضخمة قد تتضمن معلومات شخصية، سواء تم جمعها بشكل مباشر أو غير مباشر، دون الحصول على موافقات صريحة أو معرفة مسبقة من أصحاب البيانات، وتبرز الإشكالية بصورة أوضح في النماذج اللغوية الكبرى LLMs))، التي قد تُنتج أحيانًا معلومات يُحتمل أن تعود لأشخاص حقيقيين تم استخدام بياناتهم أثناء عملية التدريب، وهنا يثور التساؤل حول مدى توافق عمليات جمع وتخزين ومعالجة البيانات مع المبادئ الأساسية لحماية الخصوصية، مثل مبدأ تقليل البيانات Data Minimization))، ومبدأ الغرض المحدد (Purpose Limitation)، وحق الأفراد في محو بياناتهم.
وقد شهدت بعض الدول الأوروبية ممارسات رقابية صارمة تجاه هذه النماذج، كما في حالة إيطاليا التي قررت إيقاف استخدام نموذج ChatGPT مؤقتًا في عام 2023، على خلفية اتهامه بجمع بيانات دون سند قانوني واضح، وفشله في توفير الشفافية الكافية للمستخدمين بشأن طريقة استخدام بياناتهم. كما تواجه شركة Clearview AI في الولايات المتحدة دعاوى متعددة نتيجة استخدامها صورًا منشورة عبر الإنترنت لتكوين قاعدة بيانات ضخمة للتعرف على الوجوه، دون الحصول على موافقة صريحة من أصحاب الصور، وهذه النماذج توضح التحدي الحقيقي في إيجاد توازن بين تطوير قدرات الذكاء الاصطناعي، وضمان احترام الحقوق النظامية للأفراد، خصوصًا في ظل غياب آليات رقابية أو تشريعية متقدمة في بعض البيئات القانونية.
ثالثاً: مدى توافق البيئة التنظيمية في المملكة مع هذه التحديات:
مع رؤية المملكة 2030 والتحول الرقمي السريع الذي تشهده، بدأ التوجه نحو اعتماد الذكاء الاصطناعي في العديد من المجالات الاقتصادية والتجارية، وهو ما يطرح تساؤلات حول مدى استعداد البيئة التنظيمية في المملكة لمواكبة هذه التقنيات الحديثة، ومن أبرز الخطوات التي اتخذتها المملكة في هذا الصدد هو نظام حماية البيانات الشخصية الذي صدر في عام 2023م، وهذا النظام جاء ليحمي حقوق الأفراد في حماية بياناتهم الشخصية ويضع أسسًا قانونية واضحة لضبط جمع ومعالجة البيانات. ومع ذلك، فإن الذكاء الاصطناعي التوليدي يتطلب تحديثًا سريعًا لهذه الأنظمة، خصوصًا فيما يتعلق بكيفية التعامل مع البيانات التي يتم جمعها من مصادر متنوعة، مثل الإنترنت ووسائل التواصل الاجتماعي، حيث يصعب تتبع مصدر البيانات بدقة، فلا يوجد إطار تنظيمي محدد يتعامل بشكل دقيق مع قضايا الذكاء الاصطناعي التوليدي. حيث لا تزال بعض التطبيقات الذكية التي تستخدم هذه التقنيات في حاجة إلى وضوح قانوني في تحديد المسؤوليات، سواء كانت للمطورين أو المستخدمين. كما أن غياب الرقابة الفعّالة على التطبيقات التوليدية قد يؤدي إلى استخدام بيانات غير مأذون بها أو توليد محتوى يتجاوز الحدود المسموح بها قانونًا.
وهنا يبرز الحاجة الماسة لتطوير أنظمة قانونية وطنية تواكب التقنيات الحديثة، وتدعم تطبيقات الذكاء الاصطناعي في إطار يحمي حقوق الأفراد، ويعزز الثقة في هذه التقنيات على المستوى المحلي والدولي، مع التحديث المستمر لنظام حماية البيانات الشخصية ليشمل أحكامًا خاصة بالنماذج التنبؤية والتوليدية، بما في ذلك الحق في الاعتراض على استخدام البيانات الشخصية في التدريب، وأهمية إنشاء لجنة وطنية قانونية فنية تُعنى بمتابعة المستجدات في هذا المجال، وتقديم التوصيات للجهات التشريعية والتنفيذية وفقًا لأفضل الممارسات الدولية. وتعزيز الوعي المؤسسي لدى الجهات الحكومية والخاصة بأهمية الامتثال لأنظمة حماية البيانات عند استخدام أدوات الذكاء الاصطناعي، لا سيما المستوردة من خارج المملكة.، وإن تطوير الأطر التنظيمية لهذه التقنيات لا يُعد خيارًا، بل ضرورة لحماية الحقوق، ودعم الابتكار، وضمان استخدام الذكاء الاصطناعي ضمن بيئة موثوقة وعادلة ومنضبطة.
وأخيراً: أحمد شوقي:
وما نيل المطالب بالتمنّي
ولكن تُؤخذ الدنيا غِلابا
وما استعصى على قومٍ منالٌ
إذا الإقدام كان لهم ركابا
الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734
©2025 جميع الحقوق محفوظة وتخضع لشروط الاتفاق والاستخدام لصحيفة مال