الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734
لا شك أن الذكاء الاصطناعي يحمل مزايا عديدة، مثل زيادة الكفاءة والإنتاجية، وتحليل البيانات الضخمة بسرعة، وقدرته على العمل في بيئات خطرة مثل الكوارث الطبيعية أو استخدام الروبوتات أو الطائرات بدون طيار لأداء المهام في بيئات خطرة مثل المناجم أو المواقع الكيميائية أو المناطق المتأثرة بالإشعاعات، فإن هذه التقنيات تأتي مع مخاطر لا يمكن تجاهلها. في الآونة الأخيرة، شهدنا تطورًا سريعًا ومرعبًا في مجالات الذكاء الاصطناعي، مما يثير القلق بشأن ما إذا كانت هذه الفقاعة ستنفجر يومًا ما، مسببة أضرارًا هائلة على المستويات الاقتصادية والاجتماعية.
ما يزيد القلق بشأن الذكاء الاصطناعي هو موقف عالم الكمبيوتر البريطاني جيفري هامبتون، مخترع الذكاء الاصطناعي والفائز بجائزة نوبل لعام 2024م. استقال هامبتون من عمله في شركة جوجل ليتمكن من الحديث بحرية عن المخاطر المحتملة لتطورات الذكاء الاصطناعي. وعند إعلان فوزه بجائزة نوبل، استغل كل مقابلة صحفية وتلفزيونية في نفس يوم الإعلان ليكرر تحذيراته بشأن هذه المخاطر، مؤكدًا على ضرورة وضع لوائح وضوابط للتحكم في هذه التكنولوجيا.
ولهذا أرى من الضروري وجود منظمة أو هيئة عالمية للتعامل مع تلك المخاطر. فإذا لم يتدارك العالم هذه القضية وعمل بشكل جاد على تشكيل منظمة أو هيئة دولية تضم جميع الدول، فإن المخاطر ستظل قائمة، ويجب أن تعمل هذه المنظمة أو الهيئة بشكل رسمي على تقييم كل أداة جديدة من أدوات الذكاء الاصطناعي التي قد تشكل تهديدات اقتصادية قبل إصدارها، وذلك عبر دراستها من قِبَل جميع الدول والتصويت عليها.
رأينا العديد من المنظمات ولكن جميعها غير ملزمة عالمياً، مثل منظمة التعاون الاقتصادي والتنمية (OECD) التي تضع مبادئ توجيهية فقط، ومجموعة العشرين (G20) التي تقدم إرشادات غير ملزمة قانونيًا، والاتحاد الأوروبي (EU) الذي يسعى لوضع لوائح شاملة للذكاء الاصطناعي تطبق على الدول الأعضاء فقط. كذلك، تعمل الأمم المتحدة (UN) على مناقشة بعض المخاطر المتعلقة بالذكاء الاصطناعي العسكري، بينما يركز منتدى الأمم المتحدة للذكاء الاصطناعي (AI for Good) على الترويج للذكاء الاصطناعي لدعم الأهداف الإنسانية والتنموية.
رغم وجود هذه المنظمات، فإننا نحتاج إلى التركيز على ضرورة التصويت للدولة التي ستعمل على تنظيم هذه المنظمة أو الهيئة، وتوفير مقاعد لجميع الدول بلا استثناء والعمل الجماعي لوضع قوانين صارمة، مبنية على دراسات متعددة الجوانب، والتي ستمكننا من الاستفادة من الذكاء الاصطناعي وتقليل المخاطر بشكل كبير ولكن الأمر يتطلب مستوى عالٍ من التعاون الدولي.
لا شك أن كل دولة لديها قراراتها ودراساتها الخاصة، لكن من الممكن أن تؤثر قرارات دولة ما على غيرها، فيما يخص الاقتصاد فغالب الدول اقتصادها معتمد جزئياً على دول أخرى مما يؤدي إلى تأثيرات سلبية اقتصادية على دول أخرى. المملكة العربية السعودية كعادتها استباقية في التعامل مع المخاطر عامةً وفيما يخص الذكاء الاصطناعي. ففي مؤتمر LEAP 2024 الدولي للتقنية، تحدث معالي الدكتور عبدالله بن شرف الغامدي، رئيس الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA)، عن أهمية وضع إطار قانوني لضمان الاستخدام الأخلاقي لتقنيات الذكاء الاصطناعي. كما شدد معالي الدكتور عبدالله السواحه، وزير الاتصالات وتقنية المعلومات، على ضرورة الحذر عند إدخال أدوات جديدة للذكاء الاصطناعي، مؤكداً أهمية دراستها بعناية قبل إصدارها لضمان عدم تأثيرها السلبي على المجتمع.
لتحقيق توازن بين الفوائد والمخاطر، من المهم أن ندرس التجارب الناجحة في الدول التي وضعت إطارًا قانونيًا محكمًا للذكاء الاصطناعي، مثل كندا واليابان، وكيف يمكن للدول الأخرى الاستفادة منها. كما أن دور الشركات التكنولوجية الكبرى لا يمكن تجاهله، فهي مسؤولة عن ضمان توافق تقنياتها مع المعايير الأخلاقية العالمية. إلى جانب الجهود التنظيمية، يبقى التعليم والتوعية أمرًا أساسيًا لضمان فهم أوسع للتحديات والفرص المرتبطة بالذكاء الاصطناعي.
ختامًا، نأمل في القريب العاجل أن يتم إنشاء منظمة أو هيئة عالمية تحدد آليات لدراسة والتصويت على جميع أدوات الذكاء الاصطناعي التي قد تشكل مخاوف كبيرة، مع التأكيد على التعاون الدولي لضمان مستقبل آمن ومستدام للجميع.
الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734
©2025 جميع الحقوق محفوظة وتخضع لشروط الاتفاق والاستخدام لصحيفة مال