الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734
في مقالة سابقة تحدثنا عن البيانات المفتوحة لدى جميع القطاعات الحكومية والخاصة والغير ربحية؛ وفي هذه المقالة سنستعرض البيانات الكبيرة وهل ستلغي مع الوقت العينات الاحصائية أم أنها ستستمر؟
إن زمن ظهور مصطلح البيانات الكبيرة كان منذ أمد بعيد في أمريكا وذلك في عام 1999م حيث تطورت التقنيات من خلال اندماج عدد من العلوم مع بعضها البعض؛ لينتج عنها حلول إبداعية وابتكار لمنتجات وخدمات لم تكن موجودة قبل اكتشاف هذا المصطلح والتعامل معه.
ففي عام 2009 انتشر فايروس أطلق عليه H1N1 في الولايات المتحدة الامريكية حيث احتاجت السطات الصحية أن تحدد مكانه لتبطئ من عملية انتشاره؛ ولعل هذا الحدث يبرهن الفرق بين المنهجية التقليدية في طلب السلطات الصحية و مراكز مكافحة الأمراض والوقاية منها الأطباء بحالات الانفلونزا الجديدة حيث كان نقل المعلومات للمؤسسات الصحية ولهذه المراكز يستغرق وقتاً مقداره أسبوع إلى أسبوعين تحديداً في ظل التعامل مع مرض سريع الانتشار؛ مما أصاب هذه المؤسسات والمراكز الصحية بالعمى في أكثر اللحظات حرجاً.
وللتنويه إن السلطات الصحية في الولايات المتحدة الأمريكية لديها مراكز إحصائية عالية المستوى وفترة تأخر المعلومات أسبوع إلى اسبوعين يعتبر في الدول النامية انجاز فلو انتشر المرض لدى أحدى هذه الدول النامية في ظل ما تعانيه من التقنيات المتواضعة وعدم وجود فكر واعي بأهمية البيانات لأصبحت دوله موبوءة بالمرض.
ننتقل الى المنهجية الجديدة في التعامل مع نفس الحدث والتي استمدت حلولها من البيانات الكبيرة حيث قامت شركة قوقل بتصميم نظام (عبارة عن نماذج رياضية عديدة) يوضح العلاقة بين معدل تكرار بحث مفردات او عبارات معينة وانتشار الانفلونزا طبقاً للزمان والمكان وبالتالي تمكنوا من تحديد أين ينتشر المرض على الفور وليس خلال أسبوع أو أسبوعين.
هنا استخدمت قوقل البيانات الكبيرة واستطاعت من خلال نماذج رياضية مركبة من تحديد مكان الانتشار بينما النموذج التقليدي في جلب البيانات وتحليلها استغرق ما يقارب الأسبوع الى الأسبوعين.
لعلنا هنا اختصرنا مجريات الاحداث إلا أن ما يهمنا هو النتيجة حيث وفرت قوقل من خلال استخدامها وتحليلها للبيانات الكبيرة مكان انتشار المرض مما يعطي الجهات الرسمية المعنية سرعة المعالجة وكفاءه في الانفاق المالي؛ في حين أن الأسلوب التقليدي لاستخدام البيانات ينتج عنه جهد مضاعف وتكاليف عالية جداً.
ننقل الصورة إلى العينات الاحصائية حيث تم تطويرها خلال العقود الماضية بشكل جعل البيانات المستخرجة منها ذات جودة عالية جدا وهي تفيد في اختيار عينة عشوائية من مجتمع كبير لقياس وتطبيق النماذج الرياضية عليه تقليلا للوقت والجهد والكلفة المادية؛ والسؤال هل لا زلنا بحاجة الى استخدام العينات الاحصائية ام آن الاون الى التخلي عنها تماماً؟ (الحديث هنا على مستوى القطاعات وليس الافراد)
يقول مؤلفوا كتاب (البيانات الكبيرة ثورة): “إننا نميل الى التفكير في العينات الإحصائية كنوع من الأساسات غير القابل للتغيير مثل قواعد الهندسة وقوانين الفيزياء؛ ولكن يمتد هذا المفهوم (مفهوم العينات الاحصائية) لأقل من قرن مضى وقد تم ابتكاره من أجل علاج مشكلة معينة في لحظة معينة تحت قيود تقنية معينة.
لم تعد هذه القيود موجودة في الوقت الحالي بالقدر نفسه؛ إن اللجوء لاستخدام العينات العشوائية في زمن البيانات الضخمة يشبه ركوب الحصان في طريق للسيارات؛ يمكننا أن نواصل استخدام العينات في بعض الحالات ولكن يجب ألا تكون هي الأمر المهيمن على أسلوب تحليلنا للمجموعات البيانية الضخمة؛ حيث أننا سنهدف بشكل متزايد إلى استخدامها جميعاً”.
كما أن الأدوات التقنية أصبحت أكثر تطوراً في هذا العصر من العصور الماضية وبالتالي حلول وأدوات هذا العصر يجب أن تختلف عما كانت عليه في الماضي؛ بالإضافة إلى بزوغ علوم جديدة هي ناتجة عن اندماج علمي أو أكثر فمثلا البيانات الكبيرة في تحليلها تحتاج إلى مبرمج ومحلل بيانات واحصائي ورياضيات ليتم استخدام وتحليل البيانات الكبيرة بكفاءة عالية وتعطي نتائج أفضل وأقوى , وذلك لأنه قد أنتهى زمن التخصص الواحد نتيجة للتطورات السريعة والمتلاحقة من العالم الخارجي.
من وجهة نظري أجد ان استخدام المسوح الاحصائية لدراسة حالة معينة تنفذها جهة حكومية أمر لم يعد مقبول في ظل وجود كم كبير جدا من البيانات في مواقع مختلفة نستطيع من خلالها قياس العلاقة على مستوى أكبر وأعم؛ لذلك نرى داخليا أن الحكومة اتجهت منذ اكثر من عقد من الزمن إلى الحكومة الإلكترونية واصبح العديد من الخدمات المهمة التي يستفيد منها المواطن تقدم بصورة الكترونية في ظل بقاء الهيئة العامة للإحصاء على الاعتماد على عدد من المسوح (العينات) الاحصائية.
سوف اقتبس عبارة تم ذكرها في المقالة السابقة (يقول Eric Schmidt هو رئيس شركة جوجل والمدير التنفيذي السابق لها: إن البشرية ومنذ فجر التاريخ إلى عام 2003 انتجت 5 مليار جيجابايت من البيانات على شكل رسوم بيانية ووثائق وكتب وغيرها أما في عام 2011 تم انتاج 5 مليارات جيجابايت من البيانات في يومين فقط وفي عام 2013 تم انتاج 5 مليارات جيجابايت من البيانات كل 10 دقائق؛ والنقطة الاخرى تكمن في التطورات التقنية السريعة التي ستمكننا من جمع وتصنيف وتحليل البيانات بوقت أقصر) ؛ وهذا يعني تطور حجم البيانات بصورة كبيرة وفي فترة زمنية قصيرة جداً في حياة المجتمعات.
الموضوع يحتاج إلى بحث ودراسة في كيفية اللحاق بالدول المتقدمة والاستفادة من البيانات الكبيرة والتغيير الفكري من استخدام العينات إلى استخدام كل البيانات؛ فكما ذكرنا إن استقطاب التقنية أمر ليس صعباً ولكن صناعة الوعي بفكر وأهمية استخدام البيانات بدلا من الاعتماد بشكل أساسي على العينات الاحصائية هو المطلب الأهم.
تغريده:
لدينا فجوة كبيرة بيننا وبينهم فقد تجاوزا هذه المرحلة وانتجوا ونحن لازلنا مؤمنين بأهمية العينات الاحصائية كأساس لابديل عنه.
الناشر: شركة مال الإعلامية الدولية
ترخيص: 465734
©2025 جميع الحقوق محفوظة وتخضع لشروط الاتفاق والاستخدام لصحيفة مال