الانتقال إلى المحتوى

Big Data و التوسع ( 3 ) Scale Out & Scale Up


احمد الجابري

Recommended Posts

قبل هادوب Hadoop كان الخيار الوحيد امام مهندسي الانظمة لحل مشكلة تضخم البيانات ان يقوموا بعملية Scale up و تعني ان يقوموا بترقية السيرفر .. زيادة الرامات و زيادة السعة التخزينية .. او يقومون بنقل البيانات الى سيرفر جديد اكثر كفاءة .

و هذا مادفع اوراكل الى انتاج ال Database appliance و اسموه Exadata هو مجموعة اجهزة في حاوية واحدة بقدرات كبيرة .. لكن بقيت البيانات مخزنة في سيرفر واحد .

و هو جهاز بسعر مرتفع قد يصل الى 500 الف دولار .

بعد ظهور Hadoop اصبح بالامكان عمل Scale out و هو بدل ان يقوم بترقية السيرفر فاننا نقوم باضافة سيرفرات جديدة بنفس مواصفات الاول او مختلفة 

و عندها يمكننا ان نرى السعات التخزينية لجميع السيرفرات كانها هاردسك واحد .. ( هادوب )
و يمكن ان نرى مجموع الذواكر memories لجميع السيرفرات كانها ذاكرة واحدة .. ( سبارك )

لكن التعامل مع هذه السعات الضخمة ليس كالتعامل مع ذاكرة الجهاز الواحد فيلزم استخدام ادوات خاصة من قبل المبرمجين حتى يمكن التعامل معها .

هادوب .. يقوم بمهمة توحيد الهاردسك فقط .. لكن سبارك و الذي يعتمد على نظام ملفات هادوب يقوم بعمل هادوب بالاضافة الى توحيد الذواكر .

ساتكلم عن هادوب في المواضيع القادمة.

 

تم تعديل بواسطة ميسم الكرام
رابط هذا التعليق
شارك

انضم إلى المناقشة

يمكنك المشاركة الآن والتسجيل لاحقاً. إذا كان لديك حساب, سجل دخولك الآن لتقوم بالمشاركة من خلال حسابك.

زائر
أضف رد على هذا الموضوع...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   تمت استعادة المحتوى السابق الخاص بك.   مسح المحرر

×   You cannot paste images directly. Upload or insert images from URL.

جاري التحميل
×
×
  • أضف...

برجاء الإنتباه

بإستخدامك للموقع فأنت تتعهد بالموافقة على هذه البنود: سياسة الخصوصية