إضغط لتفاصيل الإعلانات



Results 1 to 11 of 11
Share
  1. #1
    Join Date
    Nov 2007
    Location
    Arab world!
    Posts
    6,169
    Blog Entries
    4
    Rep Power
    10

    Arrow Windows Server 2003 Clustering


    يرجى تغيير اللغة الى اللغة العربية من اسفل لكى تتمكنوا من قراءة الموضوع بلغة واضحة حيث يوجد مصلحات انجليزية فى وسط الموضوع

    أخوتى الأعزاء ,

    نأخذكم اليوم فى جولة مع أكثر المواضيع أهميه فى حياه أى مدير نظام و الحقيقة أن معظم مديرين النظام يعتبرون هذا الموضوع هو

    من خوارق الطبيعة من حيث صعوبتة ولكن الحقيقة على عكس ذلك و سنحاول إثبات ذلك إنشاء الله من خلال الشرح.

    عندما أردت شرح الموضوع وجدت أن أمامى أختيارين Windows server 2008 Clustering و windows Server 2003 Clustering و

    قد إخترت windows server 2003 Clustering لنبدأ به حديثنا عن الـ Clustering ثم إنشاء الله نتبع

    ما هو الـ Cluster ؟

    الـ Cluster هو حساب كمبيوتر تخيلى يتم تكوينة عند إنشاء الـ Cluster وهو حقيقة كذلك إن أردنا أن نعبر عنة ولكن لنفهم أكثر نقول أنه عبارة عن مجموعة

    من السيرفرات تسمى Cluster Nodes يقوم حساب الـ Cluster التخيلى بتوجية المستخدمين إلى السيرفر أو الـ Cluster Node المناسب من

    السيرفرات التى يحتويها على حسب توافرة أو للموازنة بين الضغط على السيرفرات .

    تخيل لو أنك تعتمد على سيرفر واحد فقط لإستضافة موقع شركتك أو الـ Exchange الخاص بشركتك وبعد ذلك حدث شيء لهذا السيرفر ماذا ستفعل ولكم من

    الوقت ستحتاج لإعادة بناء هذا السيرفر و قد تكون شركتك هى شركة خدمية تقدم الخدمات عن طريق هذا الموقع لكن مع الـ Cluster لديك حل لهذه المشكلة .

    ما هى أنواع الـ Cluster ؟

    يمكنك الحصول على الـ Cluster بنكهتين مختلفتين بما يناسب حاجتك.

    أولا : load Balancing Cluster :

    يستخدم هذا النوع من الـ Cluster فى عمل موازنة بين عدد من السيرفرات ,حيث يقوم بتوزيع الحمل على جميع السيرفرات التى يحتويها الـ Cluster بدون أن

    يشعر المستخدم بأى شيء و يقدم للمستخدم مكان واحد فقط للدخول عليه و لتوضيح ذلك نقدم لكم مثال بسيط على هذه العملية ,

    لديك Cluster يستضيف عدد من السيرفرات التى تحتوى على موقع إنترنت تقدم عدد من الخدمات و كل سيرفر يحمل نسخة طبق الأصل من هذه الخدمات و عندما

    يقوم المستخدم بفتح الموقع حقيقة هو يفتح العنوان الرئيسي للـCluster و بعد ذلك يقوم حساب الـ Cluster بتوجيهه إلى السيرفر أو إن أحببنا تسميته

    Cluster Node الأقل ضغطا ويمكن أن يحتوى هذا النوع من الـ Cluster على 32 Node فى الـ Cluster الواحد.

    ينقسم هذا النوع إلى نوعين هما Network load Balancing Cluster و Com+ load Balancing Cluster ولكن الأكثرشيوعا هو إستخدام

    الـ Network load Balancing Cluster لذا سنقوم فقط بشرح الـ Network load Balancing Cluster .

    ولكن كيف يقوم الـ Network Load Balancing Cluster بتوزيع الحمل؟

    الفكرة بسيطة حيث يقوم الـ Network load Balancing Cluster بتوزيع الـ IP Traffic إلى جميع الـ Cluster Nodes على حسب الحِمل فلو

    فرضنا أن هناك 2 Nodes فى الـ Cluster سيقوم الـ Cluster بتمرير الـ IP Traffic إلى واحد فقط فى كل مرة لضمان توزيع الحمل بين الـ 2 Nodes .

    ويتميز هذا النوع عن الآخر بإمكانية تنفيذه على جميع إصدارات الـ Windows server 2003 الأربعة من الـ Standard إلى الـ Datacenter كما أنه لا

    يحتاج لأى Hardware أو Software إضافى.

    ثانيا ً: Failover Cluster :

    يستخدم هذا النوع من الـ Cluster لتطبيق فكرة توفير الخدمة على مدار الساعة و بدون إنقطاع حيث يقوم بنقل الخدمة بين الـ Cluster Nodes عند إنقطاعها

    على أحد السيرفرات و بالطبع فإن شركة تقدم خدمات الدعم الفنى عن طريق البريد الإلكترونى هى أفضل مثال على الحاجة لهذا النوع من الـ Clustering حيث

    لك أن تتخيل أن هذه الشركة لديها سيرفر واحد فقط يحتوى على صناديق البريد الخاصة بالموظفين فى خدمات الدعم الفنى و فجأه إنهار هذا السيرفر و توقفت

    الشركة عن إستقبال البريد الألكترونى ,لكن مع وجود Failover Cluster يحتوى على 2 Nodes على الأقل سيقوم الـ Cluster بالتحول إلى الـ Cluster

    Node الثانية عند إنهيار الأولى و لن يحس الموظفين بأى شيء لأن الـ Cluster سينتقل أوتوماتيكيا إلى الـ Node الأخرى.

    و يمكن تنفيذ هذا النوع من الـ Cluster فقط إذا كانت نسختك Enterprise Edition أو Datacenter Edition .

    كيف يعرف الـ Cluster بانهيار أحد الـ Cluster Nodes ؟

    لفهم ذلك يجب أن نتكلم عن الـ Cluster Networking حيث يحتوى الـ Cluster على شبكتين أحداها تستخدم في الاتصال مع المستخدمين و تسمى الـ

    Public Network و الأخرى التى تسمى Private Network أو Cluster Heart Beating Networkتستخدم لعمل نبضات تفاعلية بين الـ

    Cluster Nodes .

    كل Cluster يجب أن يحتوى على 2 Network cards يكون أحدهما فى الـ Public Network و الآخر فى الـ Private Network .

    ما هو الـ Heart Beat Mechanism ؟

    هو طريقة لمعرفة مدى توفر الـ Cluster Node حيث تقوم كل Cluster Node بإرسال UDP Packet كل 1,2 ثانية إلى الـ Cluster Nodes

    الأخرى عن طريق الـ Private Network Cards لتعرف باقى الـ Cluster Nodes أنها متوفرة و تتوقع ردا ً من الـ Nodes الأخرى فى فترة مماثلة و

    عند انقطاع هذه العمليه خمس مرات متتاليه تعتبر الـ Cluster Node غير متوفرة و يقوم الـ Cluster بتفعيل Cluster Node أخرى أو يتوقف عن إرسال

    أى IP Traffic لهذه الـ Cluster Node الغير متوفرة.

    كما تقوم الـ Cluster Service نفسها بإرسال Heart beat أيضا كل 1,2 ثانية ولكن إعلان أن الـ Cluster service لا تعمل سيكون بعد 5 ثوانى أو 4

    نبضات منقطعة .

    مكونات الـ Cluster :

    يتكون الـ Cluster من ثلاث طبقات الأولى تقدم معلومات عن مدى توفر الـ Cluster و ما إذا كان هناك أى Cluster Node و هى التى تتعامل مع نقل الـ

    Cluster من Cluster Node إلى أخرى عند حدوث خلل و أيضا تتعامل مع الـ Resources والتى سنتناولها بالشرح لاحقا وتحتوى هذه الطبقة على الـ

    Cluster Manager و الـ Cluster Registry .

    الطبقة الثانية هى حقيقة عبارة عن قاعدة بيانات الـ Cluster حيث تعنى بمعرفة من فى الـ Cluster و تسجل حالة الـ Cluster الحاليه وما إذا كان متوفر

    أو لا وتعنى أيضا بميكانيكية الأتصال بين الـ Cluster Nodes .

    الطبقة الثالثة هى التى تتعامل مع نظام التشغيل مباشرة و تقوم بترجمة تعريفات الأجهزة للـ Cluster .

    إذا ما هى الـ Cluster Resources ؟

    هى بإختصار شديد جميع مكونات الـ Cluster مثل الـ IP الخاص بالـ Cluster و الـ Hard disks و التطبيقات التى تعمل على الـ Cluster و قاعدة

    البيانات الخاصة بالـ Cluster و يمكن إستخدام أى مكون من مكونات الـ Cluster على Cluster node واحدة فقط إلا التطبيقات يمكن إستخدامها أكثر من

    مرة على التوازى فى حال كان Network Load Balancing Cluster و بما أن هذه الـ Cluster Resources تعتمد جميعها على بعض فقد تم

    وضعها فى Groups حيث تعمل هذه الـ Resources Group على Cluster Node واحدة فقط .

    مثال لنفهم ما هى الـ Resource Group هو الـ File sharing cluster حيث يعتمد المجلد المشترك على الـ Disk و الـ IP و هكذا تكونت لدينا

    Resource Group منهم الثلاثة حيث الفكرة هى إعتماديتهم على بعض.

    كيف يتم توزيع التغيرات على الـ Cluster Nodes ؟

    هناك مكون من مكونات الطبقة الثانية يسمى Global Update Manager يقوم بتوزيع التغيرات التى حدثت على الـ Cluster Node المفعلة إلى باقى الـ

    Nodes و أكبر مثال على ذلك هو توزيع الـ Cluster Logs و الـ Cluster Registry .

    يضمن الـ Global Update Manager تناسق جميع الـ Cluster Nodes و هو من أهم مكونات الـ Cluster حيث يقوم بتحديث الـ nodes عندما

    تفشل فى الإتصال بالـ Cluster ثم تعود للإتصال مرة أخرى و يقوم بتحديثها بما حدث فى غيابها من logs و التى تستخدمها بتحديث نفسها .

    ما هو الـ Cluster Quorum ؟

    هى ببساطة رأس الـ Cluster أو قاعدة بيانات الـ Cluster وتحتوى كل التعريفات عن الـ Cluster و محتوياته ويمكن أن تكون قرص مشترك أو مجلد

    مشاركة فى حال الـ MNS التى سنتكلم عنها تفصيلا لاحقا.

    الـ Cluster Quorum هو أهم شيء بالنسبة للـ Cluster حيث لو لم يكن متوفرا يعتبر الـ Cluster نفسة غير موجود .

    كيف يتم الإنتقال بالـ Cluster من Node إلى أخرى؟

    على إفتراض تواجد shared Disk سأقوم بشرح هذه النقطة بنوع من التبسيط حتى نستطيع فهمها لصعوبتها فى الفهم .

    يستخدم الـ Cluster طريقة تسمى Challenge/Defense Protocol حيث تقوم الـ Node الفعالة بتأجير جزء من الـ Cluster Disk وهو الـ

    Sector 11 , 12 لمدة 3 ثوانى ثم بعد إنتهاء المدة تقوم بالتجديد طالما هى متوفرة وتقوم جميع الـ Nodes الأخرى محاولة تأجير نفس المكان ولكن يرفض الـ

    Cluster Disk ذلك لأن الـ Node الأخرى الفعالة قامت بالتجديد بالفعل و عندما تفشل الـ Node الفعالة فى تأجير هذه المساحة من الـ Cluster Disk

    تقوم الـ nodes الأخرى بالمسارعة لإيجارها و عندما تنجح واحدة منها فى إيجار المساحة تؤجؤ لمدة 3 ثوانى ثم تنتظر ثانيتين ثم تؤجر 3 ثوانى أخرى و تنتظر

    ثانيتين أخرتين و من ثم تقوم بإعلان نفسها كمالك جديد للـ Cluster وتصبح هى الـ Node الفعالة أما إذا عادت الـ Node القديمة للعمل بعد إصلاح العطل خلال

    الـ 10 ثوانى فإنها تأخذ المساحة بالقوة و تدافع عن مساحتها و تقوم بإعلان نفسها مرة أخرى مالكة للـ cluster.

    وتختلف هذه الطريقة فى الأنواع الأخرى التى سنقوم بذكرها لاحقا ً.

    هل يمكن أن نقوم بعمل Cluster يحتوى Nodes من أكثر من مكان جغرافى؟

    يمكن عمل ذلك وهو ما يعرف بالـ Geographically Dispersed Clusters ولكن يجب أن يكون جميع الـ Cluster Nodes فى نفس الـ Subnet و

    أن تكون الـ Network latency أقل من 500 ملى ثانية جميعا و إن زادت عن ذلك فلن يفهم الـ Heart Beat وسيعتبر الـ Node غير فعالة و يجب أيضا

    أن يكونوا مرتبطين بالـ Active Directory و يمكن أن يضم الـ Cluster حتى 8Nodes فى هذه الطريقة ويجب أن تحصل على طريقة ما ليكون عندك

    disk مشترك بين الـ nodes حتى يتسنى لك عمل ذلك .

    ما هو الجديد الذى قدمة الـ windows Server 2003 Clustering ؟

    الـ windows server 2000 advanced server يدعم فقط 2nodes لكل cluster و الـ windows Server 2000 Datacenter يدعم

    4nodes للـ cluster الواحد أما الـ windows server 2003 فيدعم 8nodes مع كل من الـ Enterprise Edition و الـ Data Center Edition .

    تم زيادة دعم الـ AMD64 Processors فى الـ windows server 2003 Clusters .

    الـ Clustering جزء من الـ windows server 2003 وليس إضافة كما فى الـ windows server 2000 وهو ما يمكنك من عمل الـ updates

    للـ clustering service مع الـ windows server update .

    التكامل مع بيئة الـ Active Directory وهنا يجب أن نحذركم من أن الحساب التخيلى الذى يتم تكوينة للتعبير عن الـ Cluster لا يجب تطبيق أى Group

    policy عليه و إلا ستنطبق هذه الـ Group policy على أى Node تكون فعالة فى الـ Cluster .

    عند إضافة Node جديدة إلى الـ Cluster لا يوجد حاجة لإعادة تشغيلها و ليس كما فى الـ Windows server 2000 .

    لكن ماذا سيحدث إن لم يكن هناك إمكانية لعمل Shared cluster Disk ؟

    كى نتكلم عن هذا الموضوع يجب أن نتكلم عن تاريخ هذا الموضوع , فى الـ windows server 2000 و windows server 2000 advanced

    server كان يجب توفر physical HardDisk متصل بكل الـ Nodes عن طريق ISCASI أو أى ميكانيكية أخرى و كان لذلك مشاكلة حيث لم يكن يقدم

    السماحية الكافية لعمل الـ Geographically Dispersed Clusters حيث أن الـ Disk يجب أن يكون متصل فيزيائيا بالـ Nodes ولكن مع نظام الـ

    Majority Node set قدم لنا الـ windows server 2003 الحل لهذه المشكلة.

    تعتمد فكرة الـ Majority Node Set على تخزين الـ Cluster System Files على local disk فى كل Node بدلا من تخزينها على shared disk

    وبذلك أصبح لدينا السماحية فى التوزيع الجغرافى للـ Nodes و قد كان هذا التغيير هو التغيير الأكبر و الأفضل بين نسخة الـ 2003 و الـ 2000 من الـ Clustering .

    ويقوم الـ cluster بضمان أن تكون كل الـ nodes تحمل نفس النسخة من البيانات على الـ System Disk و بالطبع يقوم الـ majority algorithm بهذه

    المهمة نيابة عن الـ Cluster .

    لكن لماذا الـ Majority Node set ؟

    معنى كلمة Majority هو الأكثرية و كما ذكرنا فإن Majority Algorithm تقوم بتحديث نسخه الـ System Disk على جميع الـ Nodes لكن ماذا

    سيحدث عندما تنفصل Node عن Cluster مكون من 3 nodes نتيجة عطل فى الشبكة أدى إلى تأخر الـ Heart Beat مع أنها تحمل النسخة الأحدث من

    الـ System Disk ,ستظن الـ Node التى إنفصلت أن الأخرين هم الذين حدث لهم خطأ و تحاول جعل نفسها الـ node الفعالة لكن مع هذه الميكانيكية الجديدة

    سيقوم الـ Cluster بحساب عدد الـ Nodes فى كل جهه و سيأخذ الأكثرية و يجعل احد الـ nodes الأثنين هو النسخة الفعالة و يهمل الـ Node الوحيدة حتى

    لو كان عليها النسخة الأحدث من الـ System Disk أما إذا قل عدد الـ nodes عن الأكثرية وهو فى حالتنا هنا 2Nodes فإن الـ Cluster سيتوقف عن

    العمل تماما لحين عودة أحد الـ nodes الأخرتين .

    ماذا لو أردنا عمل Cluster يتكون من 2nodes وليس 3nodes ؟

    سيكون ذلك من الصعب جدا حيث تحتاج على الأقل 3Nodes حتى تحصل على الأكثرية إذا أعددت 2nodes cluster فستتوقف الـ Cluster service مع

    أول node تفشل فى الإتصال أو حتى تنهار نهائيا نتيجة عطل فى الهاردوير.

    الحقيقة الكثير منا يحتاج لعمل 2nodes Cluster فما العمل ؟

    تم حل هذه المشكلة يوم الخامس من يوليو عام 2006 بعد صدور هذا التحديث من مايكروسوفت
    http://support.microsoft.com/kb/921181 حيث

    أضاف هذا التحديث خاصية مهمة جدا للـ windows server 2003 cluster وهى File share witness حيث تقوم هذه الخاصية بعمل مجلد مشترك

    يحمل نسخة من الـ System Disk الخاص بالـCluster ويعتبر أحد أفراد الـ Cluster فقط فى التوفر وليس فى الـعمل كـ node حيث إذا إنقطع الأتصال بهذا

    المجلد و فشلت إحدى الـ nodes نعود لنفس المشكلة.

    هل أضاف هذا التحديث أى شيء آخر أم فقط أضاف الـ File share witness ؟

    أضاف التحديث خاصية إعادة تعديل عدد الـ Heart Beat المفقودة قبل أن يقوم الـ Cluster بالإنتقال إلى Node أخرى حيث فى الشبكات التى لا يمكنك الإعتماد

    عليها يمكنك إستخدام هذه الخاصية لزيادة عدد الـ Heart Beats المفقودة قبل أن يقوم الـ Cluster بالإنتقال إلى الـ Node التاليه .

    نبدأ معا شرح كيفية بناء الـ Cluster مع العلم أننا سنؤجل شرح الـ Shared Quorum Cluster إلى درس آخر وسنقوم بشرح الـ MNS Cluster فقط
    هنا..

    أولا : كيفية بناء Failover Cluster :

    يجب أن يتوفر لديك ثلاث سيرفرات أحدها يكون Domain Controller و سنستخدمة أيضا لوضع الـ MNS file share witness علية و السيرفرين

    الأخرين سيمثلان الـ Cluster Nodes ويجب أن يكون لكل منهما كارتين شبكة أحدهما نسمية Private و الأخر نسمية public.

    بعد الأنتهاء من تثبيت الـ Active Directory على الـ Domain controller قم بفتح Active Directory users And computers ثم قم

    بإنشاء إسم مستخدم جديد لنستخدمة فى بناء الـ Cluster كالآتى:











    قم بالدخول إلى السيرفرين الذين ستستخدمهما كـ Cluster Nodes ثم قم بإعداد الـ Private Network Card كالتالى















    على كل من الـ Cluster Nodes قم بإضافة الـ Cluster Account الذى قمنا بتكوينة من قبل إلى مجموعة الـ Local Administrators كالتالى



    قم بتسجيل الدخول إلى الـ cluster Node الأولى .



    قم بفتح الـ Cluster Administrator من قائمة Administrative Tools ثم قم بإختيار Create New Cluster من القائمة وتابع مع الشرح التالى.





















    من هذه الشاشة يمكنك إستعراض تفاصيل الـ Task الحالية عن طريق الضغط على Details و أيضا رؤية الـ Log الخاص بالعملية كلها بالضغط على View Logs





    بعدما تنتهى من إستعراض النتائج قم بالضغط على finish فى الشاشة التالية.



    و يظهر لك الـ Cluster بهذا الشكل بعد إضافة الـ Cluster Node الأولى.



    الآن قم بإضافة الـ Cluster Node الثانية إلى الـ Cluster ولعمل ذلك قم بالخطوات التالية

















    سيظهر لك الـ Cluster بهذه الصورة بعد إضافة الـ Cluster Node الثانية.



    الآن يجب أن تقوم بإعداد الـ File Share Witness الخاص بالـ Majority Node Set لتستعيض به عن إضافة node ثالثة إلى الـ Cluster و لعمل

    ذلك قم بتنفيذ الأمر الأول فى الشاشة التالية وطبعا لا أحتاج لتنبيهك لعمل مجلد مشترك على السيرفر الثالث و تعوض بة فى الأمر المذكور لنقل الـ system files

    الخاصة بالـCluster إليه و طبعا تعطى صلاحيات للـ Computer account الخاص بكل من Cluster nodes و أيضا الـ Cluster Account .



    طبعا يمكنك تجربة نقل الـ cluster من Cluster Node إلى الأخرى بإستخدام الأمر الثانى فى الشاشة السابقة وتنفيذة مرة أخرى للرجوع إلى الـ Cluster Node الأولى.

    وتستطيع أيضا أن تتأكد أن الأمور إنتهت على خير مع الـ File share witness بالذهاب إلى ملف المشاركة و تتأكد من وجود ملفات النظام هناك وطبعا لن

    تستطيع أن ترى الملفات قبل أن تعطى لإسم المستخدم الخاص بك صلاحية read على الأقل على المجلد و تظهر لك الملفات بهذا الشكل بعدها.



    أنت الآن مستعد لتقوم بتثبيت أى كان على الـ Cluster مثل الـ Exchange وما إلى ذلك.

    ثانيا : الـ Network Load Balancing Cluster :

    قم بتجيل الدخول إلى الـ Cluster Node الأولى بإستخدام الـ Cluster Account ثم قم بفتح الـ Network Load Balancing Manager من

    قائمة Administrative Tools ثم قم بإختيار New Cluster من الشاشة التى ستظهر لك كالتالى





    سيـُـطلب منك إدخال الـ ip الذى سيستعملة الـ Cluster و أيضا إسم الـ Cluster قم بإدخال البيانات المطلوبة ثم إضغط Next



    فى الشاشة التالية يمكنك إضافة أكثر من IP للـ cluster تحسبا لأى حوادث مع الـ IP الأول لكن هنا لن نضيف أى IP فأتركها كما هى ثم إضغط Next .



    و الآن نقوم بتعريف الـ Port الذى ينقوم بعمل الموازنة عليه وكمثال سنأخذ الـ Port 80 الذى يستخدم مع مواقع الإنترنت ليقوم الـ Cluster بتوزيع كل الـ

    Traffic القادم على هذا الـ Port على الـ Cluster Nodes ولعمل ذلك نقوم بتعديل الـ Port الإفتراضى كالتالى.







    قم يتحديد كارت الشبكة الذى سيستخدمة الـ Cluster كالتالى



    قم بتحدبد أولوية الـ Cluster Nodes و يجب الإنتباه إلى أنه كلما قلت القيمة كلما إرتفعت الأولوية و أترك الـ Dedicated IP كما هو إلا إذا كان عندك أكثر من ip على كارت الشبكة الذى تم إختيارة .



    عند إنتهائك من الخطوات السابقة تكون أنتهيت من إضافة الـ Cluster Node الأولى و يظهر لك الـ Cluster بهذا الشكل.



    لنتأكد أن الـ Cluster تم إعدادة بالطريقة الصحيحة نفتح الـ Network Settings الخاصة بكارت الشبكة و نتأكد أنها كالتالى .





    قم الآن بإضافة الـ Cluster Node الأخرى كالتالى









    إذا ظهر لك الخطأ السابق لا تقلق و أترك الـ Cluster لفترة قصير و سيقوم هو بعمل اللازم ليعود و يظهر لك بالصورة التالية



    وطبعا نتحقق من نجاح إضافة الـ Cluster Node الأخر من الـ Network Configuration حيث يجب أن يظهر IP الـ Cluster فيها.



    أنت الآن مستعد لإضافة ملفات الموقع إلى الـ Cluster Nodes .


  2. Facebook Comments - تعليقـك على الفيس بوك يسعدنا ويطور مجهوداتنـا


  3. Forum Ads:

  4. Forum Ads:

    اضفط هنا لمعرفة تفاصيل الإعلانات بالموقع


  5. Forum Ads:

    -->

  6. #2
    Join Date
    Nov 2007
    Location
    Arab world!
    Posts
    6,169
    Blog Entries
    4
    Rep Power
    10

    Default

    طريقة جديدة لعمل الـ Cluster .

    سنقوم بإستخدام طريقة الـ Shared Disk لصعوبة تنفيذها عمليا و قد تكلمنا من قبل عن بعض البرامج التى توفر لكم عمل قرص مشترك بين سيرفرين و اليوم نقدم لكم شرح تفصيلى عن أفضلها وهو الـ StarWind

    مع آخر إصدارة منه وهى الإصدارة الرابعة .

    قبل أن نبدأ كما تعودنا نقوم بشرح بعض المصطلحات التى سنتعرض لها خلال الـمقالة وهى ليست بالكثيرة هذه المرة نظرا لإتصال الموضوع بالجزء الأول

    الـ iscsi software :

    هو تحديث من مايكروسوفت يقوم بالأتصال بـ Iscsi target أو السيرفر الذى يقوم بتوزيع الأقراص المشتركة و يقوم بترجمة القرص المشترك للجهاز ليظهر كقرص طبيعى جدا وسنرى ذلك بمثال عملى .

    متطلبات التطبيق العملى:

    بيئة العمل فى هذه المقالة هى 4 سيرفرات .

    الأول domain controller و الرابع ISCSI Server و الثانى و الثالث هم نقاط الـ Cluster .

    نبدأ الأن مع الشرح .

    الخطوة الأولى هى تثبيت التحديث الخاص بالـ ISCSI على كل السيرفرات ما عدا الـ Domain Controller كالتالى .











    نبدأ الآن مع تثبيت الـ StarWind على السيرفر الرابع :

    قم بتنزيل البرنامج من
    هنا ثم قم بفك الضغط إلى مجلد فى أى مكان و إتبع الخطوات التالية.



















    قم بنسخ ملف الـ StarWindService.EXE من مجلد الـ ***** إلى مسار البرنامج و طبعا بعد إيقاف الخدمة بإستخدام الـ TaskManager





    بعد عمل الخطوة السابقة قم بإعادة تشغيل السيرفر ثم قم بعمل الخطوات التالية لبناء القرص المشترك.





























    قم بعمل الخطوات التالية على السيرفرين الثانى و الثالث لإظهار القرص المشترك ونبدأ بالسيرفر الثانى.













































    ثم نقوم بإظهار القرص المشترك على النقطة الثانية من الـ Cluster وهى السيرفر الثالث







    قبل البدأ مع تكوين الـ Cluster هنا ينبغى عليك إضافة كارت شبكة آخر على نقطتى الـ Cluster لنُـكون الـ Private Network للـ Cluster .













    بعد إتمام الخطوات السابقة قم بفتح الـ Cluster Administrator من قائمة Administrative Tools ثم إتبع الخطوات التالية لبناء الـ Cluster .





























  7. #3
    Join Date
    Nov 2007
    Location
    Arab world!
    Posts
    6,169
    Blog Entries
    4
    Rep Power
    10

    Default






















    طبعا كما ذكرنا من قبل فإن القرص المتاح هو من الـ Resources و الـ Resources جميعها تكون متاحة على نقطة واحدة فقط فى الـ Cluster وهى النقطة الفعالة ثم تنقل إلى النقطة التالية بعد فشل النقطة الفعالة .

    وهنا يظهر لنا أن السيرفر الثانى هو المالك للـ Resources حاليا



    وعليه لو ذهبنا للقرص المشترك و فتحناه على السيرفر الثانى فسنجد ملفات النظام الخاصة بالـ Cluster كالتالى



    أما السيرفر الثانى فلن يظهر فيه القرص المشترك حتى يكون فعال و بالطبع يمكنك معرفة المزيد من المعلومات عن الـ Resources بإستخدام الأمر التالى



    و يمكنك نقل الـ Cluster Group بين النقاط بإستخدام الأمر التالى



    فى المثال السابق ننقل الـ Cluster Group من السيرفر الثالث إلى الثانى لأنى كنت نقلتها قبل ذلك من الثانى إلى الثالث.

    لكن هل سيعمل الـ Cluster بنقطة وحيدة !!!!!! دعونا نجرب ذلك بالمثال العملى.





    بعد إيقاف الـ Cluster Service سيتوقف عمل الـ Shared Disk على هذه النقطة المتوقفة





    وطبعا سيظل يعمل على النقطة الفعالة



    طيب كيف يمكن إزالة نقطة من الـ Cluster لو توقفت عن العمل نتيجة ضرر بالهادوير!!!!!!!!!! الأجابة بسيطة إتبع التالى





    ويظهر لك الـ Cluster بنقطة واحدة فقط وهو مازال يعمل تماما ويمكنك إضافة نقاط جديدة له.





    طيب هل يمكن إضافة هذه النقطة الوحيدة إلى 2 clusters فى نفس الوقت لنجرب بالمقال العملى أيضا .







    إذن فالإجابة هى قطعا لا.

    و الأن نريكم كيفية إزالة النقطة الوحيدة وتدمير الـ Cluster .





    وهكذا نكون إنتهينا من الدرس

  8. Forum Ads:

  9. #4
    Join Date
    Jan 2008
    Location
    Egypt
    Posts
    3,946
    Blog Entries
    1
    Rep Power
    16

  10. #5
    Join Date
    Feb 2008
    Posts
    532
    Blog Entries
    2
    Rep Power
    13

    Default

    Excellent
    إذا كان عندك ملل من الدنيا وضيق في النفس وقلق وتفكير زائدين وخوف من المستقبل وعدم راحة في العيش ،، قل لا إله إلا الله محمد رسول الله ...
    فلديك نقص في الدين وستجده إن شاء الله بالصلاة والاستغفار وطاعة أوامر الله سبحانه وتعالى .

    Best Regards,
    MOHAMMED ELJOKER
    Security Engineer

    من مواضيع eljoker70000 :


  11. Forum Ads:

  12. #6
    Join Date
    Sep 2008
    Location
    Cairo, Egypt, Egypt
    Posts
    10
    Rep Power
    0

    Default

    الله عليك بصراحه موضوع هايل وجه فى وقته تماما

    جعله الله فى ميزان حسناتك

  13. #7
    Join Date
    Nov 2007
    Location
    Arab world!
    Posts
    6,169
    Blog Entries
    4
    Rep Power
    10

  14. #8

    Default

    rabena yakremak

  15. #9
    Join Date
    Oct 2010
    Location
    cairo
    Posts
    1
    Rep Power
    0

    Default

    الصور مش ظاهره اعمل اية

  16. #10
    Join Date
    Nov 2007
    Location
    Arab world!
    Posts
    6,169
    Blog Entries
    4
    Rep Power
    10

    Default

    The thread was so old.
    Check this in english from msexchange site.

    Implementing a Two Node Cluster with Windows 2003 Enterprise

    In this article I will give you a high level overview about the installation of Exchange 2003 on a Windows 2003 two node Cluster. This article doesn’t explain every necessary step for clustering Exchange, but it should give you an overview about the installation process and some basic handling.

    What is a cluster – a definition!

    A cluster is a group of computers, called nodes that function as a single computer/system to provide high availability and high fault tolerance for applications or services. Windows 2003 Servers can participate in a cluster configuration through the use of Cluster Services. If one member of the cluster (the node) is unavailable, the other computers carry the load so that applications or services are always (with a small interruption) available.
    All nodes of the cluster use a Shared Disk – an external disk or disk subsystem which is accessible for all nodes through SCSI (2 Nodes) or Fibre Channel (more than 2 nodes). All data will be stored on the shared disk or an external disk subsystem (for example Exchange databases).
    Every node has a local Exchange 2003 installation with a unique configuration for every cluster node. Each Cluster with Exchange 2003 has at a minimum one Exchange Virtual Server (EVS). An EVS is the logical node that will be used for all cluster operations. An EVS contains an IP address, network name, physical disk and an application.
    A cluster can be …

    • Active/Active or
    • Active/Passive

    Microsoft recommends only Active/Passive clusters – I will give you the reason later.
    The number of cluster nodes supported by Windows 2003 Enterprise and Datacenter is 8 nodes. Windows Server 2003 Standard and Web Editon doesn’t support a Cluster.
    In an Active/Passive cluster - If one node in the cluster fails, the active cluster failover to another node which becomes Active. This is called Failover. If the failed node is back online, a Failback can be manually initiated or automatically configured in the Cluster Group properties.
    Every cluster node must have two network interfaces. One network interface for the cluster communication called the private LANand one network interface called the public LAN. You can link a cluster with two nodes with a simple cross link cable. If more than two nodes exist in the cluster you have to use a dedicated switch / hub.
    The private NIC is used for the Heartbeat communication (Cluster communication). A Heartbeat is much like a ping which can be used to test if the other cluster node is still available. If the heartbeat fails, the Failover process occurs.
    Clustering changes with Exchange 2003 SP1

    In versions before Exchange 2003 SP1, regardless of the number of cluster nodes you could only have one instance of a Public Folder store that is associated with the MAPI folder tree.
    In Exchange 2003 SP1, the Exchange development team added the ability to have multiple MAPI Public Folder databases on a single multi node cluster.
    This support was added because the Exchange team saw that Outlook 2003 cached mode puts a greater load on Public Folders like the Outlook Address Book (the OAB will be loaded offline at the client). With the help of multiple Public Folder stores the load can be spread across these folders. This allows a better client performance.
    Why Active/Active cluster is not recommended

    Active / Active cluster is not recommended because of Virtual memory (VM) fragmentation.
    When two instances of the information store is running in one memory space, it might be possible that sufficient VM does not exist to bring the resource online during a failover/failback.
    For more information see here:
    http://support.microsoft.com/default.aspx?scid=kb;EN-US;816893
    There are three main concepts which reduce virtual memory fragmentation:

    • Decrease the number of dynamic allocations when the system is started
    • Increase the size of the virtual address space
    • Allocate similar size allocations from common regions of memory

    Exchange Server 2003 Cluster Requirements


    • Microsoft Windows 2000 Advanced Server (up to two nodes)
    • Windows 2000 Datacenter Server (up to four nodes)
    • Windows 2000 must have SP3 + 329938 hotfix or SP4
    • Windows Server 2003, Enterprise Edition (up to eight cluster nodes)
    • Windows Server 2003, Datacenter Edition (up to eight cluster nodes)
    • Hardware on cluster HCL
    • Windows 2000 - Check lists for cluster service installation
      http://go.microsoft.com/fwlink/?LinkId=266
    • Windows Server 2003 – http://go.microsoft.com/fwlink/?LinkId=17219
    • Microsoft Distributed Transaction Coordinator (MSDTC) installed

    Exchange Server 2003 Cluster Setup Changes


    • Block removal of node if an EVS is running on the cluster
    • The /disasterrecovery switched is blocked
    • Prevent Exchange 2003 from being first non-legacy server in a Exchange 5.5 site
    • By default, POP3 and IMAP4 resource not created (as part of the Trustworthy Computing initiative from Microsoft)
    • Cluster service account doesn’t requires Exchange full admin rights
    • IPSEC is now supported between front-end servers and back-end clusters

    Exchange Server 2003 Cluster Disk Changes

    Windows 2003 clusters now support Volume Mount points to overcome the limits of traditional drive letter assignments. This new feature is very useful for four and eight node Exchange clusters because the traditional drive letter assignment in Exchange was very limited in cluster environments when multiple storage groups and stores where used.
    Windows 2003 Cluster Setup

    I will not explain every step for installing a Windows 2003 Cluster. For detailed information click the following link.
    I will show you only a few pictures.

    Figure 1: Create a new Cluster
    The Windows 2003 Cluster administrator after successful installation.

    Figure 2: Cluster Administrator
    Exchange 2003 Cluster Setup

    Before we install Exchange 2003, we must create a MS-DTC (Distribution Transaction Coordinator) resource.
    In Windows 2003, Microsoft recommends installing the DTC as a separate Cluster Group containing a Physical Disk, Network Name and IP address resource and then adding the MSDTC resource to the cluster group.
    For more in formation how to setup the MS-DTC in a Windows 2003 Cluster, read the following Knowledge Base article.
    The second step is to install Exchange 2003 and all required hotfixes on each node. You MUST install Exchange one after the other. After installing Exchange, you can deploy Exchange 2003 SP1 on every cluster node. For more information on how to deploy Exchange 2003 SP1 into a cluster environment read the following article.
    Once the Exchange 2003 binaries have been installed on the cluster Node we can now create an Exchange Virtual Server.
    The Exchange Virtual Server creation process is much the same as for Exchange 2003. First we need to create a cluster group for the Exchange Virtual Server. The group must have at least one physical disk resource, at least one IP address resource, and a network name resource. The network name resource must have a dependency on the IP address resources in the cluster group.
    When all resources are online, we must create the System Attendant resource. The System Attendant Resource (SA) creates all the other Exchange 2003 cluster resources automatically.
    To do this, right click the Exchange 2003 cluster group and choose New Resource and then choose the Microsoft Exchange System Attendant. You must name the SA.

    Figure 3: Exchange System Attendant
    Add the Nodes that will be possible owners of the System Attendant Resource. A possible owner is a node in the cluster on which the resource can be brought online. These Nodes will also be added as a possible owner of all the other Exchange resources that are automatically created. A Node must be specified as a possible owner of a resource in order for us to failover to that Node.

    Figure 4: Possible owners of the EVS
    You must set the dependencies on the System Attendant Resource. The dependencies are the following:

    • Network Name resource
    • All disk resources (that Exchange 2003 should use - this includes Mount Point disks which will contain Exchange 2003 data)


    Figure 5: SA – Resource dependencies
    Like a normal Exchange installation you must select the administrative group where the Exchange virtual server is created.

    Figure 6: Chose the administrative Group for the EVS
    Within the chosen Administrative Group you now have to choose a Routing Group where the Exchange Virtual Server will be located when more than one Routing Group exists at the time of EVS creation. You can change the server location in the Routing Group after installation.

    Figure 7: Select the routing group for the EVS
    Please read the wizard's summary carefully.

    Figure 8: Exchange 2003 Wizard summary
    Click Finish to start the creation process. This may take a while because the setup process actually creates all Exchange 2003 cluster resources. When the process is complete you will see the following message:

    Figure 9: DONE
    The following picture shows the Cluster Administrator tool after EVS installation. Note that all Exchange resources are NOT online.

    Figure 10: Cluster Administrator after EVS installation
    Exchange 2003 no longer creates a POP3 and IMAP cluster resource. This is part of Microsoft's Trustworthy initiative and it is also true for a “normal” Exchange 2003 installation.
    Next, we have to bring the System Attendant resource online. To do so, right click the EVS System Attendant and click “Bring Online”.

    Figure 11: You have to bring the System Attendant Online.
    Exchange 2003 Resource dependencies

    Microsoft has changed the Exchange 2003 resource dependencies to allow a faster failover/failback.
    In Exchange 2000 there are the following dependencies:
    IP Address > Network Name > System Attendant
    Physical Disk > System Attendant
    Routing Engine > System Attendant
    Information Store > System Attendant
    MTA > System Attendant
    MS Search > Information Store
    POP3 > Information Store
    SMTP > Information Store
    IMAP4 > Information Store
    Beginning with Exchange 2003 Microsoft has changed the Resource dependencies:
    IP Address > Network Name > System Attendant
    Physical Disk > System Attendant
    Routing Engine > System Attendant
    Information Store > System Attendant
    MTA > System Attendant
    MS Search > System Attendant
    POP3 > System Attendant
    SMTP > System Attendant
    IMAP4 > System Attendant
    Kerberos support

    Beginning with Windows 2000 SP3 Kerberos authentication against clustered virtual servers was added. Before Windows 2000 SP3, all authentications against clustered virtual servers were NTLM or NTLMv2. Before Windows 2000 SP3, a clustered virtual server did not have a corresponding Active Directory computer object.
    Exchange 2003 now supports Kerberos authentication. This is done automatically by the setup process for non-clustered servers. In a cluster environment, these properties are set during the creation of the Exchange virtual server (EVS). This means that a computer object exists in Active Directory for each virtual Exchange server.
    Conclusion


    It is relatively easy to deploy a Windows 2003 cluster with Exchange 2003. Microsoft has made many extensions and enhancements in Windows 2003 and Exchange 2003 to ease the Cluster Administrators life.
    Don’t forget to pay attention for the rest of your cluster environment. A comprehensive Cluster solution should deal with certified hardware (at a minimum have a look in the HCL), cluster aware applications and 24/7 support and defined SLAs (Service Level Agreements). It is important to ensure that the infrastructure also supports High Availability. This means that you should have redundant networking equipments (Routers, Switches), USV support and much more.

  17. #11

    Default

    الف شكر على الموضوع الهام جدا
    واسلوب الشرح جعله بسيط ومفهوم

Similar Threads

  1. Windows Server 2008 Clustering
    By Mohamed Fouad in forum Microsoft
    Replies: 4
    Last Post: 18-12-2009, 05:18 PM
  2. Replies: 2
    Last Post: 27-02-2009, 08:12 PM
  3. Replies: 2
    Last Post: 28-12-2008, 02:30 PM
  4. Replies: 2
    Last Post: 22-12-2008, 09:38 PM
  5. Mscs Clustering On Windows Server 2003
    By Mohamed Fouad in forum Microsoft Certifications
    Replies: 4
    Last Post: 23-03-2008, 12:00 AM

Tags for this Thread

Posting Permissions

  • You may not post new threads
  • You may not post replies
  • You may not post attachments
  • You may not edit your posts
  •  

أقسام المنتدى

الروابط النصية

تابع جروبنا على الفيس بوك

صفحة Egypt Engineers على الفيس بوك

تابعنا على linkedin

جروبنا على الياهو جروب