أطلقنا خدمات جديدة ونمت حركة المرور واستبدلنا الخوادم والمواقع الجديدة المتصلة ومراكز البيانات المعاد تصميمها - والآن سنروي هذه القصة التي قدمنا لك بدايتها قبل خمس سنوات .
خمس سنوات هي فترة مميزة لتلخيص النتائج الوسيطة. لذلك ، قررنا التحدث عن تطوير بنيتنا التحتية ، التي مرت بمسار تطوير مثير للدهشة على مدى السنوات الخمس ، وهو ما نفخر به. لقد تحولت التغييرات الكمية التي قمنا بتنفيذها إلى تغييرات نوعية ؛ والآن يمكن للبنية التحتية أن تعمل في أوضاع بدت رائعة في منتصف العقد الماضي.
نحن نقدم العمل للمشاريع الأكثر تعقيدًا مع المتطلبات الأكثر صرامة للاعتمادية والأحمال ، بما في ذلك PREMIER و Match TV. في البث الرياضي وفي العرض الأول للمسلسلات التلفزيونية الشهيرة ، من الضروري إعادة حركة المرور في تيرابت / ثانية ، ونحن ننفذ ذلك بسهولة ، وغالبًا ما أصبح العمل بهذه السرعات أمرًا شائعًا بالنسبة لنا. وقبل خمس سنوات ، كان أصعب مشروع يعمل على أنظمتنا هو Rutube ، والذي ظل يتطور منذ ذلك الحين ، ويزيد من حجم الحركة وحركة المرور ، والتي كان يجب أخذها في الاعتبار عند تخطيط الأحمال.
تحدثنا عن كيفية تطويرنا لأجهزة البنية التحتية الخاصة بنا ( "Rutube 2009-2015: تاريخ أجهزتنا" ) وطوّرنا نظامًا مسؤولاً عن تحميل الفيديو ( "من صفر إلى 700 جيجابت في الثانية - كيف يمكن لأحد أكبر مواقع استضافة الفيديو في روسيا ") ، ولكن مر وقت طويل منذ كتابة هذه النصوص ، تم إنشاء وتنفيذ العديد من الحلول الأخرى ، والتي تتيح لنا نتائجها تلبية المتطلبات الحديثة وأن نكون مرنين بما يكفي لإعادة البناء لمهام جديدة.
نحن نعمل باستمرار على تطوير جوهر الشبكة . لقد تحولنا إلى معدات Cisco في عام 2015 ، كما هو مذكور في المقالة الأخيرة. ثم كانت جميعها نفس 10 / 40G ، ولكن لسبب واضح ، بعد بضع سنوات قاموا بترقية الهيكل الحالي ، والآن نحن نستخدم 25 / 100G بنشاط أيضًا.
لم تكن روابط 100G ترفًا لفترة طويلة (بالأحرى ، إنها مطلب ملح في ذلك الوقت في فئتنا) ، ولا نادرة (يوفر المزيد والمزيد من المشغلين الاتصال بهذه السرعات). ومع ذلك ، لا يزال 10 / 40G مناسبًا: من خلال هذه الروابط ، نواصل ربط المشغلين بكمية صغيرة من حركة المرور ، والتي من خلالها أصبح من غير العملي حاليًا استخدام منفذ أكبر.
يستحق جوهر الشبكة الذي أنشأناه دراسة منفصلة وسيصبح موضوع مقال منفصل بعد ذلك بقليل. هناك سوف نتعمق في التفاصيل الفنية وننظر في منطق أفعالنا عند إنشائها. لكننا الآن سنواصل رسم البنية التحتية بشكل تخطيطي أكثر ، لأن انتباهكم ، أيها القراء الأعزاء ، ليس بلا حدود.
خوادم خدمة الفيديوتتطور بسرعة ، ونحن نقدم الكثير من الجهد من أجلها. إذا استخدمنا سابقًا خوادم 2U بشكل أساسي مع 4-5 بطاقات شبكة مع منفذين 10G لكل منهما ، يتم الآن إرسال معظم حركة المرور من خوادم 1U ، حيث يوجد 2-3 بطاقات مع منفذين 25G لكل منهما. البطاقات ذات 10G و 25G متساوية في القيمة تقريبًا ، وتسمح لك الحلول الأسرع بإعطاء كل من 10G و 25G. والنتيجة هي توفيرات واضحة: عدد أقل من مكونات الخادم وكابلات للتوصيل - تكلفة أقل (وموثوقية أكبر) ، وتشغل المكونات مساحة أقل على الرف - يمكن استيعاب المزيد من الخوادم لكل وحدة من مساحة الأرضية وبالتالي خفض تكاليف الإيجار.
لكن الأهم هو زيادة السرعة! الآن مع 1U يمكننا إعطاء أكثر من 100G! وهذا على خلفية الوضع الذي تسميه بعض المشاريع الروسية الكبيرة "الإنجاز" بعودة 40 جيجا مع 2U. سيكون لدينا مشاكلهم!
لاحظ أن إنشاء بطاقات الشبكة التي يمكن أن تعمل فقط على 10G ، ما زلنا نستخدمها. تعمل هذه المعدات بثبات وهي مألوفة لدينا تمامًا ، لذلك لم نتخلص منها ، ولكن وجدنا تطبيقًا جديدًا لها. لقد قمنا بتثبيت هذه المكونات في خوادم تخزين الفيديو ، والتي من الواضح أن واحدة أو اثنتين من واجهات 1G لا تكفي للتشغيل الفعال ، وهنا تبين أن بطاقات 10G مناسبة.
أنظمة التخزينتنمو أيضًا. على مدى السنوات الخمس الماضية ، تم تغييرها من اثني عشر محرك أقراص (12x HDD 2U) إلى ستة وثلاثين محرك أقراص (36x HDD 4U). يخشى بعض الأشخاص استخدام مثل هذه "الجثث" الضخمة ، لأنه في حالة فشل أحد هذه الهياكل ، قد يكون هناك تهديد للإنتاجية - وحتى القدرة على العمل! - للنظام بأكمله. لكن هذا لن يحدث معنا: لقد قدمنا التكرار على مستوى نسخ البيانات الموزعة جغرافيًا. لقد قمنا بنشر الهيكل المعدني في مراكز بيانات مختلفة - نستخدم ثلاثة في المجموع - وهذا يلغي حدوث المشاكل في حالة تعطل الهيكل وعند سقوط النظام الأساسي.
بالطبع ، جعل هذا النهج الأجهزة RAID زائدة عن الحاجة ، والتي تخلينا عنها. من خلال التخلص من التكرار ، قمنا في نفس الوقت بزيادة موثوقية النظام ، وتبسيط الحل وإزالة إحدى نقاط الفشل المحتملة. تذكر أن أنظمة التخزين لدينا "عصامية". على هذا ذهبنا عمدا تماما والنتيجة ترضينا تماما. لقد قمنا بتغيير
مراكز البيانات عدة مرات خلال السنوات الخمس الماضية. منذ كتابة المقال السابق ، لم نقم بتغيير مركز بيانات واحد فقط - DataLine - استبدل الباقي مع تطور بنيتنا التحتية. تم التخطيط لجميع عمليات النقل بين المواقع.
قبل عامين ، هاجرنا داخل MMTS-9 ، وانتقلنا إلى موقع به إصلاح عالي الجودة ، ونظام تبريد جيد ، وإمداد طاقة ثابت وبدون غبار ، والذي كان يكمن في طبقات سميكة على جميع الأسطح ، وأيضًا يسد بداخل معداتنا بكثرة. اختر جودة الخدمة - وخالية من الغبار! - أصبح سبب تحركنا.
دائمًا تقريبًا ، "عبور واحد يساوي نارين" ، لكن مشاكل الهجرة تختلف في كل مرة. هذه المرة ، تم "توفير" الصعوبة الرئيسية للتنقل داخل مركز بيانات واحد من خلال التوصيلات المتقاطعة الضوئية - وفرتها البينية دون أن يتم دمجها في اتصال متقاطع واحد بواسطة مشغلي الاتصالات. ربما كانت عملية تحديث وإعادة توجيه المعابر (بمساعدة مهندسي MMTS-9) هي أصعب مرحلة في الترحيل.
حدثت الهجرة الثانية قبل عام ، في عام 2019 انتقلنا من مركز بيانات غير جيد جدًا إلى O2xygen. كانت أسباب هذه الخطوة مماثلة لتلك التي نوقشت أعلاه ، ولكن تم استكمالها بمشكلة عدم جاذبية مركز البيانات الأصلي لمشغلي الاتصالات - كان على العديد من مقدمي الخدمات "اللحاق" بهذه النقطة بأنفسهم.
أتاح انتقال 13 رفًا إلى موقع عالي الجودة في MMTS-9 تطوير هذا الموقع ليس فقط كمشغل (زوجان من الرفوف ومشغلي "إعادة التوجيه") ، ولكن أيضًا لاستخدامه كأحد المواقع الرئيسية. أدى ذلك إلى تبسيط عملية الترحيل من مركز بيانات غير جيد جدًا - نقلنا معظم المعدات منه إلى موقع آخر ، وتولى O2xygen دور التطوير ، وإرسال 5 رفوف من المعدات هناك أيضًا.
اليوم O2xygen هو بالفعل منصة كاملة ، حيث "يأتي" المشغلون الذين نحتاجهم ويستمر الاتصال بالمشغلين الجدد. بالنسبة للمشغلين ، كان O2xygen أيضًا جذابًا من حيث التطوير الاستراتيجي.
نحن بالتأكيد نقضي المرحلة الرئيسية من الحركة بين عشية وضحاها ، وعند الهجرة داخل MMTS-9 وإلى O2xygen ، التزمنا بهذه القاعدة. نؤكد على التزامنا الصارم بقاعدة "التحرك في الليل" بغض النظر عن عدد الرفوف! حتى أنه كانت هناك سابقة عندما قمنا بنقل 20 رفًا وفعلناها في ليلة واحدة أيضًا. يعد الترحيل عملية بسيطة إلى حد ما تتطلب الدقة والاتساق ، ولكن هناك بعض الحيل هنا ، سواء في عملية الإعداد أو عند الانتقال أو عند النشر إلى موقع جديد. نحن على استعداد لإخبارك عن الهجرة بالتفصيل إذا كنت مهتمًا.
النتائجنحب خطط التنمية الخمسية. لقد أكملنا بناء بنية تحتية جديدة مرنة عبر ثلاثة مراكز بيانات. لقد قمنا بزيادة كثافة توصيل حركة المرور بشكل كبير - إذا ابتهجنا مؤخرًا عند 40-80G مع 2U ، فمن الطبيعي الآن أن نعطي 100G مع 1U. الآن نرى أن تيرابيت من حركة المرور أمر مألوف. نحن على استعداد لمواصلة تطوير بنيتنا التحتية ، والتي تبين أنها مرنة وقابلة للتطوير.
سؤال:ماذا أقول لكم في النصوص التالية أيها القراء الأعزاء؟ لماذا بدأنا في بناء أنظمة تخزين محلية الصنع؟ حول جوهر الشبكة وخصائصها؟ حول حيل وتعقيدات الهجرة بين مراكز البيانات؟ حول تحسين قرارات الإصدار عن طريق اختيار المكونات وضبط المعلمات؟ حول إنشاء حلول مستدامة بفضل التكرار المتعدد وقابلية التوسع الأفقي داخل مركز البيانات ، والتي يتم تنفيذها في هيكل من ثلاثة مراكز بيانات؟
المؤلف: بيتر فينوغرادوف - المدير الفني لشركة Uma.Techالهامستر