معرفی اجمالی Unispher

معرفی اجمالی Unispher

پیشتر مطالب مختصری در آموزش ” Unisphere چیست ؟ ” در خصوص Unisphere ارائه شد. در این آموزش قصد دارم به ارائه آموزشهای ابتدایی نحوه استفاده با Unisphere بپردازم.

چکونه Unisphere را راه اندازی کنیم ؟

همانگونه که در آموزش قبلی نیز گفتم، ساده ترین روش استفاده از یک Web Browser و وارد نمودن IP آدرس یکی از SP ها و یا Control Station هاست. نکته : بیاد داشته باشید که شما برای این منظور نیاز به جاوا دارید.

زمانی که پنجره Login را دیدید، می توانید با ورد نام کاربری و پسورد خود به تجهیز Login نمایید. پس از ورد موفق شما این صفحه را خواهید دید :

Unisphere Dashboard

اولین چیزی را که به محض Login مشاهده می نمایید صفحه Dashboard است. اگر شما بیش از یک تجهیز VNX در دامین خود داشته باشید، در این وضعیت شما هنوز به هیچ تجهیز خاصی از VNX های خود Login نکرده اید.

اگر قصد دارید با یک تجهیز خاص کار کنید و یا آنرا مدیریت کنید، لازم است که آن تجهیز را انتخاب نمایید. جهت این کار می توانید بروی اسم تجهیز خود را از Drop-Down لیست موجود در گوشه بالایی سمت چپ، انتخاب نمایید و یا بروی نام تجهیز در زیر منو اصلی کلیک نمایید.

کار کردن با تجهیز Storage

زمانیکه شما تجهیز مورد نظر خود را انتخاب نمودید، صفحه داشبورد با کمی تغییرات بشکل زیر نمایش داده می شود :

Unisphere VNX Dashboard

این صفحه در همان پنجره پیشین باز می شود. حال شما اطلاعات بیشتری در خصوص یک تجهیز خاص دارید. اول اینکه شما می توانید تمامی System Alert های مهم اخیر را ببینید. در گوشه بالایی سمت راست می توانید اطلاعات اولیه را ببینید. شماره سریال و مدل تجهیز شما نیز از همین محل قابل استخراج است.

نگاهی به گزینه های منوی اصلی بیندازیم :

System

 

Unisphere System menu

هر منو برای خود دارای انتخابهایی است. شما می توانید با کلیک بروی گزینه منو (System,Storage,Host,Data Protection و ….) و یا قرار گرفتن روی این منوها و آنگاه باز شدن Popup منو به انتخاب زیر منوها بپردازید.

گزینه System  این انتخاب ها را دارد :

  • Hardware : اینجا میتوانید تمامی اطلاعات مربوط به سخت افزارها، از یک هارد دیسک تا وضعیت فن ها را بیابید.
  • Monitoring And Alerts : تمامی Alert ها اینجا هستند، همچنین می توانید به SP Event Logها، Notification ها و وضعیت فعلی تجهیز و یا ارسال هشدار ها توسط ایمیل و … دست یابید.
  • Reports : جایی که می توانید گزارشات خود را اینجا بسازید.

Storage cz-lekarna.com

Unisphere Storage menu

احتمالا این TAB را در حین کارهای روزمره خود دیده اید. تعداد انتخابها و زیر منوهایی که ممکن است اینجا ببینید کاملا بستگی به لایسنسها و ورژن تجهیز شما دارد.مثلا اگر تجهیز شما دارای لایسنس های سرویس File باشد، شما موارد بسیار بیشتری را مشاهده خواهید کرد.

در این قسمت شما می توانید یک Raid Group، Storage Pool و LUN و … تولید نمایید.

Hosts

 

Unisphere Host Menu

 دراین TAB مهمترین قسمت قطعا Storage Group است که به شما امکان تولید، حذف و یا تغییر یک Storage Group را می دهد.  البته قطعا برای تولید یک Storage Group شما نیاز به Host دارید. لیست Host های شما در HOST List موجود است. یک مقدار عمیق تر به موضوع بنگریم، برای اینکه Host داشته باشید، باید تعداد Initator داشته باشید. فعلا  تا همین حد وارد می شویم و در آینده نزدیک بیشتر به این موضوع می پردازیم.

امیدوارم این آموزش توانسته باشد یک دید کلی و پایه ای برای شروع کار با Unisphere برای شما فراهم نماید.

Flashها به جز سرعت و کارایی، چه امکانات بیشتری دارند؟

کارایی Flash

Flash ها به جز سرعت و کارایی، چه امکانات بیشتری دارند؟

Flash Storage ها بسرعت در حال تبدیل شدن به جریان اصلی در حوزه تکنولوژی ذخیرشی، هستند. تا جایی که تحلیلگران Gartner، پیش بینی کرده اند که، تا ۵ سال آینده از هر ۵ دیتا سنتر، یکی از آنها تمامی اطلاعات اولیه خود را بروی  Flashها منتقل خواهد نمود.

وقتی به Flash ها فکر می کنیم، ناخودآگاه ذهن ما تنها به سرعت و کارآیی آنها معطوف می شود. در حالیکه اینها تنها به عنوان مزایای اولیه برای جابجایی دیتاها از Disk-Based Storage به Flash ها، در بدو ورود Flash ها به این بازار ، بر شمارده می شد. این موضع برای مشتریانی که نرم افزارهایی داشتند که نیاز بود تا همیشه Available و Super Responsive، یک نیاز اساسی بود و Flash ها با سرعت و کارآیی خود به سادگی به این نیازها پاسخ می دادند و به همین دلیل نیز به عنوان شاخصهای اصلی این تکنولوژی نزد مشتریان معرفی شدند.

اما اکنون زمان آن رسیده که قابلیتهایی فراتر از سرعت و کارآیی را مورد بحث قرار دهیم. زیرا همانگونه که پیشتر هم ذکر شد این تکنولوژی بسیار فراتر از این دو خصیصه است. این موارد شامل سرویسهای Built-in Data نظیر Deduplication، Encryption، Replication، و Thin Provisioning می گردد.  فراتر از افزایش خام سرعت، بهره گیری از این سرویسها باعث تغییر معادله هزینه تمام شده می گردد و دیتا سنتر ها را قادر می سازد تا به نیازهای روبه تغییر سریع مشتریان خود، پاسخگو باشند.

تجدید نظر در خصوص هزینه های Storage

هزینه بهره برداری از یک Flash Storage در مقام مقایسه با یک Spinning Disk Storage بسیار مقرون به صرفه تر است! زیرا که All-Flash Arrays ها می توانند تا ۶ برابر دیتای  بیشتری نسبت به Storage System سنتی،  با ظرفیت برابر، در خود ذخیره نمایند، تا جاییکه بنا به تخمین  تحلیلگران IDC، استفاده از All-Flash Arrays باعث کاهش ۸۰% هزینه ها در طول ۳ سال خواهد شد. بهره گیری از تکنولوژیهای هوشمندی نظیر Compression و Deduplication به معنای دخیره سازی دیتاها به شیوه موثرتر و با راندمان بسیار بالاتری نسبت به شیوه های سنتی پیشین است. پس با توجه به ذخیرش داده ها بیشتر بروی یک تجهیز، هزینه ذخیره سازی در ازای هر گیگابایت، به شدت کاهش می یابد.

این بهبود بهره وری در سرویس، تاثیر مثبتی نیز بروی تراکم Workload دارد. علاوه بر این، راه اندازی و بهره گیری از All-Flash Arrays باعث کاهش فضای مورد نیاز نصب ( Footprint )  تجهیز نیز می گردد که این به معنای نگهداری دیتای بیشتر در همان حجم فضای مورد نیاز Storage های سنتی است. با توجه به عدم وجود قطعات چرخشی و متحرک درون هاردهای Flash، گرمای تولید شده نسبت به سیستمهای سنتی بسیار کمتر است و این به معنی کاهش نیاز به سیستم خنک کنندگی و نتیجتا منجر به کاهش مصرف انرژی و  در نهایت کاهش هزینه در ازای نگهداری در هر گیگابایت دیتا خواهد شد.

ارائه چابکی بیشتر

نرم افزارهایی نظیر Airbnb و یا Uber که جز نرم افزار های موبایل Next-Generation هستند، باعث چالش هایی برای کسب و کارهای بزرگ در ارائه هر چه بهتر سرویس به مشتریان، شده است. برای موفقیت در دنیای کسب و کاری این چنینی، مجموعه شما باید بتواند اینگونه نوآوری های خود را، سریع تر از دیگران ارائه نماید. به محض رونمایی از اینگونه نرم افزار های جدید، با تاثیر سریع و موثر خود بروی مشتریان، باعث تولید نیازها و خواسته های جدیدی از سوی مشتریان می گردد. پاسخگویی به اینگونه نیازها در راهکارهای سنتی Storage ها مستلزم صرف هفته ها و یا حتی ماهها می باشد در حالیکه سیستمهای Flash تمامی این قوانین را زیر پا می گذارد.

بیایید فرض کنیم که شما یک نرم افزار پر مخاطب دارید که نیاز است در بخشهایی ازآن تغییراتی بوجود آید. با بهره مندی از All-Flash Arrays ها شما قادر خواهید بود تا ۲۰ نسخه کپی از نرم فزار خود را بدون هیچ گونه تاثیری بر سرعت یا کارآیی تجهیز و یا حتی بدون نیاز به افزودن ظرفیت! در اختیار داشته باشید. بدین گونه تیم توسعه نرم افزار سازمان شما می تواند بصورت موازی بروی این نسخ کار کرده و نسخه جدید این نرم افزار را با سرعت بیشتری در اختیار مشتریان شما قرار دهد. فرآیندی که ممکن بود در کسب و کارهای بزرگ مستلزم هفته و یا ماهها باشد اکنون با بهرمندی از تکنولوژی All-Flash Arrays با توجه با بهبود دسترسی به کارآیی و ظرفیت، به ساعتها تقلیل یافته است.

برای مطالعه بیشتر در این خصوص می تواند کتاب الکترونیکی Agile Data Center – Where Scale Meets Performance را از اینجا دانلود نمایید.

معرفی XtremIO

XtremIO

معرفی XtremIO

اگر بیاد داشته باشید EMC در May سال ۲۰۱۲، XtremIO را به قیمت ۳۴۰  میلیون دلار خریداری کرد. انتظار طولانی بود ولیکن بالاخره EMC نیز دست بکار شد و تصمیم گرفت وارد بازار All Flash Array Storage ها شود و به این انتظار مشتریان خود را پایان دهد. از May سال ۲۰۱۲ تا Nov سال ۲۰۱۳ شرکت EMC مشغول انجام کارهای تحقیقاتی بروی XtremIO بود و این محصول اصطلاحا تنها بصورت DA  و یا Direct Availability در دسترس بود و از تاریخ Nov سال ۲۰۱۳ به بعد این محصول بصورت عمومی در دسترس قرار گرفت. از آن تاریخ و در طی این ۲ سال این محصول رشد کرده و به بلوغ لازم رسیده و با توجه به نیاز دیتا سنترها امروزی به سرعت های بالاتر در زمینه Storage ، تصمیم گرفتم در این مقاله شما را با این رده از محصولات EMC آشنا کنم.

در ابتدا، مبانی:

در حال حاضر ۶ انتخاب برای این محصول وجود دارد. اجزای تشکیل دهنده اصلی آن عبارتند از:

  • ۶ یونیت در ازای هر X-Brick ( در ادامه این مفهوم بررسی خواهد شد. )
  • ۵ یونیت در ازای هر X-Brick اضافه
  • ۷۵۰ وات
  • ۴ عدد پورت 8GB FC در قسمت Front End
  • ۴ عدد پورت 10GB ISCSI در قسمت Front End
  • پشتیبانی از ۵ TB الی ۳۲۰ TB فضای خام (Raw Capacity )

تصویر شماره ۱

یک آرایه XtremIO از ۱ الی ۸ عدد X-Brick تشکیل می شود. تصویر شماره ۱، اولین X-Brick را نمایش می دهد. اولین X-Brick دارای دو تجهیز باتری پشتیبان است. در صورت استفاده از دو عدد X-Brick، آنگاه X-Brick دوم از یک عدد تجهیز باتری بهره می برد و بدین گونه هر X-Brick دارای یک باتری پشتیبان خواهد بود. ذکر این موضوع تنها برای انجام محاسبات جانمایی در رک و تعداد یونیتهای مورد نیاز بود. هر X-Brick خود شامل دو عدد کنترلر با معماری X86-based تک یونیت و یک DAE با سایز ۳ یونیت و ظرفیت ۲۵ عدد هارد دیسک ۲.۵” SSD می باشد. زمانی که شما قصد دارید که از X-Brick دوم نیز استفاده نمایید، جهت برقراری ارتباط میان X-Brick ها به یک سوئیچ Infiniband تک یونیت نیز، نیاز خواهید داشت. ( تصویر شماره ۲ )

 تصویر شماره ۲

 

بیاد داشته باشید که کنترلرهای شما در واقع یک سرور تک یونیت مبتنی بر معماری X86-based می باشند و هیچ قطعه سخت افزاری خاصی، نسبت به سرورهای رایج در بازار ندارد. تمام معجزات XtremIO در بخش نرم افزاری آن رخ می دهد و این یک مزیت مهم این نوع طراحی است. زیرا تمامی قابلیتها و نوآوریهایی که در این زمینه رخ دهد تنها با بروز رسانی نرم افزار موجود برای شما نیز قابل دسترس خواهد بود.

 تصویر شماره ۳

تصویر شماره ۳، معماری مورد استفاده در این محصول را آشکار می نماید. هر کنترلر از ۱۶ هسته پردازنده فیزیکی و GB 256 ، RAM بهره می برد. دو کنترلر توسط یک واسط ارتباطی Infiniband RDMA با یکدیگر تبادل اطلاعات می نمایند. زمانیکه شما تنها از یک X-Brick استفاده می نمایید، کنترلرها مستقیما به یکدیگر متصل می گردند، اما در حالتی که بیش از یک X-Brick وجود داشته باشد، لازم است از یک Infiniband switch استفاده نماییم. هر دو کنترلر توسط کابلهای SAS به DAE متصل می شوند.

هر دو کنترلر بصورت Active/Active عمل می نمایند و LUN ها در یک لحظه توسط هر دو کنترلر قابل دسترسی است ( مانند حالتی که در EMC VNX شما از لایسنس Power Path استفاده میکنید و به نوعی از جمع پهنای باند هر دو کنترلر استفاده می نمایید.) و دیگر نیازی به بهره گیری از تکنولوژی ALUA یا همان Asymmetric Logical Unit Access نمی باشد.

بررسی عملکرد

XtremIO بسیار بسیار ……. سریع است. دیگر از یک Full Flash Array چه انتظاری دارید؟ موضوع بسیار جالب درباره EtremIO اینست که این Storage به اندازه کافی سریع است و جالب تر اینکه بدانید با بسط آن و افزایش تعداد X-Brick ها، سریعتر نیز می شود. EMC با ارائه این محصول به بازار سر و صدای زیادی راه انداخته است. معیار محاسبه سرعتهای ارائه شده، یک تجهیز با ۸۰% توان آن Workload می باشد که عموما توسط Full Flash Array ها قابل تحمل نیست اما EMC قصد داشته تا تجهیز خود را در شرایط کاملا مشابه با شرایط واقعی بیازماید و تمامی IO بصورت ترکیبی از Read/Write می باشد.

Read IOPS

Read/Write IOPS Raw Capacity System

۲۵۰ K

۱۵۰ K

۵ TB

Starter X-Brick

۲۵۰ K

۱۵۰ K

۱۰, ۲۰, or 40 TB

۱ X-Brick

500K

۳۰۰ K

۲۰, ۴۰, or 80 TB

۲ X-Brick Cluste

1M

۶۰۰ K

۴۰, ۸۰, or 160 TB

۴ X-Brick Cluster

۱.5M

۹۰۰ K

۱۲۰ or 240 TB

۶ X-Brick Cluster

2M

۱.۲ M

۱۶۰ or 320 TB

۸ X-Brick Cluster

 جدول شماره ۱

نکته قابل تامل رابطه خطی افزایش سرعت تجهیز با افزایش تعدادX-Brick ها می باشد. در واقع با افزایش X-Brick ها نه تنها ظرفیت را افزایش داده اید، بلکه سرعت تجهیز را نیز افزایش داده اید. بدین شیوه برای محاسبات Sizing سامانه Storage خود تنها نیاز دارید تا IOPS مورد نیاز را بدانید. آنگاه بر اساس جدول شماره ۱ ، تعداد X-Brick های مورد نیاز را بیابید. سپس بررسی نمایید آیا این تعداد تکافوی ظرفیت درخواستی را نیز دارد یا خیر. به همین سادگی!

همچنین، بیاد داشته باشید که تمامی IOPS شما دارای latency کمتر از ۱ ms خواهد بود. می توانید باور کنید؟ راستش واسه من تصورش هم سخته!!

ویژگیها

یکی از بزرگترین ویژگیهای XtremIO اینست که تمامی قابلیتهای آن همیشه قابل استفاده هستند و بمانند سری VNX شما نیاز به خرید لایسنسهای جداگانه جهت بهره برداری از این قابلیتها ندارید. این موضوع باعث سادگی بسیار زیاد مدیریت تجهیز شده است زیرا شما هیج نیازی به فعال و یا غیر فعال نمودن هیچ قابلیتی ندارید و تمامی آنها همیشه روشن هستند و در صورت نیاز بصورت اتوماتیک درگیر خواهند شد.

در XtremIO شما هیچ نیازی به Setup و Tuning ندارید. هیچ Raid Group، هیچ Pool، هیچ Stripe Sizes و حتی هیچ Tier وجود ندارد! در اینجا شما تنها مجموعه از Storage های بسیار بسیار سریع دارید و تنها باید تصمیم بگیرید که می خواهید سایز Lun شما چقدر باشد؟ این تنها کاری است که شما باید انجام دهید!

در ادامه خواهیم دید که دیتا بروی XtremIO چگونه Deduped و چگونه نوشته می شود ولیکن فعلا به این حد بسنده کنیم که XtremIO میتواند تمامی درخواستهای IO را روی تمامی SSD های موجود در کلاستر Balances می شود. به همین دلیل در XtremIO هیچ HotSpot در هیچ جا وجود ندارد و شما نمیتوانید هیچ SSD پیدا نمایید که تقریبا پر شده باشد در حالیکه SSD با ظرفیت تقریبا خالی وجود داشته باشد. تصویر شماره ۴ این موضوع را نمایش می دهد.

تصویر شماره ۴

همچنین هر چه بروی XtremIO نوشته می شود تنها بصورت Thin می باشد. XtremIO همچنین از VAAI نیز پشتیبانی می کند. قابلیتهای پشتیبانی شده در VAAI عبارتند از :

  • Zero Blcoks/Write Same
  • Clone Blocks / Full Copy / XCopy
  • Atomic Test & Set
  • Block Delete / UNMAP / TRIM

ظرفیت و راهکار جادویی XtremIO

همانگونه که تا کنون دیدیم در هر X-Brick محدودیت ظرفیت داریم ( تعداد حداکثر ۲۵ عدد هارد SSD ) . برای رفع این نقیصه XtremIO از شیوه Full In-Line Deduplication بهره می برد و این قابلیت همیشه روشن است و بر خلاف دیگر مدلها نظیر VNX امکان غیرفعال نمودن آنرا ندارید. هماهنگونه نیز که ذکر شد این قابلیت بصورت In-Line عمل می نماید و شامل تمامی هارد دیسکها و X-Brick های موجود در کلاستر است. فرآیند این قابلیت بدین گونه است که هر داده ای که وارد آرایه می گردد ابتدا انگشت نگاری می شود و آنگاه آرایه یک Hash خاص برای آن تولید می نماید تا از نوشتن داده هایی با همان Hash در آینده بروی آرایه جلوگیری نماید.

تصویر شماره ۵

نکته بسیار جالب در خصوص این فرآیند اینست که XtremIO جداول مربوط به Deduplication را پس از بوت شدن سامانه بروی Ram تمامی X-Brick های درون کلاستر نگاه می دارد تا بتواند به سرعت به جستجو درون آن بپردازد و بدین گونه سرعت این فرآیند را بشدت بالا ببرد.

حال سوال اصلی اینست که شما به چه فضایی نیار دارید؟ این کاملا بستگی به نوع داده های مورد استفاده در سازمان شما دارد زیرا که نرخ  Deduplication می تواند از ۳:۱ تا ۱۰:۱ متغییر باشد.

حالت ارتجاعی

آیا می توان به XtremIO برای نگهداری داده ها اطمینان کرد؟ من فکر می کنم میشود. همه قطعات در XtremIO دارای Redundant هستند.

  • Redundant controllers
  • Backup power supplies
  • Dual (redundant) power supplies
  • Dual (redundant) InfiniBand ports
  • Dual SAS Controller Modules
  • Dual iSCSI and Fibre Channel ports on each storage controller
  • Fail up to 6 SSDs per X-Brick
  • N+2 row and diagonal parity

ذکر این موضوع لازم است که شما نمی توانید همزمان ۶ عدد SSD را در یک X-Brick از دست بدهید، بلکه در هر زمان می توانید حداکثر تا ۲ عدد SSD را بصورت همزمان بدون از بین رفتن داده ها، از دست بدهید. بعد از این رخداد XtremIO شروع به فرآیند باسازی می نماید و پس از پایان بازسازی، تجهیز شما می تواند ۲ عدد SSD دیگر را از دست بدهد. بهمین ترتیب تا حداکثر ۶ عدد SSD در هر X-Brick. حال فرض کنید که شما در کلاستر خود از ۴ عدد X-Brick استفاده می نمایید. آنگاه کلاستر شما تحمل از دست دادن تا ۲۴ عدد SSD را دارد! این تقریبا معادل تعداد کل درایوهای SSD یک X-Brick است.

نرم افزار های XtremIO برای محافظت از داده ها از مکانیزیمی بنام XDP (XtremIO Data Protection  ) بهره می برند. XDP با بهره گیری از تکنولوژیهای بسیار پیشرفته می تواند حفاظت از داده های شما را تضمین نموده و بر خلاف روشهای معمول و سنتی Raid، I/O Overhead و هدر روی کمتر فضای دیسک (Capacity Overhead  ) را به ارمغان می آورد. جالب است بدانید که در XDP، Capacity Overhead تولید شده کمتر از ۸% است.

XDP بسیار کارآمد و موثر است. در بسیاری از All Flash Array Storage ها در هنگام نوشتن داده ها، تمامی SSD ها Lock می شوند. بدین معنا که در همان لحظه شما امکان خواندن دیتا بصورت همزمان را نخواهید داشت! بر خلاف آن XtremIO با بهره گیری از XDP هیچ نیازی به Lock کردن SSD ها نداشته و بلکه امکان دسترسی با سرعت به مراتب بالاتری را نیز فراهم می آورد.

XDP نیازی به هیچ گونه تنظیماتی ندارد و همچنین هیچ تعریفی بنام HotSpare در XDP وجود ندارد. در صورت بروز مشکلی برای SSD ها سیستم بصورت کاملا آگاهانه شروع به بازسازی می نماید و پس از آن بر خلاف حالتهای Raid سنتی، دوباره سیستم به سرعت طبیعی خود برمی گردد.

و در نهایت شما بدون نیاز به هیچ گونه Down Time و یا تولید اختلالی می توانید سامانه خود را بروز رسانی نمایید حتی بدون کوچکترین تاثیر در IO سرویس گیرنده ها.

تولید کننده SSD شما کیست و چرا این موضوع مهم است ؟

Untitled-2

تولید کننده SSD شما کیست و چرا این موضوع مهم است ؟

قابلیتهایی نظیر VSAN، Pernix Data FVP، XtremSW و ScaleIO از EMC و همچنین ioVDI، ioTurbine از FusionIO توجه خاصی به وجود هارد دیسکهای Flash بروی سرورهای شما دارند. مشکل بسیار بزرگی که بسیاری از مدیران شبکه با آن روبرو می شوند اینست که در انتخاب Flash دیسک باید بسیار محتاط بود. تمامی SSD ها و PCIe Card ها یکسان نیستند …. و داستان از همینجا شروع می شود.

اگر به SSD های موجود بروی سرورها متفاوت نگاهی بیاندازید، قطعا با انواع انتخاب روبرو خواهید شد. در بازار تجاری SSD های سه دسته اصلی ( البته به صورت کامل دارای ۴ دسته هستند ) از SSD ها موجود است: MLC ( گاهی به نام cMLC نیز نامیده می شود. ) ، eMLC و SLC. SLC ها در واقع Single Layer Cell هستند که گرانترین نمونه نیز می باشند. با ظهور eMLC (Enterprise Multi-Level Cell .) ها کم کم SLC ها کم فروغ تر شدند. پیشتر SLC به دلیل سرعت بالا و طول عمر بالاتر، بسیار مورد توجه بودند ولیکن بدلیل قیمت بسیار بالا در مقایسه با eMLC ها، رقابت را به آنها باختند. eMLC ها به سرعت توانستند خلاء میان MLC و SLC را با هزینه بسیار کمتر پر کنند. و در آخر، MLC ها که همانگونه که گفته شد به آنها cMLC و یا Consumer Multi-Level Cell نیز گفته می شود. اینگونه SSD ها بیشتر مناسب شرایط استفاده در Notebook ها و PC ها می باشند و در محیطهایی با IO بالا پاسخگو نیستند.

اما شما بعنوان یک Storage Admin باید فراتر از این مسائل را در نظر داشته باشید. شما باید مسائلی از قبیل Over Provisioning Space، طول عمر، سلولهای Wears Out شده و یا سلولهایی که دیگر قابل استفاده نیستندو….. . عموما تمامی SSD ها دارای فضایی هستند که شما نمی توانید به آن دسترسی داشته باشید  و برای جابجایی اطلاعات سلولهایی که بسیار مستعمل شده اند مورد استفاده قرار می گیرد. SSD هایی که کیفیت های بالاتر و گرانتر عموما دارای فضای بیشتری جهت انجام این فرآیند هستند و قطعا SSD های ارزانتر فضای بسیار کمتری برای انجام این پروسه دارند. این فضای اضافه عموما برای مقاصد دیگری نظیر Garbage Collection و … نیز استفاده می گردد. Garbage Collection در واقع فرآیندی که طی آن SSD سلولهایی که اطلاعات آن توسط سیستم عامل حذف شده است را به صفر تبدیل می نماید تا برای نوشتن مجدد آماده باشد.

در این مقاله خیلی قصد ندارم به عمق این فرآیندهای درون SSD  ها وارد شوم ولیکن اگر فرصتی پیش آید بزودی در خصوص ساختار فیزیکی و فرآیند House Keeping درون SSD ها نیز، مقاله ای در اختیار شما قرار خواهم داد.

تولید کنندگان متفاوت همچنین از کنترلرهای متفاوتی برای SSD های خود بهره می برند. تفاوت این کنترلرها در Interface مورد استفاده، پردازنده مورد استفاده و مهمترین بخش آن Frameware مورد استفاده است. بسیاری از قابلیتها و انجام صحیح و سریع آن فرآیندها منوط به وجود Frameware مناسب است. این Frameware بمانند یک سیستم عامل بروی رایانه شما عمل می کند و تمامی رفتارهای اجزای فیزیکی را کنترل می کند. قطعا SSD های با کیفیت تر بدلیل برخورداری از Frameware های بهتر، در محیط پر ترافیک می توانند عملکرد مناسب تری را نسبت به SSD های ارزان قیمت تر داشته باشند.

عموما وقتی شما قصد خرید یک SSD را بروس سرور و یا Storage خود را دارید نمی تواند از مدل و برند هارد SSD خود اطلاعات دقیقی کسب نمایید و معمولا با نامهای خاص تجاری که فروشنده به روی تجهیز قرار داده برخورد می نمایید نظیر :

  • Fast VP و Fast Cache در EMC
  • Enterprise Value و Enterprise Performance در Cisco
  • و ….

ولیکن با قدری جستجو در اینترنت قطعا می توانید بطور دقیق دریابید که مثلا در برند Cisco عبارت Enterprise Value برای SSD های Micron P400e و یا Enterprise Performance برای Samsung 1625 استفاده می شود. با جستجوی بیستر درمیابید که Micron P400e برای یکبار در روز Full Drive Overwrite طراحی شده است در حالیکه Samsung 1625 دارای تحمل ۵ بار Full Drive Overwrite در روز می باشد. پس با توجه به این موارد می توان دریافت SSD مدل Micron P400e برای مقاصدی نظیر VSAN اصلا مناسب نیست. استفاده از این نوع SSD برای مقاصدی نظیر VSAN و Pernix Data FVP با توجه به حجم بالای ترافیک خواندن و نوشتن و از همه مهمتر نرخ بالای Modify صورت گرفته، باعث مرگ زودرس SSD می گردد و سلولهای SSD را به سرعت به انتهای بازه عمرشان می رساند. پس بر خلاف صحبتهای رایج میان کاربران خانگی، تفاوت قیمت میان SSD ها عموما تفاوتی بنیادی و بر اساس تکنولوژیهای متفاوت است و نه تنها هزینه ای است که بابت برند پرداخت می نمایید.

معرفی EMC VMAX3

EMCVMAX3

معرفی EMC VMAX3 :

امسال، تمامی توجهات در دنیای سامانه های ذخیره سازی ( Storage) ، معطوف به تکنولوژی درخشان All-Flash Arrays و یا AFAs بود. این سامانه ها بسیار سریع هستند، به سادگی مدیریت می شوند و به خوبی بسط پذیرند و ….. . اما آنها ابزاری مناسب، برای تمامی مشکلات نیستند، هر چند که شرکت های سازنده این محصولات، سعی می نماید به گونه ای دیگر به شما وانمود نمایند.

به عنوان یک دلیل خوب، درصد بسیار زیادی از دنیا هنوز از  Enterprise-Class Storage Arrays ( مبتنی بر دیسکهای مکانیکی ) استفاده می نمایند. این سامانه ها، پایداری و قابل اطمینان بودن خود را در طی سالها به اثبات رسانده اند و می توانند سرویس قویتری نسبت به دیگر Platform ها ارائه نمایند. مشکل اینگونه سامانه ها عموما هزینه های سنگین و مدیریت پیچیده، آنهاست.

حدود یکسال پیش شرکت EMC بطور رسمی محصولی جدید را در رده Enterprise-Class Storage Arrays، رونمایی کرد. حال سوال اینجاست : در حالی که رده محصولات All-Flash Arrays در کانون توجهات جهانی قرار دارد، چرا باید کسی خود را با انتخاب این رده از محصولات به مخاطره و چالش بیاندازد؟ در این مقاله به بررسی ویژگیهای منحصر به فرد و اغوا کننده این رده از محصولات می پردازیم :

تعریف جدیدی از مفهوم VMAX

VMAX3 توانسته محصولات Enterprise شرکت EMC را در مسیر جدیدی قرار دهد. حتی Chad Sakac نیز در این پست به آن اشاره کرده است. این محصول به مراتب سریعتر و متراکم تر است. از مدیریت ساده تری برخوردار است و بسیار منعطف تر می باشد. همه اینها در حالی است که با هزینه ای به مراتب پایینتر توانسته از اعتمادی که توسط مدلهایی نظیر  DMX / Symmetrix / VMAX در طی سالیان متمادی به کسب شده است، به خوبی پاسداری نماید.

سریعتر و متراکم تر

همانگونه که از VMAX3 انتظار می رفت، از سرعت بهتری نسب به نسل پیشین خود بهره می برد. از Engine های ( عملکرد Engine بمانند Storage Controller در سری VNX می باشد. ) سریعتری بهره می برد. دارای حافظه Cache بیشتر، پردازنده هایی با تعداد هسته بیشتر، و تعداد پورتهای Front-End بیشتری با سرعت ۱۶ Gb می باشند. با مقایسه نسل پیشین با نسل جدید این محصول به سادگی می توان دریافت که عموما شما تنها به نیمی از تعداد Engine هایی که پیشتر مورد استفاده بوده است، نیاز دارید. این به معنای فضای کمتر جهت نصب، سیستم سرمایش کمتر و مصرف برق کمتر خواهد بود.

تصویر شماره ۱

و همچنین بهره مندی از کابینتهای دیسک جدید (Disk Shelves ). این  Disk Shelve ها نیز بسیار متراکم تر می باشند بگونه ای که شما می تواند از تعداد دیسک بیشتری در فضای کوچکتری بهره ببرید. در تصویر شماره ۱، تصویر Disk Shelve مدل Viking را مشاهده می نمایید که امکان استفاده از ۱۲۰ هارد دیسک ۲.۵ اینچی را در فضایی به ارتفاع ۳ یونیت برای شما، فراهم می آورد. همچنین Disk Shelve دیگری نیز به نام Voyager است که قابلیت نگهداری ۶۰ هارد دیسک ۵/۳ اینچی را در ۴ یونیت فراهم می آورد. تراکم زیاد بهمراه سرعت بالا.

همچنین دیگر شما ملزم به استفاده از رکهای خاص نیستید. VMAX3 میتواند در تمامی رکهای استاندارد، مورد استفاده قرار گیرد. ( این موضوع سالهای متمادی، مورد درخواست بسیاری از کاربران VMAX بوده است. ) EMC همچنین نحوه اتصالات کابل (Cabling ) را نیز بهبود داده است و از پیچیدگی های نامانوس پیشین کاسته است. همچنین با بهره گیری از شیوه جدید اتصالات، شما می توانید تا ۲۵ متر فاصله میان رکهای VMAX خود داشته باشید و اجزای مختلف آن را در نقاط مختلفی از دیتا سنتر خود جای دهید.

مدیریت ساده تر

تمامی افرادی که در حوزه Storage فعالیت داشته اند، قطعا تایید می نمایند که مدیریت و اجرای یک بستر ذخیره سازی مناسب نیازمند در نظر گرفتن پارامترهای فراوان و پیچیده ای می باشد. زمانی که قصد دارید یک Storage سفارش دهید باید تمامی نیازهای مربوطه نظیر سرعت، فضا و …… را درنظر بگیرید. این امور با توجه به پیچیدگی های خود باعث غامض شدن این حوزه می گردد. این متد برای سالها بدین گونه بوده است ولیکن به تازگی به سرعت در حال تغییر است. از این پس تیم Storage نیازی به هماهنگی با دیگر تجهیزات ندارد. (Hypers , TDATs  و  Metas ) . بگذارید Storage Array خودش به این امور رسیدگی نماید cialis cena!

تصویر شماره ۲

با بهره گیری از VMAX3 شما قادر خواهید بود تا فضای درخواستی را به سادگی و با توجه به سرعت مورد نیاز مصرف کننده در اختیارش قرار دهید. تنها نیاز است تصمیم بگیرید که در از چه Tier می خواهید شروع نمایید ( و حتی به سادگی می توانید در آینده آنرا تغییر دهید. ). VMAX3 داده های شما را در Tier مربوطه جانمایی می کند و بر اساس این جانمایی همیشه در تلاش است تا بتواند SLA مربوطه را برای آن حفظ نماید و بتواند سرعت مورد نیاز را پاسخگو باشد. این شیوه باعث می شود که تکنولوژی FAST (Fully Automated Storage Tiering ) مورد استفاده در مدلهای VNX شرکت EMC به مرحله جدیدی و ساده تری از مدیریت و تنظیمات، وارد شود.

انعطاف پذیری

VMAX3 از گونه ای متفاوت سیستم عامل قابل اطمینان، بنام HYPERMAX بهره می برد. این سیستم عامل جدید قابلیتها و امکانات جدید فراوانی نیز بهمراه خویش دارد. یکی از این قابلیتهای جدید موجود در این سیستم عامل، Storage Hypervisor نام دارد. اگر شما از دیگر تجهیزات EMC بهره برده باشید، به احتمال زیاد با واژه سخت افزاری بنام Data Mover برای ارائه سرویس File آشنا هستید. از این پس دیگر هیچ نیازی به این سخت افزار نیست!!!. از این پس VMAX3 با بهره گیری از این قابلیت HYPERMAX، قادر خواهد بود تا Data Mover های مجازی خود را بروی لایه مجازی VMAX3 اجرا نماید. این تنها یکی از بسیار قابلیت جذابی است که EMC قصد دارد مستقیما بروی خود Array به آنها پاسخ دهد، است. البته بجز سرویسها و Application های خاصی که در آینده نزدیک قصد ارائه آنها را دارد.

تصویر شماره ۳

EMC همچنین در حال یکپارچه سازی قابلیتهای Cloud-Tiering است که در سال گذشته با خرید TwinStrata به تکنولوژی آن دست یافته است. بدین گونه شما قادر خواهید بود که Tier هایی از Storage که به ندرت استفاده می شود را، به یک Cloud عمومی با هزینه ای بسیار پایین تبدیل نمایید.

یکپارچگی با تولید نسخ پشتیبان

ادغام و یکپارچگی هر چه بیشتر با قابلیتها محصول  ProtectPoint . بدین گونه تولید نسخ پشتیبان با بهره گیری از VMAX بسیار ساده تر شده است و دیگر نیازی به نرم افزارهای ثالث جهت تولید نسخ پشتیبان نیست. VMAX3 خود قادر است تا از خود یک SnapShot تولید نموده و آنگاه بیتهای تغییر یافته را جهت تولید نسخه پشتیبان مستقیما به Data Domain ارسال نماید ( بدون هیچگونه نیازی به نرم افزار های تولید نسخ پشتیبان ثالث ).

آیا تمامی راه ها به Flash ختم می شود ؟

امروزه صحبتهای بسیاری در خصوص فرسایش واقعی بازار Enterprise Array به میان می آید. هر چند که من معتقدم بسیاری از این حرفها دارای پایه فنی نیستند، ولیکن به طور قطع نیز معتقدم که بعضی از کاربران نیاز دارند که از Storage های جدید AFA، استفاده نمایند. این موضوع کاملا به محیط و نیاز های شما از سامانه Storage بستگی دارد. آیا به سرعت بالا بهمراه سادگی در مدیریت و بهره وری نیاز دارید؟ All-Flash Arrays پاسخ شماست. به شرط آنکه بتوانید از عهده هزینه نگهداری اطلاعاتتان به روی هارد دیسکهای Flash، برآیید.

اما اگر داده های شما بسیار تکرارپذیر باشند و یا نتوانند بخوبی Dedupe شوند؟ یا نیاز به فراهم آوردن Storage  برای Mainframe های خود هستید.( که بسیاری از AFA قادر به ارائه این سرویس به  Mainframe ها نیستند. ) و …. آنگاه اینجا جایی است که خانواده VMAX شروع به درخشیدن می کند.

درست است که بسیار از مشکلات All-Flash Arrays حل شده است …. اما این به معنای حل تمامی مشکلات نیست.

خاموش کردن دستگاه EMC سری VNX

برای خاموش کردن دستگاه VNX به طریقی که داده های ذخیره شده در آن Protect باشد باید مرحله به مرحله و طبق دستور العمل این مستند دستگاه را خاموش کنید.

توجه: خاموش کردن اشتباه دستگاه های سری VNX موجب از دست دادن اطلاعات و یا سرویس میشود.

برای خاموش کردن دستگاه لطفا به مدل دستگاه خود توجه کنید.

مدلVNX5100   تنها در یک حالت، بلاک و دیگر مدل های VNX 7500, VNX 5700 , VNX 5500 , VNX 5300  و همچنین VNX 8000, VNX 7600, VNX 5800, VNX 5600,VNX 5400, VNX 5200با ۳ حالت شامل: Block, File, Unified    موجود است.

توجه داشته باشید در مدل های VNX5700, VNX7500 و VNX8000, VNX7600 به جای DPE ، SPE  وجود دارد. بنابراین در هر کجا که از  DPE استفاده شده برای این مدل ها میتوان آن را SPE  در نظر گرفت.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200 در حالت  Block

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment  خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- .به یکی از Storage Processor ها از طریق پنل کنترل Unisphere آن سیستم وارد شده و وضعیت سیستم را بررسی کنید.

  1.  در مرورگر، آدرس IP مربوط به Storage Processor را وارد کنید.
  2. در Unisphereبه عنوان Admin وارد شده و Scope را به عنوان Global  تعریف کنید.
  3. در Dashboard Unisphere درقسمت Systems By Severity قرار بگیرید.
  4. حتما چک کنید تا در قسمت Status هیچ هشدارCritical  ای وجود نداشته باشد.

 ۳- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰۰.۵.۲۰۹ و بالاتر می توانید، دستگاه را از طریق رابط کاربری Unisphere خاموش کنید.

a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

     

b ) از قسمت System List  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکاتی که Unisphere  بعد از فشار دادن دکمه  Power Off نشان می دهد، به درستی خوانده، و انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه مراحل می باشد .

  • ۵۸۰۰/VNX 5100/5300/5500/5200/5400/5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LED های آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  که به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامی LEDهای دیگر خاموش میباشد.

  •  VNX 5700/7500/7600/8000

بر روی یک SPE  ای که به صورت موفقیت آمیز خاموش شده است، تمامیه Fault LED  ها روشن و مابقی LED های SP و SPE خاموش میباشند.

به علاوه در قسمت پشت دستگاه تمامیه LED  های هر SP  خاموش می باشند.

 بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (از قسمت e  صرف نظر کنید) و بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e )  سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f ) برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

 

 در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

 ۴- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰.۵.۲۰۷ و کمتر، برق VNX را از طریق Power Switch های بر روی SPS قطع کنید.

 a )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید. تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

–  این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت b  صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

b ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

c ) مدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

d )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component ها قطع کرده است.

e )  برای سیستم ها با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200  در حالت  Unified/ File

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- به Unisphere در Primary Control Station سیستم متصل شده و وضعیت سیستم را چک میکنیم.

a ) در مرورگر آدرس IP مربوط به Control Station را وارد میکنیم.

b ) در Unisphere به عنوان ادمین وارد میشویم و Scope را به عنوان Global  تعریف میکنیم.

c ) در داشبورد Unisphere درقسمت Systems by Severity قرار میگیریم.

d ) چک میکنیم که در قسمت status هیچ هشدارCritical ای وجود نداشته باشد.

e ) به طور دلخواه وضعیت Data Mover و Control station را بررسی میکنیم. با انتخاب

  System -> Run Command در پنجره  Control Station CLI  در سمت راست صفحه:

nasmcd/sbin/getreason/

جواب قابل انتظار برای یک VNX  با یک Control Station  و ۲ عدد  Data Mover به صورت زیر است :

۱۰ – slot_0 primary control station

۵ – slot_2 contacted

۵ – slot_3 contacted

۳- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۴.۵ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۹  و بالاتر، برای خاموش کردن Control Station ، Data Mover  و Storage Processor  از کلید Power Off  در Unisphere استفاده میکنیم.

 a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

b ) از قسمت System list  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکات و پیشنهادات Unisphere را که برای خاموش کردن می دهد، به درستی انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP، Data Mover  و Control Station  ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه ی مراحل می باشد .

  •  ۵۸۰۰/ VNX 5300 /5500 /5200 /5400 /5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LEDهای آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامیه LEDهای دیگر خاموش میباشد.

  • برای VNX 5700 /7500 /7600 /8000

در قسمت جلویی SPE برای هر module، Amber Fault LED  روشن است و تمامی LED های دیگر SP، SPE خاموش است.

به علاوه، در پشت SPE، تمامیه LED های Power، Status و  Fault LED  ها بر روی SP  خاموش هستند.

بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت e صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f )  برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۴- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۲.۱ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۷ و پایین تر برای خاموش کردن  دستگاه از روش زیر پیروی کنید:

a ) تمامی Control Stations و Data Mover ها را از طریق Unishphere Control Station CLI متوقف کنید.

/nasmcd/sbin/nas_halt now

 پیغام زیر برای تایید دستور شما و ادامه کار نمایش داده میشود:

*************************** WARNING! **************************

You are about to HALT this VNX including all of its Control

Stations and Data Movers. DATA will be UNAVAILABLE when the system is halted.

Note that this command does *not* halt the storage array.

ARE YOU SURE YOU WANT TO CONTINUE? [ yes or no ] :

 b ) در این پنجره کلمه yes را تایپ کرده تا Power Down شروع بشود.

جزیئات این مراحل را در خروجی  Command  میبینید.

نکته:  این فرآیند بین ۵ تا ۲۰ دقیقه به طول می انجامد، لطفا تا اتمام این پروسه و نمایش این پیغام به مرحله بعد نروید.

با نمایش پیغامی مشابه May 10 11:35:08 rtpplat32cs0 exiting on signal 15 تمامی Control Station  ها و Data Mover  ها خاموش شده اند.

c )  مرحله بعد خود را مشخص کنید:

اگر نمیخواهید دستگاه را کاملا خاموش کنید مراحل زیر را ادامه ندهید و مستقیما به مرحله ۵ بروید.

اگر میخواهید دستگاه را به طور کامل خاموش کنید مراحل زیر را ادامه بدهید.

d )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید.

تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

– این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، ( برای این مدل ها از قسمت e,f,g صرف نظر کنید ) و در مرحلهh  بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

f ) بمدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

g )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component  ها قطع کرده است.

h )  برای سیستم با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU  قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- مراحل زیر را برای قطع برق از هرData Mover و Control Station ادامه بدهید.

a ) برای هر Data Mover Enclosure  برق و Fault LED ها را چک کنید.

 

یک DME  ای که به صورت موفقیت آمیز خاموش شده است Amber Fault LED  روشن شده و Enclosure Power LED  دیگر روشن نیست.

به علاوه در پشت دستگاه  Fault LED در Management Module  هر DME  روشن است.

b ) بعد از اطمینان از خاموش بودن هر DME، کابل تمامی DME ها را از PDU ها جدا کنید. هر DME دارای ۲ کابل برق دارد.

c ) تمامی LED های جلوی هر Control Station  را چک کنید.

 

تنها LED  مربوط به Networking  باید در این حالت روشن باشد ( LED شماره ۶ در تصویر فوق ) و تمامی LED  های دیگر باید خاموش شده باشند.

d ) بعد از مطمئن شدن از خاموش بودن هر CS کابل برق مربوط به هرCS  را از آن جدا کنید.

۶-  اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.