شرایط استاندارد استفاده و نگهداری از کارتریج های Tape

رسانه نوار دارای محدودیت های مختلفی برای درجه حرارت و رطوبت، برای انواع مختلف رسانه های حمل و نقل، غیر آرشیو و بایگانی دارد. ذخیره ساز بایگانی جایی است که داده ها بر روی آن برای مدت بیش از یک سال نگهداری می شوند. کارتریج های حمل و نقل می بایست مجاز به انعطاف پذیری با محیط جدیدشان برای حداقل ۲۴ ساعت باشند.

نوع مدیا استفاده از رسانه به عنوان شرایط مناسب
 

 

 

 

 

 

 

 

 

 

 

 

 

DLTtape Super DLTtape

Ultrium LTO

حمل و نقل ·         بین ۲۳- الی ۴۹ درجه سانتی گراد

·         بین ۵ درصد و ۸۰ درصد رطوبت نسبی، غیر متراکم

 

غیر آرشیو ·         بین ۱۶- الی ۳۲ درجه سانتی گراد

·         بین ۲۰ درصد و ۸۰ درصد رطوبت نسبی، غیر متراکم

 

 

آرشیو ·         ۵ +- ۲۳  درجه سانتی گراد

·         بین ۴۰ درصد و ۶۰ درصد رطوبت نسبی، غیر متراکم

 

 

باید ها و نبایدهای استفاده صحیح از کارتریج ها

باید ها نباید ها
ذخیره ساز  
کارتریج ها را در جعبه های محافظتی شان نگه دارید. در معرض نور مستقیم خورشید، میدان مغناطیسی، دمای شدید و رطوبت قرار ندهید.

 

حمل و نقل  
کارتریج را با مراقبت بردارید.

از برچسب مناسب برای کارتریج استفاده کنید.

بررسی رسانه های جدید.

سقوط بیش از یک متر

در کارتریج را باز نکنید.

لمس کردن رسانه با دست

کاربرد  
قبل از استفاده از کارتریج  هایی که قبلا ذخیره شده است، حداقل ۲۴ ساعت برای انعطاف پذیری زمان دهید.

کارتریج ها را قبل از خاموش کردن  درایو unload کنید.

پاک کردن درایو ها با توجه به برنامه ریزی تولید کننده با کارتریج های تمیز کننده تصویب شده.

از سوئیچ حفاظت از نوشتن رسانه استفاده کنید.

حفظ  محدودیت های دما و رطوبت مشخص شده.

تجاوز از مشخصه استفاده رسانه کامل

تجاوز از مشخصات چرخه load/unload نوار

مدیریت  
استفاده از ابزارهای گزارش خطای رسانه مانند iplatform و گزارش پیشرفته.

استفاده از ابزارهای مدیریتی محیط حفاظت داده مانند storagecare vision.

 

به روز رسانی Firmware هارد دیسک در EMC VNX

در این آموزش قصد دارم روش بروزرسانی Disk Firmwareرا به شما آموزش بدهم. برای اینکار نیاز به USM و آخرین نسخه بروزرسانی Firmware تجهیز خود دارید. ( تمامی این ابزار ها در قسمت نرم افزارهای بخش EMC همین سایت موجود است).

پس از نصب و راه اندازی USM، آدرس IP تجهیز خود را در Web Browser وارد نمایید. وارد گزینه System شوید. و سپس  Service Task از کادر سمت راست را انتخاب نمایید. پس از کلیک بروی گزینه Software Upgrade، نرم افزار USM بصورت خودکار اجرا می شود و آنگاه چیزی شبیه تصویر زیر خواهید دید.

 

همچنین شما می توانید نرم افزار USM را مستقیما اجرا نمایید و با وارد کردن IP تجهیز و آنگاه User و Password مربوطه به تجهیز متصل شوید.

 آنگاه از منوی اصلی Software  و پس از آن Disk Firmware را انتخاب نمایید.

 در این آموزش من قصد دارمFirmware  هارد دیسک های یک تجهیز  VNX2 را آپدیت کنم.  مسیر این فرآیند بسیار ساده است و فکر می کنم با دنبال کردن تصاویر به سادگی می توانید تجهیز خود را بروزرسانی کنید.

 با کلیک بروی گزینه Install Disk Firmware، شما پنجره بعدی را خواهید دید که در آن از شما پرسیده می شود که فایل مربوط به update به صورت آنلاین دانلود شود و یا از فایل دانلود شده در کامپیوتر شما نصب شود.

 با انتخاب Local Repository  صفحه بعد برای  انتخاب فایل ndu  باز شده و با کلیک بروی Next نرم افزار شروع به Unpack کردن فایل بروزرسانی می کند. ( در صورت عدم موفقیت در Unpack کردن صحیح فایل، پیغام خطا دریافت می کنید و فرآیند در همین جا متوقف می شود. )

 پس از اتمام Unpack کردن فایل، فایل را به درون تجهیز VNX منتقل می کند. با پذیرش این بار کاری بر روی دیسک ها برای آپدیت کردن آن ها به مرحله بعد می رویم.

 

 سپس این package  باز شده و چک می شود که آیا هارد دیسکی در این تجهیز نیاز به آپدیت دارد یا خیر با کلیک بر روی کلید Next  به مرحله بعد می رویم.

بعد از چک کردن تمامی هارد دیسک ها، هارد دیسک هایی که قابلیت آپدیت شده اند مشخص می شوند. با انتخاب هر یک، آپدیت شدن یک گروه از هارد دیسک ها را انتخاب کرده اید.

 با چک کردن شرایط کلی دستگاه و آماده بودن شرایط آماده نصب آپدیت بر روی هارد دیسک ها می شویم.

 با کلیک بر روی Next  ابتدا شروع به جمع آوری اطلاعات می کند و بعد از آن کار نصب آپدیت ها برای هر گروه از هارد دیسک ها شروع می شود.

 در این مرحله تک تک هارد ها مورد بررسی قرار گرفته و آنگاه آپدیت بر روی آنها نصب شده و از لیست Upgrading  به لیست Complete انتقال پیدا می کند. با اتمام یک گروه از هارد دیسک ها گروه دیگر شروع به نصب آپدیت می کنند.

 پس از اتمام آپدیت تمامی هارد دیسک ها، اطلاعات کلی از وضعیت بروز رسانی نمایش داده می شود.  در این مرحله گزینه Notify Your Service Provider ….. را در پایین پنجره غیر فعال نمایید. ( فعلا با توجه به وضعیت تحریمهای اعمال شده از سوی EMC نسبت به ایران، بهتر است که این گزینه غیر فعال باشد.)

 با کلیک بر روی کلید Finish  کار آپدیت هارددیسک ها به اتمام می رسد.

معرفی EMC VNX MirrorView

معرفی  EMC VNX – MirrorView

MirrorView قابلیت Replication لایه Block برای محصولات رده VNX است. MirrorView دارای دو شیوه Mirroring است :

  • (MirroView/S (Synchronous
  • (MirrorView/A (Asynchronous

MirrorView تکنولوژی ایست که می تواند Block های داده ها را در سایت دومی، Mirror نماید. این قابلیت یک راهکار مناسب برایReplication داده ها در طرح Disaster Recovery است. MirrorView یک راهکار LUN Centric است یعنی در این راهکار یک LUN اولیه موجود در VNX سایت عملیاتی با LUN ثانویه موجود در VNX سایت دوم، Replicate می شوند و این همسان سازی تنها در لایه LUN صورت می گیرد.

MirrorView/S

MirrorView/S قابلیت Synchronous Replication را در فواصل کوتاه فراهم می آورد. در صورت استفاده از  Synchronous Replication، آنگاه RPO یا همان Recovery Point Objective برابر با صفر است. این یعنی اگر حتی سایت اول دچار حوادثی نظیر آتش سوزی، سیل و …. شود، شما حتی یک بیت داده را از دست نخواهید داد!!

فرآیند فعالیت  MirrorView/S بدین شیوه است :

  1. هاست متصل به VNX سایت اول، یک دستور Write را ارسال می نماید.
  2. VNX سایت اول، داده ها را برای VNX سایت دوم ارسال می نماید.
  3. VNX سایت دوم پس از دریافت داده، یک پیام Acknowledges مبتنی بر Write داده به VNX سایت اول ارسال می کند.
  4. VNX سایت اول، یک یک پیام Acknowledges مبتنی بر Write داده به هاست ارسال می کند.

تصویر ذیل گویا فرآیند ذکر شده است.

درک جریان داده در MirrorView/S بسیار مهم است. نتیجه بررسی RTT یا همان Round Trip Time، بین دو تجهیز VNX بایستی کمتر و یا مساوی ۱۰ msباشد. RTT بالا به معنای Response Time بسیار بالا برای هاست است و باعث کندی عملکرد کل سامانه می شود.

MirrorView/A

MirrorView/A قابلیت Replication را در مسافتهای طولانی فراهم می آورد. این قابلیت می تواند مابین VNX هایی که دارای RTT بالاتر از ۱۰ ms تا حداکثر ۲۰۰ ms است، استفاده شود. MirrorView Asynchronous بصورت دوره های تناوبی شروع به بروزرسانی داده ها در سایت دوم می کند. در این مکانیزم داده های در تغییرات داده ها را درسایت اول توسط MirrorView/A، ردیابی می نماید و آنگاه آن تغییرات را بر اساس RPO تنظیم شده از سوی کاربر، برای VNX سایت دوم ارسال می دارد.

فرآیند عملکرد MirrorView/A بدین شیوه است :

  1. هاست متصل به VNX سایت اول، یک دستور Write را ارسال می نماید.
  2. VNX سایت اول، پس از دریافت داده یک پیام Acknowledge برای هاست ارسال می دارد.
  3. VNX سایت اول، بر اساس RPO تنظیم شده، تغییرات در داده های سایت اول را برای VNX سایت دوم ارسال می کند.
  4. VNX سایت دوم، داده ها را دریافت می کند و یک پیام Acknowledge برای VNX سایت اول، ارسال می دارد.

تصویر ذیل گویا فرآیند ذکر شده است.

 

Consistency groups

هر دو شیوه MirrorView/S و MirrorView/A از Consistency Groups پشتیبانی می کنند. Consistency Groups زمانی استفاده می شود که LUN ها نیاز به رعایت یک ترتیب پایدار در Replication دارند. برای مثال اگر شما در vMware خود یک Datastore مشتمل بر ۶ عدد LUN تولید نموده اید، برای Replication صحیح و قابل استفاده در سایت دوم نیاز است که تمامی این LUN ها و با همین ترتیب، Replicate شوند.

چگونه یک Storage Group بسازیم؟

چگونه یک Storage Group بسازیم؟

در این آموزش قصد داریم مقداری در خصوص فرآیندهایی که احتمالا روزانه یک مدیر Storage با آن درگیر است صحبت کنم.

درست کردن یک Lun

اولین مرحله از آموزش ما تولید یک LUN است. در این آموزش تمامی مراحل با بهره گیری از GUI انجام می شود ولیکن قابلیت انجام تمامی این مراحل توسط CLI نیز موجود است. بسیار خوب در ابتدا به EMC خود متصل شوید و پس از باز شدن صفحه اولیه Unisphere، تجهیز مورد نظر خود را انتخاب نمایید. پس از آن در منوی بالایی بروی قسمت Storage بروید و آنگاه LUN را انتخاب نمایید.

Unisphere Storage Menu

وقتی که  LUN را انتخاب نمودید در صفحه بعد لیستی از تمامی LUN های موجود خود را مشاهده می نمایید. شما می توانید نحوه نمایش این لیست را به سلیقه و دلخواه خود تغییر دهید و یا حتی این لیست را بصورت یک فایل Export نمایید. از دکمه های پایین صفحه گزینه “ Create “ را انتخاب نمایید.

Unisphere – LUN Section

بعد از انتخاب دکمه ” Create ” پنجره زیر را می بینید :

Create New LUN https://infofurmanner.de/

قطعا چیزی که شما بروی تجهیز خود مشاهده می نمایید با تصویر فوق یکسان نیست. بنا به تنظیمات شما تفاوتهایی وجود دارد. در تصویر نمونه ما یک Pool با Raid 6 بنام Pool-Bronze داریم.

موارد ابتدایی که باید آنها را وارد نمایید و همچنین به خوبی درک نمایید عبارتند از :

  • آیا شما یک Pool LUN می خواهید و یا یک Raid Group LUN ؟
  • آیا LUN شما باید Thin باشد یا Thick ؟ آیا باید Deduplication روی آن فعال باشد یا خیر ؟
  • ظرفیت آن چقدر باید باشد و LUN ID آن چند باید باشد ؟

در این مثال، ما قصد داریم یک Pool LUN با سایز ۱۰۰ GB تولید کنیم.برای این منظور من از یک Storage Pool که از قبل ساخته شده است و Pool-Silver نام دارد، استفاده می کنم. من می خواهم این LUN بصورت Thin باشد. همچنین قصد دارم LUN ID شماره ۴۳۰۲۳ را برای آن انتخاب کنم.

Create New LUN

بعد از کلیک بروی گزینه “ Apply “ ، یک تاییدیه از شما گرفته می شود و آنگاه LUN تولید می شود و در نهایت یک پیغام ” Success ” دریافت می کنید.

همین! تمام شد! شما توانستید یک LUN بسازید. به همین سادگی!

اتصال به یک HOST

در اولین قدم ما یک LUN ساختیم. حال ما به یک Host برای اتصال و دسترسی به LUN نیاز داریم. در این مثال می خواهیم نحوه ساخت یک Host را فرا بگیریم. فرض کنید یک Host جدید در محیط ما به تازگی نصب و راه اندازی شده است ولیکن تا کنون روشن نشده است. اما ما از HBA WWN آن مطلع هستیم.

تا زمانی که سرور روشن نشده است، ما هیچ Host را در لیست Host List نخواهیم دید. در شرایط عادی پس از اتصال Host به Storage، عموما توسط یک Host Agent و یا Unsiphere Server Utility و در موارد خاصی هم بصورت دستی، Host خود را بروی تجهیز Register می نماید. Host Agent ها در دو نسخه ویندوزی و لینوکسی موجود هستند و با نصب آنها بروی سرور مربوطه فرآیند Auto Register اتفاق می افتد. لازم بذکر است که با توجه به اینکه vMware از شرکتهای زیر مجموعه EMC است، تمامی Hypervisor های این شرکت بصورت پیش فرض این Agent را در خود دارند.

در این مثال ما قصد داریم شیوه Manual Registration را انجام دهیم. برای این منظور به منوی Host رفته و آنگاه Initiators را انتخاب نمایید.

Unisphere Host Menu

تمامی هاستهای متصل به SAN حداقل یک Initiator در این لیست دارند. شما باید بتوانید صفحه شبیه تصویر زیر ببینید :

Unisphere – Initiators

بسیار خوب، چیزی که می بینید لیستی است از تمامی Initiator های موجود. یک قانون مهم : هر Initiator می تواند تنها در یک Storage Group باشد. هیچ استثنایی نیز ندارد. این قانون در واقع می گوید که : هر هاست تنها و تنها می تواند در یک Storage Group وجود داشته باشد. حال اگر با دقت بیشترب به تصویر ارائه شده نگاه کنید، درمی یابید که هر هاست می تواند بیش از یک Initiator نیز داشته باشد. پس می توان با شیوه ای خاص یک هاست را در چندین Storage Group قرار داد!

حال ببینیم چگونه می توان بین یک هاست و یک LUN توسط Storage Group ارتباط برقرار کرد.

در صورت رعایت اصول MPIO هر هاست دارای ۴ Initiator خواهد بود.

  1. host_HBA_1 connected to Port_X in Storage Processor A
  2. host_HBA_1 connected to Port_Y in Storage Processor B
  3. host_HBA_2 connected to Port_Z in Storage Processor A
  4. host_HBA_2 connected to Port_U in Storage Processor B

در این شیوهما هیچ Single Point Of Failure برای قطع ارتباط مابین هاست و Storage نداریم. از آنجاییکه نمی خواهم این آموزش پیچیده و غیر قابل درک شود و برای اینکه این مثال ساده تر پیش برود، فرض می کنیم که هاست ما دارای تنها یک Initiator است که به پورت ۵ ،SP A متصل است. در پایین صفحه شما می توانید دکمه Register را بیابید.

Create Initiator Record

بسیار خوب پس از انتخاب Register، در پنجره جدید WWN را وارد نمایید. پورت متصل به هاست را تعیین کنید و Failover Mode را در حالت Active-Active یا همان ALUA بگذارید و برای نام test_host و برای آن IP آدرس را وارد نمایید، آنگاه بروی دکمه  OK بفشارید.

Create Initiator Record

موفقیت آمیز بود و توانستیم یک هاست جدید تولید نماییم. حال پس از Refresh نمودن باید بتوانید هاست جدید را در لیست ببینید.

Unisphere – Our “fresh” Initiator

همانگونه که می بینید هاست جدید عضوی از Storage Group بنام management~ می باشد. management~ در واقع یک Storage Group خاص است. و هر هاستی که در آن حضور دارد بدین معناست که آن هاست درون هیچ Storage Group واقعی نیست.

بسیار خوب وارد Host List شوید. اسم هاست جدید را می توانید در اینجا ببینید:

Unisphere Host List

همانگونه که دریافتید ما هاست را بصورت دستی تولید کردیم. اکنون ما هاست خود را برای اضافه کردن به Storage Group در اختیار داریم.

تولید یک Storage Group

اگر هنوز نمی دانید که Storage Group چیست و چرا به آن نیاز داریم می توانید آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” را مطالعه نمایید.

برای درست کردن یک Storage Group خیلی ساده به قسمت Host > Storage Group بروید و آنگاه بروی گزینه Create کلیک نمایید و تنها نیاز است که برای آن یک نام تعیین کنید:

Create Storage Group

من یک Storage Group با نام new_SG درست کردم. پس از کلیک بروی گزینه OK یک سوال از شما پرسیده می شود مبتنی بر اینکه : آیا شما مطمئنید که …. ؟؟؟!!! قطعا. من که مطمئنم!! شما را نمی دونم!!

پس از آن شما شما یک پنجره شبیه این می بینید :

 

New Storage Group

همانگونه که می بینید فرآیند تولید موفقیت آمیز بوده و گزینه ” Yes, I want to add LUNs and/or connect host ” را انتخاب نمایید. این صفحه را خواهید دید :

 

Adding LUNs to Storage Group

در ابتدا شما باید گزینه (ADD LUN(s را انتخاب نمایید. LUN های تولید شده خود را بیابید و آنگاه گزینه “ Add “ را بفشارید.

یک موضوع مهم در اینجا، انتخاب Host LUN ID است. همانگونه که دید من برای این منظور هیچ مقداری وارد نکردم و Storage بصورت خودکار یک Host LUN ID را به هاست اعطا کرد. در صورت نیاز جهت آشنایی بیشتر با HLU/ALU می توانید به آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” مراجعه نمایید.

پس از انتخاب LUN مورد نظر بروی کلید “ Apply “ بفشارید و آنگاه Tab بعدی یعنی Host را انتخاب نمایید:

Connect Host to Storage Group

تنها کار که نیاز است در اینجا انجام دهید انتخاب هاست و یا هاستهای دلخواه است. در پایان گزینه OK را بفشارید.

خلاصه

 شاید در ابتدا کمی پیچیده بنظر برسد ولیکن تنها نیاز است که در انجام تمامی این فرآیندها دقت عمل داشته باشید. در نهایت این مسائل را نیز بیاد داشته باشید :

  • شما می توانید چند LUN را به تعدادی Storage Group اضافه نمایید، تنها لازم است که گزینه “ Show LUNs” را به “Already Connected To Different Storage Group “ تغییر دهید.
  • بصورت پیش فرض شما می توانید یک هاست را تنها در یک Storage Group قرار دهید و اگر هاستی را در Storage Group دومی قرار دهید، آنگاه آن هاست از عضویت Storage Group اول خارج می شود.
  • عضویت یک هاست در Storage Group بنام managment~ بمعنای عدم عضویت آن هاست در یک Storage Group واقعی است.

معرفی اجمالی Unispher

معرفی اجمالی Unispher

پیشتر مطالب مختصری در آموزش ” Unisphere چیست ؟ ” در خصوص Unisphere ارائه شد. در این آموزش قصد دارم به ارائه آموزشهای ابتدایی نحوه استفاده با Unisphere بپردازم.

چکونه Unisphere را راه اندازی کنیم ؟

همانگونه که در آموزش قبلی نیز گفتم، ساده ترین روش استفاده از یک Web Browser و وارد نمودن IP آدرس یکی از SP ها و یا Control Station هاست. نکته : بیاد داشته باشید که شما برای این منظور نیاز به جاوا دارید.

زمانی که پنجره Login را دیدید، می توانید با ورد نام کاربری و پسورد خود به تجهیز Login نمایید. پس از ورد موفق شما این صفحه را خواهید دید :

Unisphere Dashboard

اولین چیزی را که به محض Login مشاهده می نمایید صفحه Dashboard است. اگر شما بیش از یک تجهیز VNX در دامین خود داشته باشید، در این وضعیت شما هنوز به هیچ تجهیز خاصی از VNX های خود Login نکرده اید.

اگر قصد دارید با یک تجهیز خاص کار کنید و یا آنرا مدیریت کنید، لازم است که آن تجهیز را انتخاب نمایید. جهت این کار می توانید بروی اسم تجهیز خود را از Drop-Down لیست موجود در گوشه بالایی سمت چپ، انتخاب نمایید و یا بروی نام تجهیز در زیر منو اصلی کلیک نمایید.

کار کردن با تجهیز Storage

زمانیکه شما تجهیز مورد نظر خود را انتخاب نمودید، صفحه داشبورد با کمی تغییرات بشکل زیر نمایش داده می شود :

Unisphere VNX Dashboard

این صفحه در همان پنجره پیشین باز می شود. حال شما اطلاعات بیشتری در خصوص یک تجهیز خاص دارید. اول اینکه شما می توانید تمامی System Alert های مهم اخیر را ببینید. در گوشه بالایی سمت راست می توانید اطلاعات اولیه را ببینید. شماره سریال و مدل تجهیز شما نیز از همین محل قابل استخراج است.

نگاهی به گزینه های منوی اصلی بیندازیم :

System

 

Unisphere System menu

هر منو برای خود دارای انتخابهایی است. شما می توانید با کلیک بروی گزینه منو (System,Storage,Host,Data Protection و ….) و یا قرار گرفتن روی این منوها و آنگاه باز شدن Popup منو به انتخاب زیر منوها بپردازید.

گزینه System  این انتخاب ها را دارد :

  • Hardware : اینجا میتوانید تمامی اطلاعات مربوط به سخت افزارها، از یک هارد دیسک تا وضعیت فن ها را بیابید.
  • Monitoring And Alerts : تمامی Alert ها اینجا هستند، همچنین می توانید به SP Event Logها، Notification ها و وضعیت فعلی تجهیز و یا ارسال هشدار ها توسط ایمیل و … دست یابید.
  • Reports : جایی که می توانید گزارشات خود را اینجا بسازید.

Storage cz-lekarna.com

Unisphere Storage menu

احتمالا این TAB را در حین کارهای روزمره خود دیده اید. تعداد انتخابها و زیر منوهایی که ممکن است اینجا ببینید کاملا بستگی به لایسنسها و ورژن تجهیز شما دارد.مثلا اگر تجهیز شما دارای لایسنس های سرویس File باشد، شما موارد بسیار بیشتری را مشاهده خواهید کرد.

در این قسمت شما می توانید یک Raid Group، Storage Pool و LUN و … تولید نمایید.

Hosts

 

Unisphere Host Menu

 دراین TAB مهمترین قسمت قطعا Storage Group است که به شما امکان تولید، حذف و یا تغییر یک Storage Group را می دهد.  البته قطعا برای تولید یک Storage Group شما نیاز به Host دارید. لیست Host های شما در HOST List موجود است. یک مقدار عمیق تر به موضوع بنگریم، برای اینکه Host داشته باشید، باید تعداد Initator داشته باشید. فعلا  تا همین حد وارد می شویم و در آینده نزدیک بیشتر به این موضوع می پردازیم.

امیدوارم این آموزش توانسته باشد یک دید کلی و پایه ای برای شروع کار با Unisphere برای شما فراهم نماید.

خاموش کردن دستگاه EMC سری VNX

برای خاموش کردن دستگاه VNX به طریقی که داده های ذخیره شده در آن Protect باشد باید مرحله به مرحله و طبق دستور العمل این مستند دستگاه را خاموش کنید.

توجه: خاموش کردن اشتباه دستگاه های سری VNX موجب از دست دادن اطلاعات و یا سرویس میشود.

برای خاموش کردن دستگاه لطفا به مدل دستگاه خود توجه کنید.

مدلVNX5100   تنها در یک حالت، بلاک و دیگر مدل های VNX 7500, VNX 5700 , VNX 5500 , VNX 5300  و همچنین VNX 8000, VNX 7600, VNX 5800, VNX 5600,VNX 5400, VNX 5200با ۳ حالت شامل: Block, File, Unified    موجود است.

توجه داشته باشید در مدل های VNX5700, VNX7500 و VNX8000, VNX7600 به جای DPE ، SPE  وجود دارد. بنابراین در هر کجا که از  DPE استفاده شده برای این مدل ها میتوان آن را SPE  در نظر گرفت.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200 در حالت  Block

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment  خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- .به یکی از Storage Processor ها از طریق پنل کنترل Unisphere آن سیستم وارد شده و وضعیت سیستم را بررسی کنید.

  1.  در مرورگر، آدرس IP مربوط به Storage Processor را وارد کنید.
  2. در Unisphereبه عنوان Admin وارد شده و Scope را به عنوان Global  تعریف کنید.
  3. در Dashboard Unisphere درقسمت Systems By Severity قرار بگیرید.
  4. حتما چک کنید تا در قسمت Status هیچ هشدارCritical  ای وجود نداشته باشد.

 ۳- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰۰.۵.۲۰۹ و بالاتر می توانید، دستگاه را از طریق رابط کاربری Unisphere خاموش کنید.

a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

     

b ) از قسمت System List  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکاتی که Unisphere  بعد از فشار دادن دکمه  Power Off نشان می دهد، به درستی خوانده، و انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه مراحل می باشد .

  • ۵۸۰۰/VNX 5100/5300/5500/5200/5400/5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LED های آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  که به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامی LEDهای دیگر خاموش میباشد.

  •  VNX 5700/7500/7600/8000

بر روی یک SPE  ای که به صورت موفقیت آمیز خاموش شده است، تمامیه Fault LED  ها روشن و مابقی LED های SP و SPE خاموش میباشند.

به علاوه در قسمت پشت دستگاه تمامیه LED  های هر SP  خاموش می باشند.

 بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (از قسمت e  صرف نظر کنید) و بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e )  سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f ) برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

 

 در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

 ۴- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰.۵.۲۰۷ و کمتر، برق VNX را از طریق Power Switch های بر روی SPS قطع کنید.

 a )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید. تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

–  این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت b  صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

b ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

c ) مدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

d )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component ها قطع کرده است.

e )  برای سیستم ها با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200  در حالت  Unified/ File

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- به Unisphere در Primary Control Station سیستم متصل شده و وضعیت سیستم را چک میکنیم.

a ) در مرورگر آدرس IP مربوط به Control Station را وارد میکنیم.

b ) در Unisphere به عنوان ادمین وارد میشویم و Scope را به عنوان Global  تعریف میکنیم.

c ) در داشبورد Unisphere درقسمت Systems by Severity قرار میگیریم.

d ) چک میکنیم که در قسمت status هیچ هشدارCritical ای وجود نداشته باشد.

e ) به طور دلخواه وضعیت Data Mover و Control station را بررسی میکنیم. با انتخاب

  System -> Run Command در پنجره  Control Station CLI  در سمت راست صفحه:

nasmcd/sbin/getreason/

جواب قابل انتظار برای یک VNX  با یک Control Station  و ۲ عدد  Data Mover به صورت زیر است :

۱۰ – slot_0 primary control station

۵ – slot_2 contacted

۵ – slot_3 contacted

۳- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۴.۵ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۹  و بالاتر، برای خاموش کردن Control Station ، Data Mover  و Storage Processor  از کلید Power Off  در Unisphere استفاده میکنیم.

 a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

b ) از قسمت System list  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکات و پیشنهادات Unisphere را که برای خاموش کردن می دهد، به درستی انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP، Data Mover  و Control Station  ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه ی مراحل می باشد .

  •  ۵۸۰۰/ VNX 5300 /5500 /5200 /5400 /5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LEDهای آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامیه LEDهای دیگر خاموش میباشد.

  • برای VNX 5700 /7500 /7600 /8000

در قسمت جلویی SPE برای هر module، Amber Fault LED  روشن است و تمامی LED های دیگر SP، SPE خاموش است.

به علاوه، در پشت SPE، تمامیه LED های Power، Status و  Fault LED  ها بر روی SP  خاموش هستند.

بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت e صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f )  برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۴- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۲.۱ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۷ و پایین تر برای خاموش کردن  دستگاه از روش زیر پیروی کنید:

a ) تمامی Control Stations و Data Mover ها را از طریق Unishphere Control Station CLI متوقف کنید.

/nasmcd/sbin/nas_halt now

 پیغام زیر برای تایید دستور شما و ادامه کار نمایش داده میشود:

*************************** WARNING! **************************

You are about to HALT this VNX including all of its Control

Stations and Data Movers. DATA will be UNAVAILABLE when the system is halted.

Note that this command does *not* halt the storage array.

ARE YOU SURE YOU WANT TO CONTINUE? [ yes or no ] :

 b ) در این پنجره کلمه yes را تایپ کرده تا Power Down شروع بشود.

جزیئات این مراحل را در خروجی  Command  میبینید.

نکته:  این فرآیند بین ۵ تا ۲۰ دقیقه به طول می انجامد، لطفا تا اتمام این پروسه و نمایش این پیغام به مرحله بعد نروید.

با نمایش پیغامی مشابه May 10 11:35:08 rtpplat32cs0 exiting on signal 15 تمامی Control Station  ها و Data Mover  ها خاموش شده اند.

c )  مرحله بعد خود را مشخص کنید:

اگر نمیخواهید دستگاه را کاملا خاموش کنید مراحل زیر را ادامه ندهید و مستقیما به مرحله ۵ بروید.

اگر میخواهید دستگاه را به طور کامل خاموش کنید مراحل زیر را ادامه بدهید.

d )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید.

تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

– این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، ( برای این مدل ها از قسمت e,f,g صرف نظر کنید ) و در مرحلهh  بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

f ) بمدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

g )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component  ها قطع کرده است.

h )  برای سیستم با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU  قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- مراحل زیر را برای قطع برق از هرData Mover و Control Station ادامه بدهید.

a ) برای هر Data Mover Enclosure  برق و Fault LED ها را چک کنید.

 

یک DME  ای که به صورت موفقیت آمیز خاموش شده است Amber Fault LED  روشن شده و Enclosure Power LED  دیگر روشن نیست.

به علاوه در پشت دستگاه  Fault LED در Management Module  هر DME  روشن است.

b ) بعد از اطمینان از خاموش بودن هر DME، کابل تمامی DME ها را از PDU ها جدا کنید. هر DME دارای ۲ کابل برق دارد.

c ) تمامی LED های جلوی هر Control Station  را چک کنید.

 

تنها LED  مربوط به Networking  باید در این حالت روشن باشد ( LED شماره ۶ در تصویر فوق ) و تمامی LED  های دیگر باید خاموش شده باشند.

d ) بعد از مطمئن شدن از خاموش بودن هر CS کابل برق مربوط به هرCS  را از آن جدا کنید.

۶-  اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

Fast VP : اجازه دهید کارش را انجام دهد!

تمامی دیتا ها به طور یکسان مورد دسترسی قرار نمی گیرند. بعضی از دیتاها بصورت مداوم و بعضی دیگر به ندرت نیاز به دسترسی دارند. با توجه به معرفی و رونمایی قابلیت  FAST VP در رده های CX4، VNX و VNX2، از آن پس تولید یک Storage Pool که شامل خانواده های متفاوت هارد دیسک ها باشد، ممکن شد. سیستم تمامی LUN های شما را به قطعات کوچک ( Slice ) خرد می نماید و به هر Slice، یک درجه ( درجه دمایی ) از سطح دسترسی، اعطا می شود. به عنوان نمونه Slice هایی که مداوما مورد دسترسی قرار می گیرند را Hot Slice، و آنهایی را که به ندرت مورد دسترسی قرار می گیرند را Cold Slice می نامند. پروسه FAST VP داده های Hot را به سریعترین لایه موجود ( به عنوان مثال SSD ) انتقال می دهد. زمانی که سریعترین لایه موجود به لحاظ ظرفیت تکمیل شد، آنگاه FAST VP داده های HOT بعدی را به سریعترین لایه بعدی ( به عنوان مثال SAS ) منتقل می نماید و به همین ترتیب.  شاید این موضوع برای TCO یا همان Total cost of ownership، شما بسیار شگفت انگیز باشد، زیرا که : تمامی داده های Cold شما اکنون بروی Slice های از روی هارد دیسک های NL-SAS شما نگهداری می شود و برای نگهداشت آنها از هارد دیسک های SSD گران قیمت هزینه نمی شود و بدین گونه هزینه کلی نگهداشت داده ها به شدت کاهش می یابد، ضمن اینکه کاربر نهایی شما نیز به هیچ وجه متوجه این فرآیند نمی شود. در این فرآیند تنها یک سناریو نادر وجود دارد که ممکن است شما را به چالش بکشد و آن استفاده سنگین از داده های ارشیو شده موجود بروی لایه Cold است.

  • جابجایی Slice ها توسط FAST VP

همانگونه که ذکر شد FAST VP فرآیندی است که LUN ها را به Slice هایی تبدیل می کند. در رده CX4 و نسل اول VNX، تمامی Slice ها دارای سایزی برابر با ۱ GB بودند ولیکن در VNX2 با بهره گیری از تکنولوژی MCx از Slice هایی با سایز ۲۵۶ MB بهره می برد. تجهیز شما بصورت مداوم مقدار I/O که بسوی یک Slice می رود را پایش می کند و بدین شیوه یک درجه از سطح دسترسی را برای آن Slice مشخص می نماید. در هر روز در زمان برنامه ریزی شدی خاصی Slice ها بنا به درجه حرارتشان به یکی از لایه های موجود منتقل می شوند. پس به خاطر داشته باشید که فرآیند FAST VP یک فرآیند Post Process است. FAST VP تلاش می کند تا آنجایی که امکان دارد داده ها را در ابتدا بروی سریعترین لایه نگه دارد. به عنوان نمونه اگر شما یک Storage Pool با ۱۰ TB لایه SSD و ۲۰ TB لایه SAS داشته باشید و بخواهید تنها ۵ TB داده را بروی آن نگه دارید، آنگاه Fast VP تمامی ۵ GB داده را بروی لایه SSD نگه می دارد ( البته با توجه با Policy پیش فرض ). همچنین FAST VP همیشه ۱۰% فضای هر لایه ( Tier ) را خالی نگه می دارد تا به هنگام تولید Slice برای Thin LUN ها و یا تولید یک LUN جدید، دچار چالش نشود.

حال این سناریو را متصور شوید : یک سرور و یا نرم افزار شروع به تولید حجم بالایی از I/O میکند. Slice ها به سریعترین لایه موجود تحویل می شوند، تجهیز دارای عملکرد مناسبی است و Response Time به سرور و یا نرم افزار کاملا قابل قبول است. در مابقی روزهای ماه سرور یا نرم افزار بنا به دلایلی مورد استفاده قرار نمی گیرد. داده ها شروع به سرد شدن می کنند و به Clod Slice تبدیل می شوند و آنگاه FAST VP آنها را به لایه هارد دیسک های NL-SAS منتقل می نماید. در شروع ماه آینده نرم افزار مجددا به فعالیت خود بازگشته و شروع به تولید حجم بالایی I/O می کند. در اینجا ممکن است تا حدی از این بار تحمیلی را بتوان توسط FAST Cache سریعا مدیریت نمود، اما FAST VP برای مدیریت این حجم بالا نیاز به زمان برای انجام انتقال Slice ها بین لایه ها دارد که معمولا به معنای مدت زمان حدودی، یک روز است. پس در روز اول انجام فعالیت و زمان پاسخ دهی به نرم افزار مناسب نیست و عموما به همین دلیل مدیران این گونه نرم افزارها در این موارد اظهار نارضایتی می کنند.

 برای مدیریت و حل اینگونه مسائل میتوانید Tiering Policy LUN خود را بدین گونه تنظیم نمایید : Auto – Tier

در حالت معمول این Policy بروی گزینه ” Start High Then Auto-Tier ” قرار دارد. اگر نرم افزار شما به گونه ای که در بالا ذکر شد رفتار نماید، شاید شما وسوسه شوید که با انتخاب گزینه ” Highest Tier ” از FAST VP بخواهید که تمامی Slice های داده هایتان را بروی سریعترین لایه خود نگه دارد و بدین شیوه خود را دچار چالش نکنید. اما باید به خاطر داشته باشید که به این شیوه شما Slice هایی از داده های خود را بروی این Tier نگه می دارید که ممکن است هیچ نیازی به سرعت نداشته باشند. و چالش دیگر اینکه Hot Slice های مربوط به LUN های دیگر به دلیل نبود فضا روی سریعترین Tier، به ناچار به یک Tier پایین تر ارسال می شوند. مشکل زمانی بیشتر می شود که شما دارای هر سه لایه در یک POOL هستید یعنی : SSD، SAS ، NL-SAS . هیچ راهی ( تا کنون ) برای چسباندن یک LUN بروی لایه میانی وجود ندارد و انتخاب گزینه ” Highest Tier ” در یک Pool با سه لایه بمعنای انتقال تمامی داده های LUN به هارد دیسک های SSD است که درست است که بسیار سریع هستند ولیکن بسیار هم گرانند. و این بمعنای TCO بالا می باشد.

مدتی پیش در حال بررسی تجهیز یکی از مشتریان بودم و متوجه شدم گه هر شب مقدار بسیار بزرگی از داده ها توسط FAST VP بین لایه ها منتقل می شوند. من میدانم که در هارد دیسک های مکانیکی، اصلی ترین دلیل عملکرد سرعت چرخش موتور یا همان Spindle است. با بررسی وضعیت و تعداد هارد دیسک های این مشتری متوجه شدم که با توجه به نیاز به ظرفیت بالا، مشتری عموما هارد دیسکهای خود را از نوع NL-SAS انتخاب نموده و تنها تعداد کمی هارد دیسک SAS را خریداری کرده است. یک نکته ساده ولیکن مهم را به شما پیشنهاد می کنم: ” با خرید تعداد هارد دیسک بیشتر و سریعتر، عملکرد Tier را افزایش دهید. ” لطفا گراف ذیل را بررسی نمایید :

 

 همانگونه که مشاهده می فرمایید، لایه Performance دارای Slice های زیادی به رنگ قرمز ( Hot ) ، مقداربسیار کمی به رنگ نارنجی و مقداری نیز به رنگ زرد و سبز، می باشد. لایه Capacity نیز دارای Slice هایی به رنگ قرمز، مقداری نارنجی  و قدری زرد، است. مسلما متوقع هستیم که تمامی Slice های قرمز و نارنجی بروی لایه Performane منتقل شود، ولیکن این امکان پذیر نیست چرا که فضای موجود در لایه Performance توسط Cold Slice ها ( سبز ) اشغال شده و با توجه به Policy انتخاب شده، در واقع Sile های سبز به این لایه دوخته ( Pinned ) شده است.

 نکته دیگر اینکه : حتی اگر Hot Slice های لایه Capacity نیز اجازه انتقال به لایه Performance را داشته باشند، فضای کافی برای همه آنها وجود ندارد. در لایه Performance حدود ۸۰۰۰ عدد Slice به رنگهای غیر قرمز وجود دارد در حالیکه در لایه Capacity بیش از ۱۰/۰۰۰عدد Slice نارنجی و قرمز وجود دارد. پس کماکان به شما توصیه می کنم در صورت استفاده از FAST VP ، از تعداد متناسب هارد دیسک SAS بهره ببرید.

اکنون ممکن است که شما بخواهید بدانید، که کدام LUN ها هستند که بطور نسبی، شامل Cold Slice است و مثلا آنها را به لایه Capacity روی تجهیز خود Pin نمایید. خوشبختانه برای این موضوع نیز یک گزارش دیگر وجود دارد، که LUN ها و Slice ها و دمای هر Slice را نمایش می دهد. بدین گونه شما با بررسی LUN ها و یافتن بیشترین Cold Slice ها می توانید دریابید که کدام LUN در حال به هدر دادن فضای لایه های سریع شماست و آن LUN را به لایه های کم سرعت تر خود Pin نمایید. تصویر ذیل وضعیت LUN های Pin شده را نمایش می دهد. همانگونه که مشاهده می نمایید یک LUN کاملا قرمز است. این LUN در سریعترین لایه باقی می ماند اگر حتی شما Policy مربوط به Auto Tiering را هم فعال نمایید. هر دو LUN موجود در سمت چپ تصویر دارای تعداد زیادی Cold Slice ( رنگ سبز ) هستند. در این مورد فعال نمودن گزینه Auto Tiering باعث می شود تمامی این Slice ها به لایه Capacity انتقال داده شوند و روی لایه Performance فضا برای قرار گیری Hot Slice های جدید تامین شود.

 با توجه به این نمودارها ممکن است شرایط معکوس نیز رخ دهد و با خود بگویید : ” داده های Hot ( نارنجی ) روی لایه Capacity موجود است که بایستی به لایه Performance منتقل شوند. بهتر است بعضی از Lun ها را از روی این لایه Unpin کنم تا به Hot Slice های آنها به لایه Performance مهاجرت کنند. “

 

با افزایش و اعطای فضای کافی به لایه Performance مربوط به آن Pool، این امکان را فراهم آورد که اینگونه Hot Slice ها، در اولین فرآیند انتقال، به لایه Performance منتقل گردند. بررسی های بعدی مشخص نمود که این LUN ها بخشی از محیط مورد استفاده برای تبادل داده بوده اند که بسیار نیز کند بوده اند. همچنین ذکر این نکته نیز لازم است که این LUN دارای مقدار زیادی از داده های کم مصرف ( طوسی ) نیز بوده اند. این بهترین مثال برای تشریح عملکرد FAST VP و نحوه صرفه جویی حاصل از بهره مندی از آن است. با بهره مندی از FAST VP این داده های طوسی به هارد دیسک های لایه Capacity منتقل می گردند و بدین گونه دیگر شما داده های کم مصرف خود را بروی هارد های سریع و گران خود نگه نمی دارید و هزینه کمتری را صرف خرید هارد دیسک های سریع می کنید.

  • طراحی Storage Pool

در طراحی یک Storage Pool شما می توانید Pool هایی با یک، دو و یا سه Tier طراحی نمایید. در شرایطی که بار تحمیلی به Storage قابل پیش بینی و یا ثابت باشد، انتخاب یک Pool سه لایه، همیشه بهترین انتخاب است : مقدار کم هارد دیسک های SSD موجود در Pool می تواند پاسخگوی داده های کاملا Hot باشد و داده های های تقریبا بیکار نیز بروی هارد دیسک های NL-SAS قرار می گیرند و از لایه میانی با هارد دیسک های SAS جهت سرویس دهی به مابقی داده ها استفاده می کند. قطعا تایید می کنید که محیط عملیاتی با محیط آزمایشگاهی کاملا متفاوت است، پس در محیط واقعی قطعا با نوسانات زیاد WorkLoad و یا تغییر ماهیت Slice ها از داده های Hot به Clod یا بلعکس  و بصورت مداوم بین لایه های مختلف بالا و پایین شوند.

شما بایستی نسبت به خواسته های نرم افزارتان از Storage بسیار آگاه و مظلع باشید.  به عنوان نمونه اگر شما یکی از آن دسته نرم افزارهایی داشته باشید که در ماه یکبار Workload بسیار زیادی را به Storage وارد می نماید و در مابقی روزهای ماه کاملا بیکار است و استفاده از هارد دیسکهای SAS کاملا پاسخگوی نیاز نرم افزار در روزهای پرکار خود است، پیشنهاد بنده استفاده از یک Pool بدون بهره گیری از هارد دیسکهای NL-SAS است. شاید شما بخواهید با استفاده ار فوت و فنهای FAST VP و بهره مندی از Policy های متفاوت آن، بخواهید داده های خود را به سریعترین Tier خود Pin نمایید، اما اگر شما یک Pool سه لایه با استفاده از هارد دیسک های SSD داشته باشید، آنگاه LUN مربوطه تمامی ظرفیت SSD ها را به خود اختصاص می دهد و باعث کندی عملکرد دیگر LUN ها خواهد شد. متاسفانه تا کنون هیچ Policy برای لایه میانی ( Middle Tier ) وجود ندارد و تنها می توان از Policy های :

  • Auto-Tier
  • Highest Tier
  • Lowest Tier
  • No Data Movement

استفاده نمود.

این موضوع می تواند تاثیر مستقیمی در طراحی، تعداد و نوع لایه های Pool ها داشته باشد. برای مثال ممکن است یک Pool با استفاده از هارد دیسک های SAS و SSD برای پاسخگویی به Workload های بحرانی و یا پر نوسان، یک Pool با سه لایه برای مصارف عمومی و یا حتی شاید یک Pool با هارد دیسک هایی از جنس SAS و NL-SAS برای نگهداری و آرشیو داده های کم اهمیت تر. متاسفانه در زمان طراحی، شما باید در خصوص نوع و طراحی Pool ها و ظرفیت مورد نظر خود بسیار وسواس به خرج دهید، زیرا که در حال حاضر تنها راه اصلاح نمودن چیدمان هارد دیسک ها، انتقال داده های کنونی از روی Pool موجود به محل دیگر، از بین بردن Pool و تولید مجدد Pool با ساختار جدید و یا Expand نمودن Pool موجود است. ولیکن در هر حال احتیاج به تولید نسخه پشتیبان از داده ها ضروری است و وقتی از چند ترابایت داده حرف می زنیم این موضوع بسیار چالش انگیز می شود.

نکته اخلاقی که می توان از این داستان دریافت!! اینست که : اجازه بدهید که FAST VP کارش را انجام دهد! هر چقدر که شما LUN های بیشتری را به سریعترین لایه Pin نمایید، فضای پر سرعت کمتری را برای FAST VP باقی می گذارید تا FAST VP بتواند Hot Slice های خود را بروی آنها جای دهد. بدین شیوه در واقع شما به FAST VP می گویید: ” من بهتر از تو می فهم!”. همانگونه که از تصویر بالا  درمی یابید، عموما اینگونه نیست و عملکرد FAST VP بسیار بهتر و صحیح تر از انتخاب های ماست.

تضاد مابین یک طراحی با تعداد بالای LUN های Pin شده به سریعترین لایه را با طراحی با تعداد کمتر LUN های Pin شده را در تصویر زیر ببینید.

 

تقریبا هیچ Slice قرمز و یا نارنجی بروی لایه Capacity وجود ندارد و تنها یک بخش بسیار کوچک از Slice های سبز بروی لایه Performance موجود است. همچنین با مشاهده این تصویر می توان بسرعت در خصوص هارد دیسک های NL-SAS دریافت که : این هارد دیسک ها IOPS نسبتا کمی را جذب نموده اند و هنوز امکان جذب IOPS بیشتری را دارند.

بسیار خوب، نظر شما درباره FAST VP و Storage Pool ها در رده VNX چیست؟ چگونه آنها را طراحی می نمایید؟ آیا LUN های زیادی را به سریعترین لایه Pin می نمایید؟ یا اجازه می دهید که FAST VP کار خودش را انجام دهد؟ لطفا در این خصوص نظرات خود را با دوستان به اشترک گذارید.

بررسی Hot Spare و MCx Drive Mobility در VNX2

یک تغییر بزرگ در رده VNX2 نسبت به نسل پیشین خود یعنی VNX، جایگزینی Hto Spare Policy بجای انتخاب دائمی هارد دیسک Hot Spare است. در حالیکه در مدلهای پیشین می بایستی هارد دیسک های Hot Spare اختصاصی و از پیش تنظیم شده ای می داشتند که تنها در هنگام بروز خظا در یک هارد دیسک، مورد استفاده قرار می گرفتند، در رده VNX2 از هر هارد دیسک واجد الشرایط، استفاده نشده می توان بعنوان Spare بهره برد. در این آموزش سعی دارم تا مواردی را نظیر یافتن درایو جایگزین شده، یافتن درایو معیوب، عودت داده ها از درایو Hot Spare به درایو اصلی و .. را، ارائه نمایم.

  • یافتن دیسک اصلی و Hot Spare

برای مثال این سیستم را که دارای یک Pool شامل ۵۰ عدد هارد دیسک ۶۰۰ GB ، با سایز فیزیکی “۲.۵ و ۲ عدد هارد دیسک Unbound به عنوان Hot Spare است را در نظر بگیرید. در ابتدا هارد دیسک شماره ۱_۰_۱۹ دچار خظا های Soft-Media می شود و در نهایت از بین می رود. فرآیند Rebuild هارد دیسک شماره ۱_۰_۲۴ را انتخاب می نماید و شروع به بازسازی داده های می نماید. دو روز بعد هارد دیسک ۱_۰_۲۴ نیز خطاهایی را نشان می دهد تا در نهایت این هارد دیسک نیز از بین می رود. آنگاه VNX2 هارد دیسک ۰_۰_۴ را برای بازسازی داده ها در نظر می گیرد. داده هایی که اکنون بروی هارد دیسک ۰_۰_۴ هستند، دیگر بروی هارد دیسک جایگزین شده ۱_۰_۱۹ بر نمی گردند! این شیوه عملکرد Hot Spare در محصولات رده VNX2 است.پس شما چگونه می توانید دریابید که MCx داده های شما را به کدام دیسک جابجا کرده است؟ الان وقت آن است که به بررسی SP Event Log ها بپردازیم.

در Unisphere به آدرس زیر بروید :

System > Monitoring and Alerts > SP Event Logs

هر دوی SP Event Log ها را باز کنید. در مورد بررسی شده توسط بنده، Hot Spare Alert ها در SP B می باشد. شما می توانید زمان و تاریخ خرابی هارد دیسک را برا اساس زمان Alert بیابید. تا یافتن چیزی شبیه تصویر زیر به جستجو ادامه دهید.

 

همانگونه که ملاحظه می فرمایید هار دیسک ۱_۰_۱۹ تولید Alert کرده ( تا خظ شماره ۷۶۰ ) و آنگاه دیسک ۱_۰_۲۴ جایگزین آن شده است. ما می توانیم به همین شیوه نیز جیگزینی هارد دیسک دوم را نیز رصد کنیم.

خط ۳۱۷ در بالا نشان می دهد که در حال بازسازی داده های هارد دیسک ۱_۰_۲۴ بروی هارد دیسک ۰_۰_۴ می باشد. اگر شما می خواهید که تنها Event های مربوط به فرآیند Rebuild را مشاهده نمایید، می تواند در لیست Event ها، کد 0x7168 را Filter نمایید. حتی بدین گونه می توانید دریابید که آیا فرآیند Proactive Drive Replacement  نیز آغاز شده است و یا خیر؟.  برای نمونه در خطای اولیه دیسک، دیسک ۱_۰_۱۹ تنها دچار خطا شده در حالیکه در خطای دوم فرآیند Proactive Copy  آغاز شده است. ( و تا کنون نیز به اتمام نرسیده است. )

 

در بیشتر موارد، شما تنها دیسک معیوب را با دیسک جایگزین تعویض نموده و سیستم به فعالیت خود بدون هیچگونه مشکای ادامه می دهد. اما اگر به هر دلیلی نیاز داشتید داده ها را بروی دیسک ۱_۰_۱۹ باز گردانید، آنوقت چکار باید کرد؟

  • قابلیت MCx Drive Mobility

برای بازگرداندن داده ها به دیسک اصلی دو راهکار وجود دارد. اول اینکه شما می توانید با استفاده از دستور Copytodisk بدون نیاز به ترک صندلی تان (  خوشبختانه )، داده ها را به هارد دیسک اصلی بر گردانید. اما بیاد داشته باشید که این فرآیند بار زیادی را به تجهیز تحمیل می دارد، پس در این خصوص دقت لازم را بعمل آورید. راهکار دیگر استفاده از قابلیت MCx Drive Mobility است. بدین گونه که یک هارد دیسک را بمدت کمتراز ۵ دقیقه از تجهیز خارج نموده و مجددا آن را به تجهیز متصل نمایید تا تجهیز شما مجددا آنرا شناسایی نماید. بدون فرآیند Rebuild، سریع و ساده! . قابلیت MCx Drive Mobility با استفاده از شماره سریال هارد دیسک ها اعضای موجود در یک Pool را شناسایی می نماید و بر خلاف نسل پیشین خود VNX با جانمایی و محل فیزیکی قرار گیری هارد دیسک ها هیچ کاری ندارد. پس با خیال راحت می توانید هارد دیسک ها را در VNX 2 به لحاظ جانمایی به سادگی و حتی مابین DAE ها مختلف و بدون ریسک از دست رفتن داده ای موجود بروی آنها، جابجا نمایید. تنها این نکته را رعایت نمایید ” قبل از ۵ دقیقه دیسک را مجددا به تجهیز متصل نمایید “. و همینطور قبل از انجام هر کاری مطمئن شوید که فرآیندهای Rebuild به اتمام رسیده باشند و مطمئن شوید که هیچگاه دیسکی را که در حال Rebuild است، را از تجهیز خارج نکنید. می توانید با استفاده از دستور زیر

naviseccli -h getdisk -rb

به عنوان نمونه

getdisk 0_0_4 –rb

از وضعیت و نحوه پیشرفت فرآیند Rebuild مطلع گردید. آنگاه، جای هارد دیسک ها را با یکدیگر جابجا نمایید و آنگاه Log نشیر تصویر ذیل خواهید دید.

 

به نظر بنده، قابلیت MCx Drive Mobility یک قابلیت شگفت آور است ولیکن قطعا بنده به هیچ کس توصیه نمی کنم که در محیطهای عملیاتی هارد دیسکهای خود را جابجا نماید. به خصوص DAE های ۲.۵ اینچی با ۲۵ عدد هارد دیسک کوچک، که بدلبل اندازه فیزیکی کوچک و تعداد بالا احتمال اشتباه را بیشتر می کند. همچنین این نکته را بیاد داشته باشید که چون شما در حال جابجا نمودن هارد دیسک های سالم هستید، دیگر LED با رنگ نارنجی نیز به عنوان راهنمای شما وجود ندارد. هر کس که کم و بیش با VNX کار کرده باشد می داند که شروع اعداد از صفر است، حال فرض کنید که شخصی به اشتباه از ۱ شروع به شمارش نماید و اشتباهاتی از این دست. پس مجددا توصیه می کنم : تا هنگامی که به کاری که انجام می دهید اشراف کامل ندارید و یا توجه کامل را ندارید، از دستور copytodiskاستفاده نمایید.

روش برنامه ریزی و محاسبه سرعت در EMC VNX – POOL

 

در این آموزش قصد دارم یک راهنما برای روش محاسبه تعداد و نوع هارد دیسک های مورد نیاز یک Pool بر اساس ( Throughput ( IOPS مورد نیاز، ارائه نمایم. این روش یک شیوه Rough-Order-of Magnitude یا همان ROM است که در خروجی تقریبی از تعداد هارد دیسک های مورد نیاز به شما ارائه می نماید. پیشنهاد می شود قبل از اقدام به تواید LOM خود، در این خصوص حتما از مشاوره و راهنمایی یک متخصص EMC در این زمینه بهره ببرید.

در ابتدا قصد داریم تاثیر انواع مختلف RAID ها را دریابیم. تفاوت اصلی میان RAID های مختلف در سرعت و عملکرد Write آنها می باشد. این در حالی است که سرعت و عملکرد Read در تمامی انواع RAID ها یکی است. برای فرآیند Write در انواع RAID ها داریم :

  • Mirrored RAID 1/0 : ۱ Host Write = 2 Writes
  • Parity RAID 5 : ۱ Host Write = 2 Reads + 2 Writes
  • Parity RAID 6 : ۱ Host Write = 3 Reads + 3 Writes

پس با در نظر گرفتن موارد فوق برای محاسبه IOPS تولید شده از یک RAID داریم :

Parity R A I D 5

Drive IOPS = Read IOPS + 4xWrite IOPS

Parity R A I D 6

Drive IOPS = Read IOPS + 6xWrite IOPS

Mirrored R A I D 1/0

Drive IOPS = Read IOPS + 2xWrite IOPS

به عنوان یک مثال، فرض کنید که بر اساس نرم افزارهای کنترلی و یا بنا به پیشنهاد تولید کننده نرم افزار، هاست شما به IOPS برابر با ۲۰,۰۰۰  با ضریب ۸۰% برای Read و ۲۰%  برای Write نیاز دارد. فرض بگیریم نوع RAID پیشنهاد شده نیز RAID 5 است. حال نیاز داریم که بتوانیم برای این نرم افزار تعداد و نوع هارد دیسک های مورد نیاز را محاسبه نماییم.

Drive IOPS = (0.8 x ۲۰,۰۰۰ + ۴ x (۰.۲ x ۲۰,۰۰۰))

Drive IOPS = 32,000

پس من باید یک هارد دیسک ( قطعا Logical ) با IOPS برابر ۳۲.۰۰۰ برای عملکرد مناسب نرم افزار در اختیار هاست قرار دهم.

تخمین تعداد دیسکهای مورد نیاز بر اساس IOPS

بر اساس جدول ارائه شده ، با انجام محاسبات بسیار ساده ای می توان تعداد هارد دیسک های مورد نیاز هر Pool را تخمین زد. در مثال ارائه شده فرض بر وجود نرم افزارهایی با Small-Block Random I/Oنظیر DataBase ها با Block Size های نظیر ۱۶KB و یا کوچکتر از آن است.

فرض کنید ما می خواهیم برای این منظور، از هارد دیسک های SAS 15K در یک Homogenous Pool استفاده کنیم. در این حالت با توجه به IOPS مورد نیاز یعنی ۳۲.۰۰۰  با انجام یک محاسبه ساده داریم :

۳۲۰۰۰  IOPS / 180 IOPS PER DISK = 177.8 Disks

با توجه به اینکه قرار است ما از RAID 5 استفاده نماییم و در این نوع RAID ما انتخاب های ۴+۱ و یا ۸+۱ داریم، ( در آموزش ” Storage Pools در مقابل RAID Groups ” در این خصوص توضیحات لازمه ارائه شده است. ) بنابراین ما ۱۸۰ عدد هارد دیسک نیاز داریم. در نتیجه اگر از ۴+۱۱ استفاده کنیم داریم :

۳۶ x RAID 5 ( 4+1 ) Private RAID Groups

در حالت دوم می توان متصور بود که با استفاده از تکنولوژی FAST VP یک Heterogeneous Pool با دو Tier با استفاده از هارد دیسک های Flash و SAS تولید می کنیم. برای این منظور از ۵ عدد Flash دیسک برای تولید IOPS و کاهش تعداد دیسک های SAS استفاده می کنیم. در این حالت داریم :

IOPS تولید شده تنها توسط ۵ عدد SAS Flash VP

۵  X 3500IOPS ( SAS Flash VP ) = 17,500 IOPS

در این وضعیت IOPS باقیمانده برابر ۱۸.۵۰۰ می باشد که این IOPS بایستی توسط هارد دیسکهای SAS 15K تامین شود. برای این منظور داریم :

۱۸,۵۰۰ / ۱۸۰ = ۱۰۲,۷

 با در نظر گرفتن RAID 5 بصورت ۴+۱ ، ما به ۱۰۵ هارد دیسک SAS 15K نیاز داریم.

در نتیجه با بهره گیری از تکنولوژی FAST VP ما تعداد ۷۰ عدد هارد دیسک کمتر نسبت به حالت Homogenous Pool ( حالت اول ) نیاز داریم. این قدرت Flash دیسکها است.

لطفا همیشه به خاطر داشته باشید که ۴ هارد دیسک اولی روی تجهیز، هاردهای Vault نامیده می شوند و در محاسبه سرعت و ظرفیت تجهیز هیچ نقشی ندارند.