پراکنده سازی چیست (defragmentation) و چرا به آن احتیاج دارید؟ | آسان لرن
Defragmentation (پراکنده سازی)، همچنین به عنوان “defrag” یا “defragging” شناخته می شود ، فرایند سازماندهی مجدد داده های ذخیره شده بر روی هارد دیسک است به طوری که داده های مربوطه دوباره کنار هم قرار می گیرند . همه به صورت مداوم در یک خط قرار می گیرند. شما می توانید بگویید که تجزیه مجدد مانند تمیز کردن خانه برای سرورها یا رایانه های شخصی شما است . تمام داده های موجود در هارد دیسک شما را جمع آوری می کند و دوباره آنها را با هم زیبا و مرتب و تمیز جمع می کند ، . تکه تکه شدن عملکرد رایانه را افزایش می دهد.
“Defrag” مدرن:
محبوب ترین “دیسک تجزیه کننده دیسک” در تمام دوران Diskeeper است. شما به سادگی Diskeeper® را نصب می کنید . و ظرف چند دقیقه سیستم های ویندوز به عملکرد کامل باز می گردند (در واقع سریعتر از جدید!). و به طور نامحدود به همین شکل باقی می مانند.
با SSD ها ، مجازی سازی و حرکت به سمت ابر ، مشکلات عملکرد هنوز در سیستم های ویندوز خزنده بود . و راه حل های نرم افزاری خواهر و برادر Disaker متولد شد: SSDkeeper® و V-locity®.
Condusiv با تکامل بیشتر برای افزایش کارایی مدرن ترین سیستم های رایانه ای امروزی ، نرم افزار عملکرد سریع DymaxIO developed را توسعه داد . که به طور خودکار برای عملکرد سریع ویندوز ، محیط کار خود را تشخیص داده و با آن سازگار می شود.
پراکنده سازی چگونه رخ می دهد:
پراکنده سازی دیسک زمانی اتفاق می افتد که یک فایل به قطعات تقسیم شود تا بر روی دیسک قرار گیرد. از آنجا که پرونده ها دائماً در حال نوشتن ، حذف و تغییر اندازه هستند ، تکه تکه شدن یک اتفاق طبیعی است. وقتی یک فایل در چندین مکان پخش می شود ، خواندن و نوشتن بیشتر طول می کشد. اما آثار تکه تکه شدن بسیار گسترده تر است.
چگونه پراکنده شدن را از بین ببریم؟
بهترین و مدرن ترین راه برای از بین بردن تکه تکه شدن این است که در وهله اول از وقوع جلوگیری کنید. امروزه بهترین راه برای انجام این کار DymaxIO جدید است. DymaxIO از فناوری خاصی برای جلوگیری از تکه تکه شدن ناخوشایند استفاده می کند .و همچنین عملکرد ویندوز را سریعتر از جدید افزایش می دهد. .
اثرات این فرایند بر عملکرد کامپیوتر:
بسیاری از کاربران مشکلات عملکرد رایانه را عامل سیستم عامل می دانند یا فقط فکر می کنند رایانه آنها قدیمی است . در حالی که اغلب تکه تکه شدن دیسک عامل اصلی آن است. ضعیف ترین حلقه در عملکرد کامپیوتر دیسک است. حداقل 100000 بار کندتر از RAM و بیش از 2 میلیون بار کندتر از CPU است. از نظر عملکرد رایانه ، دیسک گلوگاه اصلی است. تکه تکه شدن فایل مستقیماً بر سرعت دسترسی و نوشتن آن دیسک تأثیر می گذارد . و عملکرد کامپیوتر را به طور مداوم در سطوح غیرقابل تخریب تخریب می کند. از آنجا که همه رایانه ها از تکه تکه شدن رنج می برند ، این مسئله ای مهم برای حل است.
پراکنده سازی باعث کاهش عملکرد می شود:
- کند شدن سرور و رایانه و کاهش عملکرد.
- زمان پشتیبان گیری آهسته . حتی عدم تکمیل در توان عملیاتی سریعتر پشتیبان پنجره.
- فعالیت ورودی/خروجی غیر ضروری در سرورهای SQL یا جستجوهای کند SQL.
- زمان بوت شدن آهسته.
- افزایش زمان برای هر عملیات ورودی/خروجی یا ایجاد فعالیت ورودی/خروجی غیر ضروری.
- ذخیره دیسک ناکارآمد.
- کند کردن خواندن و نوشتن فایل ها.
- سطح بالای ضربات دیسک (نوشتن و بازنویسی مداوم حجم کمی از داده ها).
- زمان اسکن طولانی ویروس.
تکه تکه شدن به مشکلات قابلیت اطمینان سیستم پیوند خورده است:
- خرابی سیستم و قطع شدن آن.
- خرابی پرونده و از بین رفتن اطلاعات.
- شکست ها در بوت کردن.
- به دلیل طولانی بودن زمان پشتیبان گیری ، پشتیبان گیری لغو خواهد شد.
- خطاها و تضاد بین برنامه ها.
- خرابی هارد دیسک.
- امنیت اطلاعات به خطر افتاده است.
پراکنده سازی بر طول عمر ، مصرف برق ، مجازی سازی و SSD تاثیر دارد:
- خرابی زودهنگام سیستم سرور یا رایانه شخصی.
- هدر رفت انرژی.
- کندتر شدن عملکرد سیستم و افزایش سربار ورودی/خروجی به دلیل تکه تکه شدن دیسک با مجازی سازی سرور.
مزایای عملکرد و قابلیت اطمینان درباره ی از بین بردن defragmentation :
- عملکرد بهتر برنامه.
- کاهش زمان وقفه و تصادفات.
- پشتیبان گیری کوتاه تر.
- نرخ انتقال سریعتر اطلاعات.
- افزایش توان.
- کاهش تأخیر.
- تمدید چرخه عمر سخت افزار.
- افزایش تراکم VM.
- به طور کلی سرعت سرور و رایانه سریعتر است.
- زمان بوت سریعتر.
- اسکن سریعتر آنتی ویروس.
- سرعت بیشتر در مرورگر اینترنت.
- زمان خواندن و نوشتن سریعتر.
- افزایش پایداری سیستم.
- کاهش سرعت رایانه ، تأخیر و خرابی کامپیوتر.
- کاهش فعالیتهای ورودی/خروجی غیر ضروری.
- کاهش فساد و از دست رفتن داده ها.
- مصرف برق کمتر و هزینه انرژی.
- کاهش هزینه های محاسبه ابری.
عملکرد SQL Server:
یکی از بزرگترین تنگناهای سخت افزاری هر SQL Server دیسک ورودی است. و هر کاری که DBA ها می توانند برای کاهش استفاده SQL Server از دیسک ورودی/خروجی انجام دهند به افزایش عملکرد آن کمک می کند. برخی از رایج ترین کارهایی که DBA ها برای کاهش تنگناهای ورودی/خروجی دیسک انجام می دهند عبارتند از:
- تنظیم پرس و جوها برای به حداقل رساندن مقدار داده های برگشتی. بهترین راهنمای سرور sql
- استفاده از دیسک ها و آرایه های سریع.
- با استفاده از مقدار زیادی RAM ، اطلاعات بیشتری ذخیره می شود.
- بازسازی مجدد DBCC مکرر داده ها برای حذف تکه تکه شدن پایگاه داده منطقی.
یکی دیگر از روشهای کمتر مورد استفاده برای کاهش ورودی/خروجی کلی دیسک ، انجام تجزیه فیزیکی فایل های برنامه SQL Server ، پرونده های پایگاه داده ، گزارش تراکنش ها و فایل های پشتیبان است. پراکنده سازی فایل های فیزیکی به دو صورت مختلف رخ می دهد.
چگونگی اجرا:
ابتدا ، فایلهای جداگانه به چند قسمت تقسیم می شوند و در یک دیسک یا یک آرایه پراکنده می شوند (روی دیسک مجاور نیستند). ثانیاً ، فضای آزاد روی دیسک یا آرایه از قطعات کوچکی تشکیل شده است که به جای وجود فضاهای آزاد کمتر ، پراکنده شده اند.
شرط اول نیاز به هد دیسک دارد تا نسبت به فایلهای فیزیکی مجاور ، حرکتهای فیزیکی بیشتری برای قرار دادن قطعات فیزیکی فایل انجام دهد. هرچه یک فایل از نظر فیزیکی بیشتر تکه تکه شود ، کار بیشتری درایو دیسک باید انجام دهد. و عملکرد I/O دیسک آسیب ببیند. شرط دوم هنگام نوشتن داده ها روی دیسک مشکلاتی را ایجاد می کند. نوشتن داده های همجوار سریعتر از داده های غیرمستقیم است که در درایو یا آرایه پراکنده شده اند. علاوه بر این ، تعداد زیادی از فضاهای خالی به تقسیم بیشتر فایل های فیزیکی کمک می کند.
اگر SQL Server شما بیشتر شامل INSERTS ، UPDATES و DELETES است ، پراکنده سازی دیسک فیزیکی مشکل چندانی ندارد . زیرا تعداد کمی از صفحات داده خوانده می شوند و نوشته ها کوچک هستند. اما اگر تعداد زیادی SELECTS روی داده های خود انجام می دهید ، به ویژه هر نوع اسکن ، پس از آن پراکنده سازی فایل های فیزیکی می تواند به یک مشکل تبدیل شود. زیرا بسیاری از صفحات داده باید خوانده شوند و باعث می شود هد دیسک کارهای اضافی بیشتری انجام دهد.
پراکنده سازی هرگز متوقف نمی شود. اگرچه NTFS تلاش می کند تا پراکنده سازی فایل را به حداقل برساند ، اما کار چندان خوبی در این زمینه انجام نمی دهد. به همین دلیل ، اگر می خواهید عملکرد ورودی/خروجی بهینه دیسک را بخواهید ، تجزیه مجدد باید به طور مداوم انجام شود.
دیدگاهتان را بنویسید