Bundan 5-6 yıl öncesine kadar cep telefonu bizler için kısa mesaj, konuşma ve çok lüks olmak suretiyle e-posta’dan ibaretti. Masaüstü dünyadan mobil yaşama doğrud giden yolda taşınabilir cihazlar küçüldü. Her ne kadar “Big Data” olarak nitelense ve kurumsal anlamdaki “yapılandırılmış” veri ile çok ilişkili olmasada dünyada veri depolama sektörünü yönlendiren veri türü olarak “yapılandırılmamış” data büyük önem taşıyor. Yapılandırılmamış data’nın en büyük kaynağı ise internet ve mobil dünya.
Teknoloji ve bu makalede ele alınacak tekilleştirme ve sıkıştırma konularına girmeden önce bahsedilen bu verinin büyüklüğü ve vüyüme oranı hakkında çarpıcı birkaç bilgi vermek, ne kadar ciddi bir sıkıntıyla karşı karşıya olduğumuzu anlamak açısından yerinde olacaktır.
2013 yılına ait sağlıklı veriye henüz ulaşılamadığı için 2011 ve 2012 yılını baz almak daha doğru olur, yıl sonu itibari ile;
Kamuya açık ağlar üzerinden müzik dinleyen 29 Milyon mobil kullanıcı mevcut.
Aynı ağlar üzerinde paylaşılan içeriğin %52’si video içerik
Facebook üzerinden saniyede 1600 durum güncellemesi yapılıyor, bunların %40’ı medya içeren güncellemeler.
Twitter sadece mobil cihazlar üzerinden erişim sağlayan 13 milyon kullanıcıya sahip.
Facebook’un geçtiğimiz günlerde satın aldığı Instagram uygulaması üzerinden paylaşılan içerik bir önceki yıla göre %1900 artış gösterdi.
Sıradan telefonlardan, “akıllı” mobil cihazlara giden yolda “akıllı telefon” kategorisindeki satışlar %3500, “tablet” satışları ise %12100 oranında arttı.
Kamu kurumları ve kamuya hizmet veren özel şirketler artık “tablet” ve “akıllı telefon” dostu uygulamalar kullanıyorlar/ geliştirmek niyetindeler.
Küresel veri büyüme hızı günde 18 Petabyte seviyelerinde.
2011 yılında oluşturulan ve replike edilen verinin büyüklüğü 1.8 zettabyte (1 zettabyte=1 trilyon terabyte)
CERN deneyleri ile oluşturulan data saniyede 40 terabyte büyüklüğünde. Bu bu veri Avrupa bilgi işlem ağlarında dolaşıyor.
Kişisel bir e-posta hesabında tutulan 30mb büyüklüğünde bir dosyanın yedeklemenin sıklığına ve türüne göre ulaşabileceği boyut 7GB.
ISO, BS, ve DR standartları gereği, kurumlar verilerini yedeklemek zorundalar.
Bahsedilen veriler “şahsi” ve “profesyonel” ortamdan uzak görünse de, çalışanlar bu verilere kurumsal ortamda da sıklıkla erişmekte ve saklamaktalar. Dünya çapında bilgi teknolojileri çalışanlarının önündeki en büyük engellerden biri kontrolsüz büyüyen bu karmaşık veriyi depolamak ve bu sistemleri yönetmek.
Bilgi işlem yöneticileri bu veriyi hem performanslı şekilde sunuma hazır tutmak hemde ellerindeki kapasiteyi verimli kullanmak zorundalar. Performans ve kapasiteyi aynı ortamda sunmak ise fiyat anlamında yüksek bir engel teşkil etmekte. Yüksek kapasiteli sistemlerin performans açığını kapatmak için ek donanımlara ihtiyacı var, yüksek performans sunan sistemler ise bu performansı kısıtlı bir kapasite için sağlayabiliyorlar ve kapasite artışı pahalı ve düşük kapasiteli disklerle mümkün.
Performansın ve kapasitenin beraber elde edilmesinin bir hayli zor ve maliyetli olduğu bir ortamda veri depolama sistemlerinin verimliliği bilgi işlem departmanlarının en büyük önceliği. Thin Provisioning, Snapshot gibi teknolojiler ve veri depolama sistemi kaynak yönetimi tamamen bilgi işlem yöneticilerinin ve çalışanlarının bu sıkıntılarını adreslemek üzere geliştirildi. Bu sayede sorumlu kişiler veri depolama ortamlarının kullanım oranını ve performansını istenilen düzeyde tutabildiler.
Veri artık profesyonel ortamda da büyüyor. Şehirler kayıt altında, parmak izleri ve kişisel bilgiler kamu kuruluşlarında bilgisayarlar arasında geziniyor. Tüm bu bilgiler bir kurumda, çoğu zaman birkaç kurumda birden saklanıyor ve aslen küçük bir yer kaplayan veri tekilleşemediği için veri depolama sistemleri üzerinde yük oluşturuyor. Bu yükü azaltmak ve yönetimini kolaylaştırmak için tekilleştirme ve sıkıştırma teknolojileri geliştirildi.
Verinin Günümüzdeki Durumu
IDC raporlarına göre 2009 yılında hız kesen veri artışı ve ulaşılan toplam disk kapasitesi günümüzde yeniden ivme kazandı ve 2014 yılında öngörülen artış günümüze oranla %50 civarında. Bu veri sadece zengin içerik ve paylaşımdan ibaret değil, günümüzde bu verinin hiçte küçümsenmeyecek bir kısmı veri odaklı çalışan analitik uygulamalara bağımlı ve bunlar üzerinden büyüyor ve gelecekte bu oran daha da artacak. Zengin Veri kavramı artık yerleşiyor ve veri ne kadar zengin ise, sahibine o kadar para kazandırıyor. Veriyi işleyen sistemler ve depolayan sistemlerde bu zekaya ortak oluyor.
Geçmişe oranla büyümek ve esnek bir yapıya sahip olmak sanallaştırma sayesinde mümkün, çok daha kolay ve eskiden günler alan kurulumlar şu anda bir kahve molasında yapılabilecek duruma geldi. Veri çok daha hızlı oluşuyor, çok daha hızlı kopyalar alınıyor. Veri artık depolanmaktan öte, işleniyor ve değişiyor. Bu süreçte performans ve kapasite arttırımları gerekli. Thin Porivisioning, Automated Tiering, Snapshot, Sanal Depolama Yönetimi, Arşivleme, Tekilleştirme, Sıkıştırma gibi teknolojiler verinin büyüme hızını yakalamakta zorlanan depolama sistemlerinin açıklarını kapatmalarına yardımcı oluyorlar. Burada bizi ilgilendiren başlık ise tekilleştirme. Tekilleştirme hakkında temel bigliler vermeye çalışacağım.
Tekilleştirme
Geçtiğimiz birkaç sene içerisinde veri tekilleştirme veri depolama sistemlerinin aranan ve önemli bir özelliği haline geldi. En küçüğünden en büyüğüne hemen hemen tüm veri depolama sistemi üreticileri tekilleştirme bazlı yada tekilleştirme desteğine sahip ürünleri ürün ailelerinde duyurdular. Veri tekilleştirme özelliği günümüzde sahip olduğu pazar payını ve çektiği dikkati temelde yedekleme sistemlerine borçlu. Yedekleme sistemleri, yedekleme işlemi sırasında temelde aynı veriyi defalarca kopyaladığı için tekilleştirmenin faydasının en çok görüldüğü alan durumunda.
Yedekleme verisi tekilleştirme teknolojileri için şu anda anahtar fırsat diyebiliriz. Yazılım tabanlı, kutu çözümü, donanım veya ne şekilde olursa olsun günümüzde satılan her yedekleme çözümü bir şekilde/formatta veri tekilleştirmesini destekliyor. Hatta çoğu ürün artık bu özelliği standart oalrak sunuyor, yani lisans endişesi yaşamak zorudna değilsiniz.
Peki bahsedilen bu veri tekilleştirme nedir, nasıl çalışır biraz bundan bahsetmek istiyorum. Yanlış anlaşılma olmaması ve teknolojiden uzaklaşmamak adına ingilizce terimler kullanmaya çalışacağım.
Veri tekilleştirme temelde belirli bir veri öbeğinde “chunk” tekrarlanan veri izlerini “pattern” bulmak ve ortadan kaldırmak üzerine kuruludur. Bu işlem için kullanılan algoritma ile her bir chunk için bir hash oluşturulur, ve bu oluşturulan “hash” halihazırda depolanan bir hash ile uyuşuyor ise, yeni oluşturulan veri öbeği eskisine bir “pointer” atanması yoluyla eski öbeğin yeini alır. Eski veriye ulaşılmak istenmesi durumunda eski verinin yerine olan pointer yeni veriyi adresler, ve veri buradan okunur.
Tekilleştirme işleminde bu “öbekler” 3 farklı tipte oluşturulur. File level (dosya bazlı), Block level (blok bazlı) ve Byte Level (Bit bazlı) Her birinin kendine özgün özellikleri vardır.
File level (Dosya bazlı) Single-Instancing olarak ta tabir edilen bu türde öbekler aslında bütün halinde dosyalardır. Hash dosyaları dosyanın tümü için oluşturulur ve dosya ve kopyaları sadece 1 kez veri alanı üzerine yazılır. Overhead (işlemciye yüklenen ek yük olarak tanımlanabilir) açısından en düşük etkiye sahip tekilleştirme türüdür. Fakat tekilleşen dosya üzerinde bir değişiklik yapılması durumunda hash dosyasının yeniden hesaplanması ve yine çok büyük ihtimalle farklı bir dosya olarak saklanması ile sonuçlanır.
Block level (Blok bazlı) Fixed and Variable (Sabit ve Değişken) olarak ta bilinen bu türde veri öbekleri blok bazında oluşturulur, işlem sırasında overhead daha fazladır. Fakat sonuçta depolanan veri ve kapladığı alan açısından daha efektif bir yöntemdir. Daha detaylı sınıflandırma sonucu ufak değişiklikler sonrası bile verinin kopyası oluşturulmadan farklı veri saklanması mümkündür. Veriyi oluşturan tüm blok dosyalar aynıdır, farklılık yaratan bloklar ise farklı bir veri ile kullanılmak üzere ayrıca depolanır. Blok bazlı tekilleştirme özellikle büyük boyutlu ve fark içeren host işletim sistemleri barındıran sanal makina imajları için oldukça etkili bir yöntemdir.
Byte level (Bit Bazlı) Kağıt üzerinde saklanan dosya boyutu açısından en verimli fakat harcanan işlem gücü açısından en maliyetli tekilleştirme türüdür. İşlem sırasında sadece hash oluşturulmakla kalınmaz, aynı zamanda her bir veri öbeğinin başı ve sonu tekrar hesaplanır, sonucunda oluşan her bir hash ayrı ayrı depolanır. E-posta ortamları gibi blok yapısına sahip olmayan ve sürekli tekrarlanan, aynı zamanda verinin yöneten ve kullanan uygulama tarafından tanındığı veri türleri için en uygun tekilleştirme türüdür.
Tekilleştirme sistemlerinde bir başka önemli özellik tekilleştirilmiş verinin hesaplanması tamamlandığında verinin arka planda disklere nasıl yazıldığıyla ilgilidir. Burada iki farklı yaklaşım sözkonusudur, birincisi inline ikincisi ise postprocess tekilleştirmedir.
Inline Tekilleştirme yapan sistemlerde, veri kopyaları daha diske yazılmadan belirlenir, elenir ve disk sistemi üzerine koya veri yazılması ve disk i/o işlemi oluştuması önlenir. Bu tarz sistemlerin eksisi gelen her verinin canlı ve diske yazılmadan cache üzerinde işlenmesi gerekliliği olduğu için yüksek cache alanı ve çok yüksek işlem gücüne ihtiyaç duymasıdır. Arka planda disk girdi çıktısı oluşturmaz, sadece yazılması gereken veri diskleri meşgul eder.
Postprocess Tekilleştirme yaklaşımında ise alternatif olarak sisteme saklanmak üzere gelen verinin arka planda işlenmeden diske yazılması sözkonusudur. Gün içerisinde pik saatler yaşayan, bakımları ve veri yönetimini gece yapan kurum ve kuruluşlar için önerilen tekilleştirme yönetimidir çünkü veri gün içerisinde tekilleştirme işlemine maruz bırakılmadan hızlıca depolanır Gün içerisinde ihtiyaç duyulan işlem gücü tekilleştirme için harcanmaz ve sistemin cevap süresi düşüktür. Sisteme işlenmeden yzılan verinin tekilleştirilmesi işlemi veri depolama sisteminni yoğunluğuna göre kendi insiyatifine bırakılabilir, yada günün/haftanın belirli saatlerinde veri tekilleştirmesi yapılması için iş emirleri oluşturulabilir. Postprocess işlemin eksileri ise veri tekilleşmeden yazılmak zorunda odluğu için başlangıçta fazla alana ihtiyaç duyulması ve sonrasında sisteme disk girdi çıktısı anlamında yük oluşturmasıdır.
Veri Tekilleştirme
Verinin Önlenemez Yükselişi
Bundan 5-6 yıl öncesine kadar cep telefonu bizler için kısa mesaj, konuşma ve çok lüks olmak suretiyle e-posta’dan ibaretti. Masaüstü dünyadan mobil yaşama doğrud giden yolda taşınabilir cihazlar küçüldü. Her ne kadar “Big Data” olarak nitelense ve kurumsal anlamdaki “yapılandırılmış” veri ile çok ilişkili olmasada dünyada veri depolama sektörünü yönlendiren veri türü olarak “yapılandırılmamış” data büyük önem taşıyor. Yapılandırılmamış data’nın en büyük kaynağı ise internet ve mobil dünya.
Teknoloji ve bu makalede ele alınacak tekilleştirme ve sıkıştırma konularına girmeden önce bahsedilen bu verinin büyüklüğü ve vüyüme oranı hakkında çarpıcı birkaç bilgi vermek, ne kadar ciddi bir sıkıntıyla karşı karşıya olduğumuzu anlamak açısından yerinde olacaktır.
2013 yılına ait sağlıklı veriye henüz ulaşılamadığı için 2011 ve 2012 yılını baz almak daha doğru olur, yıl sonu itibari ile;
Kamuya açık ağlar üzerinden müzik dinleyen 29 Milyon mobil kullanıcı mevcut.
Aynı ağlar üzerinde paylaşılan içeriğin %52’si video içerik
Facebook üzerinden saniyede 1600 durum güncellemesi yapılıyor, bunların %40’ı medya içeren güncellemeler.
Twitter sadece mobil cihazlar üzerinden erişim sağlayan 13 milyon kullanıcıya sahip.
Facebook’un geçtiğimiz günlerde satın aldığı Instagram uygulaması üzerinden paylaşılan içerik bir önceki yıla göre %1900 artış gösterdi.
Sıradan telefonlardan, “akıllı” mobil cihazlara giden yolda “akıllı telefon” kategorisindeki satışlar %3500, “tablet” satışları ise %12100 oranında arttı.
Kamu kurumları ve kamuya hizmet veren özel şirketler artık “tablet” ve “akıllı telefon” dostu uygulamalar kullanıyorlar/ geliştirmek niyetindeler.
Küresel veri büyüme hızı günde 18 Petabyte seviyelerinde.
2011 yılında oluşturulan ve replike edilen verinin büyüklüğü 1.8 zettabyte (1 zettabyte=1 trilyon terabyte)
CERN deneyleri ile oluşturulan data saniyede 40 terabyte büyüklüğünde. Bu bu veri Avrupa bilgi işlem ağlarında dolaşıyor.
Kişisel bir e-posta hesabında tutulan 30mb büyüklüğünde bir dosyanın yedeklemenin sıklığına ve türüne göre ulaşabileceği boyut 7GB.
ISO, BS, ve DR standartları gereği, kurumlar verilerini yedeklemek zorundalar.
Bahsedilen veriler “şahsi” ve “profesyonel” ortamdan uzak görünse de, çalışanlar bu verilere kurumsal ortamda da sıklıkla erişmekte ve saklamaktalar. Dünya çapında bilgi teknolojileri çalışanlarının önündeki en büyük engellerden biri kontrolsüz büyüyen bu karmaşık veriyi depolamak ve bu sistemleri yönetmek.
Bilgi işlem yöneticileri bu veriyi hem performanslı şekilde sunuma hazır tutmak hemde ellerindeki kapasiteyi verimli kullanmak zorundalar. Performans ve kapasiteyi aynı ortamda sunmak ise fiyat anlamında yüksek bir engel teşkil etmekte. Yüksek kapasiteli sistemlerin performans açığını kapatmak için ek donanımlara ihtiyacı var, yüksek performans sunan sistemler ise bu performansı kısıtlı bir kapasite için sağlayabiliyorlar ve kapasite artışı pahalı ve düşük kapasiteli disklerle mümkün.
Performansın ve kapasitenin beraber elde edilmesinin bir hayli zor ve maliyetli olduğu bir ortamda veri depolama sistemlerinin verimliliği bilgi işlem departmanlarının en büyük önceliği. Thin Provisioning, Snapshot gibi teknolojiler ve veri depolama sistemi kaynak yönetimi tamamen bilgi işlem yöneticilerinin ve çalışanlarının bu sıkıntılarını adreslemek üzere geliştirildi. Bu sayede sorumlu kişiler veri depolama ortamlarının kullanım oranını ve performansını istenilen düzeyde tutabildiler.
Veri artık profesyonel ortamda da büyüyor. Şehirler kayıt altında, parmak izleri ve kişisel bilgiler kamu kuruluşlarında bilgisayarlar arasında geziniyor. Tüm bu bilgiler bir kurumda, çoğu zaman birkaç kurumda birden saklanıyor ve aslen küçük bir yer kaplayan veri tekilleşemediği için veri depolama sistemleri üzerinde yük oluşturuyor. Bu yükü azaltmak ve yönetimini kolaylaştırmak için tekilleştirme ve sıkıştırma teknolojileri geliştirildi.
Verinin Günümüzdeki Durumu
IDC raporlarına göre 2009 yılında hız kesen veri artışı ve ulaşılan toplam disk kapasitesi günümüzde yeniden ivme kazandı ve 2014 yılında öngörülen artış günümüze oranla %50 civarında. Bu veri sadece zengin içerik ve paylaşımdan ibaret değil, günümüzde bu verinin hiçte küçümsenmeyecek bir kısmı veri odaklı çalışan analitik uygulamalara bağımlı ve bunlar üzerinden büyüyor ve gelecekte bu oran daha da artacak. Zengin Veri kavramı artık yerleşiyor ve veri ne kadar zengin ise, sahibine o kadar para kazandırıyor. Veriyi işleyen sistemler ve depolayan sistemlerde bu zekaya ortak oluyor.
Geçmişe oranla büyümek ve esnek bir yapıya sahip olmak sanallaştırma sayesinde mümkün, çok daha kolay ve eskiden günler alan kurulumlar şu anda bir kahve molasında yapılabilecek duruma geldi. Veri çok daha hızlı oluşuyor, çok daha hızlı kopyalar alınıyor. Veri artık depolanmaktan öte, işleniyor ve değişiyor. Bu süreçte performans ve kapasite arttırımları gerekli. Thin Porivisioning, Automated Tiering, Snapshot, Sanal Depolama Yönetimi, Arşivleme, Tekilleştirme, Sıkıştırma gibi teknolojiler verinin büyüme hızını yakalamakta zorlanan depolama sistemlerinin açıklarını kapatmalarına yardımcı oluyorlar. Burada bizi ilgilendiren başlık ise tekilleştirme. Tekilleştirme hakkında temel bigliler vermeye çalışacağım.
Tekilleştirme
Geçtiğimiz birkaç sene içerisinde veri tekilleştirme veri depolama sistemlerinin aranan ve önemli bir özelliği haline geldi. En küçüğünden en büyüğüne hemen hemen tüm veri depolama sistemi üreticileri tekilleştirme bazlı yada tekilleştirme desteğine sahip ürünleri ürün ailelerinde duyurdular. Veri tekilleştirme özelliği günümüzde sahip olduğu pazar payını ve çektiği dikkati temelde yedekleme sistemlerine borçlu. Yedekleme sistemleri, yedekleme işlemi sırasında temelde aynı veriyi defalarca kopyaladığı için tekilleştirmenin faydasının en çok görüldüğü alan durumunda.
Yedekleme verisi tekilleştirme teknolojileri için şu anda anahtar fırsat diyebiliriz. Yazılım tabanlı, kutu çözümü, donanım veya ne şekilde olursa olsun günümüzde satılan her yedekleme çözümü bir şekilde/formatta veri tekilleştirmesini destekliyor. Hatta çoğu ürün artık bu özelliği standart oalrak sunuyor, yani lisans endişesi yaşamak zorudna değilsiniz.
Peki bahsedilen bu veri tekilleştirme nedir, nasıl çalışır biraz bundan bahsetmek istiyorum. Yanlış anlaşılma olmaması ve teknolojiden uzaklaşmamak adına ingilizce terimler kullanmaya çalışacağım.
Veri tekilleştirme temelde belirli bir veri öbeğinde “chunk” tekrarlanan veri izlerini “pattern” bulmak ve ortadan kaldırmak üzerine kuruludur. Bu işlem için kullanılan algoritma ile her bir chunk için bir hash oluşturulur, ve bu oluşturulan “hash” halihazırda depolanan bir hash ile uyuşuyor ise, yeni oluşturulan veri öbeği eskisine bir “pointer” atanması yoluyla eski öbeğin yeini alır. Eski veriye ulaşılmak istenmesi durumunda eski verinin yerine olan pointer yeni veriyi adresler, ve veri buradan okunur.
Tekilleştirme işleminde bu “öbekler” 3 farklı tipte oluşturulur. File level (dosya bazlı), Block level (blok bazlı) ve Byte Level (Bit bazlı) Her birinin kendine özgün özellikleri vardır.
File level (Dosya bazlı) Single-Instancing olarak ta tabir edilen bu türde öbekler aslında bütün halinde dosyalardır. Hash dosyaları dosyanın tümü için oluşturulur ve dosya ve kopyaları sadece 1 kez veri alanı üzerine yazılır. Overhead (işlemciye yüklenen ek yük olarak tanımlanabilir) açısından en düşük etkiye sahip tekilleştirme türüdür. Fakat tekilleşen dosya üzerinde bir değişiklik yapılması durumunda hash dosyasının yeniden hesaplanması ve yine çok büyük ihtimalle farklı bir dosya olarak saklanması ile sonuçlanır.
Block level (Blok bazlı) Fixed and Variable (Sabit ve Değişken) olarak ta bilinen bu türde veri öbekleri blok bazında oluşturulur, işlem sırasında overhead daha fazladır. Fakat sonuçta depolanan veri ve kapladığı alan açısından daha efektif bir yöntemdir. Daha detaylı sınıflandırma sonucu ufak değişiklikler sonrası bile verinin kopyası oluşturulmadan farklı veri saklanması mümkündür. Veriyi oluşturan tüm blok dosyalar aynıdır, farklılık yaratan bloklar ise farklı bir veri ile kullanılmak üzere ayrıca depolanır. Blok bazlı tekilleştirme özellikle büyük boyutlu ve fark içeren host işletim sistemleri barındıran sanal makina imajları için oldukça etkili bir yöntemdir.
Byte level (Bit Bazlı) Kağıt üzerinde saklanan dosya boyutu açısından en verimli fakat harcanan işlem gücü açısından en maliyetli tekilleştirme türüdür. İşlem sırasında sadece hash oluşturulmakla kalınmaz, aynı zamanda her bir veri öbeğinin başı ve sonu tekrar hesaplanır, sonucunda oluşan her bir hash ayrı ayrı depolanır. E-posta ortamları gibi blok yapısına sahip olmayan ve sürekli tekrarlanan, aynı zamanda verinin yöneten ve kullanan uygulama tarafından tanındığı veri türleri için en uygun tekilleştirme türüdür.
Tekilleştirme sistemlerinde bir başka önemli özellik tekilleştirilmiş verinin hesaplanması tamamlandığında verinin arka planda disklere nasıl yazıldığıyla ilgilidir. Burada iki farklı yaklaşım sözkonusudur, birincisi inline ikincisi ise postprocess tekilleştirmedir.
Inline Tekilleştirme yapan sistemlerde, veri kopyaları daha diske yazılmadan belirlenir, elenir ve disk sistemi üzerine koya veri yazılması ve disk i/o işlemi oluştuması önlenir. Bu tarz sistemlerin eksisi gelen her verinin canlı ve diske yazılmadan cache üzerinde işlenmesi gerekliliği olduğu için yüksek cache alanı ve çok yüksek işlem gücüne ihtiyaç duymasıdır. Arka planda disk girdi çıktısı oluşturmaz, sadece yazılması gereken veri diskleri meşgul eder.
Postprocess Tekilleştirme yaklaşımında ise alternatif olarak sisteme saklanmak üzere gelen verinin arka planda işlenmeden diske yazılması sözkonusudur. Gün içerisinde pik saatler yaşayan, bakımları ve veri yönetimini gece yapan kurum ve kuruluşlar için önerilen tekilleştirme yönetimidir çünkü veri gün içerisinde tekilleştirme işlemine maruz bırakılmadan hızlıca depolanır Gün içerisinde ihtiyaç duyulan işlem gücü tekilleştirme için harcanmaz ve sistemin cevap süresi düşüktür. Sisteme işlenmeden yzılan verinin tekilleştirilmesi işlemi veri depolama sisteminni yoğunluğuna göre kendi insiyatifine bırakılabilir, yada günün/haftanın belirli saatlerinde veri tekilleştirmesi yapılması için iş emirleri oluşturulabilir. Postprocess işlemin eksileri ise veri tekilleşmeden yazılmak zorunda odluğu için başlangıçta fazla alana ihtiyaç duyulması ve sonrasında sisteme disk girdi çıktısı anlamında yük oluşturmasıdır.