● Veriyi, yeni nesil sermaye olarak tanımlayanların sayısı gün geçtikçe artıyor. Günü iyi izleyen ve yakın geleceği görebilen yetenekler için çoktan en büyük güç konumuna yükseldi bile. Veriyi yeni petrol olarak tanımlayan İngiliz matematikçi Clive Humby’nin kurduğu mantık açısından baktığımızda, ham petrol gibi ham verinin de değerli olmadığı sonucuna varırız.
● Bu açılardan, verinin elde edilmesinin yanı sıra işlenmesi de önem taşıyor. Veriden elde edilmek istenen değer; hızlı, eksiksiz, doğru bir şekilde veri toplandığında ve ilgili diğer verilerle ilişkilendirildiğinde elde edilir. Bu açılardan işletmeler için yüzyılın gündemi veri yönetimine ilişkin yazılarımızı sürdüreceğiz.
UĞUR ÖZKER
Bir şirketin başarısı için veri yığınlarını yönetme becerisi her zamankinden daha fazla önem taşıyor. Ancak veri yönetimi fonksiyonlarının ve büyük şirketlerde baş veri sorumlularının (CDO’lar) görev almasına rağmen çoğu yapı, güncel veri yönetimi sorunlarına kalıcı bir çözüm bulabilmiş değil. Hele ki küçük ve orta boy işletmeler için bu alanda kat edilecek daha çok mesafe var. Sektörler arası araştırmalara göre; ortalama olarak bir kuruluşun yapılandırılmış verilerinin yarısından azının karar verme süreçlerinde aktif olarak kullanıldığını ve yapılandırılmamış verilerinin yüzde 1’den azının analiz edildiğini veya kullanıldığını gösteriyor. Çalışanların yüzde 70’inden fazlası erişmemesi gereken verilere erişebiliyor ve analistler zamanının yüzde 80’ini yalnızca verileri keşfedip hazırlamakla geçiriyor. Veri ihlalleri ise bu süreçlere ek olarak oldukça sık karşılaşılan ve kurumların maddi ya da manevi büyük kayıplar yaşamasına sebep olan başlıca sorunlardan birisi olarak göze çarpıyor.
Veri evrenindeki büyüme devam ediyor
Veri yönetimi konusunda pek çok kurumun önünde uzun bir yolculuk olsa da diğer yandan günden güne üretilen ve saklanan veri miktarı da artış göstermeye devam ediyor; 2023’ten 2025’e kadar olan tahminlerle birlikte, 2010’dan 2023’e kadar dünya çapında oluşturulan, yakalanan, kopyalanan ve tüketilen veri hacmi Zettabyte cinsinden aşağıda yer alan tablodaki gibi. Veri hacmindeki istikrarlı artış ile doğru orantılı olarak küresel büyük veri analitiği pazarının da önümüzdeki yıllarda ciddi bir büyüme göstermesi bekleniyor. Veri analitiği pazar hacmi 2021’de 240 milyar doların üzerindeydi, 2029 yılına kadar ise 650 milyar doların üzerinde bir pazar değeri öngörülüyor. Veri merkezi pazarının ise; bulut teknolojilerin de yaygınlaşması ile birlikte birkaç yıl içerisinde 2,5 kat gibi devasa bir oranda büyüyeceği tahmin ediliyor. 2021 yılında veri merkezi pazarından elde edilen küresel gelir yaklaşık 50,58 milyar dolara ulaştı. 2028 yılına kadar ise veri merkezi pazarının 136 milyar doların üzerine çıkması bekleniyor. Ocak 2022 itibarıyla Amerika Birleşik Devletleri’nde 2.701, Almanya’da 487, Birleşik Krallık’ta 456, Çin’de 443 veri merkezi bulunuyor. Ülkemizde ise veri merkezlerine ilişkin net bir bilgi bulunmuyor. Uzmanların tahminlerine göre, Türkiye’de 40 bin metrekaresi beyaz alan ve 10 bin metrekaresi kabin olmak üzere toplam 50 bin metrekare büyüklüğünde veri merkezi alanı olduğu öngörülüyor. 40 bin metrekare alanın yaklaşık 30 bin metrekaresi ise 3-4 büyük veri merkezi işletmecisine ait olduğunu varsayabiliriz.
İşe yarayacak verinin ayırt edilmesi
Veri evreni büyümeye devam ettikçe, işletmeler için her geçen gün daha değerli bir varlık haline geliyor. 2006 yılında İngiliz matematikçi Clive Humby, verinin sahip olduğu potansiyel hakkında “veri yeni petroldür” ifadesini ortaya attı. Ancak, ne petrol ne de veri ham haliyle değerli değil. Veriden elde edilmek istenen değer; hızlı, eksiksiz, doğru bir şekilde veri toplandığında ve ilgili diğer verilerle ilişkilendirildiğinde elde edilir. Dijital dünyada üretilen toplam veri katlanarak artıyor. Bazı rakamlar günde yaklaşık 2,5 kentilyon bayt veri oluşturduğumuzu gösteriyor. Başka bir deyişle, veriler, iş dünyası liderlerinin ve onu kullanmaya istekli kişilerin erişimine son derece hazır. Asıl endişe verici olan konu; bu kadar çok veri üretildiği için hangi verinin işimize yarayacağını veya hangi verinin bize fayda sağlamayacağını ayırt etme noktası.
İşletmelerin izleyeceği veri yönetimi süreç ve yöntemleri
Veri yönetimi anlayışı genel olarak bir kuruluşun verilerinin maksimum ve optimum kullanımını sağlamaya yardımcı olabilecek ilkeleri, kuralları, stratejileri ve metodolojileri benimseme uygulamasının bütünüdür. Veri yönetimi kavramları ve ilkeleri, bir kuruluştaki çeşitli veri süreçlerine odaklandıklarından oldukça geniş ölçekli olarak ele alınmalı. Veri yönetimi temel olarak birbirinden bağımsız 4 alt başlığın bir araya gelmesi ile bir bütünü temsil eder.
1-VERİ YAKALAMA ve ENTEGRASYON: Gerekli verilerin tüm amaçlarla kullanılabilmesi için yakalanmasını, entegre edilmesini ve birleştirilmesini sağlar. Verilerin nasıl toplandığı ve analiz edildiği; bağlam, izlenmesi gereken konu, veri toplamanın amacı, kuruluşun niteliği ve büyüklüğü gibi birçok faktöre bağlı. Dikkate alınması gereken temel husus, toplanan bilgilerin kurallara, bilgi edinme özgürlüğü ve gizliliğin korunması mevzuatına uygun bir şekilde yapıldığından emin olmak. Etkinlik ve verimlilik adına, konulara veya fırsatlara ışık tutacak verilerin toplanmasına yönelik çalışmalar yapılması kritik. Yeni oluşan verilerin kontrol edilebilmesi için işletmelerin uygulaması gereken veri yakalama ve konumlandırma adımları sırasıyla aşağıdaki gibi:
1.ADIM: Veri toplamaya ilişkin sorunlar veya fırsatlar belirlenmeli.
2.ADIM: Sorunları veya fırsatları seçerek hedefl ere odaklanılmalı.
3.ADIM: Veri entegrasyonu yaklaşımı ve yöntemleri planlanmalı. Yapılan veri entegrasyonu planı uyarınca işletmeler aşağıdaki sorulara cevap verebilir olmalılar:
* Veriler hangi amaç için toplanacak?
* Veriler hangi kullanıcı veya gruplara hizmet sağlayacak? XVeriler hangi konumlardan veya coğrafi bölgelerden toplanacak?
* Veri sorumlularını tanımlamak için hangi kategoriler veya yöntemler kullanılacak? XVeriler nasıl toplanmalı?
* Bilgi toplamak için hangi veri kaynakları kullanılmalıdır?
* Veriler ne kadar süreyle toplanacak, veri toplamanın kapsamı ne olacak?
4. ADIM: Hazırlanan veri entegrasyonu planına uygun olarak veriler toplanmalı.
5. ADIM: Veriler analiz edilerek, eksiksiz tam ve güvenilir şekilde sürecin tamamlandığı teyit edilmeli.
2-VERİ DEPOLAMA: Verilerin ihtiyaç duyulan her yerde (şirket içi depolama, genel veya özel bulut ya da hibrit kurulum) ortam ve format bağımsız olarak güvenli bir şekilde depolanması sağlanmalı. Günümüzde veri depolama maliyetlerinin artması, veri depolama kaynak sayısındaki artış, veri depolamada yaşanan yönetim süreçlerindeki ek iş yükleri ve olası felaket durumlarında yaşanan sıkıntılar sebebiyle otoriteler mevzuat gereği bir kısıtlama olmadığı sürece, bulut ortamlarda depolama yöntemlerinin kullanılmasını şiddetle tavsiye etmekte. 2022 yılında bulut altyapı hizmetlerine yönelik kurumsal harcamalar, bir önceki yıla göre 47 milyar dolar artışla 225 milyar dolar olarak gerçekleşti. Bulut altyapı hizmetlerine yönelik büyüyen pazar, kuruluşların modern ağ oluşturma, depolama ve veri tabanı çözümlerine olan talebiyle şekilleniyor. Analitik, veritabanı ve nesnelerin internetini (IoT) içeren hizmet olarak platform (PaaS) yöntemi, bulut altyapı hizmetleri pazarında en yüksek büyüme oranına sahip. Veri depolama için bulut teknolojileri kullanımının sağlayacağı önemli avantajlara değinmek gerekirse:
ÇEVİKLİK ve ESNEKLİK: Geliştirme ekipleri, DevOps, DataOps ve MLOps araçlarından oluşan çevik bir işletim modeli aracılığıyla üretkenliği yaklaşık yüzde 30 artırabilir. Bu teklifl er bulut platformlarında kolayca mevcut ve kuruluşların verilerinden değer üretmesine yardımcı olabilir. Bulut hizmeti sağlamanın esnekliği, kuruluşların çeşitli kullanım senaryolarına hizmet edecek modüler bir veri mimarisi oluşturmasına olanak tanır.
YENİLİK: Yenilikçi analitiklerin geliştirilmesini ve devreye alınmasını hızlandırmak (örneğin, yapay zeka çözümleri için kolayca bulunabilen otomatik işlem hatları ve geliştirme modellerini kullanarak) gelirleri yüzde 20’ye kadar artırabilir. Ayrıca entegre bulut hizmetlerinin daha hızlı inovasyon döngüleri, kuruluşların altyapı, platform ve yapay zeka genelindeki teknolojik trendler ve gelişmelerden haberdar olmasına yardımcı olur.
ETKİLİLİK ve ESNEKLİK: Kuruluşlar, altyapı yönetimini ve izlemeyi otomatikleştirerek sağlanan bilgi işlem kaynaklarını, gerekli iş yüküne dinamik olarak uyarlayarak altyapı maliyetlerini yüzde 20’ye kadar azaltabilir.
DAYANIKLILIK, GÜVENİLİRLİK ve UYUMLULUK: Bulut sağlayıcıları, tek bir bulut bölgesindeki çeşitli kullanılabilirlik bölgeleri aracılığıyla iş sürekliliği ve olağanüstü durum kurtarma çözümleri sunar; bu da kesinti süresini yüzde 30’a kadar azaltabilir. Ayrıca kuruluşlar, uygulamalar için sunucusuz bilgi işlemden yararlanarak mevzuat uyumluluğunu CSP’lere aktarabilir.
3-VERİ KALİTESİ YÖNETİMİ: Verilerin sürekli olarak hatalara yönelik profilinin çıkarılmasını, veri kalitesi kontrolü ve düzeltilmesi için bir veri hattı üzerinden çalıştırılmasını sağlar. Kuruluşların her zaman doğru ve yararlı veriler kullandıklarından emin olmak için veri kalitesini iyileştirmeleri gerekir. Experian’ın 2021 Küresel Veri Yönetimi Araştırması Raporu’na göre işletmeler, verilerin kalitesiz olduğundan şikayetçi, işletme yöneticilerinin verdiği cevaplara göre kalitesiz verinin sebep olduğu başlıca problemler şu şekilde:
* Kalitesiz veriler kaynakları israf eder ve maliyetleri artırır (yüzde 40)
* Güvenilir olmayan istikrarsız veriler analitik süreçlere zarar verir (yüzde 36)
* İtibarı ve müşteri güvenini olumsuz etkiler (yüzde 32)
* Müşteri deneyimini olumsuz etkiler (yüzde 32)
* Dijital dönüşümü yavaşlatır ve önemli iş girişimlerini engeller (yüzde 31) Veri kalitesinin iyileştirilmesi bu sorunları çözer, daha güvenilir analizler, verimli operasyonlar ve daha düşük maliyetler dahil olmak üzere birçok önemli fayda sağlar. Bu nedenle Gartner, 2022’de kuruluşların yüzde 70’inin veri kalitesini izlemek için yeni teknoloji ürünü, gelişmiş veri kalitesi ölçüm teknikleri kullanacağını ve bunu yaparak kaliteyi yüzde 60 oranında iyileştireceğini öngörüyor. Veri ve analitik liderleri, kuruluşlarının dijital dönüşümünü hızlandırmak istiyorlarsa kurumsal veri kalitesini iyileştirmek için pragmatik ve hedefe yönelik eylemler gerçekleştirmeli. Düşük veri kalitesi her yıl kuruluşlara ortalama 12,9 milyon dolara mal oluyor. Gelir üzerindeki anlık etkisinin yanı sıra, uzun vadede düşük kaliteli veriler, veri ekosistemlerinin karmaşıklığını artırır ve kötü karar alınmasına yol açar. İşletmeler iş kararlarını yönlendirmeye yardımcı olmak için veri analitiğini giderek daha fazla kullandıkça, kurumsal sistemlerde veri kalitesine (DQ) verilen önem arttı. Gartner’a göre işletmelerin sahip oldukları veriyi daha kaliteli hale getirebilmek için sırasıyla alması gereken aksiyonlar ise şu şekilde:
1- İyileştirilmiş veri kalitesinin iş kararlarını nasıl etkilediği belirlenmeli.
2- “Yeterince iyi” veri standardının ne olduğu işletme özelinde tanımlanmalı.
3- Organizasyon genelinde bir veri kalitesi standardı oluşturulmalı.
4- Ana veriler gibi kritik veri varlıklarını izlemek için veri kalitesi gösterge tabloları tasarlanmalı.
5- Gerçeğe dayalı anlamsal modelden güvene dayalı anlamsal modele geçilmeli.
6- Veri ve analitik kurulu toplantılarına veri kalitesi gündem maddesi olarak eklenmeli.
7- Veri sorumlusu rolünün bir parçası olarak veri kalitesi sorumlulukları ve çalışma prosedürleri belirlenmeli.
8- Sürüm yönetimi “aşamalı yaygınlaştırma” olacak şekilde bir standart izlemeli.
9- Satıcılar, hizmet sağlayıcılar ve diğer yerleşik forumlardaki kullanıcı grupları gibi sektördeki benzer gruplardan yararlanılmalı.
4-VERİ KULLANILABİLİRLİĞİ: İnsanların ihtiyaç duydukları anda verilere erişebilmesi, yedekleme ve olağanüstü durum kurtarma planlarına sahip olmasını sağlar. İşletmeniz kritik görev verilerine erişimi kaybederse ne olur? Gerekli veriler mevcut olmadığında BT operasyonları etkin bir şekilde durma noktasına gelir. Sık kesinti yaşayan işletmeler, seyrek kesinti yaşayan işletmelere göre 16 kat daha yüksek maliyetlerle karşı karşıya kalıyor. Doğrudan ve finansal maliyetten daha da önemlisi, işletmenin itibarının ve müşterilerinin güveninin kaybedilmesi. Bu nedenle yüksek düzeyde veri kullanılabilirliğini sürdürmek, işletme başarısının devamı açısından çok önemli.
KESİNTİLERİN MALİYETİ BÜYÜK
Araştırmalar, veri merkezi kesintilerinin maliyetinin dakika başına neredeyse 8 bin dolar kadar olduğuna işaret ediyor. Veri merkezi kesinti olaylarının yüzde 70’nin maliyeti ortalama 100.000 dolar civarında sonuçlanıyor, yüzde 25’nin maliyeti ise 1 milyon dolardan fazla.