Big Data ( Büyük Veri ) Nedir ?

0

Big Data kavramı, hacimi ve karmaşıklığı ile kolay yönetilemeyen ve kolay analiz edilemeyen çok büyük miktarda veriye işaret eder. Temelinde Big Data toplanan verinin hacimini, verinin organizasyonlar için işlenebilir ve analiz edilebilir olma hızı, ve verinin karışıklığını(çeşitliliğini) içerir . 

Big Data (Büyük Veri) aslında ne kadar büyük ?

Forbes’e göre her gün yaklaşık 2.5 kentilyon bayt veri üretiliyor. (2.5 yazıp arkasına 17 tane 0 koyarsanız bu rakama erişebilirsiniz.) Büyük veri çok büyük olduğu için, bu veriyi tanımlamaya yeni bir terminoloji geliştirmek gerekli hale geldi. Big data petabytelar (1 milyon gigabayttan daha fazla) ve exabytelardan (1 milyar gigabytetan daha fazla) oluşur. Gigabyte kavramı genelde kişisel kullanım için uygundur.

big data görsel

Büyük Veri ortaya çıktığında, bilgisayar modelleri de onları işleyebilme kapasitesine sahipti. Merkezi veya dağıtılmış bilgi işlem sistemleri, büyük veriye erişim sağlar. Merkezi Bilgi işlemin anlamı verinin merkezi bir bilgisayarda depolanmasıdır ve bu veriler BigQuery, Snowflake, Azure, veya AWS gibi programlarda işlenir. Dağıtılmış bilgisayar sistemlerinde ise veriler farklı farklı bilgisayarlarda depolanır ve işlenir. 

Merkezi Bilgisayar sistemi’ni kullanmanın bazı avantajları vardır. Veriyi işlemek için onun çıktısını almak zorunda kalmaz ve merkezi sistem üzerinden işleyebilirsiniz. Çıkan verilere şirketinizdeki herkes erişebilir (ve günlük iş akışına dahil edilir) eğer sistem tek merkezden kurulmuşsa. 

Büyük verinin özellikleri

Big data, normal veriden hacim karmaşıklığı ve işlenmek için profesyonel programlar kullanılması gerektiği için farklılaşır.  Büyük verileri tanımlayan nitelikler hacim, çeşitlilik, hız ve değişkenliktir. (genellikle dört v olarak adlandırılır) İngilizcesi volume, variety, velocity, ve variability’dir.

Hacim 

Büyük verilerin temel özelliği, ölçeği, işletmeniz tarafından çeşitli cihazlardan ve kaynaklardan toplanabilecek olan veri hacmidir. Bu verinin sayısal değeridir

Çeşitlilik 

Çeşitlilik, e-posta mesajları, ses dosyaları, videolar, sensör verileri vb. gibi verilerin biçimleri ifade eder. Büyük veri çeşitliliğinin sınıflandırılması; yapılandırılmış, yarı yapılandırılmış ve yapılandırılmamış verileri içerir.

  • Yapılandırılmış veriler genellikle, tanımlanmasını kolaylaştıran bir yapıya veya modele uyan verilere karşılık gelir. Yapılandırılmış verilere örnek olarak tablolar(bilgisayar) veya müşteri adresleri listesi verilebilir.
  • Yarı yapılandırılmış veriler, tanımlanmış bir veri modeline uymaz, ancak verilerin veri düzenini ve aramayı kolaylaştıran anlamsal etiketleri vardır. Yarı yapılandırılmış verilere örnek olarak HTML kodu verilebilir.
  • Yapılandırılmamış veriler, önceden tanımlanmış bir model tarafından düzenlenmeyen verilerdir. Yapılandırılmamış verilere örnek olarak e-postalar ve uydu görüntüleri verilebilir.
big data - analytics - decisions

Hız

Big Data’nın hızı, büyük veri kümelerinin edinilme, işlenme ve bunlara erişilme hızını ifade eder.

Değişkenliği 

Büyük veri değişkenliği, verilerin anlamının sürekli olarak değiştiği anlamına gelir. Bu nedenle, büyük veriler analiz edilmeden önce, veri kümelerinin bağlamı ve anlamı tam olarak anlaşılmalıdır.


Büyük Veri neden önemli ? 

Veriler bir şirketin en değerli varlığı olabilir. Analizleri ortaya çıkarmak için büyük verileri kullanmak, pazar koşullarından ve müşteri satın alma davranışlarından, iş süreçlerinize kadar, işinizi etkileyen alanları anlamanıza yardımcı olabilir. Bu çıktılar etkili karar alma mekanizmalarına yardımcı olur.

Cevap bırakın

E-posta hesabınız yayımlanmayacak.

Bu web sitesi deneyiminizi geliştirmek için çerezleri kullanır. Bununla iyi olduğunuzu varsayacağız, ancak isterseniz vazgeçebilirsiniz. Kabul ediyorumÇerez Politikası

Gizlilik ve Çerez Politikası