The Age Of Analytics / Analitik Çağı


7 days agoSteemit11 min read


The amount of data that are produced in the world is growing like an avalanche. The amount of digital data produced in the last two years is estimated to be higher than the total amount of data that humanity has produced before. Unit costs for data storage, processing and transfer are rapidly decreasing. 5 years later, by paying the same amount of money today, we will buy computers that can do 10 times more process in same unit time. 10 years later, the same money will be paid to buy computers with a processing capacity of 100 times higher than today. Experts can make such clear predictions due to the fact that the skills related to information technology have been developing in a exponential trend for over 40 years. The rapid development of Information technology capabilities resulted in a rapid rise in economic value from data. With the expansion of computers and mobile devices, individuals produce more data. In addition to data generated by people, data generated by machines, cameras and sensors has also contributed to the enormous volume of data needed to be analyzed.

Big Data

In recent years, the concept of Big Data became very popular. Big data means data that does not fit on computers, which is difficult to store and process. Data needs to be analyzed in order to obtain value. As the volume of the data grows, it becomes difficult to analyze. Big data is large in size and it has a variety of formats. In recent years, a wide range of data types, such as audio, video, free text have become subject to analysis. Computers began to understand the natural speech language partially. People in the data business have a habit of working in table format, rows and columns, with data sets containing letters and numbers. The processing of the data in this format is relatively easy, and the table structure provides efficiency in data processing. In recent years, in addition to the data in table format, new types of data such as text, sound, image, etc.have been analyzed. Another defining feature of large data is the speed. It takes technologically additional skill to get instant access to fast-flowing data and perform analyses or take action on it. In addition to the volume, variety, veracity dimensions for big data, the fourth dimension can be expressed as the value. The analysis of big data should create economic value.

Data Monatization

Data monetization is the ability to generate revenue from available data sources through discovery, storage, analysis, publishing or use. In other words, the process by which data manufacturers, data integrators and data consumers buy and sell or exchange data is called data monetization.

The process of data monetization occurs in five stages.

  • Determining internal and external data sources.
  • Data is organized, merged, checked and updated, methods are determined to ensure continuity.
  • Rules for how data is processed, stored, and accessed
  • Data manupilation is performed on the data and insights are obtained.
  • Using the insight from the data, action is taken and value is produced.

Data monetization can generate revenue directly or indirectly. Methods of making direct money from data;

  • Clearing or trading in the market using data,
  • Develop data-driven products or services,
  • Selling raw data through intermediaries,
  • Convert the data into a report or dashboord and market it within the subscription logic

It is unethical to sell customer data to another institution for any purpose whatsoever without the consent of the customers. In addition, such a behavior is contrary to the laws of protection of personal data that is valid in many countries.

Besides direct method a large number of non- direct data monetization methods re available. Business and customer analytics processes lead to a valuable action creates revenue or saves costs.



In recent years, analytics has been used much more in all areas of life, at least I think so. "If you have a hammer you tend to see every problem as nail." It may be due to perception selectivity. Analytics is a strange word, very similar to the word analysis. Analysis can be defined as dividing a whole into parts and working on each piece and trying to understand the relationships between the pieces. Analysis refers to a process in this regard.

Analytics is a business discipline that involves making predictions in addition to the analysis process and sharing the results with interested parties. New generation executives want to make decisions based on data. Everybody knows that those who decide according to the data get better results. There's a famous quote about analytics, "If you torture the data long enough, it will confess." Of course, I don't mean this kind of use of analytics.

Maturity Stages Of Analytics

Analytic has evolved gradually over time. Since I have been working on the topic for a long time, I have had the opportunity to experience all stages of development. The types and maturity stages of analytics can be summarized as follows:

Analytics TypeMethodExampleDifficultyRelated Question
SummaryQuery & ReportPopulation By CitiesNormalWhat Happened?
InsightData MiningFactors Affecting Population GrowthDifficultWhat Caused?
PredictionMachine LearningPopulation Growth ForecastingDifficultWhat Will Happen?
OptimizayonArtificial IntelligenceOptimum Population GrowthVery DifficultWhat Should Be?

Lots of people talking about artificial intelligence these days. However, artificial intelligence represents only a fraction of the value that can be created through analytics. If we compare analytical discipline to logistics sector, artificial intelligence is like a space shuttle. It is difficult to build and it is costly, on the other hand, it is likely to move us to new horizons. If we continue through the same analogy, we can compare data mining and machine learning with planes. They are very useful vehicles, they are widely used, and they produce a great deal of value. We can compare traditional reports to cars. These vehicles, which are at hand at any moment, are creating the greatest value.

Tools and Programs Used

Excel is the legendary tool of analytics passed from generation to generation. It is easy to use and it is widely known. Python has become the basic programming language of analytics in recent years. Analytic models of machine learning and artificial intelligence libraries are largely Python-based. Other programmin languages used in analytics is R and Java.

All the articles I wrote about artificial intelligence are listed below.

What Is Artificial Intelligence?
Can Artificial Intelligence Take Over The World?
Will Artificial Intelligence Unite The Nations?
Can Artificial Intelligence Be Creavite?

Thanks for reading.

Image Sources: and

page break.PNG

Analitik Çağı

Dünyada üretilen veri miktarı çığ gibi büyüyor. Son iki yılda üretilen dijital veri miktarının insanlığın daha öncesinde ürettiği toplam veri miktarından yüksek olduğu tahmin ediliyor. Veri depolama, işleme ve aktarımına ilişkin birim maliyetler ise hızla azalıyor. 5 yıl sonra bugünküyle aynı para ödenerek birim zamanda 10 kat fazla işlem yapabilen bilgisayarlar alınabilecek. 10 yıl sonra ise yine aynı para ödenerek bugünkünden 100 kat daha yüksek kapasiteli bilgisayarlar satın almak mümkün olacak. Konunun uzmanlarının böylesine net tahminler yapabilmesi, bilgi teknolojilerine ilişkin yeteneklerin 40 yılı aşkın süredir üstel bir trendde ve istikrarlı biçimde gelişmesi sayesinde oluyor. Bilgi teknolojisi yeteneklerinin hızlı gelişimi veriden elde edilen ekonomik değerin de hızla yükselmesi sonucunu doğurdu. Bilgisayarların ucuzlayıp yaygınlaşması ile bireyler daha fazla veri üretiyorlar. Cep telefonları ve bilgisayarlar üzerinde insanların oluşturduğu verilerin yanı sıra, makinaların ve sensörlerin oluşturduğu veriler de analiz edilmesine ihtiyaç duyulan veri hacminin inanılmaz boyutlarına ulaşmasına katkı sağladı.

Büyük Veri

Son yıllarda büyük veri kavramı çok popüler oldu. Büyük veri ile bilgisayarlara sığmayan, hem depolanması, hem de işlenmesi zor olan veriler kastediliyor. Üretilen verilerden değer elde edilmesi için bu verilerin analiz edilmesi gerekiyor. Verinin ölçeği büyüdükçe verileri analiz etmek zorlaşıyor. Büyük veri verilerin hacim anlamında büyük olmasının yanı sıra format olarak çeşitli olmasını da ifade ediyor. Yapılandırılmamış olarak isimlendirebilecek ses, görüntü, video gibi çok çeşitli veri türleri son yıllarda analize konu olmaya başladı. Yapılandırılmamış olarak isimlendirilen veriler arasında web ve e-posta içerikleri gibi metin verileri de bulunuyor. Bilgisayarlar doğal konuşma dilini kısmen anlamaya başladı. Veri işindeki insanların tablo formatında, satırlar ve sütunlardan oluşan, içinde harfler ve rakamların bulunduğu veri setleri üzerinden çalışmak konusunda bir alışkanlığı bulunuyor. Bu formattaki verilerin işlenmesi görece kolay, tablo yapısı veri işlemede etkinlik sağlıyor. Son yıllarda tablo formatındaki verilerin yanı sıra metin, ses, görüntü vb yeni tür veriler analiz edilmeye başlandı. Büyük verinin bir diğer belirleyici özelliği hızı. Hızla akan veriye anında erişip üzerinden analiz gerçekleştirmek veya aksiyon alabilmek teknolojik olarak ilave beceri gerektiriyor. Büyük veriye ilişkin hacim, çeşitlilik, hız boyutlarının yanı sıra dördüncü boyut olarak ise değeri ifade edebiliriz. Büyük verinin analizi sonucu ekonomik değer yaratabilecek bir faydanın ortaya çıkarılması gerekiyor.

Verinin Parasallaştırılması

Verinin parasallaştırılması eldeki veri kaynaklarından keşif, depolama, analiz, yayınlama ya da kullanma yoluyla gelir elde edilmesidir. Diğer bir deyişle, veri üreticilerinin, veri birleştiricilerinin ve veri tüketicilerinin veriyi alıp sattıkları ya da takas ettikleri süreç veri parasallaştırma olarak isimlendiriliyor.

Verinin parasallaştırılması süreci beş aşamada oluşuyor.

  • İç ve dış veri kaynakları belirleniyor.
  • Veriler düzenleniyor, birleştiriliyor, kontrol ediliyor ve süreklilik sağlamak için güncelleme metodları belirleniyor.
  • Verinin nasıl işleneceğine, depolanacağına ve veriye nasıl erişileceğine dair kurallar belirleniyor.
  • Veri üzerinde analitik dönüşümler gerçekleştirilerek içgörüler elde ediliyor.
  • Veriden elde edilen içgörü kullanılarak aksiyon alınıyor ve değer üretiliyor.

Verinin parasallaştırılmasına ilişkin süreçler doğrudan ya da doğrudan olmayan biçimlerde gelir yaratabiliyor. Veriden doğrudan para kazanma yöntemleri arasında;

  • Veriyi kullanarak piyasada takas ya da ticaret yapmak,
  • Veriyle desteklenen ürün ya da hizmetler geliştirmek,
  • Ham veriyi aracılar üzerinden satmak,
  • Veriyi rapor ya da dashboord haline getirip abonelik mantığı içinde pazarlamak

Hangi amaçla alınmış olursa olsun müşteri verilerinin müşterilerin açık rızası olmadan bir başka kuruma satılması etik olmayan bir davranıştır. Ayrıca böylesi bir davranış pek çok ülkede geçerli olan kişisel verileri koruma kanunlarına da aykırıdır.

Doğrudan yöntemlerin yanı sıra çok sayıda doğrudan olmayan veri parasallaştırma yöntemi bulunmaktadır. Bütün iş ve müşteri analitiği süreçleri, değerli bir aksiyona yol açmaları halinde gelir yaratmakta ya da maliyet tasarrufu sağlamaktadır.


Son yıllarda analitik hayatın her alanında çok daha fazla kullanılır oldu. "Elinde çekiç olan her şeyi çivi sanır" derler, bu sonuca ulamamda algıda seçiciliğin etkisi de olabilir. Analitik tuhaf bir sözcük, analiz sözcüğüne çok benziyor. Analiz bir bütünü parçalarına ayırıp her bir parça üzerinde çalışmak ve parçalar arasındaki ilişkileri anlamaya çalışmak olarak tanımlanabilir. Analiz bu yönüyle bir süreci ifade ediyor. Analitik ise analiz sürecine ek olarak tahminler yapılması ve sonuçların ilgililerle de paylaşılmasını içeren bir iş disiplini. Yeni nesil yöneticiler kararlarını veriye dayalı olarak almak istiyorlar. Çünkü işlerini bu biçimde yürütenlerin daha iyi sonuçlar aldığını görüyorlar. Analitik hakkında ünlü bir söz vardır, "Verilere yeterince işkence edersen duymak istediğin şeyi itiraf eder" denir. Analizin sonuçları iyileştirmesinden elbette bu türden bir kullanımı anlamıyorum.

Analitiğin Olgunluk Aşamaları

Analitik zaman içinde aşamalı olarak gelişti. Uzunca bir süredir bu konu üzerinde çalıştığım için bu gelişim aşamalarının tümünü deneyimleme olanağı buldum. Analitiğin türleri ve gelişim aşamaları aşağıdaki tablodaki gibi özetlenebilir.

Analiz TürüAnaliz YöntemiÖrnekZorluk Derecesiİlgili Soru
ÖzetlemeSorgu&Raporİller Bazında NüfusNormalNe Oldu?
İçgörü Elde EtmeVeri MadenciliğiNüfus Artışını Etkileyen FaktörlerZorNeden Oldu?
TahminMakine ÖğrenmesiNüfus Artışı TahminiZorNe Olacak?
OptimizayonYapay ZekaOptimum Nüfus ArtışıÇok ZorNe Olmalı?

Bugünlerde herkes yapay zekadan söz ediyor. Oysa yapay zeka analitik aracılığıyla yaratılabilecek değerin sadece bir kısmını temsil ediyor. Analitik disiplinini genel anlamda ulaştırmaya benzetecek olursak, yapay zekayı bir uzay mekiğine benzetebiliriz. İnşa etmesi güç ve maliyetli, öte taraftan bizi yeni ufuklara taşıma olasılığı yüksek. Aynı benzetme üzerinden devam edersek veri madenciliği ve makine öğrenmesini uçaklara benzetebiliriz. Çok kullanışlı aletler, kullanımları yaygın, üstelik çok büyük değer üretiyor. Geleneksel raporları ise otomobillere benzetebiliriz. Her an elimizin altında olan bu taşıtlar en büyük değeri yaratıyorlar.

Kullanılan Araç ve Programlar

Analitiğin nesilden nesile aktarılan efsanevi aracı Excel. Kullanım kolaylığı ve yaygın olarak bilinmesi Excel'in en önemli avantajları. Python son yıllarda analitiğin temel programlama dili haline geldi. İşler büyük ölçüde Python temelli olarak kullanılan makine öğrenmesi ve yapay zeka kütüphaneleri üzerinden yürüyor. Analitik konusunda kullanılan diğer programlara dilleri R ve Java.

Okuduğunuz için teşekkür ederim.


Sort byBest