Veri Merkezlerinin Kısa Ama Yoğun Tarihi

Veri merkezlerinin hikayesi aslında insanın “bilgiyi istifleme” arzusunun dijitalleşmesidir. 1940’larda ENIAC gibi ilk bilgisayarlar ortaya çıktığında, “veri merkezi” kavramı yoktu; çünkü bilgisayarın kendisi bir binaydı. Binlerce vakum tüpüyle çalışan bu devler, çalıştıkları odayı fırına çevirir, sürekli arıza yapar ve bakımı için onlarca teknisyen gerektirirdi. O zamanlar bir veri merkezi kurmak, aslında bir elektrik santralinin yanına devasa bir radyatör inşa etmek gibiydi.

1970’lere gelindiğinde IBM’in ana bilgisayarları (mainframes) ile işler biraz daha derli toplu hale geldi. Artık bilgisayarlar “odalaşmıştı”. Şirketler, değerli verilerini saklamak için soğutmalı, özel yetkilendirilmiş personelin girebildiği cam bölmeler inşa etmeye başladı. 1990’lardaki internet patlaması ise bu işi bir gayrimenkul işine dönüştürdü. Artık her şirketin kendi sunucusuna bakacak vakti yoktu; “co-location” dediğimiz, herkesin kendi bilgisayarını kiralık bir rafa koyduğu devasa “sunucu otelleri” doğdu. 2010’lu yıllarda bulut bilişimle (AWS, Google Cloud) bu iş tamamen endüstriyel bir boyuta evrildi. Bugün, 2026 yılında ise artık veri değil, “zeka” merkezlerini konuşuyoruz. Eskiden sadece veri depolayan bu yapılar, şimdi trilyonlarca parametrelik yapay zeka modellerini eğitmek için devasa birer beyin gibi çalışıyor.

Metrekare Yalanı: Büyüklük Nasıl Ölçülür?

Bir veri merkezinin büyüklüğünü anlamak için metrekareye bakmak en büyük yanılgıdır. İçeride on binlerce metrekare boş alan olabilir ama bu orayı “büyük” yapmaz. Modern dünyada veri merkezinin büyüklüğü MW (Megawatt) yani tükettiği elektrik kapasitesiyle ölçülür. Bir veri merkezi projesi çizilirken “kaç metrekare?” sorusundan önce “kaç megawattlık trafo kapasitemiz var?” sorusu sorulur.

Bunun sebebi içerideki çiplerin, yani GPU’ların (Grafik İşlem Birimi) açlığıdır. Standart bir web sunucusu bir ampul kadar enerji harcarken, modern bir AI çipi (örneğin NVIDIA’nın son nesil Blackwell üniteleri) tek başına bir evin günlük ihtiyacına yakın enerji çekebilir. Dolayısıyla 20 MW’lık bir merkez, orta ölçekli bir kentin tüm enerji yükünü tek bir binaya sığdırmak demektir. Hesaplama gücü ise “FLOPS” (saniyedeki kayan nokta işlemi) ile ölçülür. Yani bugün bir merkezin büyüklüğü; ne kadar elektrik yediği ve bu elektrikle saniyede kaç katrilyon işlem yapabildiği arasındaki verimlilik dengesidir. Buna da PUE (Power Usage Effectiveness) denir; yani merkeze giren toplam enerjinin ne kadarının soğutmaya gitmeden direkt işleme (çiplere) ulaştığıdır.

Görünmez Kaleler: Güvenlik ve En Büyük Düşman

Veri merkezleri, modern dünyanın nükleer sığınaklarıdır. Fiziksel güvenlik, James Bond filmlerini aratmaz. “Man-trap” denilen, iki kapılı ve ağırlık sensörlü geçişler sayesinde içeriye aynı anda iki kişinin girmesi imkansızdır. Damar izi okuyucular, biyometrik tarayıcılar ve her santimi izleyen yapay zekalı kameralar standarttır. Ancak bir veri merkezinin en büyük düşmanı ne bir casus ne de bir hacker’dır; en büyük düşman ISI’dır.

Çipler çalışırken elektriği doğrudan ısıya dönüştürür. Eğer soğutma sistemi (chiller üniteleri) sadece 15-20 saniye durursa, oda sıcaklığı cihazların kendi kendini yakacağı seviyelere çıkar. Bir diğer sinsi düşman ise nemdir. Çok kuru hava statik elektrik çarpmasına sebep olup anakartları yakar; çok nemli hava ise korozyon yaparak devreleri çürütür. Yangın güvenliği ise ayrı bir sanattır. Su, sunucuların can düşmanı olduğu için yangın anında tavanlardan su değil, oksijeni değil ama ısıyı emen özel kimyasal gazlar (FM-200 gibi) püskürtülür. Bu gazlar insanı boğmaz ama ateşi saniyeler içinde söndürür.

Dünyayı Isıtan Bulut: Kirlilik ve Isı Üretimi

“Bulut” (Cloud) kelimesi kulağa çok hafif ve temiz geliyor, ancak gerçek tam tersi; veri merkezleri ağır sanayidir. Bugün dünyadaki toplam elektrik tüketiminin yaklaşık %2’si veri merkezlerinden geliyor ve bu oran yapay zeka ile hızla artıyor. Ortalama bir veri merkezi, devasa bir rezistans gibi çalışır. İçeri giren her Watt enerji, sonunda ısı olarak dışarı atılır.

Bu merkezler sadece atmosferi ısıtmakla kalmaz, aynı zamanda korkunç bir su tüketicisidir. Soğutma kulelerinde sistemleri serin tutmak için her gün milyonlarca litre su buharlaştırılır. 2026 itibarıyla en büyük etik tartışma burada kopuyor: Bir yapay zeka modelini eğitmek için binlerce ailenin bir yıllık su ihtiyacını harcamak doğru mu? Bu yüzden artık dev teknoloji şirketleri, “atık ısıyı” çöpe atmak yerine o ısıyı yakındaki şehirlere borularla gönderip evleri ısıtmak veya dev seralarda tarım yapmak gibi projeler geliştiriyor.

Coğrafi Satranç: Nereye Kurmalı?

Bir veri merkezini nereye kuracağınız, onun kaderini belirler. Eskiden “internet fiber kablosuna yakın olsun yeter” denirdi; şimdi ise denklem çok daha karmaşık. İki ana akım var:

  1. Soğuk ve Ücra (Core Data Centers): Yapay zeka eğitimi gibi gecikmenin (latans) çok kritik olmadığı işler için Kuzey Kutbu’na yakın yerler seçilir. Norveç, İzlanda veya İsveç… Neden? Çünkü dışarısı zaten -10 derece. Klimaya para ödemek yerine dışarıdaki havayı bir fanla içeri çekersiniz, buna “Free Cooling” denir. Enerji maliyeti bedavaya yakın olur.
  2. Şehrin Kalbinde (Edge Data Centers): Eğer otonom sürüş, borsa işlemleri veya online oyun gibi saniyelerin binde birinin önemli olduğu bir iş yapıyorsanız, merkezi dağa kuramazsınız. Veri ışık hızıyla gitse de, her kilometre gecikme demektir. Bu yüzden New York’un, İstanbul’un veya Londra’nın göbeğinde, yerin altında veya eski fabrikaların içinde küçük ama çok güçlü “uç” (edge) veri merkezleri bulunur.

Özetle: Veri merkezi artık sadece bir altyapı değil, bir ülkenin “dijital toprak bütünlüğü”dür. Eğer kendi verini işleyecek merkezin ve onu besleyecek enerjin yoksa, dijital dünyada kiracısın demektir.

Exit mobile version