Depremler insanlık tarihi boyunca en çok can ve mal kaybına sebep olan doğal afetlerden birisi. Yıllardır depremle mücadele anlamında çeşitli çalışmalar gerçekleştiren bilim insanları deprem bölgesi haritaları çıkararak afet açısından riskli bölgeleri ortaya koymuş olsa da afetin ne zaman ve kaç şiddetinde gerçekleşeceğini net şekilde belirtmek ise oldukça zor. Bu problemi çözmek için çeşitli araştırmalarda bulunan Jeofizikçi Paul Johnson’ın ise geliştirdiği bir yöntemi var.

Jeofizikçi Paul Johnson

Johnson’ın ekibi, deprem fiziğini aydınlatmaya ve olması muhtemel depremlerin öncül işaretlerini tespit etmeye çalışan bir makine öğrenme yöntemi kullanıyor. Yaklaşık iki yıl önce başlayan çalışmada görüntü, ses tanıma ve diğer yapay zekâ formlarının süreçlerinde kullanılan algoritmalara benzer bir model geliştirilerek yaptıkları model laboratuvar deneylerinde, depremi doğru şekilde tahmin ettiler.

Asıl çarpıcı olan gelişme ise Johnson ve ekibinin Kuzeybatı Pasifik’teki yavaş kaymalı depremler üzerinde algoritmalarını test ettiklerini raporlaması oldu. Yapay ve laboratuvar ortamında olmayan ve kendiliğinden gelişen bir doğal afette denenen algoritma Johnson’a göre, yavaş kaymalı depremin başlangıcını birkaç gün içerisinde öngörebildi.
Rice Üniversitesi’nde deprem bilimci olan ve çalışmada yer almayan Maarten de Hoop, bunun gerçekten heyecan verici bir gelişme olduğunu söylerken ilk kez ilerleme kaydedildiğini belirtti. Stanford Üniversitesi’nde jeofizikçi olan Mostafa Mousavi ise sonuçları “heyecan verici ve motive edici” bulduğunu söyledi.

Johnson Konuya Uzun Yıllardır Emek Harcıyor

Jeofizikçi Paul Johnson, on yıldan uzun bir süre önce tanecikli materyalli ince katmanlar tarafından ayrılmış kayan bloklarla yapılmış “laboratuvar depremleri” üzerinde çalışmaya başlamış bir bilim insanı. Denemeler sırasında kayan bloklar tıpkı tektonik plakalardaki gibi bloklar gelişi güzel bir şekilde savrulurken bu işlem sonucunda zemindeki gerilme durumu yeterince büyüklüğe ulaştığı anda birden bloklar kaymaya ve ayrılmaya başlamışlar. Johnson laboratuvar ortamında gerçekleştirdiği deneyde ortaya çıkan bu kayma, gerilimi açığa çıkarıyor ve zemin blokları arasında birbirini tutma-bırakma döngüsünü yeniden başlatıyor. Bu da bizlerin hissettiği sarsıntılara neden oluyor.

Johnson ve meslektaşları, tutma-bırakma döngüsü sırasında yayılan akustik sinyali kaydederken her bırakma öncesinde keskin bir yükseliş olduğunu fark ettiler. Bu öncül işaret, deprem öncesi zeminde gerçekleşen öncü şoklar tarafından oluşturuluyordu. Ancak deprem bilimciler, bu öncü şokların asıl depremin ne zaman meydana geleceğine dair verebileceği ipuçlarını anlamlandırmakta zorlanıyorlardı. Johnson, “Bir tür çıkmaz sokaktaydık, ilerleyecek herhangi bir yol göremiyordum” diyerek bu durumdan bahsediyor.

Birkaç yıl önce katıldığı Los Alamos’taki bir toplantıda Johnson, arada kaldığı bu ikilemi bir grup teorisyene açıklaması sonrası teorisyenler, makine öğrenmesi kullanarak verileri yeniden analiz etmesini tavsiye ettiler ve ekip oluşturularak bir yol haritası oluşturdular. Buna göre denenen her deney sırasında yaklaşık beş dakikalık ses kayıtları alacaklardı ve zemin kesitlerini birçok küçük parçaya böleceklerdi.

Los Alamos New Mexico National Lab

Araştırmacılar “random forest” olarak bilinen bir makine öğrenme algoritmasını yıkımdan önce kalan zaman miktarıyla güçlü bir şekilde bağlı özelliklerin kombinasyonuna sistematik olarak bakmak için kullandılar. Daha sonra algoritma, sadece akustik emisyon özelliklerini baz alarak yıkım zamanını tahmin etmeye başladı.

Başarılı geçen testlerin ve analizlerin ardından Johnson, makine öğrenmenin gerçek depremleri tahmin edebileceğini göstermek için gerçek yıkımlarda denemesi gerekiyordu. Bunun içinse en uygun yer Kuzeybatı Pasifik’ti.

Algoritma Sayesinde Deprem Tahminlerinin Doğruluk Oranının Artması Bekleniyor

Johnson ve ekibi, tıpkı akustik kayıtlarda olduğu gibi sismik verileri de küçük parçalara bölerek, her parçayı istatistiksel özelliklerle karakterize etmeye çaba harcamışlar. Daha sonra eğitme verilerini makine öğrenme algoritmasıyla besleyerek süreci ilerletmişler.

Geliştirilen algoritma, 2007 ile 2013 arasında eğitildikten sonra her olaydan aylar öncesinde kayıt edilen verilere dayanarak 2013 ve 2018 arasında meydana gelen yavaş kayma tahminlerini yapabilmeye başlaştılarak tarama sürecine başlamış. Paul Johnson çalışma sürecinde en kilit özelliğin sismik enerji olduğunu belirtiyor.

Başlangıçta Cascadia tahminleri, laboratuvar depremlerindeki kadar doğru sonuç vermedi ancak algoritma tahminler yapmaya devam etti. Saha deneylerinde algoritma yalnızca 2013 ile 2018 arasında meydana gelen beş yavaş kaymadan bir tanesini kesin olarak tahmin edebilmişti. Yani %20’lik bir doğruluk oranına sahip. Ancak bu düşük oran depremlerin tahmin edilme zorluğu göz önüne alındığında oldukça ciddiye alınması gereken bir veri olarak göze çarpıyor.

Sürecin ilerleyen safhalarında deprem tahminlerinin doğruluk oranının arttırılması hedefleniyor. Bunun yönteminin ne olacağı sorularına cevap veren Los Alamos grubuna göre algoritmanın büyük depremleri öngörmesi için zaman içerisinde eğitilmesine gerek yok.

Yapılan son çalışmalara göre ufak depremlerden önceki sismik modeller, istatistiksel olarak büyüklerle oldukça benzerlik taşıyor. Bu sayede aslında ilk aşamada küçük depremleri öngörmesi için eğitilen bir bilgisayar, büyük depremleri tahmin etmek içinde yeterli olabilir.

Paylaş

Cevapla