Ozan ARSLAN

Transkript

Ozan ARSLAN
SİSMİK VERİ ANALİZİNDE YAPAY SİNİR AĞI TABANLI ANA BİLEŞENLER
ANALİZİ MODELİ
ARTIFICIAL NEURAL NETWORK BASED PRINCIPAL COMPONENT ANALYSIS
METHOD FOR SEISMIC DATA ANALYSIS
Ozan Arslan
Posta Adresi : KOÜ Veziroğlu Yerleşkesi, Mühendislik Fakültesi, KOCAELİ
E-posta : [email protected]
_________________________________________________________________________________
Anahtar Kelimeler: Sismik veri, yapay sinir ağı, öğrenme algoritması, ana bileşenler
ÖZ: Sismik veriler büyük boyutlara sahip hacimli veri gruplarıdır ve sismik yorumlamanın geliştirilmesi
için orijinal veri grubu içinde bulunan bilgilerin çoğunu elde etmek isteriz. Büyük boyutlu veriler
sözkonusu olduğunda çok değişkenli analiz tekniklerinin kullanılması gözlenen verilerin
değerlendirilmesinde daha basit ve kolay yorumlanabilir sonuçlar elde etmemizi sağlar. Ana Bileşenler
Analizi (ABA) yaygın olarak birçok uygulama alanında kullanılmaktadır (sismik veri kümelerine de
uygulanmaktadır). Ancak mevcut ABA yöntemleri yüksek boyutlu, gürültü (bozucu etki) ve kayıp
verilerin söz konusu olduğu durumlarda uygun olmayabilir. Parametrik olmayan yapısı ve gürültülü
verileri işleyebilme kapasitesi nedeniyle Yapay Sinir Ağları (YSA), istatistik analiz problemlerinin
çözümünde yeni bir seçenek olarak düşünülmektedir. Bu yüzden ABA yöntemi için bazı sinir ağı
algoritmaları önerilmiştir. Bu çalışmanın amacı sismik veri analizinde mevcut ABA yönteminin
geliştirilmesi amacıyla YSA kullanan etkin bir veri analiz yöntemi önermek ve bu yöntemi mevcut
algoritmalarla karşılaştırmaktır.
ABSTRACT Seismic data always have a large data set with large dimension and we want to extract
most of the information in the original set to improve the seismic interpretations. Considering the large
amount of data with high dimensionality, employment of multivariate analysis techniques gives simpler
and more easily interpretable results for the evaluation of observed data. The principal components
analysis (PCA) has been widely used in many applications and applied to seismic data set as well. It
can be viewed as a classical method of multivariate statistical analysis for achieving a dimensionality
reduction. The PCA also provides a significant seismic data compression. However current PCA
methods may not be appropriate for dealing with high-dimensional data, noisy data, and missing data.
Due to their unique advantages of a non-parametric nature and ability to handle noisy data artificial
neural networks (ANN) have been considered as a new alternative to overcome the statistical analysis
problems. Therefore some neural networks algorithms have been proposed for principal components
analysis (PCA). The objective of this paper is propose an effective data analysis methodology using
an ANN and compare with the existing algorithms to improve current PCA methods in seismic data
analysis.
GİRİŞ
Genel olarak çok boyutlu ve yüksek hacimli olan sismik verilerin analiz ve yorumlanması
için çok değişkenli istatistik analiz tekniklerinden yararlanılmaktadır. Çokbileşenli sismik
verilerin işlenmesi ve analizinde, ana bileşenler analizi (ABA) genellikle boyut
indirgeme(azaltma) ve sınıflandırma amaçları için kullanılmaktadır (Guiterrez, 2000;
Hagen, 1982; Savage, 1995). Sismik olarak aktif olan bölgelerde ölçülen jeoelektrik
sinyallerin (depremle ilgili gerilim değişimleri vb. belirlenmesi için) analizinde, çokbileşenli
sismik veri işleme ve filtrelemede, sismik özelliklerin (attribute) istatistik analizinde ve
sismik örüntü tanıma yöntemi olarak bu yöntemden yararlanılmaktadır.
Sismik veriler genelde gürültü (bozucu etki) taşır ve bilinmeyen sismik dalgacıkların
varlığı yüzünden karmaşık bir yapıya sahiptirler. Yüksek (hacimli) verileri içeren, bozucu
etkilere sahip ve kayıp verilerin oluşabildiği bu tür problemlerde ABA en uygun çözümü
545
sağlamayabilir. Bu tür istatistik analiz problemlerinin çözümünde Yapay Sinir Ağları
(YSA), çokdeğişkenli istatistik analiz tekniklerine bir alternatif olarak düşünülebilir
(Bishop, 1995; Haykin, 1984). YSA örüntü tanıma, kestirim, işlem kontrolü ve
sınıflandırma gibi birbirinden farklı birçok uygulama alanında başarıyla uygulanan,
doğrusal olmayan hesaplama modeli sistemleridir. YSA’nın doğrusal olmayan fonksiyon
yaklaşımı, veri sınıflandırması, non-parametrik regresyon ve karar süreçlerindeki
yetenekleri; veri dağılımlarına ilişkin öncül bilgilerin olmadığı uygulamalarda çok
önemlidir. YSA’nın, eksik veya gürültülü verilere sahip karmaşık problemlerin
çözümündeki etkinliği kanıtlanmıştır YSA genel jeofizik uygulamarda (dalga şekli tanıma,
sismik tersinme, kuyu-kayıt analizi, iz düzeltme/düzenleme, sismik dekonvolüsyon )
sıklıkla kullanılan bir yöntemdir( Dowla, 1990; Roth, 1994; Poulton, 1992; Huang, 1996,
Calderon, 1997;Baan, 2000). Öte yandan YSA topluluğu içinde ABA algoritmasından
yararlanılan sinir ağı modelleri de mevcuttur.
Bir sismik olayın doğasında “tahmin edilemezlik” olduğu söylenir ve gerçek veriler
üzerinde hassas kestirim yapmayı zorlaştıran birçok etken vardır. Bunlar arasında, zayıf
sinyal- görüntü oranı, başka kaynak ve aktivitelerden oluşan gürültüler, sinyallerin ortam
içinde gezinirken saçılma nedeniyle oluşan büyüklük ve fazındaki değişimler,..vb.
sayılabilir. Bu yüzden sismik olayların tanınmasında doğrusal olmayan kestirim
yöntemleri tercih edilebilmektedir.
ANA BİLEŞENLER ANALİZİ (ABA)
Çok değişkenli istatistik analiz yöntemleri iki veya daha çok boyutlu rastlantısal
değişkenleri bir bütün olarak ele alan ve değişkenler arasındaki ilişkileri göz önünde
bulundurarak bütüncül bir sonuç üreten istatistiksel tekniklerden meydana gelmektedir.
Bu istatistiksel tekniklere örnek olarak korelasyon ve regresyon analizi verilebilir. Bununla
birlikte, çok değişkenli verilerin analizinde, bütüncül istatistiksel sonuçlar üretmenin
yanısıra, çok değişkenli veri kümesinin yapısını tanımlamaya yönelik veri analiz teknikleri
de vardır. Faktör analizi, gruplandırma (clustering) analizi, diskrimnant analizi ve ana
bileşenler analizi bu tür analiz teknikleridir.
ABA yöntemi bir değişken kümesini, değişkenlerin orijinal grubu içindeki bilginin çoğunu
temsil eden daha küçük boyutta korelasyonsuz veri kümesine doğrusal olarak dönüştüren
bir istatistik analiz tekniğidir. (Hotelling veya Karhunen-Loéve dönüşümü olarak da
bilinir.) Aralarında yüksek korelasyon bulunan çok değişkenli verileri aralarında
korelasyon olmayan yeni bir sisteme doğrusal olarak dönüştürerek, dönüşüm sonrası
veriler arasındaki korelasyon ortadan kaldırılmaktadır.Küçük boyutlardaki korelasyonsuz
veri kümesinin yorumlanması çok daha kolay olduğu için bu veri “sıkıştırma” yöntemi
yaygın olarak birçok uygulama alanında (mühendislik, tıp, biyoloji, kimya, meteoroloji,
jeoloji,..vb) kullanılmaktadır. ABA yönteminin farklı nitelikte problemler için geliştirilmiş
versiyonları (bağımsız bileşenler analizi, ana bileşen regresyon analizi, kompleks
bileşenler analizi ..vb.) olduğu da bilinmektedir.
⎡ x11 ... x1N ⎤
⎢
Çokdeğişkenli giriş veri setini X = [ x1 ..... x N ] = ..
..
.. ⎥⎥ şeklinde tanımlarsak;
⎢
⎢⎣ x M 1 .. x MN ⎥⎦
sözgelişi N: sismik örnekleri ve M : giriş özellik sayısını temsil eder. Buradaki yaklaşım ;
X giriş matrisini doğrusal olarak yeni bir C matrisine dönüştürecek şekilde bir U dönüşüm
matrisi tasarlamaktır.
C = UT X
Burada C ana bileşen matrisidir ve
546
[
C = c1 ....c N
]
⎡ c11 .. c1N ⎤
⎡ q1T ⎤ ⎡ q11
= ⎢⎢ .. .. .. ⎥⎥ = Q T = ⎢ .. ⎥ = ⎢⎢ ..
⎢ T ⎥
⎢⎣c M 1 .. c MN ⎥⎦
⎣⎢q M ⎥⎦ ⎢⎣q1M
q N1 ⎤
.. .. ⎥⎥
.. q NM ⎥⎦
..
Bu eşitlikte C matrisinin evriğine farklı bir isim(Q) verilmesinin nedeni C ile giriş matrisi
(X) arasındaki bire-bir ilişkiyi göstermek içindir. c j vektörlerini, x j örnek verilerinin
dönüşmüş biçimi olarak ve q i vektörlerini ise ana bileşenler olarak görebiliriz. U dönüşüm
matrisi
⎡ u11 .. u1M ⎤
U = [u1 ......u M ] = ⎢⎢ .. ..
.. ⎥⎥ olarak yazılır. Bu matrisin optimum değerlerini bulmak
⎢⎣u M 1 .. u MM ⎥⎦
için q i vektörlerini aşağıdaki biçimde yazabiliriz.
q1T = u1T X
…
… …
T
M
= u TM X
q
Böylece dönüştürülmüş özellik vektörleri elde edilmiş olur. q i vektörünün varyansı,
σ i2 = uiT .Σ.ui
ve
q i ile q k vektörlerinin kovaryansı ,
σ ik = uiT Σ.uk
biçiminde yazılabilir. Burada Σ :kovaryans matrisini göstermektedir.
Buradan ana bileşenlerin her birinin ( q i ) varyansını enbüyük yapan
ui vektörleri bulunur
ve vektörlerin ortonormal (dik) olma koşuluyla kovaryans değerlerini -0- yapar.
(Dönüşümden sonra eksenler arasında diklik koşulu korunacağından dönüşüm matrisi
ortogonal olacaktır.) Bunu
⎧1, i = k
uiT uk = δ ik = ⎨
⎩0, i ≠ k
biçiminde gösterebiliriz.
Böylelikle en büyük yapılan varyanslar X matrisinin özdeğerlerine eşdeğer olur. İlk ana
bileşen, enbüyük varyansa ilişkin özvektör kullanılarak hesaplanır ve bu biçimde devam
ettirilir. Ana bileşen dönüşümü hesaplandığında boyut azaltma işlemi gerçekleşmiş olur.
Kovaryans matrisi aşağıdaki biçimde yeniden yapılandırılabilir.
Σ = UΛU T
⎡λ1
Λ = ⎢⎢ 0
⎢⎣ 0
0 ⎤
.. 0 ⎥⎥ ana köşegeni boyunca özdeğerleri içeren bir matristir.
0 λ M ⎥⎦
0
Dönüşümden sonra ana bileşenlerin varyanslarının büyüklüklerine göre sıralanabilmesi
için, özdeğerler büyüklüklerine göre sıralanır.
547
Giriş verilerinin ana bileşenlerin altuzayına projeksiyonuna “yükleme” denilmektedir ve
ana bileşenlerle orijinal veriler arasındaki korelasyonun derecesini gösterir. ABA’ nın
anlamlı indirgeme yapıp yapmadığı istatistik olarak da test edilebilir.
YAPAY SİNİR AĞLARI (YSA)
Çok boyutlu veri uzayında doğrusal olmayan verileri işleyebilme kapasitesine sahip Yapay
Sinir Ağları parametrik olmayan yapısı nedeniyle çok çeşitli bilimsel disiplinlerde
(fonksiyon tahmini, regresyon, örüntü tanıma, sınıflandırma, işlem kontrolu, robot
teknolojisi, …vb) başarıyla kullanılmaktadır. YSA, insan beyninin çalışma tarzına benzer
biçimde, biyolojik nöron hücresinin yapısı ve öğrenme karakteristiklerinden esinlenerek
geliştirilmiş, birlikte işleyen çok sayıda işleme elemanından oluşan bir bilgisayar işleme ve
hesaplama sistemi olarak tanımlanabilir. ( Haykin, 1994; Zurada, 1992) İnsan beyninin
problem çözme, hatırlama, bilgi elde etme, vb. yeteneklerini modelleyebilmek için ileri
hesaplama kapasitesine sahip yapay sistemler üretme isteği yapay sinir ağlarına esin
kaynağı olmuştur. Parametrik olmayan yapısı, standart yöntemlere ilginç bir alternatif
oluşturan “öğrenme” yeteneği, olasılık modeli ilgili herhangi bir varsayım yapmaması,
özellik uzayında yüksek dereceden doğrusal olmayan “karar sınırları” oluşturabilme
yeteneği, gürültü (noisy) verilerini işleyebilme ve farklı veri türlerine uyum yeteneği
önemli özelliklerindendir (Richard, 1991). Olumsuz yönleri olarak; eğitim için uzun zaman
gerektirmesi, probleme özgün ağ yapısının belirlenmesi gereği, başlangıç koşullarına bağlı
olması ve ‘verilere bağlı’ bir model olması söylenebilir.
Bir sinir ağı her biri az miktarda lokal hafızaya sahip birçok işleme elemanından (nöron )
oluşur; her bir nöronun giriş verisi ya dış uzaydan alınır ya da bu veriler diğer nöronların
çıkış verisi olabilir. Bütün nöronların çıkış sinyalleri giderek etkisini tüm ağ boyunca
gösterir ve sonuç katmana kadar yayar; sonuçları da gerçek dünyanın sonucu olur. Bir
YSA giriş vektörünü aldığında çıkış vektörü formunda bir yanıt üretir. Giriş işleme
elemanları çıkış birimlerine gizli elemanlarla bağlıdır. Gizli birimler (gizli katmanlar) giriş
ve çıkış bilgileri arasındaki doğrusal olmayan ilişkileri temsil etmektedir. Şekil 3.1 de tek
bir doğal ve yapay nöronun modeli ile şek. 3.2’de çok katmanlı YSA yapısı görülmektedir.
Şekil 3.1: Nöron modeli
Şekil3.2 Çok katmanlı YSA yapısı
Sinir ağları katmanlar halinde organize edilirler. Bir YSA’da katmanları oluşturan işleme
elemanlarının (nöron) yapısını incelemek gerekir. Herhangi bir sinir ağı içindeki her nöron
Şekil 3.1 deki gibi modellenebilir. Burada nöronun giriş verileri (x), ağırlıklandırılarak (w)
elde edilen toplam giriş bir etkinleştirme fonksiyonundan (f) geçirilerek nöronun çıkışı
(sonuç) üretilmektedir. Genel olarak bir nöron birden fazla giriş değerine sahiptir.
548
Etkinleştirme fonksiyonu (transfer fonksiyonu) nöron ya da ağ sonucunu üretmekte ve
şekillendirmektedir (Şekil 3.3).
Doğrusal
İkili (Binary)
Şekil 3.3: Genel etkinleştirme fonksiyonları
Sinir ağı kullanıcıları arasında en çok kullanılan etkinleştirme fonksiyonu sigmoid
fonksiyondur ve giriş fonksiyonunun büyük değerlerini [0,1] aralığına ‘sıkıştırmaktadır’.
f (n ) ≈
1
1 + e −n
Sinir ağları örneklerden “öğrenir” ve örnekleme verileri (eğitim seti) üzerinde
genelleştirme yeteneğini kullanır. Genelleştirme, sinir ağının örnekleme veri seti içinde
yer almayan yeni verileri kestirebilme yeteneğidir. Bir sinir ağının “gücü”, örnekleme
verilerinden ne kadar iyi genelleştirme yapabildiğine bağlıdır. Öğrenme algoritması;
istenen (hedef) çıkış vektörü ile gerçekleşen çıkış vektörü arasındaki fark cinsinden bir
ölçü değeri olan hata fonksiyonunu kullanarak; deneme (eğitim) seti üzerindeki ortalama
hatayı azaltacak şekilde, ağ içindeki ağırlıkları dengelemektedir.
Bu doğru olarak
gerçekleştirildiğinde sinir ağı, yeni giriş verileri için istenen sonuçları doğru olarak tahmin
edecektir (Hertz, 1991).
Genel olarak YSA kullanımı, tasarım ve uygulama sırasında karşılaşılan sorunlar nedeniyle
karmaşık ve zaman alıcı bir süreçtir. Farklı nitelikteki problemler (veriler) için kurulacak ağ
topolojisi (katman ve nöron sayısı, bağlantı ilişkileri) de aynı olmayacaktır. Tasarım
açısından gizli katmanların sayısı ve büyüklüğünün (nöron sayısı) belirlenmesi, ağın
“öğrenme” ve genelleştirme kapasitesini etkilediği için son derece önemlidir. Öğrenme
algoritması bir YSA uygulamasının temel bileşeni olup çok sayıda öğrenme stratejisi
(kontrollü, kontrolsüz ve zorlamalı) geliştirilmiştir. En çok kullanılan ve bilineni geriyayılma
(backpropagation) olup, bazı sakıncaları bilinmektedir. Bir diğer önemli konu, öğrenme
algoritmasının performansını etkileyen uygun parametre seçimi konusundadır. Geriyayılma
algoritması için bu parametreler; başlangıç ağırlıklar dizisi (aralık), öğrenme oranı,
momentum terimi, yineleme sayısı ve durdurma ölçütü parametreleridir. Doğal olarak
farklı algoritmalar için bu parametreler de değişmektedir.
Uygun parametrelerin
belirlenmesi konusunda genelde bir “deneme-yanılma” stratejisinin uygulandığı
söylenebilir. Eğitim (çalıştırma) esnasında bu parametreler dinamik olarak değiştirilebilir
ve öğrenmenin sağlanıp sağlanmadığı sorgulanabilir. Ağ topolojisinin belirlenmesinde,
farklı nitelikteki problemler için her zaman geçerli olabilecek nitelikte, tek ve en uygun bir
mimari yoktur. Bu nedenle “probleme özgün” ağ mimarisi tasarlamak gerekir. Bununla
birlikte belli kategorilerdeki problemler için hangi ağ yapısının seçilmesi gerektiği
konusunda bazı ön bilgilere de sahibiz. ( Sözgelişi tek gizli katmana sahip bir MLP ağı,
yeterince eğitildiğinde hemen hemen her fonksiyona yaklaşabilir. Benzer biçimde gizli
katmanı olmayan ileri beslemeli ağlar, genelleştirilmiş doğrusal modellere özdeştir. Genel
olarak ileri beslemeli sinir ağlarını, doğrusal olmayan çok değişkenli regresyon modelleri ile
ilişkilendirmek
mümkündür..vb.)
YSA
diğer
doğrusal
olmayan
modellerle
karşılaştırıldığında, YSA’nın daha çok başlangıç koşullarına ve doğal olarak öğrenme
sürecine bağlı olduğu söylenebilir. Bu nedenle eğitim aşamasında başlangıç ağırlıklarının
seçimi de önemlidir. Bir YSA farklı ağırlık dizileri için çalıştırılıp uygun başlangıç değerleri
belirlenmelidir. Bazı uygulamalar için başlangıçta veriler üzerinde bir ön işleme yapılması
549
(önişleme; kodlama,
sağlamaktadır.
homojenleştirme,
normlandırma
vb.)
belirgin
bir
iyileşme
YSA- ABA MODELİ
Aslında son yıllarda YSA, jeofizik ve jeoteknik uygulama alanlarında sıklıkla
kullanılmaktadır. Bunlar arasında sismik sinyal işleme, sinyal sınıflandırma, gürültülü
sismik verilerin düzeltilmesi, sismik ayırma (diskrimnasyon), sismik örüntü tanıma, çok
bileşenli sismik veri filtreleme, sismik olayların otomatik olarak tanınması, kayıp sismik
verilerin yeniden kazanılması, sismik görüntülerin veri sıkıştırması,..örnekleri sayılabilir.
ABA için YSA yaklaşımında kovaryans matrisinden ana özvektörlerin bulunması için
genellikle kontrolsuz öğrenme algoritmaları (genellikle Hebbian, RBF,..vb) tercih
edilmektedir(Sanger, 1989;Openshaw, 1996; Penn, 2005). ABA’nın YSA versiyonunda,
ana bileşenler çevrimiçi olarak hesaplanır. Ana bileşenlerin “öğrenilmesi” için uygun bir
öğrenme kuralı seçilmelidir. Aşağıda şematik olarak m giriş nöronlu ve tek çıkış nöronlu
bir YSA yapısı gösterilmektedir.
Ana bileşen
Şekil 1. YSA-ABA Modeli
Giriş katmanındaki xi verileri ağırlıklandırılarak (wi), sonuç vektörü (y) elde edilmektedir.
Ağırlıkların güncellenmesi problemin yapısına uygun olarak seçilen bir YSA öğrenme
kuralına göre yapılır. Hebb öğrenme kuralı genel olarak bu tür problemler için uygun bir
kontrolsüz öğrenme algoritmasıdır. Bu kurala göre hem giriş hem de çıkış nöronu aynı
anda etkinlik gösterirse, bu iki nöron arasındaki ağırlık arttırılmalıdır. Başka bir deyişle,
yazılabilir, burada n küçük bir skalar değerdir. Algoritmanın bu biçimi yakınsamayan
özelliktedir, bu nedenle ağırlıklar için bir normalleştirme terimi kullanılır.
İlgi çekici nokta buradadır :Hebb’in bu öğrenme kuralının veri kümesinin ilk ana bileşenini
hesapladığı kanıtlanmıştır(Oja, 1982). (Yani y(t) ilk ana bileşene yakınsar.) YSA-ABA
yöntemi tek bir ağ olarak eğitilir fakat kavramsal olarak iki ağ yapısı olarak ele alınabilir.
İlk ağ veri vektörlerini ana bileşenlere dönüştürürken diğeri bu bileşenleri orijinal veri
boyutuna genişleterek ağ sonuçlarını üretmektedir.
550
Bu çalışmada seçilen bir uygulama örneği üzerinde çözüm için standart ABA ve YSA-ABA
algoritması kullanılarak elde edilen sonuçlar karşılaştırmalı olarak irdelenip algoritma için
öneriler yapılacaktır. Önerilen sinir ağı modeli, standart ABA yönteminin geliştirilmesi
amacıyla örnek bir sismik veri grubu üzerinde kullanılıp elde edilen sonuç ve bulgular
karşılaştırılacaktır.
UYGULAMA
Sismik veri analizinde YSA uygulamaları, sınıflandırma ve regresyon olmak üzere iki ana
kategoride ele alınabilir. Bu çalışmada havza parametrelerinin tahmini için sismik
özelliklerin (attribute) optimum biçimde kombine edilmesiyle ilgili analizler üzerine
durulacaktır. Uygulama için benzer çalışmalarda örnek olarak seçilen Blackfoot veri
kümesi kullanılmıştır (3-boyutlu sismik ölçmeler, Ekim 1995 tarihinde kaydedilmiştir,
Manville grup, Kanada. Havza 1550m derinlikli, kum ve şistle kaplı.) Şekil 4.1’de sismik
ölçmelerin yapıldığı kuyu katmanı haritası görülmektedir.
Şekil 4.1. Blackfoot veri kümesi, kuyular
Şekil 4.2. Sentetik sismogram
Şekil 4.2’de veriseti içinden 08-08 kuyusundan elde edilen (crossline 42) bir sentetik
sismogram görülmektedir(Russell, 2004). Havza parametrelerinin (örn. P-dalgası hızı,
porozite, su doygunluğu, ..vb) belirlenmesi için sismik özellikler kullanılacaktır. Sismik
özellik, bir sismik izin doğrusal (veya doğrusal olmayan) bir dönüşümü olarak
tanımlanabilir. Sismik özelliğe örnek olarak anlık özellikler, pencerelenmiş frekans
özellikleri, tekrarlı özellikler, sismik izlerin filtre dilimleri, çoklu- iz özellikleri,..vb.
verilebilir. Uygulamada havza parametreleri ile sismik özellikler arasındaki ilişki üzerinde
durulacağından, problemi açıklamak üzere, örneğin şekil 4.3’teki havza kayıt grafiğini ele
alalım.
551
Şekil 4.3. Hedef havza kayıt grafiği
Bu grafikte solda (kırmızı) hedef P-dalgası sonik kayıt ve sağda 3 adet sismik özellik
(1.tersinmiş sismik direşim, 2.sismik izin zamana göre türevi, 3.izin zamanla
integrasyonu) gösterilmektedir. Noktalar sismik özelliklere ilişkin zaman örneklerini temsil
etmektedir. Hedef kayıt ile sismik özelliklere ait özet istatistik değerler Tablo.1’de
verilmektedir. Şekilde tek bir örnek gösterilmektedir; kutu içindeki sismik özellikleri
içeren noktalar M boyutlu xj vektörünü oluşturur (M=3). Hedef kayıtı içeren kutu içindeki
nokta ise tj skalar değerdir. ai ise özellik vektörüdür.( x j = a i ) Penceredeki N adet örnek
T
(N=69)
için
özellik
vektörlerinden
hedef
değeri
(bir
havza
parametresi)
hesaplanabilmelidir. Genel anlamda problem; belirli kuyu konumlarında bir havza
parametresi ile sismik özellikler grubu arasındaki ilişkinin belirlenmesi ve hedef kaydı
kestirebilmek için sismik özelliklerin optimum biçimde kombine edilmesi üzerinedir.
Tablo 1. Değişkenlerin istatistik özeti
YSA-ABA modelini benzer bir örnek bir veriseti üzerinde uygulamak üzere yukarda
açıklanan yaklaşım kullanılacaktır. Burada tek fark; şekilde 3 yerine 7 adet sismik
özelliğin yer almasıdır. Şekil 4.4’te solda kestirilecek bir kuyu kayıt eğrisi ve sağda 7 adet
sismik özellik gösterilmektedir.
552
Şekil 4.4. Uygulama örneği için seçilen kuyu kayıtları
Seçilen örnek için YSA-ABA modeliyle hesaplanan özdeğer ve özvektörlerden
yararlanarak önceki bölümlerde kullanılan notasyona da uygun olarak aşağıdaki sonuç
değerler (matris formunda) elde edilmiştir.
Özdeğerler büyükten küçüğe doğru sıralanmış ve enbüyük özdeğer 1 olacak şekilde
ölçeklendirilmiştir. Şekil 4.4’te ana bileşenler soldan sağa büyükten küçüğe doğru
sıralanmıştır. Sonuçta en soldaki kuyu kayıt eğrisini yeniden inşa etmek için bu ana
bileşenlerin altkümesi (sismik özellikler) kullanılabilir.
553
YSA-ABA modeli sonuçları ile standart ABA yöntemi ile bu örnek için elde edilen sonuç
değerleri karşılaştırıldığında aynı ana bileşenlerin hesaplandığı görülmüştür. Ancak
dönüşüm matrisleri incelendiğinde ise YSA-ABA modelinin sonuç değerlerinde belirgin bir
gelişme görülmüştür. Bununla birlikte her iki model (standart ABA ve YSA-ABA) ile diğer
çok değişkenli analiz teknikleri, ilerdeki çalışmalarda yüksek hacimli sismik veriler
üzerinde de çalıştırılarak elde edilecek sonuçlar tartışılmalıdır.
SONUÇ
YSA-ABA modelinin, sismik veri analizinde kullanılmakta olan çokdeğişkenli istatistik
analiz yöntemlerine alternatif olarak kullanılabileceği gösterilmiştir. Bu çalışma klasik ABA
yöntemine yapay sinir ağlarının katkısı veya ABA algoritmasının geliştirilmesi anlamında
da değerlendirilebilir. YSA-ABA modeli bilinen standart ABA yöntemine göre aynı ana
bileşenleri üretmesine rağmen sonuç değerlerde belirgin bir iyileşme sağlamıştır. Bu
yöntemin yüksek hacimli veriler üzerindeki kullanımının ek yararlar sağlayacağı
öngörülmektedir. Ayrıca YSA-ABA modelini ile diğer çokdeğişkenli istatistik analiz
yöntemleriyle karşılaştırmak ilginç olacaktır.
KAYNAKLAR
Baan, M., Jutten, C., 2000, Neural networks in geophysical applications, Geophysics,
65(4), 1032-1047.
Bishop, C.M. , 1995, Neural Networks for Pattern Recognition, Oxford University Press.
Calderon–Macias, C., Sen, M. K., and Stoffa, P. L., 1997, Hopfield neural networks, and
mean field annealing for seismic deconvolution and multiple attenuation, Geophysics,
62, 992–1002.
Dowla, F. U., S. R. Taylor, and R. W. Anderson,1990. Seismic Discrimination with
Artificial Neural Networks: Preliminary Results with Regional Spectral Data, Bull. Seism.
Soc. Am. 80, 1346-1373.
Haykin, S., 1994, Neural networks: A comprehensive foundation. Upper Saddle River,
NJ: Prentice Hall.
Hagen, D. C.,1982, The application of principal components analysis to seismic data sets,
Geoexploration, 20, 93-111.
Hertz J., Krogh A. and Palmer, R., 1991, Introduction to the Theory of Neural Networks,
Addison Wesley.
Huang, Z., Shimeld, J., Williamson, M., and Katsube, J., 1996, Permeability prediction
with artificial neural network modeling in the Ventura gas field, offshore eastern Canada,
Geophysics, 61, 422–436.
Gutierrez E, Zaldivar J.M., 2000, The application of Karhunen-Loeve, or principal
component analysis method, to study the non-linear seismic response of structures.
Earthquake Engineering and Structural Dynamics, 29:1261–86.
Oja, Erkki.,1982, A Simplified Neuron Model as a Principal Component Analyzer. Journal
of Mathematical Biology, 15: 267–273.
Openshaw, S. and Turton, I. 1996, A parallel Kohonen algorithm for the classification of
large spatial datasets, Computers and Geosciences, 22(9), 1019–1026.
Penn, B. S., 2005, Using self-organizing maps to visualize highdimensional data,
Computers and Geosciences, 31(5), 531–544.
554
Poulton, M. M., Sternberg, B. K., and Glass, C. E., 1992, Location of subsurface targets in
geophysical data using neural networks, Geophys.,57(12), 1534–1544.
Roth, G., and Tarantola, A., 1994, Neural networks and inversion of seismic data: J.
Geophys. Res., 99, 6753–6768.
Russell, B. H.,2004, The application of multivariate statistics and neural networks to the
prediction of reservoir parameters using seismic attributes, PhD. Thesis, University of
Calgary.
Savage, J.C., 1995, Principal component analysis of interseismic deformation in outhern
California. J. Geophys. Res. ,100,12691–12701.
Sanger, T.D., 1989, Optimal unsupervised learning in a single layer linear feedforward
neural network, Neural Networks, 2, 459473.
Sanger, T. D., 1989, An optimality principle for unsupervised learning, Advances in
Neural Information Processing Systems, 1, 11-19.
555