istanbul teknik üniversitesi elektrik-elektronik fakültesi

Transkript

istanbul teknik üniversitesi elektrik-elektronik fakültesi
İSTANBUL TEKNİK ÜNİVERSİTESİ
ELEKTRİK-ELEKTRONİK FAKÜLTESİ
ELEKTRONİK MÜHENDİSLİĞİ BÖLÜMÜ
BİTİRME PROJESİ
Karar Ağacı ve SOM Ağı ile Doku Bölütleme
Hazırlayan
Cem Mutlu, 040090365
Danışman
Prof. Dr. Zümray DOKUR
MAYIS 2015
ÖNSÖZ
Bu çalışmayı hazırlamamda bana yol gösteren ve benden bilgisini, desteğini ve yardımını
hiçbir zaman esirgemeyen Sayın Prof. Dr. Zümray Dokur’a en içten teşekkürlerimi
sunarım.
Mayıs, 2015
Cem Mutlu
ii
İÇİNDEKİLER
2.1
İstatistiksel Öznitelikler ....................................................................................... 2
2.1.1
Ortalama ....................................................................................................... 3
2.1.2
Medyan ......................................................................................................... 3
2.1.3
Geometrik Ortalama ..................................................................................... 4
2.1.4
Harmonik Ortalama...................................................................................... 4
2.1.5
Standart Sapma............................................................................................. 5
2.1.6
Basıklık (Kurtosis) ....................................................................................... 6
2.1.7
Çarpıklık (Skewness) ................................................................................... 6
2.2
Dönüşümler İle Elde Edilen Öznitelikler ............................................................ 8
2.2.1
Fourier Dönüşümü ....................................................................................... 8
2.2.2
Canny Kenar Belirleme .............................................................................. 10
2.3
Gri-Ton Dağılımından Elde Edilen Öznitelikler ............................................... 12
2.3.1
Moment ...................................................................................................... 12
iii
2.3.2
Merkezi Moment ........................................................................................ 13
2.3.3
Mutlak Merkezi Moment ........................................................................... 13
2.3.4
Entropi ........................................................................................................ 13
2.3.5
Enerji .......................................................................................................... 14
2.4
Komşuluk Gri-Ton Fark Matrisi ....................................................................... 14
2.4.1
İrilik ............................................................................................................ 14
2.4.2
Kontrast ...................................................................................................... 15
2.4.3
Ani Değişkenlik ( Busyness ) ..................................................................... 15
2.4.4
Karmaşıklık ................................................................................................ 15
2.4.5
Doku Kuvveti ............................................................................................. 16
3.1
Karar Ağacı ....................................................................................................... 17
3.1.1
Karar Ağacı Öğrenmesi.............................................................................. 18
3.1.2
Karar ağacının Avantaj ve Dezavantajları ................................................. 20
3.1.3
Karar Ağacının Sınırlandırılması ............................................................... 21
3.2
Öz-Düzenleyen Harita Ağı (SOM) .................................................................... 21
3.2.1
Öz-Düzenleyen Harita Ağının Avantajları ve Dezavantajları ................... 23
3.3
K-En Yakın Komşu (KNN) Sınıflayıcısı .......................................................... 24
4.1
Bölütlemede Kullanılan Doku Görüntüleri ve Öznitelikler .............................. 26
4.2
Karar Ağacının Benzetim Sonuçları .................................................................. 30
4.3
SOM Ağının Benzetim Sonuçları ...................................................................... 37
4.4
KNN Sınıflayıcısının Benzetim Sonuçları ........................................................ 41
4.5
Sınıflayıcıların Başarımlarının Karşılaştırılması ............................................... 44
iv
v
ŞEKİL LİSTESİ
Şekil 1.1 Doku Bölütleme Adımları................................................................................... 1
Şekil 2.1 Brodatz albümünden örnek dokular [3] .............................................................. 2
Şekil 2.2 Gürültülü medikal doku görüntüsünde harmonik ortalama işlemi [8] ............... 5
Şekil 2.3 Harmonik filtrenin kenar özniteliklerini koruduğu medikal doku görüntüsü [8]5
Şekil 2.4 Negatif Çarpıklık ................................................................................................ 7
Şekil 2.5 Pozitif çarpıklık................................................................................................... 7
Şekil 2.6 Örnek bir görüntü ve 2 boyutlu Fourier dönüşümü [12]..................................... 9
Şekil 2.7 Sol üst: Örnek görüntü, Sağ üst: Filtrelenmiş görüntü, Sol alt: Orijinal resmin
frekans gösterimi, Orta alt: Filtre, Sağ alt: Filtrelenmiş resmin frekans gösterimi [13] .. 10
Şekil 2.8 Canny Kenar Belirleme yönteminin aşamaları [15] ......................................... 11
Şekil 2.9 NxN boyutundaki alt pencereler [17] ............................................................... 12
Şekil 3.1 Müşterilerin telefon kullanımını gösteren örnek bir karar ağacı ...................... 18
Şekil 3.2 SOM ağında giriş vektörü ile düğümler arasındaki bağlantılar [30] ................ 22
Şekil 3.3 KNN sınıflayıcısının k=3 ve k=6 değerleri için gösterimi [33] ........................ 24
Şekil 4.1 İlk benzetimde kullanılan beş farklı Brodatz dokusu ....................................... 26
Şekil 4.2 İkinci benzetimde kullanılan dört farklı Brodatz dokusu ................................. 27
Şekil 4.3 Üçüncü benzetimde kullanılan Ultrasonik fantom dokular .............................. 27
Şekil 4.4 İlk benzetim için kullanılan test görüntüsü ...................................................... 27
Şekil 4.5 İkinci benzetim için kullanılan test görüntüsü .................................................. 28
Şekil 4.6 Üçüncü benzetim için kullanılan medikal test görüntüsü ................................. 28
Şekil 4.7 İlk benzetimdeki test görüntüsünün bölütlenmiş hali (ideal durum) ................ 29
Şekil 4.8 Karar ağacı ile bölütlenmiş beş sınıflı doku görüntüsü, derinlik 12, en az veri 8,
en az kazanç 2 .................................................................................................................. 31
vi
Şekil 4.9 Beş sınıflı doku görüntüsü için en başarılı Karar Ağacının yapısı ................... 32
Şekil 4.10 Karar ağacı ile bölütlenmiş dört sınıflı doku görüntüsü, derinlik 12, en az veri
2, en az kazanç 8 .............................................................................................................. 35
Şekil 4.11 Karar ağacı ile bölütlenmiş ultrasonik fantom doku görüntüsü, derinlik 12, en
az veri 2, en az kazanç 2................................................................................................... 37
Şekil 4.12 SOM ile bölütlenmiş beş sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon
sayısı 8000, komşuluk 2 ................................................................................................... 38
Şekil 4.13 SOM ile bölütlenmiş dört sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon
sayısı 16000, komşuluk 2 ................................................................................................. 40
Şekil 4.14 SOM ile bölütlenmiş ultrasonik fantom doku görüntüsü, düğüm sayısı 400,
iterasyon sayısı 24000, komşuluk 2 ................................................................................. 41
Şekil 4.15 KNN ile bölütlenmiş beş sınıflı doku görüntüsü, K=4 ................................... 42
Şekil 4.16 KNN ile bölütlenmiş dört sınıflı doku görüntüsü, K=1 .................................. 43
Şekil 4.17 KNN ile bölütlenmiş ultrasonik fantom doku görüntüsü, K=1 ...................... 44
Şekil 4.18 Bölütlenmiş beş sınıflı doku görüntüleri ........................................................ 45
Şekil 4.19 Bölütlenmiş dört sınıflı doku görüntüleri ....................................................... 46
Şekil 4.20 Bölütlenmiş ultrasonik fantom doku görüntüleri ............................................ 47
Şekil 5.1 Bölütlenmiş doku görüntüleri ........................................................................... 49
vii
TABLO LİSTESİ
Tablo 4.1 Çalışmada kullanılan öznitelikler .................................................................... 29
Tablo 4.2 Beş sınıflı doku görüntüsü için karar ağacının başarımları ............................. 30
Tablo 4.3 Karar Ağacının 3 derinliğe kadar olan düğümlerinin doku dağılımları........... 33
Tablo 4.4 Dört sınıflı doku görüntüsü için karar ağacının başarımları ............................ 34
Tablo 4.5 Medikal doku görüntüsü için karar ağacının başarımları ................................ 35
Tablo 4.6 Beş sınıflı doku görüntüsü için SOM ağının başarımları ................................ 37
Tablo 4.7 Dört sınıflı doku görüntüsü için SOM ağının başarımları ............................... 39
Tablo 4.8 Ultrasonik fantom doku görüntüsü için SOM ağının başarımları ................... 40
Tablo 4.9 Beş sınıflı doku görüntüsü için KNN ağı başarımları ..................................... 41
Tablo 4.10 Dört sınıflı doku görüntüsü için KNN ağı başarımları .................................. 42
Tablo 4.11 Ultrasonik fantom doku görüntüsü için KNN başarımları ............................ 43
Tablo 4.12 Sınıflayıcıların beş sınıflı doku görüntüsü için başarımları ........................... 44
Tablo 4.13 Sınıflayıcıların beş sınıflı doku görüntüsü için doku bazında başarımları .... 45
Tablo 4.14 Sınıflayıcıların dört sınıflı doku görüntüsü için doku bazında başarımları ... 46
Tablo 4.15 Sınıflayıcıların Ultrasonik fantom doku görüntüsü için doku bazında
başarımları ........................................................................................................................ 46
Tablo 5.1 Sınıflayıcıların farklı doku görüntüleriyle olan başarımları ............................ 48
Tablo 5.2 Sınıflayıcıların farklı doku görüntülerindeki eğitim süreleri ........................... 50
Tablo 5.3 Sınıflayıcıların farklı doku görüntülerindeki test süreleri................................ 50
viii
ÖZET
Bu bitirme çalışmasında bir görüntü üzerindeki çeşitli dokuların makine öğrenmesi
yöntemleriyle ayırt edilebilmesi amaçlanmıştır.
Önceki çalışmalarımda farklı
problemlerin çözümü için kullandığım Karar Ağacı ve Öz-Düzenleyen Harita Ağı
sınıflayıcılarının doku bölütleme probleminin çözümündeki başarımları, avantajları ve
dezavantajları karşılaştırmalı olarak incelenmiştir. Ayrıca bu iki yöntemin daha basit
algoritmalara karşı avantajlarının görülebilmesi için K en yakın komşu algoritması
kullanılmıştır.
Doku bölütleme problemi, tıpta hastalığın tanısı için doku ile ilgili farklılıkların
belirlenmesi, uydu görüntülerinin işlenmesi, görüntüde yüz bulma, görüntüde yazı bulma
ve parmak izi tanıma gibi birçok farklı alanda karşılaşılan bir problemdir. Bölütlenecek
doku karşılaşan alana göre değişiklik göstermektedir ve bölütleme yöntemlerinin başarısı
bölütlenecek dokuya göre değişmektedir. Bu noktada seçilen yöntem önemli olduğu kadar
dokuyu iyi temsil eden özniteliklerin seçilmesi de önemlidir. Bu amaçla literatürde
bulunan öznitelikler araştırılmış ve çeşitli öznitelikler benzetimlerde kullanılmıştır.
Ayrıca görüntü hızlı Fourier dönüşümü ile frekans uzayında da incelenmiş, Canny Kenar
Belirleme algoritması ile çizgisel öznitelikler çıkarılmıştır.
Çalışmada kullanılmak üzere literatürde çok sık kullanılan Brodatz veri tabanından
farklı doku görüntüleri seçilmiştir. Bu doku görüntüleri kullanılan yöntemlere giriş olarak
verilmiştir. Sonra bu dokuların bir arada bulunduğu ek bir görüntü de diğer girişlere
birlikte verilip, görüntünün hangi bölümünde hangi doku olduğunu gösteren bölütlenmiş
nihai görüntü elde edilmiştir. Alınan çıktı gerçek sınırlar ile karşılaştırılıp, çalışma süresi,
kaynak tüketimi gibi etkenler de dikkate alınarak yöntemlerin başarımları incelenmiştir.
ix
GİRİŞ VE LİTERATÜR ÖZETİ
Doku bölütlemenin temel amacı görüntüyü dokusal özelliklerine göre farklı
kısımlara ayırmaktır. Bu problemin çözümü için literatürde kullanılmış olan tekniklerin
bir kısmı aşağıda listelenmiştir [1].

K-en yakın komşu kuralı

Diskriminant analizi

Destek vektör makineleri (‘support vector machines’)

Yapay sinir ağları (‘artificial neural networks’)

Genetik algoritmalar

Karar ağacı öğrenmesi
Kullanılan teknikler incelendiğinde doku bölütleme probleminin Şekil 1.1’de
gösterilen temel adımlardan oluştuğu görülür [2]. İlk aşamada gürültü giderme, renk
dengesi gibi ön işlemler uygulanır. Daha sonra görüntüden doku ile ilgili özellikleri temsil
eden öznitelikler çıkarılır. Son olarak bu öznitelikler kullanılarak sınıflama yapılır.
Ön İşlemler
Özniteliklerin
çıkarılması
Sınıflama
Şekil 1.1 Doku Bölütleme Adımları
Doku bölütleme probleminde kullanılacak özniteliklerin seçimi çok önemlidir.
Öznitelik seçerken dokusal özellikleri en iyi temsil eden öznitelikler seçilmelidir. Bazı
çalışmalarda seçilen özniteliklerin zayıf olanlarının elenmesi veya özniteliklere ağırlık
vermek gerekir. Yapılan çalışmalarda doğru özniteliklerin seçilmesinin sınıflama işlem
süresini azalttığı ve başarımı yükselttiği görülmüştür [3].
1
DOKUYA ÖZGÜ ÖZNİTELİKLERİN ÇIKARILMASI
Doku, bir görüntü üzerindeki bir insanın gözüyle fark edilebilen düzenliliktir. Doğada
karşılaşılan dokular genelde yansıyarak ve dönerek oluşan spiral, kıvrımlar, dalgalar ve
kabarcıklar içerir. Doğada karşılaşılan bu dokuların ve bazı yapay dokuların arka planında
matematiksel yapılar vardır. Matematiksel yapıların parametreleri bir dokuyu diğer
dokulardan ayıran temel karakteristik özelliklerdir.
Doku bölütleme tekniklerinin sınanabilmesi için bazı örnek dokular üzerinde çalışılır.
Bunlardan akademik çalışmalarda en çok kullanılanlardan biri Brodatz albümüdür. Şekil
2.1‘de Brodatz albümünden örnek dokular görülmektedir [4].
Şekil 2.1 Brodatz albümünden örnek dokular [3]
Bu bölümün devamında çalışmada kullanılan öznitelikler ve öznitelik çıkartma
yöntemleri anlatılacaktır. Öncelikle istatistiksel öznitelikler hakkında bilgi verilecektir.
Daha sonra kullanılan dönüşümlerden çıkarılan öznitelikler, gri-ton dağılımından elde
edilen öznitelikler ve gri-ton fark matrisi yöntemiyle elde edilen öznitelikler anlatılacaktır.
2.1
İstatistiksel Öznitelikler
Doku bölütlemede ortalama, standart sapma, çarpıklık ve basıklık gibi istatistiksel
özniteliklerin sınıflayıcı performansını arttırdığı gözlemlenmiştir [5]. İstatistiksel
2
öznitelikler çıkarılırken bir pencere içerisindeki piksellerin genlik değerlerinden temel
istatistiksel ifadeler çıkarılır.
Çalışmada istatistiksel öznitelikler 5, 7, 9, 11, 13 ve 15 olmak üzere 6 farklı pencere
genişliği için hesaplanarak 42 farklı öznitelik elde edilmiştir.
2.1.1
Ortalama
Ortalama, bir pencere içerisindeki piksellerin tümünü temsil eden ortalama gri-ton
değerini belirten özniteliktir. Piksellerin ortalama gri-ton değerinin matematiksel ifadesi
Denklem 2.1’de verilmiştir.
𝑃𝑜𝑟𝑡 =
𝑁
∑𝑁
𝑖=1 ∑𝑗=1 𝑃(𝑖, 𝑗)
𝑁∗𝑁
Port
: Piksellerin ortalama gri-ton değeri
N
: Pencere boyutu
(2.1)
P(i,j) : i-inci satır j-inci sütundaki pikselin gri-ton değeri
2.1.2
Medyan
Piksel değer dağılımının altında kalan alanın, tüm alanın yarısı olduğu piksel
değerini gösteren özniteliktir. Bir penceredeki medyan değeri penceredeki sinyal-gürültü
oranıyla ilişkilidir [6]. Medyan değerinin matematiksel ifadesi Denklem 2.2’de
verilmiştir.
𝑃𝑚𝑒𝑑
255
255
0
𝑃𝑚𝑒𝑑
0
1
∑ 𝑄(𝑝) = ∑ 𝑄(𝑝) = ∑ 𝑄(𝑝)
2
(2.2)
Pmed
: Medyan piksel değeri
Q(p)
: p piksel değerinin pencere içerisindeki sayısı
3
2.1.3
Geometrik Ortalama
Geometrik ortalama filtresi görüntü işlemede özellikle gürültü yok etme amacıyla
kullanılan lineer olmayan bir filtredir [7]. Bir pencere içerisindeki tüm pikselleri temsil
eden oransal orta piksel değerini belirten özniteliktir. Piksel geometrik ortalama değerinin
matematiksel ifadesi Denklem 2.3’te verilmiştir.
𝑁∗𝑁
𝑃𝑔𝑜𝑟𝑡 =
𝑁
𝑁
√∏ ∏ 𝑃(𝑖, 𝑗)
𝑖=1 𝑗=1
(2.3)
Pgort
: Piksel geometrik ortalama değeri
2.1.4
Harmonik Ortalama
Harmonik ortalama filtresi Şekil 2.2’de gösterilen soldaki medikal doku
görüntüsünde uygulandığında gaussian gürültülerinin gidererek sağdaki görüntünün elde
edilmesini sağlar [8]. Ayrıca bir pencere içerisinde harmonik ortalama alma işleminin
gürültüleri giderirken kenar özelliklerini koruduğu Şekil 2.3’te görülmektedir. Harmonik
ortalama özniteliğinin matematiksel ifadesi Denklem 2.4’te verilmiştir.
𝑃ℎ𝑜𝑟𝑡 =
𝑁∗𝑁
𝑁
∑𝑁
𝑖=1 ∑𝑗=1
1
𝑃(𝑖, 𝑗)
(2.4)
Phort
: Piksel harmonik ortalama değeri
4
Şekil 2.2 Gürültülü medikal doku görüntüsünde harmonik ortalama işlemi [8]
Şekil 2.3 Harmonik filtrenin kenar özniteliklerini koruduğu medikal doku görüntüsü [8]
2.1.5
Standart Sapma
Bir pencere içerisindeki piksel dağılımının ortalama etrafındaki yayılımını belirten
özniteliktir. Bu öznitelik düz bir dokuda sıfıra yakın değerler alırken, piksel değeri değişen
dokularda yüksek değerler alır. Standart sapma değerinin matematiksel ifadesi Denklem
2.5’te verilmiştir.
5
𝑆= √
𝑁
2
∑𝑁
𝑖=1 ∑𝑗=1(𝑃(𝑖, 𝑗) − 𝑃𝑜𝑟𝑡 )
𝑁∗𝑁
(2.5)
S
: Standart sapma değeri
2.1.6
Basıklık (Kurtosis)
Bir pencere içerisindeki piksel değeri dağılımının basıklığını veya sivriliğini
belirten özniteliktir. Basıklık değerinin matematiksel ifadesi Denklem 2.6’da
belirtilmiştir.
𝑁
4
∑𝑁
𝑖=1 ∑𝑗=1(𝑃(𝑖, 𝑗) − 𝑃𝑚𝑒𝑎𝑛 )
√
𝐾=
𝑁∗𝑁
(2.6)
K
: Basıklık değeri
N
: Pencere Genişliği
Pmean : Pencerenin ortalama değeri
P(i,j) : i. satır j. sütundaki piksel değeri
2.1.7
Çarpıklık (Skewness)
Pencere içerisindeki piksellerin değer dağılımı bir doku için belirleyici
olabilmektedir. Bu dağılımın Şekil 2.4 ve Şekil 2.5’te gösterildiği bir tarafa doğru
asimetrik olması negatif çarpıklık (Negative Skew) veya pozitif çarpıklık (Positive Skew)
olarak adlandırılır.
6
Şekil 2.4 Negatif Çarpıklık
Şekil 2.5 Pozitif çarpıklık
Çarpıklık özniteliği dağılımın simetrik olmayışını belirten özniteliktir. Basıklık
değerinin matematiksel ifadesi Denklem 2.7’de verilmiştir.
𝑁
3
∑𝑁
𝑖=1 ∑𝑗=1(𝑃(𝑖, 𝑗) − 𝑃𝑚𝑒𝑎𝑛 )
𝐾= √
𝑁∗𝑁
(2.7)
K
: Basıklık değeri
N
: Pencere Genişliği
Pmean : Pencerenin ortalama değeri
P(i,j) : i. satır j. sütundaki piksel değeri
7
2.2
Dönüşümler İle Elde Edilen Öznitelikler
Bir dokuya ait öznitelikler çıkarılırken görüntünün piksel değerleri doğrudan
kullanılabileceği gibi bazı matematiksel dönüşümler uygulanmış görüntü üzerinden de
öznitelikler elde edilebilir. Bu amaçla çalışmada farklı pencere boyutları için 2 boyutlu
Fourier dönüşümü uygulanmış ve frekans değerleri öznitelik olarak kullanılmıştır. Ayrıca
Canny Kenar Belirleme algoritması ile görüntünün kenar haritası elde edilmiştir. Daha
sonra bu kenar haritası üzerinden farklı pencere boyutları için istatistiksel öznitelikler
çıkarılmıştır.
2.2.1
Fourier Dönüşümü
Fourier dönüşümü ile zaman uzayındaki bir sinyal frekans uzayında ifade
edilebilir. Bir sinyalin Fourier dönüşümü karmaşık değerlidir. Her karmaşık değerin
büyüklüğü o frekans için genlik bilgisini, argümanı ise faz bilgisini verir. Fourier
dönüşümü ayrık ve sürekli verilerde kullanılabilir [9].
Fourier dönüşümünün ayrık uzayda tek boyutlu işaretler ve iki boyutlu görüntü
işaretleri için matematiksel ifadeleri Denklem 2.8’de gösterilmiştir [10].
N1 1
X (k1 )   x(n1 )  e

j 2 πk1n1
N1
1
x(n1 ) 
N1
n1 0
N1 1 N 2 1
X (k1,k2 )  
n1 0
1
x(n1,n2 ) 
N1  N 2
 x(n1,n2 )  e
  X (k ,k )  e
k 2 0
 X (k )  e
1
k1 0
j 2 πk1n1
N1
e
j 2 πk1n1
N1

j 2 πk2n2
N2
n2 0
N1 1 N 2 1
k1 0

N1 1
1
2
j 2 πk1n1
N1
e
j 2 πk2n2
N2
(2.8)
Denklemde işaret küçük x ile dönüşüm sonucu elde edilen Fourier katsayıları ise
büyük X ile gösterilmiştir. Denklemin içindeki N1 ve N2 parametreleri işaretin incelendiği
pencere boyutunu belirler.
Fourier dönüşümü görüntü işlemede ve doku bölütleme probleminde sıklıkla
kullanılır [11]. Bu çalışmada iki boyutlu ayrık hızlı Fourier dönüşümü ile iki farklı yoldan
öznitelik çıkarılmıştır. İlk olarak görüntüden öznitelik çıkarılacak noktanın merkezde
8
olduğu bir alt pencere alınmıştır. Bu alt pencerenin Fourier dönüşümü ile frekans
bileşenleri elde edilip, her bir frekans değeri bir öznitelik olarak kullanılmıştır. Frekans
bileşenleri yatay veya dikey olarak simetrik olduğu için NxN boyutlu bir altpencereden
NxN/2 öznitelik elde edilmiştir. Çalışmada bu yöntemle 8X8 pencere ile 32, 16x16
pencere ile 128 olmak üzere 160 öznitelik elde edilmiştir.
Şekil 2.6 Örnek bir görüntü ve 2 boyutlu Fourier dönüşümü [12]
Fourier dönüşümü ile öznitelik çıkarılan ikinci yöntemde görüntünün tamamına
Fourier dönüşümü uygulanmıştır. Şekil 2.6’da örnek bir görüntü ve 2 boyutlu Fourier
dönüşümü gösterilmiştir. Daha sonra elde edilen frekanslara filtre uygulanarak alçak
frekanslar korunup, yüksek frekanslar bastırılmıştır. Son olarak ters Fourier dönüşümü
uygulanarak yeni bir görüntü elde edilmiştir. Bu işlemler Şekil 2.7’de örnek bir resme
uygulanmıştır [13]. Filtrelenmiş görüntüden ortalama, medyan ve geometrik ortalama gibi
istatistiksel öznitelikler çıkarılmıştır. Bu yöntem kullanılarak 7 farklı öznitelik
çıkarılmıştır.
9
Şekil 2.7 Sol üst: Örnek görüntü, Sağ üst: Filtrelenmiş görüntü, Sol alt: Orijinal resmin
frekans gösterimi, Orta alt: Filtre, Sağ alt: Filtrelenmiş resmin frekans gösterimi [13]
2.2.2
Canny Kenar Belirleme
Canny Kenar Belirleme çok aşamalı bir algoritmayı kullanarak görüntülerde
kenarları tespit eden bir kenar tespit yöntemidir. 1986 yılında John F. Canny tarafından
geliştirilmiştir. Mümkün olduğunda çok sayıda doğru kenar bulunması, görüntüdeki
gürültünün kenar olarak yanlış işaretlenmemesi, bulunan kenarın işaretlenirken sadece
merkezde işaretlenmesi kenar tespitinde genel ölçütlerdendir. Canny algoritması bu
ölçütleri sağlamak için Şekil 2.8’de gösterilen aşağıdaki adımlardan oluşur [14].
Yumuşatma ( Smoothing )
Kenar belirlerken yapılacak tüm işlemler kolaylıkla görüntüdeki gürültüden
etkilenebilir. Bu nedenle gürültüden oluşan hatayı yok etmek için filtre kullanmak çok
önemlidir. Bu işlem Gauss filtresi kullanılarak yapılır.
10
Gradyanları bulma
Görüntüdeki kenarlar herhangi bir yönde olabileceği için Canny algoritmasında
yatay, dikey ve iki tane diyagonal olmak üzere 4 filtre kullanılır.
Maksimum olmayanları bastırma( Non-maximum suppression )
Bu aşamanın amacı gradyan büyüklüklerini barındıran görüntüdeki bulanık
kenarları keskin kenarlara çevirmektir. Bu işlem basit olarak yerel maksimumlar hariç her
şey silinerek yapılır.
Çift eşik uygulama ( Double thresholding)
Lokal maksimum pikseller hala büyüklüklerini barındırır. Bu büyüklüklere eşik
değer uygulanarak gürültüden veya renk geçişlerinden kaynaklanan hatalı kenarlar
temizlenir. İkinci eşik ile kalan kenarlar güçlü kenar ve zayıf kenar olarak ikiye ayrılır.
Kenar takibi
Güçlü kenarlar kenar olarak işaretlenir. Zayıf kenarlar ise sadece güçlü kenarlara
bağlı ise kenar olarak işaretlenir.
Şekil 2.8 Canny Kenar Belirleme yönteminin aşamaları [15]
Araştırmalara göre Canny ile elde edilen kenar haritasının istatistiksel analizleri
dokunun kenar özelliklerini temsil edebilir [16]. Bu nedenle çalışmada bölütlenecek
görüntünün Canny ile kenar haritası çıkarılmıştır. Daha sonra bu haritada öznitelik
çıkarılcak nokta çevresinde 5, 7, 9, 11, 13 ve 15 genişliklerinde pencereler
oluşturulmuştur. Altı farklı genişlikteki pencerelerin her biri için ortalama, medyan ve
geometrik ortalama gibi 7 farklı istatistiksel özniteliği çıkarılarak 42 tane öznitelik elde
edilmiştir.
11
2.3
Gri-Ton Dağılımından Elde Edilen Öznitelikler
Bu yöntemde NxN boyutundaki alt pencere içindeki piksellerin değer dağılımları
kullanılır. Şekil 2.9’da görüntü içerisinde oluşturulan NxN boyutundaki alt pencereler
gösterilmektedir. i gri-tonu için piksel dağılımı Denklem 2.10’daki ifade yardımıyla
hesaplanır [17].
Şekil 2.9 NxN boyutundaki alt pencereler [17]
(2.10)
p(i)
: i gri-tonunun pencere içindeki dağılımı
Qi
: i gri-tona sahip piksel sayısı
N
: Pencere genişliği
Değer dağılımı fonksiyonu kullanılarak aşağıdaki öznitelikler hesaplanır.
Denklemler farklı k değerleri kullanılarak daha çeşitli öznitelikler elde edilir.
2.3.1
Moment
Moment özniteliği dokunun ağırlıklı ortalama piksel değeri hakkında bilgi verir.
Denklem 2.11’de moment özniteliğinin matematiksel ifadesi verilmiştir. Bu ifadeye göre
k parametresinin 1 değeri için, bir istatistiksel öznitelik olarak bahsedilen ortalama değeri
elde edilir.
12
255
𝑚𝑘 = ∑ 𝑖 𝑘 ∗ p(𝑖)
𝑖=0
(2.11)
2.3.2
Merkezi Moment
Merkezi moment özniteliği dokunun ortalama piksel değerine olan momenti
hakkında bilgi verir. Denklem 2.12’de merkezi moment özniteliğinin matematiksel ifadesi
verilmiştir. Bu ifade k parametresinin 2 değeri için standart sapma, 3 değeri için çarpıklık
ve 4 değeri için basıklık özniteliğiyle benzerlik gösterir.
255
𝑘
µ𝑘 = 𝐸 {[𝑖 − 𝐸[𝑖]] } = ∑(𝑖 − 𝑚1 )𝑘 ∗ 𝑝(𝑖)
𝑖=0
(2.12)
2.3.3
Mutlak Merkezi Moment
Mutlak merkezi moment özniteliği dokunun ortalama piksel değerine olan mutlak
momentidir. Denklem 2.13’te mutlak merkezi moment özniteliğinin matematiksel ifadesi
verilmiştir.
255
µ𝑘 = 𝐸{|𝑖 − 𝐸[𝑖]|𝑘 } = ∑ |𝑖 − 𝑚1 |𝑘 ∗ 𝑝(𝑖)
𝑖=0
(2.13)
2.3.4
Entropi
Entropi özniteliği dokudaki iri taneli bölümlerin çevresinde yüksek değer veren
bir özniteliktir. Denklem 2.14’te entropi özniteliğinin matematiksel ifadesi verilmiştir.
255
𝐻 = 𝐸{−𝑙𝑜𝑔2 ∗ 𝑝(𝑖)} = − ∑ 𝑝(𝑖) ∗ 𝑙𝑜𝑔2 (𝑝(𝑖) + 𝜀 )
𝑖=0
(2.14)
13
2.3.5
Enerji
Enerji özniteliği aynı tondaki piksellerin miktarı hakkında bilgi veren bir
özniteliktir. Denklem 2.15’te enerji özniteliğinin matematiksel ifadesi verilmiştir.
255
𝐸 = ∑[𝑝(𝑖)]2
𝑖=1
(2.15)
2.4
Komşuluk Gri-Ton Fark Matrisi
Komşuluk gri-ton fark matrisi ton sayısı kadar eleman barındıran doku ile ilgili
özellikleri çıkarmamızı sağlayan bir sütun vektördür [18]. Bu vektörden 5 farklı öznitelik
çıkarılabilir. Komşuluk gri-ton fark matrisinin i. elemanını ( s (i ) ) hesaplamak için K
penceresi içerisinde kenarlardan d uzaklıkta bir Kd alt penceresi tanımlanır. Vektörün
hesaplanması için Denklem 2.16 ve Denklem 2.17 kullanılır.
𝐴(𝑥, 𝑦) =
𝑦+𝑑
∑𝑥+𝑑
𝑥−𝑑 ∑𝑦−𝑑 𝑓(𝑥, 𝑦)
4𝑑 2
(2.16)
𝑥,𝑦  𝐾𝑑
𝑠(𝑖) =
∑ | 𝑓(𝑥, 𝑦) − 𝐴(𝑥, 𝑦) |
𝑥,𝑦
(2.17)
A(x,y) : {x,y} noktasını merkez alan 2d genişliğindeki pencerenin ortalama gri-ton değeri
f(x,y) : {x,y} noktasının gri-ton değeri
2.4.1
İrilik
İrilik bir dokuda piksel değer değişiminin sıklığının küçük olduğunu gösterir. İrilik
özniteliği Denklem 2.18’deki matematiksel ifade ile hesaplanır.
255
−1
𝑓𝑖𝑟𝑖 = [ε + ∑ 𝑝𝑖 . 𝑠(𝑖)]
𝑖=0
(2.18)
14
2.4.2
Kontrast
Kontrast görüntü içerisindeki gözle fark edilebilen farklı gri-ton değerlerine sahip
bölgeler olduğunu gösteren bir özniteliktir. Bu özellik için Denklem 2.19’daki formül
tanımlanmıştır.
𝑓𝑘𝑜𝑛
255 255
255
𝑖=0 𝑗=0
𝑖=0
1
1
=[
∑ ∑ 𝑝𝑖 𝑝𝑗 (𝑖 − 𝑗)2 ] . [ ∑ 𝑠(𝑖)]
𝐺(𝐺 − 1)
𝑛
(2.19)
2.4.3
Ani Değişkenlik ( Busyness )
Gri-ton değerlerinin pikseller arasında sıklıkla değiştiğini gösteren özniteliktir.
Denklem 2.20’deki matematiksel ifadesi ile hesaplanabilir.
255
255 255
𝑓𝑏𝑢𝑠 = [∑ 𝑝𝑖 . 𝑠(𝑖)] / [∑ ∑|𝑖. 𝑝𝑖 − 𝑗. 𝑝𝑗 |] 𝑝𝑖, , 𝑝𝑗 ≠ 0
𝑖=0
𝑖=0 𝑗=0
(2.20)
2.4.4
Karmaşıklık
Ani değişkenlik ve kontrastla kısmı olarak ilişkili olan karmaşıklık görüntünün
keskin kenar ve çizgiler içerdiğini gösterir. Karmaşıklık özniteliği Denklem 2.21’de
gösterildiği gibi hesaplanabilir.
255 255
𝑓𝑘𝑎𝑟 = ∑ ∑[|𝑖 − 𝑗|/𝑛(𝑝𝑖 + 𝑝𝑗 )] . [𝑝𝑖 . 𝑠(𝑖) + 𝑝𝑗 . 𝑠(𝑗)]
𝑖=0 𝑗=0
(2.21)
15
2.4.5
Doku Kuvveti
Dokuyu oluşturan öğelerin kolay tanımlanabildiğini gösteren özniteliktir. Doku
kuvveti özniteliği Denklem 2.22’de gösterilen matematiksel ifade ile hesaplanabilir.
255 255
255
2
𝑓𝑑𝑘 = [∑ ∑(𝑝𝑖 + 𝑝𝑗 )(𝑖 − 𝑗) ]
𝑖=0 𝑗=0
[𝜀 + ∑ 𝑠(𝑖)] 𝑝𝑖 , 𝑝𝑗 ≠ 0
𝑖=0
(2.22)
16
SINIFLAYICILAR
Sınıflayıcılar bir önceki bölümde elde edilen özniteliklerden yola çıkarak dokuyu
sınıflayan yapılardır. Bu çalışmada sınıflama işlemi Karar Ağacı, Öz-Düzenleyen Harita
Ağı ve K-En yakın komşu sınıflayıcı kullanılarak yapılacaktır.
3.1
Karar Ağacı
Karar Ağacı, her düğümün bir kararı ve olası çıktılarını temsil ettiği, ağaç şeklinde bir
akış diyagramıdır [19]. Karar ağaçları operasyonel araştırmalarda, karar analizlerinde,
algoritma gösteriminde ve başka çeşitli alanlarda sıklıkla kullanılır.
Karar ağacının en başında bir tane ana düğüm vardır. Her düğüm veri tablosunu bir
özelliğe göre parçalar. Tablonun farklı parçaları için farklı alt düğümler oluşur. Düğümler
alt düğümlere ayrıldıkça temsil ettikleri veri miktarı azalır ve olası çıktı değerleri uç
değerlere doğru farklılaşır.
Karar ağacında bir giriş vektörünün olası çıktı değerini bulmak için ana düğümden
başlanarak uygun özelliğe sahip düğümler üzerinden yapraklara doğru ilerlenir. Ulaşılan
yaprak bir olasılığı, sınıfı ya da olasılık dağılımını temsil eder. Şekil 3.1’de müşterilerin
telefon kullanımını gösteren örnek bir karar ağacı verilmiştir.
17
Çocuk Sayısı>=2
Müşteri Sayısı: 2000
YAŞ >= 30
Telefon Kullanımı: %30
Karar: Çocuk Sayısı
Müşteri Sayısı: 4000
Telefon Kullanımı: %20
Çocuk Sayısı < 2
Müşteri Sayısı: 2000
Telefon Kullanımı: %10
Karar: Yaş
Müşteri Sayısı :12000
EVLİ
Telefon Kullanımı: %40
Müşteri Sayısı: 4000
YAŞ < 30
Telefon Kullanımı: %10
Karar: Medeni Durum
Müşteri Sayısı: 8000
Telefon Kullanımı: %50
BEKAR
Müşteri Sayısı: 4000
Telefon Kullanımı: %90
Şekil 3.1 Müşterilerin telefon kullanımını gösteren örnek bir karar ağacı
3.1.1
Karar Ağacı Öğrenmesi
Karar ağacı öğrenmesi karar ağaçlarını öğrenme modeli olarak kullanır. Veri
madenciliğinde, istatistikte ve makine öğrenmesinde kullanılan yaklaşımlardan biridir. Bu
yöntemde temel amaç veriyi iyi temsil eden bir karar ağacı oluşturulmasıdır. Karar
ağacının oluşturulması için çeşitli algoritmalar mevcuttur (ID3, C4.5, CART, CHAID)
[20-23].
Karar ağacı oluşturmak için ana düğümden başlanarak tüm düğümler için en
uygun öznitelik seçilir. Seçilen özniteliğin aldığı değerler düğümün altına yeni düğümler
olarak eklenir. Bu işlem karar ağacını sınırlayan parametreler izin verdiği sürece devam
ettirilir.
Her öznitelik veri tablosunu birden fazla tabloya ayırır. Bir özniteliğin ne kadar
başarılı olduğu hesaplanırken bu tabloların safsız (‘impurity’) olmasına bakılır. Örneğin
bir tablo sadece bir sınıf verilerinden oluşuyor ise o tablo saf ve homojendir. Tabloların
veri sayılarına göre ağırlıklı safsız olma ortalaması bulunur. Bu safsız olma değeri
tablonun parçalanmadan önceki safsız olma değeri ile karşılaştırılarak özniteliğin bilgi
18
kazancı (Information gain) hesaplanır. Bilgi kazancının matematiksel ifadesi Denklem
3.1’de verilmiştir.
ΔI =
∑𝑛𝑖=0 𝑁𝑖 ∗ 𝐼𝑖
−𝐼
𝑛
(3.1)
ΔI
: Öznitelik bilgi kazancı
Ni
: i. Tablodaki veri sayısı
Ii
: i. Tablonun safsız olma değeri
I
: Ana tablonun safsız olma değeri
Bir tablonun safsızlığı Entropi, Gini katsayısı, sınıflama hatası veya bilgi kazancı
gibi metodlar ile hesaplanır [24].
Entropi
ID3 ve C4.5 algoritmasında kullanılılr. Veri tablosunun safsız olma değerini
ölçmenin bir yoludur. Matematiksel ifadesi Denklem 3.2’de verilmiştir. Çalışmada ID3
ve C4.5 algoritması temel alındığı için safsızlığı ölçmek için entropi kullanılmıştır.
𝑛
𝐸𝑛𝑡𝑟𝑜𝑝𝑖 = ∑ −𝑝𝑗 𝑙𝑜𝑔2 𝑝𝑗
𝑗=1
(3.2)
Pj
: j. Sınıfa ait verilerin tablodaki oranı
n
: sınıf sayısı
Gini Index
CART algoritmasında kullanılır. Rastgele seçilen bir verinin ne sıklıkta yanlış
etiketlendiğini ölçer. Matematiksel ifadesi Denklem 3.3’te verilmiştir.
19
𝑛
𝐺𝑖𝑛𝑖 𝐼𝑛𝑑𝑒𝑥 = 1 − ∑ 𝑝𝑗2
𝑗=1
(3.3)
Pj
: j. Sınıfa ait verilerin tablodaki oranı
n
: sınıf sayısı
Sınıflama hatası ( Classification Error )
Veri tablosunun ne kadar saf olduğunu ölçmenin bir diğer yoludur. Matematiksel
Denklem 3.4’te verilmiştir.
𝐺𝑖𝑛𝑖 𝐼𝑛𝑑𝑒𝑥 = 1 − max{ 𝑝𝑗 }
(3.4)
3.1.2
Pj
: j. Sınıfa ait verilerin tablodaki oranı
n
: sınıf sayısı
Karar ağacının Avantaj ve Dezavantajları
Model olarak akış diyagramı şekilde bir karar ağacı kullanıldığı için yapay sinir
ağları, destek vektör makinaları gibi alternatiflere göre daha anlaşılırdır. Karar ağacı
diyagramına bakılarak öğrenmenin nasıl gerçekleştiği doğrudan görülebilir.
Karar ağaçları düğümlere öznitelikleri atarken en uygun öznitelikleri seçtiği için
eğitimden önce özniteliklerin başarısına bakılmasına ve seçilmesine gerek yoktur. Ayrıca
veri normalizasyonuna ihtiyaç duymadığı için alternatiflerine göre daha az ön hazırlık
gerektirir.
Olası çıktı değeri olarak sınıf verisi, olasılık değerleri veya sayısal değerler
kullanılabilir. Bu özellik çıkışın N farklı değeri olduğu durumlarda N farklı karar ağacı
oluşturulması yerine tek bir karar ağacı kullanılmasını sağlayarak vakit ve kaynaktan
kazanç sağladığı gibi N farklı karar ağacının kullanılmasından daha yüksek başarım
gösterir. Karar ağacını diğer sınıflandırma araçlarından öne çıkaran bir özelliği de sadece
sınıflama yapmayıp sınıflama güvenilirliğini de istatistiksel olarak vermesidir [25].
20
Karar ağacının bir diğer avantajı kullanılan modelin istatistiksel testlerle
sınanabilir olmasıdır. Örnek bir giriş vektörü için elde edilen olasılık değeri istatistiksel
olarak da sınanabilir.
Algoritmanın kolayca iş parçacıklarına bölünebilmesi nedeniyle karar ağacı
öğrenmesi büyük veri kümelerinde kullanılabilir [26].
Yöntemin en çok karşılaşan sorunu modelin veriyi temsil etmesi yerine
ezberlemesidir (aşırı öğrenme, overfitting). Bu sorun karmaşıklık düşürülerek veya
rastgele orman (Random Forest) yöntemi ile çözülebilir. Karar ağacı öğrenmesi bazı
durumlarda XOR, çoğullayıcı gibi yapıları modellemekte yetersiz kalır. Çok büyük
ağaçların oluşabildiği böyle problemlerde problem uzayını değiştirmek sorunu çözebilir.
3.1.3
Karar Ağacının Sınırlandırılması
Karar ağaçları oluşturulduktan sonra veya oluşturulma aşamasında aşırı
öğrenmeyi önlemek ve gereksiz yapıları yok etmek için budanma (Pruning) işleminden
geçirilir. Budama algoritmalarında literatürdeki yöntemler iki farklı sınıfta toplanabilir.
İlk sınıf eğitim ve budama işlemleri için ayrı veriler kullanırken, ikinci sınıfta tüm veriler
iki işlem içinde kullanılır [27].
Budama işlemi sırasında bazı sınırlayıcı parametreler kullanılır. Derinlik, olasılık,
öznitelik başarısı,
veri sayısı, aynı derinlikteki düğüm sayısı kullanılan sınırlayıcı
parametrelerdendir [28]. Çalışmada kullanılacak karar ağacı öğrenmesi algoritmasında
tüm veriler budama ve eğitim işlemlerinin ikisi için de kullanılır.
3.2
Öz-Düzenleyen Harita Ağı (SOM)
Öz-Düzenleyen Harita Ağı (SOM, ‘Self-Organizing Map’) eğiticisiz bir yapay sinir
ağıdır. Çok boyutlu veriyi daha düşük boyutlarda temsil etmeyi sağlayarak vektör
kuantalama olarak bilinen boyut düşürmeyi sağlar [29]. Öz-Düzenleyen ağlar “öğrenme”
ve “haritalama” olmak üzere iki aşamada çalışır. Öğrenme sürecinde haritanın çıkış
düğümleri eğitim verisini daha iyi temsil edecek şekilde konum değiştirirler. Her
iterasyonda konum değiştirme işlemi en uygun birim ve komşularınca gerçekleştirilir.
Böylece çıkış düğümleri veriyi daha iyi temsil edecek şekilde hareket eder. Yeterli
21
iterasyon sonunda çıkış düğümleri son konumlarına ulaşır. Daha sonra çıkış düğümlerine
öğrenme verisi kullanılarak sınıf atanır. Haritalama aşamasında giriş vektörünün sınıfı, bu
vektöre en yakın çıkış düğümünün sınıfı olarak belirlenir.
Öz-Düzenleyen Harita Ağları düğüm ya da nöron olarak adlandırılan birimlerden
oluşur. Bu düğümlerden her birini giriş vektörüne bağlayan bir ağırlık vektörü (wij) vardır.
Şekil 3.2’de düğümler ile giriş vektörü arasındaki bağlantılar gösterilmiştir.
Şekil 3.2 SOM ağında giriş vektörü ile düğümler arasındaki bağlantılar [30]
Düğümlerin dizilimi düğümlerin komşuluk ilişkisini tanımlamasından dolayı
yöntemin başarımı açısından çok önemlidir. Düğümler bir boyut, iki boyut veya üç
boyutta altıgen veya dikdörtgen olarak dizilebilir [31].
Düğümlerin ağırlık vektörlerine rastgele küçük sayılar ile başlangıç değerleri
verilebilir. Fakat bu yöntem bazı durumlarda öğrenmenin yavaş olmasına neden olabilir.
Bu nedenle ikinci bir yol olarak başlangıç ağırlıkları giriş vektörleri arasından
örneklenebilir veya giriş vektörlerine yakın değerlerden seçilebilir. Böylece başlangıçta
düğümlerin bir kısmı zaten giriş uzayında yerleşmiş olduklarından, öğrenme süreci büyük
ölçüde hızlanır [31].
Öğrenme kipi rekabetçi öğrenme yöntemini kullanır. Öğrenme kipinde giriş
vektörünün tüm düğümlerin ağırlık vektörüne uzaklığı hesaplanır. Uzaklık hesaplanırken
22
genel olarak Euclidian mesafesi kullanılır. Giriş vektörüne en yakın ağırlığa sahip düğüm
belirlendikten sonra Denklem 3.5’de gösterilen ifadeye göre bu düğüm ve komşularının
ağırlıkları güncellenir.
𝑊𝑣 (𝑠 + 1) = 𝑊𝑣 (𝑠) + 𝑁(𝑢, 𝑣, 𝑠) ∗ 𝑎(𝑠) ∗ (𝐷(𝑡) − 𝑊𝑣 (𝑠))
(3.5)
Wv(s+1)
: v düğümünün güncellenmiş ağırlık vektörü
Wv(s)
: v düğümünün ağırlık vektörü
N(u,v,s)
: u ve v düğümünün arasındaki komşuluk derecesi
a(s)
: Zamanla düzenli azalan öğrenme katsayısı fonksiyonu
D(t)
: t. giriş vektörü
Öğrenme işleminin başlarında hızlı bir öğrenme için hızlı değişimler amaçlanırken,
sonlara doğru ağırlıkları ideal değere ulaştıracak küçük değişimler hedeflenir. Bu nedenle
güncellenen düğümün ağırlık vektöründeki değişimin büyüklüğü zamanla azalır.
Öğrenmenin hızlı ve ideal olması için öz örgütlemeli harita öğrenmesinde komşuluk
derecesi fonksiyonu kullanılır. Komşuluk derecesi fonksiyonu iki düğüm arasındaki
çapraz mesafeye bağlıdır. Bazı problemlerde komşuluk fonksiyonu basit olarak yakın
düğümler 1 diğer tüm düğümler 0 değer alırken bazı problemlerde de gauss fonksiyonu
kullanılır. Fonksiyonun yapısından bağımsız olarak komşuluk fonksiyonunun aldığı değer
zamanla azalır. Başlangıçta komşuluk fonksiyonu daha fazla düğüme etki ederek haritanın
giriş uzayına daha hızlı uyum göstermesi sağlanır. Son adımlarda ise düğümler teker teker
ideal değerlerine ulaştırılmak istenir.
3.2.1
Öz-Düzenleyen Harita Ağının Avantajları ve Dezavantajları
Hızlı ve kolay hesaplanabilir olması, ayarlanması gereken parametre olmaması
SOM öğrenmesinin avantajları arasında sayılabilir. Bunun yanında görselleştirilmesinin
zor olması, başlangıç değerlerinin yöntemin başarısı üzerindeki etkisinin çok yüksek
olması, sınıflar arası dengenin bazı durumlarda kurulamaması yöntemin zayıf yanlarıdır.
23
3.3
K-En Yakın Komşu (KNN) Sınıflayıcısı
K-En Yakın Komşu (KNN, ‘K-Nearest Neighbor’) algoritması sınıflamada çok sık
kullanılan basit bir algoritmadır [32]. Algoritma test vektörünün sınıf üyeliklerini
bildiğimiz vektörlerle karşılaştırılmasına dayanır. Karşılaştırma için genel olarak Öklid
mesafesi (Euclidian distance) kullanılır. Karşılaştırma sonucu belirlenen en yakın K
komşu vektörün sınıflarına bakılarak giriş vektörünün sınıf değeri atanır. Şekil 3.3’te
gösterilmiştir.
Şekil 3.3 KNN sınıflayıcısının k=3 ve k=6 değerleri için gösterimi [33]
K değerinin 1’e eşit olduğu durumlarda giriş vektörü doğrudan en yakın vektörün
sınıfındadır. K değerinin 1’den farklı değerleri için ise genel olarak K en yakın komşu
giriş vektörüne olan yakınlıklarına göre ağırlık verilir. Böylece daha yakın olan
komşuların etkisi daha fazla olur. Ağırlık verme işlemi için mesafenin çarpma işlemine
göre tersi çok yaygın olarak kullanılır. Özellikle sınıflar arasındaki dağılımın çarpık
olduğu durumlarda ağırlık verme önemli bir rol oynar. Bir diğer yöntemde ağırlık verme
olmadan K en yakın komşunun en çok sahip olduğu sınıf değeri test vektörünün sınıf
değeri olarak atanır.
Bu algoritmanın artıları basit bir yapıya sahip olmasından dolayı kolay
uygulanabilmesini, hesap basitliği ve az sayıda öznitelik vektörü olduğu durumlarda iyi
24
sonuçlar vermesidir [34]. Buna rağmen KNN, her özniteliğe eşit önem vermesi nedeniyle
bazı problemlerin çözümünde etkili olamaz. Bu sorun normalizasyon ve ağırlık verme gibi
yöntemlerle bir ölçüde çözülebilir.
25
SINIFLAYICILARIN BÖLÜTLEME SONUÇLARI
4.1
Bölütlemede Kullanılan Doku Görüntüleri ve Öznitelikler
Çalışmada önerilen sınıflayıcılar kullanılarak üç farklı doku görüntüsü bölütlenmeye
çalışılmıştır. İlk olarak Brodatz veri tabanından seçilmiş olan beş farklı dokuyla, daha
sonra yine Brodatz veri tabanından seçilmiş olan dört farklı dokuyla ve son olarak medikal
doku görüntüsüyle benzetimler gerçekleştirilmiştir. Medikal doku ile yapılan benzetimde
dokusal özelliklerinden dolayı medikal doku olarak ultrasonik fantom doku görüntüsü
seçilmiştir.
İlk iki benzetim için gerekli olan örnek doku görüntüleri için literatürde sıklıkla
kullanılan Brodatz veri tabanı kullanılmıştır. İlk benzetim için brodatz veri tabanından
Şekil 4.1’deki 5 doku, ikinci benzetim için Şekil 4.2’deki 4 doku seçilmiştir. 3. Benzetim
için Şekil 4.3’teki doku örnekleri giriş olarak kullanılmıştır. Bütün dokular benzetim
kolaylığı nedeniyle 64x64 boyutunda alınmıştır.
Şekil 4.1 İlk benzetimde kullanılan beş farklı Brodatz dokusu
26
Şekil 4.2 İkinci benzetimde kullanılan dört farklı Brodatz dokusu
Şekil 4.3 Üçüncü benzetimde kullanılan Ultrasonik fantom dokular
Her benzetimde doku görüntüleri sınıflayıcılara eğitim verisi olarak verilecektir.
Daha sonra bu görüntülerin bir arada bulunduğu test görüntüsü verilecektir. Dokular test
görüntülerini elde etmek için Şekil 4.4, Şekil 4.5 ve Şekil 4.6’da gösterildiği gibi
birleştirilmiştir. Benzetim kolaylığı nedeniyle test görüntüleri 256x256 boyutunda
oluşturulmuştur.
Şekil 4.4 İlk benzetim için kullanılan test görüntüsü
27
Şekil 4.5 İkinci benzetim için kullanılan test görüntüsü
Şekil 4.6 Üçüncü benzetim için kullanılan medikal test görüntüsü
Benzetimler eğitim için verilen her dokulardan 144 örnek almaktadır. Böylece ilk
benzetim için toplam 720, ikinci benzetim için 576 ve üçüncü benzetim için 432 eğitim
vektörü elde edilir. Bölütleme işleminin başarıyla gerçekleşmesi durumunda, Şekil
4.7’deki gibi her farklı doku bölgesinin tek bir renk ile boyanmış olduğu (doku/sınıf adedi
kadar farklı renk içeren) bir görüntü elde edilecektir.
28
Şekil 4.7 İlk benzetimdeki test görüntüsünün bölütlenmiş hali (ideal durum)
Benzetimlerde bir piksel Tablo 4.1’de belirtilen 418 özniteliği içeren bir vektör ile
ifade edilmiştir. Tüm sınıflayıcı benzetimleri .Net 4.5.1 platformunda C# diliyle
yazılmıştır. Karşılaştırma yapılabilmesi amacıyla tüm benzetimler tek thread üzerinde eşit
koşullarda çalıştırılıp, öğrenme çalışma süreleri, test çalışma süreleri ve kaynak
kullanımları izlenmiştir.
Tablo 4.1 Çalışmada kullanılan öznitelikler
Öznitelik Çıkarma Yöntemi
Öznitelik Sayısı
İstatistiksel
42
Gri-ton dağılımı
84
Komşuluk gri-ton fark dağılımı
90
Fourier dönüşümü
167
Kenar haritası istatistiksel analizi
42
Toplam:
29
425
Karar Ağacının Benzetim Sonuçları
4.2
Karar ağacı öğrenmesi yönteminin başarımı bazı parametrelere bağlı olarak
değişmektedir. Bu nedenden dolayı parametrelere farklı değerler verilerek alınan sonuçlar
izlenmiş, parametrenin başarım üzerindeki etkisi izlenmiştir.
Karar ağacının maksimum derinliği 8,12 ve 16 değerleri ile test edilmiştir. Alt
düğüm oluşumu için gereken minimum veri miktarı için 2,4 ve 8 değerleri, minimum bilgi
kazancı için 2,4 ve 8 değerleri kullanılmıştır.
Beş sınıflı doku test görüntü için bu parametreler ile çalıştırılan 27 testin eğitim
süreleri, test süreleri ve başarım yüzdeleri Tablo 4.2’de verilmiştir.
Tablo 4.2 Beş sınıflı doku görüntüsü için karar ağacının başarımları
Test
Derinlik
En Az
En Az
Eğitim
Test
Başarım
Veri
Kazanç
(ms)
(ms)
(%)
1
8
2
2
5607,006 15985,73
80,10
2
8
4
2
5419,095 15200,58
80,10
3
8
8
2
5390,893 15017,52
80,20
4
8
2
4
5406,519 15282,02
80,10
5
8
4
4
5406,517 15016,38
80,10
6
8
8
4
5396,08 15129,99
80,20
7
8
2
8
5447,087 15054,15
80,10
8
8
4
8
5422,148 15063,25
80,10
9
8
8
8
5390,895 15196,34
80,20
10
12
2
2
11
12
4
12
12
13
7687,88
15109,2
82,14
2
7094,106 15133,35
81,03
8
2
6609,707 15110,13
82,17
12
2
4
7679,764 15057,83
82,14
14
12
4
4
7062,853 15254,34
81,03
15
12
8
4
6656,58 15313,27
82,17
16
12
2
8
7172,232 15063,26
81,89
30
17
12
4
8
6939,021 15030,01
81,70
18
12
8
8
6531,578 15076,98
82,17
19
16
2
2
8125,407 15154,93
81,86
20
16
4
2
7209,66 15065,45
80,96
21
16
8
2
6534,639 15063,25
82,17
22
16
2
4
8156,655 15247,43
81,86
23
16
4
4
7172,236 15095,15
80,96
24
16
8
4
6519,107 15016,38
82,17
25
16
2
8
7400,75
81,89
26
16
4
8
6937,843 15028,98
81,70
27
16
8
8
6555,31
82,17
15032
14973,59
Test sonuçları incelendiğinde tabloda aynı değerlerin tekrar ettiği görülmektedir.
Örnek olarak derinliğin 12 değerinden büyük olduğu 15, 24 ve 27 numaralı testlerde Karar
ağacını en az veri parametresinin 8 değerini alması sınırlamıştır. Benzetim sonuçlarına
göre Karar Ağacı ile elde edilen en yüksek başarım %82.17’dır. Bu başarımı gösteren ilk
karar ağacının derinliği 12, minimum veri sayısı 2 ve minimum bilgi kazancı 8’dir.
Başarımı en yüksek Karar Ağacının beş sınıflı doku test görüntüsü için oluşturduğu bölge
haritası Şekil 4.8’de verilmiştir.
Şekil 4.8 Karar ağacı ile bölütlenmiş beş sınıflı doku görüntüsü, derinlik 12, en az veri 8,
en az kazanç 2
31
13x13 Pecnere
İrilik (256 ton,d:2)
5x5 Pencere
> 0,004
Kurtosis Değeri
>62
13x13 Pencere
İrilik (256 ton,d:2)
< 0,004
5x5 Pencere
Kurtosis Değeri
>52
7x7 Pencere
Entropi 256 ton
5x5 Pencere
> -26
Kurtosis Değer
i<62
7x7 Pencere
Entropi 256 ton
< -26
Ana
Düğüm
16x16 Pencere
FFF [4,0] frekansı
11x11 Pencere
>1.42
Doku Kuvveti
(256 ton, d:1)
> 465
16x16 Pencere
FFF [4,0] frekansı
5x5 Pencere
<1.42
Kurtosis Değeri
<52
11x11 Pencere
Ortalaması
11x11 Pencere
>123
Doku Kuvveti
(256 ton, d:1)
< 465
11x11 Pencere
Ortalaması
<123
Şekil 4.9 Beş sınıflı doku görüntüsü için en başarılı Karar Ağacının yapısı
32
En yüksek başarımlı karar ağacının yapısı incelendiğinde ana düğümün verileri
5x5 pencere içerisindeki basıklık değerine göre sıraladığı görülür. Karar ağacının 3
derinliğe kadar yapısı Şekil 4.9’da verilmiştir. Karar ağacının 3 derinliğe kadar olan
düğümlerindeki doku dağılımları Tablo 4.3’te gösterilmiştir. Tablo incelendiğinde
derinliği 3 olan düğümlerin bile olasılık dağılımlarının bilgi kazancının yüksek olduğu
görülmektedir. En yüksek başarımlı karar ağacının tüm düğümleri incelendiğinde
özniteliklerin sadece %24’ünün düğümlere yerleştiği görülür.
Tablo 4.3 Karar Ağacının 3 derinliğe kadar olan düğümlerinin doku dağılımları
Düğüm
Derinlik 1.Doku 2.Doku 3.Doku 4.Doku 5.Doku
Sonuç
Ana Düğüm
0
20
20
20
20
20
-
5x5 Kurtosis Değeri>52
1
18
23
19
20
20
5x5 Kurtosis Değeri<52
1
24
14
23
19
20
5x5 Kurtosis Değeri>62
2
15
17
18
25
25
5x5 Kurtosis Değeri<62
2
20
27
18
18
17
11x11 Doku Kuvveti >465
2
19
33
3
0
45
11x11 Doku Kuvveti <465
2
27
0
38
35
0
13x13 İrilik >0,004
3
19
27
8
3
43
5
13x13 İrilik <0,004
3
10
5
33
52
0
4
7x7 Entropi > -26
3
40
5
5
34
16
1
7x7 Entropi < -26
3
12
36
23
12
17
2
16x16 FFT [4,0] >1.42
3
27
33
1
0
39
5
16x16 FFT [4,0] <1.42
3
12
32
5
0
51
2
11x11 Ortalaması>123
3
20
0
5
75
0
4
11x11 Ortalaması<123
3
34
0
65
0
1
3
Dört sınıflı doku görüntüsü ile yapılan testlerde Tablo 4.4‘teki başarımlar elde
edilmiştir.
33
Tablo 4.4 Dört sınıflı doku görüntüsü için karar ağacının başarımları
Test
Derinlik
En Az Veri En Az Kazanç Eğitim (ms)
Test (ms)
Başarım
1
8
2
2
2284
5920.9595
69.74
2
8
4
2
2288
5845.8901
69.74
3
8
8
2
2291
5924.9741
69.67
4
8
2
4
2285
5794.9014
69.74
5
8
4
4
2293
5879.9127
69.74
6
8
8
4
2245
5872
69.67
7
8
2
8
2299
5834
69.74
8
8
4
8
2269
5903
69.74
9
8
8
8
2247
5815
69.67
10
12
2
2
3335
5869
77.87
11
12
4
2
3031
5921
79.08
12
12
8
2
2745
6110
77.01
13
12
2
4
3422
5904
77.87
14
12
4
4
3061
5840
79.08
15
12
8
4
2779
5910
77.01
16
12
2
8
3048
5839
79.24
17
12
4
8
2922
5863
79.18
18
12
8
8
2709
5838
77.01
19
16
2
2
3544
5949
77.55
20
16
4
2
3072
5808
79.11
21
16
8
2
2741
5877
77.01
22
16
2
4
3523
5841
77.55
23
16
4
4
3055
5994
79.11
24
16
8
4
2763
5928
77.01
25
16
2
8
3185
6136
79.24
26
16
4
8
3086
5919
79.17
27
16
8
8
2717
5966
77.01
34
Dört sınıflı doku görüntüsü ile yapılan benzetim sonuçlarında Karar Ağacı ile elde
edilen en yüksek başarım %79.24’tür. Bu karar ağacının derinliği 12, minimum veri sayısı
2 ve minimum bilgi kazancı 8’dir. Başarımı en yüksek Karar Ağacının dört sınıflı doku
test görüntüsü için oluşturduğu bölge haritası Şekil 4.10’da verilmiştir.
Şekil 4.10 Karar ağacı ile bölütlenmiş dört sınıflı doku görüntüsü, derinlik 12, en az veri
2, en az kazanç 8
Ultrasonik fantom doku görüntüsü ile yapılan testlerde Tablo 4.5‘daki başarımlar
elde edilmiştir.
Tablo 4.5 Medikal doku görüntüsü için karar ağacının başarımları
Test
Derinlik
En Az Veri En Az Kazanç Eğitim (ms) Test (ms)
Başarım
1
8
2
2
322
38326
87.56
2
8
4
2
310
28648
87.56
3
8
8
2
327
27460
87.56
4
8
2
4
302
28025
87.56
5
8
4
4
278
27787
87.56
6
8
8
4
297
28119
87.56
7
8
2
8
282
27911
87.56
8
8
4
8
303
27961
87.56
9
8
8
8
287
28044
87.56
10
12
2
2
355
27929
96.65
11
12
4
2
335
28591
95.09
35
12
12
8
2
309
28411
92.44
13
12
2
4
351
28324
96.65
14
12
4
4
336
28094
95.09
15
12
8
4
312
28131
92.44
16
12
2
8
334
28134
92.89
17
12
4
8
329
31528
91.93
18
12
8
8
312
30160
92.44
19
16
2
2
380
36203
96.65
20
16
4
2
451
33811
95.09
21
16
8
2
354
32701
92.44
22
16
2
4
399
30809
96.65
23
16
4
4
397
33187
95.09
24
16
8
4
372
31493
92.44
25
16
2
8
357
31020
92.89
26
16
4
8
356
31984
91.93
27
16
8
8
596
30552
92.44
Medikal doku görüntüsü ile yapılan benzetim sonuçlarında Karar Ağacı ile elde
edilen en yüksek başarım %96.65’tir. Bu karar ağacının derinliği 12, minimum veri sayısı
2 ve minimum bilgi kazancı 2’dir. Başarımı en yüksek Karar Ağacının dört sınıflı doku
test görüntüsü için oluşturduğu bölge haritası ’te verilmiştir.
Medikal doku görüntüsü ile yapılan benzetimde Şekil 4.11’deki doku haritası elde
edilmiştir.
36
Şekil 4.11 Karar ağacı ile bölütlenmiş ultrasonik fantom doku görüntüsü, derinlik 12, en
az veri 2, en az kazanç 2
4.3
SOM Ağının Benzetim Sonuçları
SOM Ağı için geliştirilen benzetimde çıkış birimleri iki boyutlu düzlem üzerinde
dikdörtgen olarak yerleştirilmiştir. Öğrenme katsayı iterasyondan iterasyona lineer olarak
azalan bir fonksiyon ile ayarlanmıştır. Komşuluk fonksiyonu uzaklık ile lineer olarak
azalacak şekilde seçilip, komşuluk ilişkisi 1,2 komşuluk değerleri için ayrı ayrı test
edilerek başarım üzerindeki etkisi izlenmiştir. Çıkış birimi sayısı 20x20, 30x30 ve 40x40
değerleri için test edilmiştir. İterasyon sayısı 8000, 16000 ve 24000 değerleri için test
edilmiştir. Bu parametreler ile çalıştırılan 27 test için özniteliklerin hazırlandığı hazırlık
süreleri, eğitim süreleri, test süreleri ve başarım yüzdeleri Tablo 4.6’de verilmiştir.
Tablo 4.6 Beş sınıflı doku görüntüsü için SOM ağının başarımları
Test
Düğüm Sayısı İterasyon
Komşuluk
Eğitim
Test
Başarım
1
400
8000
1
143135,4
52451,44
69,99
2
400
16000
1
273900,2
52102,7
73,50
3
400
24000
1
428206,1
53954,13
72,42
4
400
8000
2
145877,3
50378,39
65,88
5
400
16000
2
287487,3
52302,82
65,24
6
400
24000
2
426598,6
52873,39
69,10
37
7
900
8000
1
370822,8
148321,8
72,54
8
900
16000
1
709918,8
124707,3
71,56
9
900
24000
1
1001079
115931,6
72,32
10
900
8000
2
325320,7
113872,2
74,11
11
900
16000
2
610642,6
111357,9
72,39
12
900
24000
2
973243,4
124855
72,77
13
1600
8000
1
684933,1
191419,7
67,25
14
1600
16000
1
990196,9
178568,5
69,23
15
1600
24000
1
1685938
219182
67,28
16
1600
8000
2
640987,1
272663,3
66,55
17
1600
16000
2
1301757
180314,7
67,51
18
1600
24000
2
1430369
179258,2
68,18
Benzetim sonuçlarına göre elde edilen en yüksek başarım %74.11’dır. En yüksek
başarıma sahip SOM Ağının beş sınıflı doku görüntüsü için başarımları Şekil 4.12‘ de
verilmiştir.
Şekil 4.12 SOM ile bölütlenmiş beş sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon
sayısı 8000, komşuluk 2
38
Dört sınıflı doku görüntüsü ile yapılan testlerde Tablo 4.7‘daki başarımlar elde
edilmiştir.
Tablo 4.7 Dört sınıflı doku görüntüsü için SOM ağının başarımları
Test
Düğüm Sayısı İterasyon
Komşuluk
Eğitim
Test
Başarım
1
400
8000
1
46060,65
17425,59
63,06
2
400
16000
1
89208,35
17429,6
65,47
3
400
24000
1
132640,3
17455,61
64,99
4
400
8000
2
49122,69
17461,62
61,83
5
400
16000
2
94881,21
17824,95
63,78
6
400
24000
2
141287
19385,9
63,68
7
900
8000
1
106025,7
38694,75
62,82
8
900
16000
1
207030,1
41565,66
64,67
9
900
24000
1
309780
43284,8
65,15
10
900
8000
2
114916,5
38623,7
63,14
11
900
16000
2
209511,4
42142,09
65,18
12
900
24000
2
323003,9
39875,53
63,81
13
1600
8000
1
188984,8
75422,52
60,33
14
1600
16000
1
376338,5
69714,39
58,93
15
1600
24000
1
553095,4
81732,11
59,98
16
1600
8000
2
230903,5
82377,98
57,14
17
1600
16000
2
453001,1
83600,46
57,37
18
1600
24000
2
609174,5
64847,77
57,62
Benzetim sonuçlarına göre elde edilen en yüksek başarım %65.18’dır. En yüksek
başarıma sahip SOM Ağının dört sınıflı doku görüntüsü için başarımları Şekil 4.13‘ te
verilmiştir.
39
Şekil 4.13 SOM ile bölütlenmiş dört sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon
sayısı 16000, komşuluk 2
Ultrasonik fantom doku görüntüsü ile yapılan testlerde Tablo 4.8‘daki başarımlar
elde edilmiştir.
Tablo 4.8 Ultrasonik fantom doku görüntüsü için SOM ağının
başarımları
Test
Düğüm
Sayısı
İterasyon Komşuluk Eğitim
Test
Başarım
1
400
8000
1 14075,36 6269,711
82,43
2
400
16000
1 27314,08 6208,983
78,79
3
400
24000
1 40783,14 6156,557
85,81
4
400
8000
2 14855,48 6250,314
83,13
5
400
16000
2 29249,98 6328,441
82,43
6
400
24000
2 43773,74 6338,774
87,18
7
900
8000
1 32023,87
13165,3
73,21
8
900
16000
1 62314,72 13026,22
72,99
9
900
24000
1 91711,17
12720,9
71,56
10
900
8000
32292,7 12852,18
70,03
11
900
16000
2 64025,75 12804,06
74,20
12
900
24000
2 94577,88 12972,88
74,27
13
1600
8000
1 56219,53 22250,07
65,18
14
1600
16000
1 109201,2 22605,96
68,27
2
40
15
1600
24000
1 173025,2 22242,86
71,21
16
1600
8000
2 57070,93 22416,57
60,46
17
1600
16000
2 111011,6 22366,15
62,31
18
1600
24000
2 164930,6 22307,77
55,33
Tablodaki sonuçlara göre elde edilen en yüksek başarım %87.18’dır. En yüksek
başarıma sahip SOM ağının ultrasonik fantom doku görüntüsü için başarımları Şekil
4.14‘te verilmiştir.
Şekil 4.14 SOM ile bölütlenmiş ultrasonik fantom doku görüntüsü, düğüm sayısı 400,
iterasyon sayısı 24000, komşuluk 2
4.4
KNN Sınıflayıcısının Benzetim Sonuçları
K-En yakın komşu algoritması için geliştirilen benzetimde K değeri 1 ile 8
arasındaki değerlerden seçilmiştir. Bu sınıflayıcıda eğitim aşaması olmadığı için eğitim
süresi değerlendirilmemiştir. Yapılan benzetim sonuçları Tablo 4.9‘da verilmiştir.
Tablo 4.9 Beş sınıflı doku görüntüsü için KNN ağı başarımları
Test
K
Test
Başarım
1
1
225726
69,61
2
2
231000
69,61
3
3
280943
69,7
41
4
4
239359
70,12
5
5
314000
69,64
6
6
318000
69,83
7
7
293000
69,96
8
8
226250
69,64
K parametresinin 4 değeri için %70,12 başarım elde edilmiştir. Bu sınıflayıcıdan
çıktı olarak elde edilen görüntü Şekil 4.15‘te verilmiştir.
Şekil 4.15 KNN ile bölütlenmiş beş sınıflı doku görüntüsü, K=4
Dört sınıflı doku görüntüsü için yapılan benzetimlerde Tablo 4.10’daki
başarımlar elde edilmiştir. K=1 parametresi ile elde edilen en başarılı bölütleme
görüntüsü Şekil 4.16’da gösterilmiştir.
Tablo 4.10 Dört sınıflı doku görüntüsü için KNN ağı başarımları
K
Test Süresi (s)
Başarım
1
81850,58
74,30
2
80687,46
74,30
3
73105,98
71,88
4
67556,33
72,26
5
67399,12
71,97
6
67287,26
73,02
42
7
67331,25
72,39
8
67329,81
72,51
9
67393,19
71,52
Şekil 4.16 KNN ile bölütlenmiş dört sınıflı doku görüntüsü, K=1
Ultrasonik fantom doku görüntüsü için yapılan benzetimlerde Tablo 4.11’daki
başarımlar elde edilmiştir. K=1 parametresi ile elde edilen en başarılı bölütleme
görüntüsü Şekil 4.17’de gösterilmiştir.
Tablo 4.11 Ultrasonik fantom doku görüntüsü için KNN başarımları
K
Test Süresi (s)
Başarım
1
16017,07
96,84
2
16332,92
96,84
3
16562,92
95,73
4
16582,53
95,73
5
16614,94
95,47
6
16697,75
95,50
7
16504,66
94,99
8
16487,52
95,34
9
16547,17
95,09
43
Şekil 4.17 KNN ile bölütlenmiş ultrasonik fantom doku görüntüsü, K=1
4.5
Sınıflayıcıların Başarımlarının Karşılaştırılması
Bu bölümde farklı sınıflayıcılarla yapılan benzetimlerin sonuçları karşılaştırılarak
incelenmiştir. Benzetimi yapılan 3 sınıflayıcının beş sınıflı doku görüntüsü için en başarılı
testlerinin sonuçları Tablo 4.12‘de gösterilmiştir.
Tablo 4.12 Sınıflayıcıların beş sınıflı doku görüntüsü için başarımları
Sınıflayıcı
Eğitim (s)
Test (s)
Toplam Süre(s)
Başarım (%)
Karar ağacı
6,6
15
22,24
82,17
SOM
325
113
438,61
74,11
KNN
0
239
239,64
70,12
Tüm sınıflayıcıların hazırlık süresi, hazırlık aşamasında aynı işlemler yapıldığı
için hepsinde yaklaşık olarak 0,6 saniye sürmüştür. Karar ağacı sınıflayıcısı süre
bakımından diğer sınıflayıcılara göre daha başarılıdır. Bunun nedeni diğer sınıflayıcılar
test aşamasında 338 öznitelik incelerken karar ağacı her düğümde bir özniteliğe bakarak
karar ağacı derinliği kadar öznitelik inceler. Benzetimi yapılan karar ağacında 338 yerine
sadece 12 öznitelik incelenmiş ve diğer algoritmalardan çok daha hızlı test yapılmıştır.
Toplam süreye bakıldığında som sınıflayıcısı K-en yakın komşu sınıflayıcısına göre yavaş
gözükse de, test süresi daha kısa olduğu için aynı sınıflayıcının tekrar tekrar kullanıldığı
durumlarda som sınıflayıcısı daha performanslı olacaktır.
44
Sınıflayıcıların beş sınıflı doku görüntüsündeki “doku bazında” başarımları Tablo
4.13’te gösterilmiştir. Tabloya göre 3 sınıflayıcının en düşük başarım gösterdiği doku 1
numaralı dokudur. Bu dokuda en yüksek başarımı Öz-Düzenleyen Harita Ağı elde
etmiştir. 2 numaralı dokuda ise 3 sınıflayıcı da yüksek başarım göstermiştir.
Sınıflayıcıların doku haritaları Şekil 4.18‘de birlikte gösterilmiştir. Şekildeki görüntülerde
Doku 1 üstte, Doku 2 solda, Doku 3 aşağıda, Doku 4 merkezde ve Doku 5 sağda yer
almaktadır.
Tablo 4.13 Sınıflayıcıların beş sınıflı doku görüntüsü için doku bazında başarımları
Sınıflayıcı
Doku 1
(%)
Doku 2
(%)
Doku 3
(%)
Doku 4
(%)
Doku 5
(%)
Ortalama
(%)
Karar Ağacı
62
93
85
85
81
82,17
SOM
75
87
72
58
69
74,11
KNN
57
86
75
69
60
70,12
Şekil 4.18 Bölütlenmiş beş sınıflı doku görüntüleri
Sınıflayıcıların dört sınıflı doku görüntüsündeki doku bazında başarımları Tablo
4.14‘te gösterilmiştir. Tabloya göre 3 sınıflayıcının en düşük başarım gösterdiği doku 2
numaralı dokudur. Bu dokuda en yüksek başarımı KNN sınıflayıcısı elde etmiştir. 1
numaralı dokuda ise 3 sınıflayıcı da yüksek başarım göstermiştir. Sınıflayıcıların doku
haritaları Şekil 4.19‘da birlikte gösterilmiştir. Şekildeki görüntülerde Doku 1 sağ aşağıda,
Doku 2 sol aşağıda, Doku 3 sol üstte ve Doku 4 sağ üstte yer almaktadır.
45
Tablo 4.14 Sınıflayıcıların dört sınıflı doku görüntüsü için doku bazında başarımları
Sınıflayıcı
Doku 1 (%) Doku 2 (%) Doku 3 (%) Doku 4 (%) Ortalama (%)
Karar ağacı
94
56
98
58
79,24
SOM
94
46
61
49
65,18
KNN
94
60
89
52
74,30
Şekil 4.19 Bölütlenmiş dört sınıflı doku görüntüleri
Sınıflayıcıların dört sınıflı doku görüntüsündeki doku bazında başarımları Tablo
4.15‘te gösterilmiştir. Tabloya göre 3 sınıflayıcının en düşük başarım gösterdiği doku 1
numaralı dokudur. Bu dokuda en yüksek başarımı Karar Ağacı elde etmiştir. 2 numaralı
dokuda ise 3 sınıflayıcı da yüksek başarım göstermiştir. Sınıflayıcıların doku haritaları
Şekil 4.20‘de birlikte gösterilmiştir. Şekildeki görüntülerde Doku 1 siyah, Doku 2 gri,
Doku 3 beyaz renkle gösterilmiştir.
Tablo 4.15 Sınıflayıcıların Ultrasonik fantom doku görüntüsü için doku bazında
başarımları
Sınıflayıcı
Doku 1 (%)
Doku 2 (%)
Doku 3 (%)
Ortalama (%)
Karar ağacı
65
96
80
96,65
SOM
60
86
83
78,18
KNN
52
97
96
96,84
46
Medikal doku görüntüsüyle yapılan benzetimlerin sonuçları Şekil 4.20‘de
gösterilmiştir. Karar ağacı ve k-en yakın komşu sınıflayıcısı medikal dokuyu başarıyla
sınıflandırırken Öz-Düzenleyen Harita Ağı sınıflayıcısı özellikle koyu renkteki dokuda
başarısız olmuştur.
Şekil 4.20 Bölütlenmiş ultrasonik fantom doku görüntüleri
47
SONUÇLAR VE TARTIŞMA
Bu çalışmada Karar Ağacı, SOM ve KNN sınıflayıcıları üç farklı doku görüntüsünü
bölütlemek için kullanılmıştır. Öncelikle sınıflayıcılarda kullanılmak üzere öznitelik
çıkarma işlemi yapılmıştır. Daha sonra eğitim görüntülerinden örnekleme yapılıp
örneklerin öznitelikleri çıkarılmıştır. Eğitim görüntülerindeki her dokudan 144 örnek
alınmıştır. Böylece beş sınıflı doku görüntüsü için toplam 720, dört sınıflı doku görüntüsü
için 576 ve ultrasonik fantom doku görüntüsü için 432 eğitim vektörü elde edilmiştir.
Sınıflayıcıların farklı doku görüntüleriyle olan başarımları Tablo 5.1’de gösterilmiştir.
Şekil 5.1’de tabloda başarımları gösterilen bölütlenmiş görüntüler gösterilmiştir.
Tablo 5.1 Sınıflayıcıların farklı doku görüntüleriyle olan başarımları
5 Sınıflı Doku
Görüntüsü
Karar Ağacı
SOM
KNN
4 Sınıflı Doku
Görüntüsü
82,17
74,11
70,12
Ultrasonik Fantom
Doku Görüntüsü
79,24
65,18
74,3
96,65
78,18
96,84
Karar Ağacı sınıflayıcısı 5 sınıflı ve 4 sınıflı doku görüntüsünde diğer sınıflayıcılardan
daha başarılı olmuştur. Ultrasonik fantom doku görüntüsünde yapılan benzetimlerde ise
KNN ile Karar Ağacı yakın sonuçlar vermişlerdir. SOM sınıflayıcısı 5 sınıflı doku
görüntüsünde başarılı olurken diğer görüntülerde düşük başarım göstermiştir.
48
Şekil 5.1 Bölütlenmiş doku görüntüleri
Tablo
5.2’de
sınıflayıcıların
farklı
doku
görüntülerindeki
eğitim
süreleri
gösterilmiştir. Eğitim aşaması olmadığı için KNN’e tabloda yer verilmemiştir.
Sınıflayıcıların test süreleri de Tablo 5.3’te gösterilmiştir. Karar Ağacı genel olarak eğitim
ve test süresi en kısa süren sınıflayıcı olmuştur. Bunun nedeni büyük ölçüde test sırasında
sadece ağaçta izlenilen düğümlerdeki özniteliklerle çalışmasıdır. SOM sınıflayıcısı eğitim
süresi uzun olmasına rağmen test süresinin kısa olmasından dolayı çok sayıda görüntünün
test edileceği durumlarda KNN’e tercih edilebilir.
49
Tablo 5.2 Sınıflayıcıların farklı doku görüntülerindeki eğitim süreleri
5 Sınıflı Doku
Karar Ağacı
SOM
4 Sınıflı Doku
6,6
325
Ultrasonik Fantom
3
200
0,3
43
Tablo 5.3 Sınıflayıcıların farklı doku görüntülerindeki test süreleri
5 Sınıflı Doku
Karar Ağacı
SOM
KNN
4 Sınıflı Doku
15,1
114
240
Ultrasonik Fantom
5,8
42
81
28
6
16
Çalışmanın devamı olarak farklı medikal doku görüntüleri veya uydu görüntüleriyle
de benzetim yapılarak test görüntülerinin çeşitlendirilmesi planlanıyor. Çalışmanın başka
geliştirilebilir yanları da mevcuttur. Sınıflayıcılarda farklı öznitelikler kullanılarak
başarım yükseltilebilir. Karar Ağacı sınıflayıcısındaki gibi öznitelikler seçilmediği için
SOM ve KNN sınıflayıcılarında boyut indirgeme yöntemleri uygulanabilir.
50
KAYNAKLAR
[1] Duda, R.O. Hart, P.E and Stork, D.G., 2012, Pattern Classification, John Wiley &
Sons, New York.
[2] Pal, N. R., and Pal, S. K., 1993. A review on image segmentation
techniques.Pattern recognition, 26(9), 1277-1294.
[3] McNitt-Gray, M.F. Huang, H.K. and Sayre, J.W., 1995, Feature selection in the
pattern classification problem of digital chest radiograph segmentation, Medical
Imaging, IEEE Transactions on, 14, 537-547.
[4] Brodatz, P., 1966. Textures A photographic Album for Artists and Designers,
Dover, New York.
[5] Wang, C. Guo, R. Chiang, M. ve WONG, J., 2006. Decision tree based control
chart pattern recognition, International Journal of Production Research, 46, 4889-4901.
[6] Lee, Y.H. Ko, S., 1991. Center weighted median filters and their applications to
image enhancement, Circuits and Systems IEEE Transactions on, 38, 984-993.
[7] Pitas, I. ve Venetsanopoulos, A.N., 1986. Nonlinear mean filters in image
processing, Acoustics, Speech and Signal Processing IEEE Transactions on, 34, 573584.
[8] Dijital görüntü. Median Filter. Digimizer, Web. 1 May 2015.
<http://www.digimizer.com/manual/m-image-filtermedian.php>.
[9] Lim, J.S., 1990. Two-Dimensional Signal and Image Processing, Prentice-Hall
International Inc.
[10] Ölmez, T. ve Dokur, Z., 2009. Uzman Sistemlerde Örüntü Tanıma, Ders Notu,
İTÜ.
[11] Gelman, L. ve Braun S., 2000. The optiomal usage of the fourier transform for
pattern recognition, Mechanical Systems and Signal Processing, 15, 641-645.
51
[12] Dijital görüntü. Two-dimensional Fourier Filtering, Web. 1 May 2015.
<http://fourier.eng.hmc.edu/e101/lectures/Image_Processing/node7.html>.
[13] Dijital görüntü. Project 3 Fun with Frequencies, Web. 1 May 2015.
<https://inst.eecs.berkeley.edu/~cs194-26/fa14/upload/files/proj3/cs194mo/jia_leyuan_proj3/>.
[14] Bao, P., Zhang, D., and Wu, X., 2005. Canny edge detection enhancement by
scale multiplication. Pattern Analysis and Machine Intelligence, IEEE Transactions on,
27(9), 1485-1490.
[15] Dijital görüntü. CSC5280 Project 1: Canny Edge Detection, Web. 1 May 2015.
<http://mmlab.ie.cuhk.edu.hk/archive/gbq/csc5280_project_1.htm>
[16] Hongliang, B. and Changping, L., 2004. A hybrid license plate extraction method
based on edge statistics and morphology, Pattern Recognition 2004 ICPR 2004
Proceedings of the 17th International Conference on, 2, 831-834.
[17] Jain, A.K., 1989. Fundamentals of Dijital görüntü Processing, Prentice Hall Inc.
[18] Amadasun, M. and King, R., 1989. Textural features corresponding to textural
properties. IEEE Trans Sys Man Cyber, 19, 5,1264-1274.
[19] Safavian, S. R. and Landgrebe, D. 1990. A survey of decision tree classifier
methodology.
[20] Jin, C., De-lin, L. and Fen-xiang, M., 2009. An improved ID3 decision tree
algorithm. In Computer Science & Education, ICCSE'09. 4th International Conference
on. 127-130.
[21] Quinlan, J. R., 1996. Bagging, boosting, and C4. 5. In AAAI/IAAI, 1,pp. 725-730.
[22] Denison, D. G., Mallick, B. K., and Smith, A. F., 1998. A bayesian CART
algorithm. Biometrika, 85(2), 363-377.
[23] Magidson, J., and Vermunt, J. K., 2005. An extension of the CHAID tree-based
segmentation algorithm to multiple dependent variables. In Classification—the
Ubiquitous Challenge. Springer Berlin Heidelberg, 176-183.
52
[24] Drummond, C., and Holte, R. C. 2000. Exploiting the cost (in) sensitivity of
decision tree splitting criteria. In ICML, 239-246.
[25] Freund, Y. and Mason, L., The alternating decision tree learning algorithm.,
1999. ICML '99 Proceedings of the Sixteenth International Conference on Machine
Learning, pp. 124-133, Morgan Kaufmann Publishers Inc. San Francisco.
[26] Srivastava, A. Eui-Hong Han, Singh, V. and Kumar, V., 1998. Parallel
formulations of decision-tree classification algorithms, International Conferance on
Parallel Processing, Minneapolis, 10-14 Aug 1998, 237 – 244.
[27] Mehta, M., Rissanen, J., and Agrawal, R., 1995. MDL-Based Decision Tree
Pruning. The First International Conference on Knowledge Dicovery and Data Mining,
2, 216-221.
[28] Bradford, J. P., Kunz, C., Kohavi, R., Brunk, C., and Brodley, C. E., 1998.
Pruning decision trees with misclassification costs. In Machine Learning ECML-98,131136.
[29] Onah, I. F., and Chibueze, I. H., 2011. A Self-Organizing Map Model for
Network Fraud Pattern Classification. The IUP Journal of Science & Technology, 73,
38-48.
[30] Dijital görüntü. Kohonen, Web. 1 May 2015.
<http://www.lohninger.com/kohonen.html>
[31] Kohonen, T., 1998. The self-organizing map, Neurocomputing, 21(1) , 1-6.
[32] Beyer, K., Goldstein, J., Ramakrishnan, R., and Shaft, U., 1999. When is
“nearest neighbor” meaningful?. In Database Theory, ICDT’99. Springer Berlin
Heidelberg, 217-235.
[33] Dijital görüntü. Classification of Hand-written Digits, Web.1 May 2015.
<http://bdewilde.github.io/blog/blogger/2012/10/26/classification-of-hand-writtendigits-3/>
[34] Fort, J. C., Letremy, P., and Cottrell, M., 2002. Advantages and drawbacks of
the Batch Kohonen algorithm, In ESANN, 2, 223-230.
53
ÖZGEÇMİŞ
29.09.1991 yılında Giresun’da doğdum. İlk ve orta öğrenimimi İstanbul’da gördüm. 2009
yılında Burak Bora Anadolu Lisesi’nden mezun oldum. Halen İstanbul Teknik
Üniversitesi’nde okuduğum Elektronik Mühendisliği bölümüne devam etmekteyim.
54

Benzer belgeler