sayısal iletişim ders notları
Transkript
sayısal iletişim ders notları
Communication Theory ENFORMASYON TEORİSİ KODLAMA Doç. Dr. Hakan Doğan ENFORMASYON DEYİMİ NEDEN KULLANILMIŞ? Kaynaklarn, kanalların ,alıcıların bilgi karakteristiklerini incelemek. Bilginin iletimini optimize etmek için İletimin güvenirliliğinin düzeltilmesi Farzedelim X şehirinden Y şehirine günlük hava tahmini veriliyor ve havanın güneşli, bulutlu ,yağmurlu ,sisli olabileceğini farzedelim . Her hava belirteci bir kaynak sembolu olarak kodlansın. Yani bir Kaynak kodlamayıcımız olsun. “source koding” günlük hava raporu verilsin. Rapor dizisinede mesaj denir “message” Bilgi tanımı : Alıcı gönderilen bilgiyi aldığında onun hakkında ki kalkan belirsizlik miktarına denir. Hava sembolu İhtimal Güneşli Bulutlu Yagmurlu Sisli 0.65 0.20 0.10 0.05 Tablodan görüleceği üzere X şehrinin güneşli bir havası var ve biz A şehri güneşli dediğimizde az bir bilgi vermiş oluruz diğer taraftan sisli dediğimizde bu şaşırtıcı olur yani oldukça büyük bir bilgidir. Örnek mesaj : güneşli ,güneşli ,güneşli ,bulutlu ,bulutlu ,yagmurlu Tablo 1 Hava Sembolü Güneşli Bulutlu Yagmurlu Sisli Tablo 2 Hava Sembolü Güneşli Bulutlu Yagmurlu Sisli Kod 00 01 10 11 Kod 0 10 110 111 Mesaj’ın yukardaki şekle göre kodlaması Tablo 1 ‘e göre Tablo 2 ‘e göre 00 00 00 01 01 10 0 0 0 10 10 110 = 12 bit = 10 bit Sonuç ve yorum : daha kısa bir mesaj iletiminde kaynak kodlayıcı ihtimali yüksek olan mesajı daha bir kod uzunluğuyla kodlar. Bu bir biçimde de şıkıştırma algoritması olarak düşünülebilir. Mesajın olasılığı Kod sözcüğünün uzunluğu Kod sözcüğünde ihtimali büyük olan mesajın kaybedilebilmesi göz önüne alınıyor. Kod sözcüğünün küçük olması kadar kod sözcükleri arasındaki farkında büyük olması gerekmektedir. 000 111 001 şeklindeki gibi Bilgi kaynakları hafızalı ve hafızasız olarak ikiye ayrılır. Hafızalı bir kaynakta mevcut çıkış sembolü önceki sembole bağlıyken, hafızasız bir kaynakta herbir çıkış önceki sembollerden bağımsız olarak iletilir. Ayrık hafızasız kaynak için bigi içeriği (Information content of a Discrete Memoryless Source (DMS)) Bir olaydaki bilgi içeriği olayın belirsizliği ile yakından ilgilidir. Bilgi içeriğine literatürde kendi bilgisi^de denir. (self information ) X ile gösterilen bir DMS için X’in alabileceği değerleri gösteren alfabe (alphabet), x1 , x2 , xm ve P( xi ) ’de xi ’nin gelme olasılığını göstermek üzere I ( xi ) log b ile gösterilir. b 2 bit b 10 Hartley veya Decit b e nat (natural unit ) 1 P( xi ) (1.1) Haberleşmede b 2 durumunu kullanrak bilgi içeriğini bit cinsinden ifade ediyoruz. In a log10 a In 2 log10 2 Hatırlatma : log 2 a P(0) = 0.7 P(1) = 0.3 1.denkleme göre 0.51 bit 1.denkleme göre 1.74 bit P( A B) P( A).P( B) istatiksel bağimsız iki olay için A olayı açıklanınca I(A) birim belirsizlik ortadan kalkar. B olayı açıklanınca I(B) birim belirsizlik ortadan kalkar. Hem A hem B oluyorsa C A B bu olayın olaması durumunda I(C) birim belirsizlik ortadan kalkar. IC= IC + IB 0.51 bize sıfır ‘ı göndermek için 1 bitten daha az yarım bite ihtiyacımız var diyor peki yarım bit varmı tabiki yok bu bize bilginin etkili bir biçimde “efficient” depolanabilmesi veya iletilebilmesini gösterir. Bazı Özellikler: P( xi ) 1 I ( xi ) 0 I ( xi ) 0 P( xi ) P( x j ) I ( xi ) I ( x j ) Entropi (Ortalama Bilgi) : Pratik haberleşme sistemlerinde bilgi kaynağından iletilen uzun bilgi sembol dizileri söz konusu olduğu için kaynağın ürettiği tekbir sembolün bilgi içeriğinden daha çok kaynağın ortlama bilgi içeriğinden bahsedilir. X kaynağına ait ortalama bilgi miktarı m H ( X ) E[ I ( xi )] P( xi )I ( xi ) (1.2) i 1 m H ( X ) P( xi ) log 2 ( P( xi )) bit / symbol (1.3) i 1 Sonuç: Bir işaretin bilgi içeriği, o işareti tanımlamak için gerekli bit sayısına eşittir. (kendi bilgi formulü ile bulunur.) Eğer mesaj dizisi içinse bu kavram artık entropi dir. Örnek : X kaynağı 0 veya 1 üreten bir kaynak olmak üzere P(0)=0.5, P(1)=0.5 ise H(X) nedir? 1 1 1 1 H ( X ) log 2 log 2 1 bit / symbol 2 2 2 2 (1.4) Kaynağın entropisi H ( X ) , m alfabedeki toplam sembol sayısını göstermek üzere 0 H ( X ) log 2 m ile sınırlıdır. Bilgi Hızı (Information Rate) R r H(X ) (1.5) b/s Örnek : 4 KHz lik bir bantsınırlı bir işaret (ses) Nyquist hızında örnekleniyor ve 64 düzeyli bir işaret haline getiriliyor yani kuantalanıyor. (quantization) (A) örnekleme hızını (fs) ve örnekleme aralığını Ts bulunuz. (B) Sembol hızını (r) bulunuz. (C) Düzeylerin gönderilme olasılıkları eşit ise bilgi hızını bulunuz. A- B= 4 KHz ; Fs= 2B = 8K Hz , Ts = 1/fs = 1/ 8000 = 1.25 e-4 B- Sembol hızı r =1/Ts = fs= 8000 sembol/sn = 8ksembol/sn C- Bilgi içeriği H= log2 (64) = 6 bit/sembol (bit/aralık) Bilgi hızı = r*H = 48 kbps. AYRIK HAFIZASIZ KANAL (Discrete Memoryless Channel (DMC)) Kanala giriş ve çıkış değerleri belli bir alfabeden oluşan (ayrık) ve çıkış değerleri sadece o andaki giriş değerine bağlıysa bu kanala DMC denir. Bilgi kanalı , giriş alfabesi x1 , x2 , xm ve çıkış alfabesi y1 , y2 , yn şartlı olasılıklar kümesi bütün m ve n ler için P( yj/ xi)’lerden oluşur. Burada P( yj/ xi), xi sembolü gönderildiğinde çıkış sembolü yj nin gelme olasığını göstermektedir. İhtimali etkileyen faktör iletişim ortamının yapısı ve gürültü . P( yj/ xi) : Geçiş Olasılığı (Transition probability) Kanal Matrisi P( y1 x1 ) P( y2 x1 ) P( y1 x2 ) P( y2 x2 ) P(Y X ) P( y1 xm ) P( y2 xm ) P ( yn x1 ) P( yn x2 ) P( yn xm ) (1.6) Bütün i değerleri için n P( y j 1 j xi ) 1 (1.7) P11 P 21 P31 Notasyon farkı : P(yj/xi) = Pij P12 P22 P32 P13 P23 gibi P33 P11 a1 b1 a2 b2 a3 b3 İKİLİ SİMETRİK KANAL : “Binary symmetric channel ‘BSC’ ” p 0 0 q p q q 1 q p 1 p İKİLİ SİLEN KANAL : “Binary erasure channel ‘BEC’ ” p 0 0 q p q 0 q S q 1 p 0 p 1 Giriş olasılıkları P(X) ve çıkış olasılıkları P(Y) [ P( X )] [ P( x1 ), P( x2 ), P( xm )] [ P(Y )] [ P( y1 ), P( y2 ), P( yn )] (1.8) gibi satır matrisi ile gösterilirse, [ P(Y )] [ P( X )][ P(Y X )] olarak yazılabilir. (1.9) Eğer P( X ) diaygonal matris olarak gösterilirse; 0 P( x1 ) 0 P( x2 ) [ P( X )]d 0 0 0 0 0 0 P( xm ) [ P( X , Y )] [ P( X )]d [ P(Y X )] Hatırlatma: P( A B) Örnek: P( B A) P( A) P( A, B) P( A, B) , P( B A) , P( A B) P( B) P( A) P( B) (1.10) (1.11) Kanal için Etropi Hesaplamaları H(X,Y) = Kanalın tümündeki ortalama belirsiklik miktarı ( Joint etropi ) H(X) = Kanalın girişindeki ortalama belirsizlik miktarı H(Y) = Kanalın çıkışındaki ortalama belirsizlik miktarı H(X/Y) = Kanalın çıkışı gözlendikten sonra kanal girişi hakkında kalan ortalama belirsizlik miktarı. H(Y/X) = X iletildiğinde kanalın çıkışındaki ortalama belirsizlik miktarı H(X) H(X/Y) H(Y) I(X,Y) H(Y/X) H(X,Y) “Mutual Information” I(X;Y) = H(X) – H(X/Y) = Kanalın çıkışı gözlemlendikten sonra kanal girişi hakkındaki çözümlenen kısmı gösterir. I(X;Y) = H(Y) – H(Y/X) n H (Y ) P( y j ) log 2 ( P( y j )) (1.12) j 1 m H ( X ) P( xi ) log 2 ( P( xi )) n (1.13) i 1 m H ( X Y ) P( xi , y j ) log 2 ( P( xi y j )) (1.14) j 1 i 1 n m H (Y X ) P( xi , y j ) log 2 ( P( y j xi )) (1.15) j 1 i 1 n m H (Y , X ) P( xi , y j ) log 2 ( P( y j , xi )) (1.16) j 1 i 1 n m I ( X ; Y ) P( xi , y j ) log 2 ( j 1 i 1 P( xi y j ) P( xi ) ) (1.17) KANAL KAPASİTESİ C ile gösterilen bir kanalın “kanal sığası” iletebildiği maksimum ortalama enformasyon miktarı olarak tanımlanır. DMC bir kanal için sembol başına kanal kapasitesi (1.18) Cs max( I ( X , Y )) P ( xi ) Sayiyede r adet sembol gönderiliyorsa C rCs b/s Gürültüsüz kanal : Tüm giriş dağılımları için H(X/Y) = 0 gürültüsüzdür. x1 y1 x2 y2 x3 y3 Buna göre gürültüsüz kanal için Gürültülü kanal için (1.19) H(Y/X) = 0 ise kanal 1 0 0 0 1 0 0 0 1 I(X,Y) = H(X) I(X;Y) = H(X)- H(X/Y) Kanal çıkışı gözlemlendikten sonra kanal girişindeki kalkan belirsizlik yoksa I(X,Y) = 0 Toplamsal beyaz gürültülü kanal (AWGN : Additive White Gaussian Noise Channel) AWGN kanalda, X kanal girişi, n toplamsal band sınırlı beyaz sıfır ortalamalı 2 varyanslı gauss gürültüsü olmak üzere kanal çıkışı Y Y X n Olarak yazılırsa bu kanalda örnek başına kapasite S/N sinyal gürültü oranını göstermek üzere (1.20) Cs max I A;B bit / sample (1.21) şeklinde yazılabilir. Kanalın bandgenişliği B Hz olarak sabitlenirse çıkışta bandsınırlı olur ve Nyquist hızı 2B olacak şekilde örnekler alınırsa bu durumda kanal kapasitesi C 2.B. Cs bit / sn (1.22) olur. P C B log 2 1 N0B Örnek : 4 KHz bandgenişliğine sahip ve güç yoğunluk spektrumu / 2 10 12 W / Hz olan bir toplamsal beyaz gürültülü kanal için alıcıda alınması gerekli olan sinyalin gücü 0.1 mW. Kanalın kapasitesini hesaplayınız. B= 4000 Hz P = 0.1 (10-3) W N= N 0 B =2. 10-12 .4000 = 8. 10-9 W SNR = 1.25 * 104 3.denkleme göre C= 54.44 * 103 b/s R< C için iletim sağlanabilir. 33600 b/s model çalışabiir. Shannon Teoremi : C.E Shannon’a dek haberleşme teoricileri gürültülü bir kanal üzerinden enformasyon iletimi işleminde yapılan hata olasılığı küçültmek için yegane yolun işaret/gürültü oranının büyütülmesi ve/veya iletim hızının düşürülmesi gerektiğini düşünmekteydiler. 1940 Shanon “gürültülü kodlama teoremi ” ile iletilmesi gereken ortalama enformasyon miktarı R , C “kanal sığası” den küçük olduğu sürece uygun kodlama tekniklerinden yararlanarak enformasyon iletim işleminin hatasız olarak gerçekleşebileceğini göstermiştir.