What is High Performance Computing?

Transkript

What is High Performance Computing?
Enabling Grids for E-sciencE
Paralel Hesaplama
Onur Temizsoylu
Grid ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
ODTÜ, Ankara
www.eu-egee.org
EGEE-II INFSO-RI-031688
EGEE and gLite are registered trademarks
İçerik
Enabling Grids for E-sciencE
–
–
–
–
Neden paralel hesaplama?
Terminoloji
Paralel hesaplamanın tarihi
Teori:
 Hızlanma, Amdahl Yasası
 Sınıflandırma
–
–
–
–
–
Yönetim Modelleri
Programlama Modelleri
Paralel Donanım Mimarileri
Paralel Uygulamalar
Örnek Problemler
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
2
Neden Paralel Hesaplama
Enabling Grids for E-sciencE
– Hesaplama ihtiyaçları, gün geçtikçe artmaktadır. Daha
yüksek frekanslı sensörler, görselleştirme kalitesinin
artması, dağıtık veri tabanları buna birer örnektir.
– Diğer taraftan işlemci teknolojisi fiziksel limitlerine
(termodinamik, ışık hızı, CMOS transistörler)
yaklaşmaktadır.
– Paralel hesaplama, daha hızlı sonuç almak için bir
uygulamaya ait program parçalarının birden fazla
işlemcide aynı anda çalıştırılmasıdır.
– Ağ
teknolojilerindeki
hızlı
gelişmeler
paralel
hesaplama için kolay edinilebilir ve ulaşılabilir
donanımlara izin vermektedir.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
3
Moore Yasası (?)
Enabling Grids for E-sciencE
– Intel’in kurucularından Gordon E. Moore
tarafından ortaya atılmıştır.
– “Mikroişlemciler içindeki transistör sayısı her
iki yılda bir iki katına çıkacaktır.”
– Buna bağlı olarak işlemci hızlarının da iki
katına çıkması beklenmektedir.
– Ucuz CMOS transistörlerle üretim, 2008 yılı
içinde 45nm üretim teknolojisi bile kullanılsa
da hız artışının sonu gelmektedir.
– Intel, çok çekirdekli işlemciler ile Moore
yasasını geçerli kılmaya çalışmaktadır.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
4
Butters Yasası
Enabling Grids for E-sciencE
– Ağ dünyasında ise Gerald Butters her
dokuz ayda tek bir fiber kablodan
geçebilecek veri miktarının iki katına
çıktığını öne sürmüştür.
– Özellikle WDM teknolojisi ile optik
kablolar
üzerinden
transfer
edilebilecek veri miktarı artmaktadır.
– İşlemcilerden farklı olarak farklı dalga
boylarında çalışan lazer ışığı kullanıcı
farkında olmadan birleştirilmektedir.
– Lokal ve geniş ağlardaki hızlı teknoloji
değişimi ile paralel hesaplama için
küme bilgisayarlar, grid hesaplama
gibi yöntem ve mimariler ortaya
çıkmıştır.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
5
Terminoloji
Enabling Grids for E-sciencE
– Süreç (“Process”)
– İş Parçacığı (“Thread”)
– Görev (“Task”)
–
–
–
–
–
–
Hızlanma (“Speedup”)
Ölçeklenebilirlik (“Scalability”)
Verimlilik
Senkronizasyon (“Synchronization”)
Paralel Ek Yükü (“Parallel Overhead”)
Süperbilgisayar
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
6
Paralel Hesaplamanın Tarihi
Enabling Grids for E-sciencE
– İlk
paralel
hesaplamanın
varsayılmaktadır 
M.Ö.
tabletlerde
yapıldığı
Donanım
İşletim Sistemi / Derleyici
Uygulamalar
Seri Çağı
Donanım
İşletim Sistemi / Derleyici
Uygulamalar
Paralel Çağı
1940
50
60
70
80
90
2000
2030
Ticarileştirme
Araştırma
EGEE-II INFSO-RI-031688
Grid
Son Ürün
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
7
Paralel Hesaplamanın Tarihi
Enabling Grids for E-sciencE
194
2
Atanasoff–Berry Computer
(ABC)
30 OPS
194
6
UPenn ENIAC
100 kOPS
196
0
UNIVAC LARC
150 kFLOPS
197
6
CRAY-1
250
MFLOPS
199
5
CRAY T3E
> 1 TFLOPS
199
7
Intel ASCI Red
1.3 TFLOPS
200
4
IBM Blue Gene/L
280 TFLOPS
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
8
Paralel Hesaplamanın Tarihi
Enabling Grids for E-sciencE
– TOP500 Listesine göre son 15 sene içinde süperbilgisayar
sistemlerinde mimari değişimi
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
9
Paralelleştirme
Enabling Grids for E-sciencE
– Bir işin paralelleştirilmesinde programın
çalışma zamanını azaltmak amaçlanır.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
toplam
10
Paralelleştirme Ek Yükü
Enabling Grids for E-sciencE
 İşlemcilerde fazladan geçen
süre
 İletişim ek yükü
 Senkronizasyon ek yükü
 Programın paralel olmayan/
olamayan parçaları
– Paralel programlamada ek
yük ve çalışma zamanı
hızlanma ve verimlilik ile
ifade edilir.
İşlemci
Zamanı
Haberleşme Ek Yükü
8 işle
4 i mci
şle
mci
2
iş
le
mc
i
– Ek yük:
1
ci
m
le
ş
i
Çalışma Zamanında
Azalma
Çalışma Zamanı
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
11
Hızlanma ve Verimlilik
Enabling Grids for E-sciencE
– İ sayıda işlemcide programın
toplam işlemci zamanını Z(i)
olarak ifade edelim.
Hızlanma (i) = Z(1) / Z(i)
Verimlilik (i) = Hızlanma (i) / i
Hızlanma
ideal
Süper-lineer
Saturasyon
Felaket
– İdeal durumda:
Z (i) = Z (1) / i
Hızlanma (i) = i
Verimlilik (i) = 1
Verimlilik
İşlemci Sayısı
1
– Ölçeklenebilir programlar büyük
işlemci sayılarında bile verimli
kalırlar.
İşlemci Sayısı
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
12
Amdahl Yasası
Enabling Grids for E-sciencE
– Amdahl yasası:
 “Kodun paralel olmayan kısmı (ek yük), kodun ölçeklenebilirliği
konusunda üst limiti oluşturur.”
– Kodun seri kısmını s, paralel kısmını p olarak ifade edersek:
1
=s+p
Z (1)
= Z (s) + Z (p)
= Z (1) * (s + p)
= Z (1) * (p + (1-p))
Z (i)
= Z (1) * (p/i + (1-p))
Hızlanma (i)
= Z (1) / Z (i)
= 1 / (p/i + 1 – p)
Hızlanma (i)
< 1 / (1 - p)
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
13
Pratikte
Enabling Grids for E-sciencE
– Pratikte programları paralelleştirmek Amdahl yasasında görüldüğü
kadar zor değildir.
– Ancak programın çok büyük bir kısmını paralel işlem için harcaması
gereklidir. Hızlanma
8.0
P=8
7.0
6.0
5.0
P=4
4.0
3.0
P=2
2.0
1.0
0%
David J. Kuck,
Hugh Performance Computing,
Oxford Univ.. Press 1996
EGEE-II INFSO-RI-031688
Grid
20%
40%
60%
80% 100%
Kodda Paralel Kısım
1970s
1980s
1990s
En iyi paralel kodlar
~99% diliminde
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
14
Coarse/Fine Grained Paralel
Enabling Grids for E-sciencE
– Fine-Grained:




Genelde
her
döngüde
paralelleştirme vardır.
Çok sayıda döngü paralleleştirilir.
Kodun çok iyi bilinmesine gerek
yoktur.
Çok fazla senkronizasyon noktası
vardır.
– Coarse-Grained:



Geniş
döngülerle
paralleştirme
yapılır.
Daha az senkronizasyon noktası
vardır.
Kodun iyi anlaşılması gerekir.
Ana Program Coarse-grained
A
E
B
F
C
G
K
H
L
p
I
J
N
M
O
q
r
s
t
EGEE-II INFSO-RI-031688
Grid
D
Fine-grained
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
15
Ölçeklenebilirlik
Enabling Grids for E-sciencE
– Ölçeklenebilirliği etkileyen diğer
faktörler:
 İş parçacıkları arası yük
dengesizliği
:
Bir
kodun i0
herhangi bir paralel kısmının i1
çalışma zamanı en uzun süren iş i2
parçacığının çalışma zamanıdır. i3
Coarse-Grained programlamada başlangıç
ortaya çıkması daha olasıdır.
 Çok fazla senkronizasyon:
Kodda küçük döngüler sırasında
her seferinde senkronizasyon
yapılırsa bu ek yük getirir. FineGrained programlamada ortaya
çıkması daha olasıdır.
EGEE-II INFSO-RI-031688
Grid
Çalışma Zamanı
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
bitiş
16
Flynn Sınıflandırması
Enabling Grids for E-sciencE
– Michael J. Flynn paralel bilgisayar mimarilerini komut ve veri
akışlarına göre sınıflandırmıştır:
 SISD (Single Instruction, Single Data)
• PCler, iş istasyonları
 SIMD (Single Instruction, Multiple Data)
• Vektör makineler, Intel SSE
 MISD (Multiple Instruction, Single Data)
• Çok fazla örneği yok
 MIMD (Multiple Instruction, Multiple Data)
• SGI sunucular, küme bilgisayarlar
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
17
SISD
Enabling Grids for E-sciencE
Komutlar
Veri Girişi
EGEE-II INFSO-RI-031688
Grid
İşlemci
Veri Çıkışı
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
18
MISD
Enabling Grids for E-sciencE
Komut
Akışı A
Komut
Akışı B
Komut
Akışı C
İşlemci
A
Girdi
Verisi
Çıktı
Verisi
İşlemci
B
İşlemci
C
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
19
SIMD
Enabling Grids for E-sciencE
Komut
Akışı
Girdi Akışı
A
Girdi Akışı
B
Girdi Akışı
C
EGEE-II INFSO-RI-031688
Grid
Çıktı Akışı
A
İşlemci
A
Çıktı Akışı
B
İşlemci
B
İşlemci
C
Çıktı Akışı
C
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
20
MIMD
Enabling Grids for E-sciencE
Komut
Akışı A
Girdi
Akışı A
Girdi
Akışı B
Girdi
Akışı C
EGEE-II INFSO-RI-031688
Grid
Komut
Akışı B
Komut
Akışı C
Çıktı
Akışı A
İşlemci
A
Çıktı
Akışı B
İşlemci
B
İşlemci
C
Çıktı
Akışı C
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
21
Ortak Bellek MIMD
Enabling Grids for E-sciencE
İşlemci
A
B
E
L
L
E
K
Y
O
L
U
İşlemci
B
B
E
L
L
E
K
Y
O
L
U
İşlemci
C
B
E
L
L
E
K
Y
O
L
U
Bellek
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
22
Dağıtık Bellek MIMD
Enabling Grids for E-sciencE
IPC
IPC
Kanalı
Kanalı
İşlemci
A
B
E
L
L
E
K
Y
O
L
U
BELLEK
A
EGEE-II INFSO-RI-031688
Grid
İşlemci
B
B
E
L
L
E
K
Y
O
L
U
BELLEK
B
İşlemci
C
B
E
L
L
E
K
Y
O
L
U
BELLEK
C
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
23
Terminoloji - II
Enabling Grids for E-sciencE
– Son senelerde ağ hızındaki önemli artış ve çoklu çekirdekli
işlemcilerin kullanılmaya başlaması ile paralel hesaplama konusunda
birçok terminoloji karışıklığı olmaya başlamıştır. MPP, küme
bilgisayarlarla hesaplama, dağıtık hesaplama, grid hesaplama...
– Paralel hesaplamada yaygın kullanılan terimlerden bazıları şunlardır:
 Multiprocessing: İki veya daha fazla işlemcinin aynı bilgisayar sistemi
içinde kullanılmasıdır.
 Dağıtık hesaplama: Ağ üzerinden iki veya daha fazla bilgisayar üzerinde
aynı anda belli bir programa ait parçaların çalıştırıldığı hesaplama.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
24
Paralel Programlama Modelleri
Enabling Grids for E-sciencE
•
Ortak Hafıza Modelleri
– Dağıtık Ortak Bellek
– Posix Threads
– OpenMP
– Java Threads (HKU JESSICA, IBM cJVM)
•
Mesaj Tabanlı Modeller
– PVM
– MPI
•
Hibrid Modeller
– Ortak ve dağıtık hafızayı birlikte kullananlar
– OpenMP ve MPI birlikte kullananlar
•
Nesne ve Servis Tabanlı Modeller
– Geniş alanda dağıtık hesaplama teknolojileri


Nesne: CORBA, DCOM
Servis: Web servisleri tabanlı
•
Bilimsel araştırma projelerinde sıklıkla
 Derleyici tarafından paralelleştirilen ortak bellek tabanlı programlar
 MPI gibi mesaj paylaşımı tabanlı programlar kullanılmaktadır.
•
Belirli bir programlama modelinin seçimi, genellikle uygulama gereksinimi, kişisel tercih veya donanımla ilgilidir.
•
Ortak hafızaya sahip makineler, hem OpenMP gibi SMP hem de MPI gibi mesaj paylaşımı tabanlı modelleri çalıştırabilirler.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
25
π
sayısını OpenMP ile hesaplamak
Enabling Grids for E-sciencE
π=
1
4 dx
(1+x2)
0
=0<i<N
Σ
4
N(1+((i+0.5)/N)2)
#define n 1000000
main() {
double pi, l, ls = 0.0, w = 1.0/n;
int i;
#pragma omp parallel private(i,l) reduction(+:ls)
{
#pragma omp for
for(i=0; i<n; i++) {
l = (i+0.5)*w;
ls += 4.0/(1.0+l*l);
}
#pragma omp master
printf(“pi is %f\n”,ls*w);
#pragma omp end master
}
}
• Seri programlama şeklinde yazılıyor
• Otomatik yük dağılımı yapılıyor.
• Bütün değişkenler paylaşılıyor.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
26
π
sayısını MPI ile hesaplamak
Enabling Grids for E-sciencE
π=
1
4 dx
(1+x2)
0
=0<i<N
Σ
4
N(1+((i+0.5)/N)2)
#include <mpi.h>
#define N 1000000
main()
{
double pi, l, ls = 0.0, w = 1.0/N;
int i, mid, nth;
MPI_init(&argc, &argv);
MPI_comm_rank(MPI_COMM_WORLD,&mid);
MPI_comm_size(MPI_COMM_WORLD,&nth);
}
for(i=mid; i<N; i += nth) {
l = (i+0.5)*w;
ls += 4.0/(1.0+l*l);
}
MPI_reduce(&ls,&pi,1,MPI_DOUBLE,MPI_SUM,0,MPI_COMM_WORLD);
if(mid == 0) printf(“pi is %f\n”,pi*w);
MPI_finalize();
• Önce iş parçacıkları belirleniyor
• Bütün değişkenler sürece özel kalıyor.
• Uygulama dışında yük dağılımı ve veri
paylaşımı yapılıyor.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
27
Paralel Uygulamalarda Bağlantı
Enabling Grids for E-sciencE
– Sıkı bağlı sistemler:




Süreçler arasında yoğun haberleşme
Gecikme süresine hassas
Ortak Bellek Paralel
Dağıtık Bellek Paralel
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
28
Paralel Uygulamalarda Bağlantı
Enabling Grids for E-sciencE
– Gevşek bağlı sistemler:
 Süreçler arasında haberleşme azdır veya hiç yoktur.
 Gecikme süresine hassas değillerdir. Ancak bant genişliği veri transferi
için etkili olabilir.
– Parametrik çalışan uygulamalar
 Süreçler arasında haberleşme yoktur.
 Kümelerde, grid altyapılarında çalışan uygulamaların çoğunluğunu
oluştururlar.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
29
Paralel Donanım Mimarileri
Enabling Grids for E-sciencE
–
–
–
–
–
–
SMP makineler
MPP makineler
NUMA makineler
Superscalar işlemciler
Vektör makineler
Küme bilgisayarlar
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
30
SMP
Enabling Grids for E-sciencE
– SMP, birden fazla eş işlemcinin ortak bir belleğe bağlandığı çok
işlemcili bir bilgisayar mimarisidir.
– SMP sistemler, görevleri işlemciler arasında paylaşabilirler.
– SMP sistemler, paralel hesaplama için kullanılan en eski sistemlerdir
ve hesaplamalı bilimlerde yoğun bir şekilde kullanılırlar.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
31
MPP
Enabling Grids for E-sciencE
– MPP, binlerce işlemci kullanılabilen çok işlemcili bir mimaridir.
– Bir MPP sisteminde her işlemci kendi belleğine ve işletim sistemi
kopyasına sahiptir.
– MPP sistemler üzerinde çalışacak uygulamalar eş zamanda
çalışacak eş parçalara bölünebilmelidirler.
– MPP sistemlere yeni işlemci ekledikten sonra uygulamalar yeni
paralel kısımlara bölünmelidirler. SMP sistemler ise bundan çok iş
parçacığı çalıştırabilir yapıları sayesinde hemen faydalanırlar.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
32
NUMA
Enabling Grids for E-sciencE
– NUMA, çok işlemcili makinelerde bellek erişim zamanının bellek
yerine göre değiştiği bir bellek tasarımıdır.
– İlk defa 1990’larda ortaya çıkmıştır.
– Modern işlemciler, belleklere hızlı bir şekilde erişmeye ihtiyaç
duyarlar. NUMA, istenen verinin “cache” bellekte bulunamaması,
belleğin başka işlemci tarafından kullanılması gibi performans
sorunlarını her işlemciye bellek vererek aşar.
– Intel Itanium ve AMD Opteron işlemciler ccNUMA tabanlıdır.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
33
Superscalar İşlemciler
Enabling Grids for E-sciencE
– 1998 senesinden beri üretilen bütün genel amaçlı işlemciler
“superscalar” işlemcilerdir.
– “Superscalar” işlemci mimarisi, tek bir işlemcide makine kodu
seviyesinde paralellik sağlar.
– “Superscalar” bir işlemci tek bir basamakta birden fazla işlem yapar.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
34
Vektör Makineler
Enabling Grids for E-sciencE
– Vektör işlemciler, aynı anda birden fazla veri üstünde matematik
işlem yapabilen işlemcilerdir.
– Şu anda süperbilgisayar dünyasında vektör işlemciler çok az
kullanılmaktadırlar.
– Ancak bugün çoğu işlemci vektör işleme komutları içermektedirler
(Intel SSE).
– Vektör işlemciler, aynı matematiksel komutu farklı veriler üzerinde
defalarca çalıştırmak yerine bütün veri yığınını alıp aynı işlemi
yapabilirler.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
35
Küme Bilgisayarlar
Enabling Grids for E-sciencE
– Hesaplamada küme bilgisayar kullanımı 1994 senesinde NASA’da
Beowulf projesi ile başlamıştır. 16 Intel 486 DX4 işlemci ethernet ile
bağlanmıştır.
– Yüksek performanslı hesaplama, artık küme bilgisayarlarla
hesaplama halini almıştır.
– Küme bilgisayar, birlikte çalışmak üzere bağlanmış birden fazla
sunucudan oluşur.
– En önemli dezavantajı kullanıcıya tek sistem arayüzü
sunamamasıdır.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
36
Paralel Uygulamalar
Enabling Grids for E-sciencE
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
37
Dünya Simülasyonu
Enabling Grids for E-sciencE
•
•
•
•
Gelişmiş nümerik simülasyon
yöntemleri ile sanal bir dünya
yaratarak gelecekte dünyanın nasıl
görüneceğini hesaplayan bir
Japonya’da bir projedir.
40 TFLOPS işlem kapasitesine
sahiptir.
Toplam 10 TByte belleğe sahiptir.
Her birinde 8 vektör işlemci bulunan
640 işlemci ucundan oluşur.
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
38
TeraGrid
Enabling Grids for E-sciencE
Caltech: Data collection analysis
0.4 TF IA-64
IA32 Datawulf
80 TB Storage
Sun
IA64
ANL: Visualization
LEGEND
Cluster
Visualization
Cluster
Storage Server
Shared Memory
IA32
IA64
IA32
Disk Storage
Backplane Router
1.25 TF IA-64
96 Viz nodes
20 TB Storage
IA32
Extensible Backplane Network
LA
Hub
30 Gb/s
40 Gb/s
30 Gb/s
30 Gb/s
30 Gb/s
30 Gb/s
4 TF IA-64
DB2, Oracle Servers
500 TB Disk Storage
6 PB Tape Storage
1.1 TF Power4
IA64
Chicago
Hub
Sun
IA64
10 TF IA-64
128 large memory nodes
230 TB Disk Storage
3 PB Tape Storage
GPFS and data mining
Pwr4
SDSC: Data Intensive
NCSA: Compute Intensive
EV7
EV68
6 TF EV68
71 TB Storage
0.3 TF EV7 shared-memory
150 TB Storage Server
Sun
PSC: Compute Intensive
PSC integrated Q3 03
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
39
EGEE Altyapısı
Enabling Grids for E-sciencE
Scale
> 49 ülkede 224 site
~ 38.000 işlemci
> 15 PB veri alanı
> Günde onbinlerce çalışan iş
> Yüzden fazla kayıtlı sanal
organizasyon
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
40
LHC
Enabling Grids for E-sciencE
• LHC 7’şer TeV’lik enerjiye sahip iki proton demetini
çarpıştıracak.
LHC 2007’de
çalışmaya
• En yeni süperiletken teknolojisini kullanarak mutlak
sıfırın hemen üstünde – 2710C’de çalışacak. ,
Dedektörleri birer
saray büyüklüğünde
olan dört deney:
• 27 km’lik çevresiyle dünyadaki en büyük süperiletken
uygulaması olacak.
ALICE
ATLAS
CMS
LHCb
EGEE-II INFSO-RI-031688
Grid
başlayacak
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
41
LHC Verileri
Enabling Grids for E-sciencE
1 Gigabyte (1GB)
= 1000MB
A DVD filmi
• Saniyede 40 milyon olay
1 Terabyte (1TB)
= 1000GB
Dünyanın yıllık kitap
üretimi
• Filtrelemeden sonra saniyede 100 ilginç
olay
1 Petabyte (1PB)
= 1000TB
Bir LHC deneyinin yıllık
veri üretimi
• Her olayda bir megabitlik dijital veri = 0.1
Gigabit/s’lik veri kayıt hızı
• Yılda 1010 olay kaydı
= 10 Petabyte/yıllık veri üretimi
CMS
EGEE-II INFSO-RI-031688
Grid
LHCb
ATLAS
1 Exabyte (1EB)
= 1000 PB
Dünyanın yıllık bilgi
üretimi
ALICE
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
42
Enabling Grids for E-sciencE
EGEE-II INFSO-RI-031688
Grid
ve Küme Bilgisayarlarda Uygulama Geliştirme Eğitimi
43

Benzer belgeler

Giriş ve Motivasyon

Giriş ve Motivasyon – Hesaplama ihtiyaçları, gün geçtikçe artmaktadır. Daha yüksek frekanslı sensörler, görselleştirme kalitesinin artması, dağıtık veri tabanları buna birer örnektir. – Diğer taraftan işlemci teknoloj...

Detaylı