Bezpłatna biblioteka techniczna HISTORIA TECHNOLOGII, TECHNOLOGII, OBIEKTÓW WOKÓŁ NAS
Superkomputer. Historia wynalazku i produkcji Katalog / Historia technologii, technologii, przedmiotów wokół nas Superkomputer to komputer znacznie przewyższający swoimi parametrami technicznymi większość istniejących komputerów. Z reguły nowoczesne superkomputery to duża liczba wysokowydajnych serwerów połączonych ze sobą lokalną szybką siecią szkieletową w celu osiągnięcia maksymalnej wydajności w ramach równoległego podejścia do zadania obliczeniowego. W 1996 roku kurator Museum of Computing w Wielkiej Brytanii, Doron Swade, napisał artykuł o sensacyjnym tytule: „Rosyjska seria superkomputerów BESM, opracowana ponad 40 lat temu, może świadczyć o kłamstwach Stanów Zjednoczonych, który deklarował wyższość technologiczną w latach zimnej wojny”. Rzeczywiście, połowa lat sześćdziesiątych była punktem kulminacyjnym w historii sowieckiej technologii komputerowej. W tym czasie w ZSRR pracowało wiele zespołów kreatywnych - instytuty S.A. Lebiediewa, I.S. Brook, W.M. Glushkov itp. W tym samym czasie wyprodukowano wiele różnych typów maszyn, najczęściej niekompatybilnych ze sobą, do najróżniejszych celów. Stworzony w 1965 i wydany po raz pierwszy w 1967, BESM-6 był oryginalnym rosyjskim komputerem, zaprojektowanym na równi z jego zachodnim odpowiednikiem. Potem był słynny „Elbrus”, był rozwój BESM (Elbrus-B). W.M. Głuszkow stworzył wspaniałą maszynę do obliczeń inżynierskich - „Mir-2” (prototyp komputera osobistego), która wciąż nie ma zachodnich odpowiedników. To właśnie zespół Elbrusa jako pierwszy opracował architekturę superskalarną, budując na jej podstawie maszynę Elbrus-1 wiele lat wcześniej niż Zachód. W tym zespole kilka lat wcześniej niż w firmie „Cray” – uznanym liderze w produkcji superkomputerów, wdrożono idee komputera wieloprocesorowego.
Boris Artashesovich Babayan, opiekun naukowy grupy Elbrus, profesor, członek korespondent Rosyjskiej Akademii Nauk, uważa, że najważniejszym osiągnięciem grupy jest architektura supermaszyny Elbrus-3. „Szybkość logiczna tej maszyny jest znacznie wyższa niż wszystkich istniejących, czyli na tym samym sprzęcie, ta architektura pozwala kilkakrotnie przyspieszyć wykonanie zadania. Wdrożyliśmy wsparcie sprzętowe dla bezpiecznego programowania dla pierwszego czasu nawet nie próbowaliśmy na Zachodzie. „Elbrus-3” został zbudowany w 1991 roku. W naszym instytucie był już gotowy, zaczęliśmy go debugować. Zachodnie firmy tak dużo mówiły o możliwości stworzenia takiej architektury.. Technologia była obrzydliwa, ale architektura była tak doskonała, że ta maszyna była dwa razy szybsza niż najszybszy amerykański supersamochód tamtych czasów, Cray Y-MP.” Zasady bezpiecznego programowania są obecnie wdrażane w koncepcji języka Java, a idee podobne do Elbrusa stały się podstawą procesora nowej generacji Merced, opracowanego przez Intela wraz z HP. „Jeśli spojrzysz na Merceda, to praktycznie ta sama architektura, co w Elbrus-3. Może niektóre szczegóły Merceda są inne, a nie na lepsze”. Tak więc pomimo ogólnej stagnacji nadal można było budować komputery i superkomputery. Niestety, z naszymi komputerami stało się to samo, co ogólnie z rosyjskim przemysłem. Ale dziś nowy parametr, na pierwszy rzut oka egzotyczny, uporczywie dąży do uzyskania liczby tradycyjnych wskaźników makroekonomicznych (takich jak PKB i złoto oraz rezerwy walutowe) - całkowitej pojemności komputerów, jakie ma kraj. Największy udział w tym wskaźniku będą miały superkomputery. Piętnaście lat temu maszyny te były wyjątkowymi potworami, ale teraz ich produkcja została uruchomiona. „Początkowo komputer został stworzony do skomplikowanych obliczeń związanych z badaniami jądrowymi i rakietowymi” – pisze Arkady Volovik w magazynie Kompaniya. „Niewiele osób wie, że superkomputery pomogły utrzymać równowagę ekologiczną na planecie: podczas zimnej wojny komputery symulowały zmiany w broni jądrowej, a eksperymenty te ostatecznie pozwoliły supermocarstwom zrezygnować z prawdziwych testów broni atomowej. Tak więc potężny wieloprocesorowy komputer Blue Pacific firmy IBM jest używany właśnie do symulacji testów broni jądrowej. W rzeczywistości informatycy nie przyczynili się do sukcesu negocjacje w sprawie wstrzymania prób jądrowych Compaq Computer Corp. buduje największy w Europie superkomputer w oparciu o 2500 procesorów Alpha Francuska Komisja Energii Jądrowej wykorzysta superkomputer do poprawy bezpieczeństwa francuskich arsenałów bez dalszych prób jądrowych. Nie mniej obliczenia na dużą skalę są konieczne w projektowaniu technologii lotniczej. Modelowanie parametrów samolotu wymaga ogromnej mocy - np. do obliczenia powierzchni samolotu konieczne jest obliczenie parametrów przepływu powietrza w każdym punkcie skrzydła i kadłuba, na centymetr kwadratowy. Innymi słowy, wymagane jest rozwiązanie równania na każdy centymetr kwadratowy, a powierzchnia samolotu to kilkadziesiąt metrów kwadratowych. Zmieniając geometrię powierzchni, wszystko musi zostać przeliczone. Co więcej, obliczenia te muszą być wykonane szybko, w przeciwnym razie proces projektowania będzie opóźniony. Jeśli chodzi o astronautykę, zaczęło się nie od lotów, ale od obliczeń. Superkomputery mają tutaj ogromne pole do zastosowania.” Boeing Corporation wdrożyła superklaster opracowany przez Linux NetworX i używany do symulacji zachowania paliwa w rakiecie Delta IV, która jest przeznaczona do wystrzeliwania satelitów do różnych celów. Spośród czterech rozważanych architektur klastrowych Boeing wybrał klaster Linux NetworX, ponieważ zapewnia on akceptowalny koszt eksploatacji, a nawet przewyższa wymagania projektu Delta IV pod względem mocy obliczeniowej. Klaster składa się z 96 serwerów opartych na procesorach AMD Athlon 850 MHz, połączonych szybkimi łączami Ethernet. W 2001 roku IBM zainstalował 512-procesorowy klaster Linux o wydajności przetwarzania 478 miliardów operacji na sekundę dla Departamentu Obrony USA w Centrum Superkomputerowym na Hawajach. Oprócz Pentagonu klaster będzie wykorzystywany również przez inne federalne departamenty i instytucje naukowe: w szczególności klaster do przewidywania prędkości i kierunku rozprzestrzeniania się pożarów lasów. System będzie składał się z 256 cienkich serwerów IBM eServerx330, z których każdy będzie zawierał dwa procesory Pentium-III. Serwery zostaną połączone za pomocą mechanizmu klastrowania opracowanego przez Myricom. Jednak zakres superkomputerów nie ogranicza się do kompleksu wojskowo-przemysłowego. Dziś głównymi klientami superkomputerów są firmy biotechnologiczne.
„W ramach programu Human Genome IBM – pisze Volovik – otrzymał zamówienie na stworzenie komputera z kilkoma dziesiątkami tysięcy procesorów. Jednak dekodowanie ludzkiego genomu nie jest jedynym przykładem wykorzystania komputerów w biologia: tworzenie nowych leków jest dziś możliwe tylko przy użyciu potężnych komputerów Dlatego giganci farmaceutyczni zmuszeni są do dużych inwestycji w technologię komputerową, tworząc rynek dla firm Hewlett-Packard, Sun, Compaq. nowy lek trwał 5-7 lat i wymagał znacznych nakładów finansowych. Dziś jednak leki wzorowane są na potężnych komputerach, które nie tylko „budują" leki, ale także oceniają ich wpływ na człowieka. Amerykańscy immunolodzy stworzyli lek, który może walczyć 160 wirusy. Ten lek był wzorowany na komputerze przez sześć miesięcy. Inny sposób na jego stworzenie wymagałby kilku lat pracy". A w Los Alamos National Laboratory ogólnoświatowa epidemia AIDS została „przywrócona” z powrotem do źródła. Dane o kopiach wirusa AIDS zostały umieszczone w superkomputerze, co umożliwiło określenie czasu pojawienia się pierwszego wirusa - 1930. W połowie lat 1990. pojawił się kolejny duży rynek superkomputerów. Rynek ten jest bezpośrednio związany z rozwojem Internetu. Ilość informacji w sieci osiągnęła niespotykane dotąd rozmiary i stale rośnie. Ponadto informacje w Internecie rosną nieliniowo. Wraz ze wzrostem ilości danych zmienia się również forma ich prezentacji – do tekstu i rysunków dodano muzykę, wideo, animacje. W rezultacie pojawiły się dwa problemy – gdzie przechowywać coraz większą ilość danych i jak skrócić czas potrzebny na znalezienie właściwych informacji. Superkomputery są również wykorzystywane we wszystkich obszarach, w których konieczne jest przetwarzanie dużych ilości danych. Na przykład w bankowości, logistyce, turystyce, transporcie. Compaq niedawno przyznał amerykańskiemu Departamentowi Energii kontrakt na superkomputer o wartości 200 milionów dolarów. Hironobu Sakaguchi, prezes firmy Square produkującej gry komputerowe, mówi: „Dzisiaj robimy film na podstawie naszych gier. Square „oblicza” jedną klatkę z filmu w ciągu 5 godzin. W GCube ta operacja zajmuje 1/30 sekundy ”. Tym samym proces produkcji mediów wkracza na nowy poziom: skraca się czas pracy nad produktem, znacznie zmniejsza się koszt filmu czy gry. Wysoki poziom konkurencji zmusza graczy do obniżania cen superkomputerów. Jednym ze sposobów na obniżenie ceny jest użycie wielu standardowych procesorów. To rozwiązanie zostało wymyślone jednocześnie przez kilku „graczy” dużego rynku komputerowego. W rezultacie na rynku pojawiły się seryjne stosunkowo niedrogie serwery ku zadowoleniu nabywców. Rzeczywiście, łatwiej jest podzielić uciążliwe obliczenia na małe części i powierzyć wykonanie każdej takiej części oddzielnemu niedrogiemu, masowo produkowanemu procesorowi. Na przykład ASCI Red firmy „Intel”, który do niedawna zajmował pierwszą pozycję w tabeli TOP500 najszybszych komputerów świata, składa się z 9632 konwencjonalnych procesorów Pentium. Kolejną ważną zaletą tej architektury jest jej skalowalność: po prostu zwiększając liczbę procesorów, można zwiększyć wydajność systemu. To prawda, z pewnymi zastrzeżeniami: po pierwsze, wraz ze wzrostem liczby poszczególnych węzłów obliczeniowych wydajność nie rośnie wprost proporcjonalnie, ale nieco wolniej, część czasu nieuchronnie poświęca się na organizowanie wzajemnej interakcji procesorów i po drugie, znacznie wzrasta złożoność oprogramowania. Ale te problemy są pomyślnie rozwiązywane, a sama idea „przetwarzania równoległego” rozwija się od ponad dekady. „Na początku lat dziewięćdziesiątych pojawił się nowy pomysł”, pisze Jurij Revich w Izwiestii, „który został nazwany metakomputerem lub „przetwarzaniem rozproszonym”. Przy takiej organizacji procesu poszczególne węzły obliczeniowe nie są już strukturalnie połączone. w jeden wspólny korpus, ale reprezentujący Początkowo miało to łączyć komputery różnych poziomów w jeden kompleks obliczeniowy, na przykład wstępne przetwarzanie danych mogło być wykonywane na stacji roboczej użytkownika, podstawowe modelowanie - na superkomputerze wektorowym, rozwiązywanie dużych układy równań liniowych - na układzie masywnie równoległym, a wizualizacja wyników - na specjalnym stanowisku graficznym. Oddzielne stacje połączone szybkimi kanałami komunikacyjnymi mogą być tej samej rangi, tak jest rozmieszczony superkomputer ASCI White firmy IBM, który teraz zajął pierwszą linię w TOP500, na który składa się 512 oddzielnych serwerów RS/6000 ( komputer, który pokonał Kasparowa). Ale prawdziwy zakres idei „dystrybucji” nabył wraz z rozpowszechnianiem się Internetu. Chociaż kanały komunikacji między poszczególnymi węzłami w takiej sieci trudno nazwać szybkimi, z drugiej strony same węzły mogą być rekrutowane w prawie nieograniczonej liczbie: każdy komputer w dowolnej części świata może być zaangażowany w wykonywanie zadanie ustawione na przeciwległym końcu globu. Po raz pierwszy opinia publiczna zaczęła mówić o „przetwarzaniu rozproszonym” w związku z fenomenalnym sukcesem poszukiwania cywilizacji pozaziemskich w ramach SETI@Home. 1,5 miliona wolontariuszy, którzy nocami wydają pieniądze na prąd w szczytnym celu nawiązania kontaktu z kosmitami, dostarcza 8 Tflops mocy obliczeniowej, co niewiele ustępuje rekordzistce – wspomniany superkomputer ASCI White rozwija „prędkość” 12 Tflops. Według dyrektora projektu Davida Andersona „jeden superkomputer o mocy równej naszemu projektowi kosztowałby 100 milionów dolarów, a stworzyliśmy go prawie z niczego”. Colin Percival, młody student matematyki z USA, skutecznie zademonstrował możliwości przetwarzania rozproszonego. Przez 2,5 roku, przy pomocy 1742 wolontariuszy z pięćdziesięciu krajów świata, od razu ustanowił trzy rekordy w określonym konkursie, którego celem jest wyznaczenie nowych kolejnych cyfr liczby „pi”. Wcześniej był w stanie obliczyć pięć i czterdzieści bilionów miejsc po przecinku, a ostatnio był w stanie określić, która cyfra znajduje się na pozycji kwadrylionów. Wydajność superkomputerów jest najczęściej mierzona i wyrażana w operacjach zmiennoprzecinkowych na sekundę (FLOPS). Wynika to z faktu, że zadania modelowania numerycznego, do których tworzone są superkomputery, najczęściej wymagają obliczeń odnoszących się do liczb rzeczywistych o dużym stopniu dokładności, a nie liczb całkowitych. Dlatego w przypadku superkomputerów miara szybkości konwencjonalnych systemów komputerowych nie ma zastosowania – liczba milionów operacji na sekundę (MIPS). Przy całej swojej niejednoznaczności i przybliżeniu ocena we flopach ułatwia porównywanie ze sobą systemów superkomputerów w oparciu o obiektywne kryterium. Pierwsze superkomputery miały wydajność rzędu 1 kflopa, tj. 1000 operacji zmiennoprzecinkowych na sekundę. Komputer CDC 6600, który miał wydajność 1 miliona flopów (1 Mflops), powstał w 1964 roku. Znak 1 miliarda flopów (1 gigaflopa) został przekroczony przez superkomputer NEC SX-2 w 1983 roku z wynikiem 1.3 Gflopa. Limit 1 biliona flopów (1 Tflops) został osiągnięty w 1996 roku przez superkomputer ASCI Red. Kamień milowy 1 biliarda flopów (1 petaflopa) został osiągnięty w 2008 roku przez superkomputer IBM Roadrunner. Trwają prace nad budową eksaskalowych komputerów zdolnych do 2016 kwintyliona operacji zmiennoprzecinkowych na sekundę do 1 roku. Autor: Musskiy S.A. Polecamy ciekawe artykuły Sekcja Historia technologii, technologii, przedmiotów wokół nas: ▪ rower ▪ LED Zobacz inne artykuły Sekcja Historia technologii, technologii, przedmiotów wokół nas. Czytaj i pisz przydatne komentarze do tego artykułu. Najnowsze wiadomości o nauce i technologii, nowa elektronika: Hałas drogowy opóźnia rozwój piskląt
06.05.2024 Bezprzewodowy głośnik Samsung Music Frame HW-LS60D
06.05.2024 Nowy sposób kontrolowania i manipulowania sygnałami optycznymi
05.05.2024
Inne ciekawe wiadomości: ▪ Elektroniczna skórka ze wskazaniem LED ▪ Kamery internetowe RealSense ▪ Bioniczne oko może uchronić Cię przed ślepotą ▪ 27-calowy monitor ASUS VA278Q o rozdzielczości 2560x1440 pikseli ▪ Nowy pakiet oprogramowania do projektowania cyfrowych aplikacji wideo Wiadomości o nauce i technologii, nowa elektronika
Ciekawe materiały z bezpłatnej biblioteki technicznej: ▪ Dział serwisu Materiały elektrotechniczne. Wybór artykułów ▪ artykuł Stephena Fry'ego. Słynne aforyzmy ▪ artykuł Który Chińczyk został czarnoskórym Amerykaninem, a potem Cyganem? Szczegółowa odpowiedź ▪ artykuł Cenchrus rzęski. Legendy, uprawa, metody aplikacji ▪ artykuł Teoria: przedwzmacniacze 3H. Encyklopedia elektroniki radiowej i elektrotechniki ▪ artykuł Tyrystorowy przetwornik prądu. Encyklopedia elektroniki radiowej i elektrotechniki
Zostaw swój komentarz do tego artykułu: Wszystkie języki tej strony Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn www.diagram.com.ua |