Menu English Ukrainian Rosyjski Strona główna

Bezpłatna biblioteka techniczna dla hobbystów i profesjonalistów Bezpłatna biblioteka techniczna


HISTORIA TECHNOLOGII, TECHNOLOGII, OBIEKTÓW WOKÓŁ NAS
Darmowa biblioteka / Katalog / Historia technologii, technologii, przedmiotów wokół nas

Superkomputer. Historia wynalazku i produkcji

Historia technologii, technologii, przedmiotów wokół nas

Katalog / Historia technologii, technologii, przedmiotów wokół nas

Komentarze do artykułu Komentarze do artykułu

Superkomputer to komputer znacznie przewyższający swoimi parametrami technicznymi większość istniejących komputerów. Z reguły nowoczesne superkomputery to duża liczba wysokowydajnych serwerów połączonych ze sobą lokalną szybką siecią szkieletową w celu osiągnięcia maksymalnej wydajności w ramach równoległego podejścia do zadania obliczeniowego.

W 1996 roku kurator Museum of Computing w Wielkiej Brytanii, Doron Swade, napisał artykuł o sensacyjnym tytule: „Rosyjska seria superkomputerów BESM, opracowana ponad 40 lat temu, może świadczyć o kłamstwach Stanów Zjednoczonych, który deklarował wyższość technologiczną w latach zimnej wojny”.

Rzeczywiście, połowa lat sześćdziesiątych była punktem kulminacyjnym w historii sowieckiej technologii komputerowej. W tym czasie w ZSRR pracowało wiele zespołów kreatywnych - instytuty S.A. Lebiediewa, I.S. Brook, W.M. Glushkov itp. W tym samym czasie wyprodukowano wiele różnych typów maszyn, najczęściej niekompatybilnych ze sobą, do najróżniejszych celów.

Stworzony w 1965 i wydany po raz pierwszy w 1967, BESM-6 był oryginalnym rosyjskim komputerem, zaprojektowanym na równi z jego zachodnim odpowiednikiem. Potem był słynny „Elbrus”, był rozwój BESM (Elbrus-B). W.M. Głuszkow stworzył wspaniałą maszynę do obliczeń inżynierskich - „Mir-2” (prototyp komputera osobistego), która wciąż nie ma zachodnich odpowiedników.

To właśnie zespół Elbrusa jako pierwszy opracował architekturę superskalarną, budując na jej podstawie maszynę Elbrus-1 wiele lat wcześniej niż Zachód. W tym zespole kilka lat wcześniej niż w firmie „Cray” – uznanym liderze w produkcji superkomputerów, wdrożono idee komputera wieloprocesorowego.

Superkomputer
Superkomputer Cray-2

Boris Artashesovich Babayan, opiekun naukowy grupy Elbrus, profesor, członek korespondent Rosyjskiej Akademii Nauk, uważa, że ​​najważniejszym osiągnięciem grupy jest architektura supermaszyny Elbrus-3. „Szybkość logiczna tej maszyny jest znacznie wyższa niż wszystkich istniejących, czyli na tym samym sprzęcie, ta architektura pozwala kilkakrotnie przyspieszyć wykonanie zadania. Wdrożyliśmy wsparcie sprzętowe dla bezpiecznego programowania dla pierwszego czasu nawet nie próbowaliśmy na Zachodzie. „Elbrus-3” został zbudowany w 1991 roku. W naszym instytucie był już gotowy, zaczęliśmy go debugować. Zachodnie firmy tak dużo mówiły o możliwości stworzenia takiej architektury.. Technologia była obrzydliwa, ale architektura była tak doskonała, że ​​ta maszyna była dwa razy szybsza niż najszybszy amerykański supersamochód tamtych czasów, Cray Y-MP.”

Zasady bezpiecznego programowania są obecnie wdrażane w koncepcji języka Java, a idee podobne do Elbrusa stały się podstawą procesora nowej generacji Merced, opracowanego przez Intela wraz z HP. „Jeśli spojrzysz na Merceda, to praktycznie ta sama architektura, co w Elbrus-3. Może niektóre szczegóły Merceda są inne, a nie na lepsze”.

Tak więc pomimo ogólnej stagnacji nadal można było budować komputery i superkomputery. Niestety, z naszymi komputerami stało się to samo, co ogólnie z rosyjskim przemysłem. Ale dziś nowy parametr, na pierwszy rzut oka egzotyczny, uporczywie dąży do uzyskania liczby tradycyjnych wskaźników makroekonomicznych (takich jak PKB i złoto oraz rezerwy walutowe) - całkowitej pojemności komputerów, jakie ma kraj. Największy udział w tym wskaźniku będą miały superkomputery. Piętnaście lat temu maszyny te były wyjątkowymi potworami, ale teraz ich produkcja została uruchomiona.

„Początkowo komputer został stworzony do skomplikowanych obliczeń związanych z badaniami jądrowymi i rakietowymi” – pisze Arkady Volovik w magazynie Kompaniya. „Niewiele osób wie, że superkomputery pomogły utrzymać równowagę ekologiczną na planecie: podczas zimnej wojny komputery symulowały zmiany w broni jądrowej, a eksperymenty te ostatecznie pozwoliły supermocarstwom zrezygnować z prawdziwych testów broni atomowej. Tak więc potężny wieloprocesorowy komputer Blue Pacific firmy IBM jest używany właśnie do symulacji testów broni jądrowej. W rzeczywistości informatycy nie przyczynili się do sukcesu negocjacje w sprawie wstrzymania prób jądrowych Compaq Computer Corp. buduje największy w Europie superkomputer w oparciu o 2500 procesorów Alpha Francuska Komisja Energii Jądrowej wykorzysta superkomputer do poprawy bezpieczeństwa francuskich arsenałów bez dalszych prób jądrowych.

Nie mniej obliczenia na dużą skalę są konieczne w projektowaniu technologii lotniczej. Modelowanie parametrów samolotu wymaga ogromnej mocy - np. do obliczenia powierzchni samolotu konieczne jest obliczenie parametrów przepływu powietrza w każdym punkcie skrzydła i kadłuba, na centymetr kwadratowy. Innymi słowy, wymagane jest rozwiązanie równania na każdy centymetr kwadratowy, a powierzchnia samolotu to kilkadziesiąt metrów kwadratowych. Zmieniając geometrię powierzchni, wszystko musi zostać przeliczone. Co więcej, obliczenia te muszą być wykonane szybko, w przeciwnym razie proces projektowania będzie opóźniony. Jeśli chodzi o astronautykę, zaczęło się nie od lotów, ale od obliczeń. Superkomputery mają tutaj ogromne pole do zastosowania.”

Boeing Corporation wdrożyła superklaster opracowany przez Linux NetworX i używany do symulacji zachowania paliwa w rakiecie Delta IV, która jest przeznaczona do wystrzeliwania satelitów do różnych celów. Spośród czterech rozważanych architektur klastrowych Boeing wybrał klaster Linux NetworX, ponieważ zapewnia on akceptowalny koszt eksploatacji, a nawet przewyższa wymagania projektu Delta IV pod względem mocy obliczeniowej. Klaster składa się z 96 serwerów opartych na procesorach AMD Athlon 850 MHz, połączonych szybkimi łączami Ethernet.

W 2001 roku IBM zainstalował 512-procesorowy klaster Linux o wydajności przetwarzania 478 miliardów operacji na sekundę dla Departamentu Obrony USA w Centrum Superkomputerowym na Hawajach. Oprócz Pentagonu klaster będzie wykorzystywany również przez inne federalne departamenty i instytucje naukowe: w szczególności klaster do przewidywania prędkości i kierunku rozprzestrzeniania się pożarów lasów. System będzie składał się z 256 cienkich serwerów IBM eServerx330, z których każdy będzie zawierał dwa procesory Pentium-III. Serwery zostaną połączone za pomocą mechanizmu klastrowania opracowanego przez Myricom.

Jednak zakres superkomputerów nie ogranicza się do kompleksu wojskowo-przemysłowego. Dziś głównymi klientami superkomputerów są firmy biotechnologiczne.

Superkomputer
Superkomputer IBM BlueGene/L

„W ramach programu Human Genome IBM – pisze Volovik – otrzymał zamówienie na stworzenie komputera z kilkoma dziesiątkami tysięcy procesorów. Jednak dekodowanie ludzkiego genomu nie jest jedynym przykładem wykorzystania komputerów w biologia: tworzenie nowych leków jest dziś możliwe tylko przy użyciu potężnych komputerów Dlatego giganci farmaceutyczni zmuszeni są do dużych inwestycji w technologię komputerową, tworząc rynek dla firm Hewlett-Packard, Sun, Compaq. nowy lek trwał 5-7 lat i wymagał znacznych nakładów finansowych. Dziś jednak leki wzorowane są na potężnych komputerach, które nie tylko „budują" leki, ale także oceniają ich wpływ na człowieka. Amerykańscy immunolodzy stworzyli lek, który może walczyć 160 wirusy. Ten lek był wzorowany na komputerze przez sześć miesięcy. Inny sposób na jego stworzenie wymagałby kilku lat pracy".

A w Los Alamos National Laboratory ogólnoświatowa epidemia AIDS została „przywrócona” z powrotem do źródła. Dane o kopiach wirusa AIDS zostały umieszczone w superkomputerze, co umożliwiło określenie czasu pojawienia się pierwszego wirusa - 1930.

W połowie lat 1990. pojawił się kolejny duży rynek superkomputerów. Rynek ten jest bezpośrednio związany z rozwojem Internetu. Ilość informacji w sieci osiągnęła niespotykane dotąd rozmiary i stale rośnie. Ponadto informacje w Internecie rosną nieliniowo. Wraz ze wzrostem ilości danych zmienia się również forma ich prezentacji – do tekstu i rysunków dodano muzykę, wideo, animacje. W rezultacie pojawiły się dwa problemy – gdzie przechowywać coraz większą ilość danych i jak skrócić czas potrzebny na znalezienie właściwych informacji.

Superkomputery są również wykorzystywane we wszystkich obszarach, w których konieczne jest przetwarzanie dużych ilości danych. Na przykład w bankowości, logistyce, turystyce, transporcie. Compaq niedawno przyznał amerykańskiemu Departamentowi Energii kontrakt na superkomputer o wartości 200 milionów dolarów.

Hironobu Sakaguchi, prezes firmy Square produkującej gry komputerowe, mówi: „Dzisiaj robimy film na podstawie naszych gier. Square „oblicza” jedną klatkę z filmu w ciągu 5 godzin. W GCube ta operacja zajmuje 1/30 sekundy ”. Tym samym proces produkcji mediów wkracza na nowy poziom: skraca się czas pracy nad produktem, znacznie zmniejsza się koszt filmu czy gry.

Wysoki poziom konkurencji zmusza graczy do obniżania cen superkomputerów. Jednym ze sposobów na obniżenie ceny jest użycie wielu standardowych procesorów. To rozwiązanie zostało wymyślone jednocześnie przez kilku „graczy” dużego rynku komputerowego. W rezultacie na rynku pojawiły się seryjne stosunkowo niedrogie serwery ku zadowoleniu nabywców.

Rzeczywiście, łatwiej jest podzielić uciążliwe obliczenia na małe części i powierzyć wykonanie każdej takiej części oddzielnemu niedrogiemu, masowo produkowanemu procesorowi. Na przykład ASCI Red firmy „Intel”, który do niedawna zajmował pierwszą pozycję w tabeli TOP500 najszybszych komputerów świata, składa się z 9632 konwencjonalnych procesorów Pentium. Kolejną ważną zaletą tej architektury jest jej skalowalność: po prostu zwiększając liczbę procesorów, można zwiększyć wydajność systemu. To prawda, z pewnymi zastrzeżeniami: po pierwsze, wraz ze wzrostem liczby poszczególnych węzłów obliczeniowych wydajność nie rośnie wprost proporcjonalnie, ale nieco wolniej, część czasu nieuchronnie poświęca się na organizowanie wzajemnej interakcji procesorów i po drugie, znacznie wzrasta złożoność oprogramowania. Ale te problemy są pomyślnie rozwiązywane, a sama idea „przetwarzania równoległego” rozwija się od ponad dekady.

„Na początku lat dziewięćdziesiątych pojawił się nowy pomysł”, pisze Jurij Revich w Izwiestii, „który został nazwany metakomputerem lub „przetwarzaniem rozproszonym”. Przy takiej organizacji procesu poszczególne węzły obliczeniowe nie są już strukturalnie połączone. w jeden wspólny korpus, ale reprezentujący Początkowo miało to łączyć komputery różnych poziomów w jeden kompleks obliczeniowy, na przykład wstępne przetwarzanie danych mogło być wykonywane na stacji roboczej użytkownika, podstawowe modelowanie - na superkomputerze wektorowym, rozwiązywanie dużych układy równań liniowych - na układzie masywnie równoległym, a wizualizacja wyników - na specjalnym stanowisku graficznym.

Oddzielne stacje połączone szybkimi kanałami komunikacyjnymi mogą być tej samej rangi, tak jest rozmieszczony superkomputer ASCI White firmy IBM, który teraz zajął pierwszą linię w TOP500, na który składa się 512 oddzielnych serwerów RS/6000 ( komputer, który pokonał Kasparowa). Ale prawdziwy zakres idei „dystrybucji” nabył wraz z rozpowszechnianiem się Internetu. Chociaż kanały komunikacji między poszczególnymi węzłami w takiej sieci trudno nazwać szybkimi, z drugiej strony same węzły mogą być rekrutowane w prawie nieograniczonej liczbie: każdy komputer w dowolnej części świata może być zaangażowany w wykonywanie zadanie ustawione na przeciwległym końcu globu.

Po raz pierwszy opinia publiczna zaczęła mówić o „przetwarzaniu rozproszonym” w związku z fenomenalnym sukcesem poszukiwania cywilizacji pozaziemskich w ramach SETI@Home. 1,5 miliona wolontariuszy, którzy nocami wydają pieniądze na prąd w szczytnym celu nawiązania kontaktu z kosmitami, dostarcza 8 Tflops mocy obliczeniowej, co niewiele ustępuje rekordzistce – wspomniany superkomputer ASCI White rozwija „prędkość” 12 Tflops. Według dyrektora projektu Davida Andersona „jeden superkomputer o mocy równej naszemu projektowi kosztowałby 100 milionów dolarów, a stworzyliśmy go prawie z niczego”.

Colin Percival, młody student matematyki z USA, skutecznie zademonstrował możliwości przetwarzania rozproszonego. Przez 2,5 roku, przy pomocy 1742 wolontariuszy z pięćdziesięciu krajów świata, od razu ustanowił trzy rekordy w określonym konkursie, którego celem jest wyznaczenie nowych kolejnych cyfr liczby „pi”. Wcześniej był w stanie obliczyć pięć i czterdzieści bilionów miejsc po przecinku, a ostatnio był w stanie określić, która cyfra znajduje się na pozycji kwadrylionów.

Wydajność superkomputerów jest najczęściej mierzona i wyrażana w operacjach zmiennoprzecinkowych na sekundę (FLOPS). Wynika to z faktu, że zadania modelowania numerycznego, do których tworzone są superkomputery, najczęściej wymagają obliczeń odnoszących się do liczb rzeczywistych o dużym stopniu dokładności, a nie liczb całkowitych. Dlatego w przypadku superkomputerów miara szybkości konwencjonalnych systemów komputerowych nie ma zastosowania – liczba milionów operacji na sekundę (MIPS). Przy całej swojej niejednoznaczności i przybliżeniu ocena we flopach ułatwia porównywanie ze sobą systemów superkomputerów w oparciu o obiektywne kryterium.

Pierwsze superkomputery miały wydajność rzędu 1 kflopa, tj. 1000 operacji zmiennoprzecinkowych na sekundę. Komputer CDC 6600, który miał wydajność 1 miliona flopów (1 Mflops), powstał w 1964 roku. Znak 1 miliarda flopów (1 gigaflopa) został przekroczony przez superkomputer NEC SX-2 w 1983 roku z wynikiem 1.3 Gflopa. Limit 1 biliona flopów (1 Tflops) został osiągnięty w 1996 roku przez superkomputer ASCI Red. Kamień milowy 1 biliarda flopów (1 petaflopa) został osiągnięty w 2008 roku przez superkomputer IBM Roadrunner. Trwają prace nad budową eksaskalowych komputerów zdolnych do 2016 kwintyliona operacji zmiennoprzecinkowych na sekundę do 1 roku.

Autor: Musskiy S.A.

 Polecamy ciekawe artykuły Sekcja Historia technologii, technologii, przedmiotów wokół nas:

▪ rower

▪ Silnik elektryczny

▪ LED

Zobacz inne artykuły Sekcja Historia technologii, technologii, przedmiotów wokół nas.

Czytaj i pisz przydatne komentarze do tego artykułu.

<< Wstecz

Najnowsze wiadomości o nauce i technologii, nowa elektronika:

Hałas drogowy opóźnia rozwój piskląt 06.05.2024

Dźwięki, które otaczają nas we współczesnych miastach, stają się coraz bardziej przeszywające. Jednak niewiele osób myśli o tym, jak ten hałas wpływa na świat zwierząt, zwłaszcza na tak delikatne stworzenia, jak pisklęta, które nie wykluły się jeszcze z jaj. Najnowsze badania rzucają światło na tę kwestię, wskazując na poważne konsekwencje dla ich rozwoju i przetrwania. Naukowcy odkryli, że narażenie piskląt zebry rombowatej na hałas uliczny może spowodować poważne zakłócenia w ich rozwoju. Eksperymenty wykazały, że zanieczyszczenie hałasem może znacznie opóźnić wykluwanie się piskląt, a pisklęta, które się wykluwają, borykają się z szeregiem problemów zdrowotnych. Naukowcy odkryli również, że negatywne skutki zanieczyszczenia hałasem rozciągają się na dorosłe ptaki. Zmniejszone szanse na rozrodczość i zmniejszona płodność wskazują na długoterminowe skutki, jakie hałas drogowy wywiera na dziką przyrodę. Wyniki badania podkreślają taką potrzebę ... >>

Bezprzewodowy głośnik Samsung Music Frame HW-LS60D 06.05.2024

W świecie nowoczesnych technologii audio producenci dążą nie tylko do nienagannej jakości dźwięku, ale także do łączenia funkcjonalności z estetyką. Jednym z najnowszych innowacyjnych kroków w tym kierunku jest nowy bezprzewodowy system głośników Samsung Music Frame HW-LS60D, zaprezentowany podczas wydarzenia World of Samsung 2024. Samsung HW-LS60D to coś więcej niż tylko system głośników, to sztuka dźwięku w stylu ramki. Połączenie 6-głośnikowego systemu z obsługą Dolby Atmos i stylowej konstrukcji ramki na zdjęcia sprawia, że ​​produkt ten będzie idealnym dodatkiem do każdego wnętrza. Nowa ramka Samsung Music Frame jest wyposażona w zaawansowane technologie, w tym Adaptive Audio zapewniający wyraźne dialogi na każdym poziomie głośności oraz automatyczną optymalizację pomieszczenia w celu uzyskania bogatej reprodukcji dźwięku. Dzięki obsłudze połączeń Spotify, Tidal Hi-Fi i Bluetooth 5.2, a także integracji inteligentnego asystenta, ten głośnik jest gotowy, aby zaspokoić Twoje ... >>

Nowy sposób kontrolowania i manipulowania sygnałami optycznymi 05.05.2024

Współczesny świat nauki i technologii rozwija się dynamicznie i każdego dnia pojawiają się nowe metody i technologie, które otwierają przed nami nowe perspektywy w różnych dziedzinach. Jedną z takich innowacji jest opracowanie przez niemieckich naukowców nowego sposobu sterowania sygnałami optycznymi, co może doprowadzić do znacznego postępu w dziedzinie fotoniki. Niedawne badania pozwoliły niemieckim naukowcom stworzyć przestrajalną płytkę falową wewnątrz falowodu ze stopionej krzemionki. Metoda ta, bazująca na zastosowaniu warstwy ciekłokrystalicznej, pozwala na efektywną zmianę polaryzacji światła przechodzącego przez falowód. Ten przełom technologiczny otwiera nowe perspektywy rozwoju kompaktowych i wydajnych urządzeń fotonicznych zdolnych do przetwarzania dużych ilości danych. Elektrooptyczna kontrola polaryzacji zapewniona dzięki nowej metodzie może stanowić podstawę dla nowej klasy zintegrowanych urządzeń fotonicznych. Otwiera to ogromne możliwości dla ... >>

Przypadkowe wiadomości z Archiwum

delikatna siła 03.06.2016

Pojęcie „miękkiej siły” jako zdolności do osiągania pożądanych rezultatów na podstawie dobrowolnego uczestnictwa, sympatii i atrakcyjności było do niedawna bardzo popularne. Z różnych powodów zszedł na dalszy plan, ale tylko w polityce międzynarodowej. W sprawie pomocy niepełnosprawnym, dzięki staraniom naukowców z Uniwersytetu Harvarda, „soft power” kontynuuje swój zwycięski marsz – w sensie dosłownym i przenośnym.

Izraelska firma ReWalk Robotics jest największym na świecie producentem egzoszkieletów medycznych. W portfolio firmy znajdują się obecnie dwa produkty. ReWalk Personal, pierwszy na świecie egzoszkielet certyfikowany przez FDA, jest przeznaczony do użytku osobistego w domu, a ReWalk Rehabilitation jest przeznaczony do użytku klinicznego w rehabilitacji pacjentów oraz do oceny możliwości wykorzystania ReWalk Personal w przyszłości.

W zeszłym roku firma wprowadziła na rynek szóstą wersję ReWalk Personal, która jest wykonywana na zamówienie, zakładana na odzież i wyposażona w szelki i paski na tułów. Zainstalowane w urządzeniu czujniki wykrywają niewielkie przesunięcia środka ciężkości użytkownika i przetwarzają je na ruchy zmotoryzowanych stawów nóg. Jednak do utrzymania równowagi potrzebne są kule.

Teraz, w wyniku wspólnego rozwoju naukowców z Wyss Institute na Harvard University i inżynierów firmy, pojawił się produkt bardziej elastyczny pod każdym względem, przeznaczony dla pacjentów z ograniczoną ruchomością kończyn dolnych w wyniku udaru mózgu lub stwardnienia rozsianego.

„Miękka siła” egzoszkieletu polega na zastosowaniu tkaniny, która powtarza kształt ciała i kończyn. W przeciwieństwie do poważniejszych poprzedników, taki egzoszkielet waży znacznie mniej i nie ogranicza swobody ruchów. Mocne siłowniki ukryte są wewnątrz paska. Egzoszkielet został zaprojektowany, aby pomóc użytkownikowi wykonywać naturalne ruchy, utrzymać równowagę i zmniejszyć zmęczenie.

Inne ciekawe wiadomości:

▪ Elektroniczna skórka ze wskazaniem LED

▪ Kamery internetowe RealSense

▪ Bioniczne oko może uchronić Cię przed ślepotą

▪ 27-calowy monitor ASUS VA278Q o rozdzielczości 2560x1440 pikseli

▪ Nowy pakiet oprogramowania do projektowania cyfrowych aplikacji wideo

Wiadomości o nauce i technologii, nowa elektronika

 

Ciekawe materiały z bezpłatnej biblioteki technicznej:

▪ Dział serwisu Materiały elektrotechniczne. Wybór artykułów

▪ artykuł Stephena Fry'ego. Słynne aforyzmy

▪ artykuł Który Chińczyk został czarnoskórym Amerykaninem, a potem Cyganem? Szczegółowa odpowiedź

▪ artykuł Cenchrus rzęski. Legendy, uprawa, metody aplikacji

▪ artykuł Teoria: przedwzmacniacze 3H. Encyklopedia elektroniki radiowej i elektrotechniki

▪ artykuł Tyrystorowy przetwornik prądu. Encyklopedia elektroniki radiowej i elektrotechniki

Zostaw swój komentarz do tego artykułu:

Imię i nazwisko:


Email opcjonalny):


komentarz:





Wszystkie języki tej strony

Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn

www.diagram.com.ua

www.diagram.com.ua
2000-2024