Bezpłatna biblioteka techniczna KSIĄŻKI I ARTYKUŁY MPEG-2 i nieliniowa edycja wideo. Prawie kompleks Ostatnio wśród profesjonalistów zajmujących się wideo coraz częściej mówi się o kodowaniu MPEG-2. Uwaga na nią rośnie dziś niemal szybciej niż rzeczywiste poszerzanie zakresu jej praktycznego zastosowania. Rzeczywiście, czy interesuje nas skuteczny algorytm kompresji w zadaniach montażu nieliniowego i produkcji wideo, czy myślimy o tworzeniu własnych filmów DVD lub cyfrowych archiwów wideo, czy analizujemy zasady nagrywania Betacam SX lub standardy przechowywania danych na serwerach wideo i wreszcie, czy mówimy o cechach cyfrowej transmisji programów w telewizji kablowej i satelitarnej, wszędzie spotykamy się z wzmianką o MPEG-2. Z powyższego wyliczenia jasno wynika, że algorytm ten ma wiele twarzy i wiele aspektów, dlatego specjaliści z różnych dziedzin, mówiąc o MPEG, czasami myślą o różnych rzeczach. Ale tak naprawdę nie jest to tak skomplikowane, że nie można zrozumieć jego podstawowych zasad. Więc rozwiążmy to. Podstawowe pojęciaPrzypomnę, że MPEG to skrót od Moving Pictures Experts Group, nazwy komitetu standaryzującego metody cyfrowej kompresji strumieni danych wideo międzynarodowej organizacji ISO/IEC (International Standards Organisation/International Electrotechnical Commission). Początkowo zadaniem komisji było opracowanie formatu przechowywania i odtwarzania danych audio/wideo z płyt CD-ROM. W rezultacie powstał standard MPEG-1, nastawiony na kanały transmisji informacji o niskiej prędkości (około 1 Mbit/s) i ograniczony do rozdzielczości ramkowej 352 x 288 (dla sygnału PAL). Następnie, w miarę rozszerzania się zadań związanych z transmisją wideo, zwiększania się pojemności kanałów i rosnących wymagań dotyczących jakości wizualnej powstałych obrazów, pojawiły się MPEG-2, MPEG-4, a nawet MPEG-7, zoptymalizowane pod kątem specjalnych warunków. Zatem MPEG-4 przeznaczony jest przede wszystkim do cyfrowej transmisji danych wideo po liniach telefonicznych (Internet, wideokonferencje) w warunkach mocno ograniczonej przepustowości (zwykle 28,8 Kbps), w związku z czym zmniejsza rozdzielczość o kolejne czterokrotnie - do 176 x 144, ale wykorzystuje najbardziej zaawansowany schemat kodowania z podziałem obrazu na takie niezależne obiekty jak tło, tekst, grafika 2D/3D, „mówiące” ludzkie twarze, poruszające się ciała itp. Jednak ze względu na oczywistą złożoność standard ten nie został jeszcze otrzymał praktyczną realizację. Jeśli chodzi o MPEG-2, początkowo miał on na celu rozwiązanie problemu przesyłania obrazów telewizyjnych. Każdy z nas wie z własnego doświadczenia, że jakość obrazu oglądanego w telewizji jest bardzo zróżnicowana. Oglądanie filmu odtwarzanego na domowym magnetowidzie lub lokalnej telewizji kablowej to jedno, ale oglądanie obrazu z DVD lub kanału satelitarnego to zupełnie inna sprawa. MPEG-2, zgodnie z definicją zawartą w normie ISO/IEC 13818-2, obejmuje rodzinę wspólnie uzgodnionych i odgórnie kompatybilnych standardów kompresji telewizji cyfrowej. Dokładniej, pozwala poziom 4 (Poziomy) rozdzielczość klatki i 5 podstawowych profili (Profile) kodowanie sygnałów luminancji i chrominancji. Poziomy: niski LL (Low Level) z rozdzielczością klatki 352 x 288 (odpowiada MPEG-1), główna ML (Poziom główny) 720 x 576, wysoki HL-1440 (Wysoki poziom) 1440 x 1152 i wysoki HL-1920 1920 x x 1152. Należy pamiętać, że jeśli zgodnie z Zaleceniem ITU-R BT.601 (Międzynarodowy Związek Telekomunikacyjny – Zalecenie) poziom główny określa rozdzielczość standardowego kadru telewizyjnego, to poziomy wysokie skupiają się na telewizji wysokiej rozdzielczości. Profile: prosty SP (Prosty profil), podstawowy MP (Profil główny), dwa skalowalne - pod względem stosunku sygnału do szumu Skalowalny profil SNR i za pozwoleniem Profil skalowalny przestrzennie i wreszcie wysoki HP (Wysoki profil). Ważne miejsce zajmuje także tzw. profil główny-profesjonalny, czyli inaczej profil MPEG 422, który nie jest ustalony przez normę, ale jest aktywnie wykorzystywany w praktyce. Jest oznaczony jako 422 szt. Jeśli z poziomami wszystko jest dość proste, to aby zrozumieć różnice między profilami, wymagane są wstępne wyjaśnienia. Trochę teorii Efektywna kompresja informacji wideo opiera się na dwóch głównych założeniach: wytłumieniu drobnych szczegółów rozkładu przestrzennego poszczególnych klatek, nieistotnych dla percepcji wzrokowej oraz eliminacji czasowej redundancji w sekwencji tych klatek. Stąd koncepcja kompresji przestrzennej i czasowej. Pierwsza z nich wykorzystuje ustaloną eksperymentalnie niską wrażliwość ludzkiej percepcji na zniekształcenia drobnych szczegółów obrazu. Oko zauważa niejednorodność jednolitego tła szybciej niż zakrzywienie cienkiej granicy lub zmianę jasności i koloru małego obszaru. W matematyce znane są dwie równoważne reprezentacje obrazu: znany przestrzenny rozkład jasności i koloru oraz tzw. rozkład częstotliwości związany z przestrzenną dyskretną transformatą kosinusową (DCT). Teoretycznie są one równoważne i odwracalne, ale przechowują informacje o strukturze obrazu w zupełnie inny sposób: transmisję płynnych zmian w tle zapewniają niskoczęstotliwościowe (centralne) wartości rozkładu częstotliwości oraz współczynniki wysokiej częstotliwości odpowiadają za drobne szczegóły rozkładu przestrzennego. Umożliwia to zastosowanie następującego algorytmu kompresji. Ramka jest podzielona na bloki o wymiarach 16 x 16 (rozmiar 720 x x 576 odpowiada 45 x 36 blokom), z których każdy jest przekształcany w dziedzinę częstotliwości przez DCT. Następnie odpowiednie współczynniki częstotliwości poddawane są kwantyzacji (zaokrąglaniu wartości w określonym przedziale). Jeśli samo DCT nie prowadzi do utraty danych, to kwantyzacja współczynników nieuchronnie powoduje zgrubienie obrazu. Operacja kwantyzacji wykonywana jest w zmiennym odstępie czasu – informacje o niskiej częstotliwości przesyłane są najdokładniej, natomiast wiele współczynników o wysokiej częstotliwości przyjmuje wartości zerowe. Zapewnia to znaczną kompresję strumienia danych, ale skutkuje zmniejszoną efektywną rozdzielczością i możliwym pojawieniem się drobnych fałszywych szczegółów (szczególnie na granicach bloków). Oczywiście im grubsza zastosowana kwantyzacja, tym większy stopień kompresji, ale tym niższa jakość wynikowego sygnału. Przypomnę, że algorytm ten wywodzi się z fotografii cyfrowej, gdzie został opracowany pod nazwą JPEG w celu wydajnej kompresji pojedynczych klatek (JPEG to skrót od nazwy międzynarodowego stowarzyszenia Joint Photographic Experts Group, które go zatwierdziło). Został on następnie z powodzeniem zastosowany do sekwencji wideo klatek (przy czym każda z nich była przetwarzana całkowicie niezależnie) i otrzymał nową nazwę M-JPEG (Motion-JPEG). Należy również zauważyć, że kodowanie DV standardów cyfrowych DV/DVCAM/DVCPRO zasadniczo opiera się na tym samym algorytmie, ale wykorzystuje bardziej elastyczny schemat z adaptacyjnym wyborem tablic kwantyzacji. W przeciwieństwie do M-JPEG, współczynnik kompresji dla różnych bloków jest różny na całym obrazie: dla bloków nieinformacyjnych (na przykład na krawędziach obrazu) wzrasta, a dla bloków z dużą liczbą drobnych szczegółów maleje w stosunku do średniego poziomu dla obrazu. W rezultacie przy tej samej jakości uzyskuje się zmniejszenie objętości danych o około 15% (lub odwrotnie – przy tym samym strumieniu jakość sygnału wyjściowego jest wyższa). Kompresja czasu MPEG wykorzystuje dużą redundancję informacji w obrazach oddzielonych niewielkimi odstępami czasu. Rzeczywiście, między sąsiednimi obrazami zwykle zmienia się tylko niewielka część sceny - na przykład mały obiekt płynnie porusza się na nieruchomym tle. W takim przypadku pełne informacje o scenie należy zapisać jedynie wybiórczo – dla obrazów referencyjnych. Innym wystarczy przesłanie jedynie informacji różnicowych: o położeniu obiektu, kierunku i wielkości jego przemieszczenia, nowych elementach tła (otwarcie się za obiektem w trakcie jego ruchu). Co więcej, różnice te mogą powstać nie tylko w porównaniu z poprzednimi obrazami, ale także z kolejnymi (ponieważ to na nich w miarę poruszania się obiektu ujawnia się część tła, wcześniej ukryta za obiektem). Najbardziej złożonym matematycznie elementem jest poszukiwanie bloków, które ulegają przesunięciu, ale niewiele zmieniają swoją strukturę (16 x 16) i określenie odpowiednich wektorów ich przemieszczenia. Jednak ten element jest najważniejszy, ponieważ pozwala znacznie zmniejszyć ilość wymaganych informacji. To właśnie wydajność wykonywania tego „inteligentnego” elementu w czasie rzeczywistym wyróżnia różne kodery MPEG. Zatem w kodowaniu MPEG zasadniczo powstają trzy typy ramek: I (Intra) - pełniące funkcję ramek odniesienia i zachowujące pełną ilość informacji o strukturze obrazu; P (Predictive) - niosący informację o zmianach w strukturze obrazu w stosunku do poprzedniej klatki (typ I lub P); B (Dwukierunkowy) - zapisanie tylko najistotniejszej części informacji o różnicach w stosunku do poprzedniego i kolejnych zdjęć (tylko I lub P). Koncepcja późniejszej kompresji klatek I, a także różnicowych klatek P i B, jest podobna do M-JPEG, ale podobnie jak DV, z adaptacyjną regulacją tablic kwantyzacji. W szczególności pozwala to scharakteryzować sygnał DV jako szczególny przypadek sekwencji MPEG I-ramek o danym stałym strumieniu (współczynniku kompresji). Sekwencje klatek I-, P-, B-są łączone w grupy klatek o ustalonej długości i strukturze - GOP (Grupa Obrazów). Każdy GOP koniecznie zaczyna się od I i zawiera P ramek w określonych odstępach czasu. Jego strukturę opisano jako M/N, gdzie M jest całkowitą liczbą ramek w grupie, a N jest odstępem pomiędzy P-ramkami. Zatem grupa 15/3, typowa dla Video-CD i DVD IPB, ma następującą postać: IBBPBBPBBPBBPBB. Tutaj każda klatka B jest rekonstruowana z otaczających ją klatek P (na początku i na końcu grupy - z I i P), a z kolei każda klatka P jest rekonstruowana z poprzedniej klatki P- (lub I-) rama. Jednocześnie ramki I są samowystarczalne i można je przywracać niezależnie od innych, ale stanowią punkt odniesienia dla wszystkich ramek P, a zwłaszcza B w grupie. W związku z tym I i P mają najniższy stopień kompresji, B ma najwyższy. Ustalono, że rozmiar typowej ramy P wynosi 1/3, a B - 1/8 I. W rezultacie sekwencja MPEG IPPP (GOP 4/1) zapewnia dwukrotną redukcję wymaganego strumienia danych (przy tej samej jakości) w porównaniu z sekwencją samych ramek I, a zastosowanie GOP 15/3 pozwala na osiągnięcie czterech razy kompresja. Profile MPEG-2Teraz możemy wrócić do opisu poszczególnych profili. Prosty profil SP wykonuje kompensację i przewidywanie ruchu tylko w jednym kierunku (ramki P). W profilu głównym predykcja MP realizowana jest w dwóch kierunkach, tzn. dozwolone są ramki B. W profilach skalowalnych oryginalny cyfrowy strumień danych wideo jest dzielony na kilka części według różnych kryteriów. W profilu skalowalnym SNR strumień jest podzielony na dwie części. Pierwszy z nich – sygnał główny – niesie informację o obniżonym stosunku sygnału do szumu (grubsze próbkowanie). Ale ta część jest chroniona algorytmem, który jest bardziej odporny na zakłócenia transmisji (i dlatego wymaga większej liczby bitów), jest odbierany z silnym szumem i pozwala na przywrócenie obrazu telewizyjnego nawet w niesprzyjających warunkach (choć przy zmniejszonym sygnale do -stosunek szumu). Mniej chroniona druga część, tzw. sygnał dodatkowy, jest po prostu odrzucana w przypadku niestabilnego odbioru. Przy stabilnym odbiorze pozwala uzupełnić sygnał główny i zwiększyć stosunek sygnału do szumu do wartości pierwotnej. Profil skalowalny przestrzennie dodatkowo zwiększa złożoność schematu kodowania. W nim przepływ zostanie podzielony na trzy części – według kryterium rozdzielczości. Pierwsza część, czyli sygnał główny, dostarcza odporną na zakłócenia informację o obrazie o standardowej rozdzielczości (625 linii, z czego 576 jest aktywnych). Druga część rozwija informacje w obraz o wysokiej rozdzielczości (1250 linii, 1152 aktywnych). Cóż, dekodowanie trzeciego sygnału pozwala zwiększyć stosunek sygnału do szumu. Piąty profil HP – najwyższy – zawiera wszystkie funkcje poprzednich, lecz wykorzystuje reprezentację YUV nie 4:2:0, a 4:2:2, czyli przesyła dwa razy częściej sygnały różnicy kolorów (w każdej linii, w każdym elemencie liniowym). Tutaj znowu potrzebne jest pewne wyjaśnienie. Wiadomo, że sygnał telewizyjny jest kombinacją sygnału jasności Y oraz dwóch sygnałów różnicy kolorów U i V. Różnice w ich wartościach pozwalają na 256 gradacji (od 0 do 255 dla Y i od -128 do 127 dla U/V ), co w ujęciu binarnym odpowiada 8 bitom, czyli 1 bajtowi. Teoretycznie każdy element ramki ma swoje własne wartości YUV, czyli wymaga 3 bajtów. Ta reprezentacja, w której zarówno sygnały luminancji, jak i chrominancji mają równą liczbę niezależnych wartości, jest zwykle określana jako 4:4:4. Jednak ludzki układ wzrokowy jest mniej wrażliwy na zmiany przestrzenne kolorów niż na zmiany jasności. Bez widocznej utraty jakości liczbę kolorów w każdej linii można zmniejszyć o połowę. To właśnie tę reprezentację, określaną jako 4:2:2, przyjęto w telewizji. W takim przypadku, aby przesłać pełną wartość sygnału telewizyjnego w każdej próbce ramki, wystarczą 2 bajty (naprzemienne niezależne wartości U i V przez próbkę). Ponadto na potrzeby wideo konsumenckiego akceptowalne jest zmniejszenie o połowę rozdzielczości kolorów w pionie, czyli przejście na prezentację w formacie 4:2:0. Zmniejsza to zgłaszaną liczbę bajtów na próbkę do 1,5. Należy zauważyć, że jest to dokładnie koncepcja zawarta w formacie DV aparatów cyfrowych, a także w formacie wideo DVD. Jednakże w profesjonalnych zadaniach związanych z montażem cyfrowym i montażem wideo, gdy możliwe jest wielokrotne i wielowarstwowe wykorzystanie fragmentów materiału filmowego oraz włączenie grafiki komputerowej, początkowo wymagana jest wyższa jakość cyfrowego wideo, aby uniknąć wynikającej z tego kumulacji błędów. Dlatego też reprezentację 4:2:2 uważa się tutaj za obowiązkową. To właśnie odróżnia profil 422P od głównego. W tabeli 1 podsumowuje różnice pomiędzy wszystkimi opisanymi profilami. Tabela 1
Kompresja dźwięku Do tej pory mówiliśmy tylko o kompresji obrazu. Ale pełnoprawny film zawiera również komponent audio. Uważa się, że dźwięk o jakości CD wymaga próbkowania 44,1 kHz przy 16 bitach na kanał, co odpowiada 706 kb/s na kanał (1,4 Mb/s w przypadku dźwięku stereo). Jakość sygnału DAT określa częstotliwość próbkowania 48 kHz (pasmo częstotliwości 4–24 000 Hz) i zwiększa przepływność do 768 Kb/s na kanał. Podejście do kompresji informacji jest takie samo – odrzucanie części, które nie są zbyt istotne dla percepcji ludzkiego ucha. Standard MPEG umożliwia trzy poziomy (warstwa) kompresji dźwięku. Warstwa 1 wykorzystuje najprostszy algorytm z minimalną kompresją, co oznacza 192 Kb/s na kanał. Algorytm warstwy 2 jest bardziej złożony, ale stopień kompresji jest wyższy - 128 Kbps na kanał. Wydajny algorytm kompresji cyfrowego dźwięku o jakości CD (11 razy bez strat zauważalnych dla ludzkiego ucha). Warstwa 3 zapewnia najwyższą możliwą jakość dźwięku przy rygorystycznych ograniczeniach przepływu - nie więcej niż 64 Kb/s na kanał. Przeznaczony jest głównie do Internetu. Jego znaczenie jest tak duże, że otrzymało specjalny skrót MP3, co oznacza MPEG Layer 3. Powstało wiele stron internetowych zawierających setki tysięcy plików MP3 z muzyką popularną. Za pomocą specjalnych programów do odtwarzania (Real Audio) muzyki w formacie MP3 można słuchać w czasie rzeczywistym przez Internet, można ją kopiować w nieskończoność (uwaga: typowy utwór zajmuje od 2 do 8 MB) i nielegalnie rozpowszechniać. Pojawiły się już przenośne odtwarzacze MP3, które kosztują około 200 dolarów (np. Diamond Rio). Przemysł muzyczny, ponosząc znaczne straty, rozpoczął aktywną walkę ze stronami MP3 (amerykańska organizacja Recording Industry Association of America znalazła i doprowadziła do zamknięcia większości z nich). Ale dżin został wypuszczony, nie możesz zamknąć wszystkich. Adaptec przewiduje, że w nadchodzących latach przez Internet będą pobierane miliardy utworów i twierdzi, że w następnej wersji EasyCD Creator będzie obsługiwał format MP3. Jednak w zadaniach edycji cyfrowej nie stosuje się kompresji sygnałów audio, dlatego przy obliczaniu dopuszczalnych strumieni na komponent audio należy przydzielić do 1,5 Mbit/s. MPEG-2 w zadaniach edycji nieliniowejTermin „montaż nieliniowy” nie oddaje istoty procesu, a jedynie odzwierciedla jedną z jego cech. W rzeczywistości mówimy o edycji wideo wykonywanej cyfrowo na komputerach. W takim przypadku oryginalne fragmenty wideo podlegają obowiązkowej digitalizacji i zapisowi na dysku twardym w postaci odpowiednich plików. W przeciwieństwie do napędów taśm magnetycznych, dostęp do któregokolwiek z tych plików fragmentarycznych nie wymaga żmudnego przewijania (a proces ten jest liniowy), tzn. wszystkie klatki wideo są dostępne w losowej kolejności. Ta ważna właściwość sprawiła, że montaż cyfrowy nazwano nieliniowym, chociaż oczywiście możliwości cyfrowego przetwarzania są znacznie szersze i bogatsze. Przypomnijmy, że zgodnie z Rekomendacją ITU-R BT.601 ramką telewizyjną jest matryca o rozdzielczości 720 x 576. Biorąc pod uwagę częstotliwość odświeżania telewizora wynoszącą 25 Hz, dochodzimy do wniosku, że jedna sekunda cyfrowego wideo w formacie 4:2 Reprezentacja :2 wymaga 20 736 000 bajtów (25 x 2 x 720 x 576), co oznacza, że przepływ danych wynosi 21 MB/s. Nagrywanie takich strumieni jest technicznie wykonalne, ale jest skomplikowane, kosztowne i nieefektywne w przetwarzaniu końcowym. W praktyce, biorąc pod uwagę realne możliwości, wymagane jest znaczne ograniczenie przepływów. Istnieje wiele znanych algorytmów, które wykonują kompresję bez utraty informacji, ale nawet najskuteczniejsze z nich nie zapewniają więcej niż dwukrotnej kompresji typowych obrazów. Do niedawna w świecie nieliniowych systemów edycji wideo królował format M-JPEG. Poszczególne rozwiązania różniły się stopniem kompresji, który odpowiadał różnym poziomom jakości powstałego wideo. Z grubsza można tu wyróżnić cztery poziomy: wideo standardowe (VHS, C-VHS, Video8), super video (SVHS, C-SVHS, Hi8), video cyfrowe (Betacam SP, DV/DVCAM/DVCPRO, miniDV, Digital8) i wideo studyjne (Digital S, DVCPRO50). Dla uproszczenia będziemy je dalej oznaczać jako Video, S-Video, DV i Studio-TV. Ilościowo charakteryzują się one zazwyczaj rozdzielczością poziomą (liczba elementów wyodrębnionych w linii - linie telewizyjne). Uważa się, że Video zapewnia rozdzielczość do 280 linii i odpowiada strumieniowi M-JPEG o szybkości około 2 MB/s, S-Video - 400 linii i 4 MB/s, DV - 500 linii i 3,1 MB/s, i Studio-TV - rozdzielczość co najmniej 600 linii przy przepływach 7 MB/s. Współczynniki kompresji wynoszą odpowiednio 10:1, 5:1, 5:1 i 3:1 (pamiętajmy, że algorytm DV jest bardziej wydajny niż M-JPEG). Ale nawet taka kompresja wymaga znacznej ilości miejsca na dysku do przechowywania i przetwarzania plików wideo. Na przykład jedna minuta wideo w formacie M-JPEG wymaga 120 MB w przypadku jakości wideo i około 500 MB w przypadku jakości studyjno-telewizyjnej. Ale chcesz pracować z filmami trwającymi dziesiątki minut! I tu właśnie pojawia się MPEG-2. Nawet przejście na ramki I pozwala zaoszczędzić 15% głośności, a jeśli użyjesz ramek P, wzmocnienie może się podwoić (dla grup IPPP), a to już jest znaczące. To prawda, że istnieje opinia, że w tym drugim przypadku traci się jedną z głównych zalet edycji nieliniowej, a mianowicie dokładność klatka po klatce. W rzeczywistości jest to błędne przekonanie. Za pomocą różnicowych ramek P można łatwo i szybko przywrócić oryginalną strukturę obrazów (dla nowoczesnych procesorów takie zadanie nie jest trudne i wykonywane jest w czasie rzeczywistym). Jeśli chodzi o dokładność rekonstrukcji, spada ona zauważalnie w przypadku długich grup i/lub w obecności klatek B. Dlatego na przykład nie można edytować DVD-Video (GOP 15/3). Jednocześnie w przypadku krótkich grup składających się wyłącznie z ramek I i P odbudowa następuje praktycznie bez kumulacji błędów. Zatem przy kodowaniu MPEG-2 422P@ML przepływ 50 Mbit/s z ramkami I (tylko I-ramka) i 25 Mbit/s z grupą IPPP jest wystarczający, aby zapewnić jakość studyjną (patrz tabela 2). Tabela 2
To właśnie w tym kierunku rozwijają się nowoczesne systemy edycji nieliniowej. Jak na razie jest niewiele przykładów. Są to FAST 601 [six-o-one], Pinnacle miroVideo DC1000 i Matrox DigiSuite DTV. Jednak zalety tego podejścia są na tyle oczywiste, że w najbliższej przyszłości z pewnością pojawią się inne rozwiązania. Autor: Andrey Ryakhin, na podstawie digitalvideo.ru Polecamy ciekawe artykuły Sekcja sztuka wideo: ▪ Wskazówki dotyczące oświetlenia dla operatora ▪ Nauka kręcenia wideo - wskazówki dla początkujących Zobacz inne artykuły Sekcja sztuka wideo. Czytaj i pisz przydatne komentarze do tego artykułu. Najnowsze wiadomości o nauce i technologii, nowa elektronika: Udowodniono istnienie reguły entropii dla splątania kwantowego
09.05.2024 Mini klimatyzator Sony Reon Pocket 5
09.05.2024 Energia z kosmosu dla Starship
08.05.2024
Inne ciekawe wiadomości: ▪ Ultracienki aparat bez soczewek optycznych ▪ Soczewki ze szkła chalkogenowego ▪ Podwójny procesor graficzny Nvidia Tesla K80 Wiadomości o nauce i technologii, nowa elektronika
Ciekawe materiały z bezpłatnej biblioteki technicznej: ▪ sekcja witryny Rzeczy szpiegowskie. Wybór artykułów ▪ artykuł Trzydzieści pięć tysięcy kurierów. Popularne wyrażenie ▪ artykuł Szybowiec Vympel-9. Transport osobisty ▪ artykuł Elektroniczny odmrażacz lodówki. Encyklopedia elektroniki radiowej i elektrotechniki
Zostaw swój komentarz do tego artykułu: Wszystkie języki tej strony Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn www.diagram.com.ua |