Bezpłatna biblioteka techniczna KSIĄŻKI I ARTYKUŁY
Ewolucja systemów dźwięku przestrzennego – od mono do 3D Obecnie stereofonia dwukanałowa stała się klasycznym sposobem przesyłania i odtwarzania dźwięku. Celem stereofonicznej reprodukcji dźwięku jest jak najdokładniejsze przekazanie obrazu dźwiękowego. Lokalizacja dźwięku to jedynie sposób na uzyskanie bogatszego i bardziej naturalnego dźwięku. Transmisja informacji przestrzennej przez najpopularniejsze „klasyczne” systemy dwukanałowe ma jednak szereg wad, które skłaniają projektantów do tworzenia różnorodnych systemów dźwięku przestrzennego. Słuchacz w sali koncertowej słyszy nie tylko dźwięk bezpośredni wydobywający się z poszczególnych instrumentów orkiestry, ale także dźwięk rozproszony dochodzący z różnych kierunków (w tym od tyłu) odbity od ścian i sufitu pomieszczenia, co tworzy efekt przestrzenności i dopełnia ogólne wrażenie obrazu. Opóźnienie, z jakim rozproszony dźwięk dociera do uszu słuchacza oraz jego skład widmowy zależą od wielkości i właściwości akustycznych pomieszczenia. Przy transmisji dwukanałowej informacje generowane przez dźwięk rozproszony są w dużej mierze tracone, a w przypadku nagrań studyjnych mogą początkowo nie być obecne. Ucho ludzkie najlepiej lokalizuje źródła dźwięku w płaszczyźnie poziomej. Jednocześnie dźwięki dochodzące z tyłu, przy braku dodatkowych informacji, są gorzej zlokalizowane. Wzrok, w tym widzenie peryferyjne, jest głównym zmysłem określania położenia obiektów, dlatego też bez informacji wizualnej umiejętność oceny położenia dźwięku w płaszczyźnie pionowej i jego odległości od nas jest słaba i dość indywidualna. Można to częściowo wytłumaczyć indywidualnymi cechami anatomicznymi uszu. Podczas odtwarzania nagrań nie ma informacji wizualnej, więc każda technologia dźwiękowa na rynek masowy, która twierdzi, że zapewnia „dźwięk przestrzenny”, zmuszona jest stworzyć coś przeciętnego i oczywiście kompromisowego. Do odtworzenia lub syntezy „efektu Halla” można zastosować różne metody. W połowie lat 50. firmy Philips, Grundig i Telefunken testowały trójwymiarowe systemy reprodukcji 3D i Raumton. Transmisja dźwięku była monofoniczna, jednak dodatkowe głośniki (zwykle wbudowane, rzadziej zewnętrzne), emitujące dźwięk na boki lub do góry, stwarzały wrażenie dużej przestrzeni ze względu na dźwięk odbity od ścian i sufitu. Ponieważ opóźnienie echa w pomieszczeniach domowych jest dość małe, później zastosowano pogłosy sprężynowe, aby je zwiększyć w kanale wzmacniającym dodatkowe sygnały. Ze względu na znaczną złożoność techniczną jak na tamte czasy, systemy te nie przetrwały długo na rynku i szybko zniknęły ze sceny. Następnie opracowano systemy ambiofoniczne do transmisji dźwięku rozproszonego, które znalazły zastosowanie głównie w kinie. Dodatkowy kanał (lub kanały) do transmisji dźwięku rozproszonego w takich systemach mają mniejszą moc niż główne, a ich zakres częstotliwości odpowiada pasmu częstotliwości sygnału rozproszonego (około 300...5000 Hz). Promieniowanie z dodatkowych głośników musi być rozproszone, w związku z czym są one kierowane na ściany lub sufit pomieszczenia odsłuchowego. Złożoność standaryzacji oraz problemy techniczne związane z rejestracją i transmisją sygnałów trzech, czterech i więcej kanałów sprawiły, że na wiele lat dwukanałowa stereofonia stała się głównym systemem rejestracji i transmisji dźwięku. Ale próby stworzenia systemów dźwięku przestrzennego nie ustały. Rozwojem ambiofonii stała się kwadrofonia (czterokanałowa reprodukcja dźwięku), której szczyt popularności przypadł na pierwszą połowę lat 70-tych. W przeciwieństwie do systemu ambiofonicznego, tutaj wszystkie kanały odtwarzania dźwięku są wyposażone jednakowo. Dyskretna (pełna) kwadrofonia, zapewniająca maksymalny efekt obecności, wymagała czterech kanałów transmisji dźwięku i przez to okazała się niekompatybilna z istniejącymi wówczas technicznymi sposobami rejestracji i nadawania dźwięku. Aby pokonać tę przeszkodę, stworzono kilka matrycowych systemów kwadrofonicznych (w ówczesnej terminologii – quasi-kwadrafonii), w których oryginalne sygnały z czterech kanałów matrycowano do transmisji na dwóch kanałach, a podczas odtwarzania sygnały oryginalne odtwarzano poprzez transformacje sumy-różnicy i możliwe było odtworzenie normalnego sygnału stereo bez dekodera. Ponieważ żaden z tych systemów nie był w pełni kwadrofoniczny, ani w pełni kompatybilny ze stereofonią dwukanałową ze względu na dużą penetrację sygnału z kanału na kanał, ich praktyczne zastosowanie było ograniczone, a zainteresowanie nimi szybko osłabło. W „wojnie standardów” systemów kwadrofonicznych nie było zwycięzców, pomysł szczęśliwie umarł, zasady poszły w zapomnienie, ale termin pozostał. Dlatego teraz niewiele osób jest zdezorientowanych faktem, że „coś”, co ma cztery kanały wzmocnienia i cztery głośniki, jest dumnie nazywane „systemem kwadrofonicznym”. Jest to jednak zasadniczo błędne, ponieważ źródło sygnału pozostaje dwukanałowe, a sygnały przedniego i tylnego kanału w tej konstrukcji systemu różnią się od siebie jedynie poziomem, to znaczy stosowana jest zasada panoramowania. Panoramowanie w produkcji nagrań stereofonicznych jest szeroko stosowane od połowy lat 50. XX wieku w celu umiejscowienia monofonicznych sygnałów audio „w lewo/prawo/środek” pola dźwiękowego. Panoramowanie nie ma żadnego wpływu na częstotliwość ani fazę sygnału, zmienia jedynie poziom sygnału monofonicznego dostarczanego do każdego z kanałów stereo. Panoramowanie po wielu kanałach (w przypadku nagrań wielokanałowych) odbywa się w ten sam sposób. Jednak przy określaniu kierunku do źródła dźwięku nasz aparat słuchowy wykorzystuje nie tylko różnicę w natężeniu sygnałów dźwiękowych, ale także przesunięcie fazowe pomiędzy nimi, a wpływ przesunięcia fazowego na dokładność lokalizacji źródła dźwięku wynosi najbardziej widoczne w zakresie częstotliwości od około 500 do 3000 Hz. (Ponownie zakres częstotliwości dźwięku rozproszonego!). Dlatego proste panoramowanie nie zapewnia wymaganej wierności dźwięku. Efekty stereo („biegnący dźwięk”, łączenie dźwięku „lewy-prawy” itp.) z pierwszych nagrań stereofonicznych szybko stały się nudne. Dlatego najlepsze nagrania instrumentów elektronicznych w studiu lat 60-tych dokonywano przy użyciu technologii mikrofonowej, co wyjaśnia „żywy” charakter dźwięku: Wprowadzenie wielokanałowego, w pełni elektronicznego (bez użycia mikrofonów) nagrywania instrumentów z późniejsze miksowanie, ułatwiając jednocześnie pracę inżynierowi dźwięku, jednocześnie psuło atmosferę sali. Później zaczęto brać ten fakt pod uwagę przy nagraniach studyjnych, choć całkowity powrót do technologii mikrofonowej nie nastąpił. Przy zastosowaniu dwukanałowego schematu odtwarzania główna strefa efektywnej lokalizacji pozornych źródeł dźwięku (ASS) znajduje się przed słuchaczem i obejmuje przestrzeń około 180 stopni w płaszczyźnie poziomej. Dwa przednie kanały nie są w stanie odpowiednio odtworzyć dźwięków, których źródła faktycznie znajdują się z tyłu i w płaszczyźnie pionowej, chyba że są wspomagane dodatkowymi sygnałami. Zastosowanie tylnych głośników w połączeniu z panoramowaniem dźwięku sprawdza się dobrze w przypadku źródeł dźwięku umieszczonych z przodu i za słuchaczem, a gorzej w przypadku umiejscowienia z boku. Jednakże samo panoramowanie dźwięku nigdy nie zapewni akceptowalnego rozmieszczenia źródeł dźwięku w płaszczyźnie pionowej. Podczas opracowywania systemów matrycowych okazało się, że znaczna część informacji przestrzennej zawarta jest w sygnale różnicowym (sygnale informacji stereo), który może być dostarczony do głośników kanałów tylnych w czystej postaci lub zmieszany z pewnym część sygnałów przednich. W najprostszym przypadku nie wymaga to nawet dodatkowych kanałów wzmacniających, a sygnały można matrycować na wyjściu wzmacniacza: Tak narodziło się kilka systemów pseudokwadrofonicznych, które w połowie lat 70-tych całkowicie wyparły z rynku „prawdziwych Aryjczyków”. Różniły się one jedynie sposobami uzyskania sygnału różnicowego. Jednak i ich triumf był krótkotrwały, co tłumaczono niedoskonałościami nośnika sygnału – płyty winylowej i taśmy magnetycznej. Nie odejmowano szumu nieskorelowanego z kanału lewego i prawego, co w połączeniu ze stosunkowo niskim poziomem sygnału różnicowego znacznie pogorszyło stosunek sygnału do szumu w kanałach tylnych. Inną, nie mniej istotną wadą takich systemów jest brak zależności poziomu sygnału tylnego od charakteru fonogramu. Przy niskim poziomie sygnału tylnego efekt przestrzenny jest mało zauważalny, gdy poziom wzrasta, pojawia się przerwa w scenie dźwiękowej i jej fragmenty cofają się (efekt „otoczenia orkiestry”, co nie odpowiada rzeczywistości) . Przy odtwarzaniu nagrań „na żywo” (które mają naturalny rozkład składowych całkowitych, różnicowych i fazowych) ta wada objawiała się w niewielkim stopniu, ale na większości fonogramów studyjnych kanały tylne wprowadzały istotne błędy w położeniu IZ. Aby przezwyciężyć tę wadę, wczesne systemy dźwięku przestrzennego próbowały zastosować automatyczne panoramowanie. Sygnały sterujące pozyskiwano z poziomu informacji przestrzennej – wzrost poziomu sygnałów różnicowych powodował wzrost wzmocnienia w kanałach tylnych. Przyjęty model panoramowania był jednak bardzo szorstki, w wyniku czego błędy w sterowaniu ekspanderami powodowały chaotyczne zmiany poziomu sygnałów tylnych (efekt „ciężkiego oddychania”). Zainteresowanie systemami dźwięku przestrzennego pojawiło się ponownie wraz z pojawieniem się mediów cyfrowych, których poziom szumu wewnętrznego jest znikomy i nawet przetwarzanie sygnału analogowego praktycznie nie pogarsza zakresu dynamicznego systemu. Rozwój metod cyfrowego przetwarzania sygnału doprowadził do powstania cyfrowych procesorów dźwięku (Digital Sound Processor – DSP). Procesory dźwięku przestrzennego, pierwotnie opracowane dla systemów kina domowego, zaczęły być ostatnio aktywnie wykorzystywane w samochodowych systemach audio. Ich zastosowanie może znacznie poprawić dźwięk we wnętrzu samochodu, dlatego produkowane są nie tylko jako osobne urządzenia DSP, ale także wchodzą w skład stosunkowo niedrogich radiotelefonów. Ustawienia procesora pozwalają dobrać najbardziej optymalne parametry dla wybranego miejsca odsłuchu. Istnieje wiele metod, które umożliwiają sprzętowi odtwarzanie dźwięku zlokalizowanego w przestrzeni przy ograniczonej liczbie systemów akustycznych. Różne metody implementacji mają mocne i słabe strony, dlatego ważne jest zrozumienie podstawowych różnic pomiędzy głównymi metodami przetwarzania sygnałów. Nowoczesne systemy dźwięku przestrzennego (Dolby surround, Dolby Pro-Logic, Q-Sound, Curcle surround i inne) opierają się na tej samej idei konwersji suma-różnica, uzupełnionej o „zastrzeżone” metody przetwarzania sygnału (zarówno analogowego, jak i cyfrowego) . Często łączy je wspólna nazwa „systemy 3D” („odrodzenie” czterdziestoletniego terminu!). Zanim przyjrzysz się zasadom przetwarzania sygnałów audio w systemach dźwięku przestrzennego, rozważ typowy proces nagrywania. Najpierw tworzone jest nagranie, które ma wiele indywidualnych kanałów – instrumenty, głosy, efekty dźwiękowe itp. Podczas miksowania poziom głośności i lokalizacja źródła dźwięku są kontrolowane dla każdej ścieżki audio, aby osiągnąć pożądany rezultat. W przypadku nagrywania stereofonicznego w wyniku miksowania powstają dwa kanały, w przypadku systemów surround liczba kanałów jest większa (np. 6 kanałów dla formatu „5.1” Dolby Digital/AC-3). W obu przypadkach każdy kanał składa się z sygnałów, które mają być wysyłane do poszczególnych głośników, gdy użytkownik słucha. Każdy z tych sygnałów jest wynikiem złożonego miksowania oryginalnych sygnałów źródłowych. Następnie następuje proces kodowania kanałów uzyskanych po zmiksowaniu i efektem jest jeden strumień cyfrowy (bitstream). Podczas odtwarzania dekoder przetwarza strumień cyfrowy, dzieląc go na poszczególne kanały i przesyłając je do odtwarzania do systemów głośnikowych. W przypadku wielokanałowych (dyskretnych) systemów dźwięku przestrzennego możliwy jest tryb symulowania faktycznie nieobecnych systemów głośnikowych (tryb Phantom). Jeśli masz tylko dwa głośniki, wówczas kanały subwoofer (niska częstotliwość) i kanał centralny (dialog) zostaną po prostu dodane do obu kanałów wyjściowych jednocześnie. Tylny lewy kanał jest dodawany do lewego kanału wyjściowego, tylny prawy do prawego kanału wyjściowego. Pamiętaj, że panoramowanie wpływa tylko na amplitudę sygnału audio. Konwersja audio w nowoczesnych systemach 3D zawiera dodatkowe informacje o amplitudzie i różnicy faz/opóźnieniu pomiędzy kanałami wyjściowymi do strumienia audio. Zazwyczaj ilość przetwarzania zależy od częstotliwości sygnału, chociaż niektóre efekty są tworzone przy użyciu prostych opóźnień czasowych. Jakie metody są stosowane do przetwarzania sygnału audio? Przede wszystkim jest to ekspansja stereo (Stereo Expansion), która powstaje poprzez wpływ na różnicę sygnału stereofonicznego kanałów przednich. Metodę tę można uznać za klasyczną i stosuje się ją przede wszystkim w przypadku konwencjonalnych nagrań stereo. Przetwarzanie sygnału może być analogowe lub cyfrowe. Po drugie, pozycyjny dźwięk 3D (zlokalizowany dźwięk 3D). Metoda ta działa na wielu indywidualnych kanałach audio i stara się indywidualnie zlokalizować każdy sygnał w przestrzeni. Po trzecie, Virtual surround to metoda odtwarzania nagrania wielokanałowego z wykorzystaniem ograniczonej liczby źródeł dźwięku, na przykład odtwarzanie dźwięku pięciokanałowego na dwóch głośnikach akustycznych. Oczywiście dwie ostatnie metody mają zastosowanie tylko do wielokanałowych nośników audio (nagrania w formacie DVD, AC-3), co nie jest jeszcze zbyt istotne dla systemów samochodowych. Listę uzupełniają różne metody sztucznego pogłosu. Gdy dźwięk przemieszcza się w przestrzeni, może być odbijany lub pochłaniany przez różne obiekty. Dźwięki odbite na dużej przestrzeni mogą w rzeczywistości stworzyć wyraźnie dostrzegalne echo, ale w ograniczonej przestrzeni wiele dźwięków odbitych łączy się tak, że słyszymy je jako pojedynczą sekwencję podążającą za dźwiękiem oryginalnym i tłumioną, a stopień tłumienia jest różny dla różnych częstotliwości i bezpośrednio zależy od właściwości otaczającej przestrzeni. Cyfrowe procesory dźwięku wykorzystują uogólniony model pogłosu, który ogranicza kontrolę procesu pogłosu do ustawienia kluczowych parametrów (czas opóźnienia, liczba odbić, szybkość zanikania, zmiana składu widmowego odbitych sygnałów). W ten sposób realizowane są tryby hali, na żywo, stadionu itp. Imitacja okazuje się całkiem realistyczna. Procesory analogowe wykorzystują w tym celu linie opóźnienia sygnału. Sterowanie parametrami pogłosu w tym przypadku jest znacznie bardziej złożone, dlatego zazwyczaj istnieje tylko jeden stały tryb pracy. Oczywiście trudno opisać cechy konstrukcyjne wszystkich istniejących systemów surround, ale ich działanie opiera się na omówionych zasadach – różnica polega jedynie na szczegółach algorytmów i zestawie trybów (presetów). Dlatego najlepszym doradcą przy wyborze procesora dźwięku jest Twój własny słuch. Publikacja: www.bluesmobil.com/shikhman Polecamy ciekawe artykuły Sekcja Sztuka dźwięku: ▪ Jak prawidłowo zainstalować głośniki Zobacz inne artykuły Sekcja Sztuka dźwięku. Czytaj i pisz przydatne komentarze do tego artykułu. Najnowsze wiadomości o nauce i technologii, nowa elektronika: Pułapka powietrzna na owady
01.05.2024 Zagrożenie śmieciami kosmicznymi dla ziemskiego pola magnetycznego
01.05.2024 Zestalanie substancji sypkich
30.04.2024
Inne ciekawe wiadomości: ▪ Słonie nie boją się myszy, ale pszczół ▪ Najjaśniejszy wyświetlacz OLED do smartfonów ▪ Słuchawki Qualcomm S7 i S7 Pro ▪ 23-calowy monitor Philips Full HD z technologią ErgoSensor Wiadomości o nauce i technologii, nowa elektronika
Ciekawe materiały z bezpłatnej biblioteki technicznej: ▪ sekcja serwisu Zasilacze. Wybór artykułu ▪ artykuł Płytka filozofia w głębokich miejscach. Popularne wyrażenie ▪ artykuł Dlaczego skarbonki są zrobione w kształcie świni? Szczegółowa odpowiedź ▪ artykuł Mint grosz. Legendy, uprawa, metody aplikacji ▪ artykuł Domofony. Encyklopedia elektroniki radiowej i elektrotechniki ▪ artykuł Obrazy magnetyczne. eksperyment fizyczny
Zostaw swój komentarz do tego artykułu: Wszystkie języki tej strony Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn www.diagram.com.ua |