Menu English Ukrainian Rosyjski Strona główna

Bezpłatna biblioteka techniczna dla hobbystów i profesjonalistów Bezpłatna biblioteka techniczna


KSIĄŻKI I ARTYKUŁY
Darmowa biblioteka / Katalog / Sztuka dźwięku

Dobry wzmacniacz nie jest wybierany na podstawie danych osobowych

Sztuka dźwięku

Katalog / Sztuka dźwięku

Komentarze do artykułu Komentarze do artykułu

Czy istnieją obiektywne kryteria jakości dźwięku i czy można jakoś sklasyfikować tak szeroki wachlarz importowanego sprzętu? Rozmowę tę należy rozpocząć oczywiście od najważniejszego – od wzmacniacza, który jest „sercem” każdego systemu audio.

W rzeczywistości wykwalifikowany specjalista w dziedzinie inżynierii obwodów może z góry zrozumieć, dlaczego dane urządzenie brzmi dokładnie tak i nic więcej. Inżynieria obwodów to przede wszystkim dziedzina wiedzy dokładnej, która nie akceptuje tajemniczości, niepoznawalności i ezoteryzmu, tak gęsto przemieszanych w sporach o urządzenia porównywalne cenowo do samochodu. A specjalista w wielu przypadkach jest w stanie, patrząc na obwód, ocenić charakter dźwięku, nawet bez włączania urządzenia, chociaż na dźwięk ma oczywiście wpływ instalacja i projekt.

 Ale co, jeśli masz dostęp tylko do instrukcji? Bezkrytyczne podejście do deklarowanych przez firmy parametrów, podanych w nich może wprowadzić w błąd. Najważniejszymi parametrami decydującymi o jakości wzmacniacza są współczynniki zniekształceń harmonicznych i intermodulacyjnych. Są one konsekwencją nieliniowości charakterystyki prądowo-napięciowej tranzystorów i lamp. Zniekształcenia te są ze sobą ściśle powiązane i z reguły ich zmierzone wartości są tego samego rzędu. Do scharakteryzowania parametrów wzmacniaczy często używa się uogólnionego terminu - współczynnika zniekształceń nieliniowych lub harmonicznych (THD, THD). Oczywiste jest, że im mniejszy CII, tym wyższa wierność dźwięku.

Wskaźnik ten jest również brany pod uwagę w normach dotyczących wyposażenia. Tak więc nawet w radzieckich GOST niższy SOI odpowiadał wyższej klasie sprzętu. Na poziomie międzynarodowym istnieje tylko jeden ogólnie uznany standard jakości Hi-Fi - niemiecka norma DIN 45500, która określa określone wartości. Wzmacniacze tej klasy muszą mieć współczynnik zniekształceń harmonicznych nie większy niż 1% w paśmie częstotliwości do 12,5 kHz przy mocy znamionowej oraz współczynnik zniekształceń intermodulacyjnych co najmniej 3% (mierzony przy podaniu na wejście wzmacniacza dwóch częstotliwości: 250 Hz i 8 kHz przy stosunku amplitud 1:4).

Takie proporcje parametrów w standardzie Hi-Fi nie są przypadkowe. Wzięli pod uwagę wyniki badań fizjologicznych cech słuchu. Większość konsumentów o takich cechach ocenia stosunek ceny do jakości urządzenia jako najlepszy. Innymi słowy, tylko znikoma część melomanów jest gotowa zapłacić wyższą cenę za wyższą jakość. W przypadku wzmocnienia wysokiej jakości pożądane jest również szerokie pasmo przenoszenia rozciągające się do 40-60 kHz (z odchyleniem poziomu nie większym niż -3 dB). Oznacza to, że wzmacniacz musi transmitować sygnały niemal równo nie tylko w całym zakresie słyszalnym, ale i daleko poza nim.

Faktem jest, że wraz ze wzrostem częstotliwości wydajność sprzężenia zwrotnego maleje, aw konsekwencji wzrost współczynnika zniekształceń nieliniowych. Na górnym końcu pasma mocy sprzężenie zwrotne traci swoją skuteczność. Dlatego, aby sprzężenie zwrotne miało wystarczającą głębokość w całym zakresie pracy i skutecznie tłumiło zniekształcenia nieliniowe i intermodulacyjne, konieczne jest uzyskanie liniowej odpowiedzi częstotliwościowej do częstotliwości kilkakrotnie wyższych niż górna granica pasma audio . Dalsze rozszerzanie pasma częstotliwości roboczej, na przykład do setek kiloherców i więcej, znacznie komplikuje i zwiększa koszt wzmacniacza.

Innym ważnym parametrem jest szybkość narastania napięcia wyjściowego wzmacniacza (Slew Rate), która łączy jego charakterystykę częstotliwościową i mocową. Wiele tanich wzmacniaczy dobrze przekazuje tylko małe impulsy sygnału muzycznego, a na mocnych fragmentach hard rocka „utwardza” swój głos, nie mogąc wydobyć ze źródła mocy odpowiedniej do danej chwili mocy. Dlatego przy zakupie nie tylko interesująca, ale także pożądana jest ocena wymiarów transformatora zasilającego i całkowitej pojemności kondensatorów elektrolitycznych filtra. W praktyce nie zaszkodzi mieć pewien margines na ten parametr.

Kolejnym parametrem, który należy wziąć pod uwagę jest współczynnik tłumienia (Damping Factor). Mierzona jest jako stosunek zalecanej impedancji obciążenia (cewka głośnika) do impedancji wyjściowej własnej wzmacniacza. Jeśli tłumienie nie wystarczy, wówczas dyfuzor będzie wykonywał własne „ruchy ciała”, które nie mają nic wspólnego z muzyką, a zależą od sprężystości zawieszenia. Jednak w zdecydowanej większości modeli problem ten został pomyślnie rozwiązany. Można uznać za wystarczające, jeśli wartość współczynnika przekracza sto. Poziom szumów, tło, separacja kanałów stereo – to już drugorzędne parametry, które w pewnym stopniu nie wpływają na charakter dźwięku i z reguły mają akceptowalną wartość nawet w najtańszych modelach.

Wszystko to nie jest tajemnicą dla technicznie doświadczonych czytelników, a pytanie, jak wykorzystać te informacje przy wyborze wzmacniacza, jest znacznie bardziej interesujące. Przeglądając broszury i instrukcje dołączone do urządzeń, wszystkie wzmacniacze można warunkowo podzielić na dwie grupy: jedną z SOI w ułamku procenta (0,5% -0,1%), a drugą - w granicach 0,01% -0,001%. Jeśli dokładnie przeanalizować skład drugiej grupy, okazuje się, że obok drogiego i klasowego sprzętu wkroczyły nawet urządzenia „pre-high-endowe”. Pod względem jakości dźwięku są znacznie gorsze od nawet najniższego Hi-Fi, a do High Endu nie można ich nawet stawiać. Takie wzmacniacze będą w pierwszej grupie. Jak to wyjaśnić?

Możliwe, że parametry podane w broszurach nie mają żadnego związku z jakością dźwięku i nie sposób się po nich poruszać. Albo coś jest nie tak z samymi danymi. W rzeczywistości dane można pokazać w atrakcyjny sposób, nie mówiąc wszystkiego. Jeśli, na przykład, zarówno moc, jak i częstotliwość zostaną jednocześnie zwiększone, nastąpi ogromny wzrost zniekształceń. Ich maksimum osiągane jest z reguły przy najwyższej częstotliwości i maksymalnej mocy, czyli uzyskana wartość THD zależy całkowicie od sposobu jej pomiaru. Tradycyjna metoda pomiaru THD przy 20 kHz i przy maksymalnej mocy wyjściowej jest dobrym wskaźnikiem rzeczywistej jakości wzmacniacza.

Jeśli wzmacniacz ma THD 0,02% przy częstotliwości 1 kHz i amplitudę sygnału wyjściowego tylko 1 V (przy obciążeniu 4 omów odpowiada to tylko 0,25 W), to przy maksymalnej mocy i częstotliwości 20 kHz, określony parametr może mieścić się w przedziale od jednego do pięciu procent, co jest niedopuszczalne przy odtwarzaniu dźwięku wysokiej jakości. I odwrotnie, urządzenie o współczynniku harmonicznych 0,02% przy maksymalnej mocy i częstotliwości 20 kHz, o mocy zaledwie 0.25 W i częstotliwości 1 kHz, prawdopodobnie będzie miało znikomo mały THD. Ten sam obraz dotyczy zniekształceń intermodulacyjnych. Zgodnie z prawem należy je mierzyć metodą dwuczęstotliwościową przy maksymalnej amplitudzie sygnału wyjściowego.

Jeśli w procesie pomiaru zostanie wybrana amplituda 1 V, to wynik będzie bardzo małą i bardzo atrakcyjną dla kupujących wartością, ale w żaden sposób nie mającą nic wspólnego z rzeczywistą jakością dźwięku. Wzmacniacze klasy Hi-Fi muszą być testowane zgodnie z normą DIN45500. Jeśli nie ma znaku Hi-Fi, to firma decyduje, jakiego trybu pomiaru użyć. Oczywiście bardziej opłaca się wybrać właśnie taki tryb, w którym parametry wyglądają najbardziej atrakcyjnie. Na sumieniu takich firm jest również brak instrukcji w paszporcie, jak dokładnie zmierzono THD i inne cechy. I tak się okazuje: wzmacniacze mają te same THD, ale grają diametralnie inaczej – jeden oddycha muzyką, a drugi nią się dusi. Jak zwykle melomani niedoświadczeni w takich trikach okazują się ekstremalni.

Krytyczne słuchanie nie zawsze jest możliwe w sklepach, a tutaj wydaje się, że dane paszportowe powinny bezstronnie ujawniać całą prawdę, aby rozwiązać problem wyboru. Jednak nie jest to do końca prawdą. Jeśli obok wartości THD wskazano, że pomiary wykonano przy częstotliwości 1 kHz, to niezależnie od innych warunków dane te nie mogą w żaden sposób posłużyć do oceny prawdziwego charakteru brzmienia wzmacniacza. Jednak najczęściej tryby testowania nie są w ogóle wskazane. [Typowa krzywa THD dla wzmacniacza wyjściowego 100 W] Typowa krzywa THD dla wzmacniacza 100 W

Aby ucho nie zauważyło zniekształceń wystarczy, że są cichsze od naturalnego hałasu w pomieszczeniu. Można powiedzieć, że przy THD poniżej 0,03% (przy mocy znamionowej iw całym zakresie częstotliwości) wzmacniacz deklaruje wysoką jakość dźwięku. Tylko twierdzenia, bo na jakość dźwięku może mieć wpływ cały zestaw dodatkowych parametrów i uwarunkowań, których analiza wymaga osobnego omówienia. Tak więc, po odsianiu wszystkich podejrzanych pod względem obiektywnych parametrów, można przystąpić do odsłuchów, które mogą jedynie określić prawdziwe możliwości wybranego wzmacniacza!

Autor: Dmitrij Awkhimkow

 Polecamy ciekawe artykuły Sekcja Sztuka dźwięku:

▪ Nowy zawód Lampa Iljicz

▪ Połączona jednostka sterująca odpowiedzią częstotliwościową

▪ Testy i obiektywizm

Zobacz inne artykuły Sekcja Sztuka dźwięku.

Czytaj i pisz przydatne komentarze do tego artykułu.

<< Wstecz

Najnowsze wiadomości o nauce i technologii, nowa elektronika:

Pułapka powietrzna na owady 01.05.2024

Rolnictwo jest jednym z kluczowych sektorów gospodarki, a zwalczanie szkodników stanowi integralną część tego procesu. Zespół naukowców z Indyjskiej Rady Badań Rolniczych i Centralnego Instytutu Badań nad Ziemniakami (ICAR-CPRI) w Shimla wymyślił innowacyjne rozwiązanie tego problemu – napędzaną wiatrem pułapkę powietrzną na owady. Urządzenie to eliminuje niedociągnięcia tradycyjnych metod zwalczania szkodników, dostarczając dane dotyczące populacji owadów w czasie rzeczywistym. Pułapka zasilana jest w całości energią wiatru, co czyni ją rozwiązaniem przyjaznym dla środowiska i niewymagającym zasilania. Jego unikalna konstrukcja umożliwia monitorowanie zarówno szkodliwych, jak i pożytecznych owadów, zapewniając pełny przegląd populacji na każdym obszarze rolniczym. „Oceniając docelowe szkodniki we właściwym czasie, możemy podjąć niezbędne środki w celu zwalczania zarówno szkodników, jak i chorób” – mówi Kapil ... >>

Zagrożenie śmieciami kosmicznymi dla ziemskiego pola magnetycznego 01.05.2024

Coraz częściej słyszymy o wzroście ilości śmieci kosmicznych otaczających naszą planetę. Jednak do tego problemu przyczyniają się nie tylko aktywne satelity i statki kosmiczne, ale także pozostałości po starych misjach. Rosnąca liczba satelitów wystrzeliwanych przez firmy takie jak SpaceX stwarza nie tylko szanse dla rozwoju Internetu, ale także poważne zagrożenia dla bezpieczeństwa kosmicznego. Eksperci zwracają obecnie uwagę na potencjalne konsekwencje dla ziemskiego pola magnetycznego. Dr Jonathan McDowell z Harvard-Smithsonian Center for Astrophysics podkreśla, że ​​firmy szybko wdrażają konstelacje satelitów, a liczba satelitów może wzrosnąć do 100 000 w następnej dekadzie. Szybki rozwój tych kosmicznych armad satelitów może prowadzić do skażenia środowiska plazmowego Ziemi niebezpiecznymi śmieciami i zagrożenia dla stabilności magnetosfery. Metalowe odłamki ze zużytych rakiet mogą zakłócać jonosferę i magnetosferę. Oba te systemy odgrywają kluczową rolę w ochronie i utrzymaniu atmosfery ... >>

Zestalanie substancji sypkich 30.04.2024

W świecie nauki istnieje wiele tajemnic, a jedną z nich jest dziwne zachowanie materiałów sypkich. Mogą zachowywać się jak ciało stałe, ale nagle zamieniają się w płynącą ciecz. Zjawisko to przyciągnęło uwagę wielu badaczy i być może w końcu jesteśmy coraz bliżej rozwiązania tej zagadki. Wyobraź sobie piasek w klepsydrze. Zwykle przepływa swobodnie, ale w niektórych przypadkach jego cząsteczki zaczynają się zatykać, zamieniając się z cieczy w ciało stałe. To przejście ma ważne implikacje dla wielu dziedzin, od produkcji leków po budownictwo. Naukowcy z USA podjęli próbę opisania tego zjawiska i zbliżenia się do jego zrozumienia. W badaniu naukowcy przeprowadzili symulacje w laboratorium, wykorzystując dane z worków z kulkami polistyrenowymi. Odkryli, że wibracje w tych zbiorach mają określone częstotliwości, co oznacza, że ​​tylko określone rodzaje wibracji mogą przemieszczać się przez materiał. Otrzymane ... >>

Przypadkowe wiadomości z Archiwum

Dziura ozonowa ustabilizowała się 01.10.2012

W sierpniu 1985 roku w Pradze odbyła się konferencja, na której naukowiec Pavan Bhartia zademonstrował niepokojące zdjęcia satelitarne powiększającej się dziury ozonowej nad biegunem południowym. Wywołało to liczne debaty w środowisku naukowym. W rezultacie 16 września 1987 r. wiodące mocarstwa świata, zaniepokojone tym zjawiskiem, przedstawiły projekt traktatu zwanego Protokołem Montrealskim. Był to ważny krok, który oznaczał wycofanie substancji niszczących ochronną warstwę ozonową Ziemi.

Teraz, 25 lat po tym historycznym wydarzeniu, satelity NASA przyniosły zachęcające wiadomości: największa dziura ozonowa ustabilizowała się i nie rośnie już w szczytowym cyklu na przełomie września i października. Tym samym świat pokazał kolejny sukces polityki międzynarodowej w zakresie ograniczania wpływu na środowisko. Jeszcze 20 lat temu problem dziur ozonowych był bardzo dotkliwy i był dyskutowany w mediach jeszcze aktywniej niż dziś globalne ocieplenie.

Warstwa ozonowa atmosfery znajduje się na wysokości od 12 do 50 km. Jest bardzo ważny dla całego życia na Ziemi, ponieważ chroni przed promieniowaniem ultrafioletowym ze Słońca. Dziura ozonowa to miejsce przerzedzania lub braku warstwy ozonowej, w obszarach pod taką dziurą na otwartym słońcu jest to niezwykle niebezpieczne, ponieważ można się poparzyć, a następnie raka skóry.

Do późnych lat 1970. nikt nie martwił się zubożeniem warstwy ozonowej. Jednak po wystrzeleniu satelity Nimbus-7 NASA w październiku 1978 roku i pierwszych pomiarach grubości powłoki ochronnej Ziemi, utrata warstwy ozonowej stała się prawdziwym „gorącym” tematem. A potem dwóch naukowców z Kalifornii odkryło jedną z głównych przyczyn najniebezpieczniejszego zjawiska. Okazało się, że jest to gaz CFC (chlorofluorowęglowodór), który był używany do napełniania puszek aerozolowych, na przykład lakierów do włosów, klimatyzatorów, lodówek.

Nimbus-7 został zaprojektowany tylko na rok eksploatacji i nie był w stanie dostarczyć wyczerpujących danych na temat przerzedzania warstwy ozonowej. Jednak w kolejnych latach liczne badania potwierdziły postępujące niszczenie ozonu, co stanowi zagrożenie dla całego życia na planecie. Pod naciskiem środowiska naukowego politycy zostali zmuszeni do podjęcia działań i ograniczenia użycia CFC.

Dziś niebezpieczeństwo zubożenia warstwy ozonowej zmalało i niewiele osób rozumie, jakiego zagrożenia udało się uniknąć. Według naukowców NASA, gdyby kontynuowano stosowanie substancji zubożających warstwę ozonową, do dnia dzisiejszego warstwa ozonowa zmniejszyłaby się o ponad 50%.

Inne ciekawe wiadomości:

▪ STLVD385B - nadajnik sygnału TTL

▪ Internet szerokopasmowy to niezbywalne prawo człowieka

▪ Smartfon LG

▪ Pierwszy w pełni funkcjonalny układ oparty na technologii 16FinFET

▪ Pluton mógłby mieć ocean

Wiadomości o nauce i technologii, nowa elektronika

 

Ciekawe materiały z bezpłatnej biblioteki technicznej:

▪ sekcja witryny Montaż kostki Rubika. Wybór artykułu

▪ artykuł Wycena i zarządzanie nieruchomościami. Notatki do wykładów

▪ artykuł Jakie słowa są szyfrowane w sygnale SOS? Szczegółowa odpowiedź

▪ artykuł Feverfew duży. Legendy, uprawa, metody aplikacji

▪ artykuł Prosty programator mikrokontrolerów. Encyklopedia elektroniki radiowej i elektrotechniki

▪ artykuł Skacząca magiczna różdżka. Sekret ostrości

Zostaw swój komentarz do tego artykułu:

Imię i nazwisko:


Email opcjonalny):


komentarz:





Wszystkie języki tej strony

Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn

www.diagram.com.ua

www.diagram.com.ua
2000-2024