|
Tekst: Filip Kulpa | Konsultacja: Andrzej Ciemniak (Media Tech) Artykuł pochodzi z Audio-Video 11/2024 (zawiera poprawki i rozszerzenia) - Kup wydanie PDF |
|
|
|
|
Niniejszy artykuł zapewne nie wyczerpie zagadnienia niekorzystnych (dla użytkownika) rozwiązań technicznych. Omówi jednak te najważniejsze i najczęściej spotykane. Konsultowałem się ze znanym w środowisku specjalistą od napraw sprzętu vintage audio, Andrejem Ciemniakiem, któremu niniejszym dziękuję za wsparcie i uwagi. Link do pierwszej części artykułu znajdziecie TUTAJ.
Przykład analogowej sekcji audio we współczesnych odtwarzaczach cyfrowych.
W tym egzemplarzu praktycznie wszystko załatwia układ scalony konwertera c/a.
Upraszczanie źródeł cyfrowych, które muszą... wyglądać.
Wydawać by się mogło, że współczesne odtwarzacze cyfrowe są znacznie bardziej skomplikowane niż niegdysiejsze dyskofony CD. Tamte robiły przecież zasadniczo tylko jedną rzecz, a streamery mają dodatkowe wejścia, nierzadko są też przedwzmacniaczami (analogowymi lub cyfrowymi), a bywa, że mają też napędy CD (choć to już rzadkość). Tymczasem, gdy zaglądamy do środka tych urządzeń i porównamy je z high-endowymi odtwarzaczami kompaktowymi sprzed 30–35 lat, pojawia się ogromne zdziwienie. Czy to możliwe, że postęp techniczny jest tak wielki, że układ elektroniczny, który kiedyś ważył kilka kilogramów (bez obudowy i napędu CD) dziś można pomieścić na dwóch niewielkich płytkach SMD? Odpowiedź jest złożona.
Dopóki założeniem twórcy jest stworzenie niedrogiego urządzenia klasy ekonomicznej czy średniej, dopóty układy scalone o dużej skali integracji — w szczególności nowoczesne kości konwerterów c/a, które integrują w sobie funkcje wielu, dawniej oddzielnych układów o dużo mniejszym upakowaniu tranzystorów — są racjonalnym i niezwykle efektywnym rozwiązaniem. Jednakże w przypadku urządzeń wyższej klasy, tj. takich, które aspirują do high-endu, są drogie lub bardzo drogie, redukowanie całego toru audio do miniaturowego układu konwertera c/a, kilku czy kilkunastu wzmacniaczy operacyjnych oraz garści rezystorów i kondensatorów wydaje się pójściem na łatwiznę. W specyfikacjach wszystko się zgadza: parametry są obłędne (bo takie są współczesne scalaki), urządzenie jest w stanie obsłużyć wszystkie formaty audio, nie grzeje się, no i przede wszystkim: można je zbudować niskim kosztem. Znakomitą część budżetu pochłania koszt obudowy, bo ta musi być przecież efektowna, ładna, gruba, ciężka — najlepiej z odlewanego aluminium wycinanego maszynami CNC za setki tysięcy euro. Czy to właściwe podejście? Nie można zaprzeczyć, że pewien wpływ obudowy na jakość dźwięku istnieje, ale w żadnym razie nie jest on porównywalny ze znaczeniem elektroniki i klasy użytych elementów biernych.
Przykład analogowej sekcji audio we współczesnych odtwarzaczach cyfrowych.
W tym egzemplarzu doszły pojedyczne wzmacniacze operacyjne.
Kłopotliwy serwis
Duża skala integracji nowoczesnych układów daje konstruktorom (i producentom) obiektywne korzyści, ale jednocześnie ogranicza możliwości w zakresie dążenia do celu, jakim powinno być uzyskiwanie pożądanych walorów brzmieniowych. Możliwość wpływania na brzmienie układów scalonych jest mocno ograniczona (one same różnią się jednak między sobą), a dobór jakościowych komponentów SMD również nie tak szeroki, jak w przypadku elementów do montażu przewlekanego. Nie dziwi więc, że brzmienie wielu urządzeń cyfrowych stało się do siebie podobne, a co gorsza nierzadko jest niezbyt muzykalne, choć pod innymi względami może robić wrażenie (precyzja, oddanie detali itp).
Należy mieć też na uwadze to, że naprawa gęsto upakowanych układów SMD, szczególnie tych wielowarstwowych, bywa kłopotliwa, a w razie poważnej awarii (jak wylanie kondensatora) tego typu układy stają się wręcz nienaprawialne. Nierzadko jest tak, że do wymiany kwalifikuje się cały moduł lub — jeśli konstruktor wpadł na pomysł, by cały układ zmontować na wspólnym druku — kompletna płyta główna. Dlatego rezygnacja z modułowej budowy układów, w perspektywie dłuższej eksploatacji, jest błędem.
Tanie zasilacze impulsowe
Odchudzanie układów elektronicznych widać również w obrębie zasilania, które coraz częściej jest impulsowe (SMPS). Sam ten fakt nie jest jeszcze w żadnym razie naganny, ponieważ istnieją bardzo dobre zasilacze impulsowe, kluczowane odpowiednio dużą częstotliwością, generujące zakłócenia dopiero przy naprawdę wysokich częstotliwościach, które to zakłócenia daje się o wiele łatwiej odfiltrować niż tętnienia niechlujnie wykonanych zasilaczy liniowych. Praktyka na ogół bywa jednak taka, że producenci nawet dość drogich urządzeń, jak streamery, przetworniki c/a, wzmacniacze słuchawkowe, a nawet przedwzmacniacze gramofonowe, sięgają po ogólnodostępne przetwornice (przeważnie z Chin), których właściwości i parametry niekoniecznie są adekwatne do wysokiej klasy układów audio. Pół biedy, jeśli owe zasilacze wydzielono na zewnątrz urządzenia i łatwo je zastąpić lepszym zasilaczem. Gdy jednak znajdują się w środku urządzenia, „szkodzą" nie tylko jemu, ale również innym urządzeniom w systemie (siejąc zakłócenia). By uniknąć tego wpływu, wypada zaopatrzyć się w specjalne kondycjonery, filtry sieciowe itp, co generuje dodatkowy koszt, który finalnie spada na użytkownika.
Cyfrowa regulacja głośności
Już w początkach konsumenckiej techniki cyfrowej audio, czyli na początku lat 80. inżynierowie zajmujący się tą dziedziną wiedzieli, że cyfrowa regulacja poziomu jest stratna, a więc nieobojętna dla jakości dźwięku. W dobie 14, 16- czy nawet 18-bitowych przetworników c/a nikt w związku z tym nie zawracał sobie głowy aplikowaniem takiej regulacji do urządzeń hi-fi i high-end. Wraz z nastaniem ery przetworników 20-bitowych, a tym bardziej 24-bitowych (druga połowa lat 90.) pomysł zaczął być jednak kuszący i realizowano go w wielu zintegrowanych, bądź dzielonych odtwarzaczach CD. Rozwiązanie to w dłuższej perspektywie nie zyskało jednak szerszego uznania audiofilów — głównie dlatego, że miało ono mocno ograniczony zakres stosowalności (dla utrzymania wysokiej jakości dźwięku). Finalnie wychodziło na to (z nielicznymi wyjątkami), że analogowy przedwzmacniacz był nieodzowny. Dziś, po prawie trzech dekadach, cyfrową regulację głośności znajdziemy w zdecydowanej większości DAC-ów i streamerów — niemal bez względu na cenę. Co o tym zadecydowało? Dostępność tego rozwiązania zerowym kosztem dla producentów sprzętu. Nie jest bowiem konieczne aplikowanie żadnego, dodatkowego układu scalonego, ani innego elementu w obwodzie. Ba, nie trzeba nawet owej regulacji w żaden sposób aplikować czy dostrajać. Ona po prostu jest dostępna w postaci gotowej funkcji, w większości współczesnych kości przetworników c/a (ESS, AKM), które pozwalają na znaczne uproszczenie toru sygnałowego (była o tym mowa powyżej). Jaka jest jakość tych regulacji poziomu? Najogólniej rzecz biorąc, przeciętna. I nie byłoby w tym nic złego (w końcu to tylko funkcja, której nie trzeba używać), gdyby producenci nie reklamowali tej opcji pod kątem bezpośredniej współpracy danego DAC-a czy streamera z końcówką mocy. Niektórzy z wytwórców oferują właśnie końcówki mocy zamiast wzmacniaczy zintegrowanych. Jakość dźwięku uzyskiwana z takich konfiguracji przeważnie nie zachwyca i będzie to dźwiękowo gorsze rozwiązanie niż połączenie tego samego DAC-a z odpowiednim cenowo wzmacniaczem zintegrowanym, nie mówiąc o dodaniu dobrego przedwzmacniacza.
Pogoń za parametrami
W poprzedniej części artykułu to zagadnienie już wprawdzie się pojawiło, ale w nieco szerszym kontekście, dotyczącym przede wszystkim układów analogowych i typowych parametrów mierzalnych. Problem ten odnosi się jednak także do cyfrowych źródeł dźwięku i ma ścisły związek z trendami w ich konstruowaniu na przestrzeni ostatnich, lekko licząc, 20-25 lat.
Poprawianie parametrów przetworników c/a było od samego początku głównym dążeniem konstruktorów. Mówi się, że dziś o konwersji c/a wiemy znacznie więcej niż w latach 80. Stwierdzenie to bardzo często bywa traktowane jako pewnik, tymczasem realia pokazują nieraz co innego. Zmieniła się nie tyle wiedza, co możliwości obliczeniowe układów scalonych, a więc i możliwości konstruktorów. Jednocześnie doszło do wspomnianej, dużej integracji układów, co trochę komplikuje obraz sytuacji — ma bowiem swoje (wspomniane) plusy, ale i minusy.
Klasyczna konstrukcja wzmacniacza, oparta na porządnej mechanice i montażu przewlekanym ma wiele zalet — zapewnia długą żywotność i łatwość napraw, szczególnie jeśli urządzenie ma logiczną i przejrzystą architekturę, a budowa jest modułowa.
Osoby głębiej siedzące w temacie doskonale wiedzą, że stare, teoretycznie mocno niedoskonałe układy, jak legendarny, 16-bitowy TDA1541A S2 Philipsa słynęły z muzykalności, dawne 20-bitowe Burr-Browny PCM63 czy PCM1702 również były bardzo cenione za dynamikę i soczystość dźwięku, podczas gdy współczesne kości ESS czy AKM-a tych cech już... nie powielają, zastępując je precyzją, detalicznością, choć sporo zależy od aplikacji (którą nie każdy producent opanował równym stopniu). Wiadomo też, że parametrami takimi jak dynamika, liniowość, poziom zniekształceń biją one leciwe układy na głowę, a w dodatku integrują w sobie nadpróbkujące filtry cyfrowe, konwersję I/V, a nawet bufory analogowe, co niebagatelnie upraszcza budowę sekcji c/a w odtwarzaczu czy DAC-u. Wiele z tych nowoczesnych układów można niemalże bezpośrednio podłączyć do wyjść odtwarzacza i na oscyloskopie wszystko będzie w porządku.
Szeroka dostępność układów delta-sigma, ich niskie ceny, względna łatwość aplikacji, a przede wszystkim kompatybilność z formatami DSD (początkowo tylko 64, a potem 128, 256 itd) oraz PCM 32 bity/384 kHz (lub nawet 32/768 kHz) sprawiły, że producenci źródeł cyfrowych zaczęli bardzo chętnie po nie sięgać. Tym sposobem można było pochwalić się, że urządzenie X obsłuży każdy format audio (reszta schodziła przy tym na dalszy plan). To, że dostępność nagrań w wymienionych formatach jest praktycznie zerowa, nie była (i nadal nie jest!) żadnym argumentem przeciwko racjonalności stosowania tych rozwiązań, albowiem w marketingu znacznie łatwiej jest posłużyć się liczbami lub hasłami, niż edukować, tłumacząc klientom, co ma sens, a co nie.
Zasilacze impulsowe wcale nie muszą być gorsze od liniowych — jeśli są dobrze wykonane, mogą być nawet lepsze.
Tyle że wtedy nie będą już tanie...
Nie jest przypadkiem, że pewna część konstruktorów po latach świadomie rezygnuje z nowoczesnych kości, sięgając po jeszcze dostępne (ale już w ograniczonej podaży) układy sprzed 20 lat, które nie są co prawda kompatybilne z „ekstremalnymi” formatami cyfrowymi i mają nieco gorsze parametry, lecz przy odrobinie doświadczenia i umiejętności można z nich uzyskać bardziej naturalne, muzykalne brzmienie. Są też i inne rozwiązania, jak autorskie układy konwersji c/a bazujące na programowalnych układach FPGA i dużej liczbie elementów wykonawczych. W wielu wypadkach są one rozwiązaniami bardziej wyrafinowanymi od najlepszych gotowych czipów, oferującymi przy tym lepszy dźwięk. Dodajmy, że w odniesieniu do tych bardziej ambitnych rozwiązań „pogoń za parametrami” wcale nie musi mieć zabarwienia pejoratywnego — to wartość dodana.
Mechanika
Gdy przyjrzeć się budowie mechanicznej wielu, wysokiej klasy urządzeń z lat 80. i 90. (zwłaszcza japońskich, ale nie tylko), okaże się, że ich twórcy brali pod uwagę każdy aspekt działania urządzenia, uwzględniając potencjalną trwałość, odporność na wibracje, a także łatwość serwisowania. Nie lekceważono kwestii odpowiedniej wentylacji, a także szczelności tych układów, które są narażone na niekorzystny wpływ kurzu i zanieczyszczeń (optyka laserów itp). Jednym słowem, mechanika była dopracowana, czego pośrednim świadectwem może być ciężar tych urządzeń na tle konstrukcji produkowanych już w XXI wieku. Pod tym względem nastąpił regres, niekiedy bardzo znaczący.
Jakość napędów CD już wiele lat temu przestała dorównywać solidnym mechanizmom Philipsa i Sony. Rzadkim widokiem są obudowy o konstrukcji wielokomorowej, z ekranowanymi transformatorami i sekcjami cyfrowymi. Grzechem jest również słaba wentylacja układów — nierzadko całkowity brak otworów wentylacyjnych (w określonych przypadkach bywa to dopuszczalne i uzasadnione) lub stosowanie zbyt małych radiatorów, co prowadzi do przegrzewania urządzeń (nie tylko wzmacniaczy).
Błędem, z serwisowego punktu widzenia, jest rzadko dziś spotykana możliwość odkręcania dolnych ścianek w urządzeniach o wielopoziomowej zabudowie układów — aby je naprawić, trzeba je kompletnie rozebrać.
Wciąż, na szczęście, są producenci niezbyt drogiej elektroniki, którzy pokazują, że gdy się chce, to można zaprojektować porządny układ dyskretny, z użyciem bardzo dobrego zasilania i markowych komponentów, a montaż nie musi być wyłącznie powierzchniowy.
Coraz częściej spotykanym rozwiązaniem (głównie w niedrogich urządzeniach z tworzywa) jest rezygnacja ze skręcanych obudów na rzecz zatrzasków i klejenia. W produkcji seryjnej jest to korzystne, ale gdy konieczna staje się naprawa, utrudnia demontaż i późniejszy montaż, niekiedy prowadząc do uszkodzeń obudów (o ile naprawa w ogóle będzie opłacalna).
Częstą praktyką projektową jest ponadto stosowanie nieprzemyślanych rozwiązań montażowych w odniesieniu do samej elektroniki, której po wyjęciu nie daje się uruchomić z powodu zbyt krótkich złącz, problematycznych połączeń masy itp. Ja sam, podczas rozkręcenia urządzeń podczas testów, napotykam napięte taśmy lub złącza, które w każdej chwili mogą wypaść lub grożą zerwaniem — trochę tak, jakby producent celowo zastawiał pułapkę na nieświadomego serwisanta lub użytkownika.
Jakość komponentów
Poważnym problemem w konstrukcji urządzeń klasy średniej, wyższej, a także high-end jest jakość komponentów stosowanych w układach elektronicznych. Znów aż prosi się wrócić do lat 80. i 90., kiedy to niemalże za punkt honoru wielu wytwórców traktowało sięganie po bardzo dobre elementy bierne, przełączniki, hermetyczne przekaźniki, solidne okablowanie (nie żadne taśmy komputerowe), złączki itp. Smuci fakt, że coraz częstszym widokiem w urządzeniach kosztujących grube dziesiątki (i więcej) tysięcy złotych są niemarkowe kondensatory elektrolityczne w zasilaniu, przeciętne elementy bierne w torach sygnałowych — często nieodbiegające klasą od urządzeń produkcji chińskiej za 1/10 ceny (mówię o tzw. high-endzie). Tak daleko idące oszczędności w przypadku naprawdę drogich urządzeń nie powinny mieć miejsca. Raz, że jest to praktyka nieuczciwa wobec klientów, dwa — negatywnie wpływa na jakość dźwięku, trzy — powoduje przyspieszone starzenie się urządzenia, a w konsekwencji grozi przedwczesną awarią (np. wylanie elektrolitu). Odrębną kwestią jest niechlujność montażu — zanieczyszczone płytki drukowane, krzywe osadzenie elementów itp.
Tak konstruowano topowe, japońskie odtwarzacze CD z końca lat 80. Łezka się w oku kręci. Dziś też byłoby to możliwe (pomijając kwestię napędów), ale za jaką cenę?
Inne czynniki
Istnieje cały szereg innych aspektów, które bywają problematyczne w praktyce serwisowej. Należą do nich:
- dyrektywa RoHS oraz niedostateczne opanowanie technik lutowania stopami bezołowiowymi powodujące poważne problemy z trwałością urządzeń;
- stosowanie nietypowych podzespołów lub elementów zamawianych pod konkretne projekty;
- aplikacja krótko produkowanych podzespołów elektronicznych — po upłynięciu okresu gwarancji nie ma już dostępu do oryginalnych komponentów;
- wykorzystywanie komponentów niesprawdzonych w innych projektach;
- błędne projekty układów pod kątem emisji i rozprowadzania ciepła, co prowadzi do przegrzewania elektroniki.
- stosowanie korodujących klejów oraz takich, które uniemożliwiają (lub znacznie utrudniają) późniejszą naprawę (gdy nie można ich usunąć).
Brak dokumentacji technicznej
Problemem, z którym borykają się serwisy zajmujące się naprawą starszych urządzeń jest brak dokumentacji technicznej urządzeń, trybów serwisowych oraz wsparcia serwisów pogwarancyjnych. Problem dotyczy wielu znanych marek, kojarzonych z urządzeniami wysokiej i bardzo wysokiej klasy. Możemy się domyślać, czy producenci nie udostępniali lub nadal nie udostępniają „serwisówek” w obawie przed kopiowaniem czy też bardziej z powodu braku stosownej dokumentacji... Na szczęście, naprawy klasycznych wzmacniaczy stereo są w wielu wypadkach możliwe bez dokumentacji — o ile nie mają one wad fabrycznych (co niestety się zdarza). Z kolei wzmacniacze impulsowe bardzo często, na skutek przegrzań i braku dokumentacji, okazują się praktycznie nienaprawialne lub też naprawa wymaga tylu godzin pracy serwisanta, że staje się nieopłacalna.
Elektronika zamiast mechaniki
Problem w szczególności odnosi się do wzmacniaczy stereo, w których coraz rzadziej widuje się mechaniczne selektory wejść, klasyczne potencjometry głośności i balansu. Elementy te są zastępowane przekaźnikami, mikroprocesorami i układami scalonymi. Producenci argumentują te zmiany dążeniem do skrócenia ścieżek sygnałowych oraz lepszym komfortem obsługi (zdalne przełączanie wejść). Niestety, testy odsłuchowe nie potwierdzają w jednoznaczny sposób wyższości nowoczesnych rozwiązań, a w dłuższej perspektywie okazują się one bardziej zawodne, trudniejsze w diagnostyce, a niekiedy także i w naprawie (wystarczy, że po latach jakiś mikroprocesor przestanie być dostępny). W kwestii komfortu obsługi trudno podważać sens nowoczesnych rozwiązań, jednak ma to swoją cenę, przeważnie po latach.







