Demnächst im Test:

Billboard
SPL - Professional Fidelity

Inhaltsverzeichnis

  1. 1 Alles nur Nullen und Einsen?

Früher war der CD-Player die gängigste digitale Audioquelle, und der wurde normalerweise als Blackbox, als geschlossenes Gesamtkonzept betrachtet. Natürlich steckt auch in ihm ein D/A-Wandler, und die Frage, inwieweit der Datentransport bis hin zur eigentlichen D/A-Wandlungsstufe einen klanglichen Unterschied erzeugen kann, gibt es schon länger. Doch da man als Audiophiler in aller Regel selbst keine Möglichkeit hat, an dieser Stelle einzugreifen, ist das doch eher eine randständige Frage einiger weniger Experten geblieben.

In Zeiten von Audiostreaming ändert sich das. Nun hat man es mit mehreren „Blackboxes“ und deren Verbindungen zu tun. Ein noch recht einfaches Setup wäre zum Beispiel ein Stand-alone-DAC, der von einem Musikserver/Streamer via USB mit Daten versorgt wird, der wiederum via LAN-Kabel am Heimnetzwerk hängt. Solche Konstellationen bieten dem audiophilen Spieltrieb natürlich ein weites Feld: Unterschiedliche Geräte können kombiniert, verschiedene Kabel ausprobiert werden. Eventuell bringt ein zwischengeschalteter Reclocker etwas oder auch der teure Highend-Switch, von dem ein Freund neulich so schwärmte …

So weit, so schön. Wer mit offenen Ohren ein paar Dinge beim Streaming-Setup ausprobiert, wird feststellen, dass es tatsächlich zu relevanten klanglichen Unterschieden kommen kann. Andererseits sagt einem eine innere Stimme, dass das „ja eigentlich nicht sein kann“: Die logischen Zustände Null und Eins werden im DAC doch wohl korrekt ankommen, schließlich tun sie das in der Computerwelt sonst auch überall. Die Frage, die sich aufdrängt, ist also: Warum sollte das, was vor der D/A-Wandlung passiert, eigentlich eine Rolle spielen?

Mark Jenkins von Antipodes Audio - hier am Stand auf der Münchner High End 2018

Mark Jenkins von Antipodes Audio – hier am Stand auf der Münchner High End 2018

Über solche und andere Fragen haben wir mit Mark Jenkins, dem Mastermind und Chef von Antipodes Audio (Vertrieb: https://www.cm-audio.net/), gesprochen. Antipodes ist ein in Neuseeland beheimateter Musikserver-Anbieter, der schon seit über zehn Jahren zum Thema Computeraudio forscht und entwickelt und sich in diesem Bereich spezialisiert hat. Auch wir haben schon einige Antipodes-Musikserver getestet, zuletzt waren der Einstiegs-Server S30 sowie das Flaggschiff Antipodes K50 zu Gast.

Interview Antipodes Audio

Hallo Herr Jenkins, schön das Sie sich die Zeit nehmen, etwas Licht ins „digitale Dunkel“ zu bringen!

Es freut mich, dass fairaudio mich zum Interview bittet. Wissen Sie, wenn man lange genug in der Dunkelheit umhergewandert ist, passen sich die Augen so langsam an und man sieht, was um einen herum passiert …

Das klingt gut … dann springen wir doch gleich mitten ins Thema. Wie schon angedeutet, ist unsere zentrale Frage heute: Warum spielen beim Audiostreaming Prozesse, die vor der eigentlichen Wandlung ins Analoge geschehen, überhaupt eine klangliche Rolle? Gehen wir einmal systematisch vor und starten mit den Daten beziehungsweise mit den logischen digitalen Zuständen Null und Eins. Gemeinhin wird angenommen, dass diese „Nullen und Einsen“ allesamt korrekt von der Digitalquelle zum D/A-Wandler übertragen werden. Aber stimmt das eigentlich so? Gibt es nicht doch ein Einfallstor für Datenfehler, zum Beispiel weil bei der Übertragung via USB im asynchronen Modus in Echtzeit Daten transportiert werden – und dabei vielleicht das eine oder andere Bit auf dem Weg „verloren geht“, was dann unwiederbringlich weg ist? Im Gegensatz etwa zu einem Lesefehler bei einer CD, bei der noch mal ausgelesen werden kann …?

Ich sehe schon, worauf Sie hinaus wollen, und ja, da ist zum Teil auch etwas Wahres dran. Aber eben auch nur zum Teil, diese „Logik“ hat so ihre Fallstricke. Also, die einfache Antwort auf die Frage lautet: ja. Es ist kein Problem, die Daten beziehungsweise die „Nullen und Einsen“ von A nach B zu bekommen. Wenn das unsere einzige Herausforderung wäre, dann können wir den USB-Bulk-Modus oder allgemeiner gesprochen den Block-Modus verwenden, in dem das Timing der Daten keine Rolle spielt. Das kann einfach implementiert werden und ist zu 100 % verlässlich. Im Block-Modus besitzen wir den Luxus, Datenpakete nochmals zu schicken und sie in beliebiger Reihenfolge zu transportieren. Wenn die Daten dann am Punkt B angelangt sind, werden eben nur die Nullen und Eisen gespeichert. Jitter, Rauschen oder Bandbreiten-Probleme sind in diesem Kontext ziemlich irrelevant.

Aber das ist eben nicht die Herausforderung bei Digitalaudio. Das Timing der Daten ist genauso entscheidend wie diese Nullen und Einsen. Die eigentliche Schwierigkeit besteht darin, dem DAC-Chip ein möglichst perfektes Rechtecksignal zu liefern. Um das hinzubekommen, kann es sogar vorteilhaft sein, sich dafür zu entscheiden, die Daten-Integrität etwas zu reduzieren, um ein akkurateres Timing zu erreichen – so schockierend das zunächst mal klingen mag.

Antipodes Audio ist am südlichen Ende der Nord-Insel Neuseelands, im Kapiti Coast District zu Hause. Hier der Blick auf das Firmengebäude.

Antipodes Audio ist am südlichen Ende der Nordinsel Neuseelands, im Kapiti Coast District zu Hause. Hier der Blick auf das Firmengebäude. © Antipodes Audio

Ein Beispiel: Wenn einige Teile des Daten-Streams verloren gehen oder nicht lesbar sind, kann es, um das saubere Timing intakt zu halten, sinnvoll sein, das Datenpaket eben nicht noch einmal abzufragen, sondern eine Art von Fehlerkorrektur anzuwenden. Vor der gleichen Entscheidung stehen Hersteller von D/A-Wandlern, wenn sie eine Methode suchen, das Timing des Signals zu verbessern, was in einem gewissen Grad ja durchaus möglich ist. Manche Reclocking-Methoden legen den Fokus auf Datenintegrität und weniger auf die zeitlichen Aspekte. Andere Methoden entscheiden sich dafür, einige Daten zu „opfern“ und nicht das Timing, da sie davon ausgehen, dass die eigentliche Wandlung besser funktioniert, wenn das Timing des Signals möglichst perfekt ausfällt. Ja, so etwas passiert wirklich, auch wenn ich der Erste sein sollte, der das jetzt so laut ausspricht …

Viele Audiophile denken, die erste Priorität bei der Audiodaten-Übertragung sei es, dass sie Bit-perfekt geschieht – und da klingt es natürlich bizarr, die Datenintegrität zu opfern. Aber das muss gar nicht verrückt sein, wenn man weiß, was man gewinnt, nämlich ein verbessertes Timing – und wenn man weiß, wie so ein DAC-Chip Daten verarbeitet und das er von jeder Verbesserung des Timings profitiert. Um den besten Klang zu erreichen, brauchen wir letztlich intelligente Kompromisse. Klug gewählte Trade-off-Entscheidungen sind essenziell, sei es nun bei digitalen oder analogen Schaltungen.

Also: Timing ist bei Digitalaudio ganz entscheidend. Und vor allem muss man sich klarmachen, dass diese zeitliche Dimension deutlich empfindlicher ist als die Sache mit den Nullen und Einsen. Das Digitalsignal wird von einer analogen Rechteckwelle repräsentiert, und wenn die nicht perfekt gerät, was prinzipiell nicht möglich ist, dann wird das Timing zwangsläufig in Mitleidenschaft gezogen. Perfektion ist nie zu erreichen, Timingfehler sind unvermeidlich. Die Nullen und Einsen hingegen können wir weiterhin voneinander unterschieden, solange nicht grobe Signal-Verzerrungen vorliegen.

So sieht die theoretisch ideale Rechteckwelle aus, die das digitale Signale repräsentiert: keinerlei Rauschen und lotrechte vertikale Flanken - in der Praxis ist das natürlich nicht zu erreichen. (Diese Grafik und die folgenden sind Prinzipdarstellungen.)

So sieht die theoretisch ideale Rechteckwelle aus, die das digitale Signale repräsentiert: keinerlei Rauschen und lotrechte vertikale Flanken – in der Praxis ist das natürlich nicht zu erreichen. (Diese Grafik und die folgenden sind Prinzipdarstellungen.) ©Antipodes Audio

Okay, verstanden, Timingfragen und Jitter sind entscheidend bei Computer-Audio, das hört man ja regelmäßig. Aber um hier mal den Advocatus Diaboli zu spielen: Auch wenn Jitter ein so großes Thema ist – das Problem sollte sich im Grunde doch effizient im D/A-Wandler selbst angehen lassen, oder? Man puffert die Daten, sorgt mit dem asynchronen USB-Modus dafür, dass der DAC und nicht die Quelle der Master ist – und eine sehr gute Masterclock erledigt dann einfach eine saubere Neutaktung der zwischengespeicherten Audiodaten. Alles, was vor dem DAC passiert, sollte also keine große Rolle spielen …

Das ist meiner Ansicht nach komplett falsch – meine Meinung spricht freilich gegen das meiste, was ich an der Universität und während der 25jährigen Tätigkeit im Rundfunk und Telekommunikationsbereich gelernt habe. Okay, klar, ein Telefongespräch muss nicht in Echtzeit gestreamt werden. Solange wir genug Bandbreite haben, können wir Datenpakete über ein chaotisches IP-Netzwerk schicken und das Ganze am Ende mit ein wenig Fehlerkorrektur und minimaler, unhörbarer Verzögerung wieder zusammensetzen. Aber etwas vernünftig ans Laufen zu bringen oder nach Perfektion zu streben – das sind einfach zwei Paar Schuhe.

Zunächst einmal ein paar Worte zum sogenannten „asynchronen Modus“. Diese Art der USB-Übertragung „löst“ das Timingproblem, indem sie es ignoriert. Das ist kein Patentrezept, vielmehr reicht dieser Übertragungs-Modus das Problem einfach weiter. Letztlich geht es hier um eine Methode der Datenspeicherung und des Reclockings bei der USB-Übertragung, bei der das Timing der Daten am Eingang des Receivers immer noch einen Einfluss auf die Qualität des Datensignals hat, das an seinem Ausgang weitergereicht wird. Die einschlägigen Chip-Hersteller geben das auch zu, es ist einfach eine Buffer/Reclocking-Strategie. Manche DAC-Hersteller haben uns freilich über die Jahre erzählt, dass diese Methode ihre Wandler „einmalig“ und „komplett immun“ gegen Jitter mache. Aber solche Aussagen sind maßlos übertrieben.

Der Antipodes K50, das Musikserver-Flaggschiff der Neuseeländer

Der Antipodes K50, das Musikserver-Flaggschiff der Neuseeländer

Die Daten im DAC zu puffern und zu reclocken ist eine gute und bewährte Praxis, das steht außer Frage. Aber es ist kein Patentrezept. Die wechselseitigen Beziehungen, die hier zu beachten sind, sind komplex und die Fähigkeiten des Entwicklers haben einen entscheidenden Einfluss aufs Endergebnis. Nein, meiner Erfahrung nach hat der asynchrone Modus noch nie dazu geführt, dass ein schlechtes Digitalsignal zu 100 % „repariert“ wird. Ich konnte immer relevante Klangunterschiede ausmachen, wenn das Signal vor dem D/A-Wandler optimiert wurde. Aber klar, es gibt Leute, die anderer Meinung sind. Und warum auch nicht? Letztlich liegt die „Wahrheit“ ja nicht in der Theorie, sondern in den Erfahrungen des Audiophilen, der offen an die Sache herangeht. Damit können wir bei Antipodes Audio gut leben. Der Hörer muss selbst entscheiden, ob es für ihn einen relevanten Unterschied ausmacht.

Doch um wieder auf die übliche Argumentation zurückzukommen: Wenn man das eigentliche Problem von Digitalaudio, nämlich der D/A-Konverterstufe ein möglichst perfektes Rechecksignal zu liefern, gedanklich auftrennt – Daten einerseits, Timing andererseits –, dann suggeriert man damit, dass das einzig Entscheidende eine tolle Clock ist. Aber so eine hochgenaue Clock ist nur eines von drei Dingen, die wir benötigen. Das andere sind ein niedriger Rauschlevel sowie eine hohe Bandbreite.

Okay, nähern wir uns zunächst mal dem Thema „Noise“. Wenn so ein rauschendes Digitalsignal ein Problem darstellt, dann sollte sich ein DAC durch galvanische Trennung oder andere rauschunterdrückende Maßnahmen dagegen doch immunisieren lassen, oder?

So funktioniert das leider nicht. Eine galvanische Trennung kann zwar verhindern, dass gewisse Störgeräusche von einem Gerät auf ein anderes übertragen werden, bestimmte Übertragungspfade lassen sich blockieren. Aber dazu gibt es noch mehr anzumerken.

Rauschen verformt das Rechtecksignal - hier liegt die Noise-Frequenz unterhalb der der Bitrate

Rauschen verformt das Rechtecksignal – hier liegt die Noise-Frequenz unterhalb der der Bitrate. ©Antipodes Audio

Erstens ist das Rauschen, das durch eine galvanische Isolierung blockiert werden kann, nur ein Teil des gesamten Noise-Problems. Störgeräusche, die ihren Weg in das digitale Signal selbst gefunden haben, werden durch die galvanische Trennung beispielsweise nicht blockiert. Zweitens bringt die galvanische Trennung in der Praxis auch neue, eigene Probleme mit sich, da sie Jitter-Effekte verursacht, um die man sich dann im Nachgang kümmern muss. Und drittens ist die Entscheidung für eine galvanische Trennung – wie alle Entscheidungen während der Entwicklung – mit Kompromissen verbunden.

Liegt die Noise-Frequenz oberhalb der der Bitrate, werden die horizontalen Linien „fuzzy“

Liegt die Noise-Frequenz oberhalb der der Bitrate, werden die horizontalen Linien „fuzzy“. ©Antipodes Audio

Bei Antipodes gehen wir anders an die Sache ran, wir halten es für besser, das Problem an der Quelle zu reduzieren als im Nachhinein. Wir setzen auch galvanische Trennung in unseren Produkten ein, aber nur dort, wo das ein sinnvoller Kompromiss ist. Aber das ist nur ein kleiner Teil dessen, was wir tun, um Rauschprobleme zu minimieren.

Kombination von nieder- und hochfrequentem Rauschen und die Auswirkung auf das Rechtecksignal

Kombination von nieder- und hochfrequentem Rauschen und die Auswirkung auf das Rechtecksignal. ©Antipodes Audio

Galvanische Trennung kann, wie gesagt, nicht bei Rauschen helfen, das schon Teil des Digitalsignals geworden ist. Hier gibt es andere Möglichkeiten, das Rauschen aus dem Signal zu filtern, doch auch da gilt: Je mehr man filtert, desto mehr neue Probleme erzeugt man an anderer Stelle wieder. So schränken Filter die Bandbreite ein und verursachen damit Phasenverzerrungen.

Dass die Bandbreite der Schaltung eines Musikservers ein klangbeeinflussender Parameter ist, darauf weisen Sie schon länger hin. Warum ist das eigentlich so?

Nun, zwischen einer Eins und einer Null im Signal zu unterscheiden ist einfach – aber man muss dem DAC eben auch sehr genau sagen, wann es zu einem Übergang zwischen der Eins und der Null kommt. Damit das perfekt gelingt, müsste das Signal augenblicklich von dem analogen Spannungspegel, der eine Null darstellt, zu dem anderen, der die Eins repräsentiert, übergehen. Und jetzt denken wir mal an die hohen Bitraten, mit der digitale Signale arbeiten, und welche minimalen Bruchteile einer Sekunde wir als Jitterlevel tolerieren … dann bekommt man ein Gefühl dafür, wie schnell das Signal von einem Spannungszustand in den anderen wechseln muss, damit die Taktrate einigermaßen stabil bleibt. Genau das erfordert eine hohe Bandbreite. Im Idealfall sollte der Spannungssprung ohne jeden Zeitverzug erfolgen, was eine unendliche Bandbreite voraussetzt. Die natürlich unmöglich ist.

Wenn es keine Bandbreitenbeschränkung gäbe, hätten Rauschstörungen kaum Auswirkungen auf das Timing. Und wenn es keine Störgeräusche auf dem Signal gäbe, bräuchte man auch keine so hohe Bandbreite. In der Praxis ist aber immer ein gewisses Maß an Rauschstörungen und Bandbreitenbeschränkungen vorhanden, sie wirken zusammen und verschleiern so den Übergang zwischen den Bits.

Bandbreitenlimitierungen sorgen dafür, dass die idealerweise vertikalen Flanken des Rechtecksignals abgeflacht werden.

Bandbreitenlimitierungen sorgen dafür, dass die idealerweise vertikalen Flanken des Rechtecksignals abgeflacht werden. ©Antipodes Audio

Die vertikale Linie unserer Rechteckwelle, die das Digitalsignal repräsentiert, ist aufgrund der Bandbreitenbeschränkung doch eher ein steiler Anstieg als wirklich vertikal, und die Linie weist auch Störungen aufgrund von Noise auf. Das bedeutet, dass der Punkt, an dem der digitale Empfänger entscheidet, dass ein Übergang stattgefunden hat, verzerrt wird. Ich vereinfache hier, aber die grundsätzliche Argumentation bleibt richtig: Bandbreitenbeschränkungen sind für ein digitales Signal ebenso schädlich wie Rauschstörungen, wenn das Timing entscheidend ist – und das ist es bei Audio nun mal.

Hier die Kombination aus einem verrauschten und in der Bandbreite limitierten Rechtecksignal - es ist schwierig, den genauen Zeitpunkt des Übergangs zwischen den logischen Zuständen Null und Eins zu bestimmen.

Hier die Kombination aus einem verrauschten und in der Bandbreite limitierten Rechtecksignal – es ist schwierig, den genauen Zeitpunkt des Übergangs zwischen den logischen Zuständen Null und Eins zu bestimmen. ©Antipodes Audio

Wenn wir über Rauschen sprechen, müssen wir also auch immer die Bandbreite im Hinterkopf haben. Ein recht häufiger Fehler bei der Entwicklung von Musikservern besteht aber darin, das Rauschen zu minimieren und die Bandbreite zu vergessen – die durch Anti-Noise-Filtermaßnahmen aber eingeschränkt wird. Oft klingt das Ergebnis dann durchaus „schön“, aber der Musik fehlt es irgendwie an Leben und Drama. Wenn man sich bei der Entwicklung dagegen nur auf die Bandbreite konzentriert und das Rauschen ignoriert, kommt Leben in der Musik … aber auch das geht nach hinten los, denn es kann zu digitalen Artefakten führen. Um eine wirklich überzeugende digitale Quelle zu schaffen, müssen beide Ziele geschickt ausbalanciert werden.

Kann die Qualität des dem DAC übermittelten Signals auch noch an anderen Stellen als der unmittelbaren Wandlung durchschlagen, zum Beispiel weil sie einen indirekten Einfluss auf die analogen Schaltungssektionen hat?

Ja, das gilt letztlich für alle Audiosignalübertragungen. Bisweilen wird ja so getan, als sei Audio eine spezielle Form von „Klempnerei“, die Vorstellung ist dann, dass das Signal brav durch definierte „Rohre“ fließt … Doch jedes Kabel, jede Leiterbahn auf einer Platine, jede Leitung eines Widerstands, Kondensators, Transistors, ICs usw. ist sowohl ein Sender als auch ein Empfänger, also eine Antenne für unerwünschtes Rauschen. Das Signal, das am Ende des Gesamtsystems ankommt, hat nicht nur die vorgesehenen Leitungen durchlaufen. Es hat auch unbeabsichtigte Wege genommen, und diese Signalanteile vermischen sich mit denen in den Leitungen. Dies gilt auch für Rauschen am Digitaleingang, das durch Puffer- und Reclocker-Stufen wandert.

Der Hörraum von Antipodes Audio

©Antipodes Audio

Eine der Herausforderungen bei der Entwicklung eines DACs besteht darin, dass sich digitale und analoge Schaltungen in unmittelbarer Nähe zueinander befinden – zudem sollte die Stromversorgung für digitale Schaltkreise idealerweise weit von den analogen Sektionen entfernt sein. Zwei gute Gründe, so viel wie möglich von der der Wandlung vorgelagerten digitalen Arbeit außerhalb des DACs zu erledigen.

Auf Seite 2 unseres Interviews geht es um digitale Schnittstellen wie S/PDIF, AES/EBU, Ethernet, I2S und „Cheap Tricks“ …

Billboard
es lebe die vielfalt

Interview: Mark Jenkins von Antipodes Audio

  1. 1 Alles nur Nullen und Einsen?