Les notions indispensables 2

Please use the “Translate” button at the bottom right to get this article in English or in another language

DÉMATÉRIALISATION: LES BASES

QUE VOUS DEVEZ CONNAÎTRE

.

.

Préambule: Cet article commençant à aborder des notions un peu techniques, j’ai essayé de le simplifier au maximum: je vous remercie pour votre indulgence et j’espère ne pas avoir fait d’erreur dans mes écrits…

 

Il était temps de compléter le 1er article paru sur les notions indispensables à connaître en matière de dématérialisation ! celui-ci expliquait principalement la différence entre les différents modes de synchronisation des DAC vis-à-vis des Drives:

  • Synchrone
  • Isochrone
  • Asynchrone

.

Pour ceux qui découvriraient le sujet, voici un petit rappel ultra-simple:

 

Mais en quelques années la dématérialisation s’est imposée encore un peu plus, au point que désormais les CD Transports sont souvent remplacés par la lecture de fichiers, ces derniers étant ensuite envoyés à l’indispensable DAC pour transformer tous ces « 0 » et ces « 1 » en musique.

En quelques années, la compréhension des phénomènes affectant la reproduction de la musique dématérialisée a également beaucoup progressé.

.

Mais si l’on est bien obligé de reconnaître aujourd’hui que le CD n’est pas aussi parfait que les Majors et la Presse avaient bien voulu nous le vendre (au sens propre comme au sens figuré…), -c’est même un euphémisme-, force est de constater que les explications données sont le plus souvent confuses, et cela bien souvent volontairement !

 

Entre:

  • les tenants des Mathématiques,
  • les défenseurs du Théorème de Shannon,
  • les gourous du Marketing qui veulent absolument faire croire qu’une technologie révolutionnaire est née en se cachant derrière des mots techniques incompréhensibles sans aucun fondement,
  • les magazines qui veulent nous convaincre que le DAC testé ce mois-ci est le meilleur du monde, enterrant le vainqueur du mois dernier qui était lui-même le meilleur ayant jamais existé,
  • les marques où la plupart du temps les produits semblent avoir été conçus par le directeur financier, qui comme chacun sait, est un expert dans tous les domaines dont l’ingénierie digitale,
  • les idiophiles toujours prêts à dépenser leur argent sans prendre le recul et les avis nécessaires,
  • Les majors qui ne font aucun effort pour améliorer la qualité sonore de leurs enregistrements
  • etc, etc…

 

il est urgent de refaire le point et de comprendre enfin de quoi l’on parle vraiment !.

 

 

Cet article va aller de l’enregistrement de la musique sous forme digitale, jusqu’au traitement par les DACs, mais s’arrêtera avant l’application des filtres digitaux: ceux-ci feront l’objet d’un 3ème article dédié, tellement le sujet est critique pour la qualité sonore…

 

Commençons donc par le commencement, à savoir l’enregistrement sous forme digitale d’une musique à l’origine forcément analogique, et dès ce moment là, les problèmes arrivent !

 

 

I-L’ENREGISTREMENT DIGITAL, OU LE DÉBUT DES PROBLÈMES…

 

I-1.C’est quoi la digitalisation de la musique ?

 

La musique étant par nature analogique, tout le monde comprend pour être gravée sur un CD numérique ou transformée en un fichier, elle doit nécessairement subir une transformation: c’est évidemment la partie « enregistrement » où elle va être digitalisée.

 

La digitalisation consiste à échantillonner le signal musical analogique, et l’ensemble de ces échantillons digitaux (tous exclusivement sous forme de « 0 » et de « 1 ») permettra plus tard de reconstruire le signal analogique, c’est-à-dire la musique enregistrée.

 

Jusque là je pense n’avoir perdu personne, si tel est le cas la suite pourrait vous paraître bien obscure…

 

Le CD est au format 16 bits / 44,1 kHz, leurs créateurs en ayant décidé ainsi.

Cela signifie 2 choses:

  • La longueur des échantillons digitaux, composés exclusivement de « 0 » et de « 1 », est de 16 caractères: par exemple 0110111100011001, ou encore 1010001110011111.
  • Ces échantillons sont capturés à intervalles réguliers, à une fréquence de 44,1 kHz: c’est ce que l’on appelle la fréquence d’échantillonnage.

 

Ces choix s’expliquent par des raisons techniques à l’époque de son invention, mais pas seulement.

 

Il est en effet communément admis depuis longtemps qu’aucun être humain ne perçoit les sons (de la musique analogique)  au-delà de 20 kHz, et que dès 40 ans, on n’entend plus au-delà d’une fréquence bien inférieure à 20 kHz…

 

Tout le monde en a donc (trop rapidement) déduit que si on arrive à restituer parfaitement toutes les fréquences entre 0 et 20 kHz, on aurait un système parfait d’enregistrement de la musique.

 

D’autant plus que si l’on entend jusqu’à 20 kHz quand est jeune (20 ans), on entend péniblement jusqu’à 10 kHz quand le poids des ans fait courber nos épaules (70 ans)…

 

 

I-2-.Shannon à la rescousse.

 

Dans les années 1930, deux mathématiciens nommés Shannon et Nyquist, ont démontré le Théorème qui porte leur nom plus communément appelé «Théorème de Shannon ».

Ce théorème, démontré mathématiquement, dit que l’on peut reconstruire sans perte un signal analogique évoluant dans la bande de fréquence [X à Y] Hz à la condition qu’il ait été échantillonné à une fréquence au moins égale à 2 fois Y.

 

Par conséquent, avec notre fréquence de 44,1 kHz, tout le monde s’est dit (et beaucoup le croient encore) que l’on a la solution parfaite jusqu’à 22,05 kHz, soit bien au-delà de nos besoins de 20 kHz: c’est ce raisonnement qu’ont tenu les Majors et les magazines lors du lacement du CD en…. 1982 (hé oui, ce n’est pas hier).

 

Sauf que l’on s’est vite rendu compte que la musicalité du CD était très loin de la perfection que l’on nous avait promise !

Au début on a accusé les puces DAC et tout un tas d’autres causes incompréhensibles, mais 40 ans plus tard, force est de constater qu’il est toujours très difficile d’obtenir une bonne qualité du son ! c’est même très frustrant pour la plupart d’entre-nous…

 

Par contre on commence à comprendre parfaitement les causes, et si nous restons désespérément scotchés au format CD, c’est du côté du Marketing et de l’absence de volonté qu’il faut chercher; mais les causes techniques sont désormais très bien connues: Threshold-Lovers essaie de vous les expliquer dans cet article.

 

Alors certains d’entre-vous pensent probablement que  le Théorème de Shannon est faux ? nous avons déjà très fréquemment entendu cette hypothèse…

 

Autant vous le dire tout de suite: NON. Le Théorème de Shannon est vrai, il est démontrable et démontré mathématiquement.

 

Et c’est bien là le problème !…

Entre une démonstration mathématique qui ne peut pas être remise en cause, et son implémentation physique dans la vraie vie avec des vrais composants électroniques, il y a tout un tas de difficultés qui n’ont rien à voir avec les mathématiques, lesquelles restent justes.

 

Mais alors d’où vient le problème ? S’il n’y en avait qu’un seul…

 

Il y en a hélas plusieurs que nous allons voir dans la suite de cet article.

Et puisque nous sommes dans la section « Enregistrement », commençons par là.

 

La 1ère cause est décelable dans l’intitulé même du Théorème de Shannon, qui pose comme hypothèse que le signal à numériser est strictement limité à la bande de fréquences [X à Y] où Y doit être au maximum égal à la demi-fréquence d’échantillonnage (22.05 kHz dans le cas du CD Audio).

 

Or la musique jouée par des instruments comporte bel et bien des fréquences supérieures à 20 kHz ! et ça tout le monde l’a allègrement oublié devant la nouveauté du CD et les gains financiers colossaux qu’il allait apporter.

 

Le fait que l’homme n’entend pas ces fréquences supérieures à 20 kHz ne résout pour autant pas le problème que l’on veut utiliser Shannon pour numériser des fréquences qui sont au-delà de la demi-fréquence d’échantillonnage utilisée avec le format CD (44.1kHz / 2 = 22.05 kHz) !

 

Dans la musique jouée par des musiciens, il y a beaucoup de choses au-dessus de 20 kHz: donc une fréquence d’échantillonnage de 22 kHz ne permettra pas de recouvrir (lors de la reconstruction par le DAC) ces informations: et ça c’est le Théorème de Shannon lui-même qui le dit !

 

On pourrait tenter de contourner ce problème en filtrant dès l’enregistrement toutes les fréquences supérieures à 20kHz, un peu comme le montre la slide ci-après, mais nous savons que les filtres à pente raide ne font pas du tout bon ménage avec la qualité sonore (ici même extrêmement raide).

La pente montrée ci-dessous devrait même être beaucoup plus raide que cela de façon à tout couper avant 22 kHz…

 

Reprenons donc une sinusoïde que nous allons échantillonner à 44,1 kHz.

Il nous faut donc une horloge qui donne  » le tempo « , en clair qui donne les «Tops», les instants précis où l’on doit capturer l’échantillon numérique du signal musical, et ce 44.100 fois par seconde.

 

Le Théorème de Shannon est vrai, -qu’on arrête une bonne fois pour toute de confondre Mathématiques et réalisation électronique !-, mais il ne prévoit pas (et ce n’est pas son rôle puisqu’il s’agit de Mathématiques) que les horloges utilisés en électronique soient imparfaites.

En effet, le Théorème de Shannon pré-suppose que les Tops d’horloge sont parfaitement donnés.

 

Hélas oui, les horloges qui donnent ces Tops, le plus souvent des oscillateurs, donnent ces tops avec un tout petit décalage: parfois légèrement en avance et parfois légèrement en retard.

 

C’est évidemment cela que l’on appelle le Jitter: le décalage dans le temps (en avance ou en retard) d’un Top par rapport à l’instant parfait théorique où il devrait avoir lieu.

 

C’est grave Docteur ?

Oui, c’est très grave ! Nous allons le montrer ci-dessous dans le cas de l’enregistrement, mais le jitter est tout aussi grave tout le long de la chaîne de traitement du signal !

 

En Digital, le timing c’est VITAL !

 

Tous nos lecteurs savent parfaitement que la musique est tout sauf une parfaite sinusoïde, mais cette courbe si régulière n’a rien perdu de ses vertus pédagogiques.

 

Voyons donc l’impact du Jitter lors de l’enregistrement, grâce à la figure ci-dessous:

Sur le graphique ci-dessus, on voit bien en BLEU que le signal d’horloge décalé (ici en avance) par rapport au Top idéal en rouge, entraîne un échantillonnage du signal alors que celui-ci a une amplitude plus faible que celle qu’il aurait eu (en ROUGE) si le Top d’horloge avait eu lieu exactement au bon moment.

 

Par conséquent, la valeur de l’échantillon est fausse par rapport à ce qu’elle aurait dû être.

 

Lors de la lecture du fichier numérique, l’amplitude qui sera restituée par le DAC ne peut être que fausse puisque le DAC convertira cet échantillon dont la valeur est fausse, et par conséquent il y aura distorsion !

 

Vous venez donc de voir que, dès l’enregistrement, l’instabilité des horloges crée déjà des problèmes qui ne pourront pas être corrigés par la suite.

Nous ne le redirons jamais assez: en Digital Audio, le timing donné par les horloges est TRÈS critique !

 

Nous n’en avons pas fini avec le Théorème de Shannon dont nous redisons qu’il s’agit d’un Théorème mathématique démontré: nous verrons plus loin une 2ème  difficulté concernant sa mise en œuvre pratique, mais avant cela, parlons un peu de résolution, ou si vous préférez, comment le nombre de bits et la fréquence d’échantillonnage influent sur la résolution.

 

 

I-3.Influence du nombre de bits à l’enregistrement.

 

Tout le monde sait désormais que notre bon vieux CD est enregistré avec des échantillons de 16 bits de longueur, c’est-à-dire comme nous l’avons écrit plus haut, des échantillons exclusivement composés de « 0 » et de « 1 », par exemple: 1011000101100110  ou  0011111101011011.

 

Mais quelques autres standards existent, les plus connus sont le 20 bits et le 24 bits:

 

NUMBER OF BITS EXAMPLE
16 (CD Audio) 1011000101100110
20 10000111101010001101
24 001110100001111001010001

 

Comment cela se traduit-il en terme de résolution audio ?

Rgardons la diapositive ci-dessous:

•Lorsque l’on passe de 16 bits à 20 bits, on rajoute 4 bits supplémentaires. Ces 4 bits supplémentaires permettent d’avoir 16 valeurs supplémentaires de « 0000 » à « 1111 » en binaire (pour ceux qui sont un peu plus à l’aise avec les maths, 16=24).

Passer de 16 bits à 20 bits permet donc de multiplier par 16 la résolution, puisqu’on peut coder 16 fois plus précisément la valeur d’un échantillon.

 

•Lorsque l’on passe de 16 bits à 24 bits, on dispose de 8 bits supplémentaires. Ces 8 bits supplémentaires permettent d’avoir 256 valeurs supplémentaires de « 00000000 » à « 11111111 » en binaire (pour ceux qui sont un peu plus à l’aise avec les maths, 256=28).

Passer de 16 bits à 24 bits permet donc de multiplier par 256 la résolution, puisque l’on peut coder 256 fois plus précisément la valeur d’un échantillon.

 

Bien sûr, qui dit davantage de bits dit fichier plus gros.

Mais plus gros dans quelles proportions ?

 

Ceci vous est expliqué dans la diapo ci-dessous:

Donc si l’on s’intéresse au 24 bits / 192 kHz, on voit que nous obtenons des fichiers 6,5 fois plus gros.

Aujourd’hui l’espace n’est plus un problème, mais à l’époque de l’invention du CD, en 1982, il aurait été difficile de stocker un album avec des fichiers 6,5 fois plus gros.

Quelques années plus tard, cela aurait été possible, mais les Majors n’étant toujours pas intéressées par la qualité sonore, elles se sont consciencieusement endormies sur le CD et les colossaux revenus qu’il générait par rapport au vinyle: la dictature du « Mass Market »…

 

Aujourd’hui il serait très simple de stocker des fichiers 6,5 fois plus gros, le plus banal des Bluray sait faire bien davantage que cela, mais l’obsession de l’anti-piratage a eu vite fait de reléguer le Bluray audio au rang de bide commercial.

Certes il n’a pas été copié, mais il n’a pas non plus été vendu ! : c’est « l’École des Fans à l’envers », c’est-à-dire que tout le monde a perdu…

 

Un Bluray audio ne revient pas plus cher qu’un CD à fabriquer, mais il faut bien sûr que les studios d’enregistrements soient équipés en 24/192 dès l’enregistrement, et il faudrait aussi que les fichiers 24/192 soient aussi ouverts que les 16/44.1 (c’est-à-dire sans DRM).

A l’heure du dématérialisé, l’obsession de la lute contre le piratage est peut-être néfaste pour l’industrie musicale: tout le monde reste scotché au format CD, rien n’évolue car aucun utilisateur ne veut et ne voudra des DRM….

 

Ne serait-il pas plus intelligent et rentable de rendre massivement disponibles des fichiers 24/192 de très grande qualité, sans DRM, qui seraient sans aucun doute achetés par les passionnés que nous sommes ?

La question est en tout cas posée…

 

Nous venons de voir que le nombre de bits a une influence sur la résolution, mais voyons un peu son influence sur la dynamique.

Pour ce faire, Threshold-Lovers vous a préparé une diapositive récapitulative:

 

Nous voyons donc qu’au-delà de l’amélioration de la résolution vue précédemment, l’augmentation du nombre de bits lors de l’enregistrement permet de disposer d’une dynamique beaucoup plus élevée : rappelons en effet que l’échelle des dB n’est pas linéaire loin s’en faut ! l’augmentation de la dynamique est donc colossale.

 

Mais rappelons qu’il s’agit ici de la dynamique disponible : celle ressentie à l’écoute sera fonction de la façon dont l’enregistrement a été fait.

 

Si en 20 et 24 bits les marges sont énormes, avec notre CD les choses peuvent vite devenir beaucoup plus délicates…

 

Rappelons-nous les promesses que l’on nous a faites à la sortie du CD: une dynamique de 96dB ! nous avons tous fait « waouh » à l’époque…

 

Seulement voilà, ici encore personne n’a cherché à préserver la qualité sonore, mais on a voulu « sonner plus fort que les autres » pour se faire remarquer lors de la diffusion des titres.

 

Pour ce faire, on augmente volontairement le niveau moyen d’enregistrement sur le support: on va donc effectivement « sonner plus fort », mais la plage dynamique en réserve pour passer les crêtes de signal (fortissimo par exemple) fond comme neige au soleil !

 

Et quand la marge en réserve n’est plus suffisante pour passer une crête, il y a distorsion lorsque la crête arrive: et ça notre oreille n’aime pas du tout !

On a donc des CDs qui se font remarquer à la terrasse d’un bar, mais qui deviennent très mauvais à écouter sur un bon système…

Je vous invite à lire le document du GRIF-EDIM de Lyon, §.12 ici , pour vous convaincre de l’étendue des dégâts…

 

Pour qu’un CD préserve au mieux la qualité de la musique, il convient d’enregistrer à des niveaux suffisamment bas pour que la plage dynamique (96dB) permette d’absorber toutes les crêtes de signal !

 

 

 

I-4.Influence de la fréquence d’échantillonnage à l’enregistrement.

 

Après avoir vu l’impact du nombre de bits, intéressons-nous à la fréquence d’échantillonnage.

Rappel: Nous avons déjà vu que pour que la fréquence d’échantillonnage de 44,1 kHz permette d’enregistrer correctement toutes les fréquences, il faudrait utiliser un filtre passe-bas (voir note 1) à pente très raide, pour couper drastiquement toutes les fréquences au-dessus de 20 kHz (puisque d’après Shannon, la fréquence max reproductible est de 22,05kHz): et ça ce n’est pas très bon car qui dit pente très raide dit rotation de phase, et ça notre oreille déteste…

 

Mais le problème ne s’arrête pas là, car des études médicales sur la perception auditif de l’être humain, -qui ne se résume pas à l’oreille-, semble montrer que nous sommes bien plus sensibles que ce que nous pensions: il nous serait en effet possible de détecter très rapidement la naissance d’un son (une impulsion) sur un intervalle < 10 µs. (Source: A.E.S., A hierarchical approach to archiving and distribution, Stuart and Craven, 2014)

 

J’ai lu ailleurs sur le web quelque chose autour de 7 µs, c’est donc l’intervalle que j’ai représenté dans la diapositive ci-après.

 

Regardons donc une diapositive pour mettre les choses en perspective:

La diapositive ci-dessus montre clairement que seul une fréquence d’échantillonnage à 192 kHz permettrait d’avoir un intervalle suffisamment petit par rapport à nos capacités de détection auditives : avec notre bonne vieille fréquence d’échantillonnage du CD audio (44.1 kHz) on est très loin du compte.

 

Évidemment, s’il est souhaitable que l’enregistrement se fasse en 192 kHz, il est stupide de vouloir le réduire ensuite à du 16/44.1: quand on parle de l’intérêt du 24/192, c’est un enregistrement en 24/192 et une mise à disposition du fichier toujours en 24/192 sans aucun bidouillage entre les deux !

De même si l’enregistrement se fait en 16/44.1, et que vous le sur-échantillonnez en 24/192, vous aurez fait un bon coup Marketing ou Financier: mais pour ce qui est de la qualité sonore vous ne recréerez pas des informations qui ne se trouvent pas sur l’enregistrement à 16/44.1 !

 

Là aussi des expériences réelles ont été faites par l’A.E.S. sur un panel d’utilisateurs et ne laissent aucun doute:

  • si on veut préserver les qualités d’un enregistrement 24/192 il faut le restituer en 24/192: le redescendre en 16/44.1 fait perdre énormément.
  • enregistrer en 16/44.1 puis upsampler pour attirer le chaland et lui vendre (cher) un fichier 24/192 satisfera le directeur financier mais en aucun cas vos oreilles (et détruira progressivement la marque qui aura cédé à de telles pratiques.
  • si l’on a besoin d’upsampler ou de diminuer la fréquence d’échantillonnage, il faut le faire avec des multiples entiers: par exemple entre 96 kHz et 192 kHz (facteur entier de 2), mais pas entre 192 kHz et 88 kHz (il n’y a pas un rapport entier entre les deux fréquences).

(Source: A.E.S., A hierarchical approach to archiving and distribution, Stuart and Craven, 2014)

 

 

II-LA CONVERSION NUMÉRIQUE ANALOGIQUE: LES DIFFICULTÉS CONTINUENT !.

 

II-1.Le décodage des « 0 » et des « 1 ».

 

C’est lors de cette étape que nos échantillons numériques composés de « 0 » et de « 1 » vont être transformés en signal musical analogique, théoriquement et idéalement (c’est ce qu’on voudrait) dans le même signal musical que celui qui a été numérisé lors de l’enregistrement.

 

Notre DAC va donc recevoir en entrée un flux de data, en provenance d’un CD Transport ou d’un lecteur de fichiers dématérialisés, à l’intérieur duquel se trouve également le signal d’horloge. Ce flux de data est composé d’impulsions et cette technique de codage de nos échantillons s’appelle la Modulation par Impulsions Codées, ou PCM en anglais (Pulse Code Modulation).

 

Tous les systèmes (à de très rares cas particuliers près) et à l’exception notable du DSD (Direct Stream Data) de Sony introduit pour leur SACD (Super Audio CD) en l’an 2000, sont basés sur cette technique PCM.

 

Pour pouvoir convertir nos échantillons composés de 0 et de 1 en signal musical, il faut commencer par les retrouver dans le flux de données reçu par le DAC, lequel est reçu en étant basé sur un signal d’horloge permettant de « tronçonner » les échantillons dans le flux de données.

 

Comment retrouver ces échantillons codés selon le principe PCM, c’est très simple et c’est expliqué dans le schéma ci-dessous:

  • Si à l’intérieur d’une période d’horloge, il y a un changement de niveau, ça représente un « 1 »
  • Si à l’intérieur d’une période d’horloge, il n’y a pas de changement de niveau, ça représente un « 0 »

Maintenant que nous savons commet sont codés les « 1 » et les « 0 », nous pourrions penser que tout va bien et que le décodage est un jeu d’enfant.

Or nous savons tous qu’il n’en est rien… D’où vient donc les problème ?

S’il n’y en avait qu’un ce serait bien, mais comme pour la partie « Enregistrement » de ce début d’article, la mise en œuvre en pratique est infiniment plus délicate que l’on pourrait le croire !

Le 1er problème vient de la très mauvaise qualité du signal (représentant ces « 0 » et ces « 1 ») arrivant dans le DAC: il faut voir à quel point ce signal reçu est différent du signal théorique parfait de la diapositive ci-dessus, pour croire que ce peut être à ce point « mauvais ».

Suivez le lien chez Lampizator  pour voir à quel point les signaux en entrée de DAC sont mauvais ! et pourtant c’est un bon Transport…(à la fin de la page du lien)

et vous trouverez sur Lampizator les traces des signaux générés par plusieurs drives: les signaux sont parfois tellement mauvais que l’on a de la peine à les reconnaître ! Alors je vous laisse imaginer les exploits que l’on demande aux DACs dans de telles conditions…

 

Par conséquent les DACs ont un travail très difficile à faire pour reconnaître les « 0 » et les « 1 » dans le flux qu’ils reçoivent, sans même parler des variations d’horloge (Jitter) qui compliquent encore davantage les choses.

C’est ce que nous allons voir maintenant:

 

 

II-2.La dégradation du flux digital.

 

Dans cette section nous n’allons voir que les erreurs de décodage générés par la mauvaise qualité des flux entrants dan le DAC: nous ne parlerons pas encore de l’influence de l’instabilité des horloges du DAC, dont vous vous doutez de leur impact néfaste.

La mauvaise qualité de ce flux de données digitales arrivant au DAC peut être causée par plusieurs choses en dehors des problèmes de l’étape « Enregistrement » vu dans le paragraphe précédent.

 

CAUSE COMMENTAIRE
Mauvaise qualité de l’horloge du Drive

Un grand classique dans 99% des cas ! Une bonne horloge c’est vital, et les composants utilisés sont dans la plupart des cas des composants au rabais choisis par les financiers qui détruisent progressivement l’image de leur marque qui apparaît comme ne faisant plus des produits de qualité….

Il existe des horloges de qualité: TRICHORD, AUDIOFIDELITY par exemple tous deux basés en UK, TENTLABS, mais il en existe bien d’autres.

On peut les installer en upgrade sur des drives existants si l’n sait jouer du fer à souder.

Une alternative plus simple et donnant aussi d’excellents résultats est de remplacer l’horloge de base par une OCXO: facile à faire.

Alimentations bâclées des composants sensibles du Drive

Ceci aussi est presque toujours le cas à de très rares exceptions près (Metronome Technologie par ex).

Pour bien fonctionner, il faut que plusieurs composants sensibles aient leur alimentation indépendante de l’alimentation des autres composants sensibles.

Pour économiser quelques euros, la plupart des fabricants conçoivent leur circuits imprimés avec des pistes alimentant ces composants sensibles en // à partir d’une même alimentation: quand un composant « tire » sur l’alim, il y a évidemment un impact négatif sur les autres composants sensibles.

Visitez les archives de LAMPIZATOR qui a mis en évidence l’utilité d’avoir des alimentations séparées pour les puces sensibles d’un même CD Transport. Les flux digitaux obtenus en sortie sont alors bien plus nets !

Connecteur de sortie inadapté aux flux digitaux

Ceci est connu depuis la nuit des temps, mais rien n’y fait, trop de constructeurs continuent d’équiper leurs Drives (pire leurs DACs souvent !) de connecteurs incapables de transmettre la bande passante des flux digitaux.

On ne le répétera jamais assez: les connecteurs RCA (aussi appelés Cinch) sont incapables de par leur conception de passer les flux digitaux correctement.

Les connecteurs optiques TOSLINK sont limités à 96 kHz et posent aussi d’assez nombreux problèmes.

Les meilleurs connecteurs sont les BNC, les optiques ST  et les AES-BU (ressemblant à des XLR).

Impédance de sortie des connecteurs indaptée

Les spécifications sont claires: l’impédance doit être de 75 ohms ou de 110 ohms dans le cas de l’AES-BU.

Les fiches RCA qui équipent les drives sont dans 100% des cas une impédance inadaptée. Il existe quelques rares fabricants comme CANARE qui fabriquent des RCA en 75 ohms (je ne les vois cependant plus à leur catalogue), mais cela ne résout en rien l’autre problème qui est que ce connecteur est incapable de transmettre les flux digitaux.

Les connecteurs BNC existent en 50 ohms et en 75 ohms et sont faciles à trouver dans ces 2 impédances: dans le cas de l’audio, ils doivent être en 75 ohms: tout un choix ici http://www.canare.com/ProductItemList.aspx?productCategoryID=187

Signalons que les adaptateurs RCA/BNC sont à proscrire totalement en matière de flux digital: le RCA n’est définitivement pas apte à transmettre les flux digitaux.

Impédance du câble digital inadaptée

Là aussi c’est du 75 ohms obligatoire (sauf AES-BU évidemment)

 

Évidemment ces remarques sont aussi valables pour le connecteur digital d’entrée du DAC: si vous n’avez qu’un RCA, c’est dommage pour vous: le fabricant de votre DAC devrait se pendre. Et rajouter sur celui-ci un adaptateur RCA/BNC ne résout rien bien sûr.

 

Signalons l’excellent connecteur optique ST démocratisé par WADIA et MARK LEVINSON lors de la sortie des premiers DAC « sérieux »: il est aujourd’hui bien scandaleux de voir des TOSLINK les remplacer (n’est-ce pas Wadia ?…): où est passé l’esprit du créateur de l’entreprise ?

 

Terminons par une grosse erreur de langage !

 

II-3.L’erreur de compréhension relative au « câble digital ».

 

Qui n’a pas entendu prononcer le mot de « câble digital » sensé ne transmettre que des « 0 » et des « 1 » ?

 

Il s’en est suivi un raccourci de raisonnement (pour être clair une erreur pure et simple) où ceux qui ne prennent pas le temps de réfléchir ont dit: ce câble ne transportant que des « 0 » et des « 1 », il n’a aucune importance sur la qualité sonore finale.

La réponse est claire: c’est STUPIDE !

 

Le « câble digital » n’existe pas: non, ça n’existe pas au sens où ceux-ci le présentent.

 

Ce que l’on appelle « câble digital » est un câble ANALOGIQUE, véhiculant des informations ANALOGIQUES (des signaux carrés modulés) entre 0V et nV (nV étant la tension en entrée de DAC).

 

Ce n’est pas parce que la SIGNIFICATION de ces niveaux analogiques (transitant dans le câble) est, -in fine-, interprétée comme « 0 » ou « 1 » par le DAC, que ces signaux sont autre chose que purement analogiques.

 

Ce câble appelé « digital » est en fait un câble analogique transportant, comme tout câble, des tensions analogiques !

C’est l’interprétation ultérieure, après le câble (de ces tensions analogiques) , qui donnera une signification digitale (0 ou 1) !

 

Et donc ce câble va plus ou moins distordre ces signaux analogiques (comme n’importe quel câble puisque le câble parfait n’existe pas), ce qui comme nous allons le voir maintenant, va compliquer encore un peu plus la tâche de notre DAC…

 

 

II-4.Retrouver les « 0 » et les « 1 » dans le DAC.

Après ce chemin semé d’embuches, le flux digital arrive enfin au DAC, lequel doit se charger de retrouver à l’intérieur de ce flux, les « 0 » et les « 1 » pour pouvoir les transformer en signal musical.

 

Conformément à ce qui a été expliqué en début de cet article, notre DAC va donc essayer de repérer les éventuels changement de niveaux à l’intérieur d’un cycle d’horloge:

  • Si à l’intérieur d’une période d’horloge, il y a un changement de niveau, ça représente un « 1 »
  • Si à l’intérieur d’une période d’horloge, il n’y a pas de changement de niveau, ça représente un « 0 »

 

Le DAC « analyse » le flux à travers « ses yeux » qui sont représentés par les rectangles VERTS sur la slide ci-dessous.

 

Il y en a 2 par période afin de voir s’il y a eu un changement de niveau (le DAC considère alors qu’il s’agit d’un »1″) ou non (le DAC considère alors qu’il s’agit d’un »0″).

 

Regardons de près ce qui se passe lorsque le DAC reçoit un signal déformé, en raison d’un drive défectueux, d’un mauvais câble ou n’importe quelle autre cause.

 

Nous voyons que si le signal reçu est trop déformé, le DAC va considéré avec ses « yeux » qu’il s’agit d’un « 0 » alors que c’est un « 1 » qui aurait dû être vu: il y a erreur, et donc la qualité du son ne sera évidemment pas au rendez-vous…

 

Cet article montre que le Digital en audio, c’est un exercice bien plus difficile qu’il n’y paraît !

Threshold-Lovers espère vous avoir éclairé: d’autres articles suivront pour continuer à démystifier ce qui peut être expliqué !

 

Article écrit par Nounours – Avril 2020