Publié par Laisser un commentaire

Interview de Michel Geiss (novembre 2014)

Au début des années 70 Xenakis avait un concept de musique produite par la machine elle–même qui s’est révélé utopique puisque qu’on a ressenti qu’il y avait un style Xenakis. Ainsi on s’aperçoit depuis toujours que l’artiste reste déterminant. Pendant longtemps le synthé a donné l’image d’un instrument qui joue tout seul. S’est-on débarrassé de cette image aujourd’hui ?

Iannis Xénakis et l'UPIC
Iannis Xénakis et l’UPIC

En ce qui concerne Xenakis, ce que j’ai connu et vu, c’est son système de composition graphique avec l’UPIC, abrégé de « Unité Polyagogique Informatique du CEMAMu ». Ce principe était totalement dépendant de la volonté du compositeur si tant est qu’il avait bien compris la relation entre les graphismes et le son produit, ainsi que son évolution. Il existe d’ailleurs un logiciel relativement proche : le Metasynth de U&I Software.
Cependant, déjà dans les années 50, Iannis Xenakis avait aussi utilisé un langage informatique, le FORTRAN, pour créer une base de composition semi-automatique, incluant des règles mathématiques pour l’interprétation de musiques dites « stochastiques »…

« Je ne crois pas qu’aujourd’hui l’image du synthé soit celle d’un instrument qui « joue tout seul ». Cela pour une simple raison : la vision du synthé est quasiment toujours associée à celle d’un clavier de piano. »
Je ne sais pas si le style de Xenakis est reconnaissable. Je n’ai pas d’opinion là-dessus, n’étant pas spécialement connaisseur de ses œuvres. Le « synthé qui joue tout seul » a peut-être fait l’objet de certaines polémiques dans la période des débuts de la synthèse analogique. On dit que lors de l’un des ses concerts, Klaus Schulze serait sorti de scène en laissant tourner ses machines seules. Ce genre d’anecdote pouvait laisser penser aux néophytes qu’un synthé pouvait jouer tout seul. Qu’une machine produise des borborygmes sonores n’a aucun rapport avec le mot « jouer » qui signifie une volonté physique humaine. Il faut être précis ! Un séquenceur ne joue pas de la musique. Il ne fait que piloter des notes dans un ordre défini ou aléatoire. Ce n’est donc pas le musicien qui déclenche les notes lui-même. C’est un intermédiaire indirect.
Je ne crois pas qu’aujourd’hui l’image du synthé soit celle d’un instrument qui « joue tout seul ». Cela pour une simple raison : la vision du synthé est quasiment toujours associée à celle d’un clavier de piano.

Après tout, peut-on rêver de machines qui composeraient de la musique toutes seules ?

Virtual Bach
Virtual Bach

En rêver ? C’est-à-dire en avoir envie ? Je ne crois pas que la question puisse se poser de cette manière. En revanche, puisqu’il s’agit de composition automatique, non seulement c’est tout à fait imaginable, mais cela existe déjà depuis quelque temps. Même Mozart en son temps avait proposé une méthode sous forme de jeu pour composer des menuets, sur la base d’un tirage aléatoire avec des dés. Plus récemment, en 1997, un professeur de musique à l’Université de Californie et scientifique, David Cope, à produit l’album « Virtual Mozart », puis « Virtual Bach », des enregistrements pour lesquels il a utilisé des procédés d’analyse d’intelligence artificielle pour déterminer les règles de composition propres à ces compositeurs, puis à d’autres, comme Chopin, ou même Joplin. Ces règles inscrites ensuite dans un programme d’ordinateur ont été utilisées pour composer des musiques « à la manière de », très convaincantes.
Cette question en entraîne d’autres. Composer de la musique est-il le propre de l’homme ? Peut-on dissocier composition et être humain ?

« Sera-t-on un jour d’accord pour aller au concert entendre de la musique composée par un ordinateur ? En ce qui me concerne, j’y suis prêt et ce n’est pas le principe lui-même qui m’importe le plus, c’est le résultat esthétique. S’il est convaincant, pourquoi pas ? »
Est-ce le compositeur qui procure le plaisir de l’écoute de la musique, ou bien la musique elle-même ? Le sujet est-il tabou, ou bien le monde de la musique sérieuse ou populaire est-il prêt à accepter le « compositeur virtuel ». Sera-t-on un jour d’accord pour aller au concert entendre de la musique composée par un ordinateur ? En ce qui me concerne, j’y suis prêt et ce n’est pas le principe lui-même qui m’importe le plus, c’est le résultat esthétique. S’il est convaincant, pourquoi pas ?
J’ajoute qu’en dehors de la composition, l’un des facteurs déterminants de l’intérêt musical, c’est l’interprétation et la qualité de l’interprète, sans oublier le son lui-même. Difficile de croire qu’un ordinateur même très bien programmé, livré à lui-même, puisse avant longtemps se mesurer avec l’être humain à cet égard.
Pour terminer, dans les exemples que j’ai cités, on a pris « l’empreinte » stylistique de certains compositeurs pour en faire une sorte de moule de composition. On a donc créé des variantes, et non pas de réels nouveaux styles de composition. On peut donc en déduire que même si l’on parle de composition automatique, il faut toujours un compositeur pour programmer l’ordinateur, ou en tout cas pour le limiter dans ses « propositions », afin d’éviter le tout aléatoire.

Le travail de mastering en matière de musique électronique, comme celle de Jarre par exemple, nécessite-t-il des techniques différentes de celles que tu peux utiliser pour la musique de variété par exemple ?

Michel Geiss
Michel Geiss en studio

Le mastering n’est que le prolongement du mixage et dépend entièrement de la façon dont celui-ci a été plus ou moins maîtrisé. C’est là que tout se joue, pour toutes les productions musicales, mais encore plus en musique électronique. Puisque le son électronique n’a pas de réalité acoustique, pas d’existence dans l’air, il n’a pas les limites des instruments habituels. Il faut donc lui imposer ces limites lors du mixage, en faisant largement appel à l’égalisation pour que chaque son puisse prendre sa place dans l’ensemble. Contrairement à la variété, au pop rock, au métal ou autres on est sans référence, sans repères. On doit donc prendre plus d’initiatives pour obtenir un résultat harmonieux et agréable à écouter.
En principe, en mastering la musique électronique ne doit pas être considérée comme une exception par rapport aux autres musiques. Pour toute musique, quand on optimise des mixages en mastering pour leur donner le profil sonore définitif qui atteindra le consommateur, on doit s’adapter au style musical des morceaux. On n’applique pas les mêmes principes de traitements selon qu’on a affaire à du jazz, du pop-rock, de la variété, du métal ou du hip-hop. Si je n’ai pas cité la musique « électro » dans cette liste, c’est simplement parce qu’elle ne se présente pas sous une seule forme, mais sous de multiples formes.

« L’erreur que peuvent faire certains est d’appliquer des traitements inappropriés à des musiques électroniques, les privant d’un relief musical précieux ».
Il y a la musique des débuts de JM Jarre, avec Oxygène, Equinoxe, les Chants Magnétiques, ses connexions avec la musique classique, des nuances parfois subtiles, et à l’autre extrémité les musiques techno, le dance floor où l’assise rythmique est incontournable. L’erreur que peuvent faire certains est d’appliquer des traitements inappropriés à des musiques électroniques, les privant d’un relief musical précieux.
Quand on sait à quel point le mastering peut détruire la musicalité d’un projet s’il est inapproprié, on a des raisons de s’en inquiéter ! L’ingénieur de mastering a donc une lourde responsabilité. Son approche d’un projet lui est obligatoirement personnelle par rapport à son « client », qui très souvent manque du recul nécessaire et des conditions d’écoute pour juger des transformations en cours sur le projet. De plus, lourde erreur, on lui demande souvent de produire un master avec un volume déraisonnablement élevé, incompatible avec les nuances qui font le plaisir de l’écoute. En ce qui me concerne, je pense que la crise du disque est due, au moins en partie, à la baisse de la musicalité des albums depuis au moins une vingtaine d’années. Tout cela à cause de cette course effrénée au volume ! Sans compter que beaucoup ignorent qu’un CD trop compressé et trop limité passera en radio non seulement moins fort mais aussi avec plus de distorsion qu’un CD masterisé avec maîtrise et sagesse. C’est le comble pour ceux qui espéraient passer plus fort en FM grâce à une dynamique laminée au rouleau compresseur !

Jarre est intéressé par la diffusion en « multicanal », mais crois-tu que ce type de reproduction va s’imposer dans le futur ?

La fonction surround dans Absynth
La fonction surround dans Absynth

JM Jarre a montré son intérêt pour cette forme de reproduction. Beaucoup d’autres l’ont fait aussi. C’est tout à fait compréhensible, le fait d’être immergé dans le son entre l’avant et l’arrière du système sonore étant largement plus gratifiant que la stéréo classique.
JM Jarre a réalisé son album Aero en 2004 en 5.1. Un certain nombre de projets l’ont été aussi avant ou après Aero, soit en DTS, soit en SACD et plus récemment en DTS HD. Au passage, le son en 5.1 ne nécessite pas la réalisation d’un DVD avec une image. On aurait donc pu se passer d’un gros plan sur des yeux pendant la durée entière d’Aero…
Dans une telle optique de son en surround, plusieurs approches sont possibles : soit un nouveau mixage d’un projet déjà édité en stéréo, soit une nouvelle composition spécialement conçue pour tirer parti de ce média. Si JM Jarre a choisi la première option en reprenant des thèmes de ses albums précédents, il me semble qu’une vraie composition en surround pourrait offrir un champ de créativité bien plus vaste. Certains instruments électroniques disposent d’ailleurs de fonctions surround comme Absynth de Native Instruments, ou l’ES2 de Logic. La gestion de l’espace sonore est relativement limitée dans ces deux instruments, mais il est parfaitement possible d’imaginer d’autres structures de synthèse bien plus adaptées à ce format.

Le plug-in multicanal HEar de l'IRCAM
Le plug-in multicanal HEar de l’IRCAM
« Ce qui me semble prometteur, c’est l’arrivée de systèmes de simulation binaurale 5.1 comme « HEar » conçu par l’IRCAM, et commercialisé par Flux Audio. Celui-ci permet la reproduction multicanaux sur un casque stéréo standard. »
Il est difficile de savoir si le multicanal pourra s’imposer dans l’avenir. La base de systèmes 5.1 installés est relativement limitée dans les foyers, mais elle existe. Ce qui me semble prometteur, c’est l’arrivée de systèmes de simulation binaurale 5.1 comme « HEar » conçu par l’IRCAM, et commercialisé par Flux Audio. Celui-ci permet la reproduction multicanaux sur un casque stéréo standard. Dans le contexte actuel d’écoute nomade, on peut très bien imaginer un plugin basé sur ce principe et intégré dans un lecteur de smartphone pour écouter de la musique spatialisée à l’extérieur. Sans compter que l’arrivée massive de lunettes vidéo HD certainement bientôt devrait aussi permettre le relief visuel !

Comment peut-on imaginer du mixage multi canal pour de la musique classique, alors que l’auditeur dans une salle de concert n’entend pas les instruments se répartir autour de lui, qu’il est face à l’orchestre et que le placement des instruments sur scène répond à des règles ?

Le micro multicanal SPS200 Soundfield
Le micro multicanal SPS200 Soundfield

Le multicanal n’est pas forcément uniquement destiné à reproduire, ou plutôt à tenter de reproduire une réalité. Et d’ailleurs, pourquoi pas offrir à l’auditeur le son perçu par le chef d’orchestre ? Même si l’ensemble des instruments d’un orchestre est disposé pour que la musique soit entendue harmonieusement dans la salle, obéissant en effet à des règles bien établies, on peut malgré tout voir les choses différemment.
Dans ce contexte, à mon avis il n’est pas nécessaire et même peu souhaitable de spatialiser les sources au moment du mixage. Il me semble largement préférable de recourir à de la prise de son multicanal par des micros conçus à cet effet, comme par exemple le CUW-180 de Sanken, ou le SPS200 de SoundField.

 

Laisser un commentaire