Depuis les années cinquante, les laboratoires de recherche ont largement contribué à développer et perfectionner la lutherie électronique, et à mieux comprendre le phénomène physique qu’est le son, notamment à travers son étude scientifique par l’acoustique.
Publié avec notre partenaire Nonfiction.fr et écrit par Samuel Lamontagne
A la recherche du son en lui-même
Ingénieur, musicien et homme de radio, Pierre Schaeffer (1910 – 1995) réalise à la fin des années quarante des expérimentations sonores dont celles du « sillon fermé » et de la « cloche coupée », qui demeurent les plus notables. La fixité du son sur disques 78 tours puis sur bandes magnétiques lui permet de le manipuler à sa guise. Le magnétophone permet d’intervenir sur la vitesse et le sens de lecture du son. Schaeffer boucle ainsi les sons sur eux mêmes, les prive de leur attaque, les lit à l’envers, les ralentit, les accélère. Cela le conduit à considérer le son en lui même, pour sa matérialité sonore propre, hors de la cause et de l’événement qui le produisent.
Ces expérimentations nourrissent également sa réflexion sur le timbre, et l’amènent à remettre en cause certaines lois de l’acoustique physique et à relativiser les normes orthodoxes de la musicologie classique. Il invente la musique concrète, qui à l’opposé de la musique instrumentale, part du sonore (concret) pour arriver à une construction compositionnelle abstraite, plutôt que de l’abstrait (système compositionnel préconçu, à l’instar de la tonalité) pour arriver au sonore. Pierre Schaeffer parle lui même de « symphonie de bruits ». « Le son était un signe à interpréter, il devient une trace à instrumenter. L’enregistrement fait du compositeur un auditeur et de l’auditeur un interprète » (Gallet, 2002 : 22).
Les expérimentations du son : Schaeffer laborentin
Schaeffer théorise plus qu’il ne compose, son ouvrage de référence, le Traité des objets musicaux publié en 1977 est central dans la formulation de sa pensée. Il fonde en 1951 le Groupe de Recherche de Musique Concrète (GRMC), remplacé en 1958 par le Groupe de Recherches Musicales (GRM), tous deux intégrés aux studios de l’ORTF à Paris. De nombreux compositeurs influents par la suite y passeront : Pierre Henry, Edgard Varèse, Pierre Boulez, Karlheinz Stockhausen, Bernard Parmegiani entre autres.
En 1951, est créé à Cologne le premier studio de musique électronique (elektronische Musik) à la Westdeutscher Rundfunk (WDR). C’est la première fois que le syntagme « musique électronique » est utilisé. Différents compositeurs rejoignent le studio, dont Stockhausen, et réalisent des études musicales en faisant usage d’oscillateurs générant électroniquement du son.
« Pour obtenir des sons riches (avec des harmoniques), ils superposent par un travail de fourmi des ondes sinusoïdales par réenregistrements successifs d’une bande sur l’autre. Le compositeur est alors en mesure de gérer la macro-structure de l’œuvre en même temps que sa micro-structure interne (jusqu’au plus intime du son) » (Kosmicki, 2009 : 101)
Les compositeurs de musique concrète travaillent à partir de la reproduction du son tandis que les compositeurs de musique électronique de Cologne partent de sa génération. Pour cette raison ces deux musiques sont couramment décrites comme antagonistes. On peut noter qu’elles proposent un langage musical distinct l’un de l’autre, et de la musique tonale.
Au cours des années cinquante ces deux écoles vont se rapprocher, chacun utilisera les outils de l’autre. On peut citer Gesang der Jünglinge (1955) de Stockhausen, ou encore Haut Voltage (1956) de Pierre Henry comme deux œuvres faisant usage à la fois de sons concrets et de sons électroniques.
Les effets de la « synthèse »
Mais le GRM et la WDR ne sont pas les seules institutions pionnières. Au cours des années cinquante, d’autres studios menant des recherches expérimentales sur le son et la musique par le biais de l’invention et de l’utilisation de nouvelles technologies sont créés. On peut par exemple citer la fondation du Studio di Fonologia à la RAI de Milan sous l’impulsion de Luciano Berio et de Bruno Maderna en 1955, du Denshi Ongaku Studio à Tokyo en 1956, du BBC Radiophonic Workshopà Londres en 1958, ou encore celle du San Francisco Tape Music Center qui, à l’initiative de Morton Subotnik, s’établit en 1962.
En 1957 dans les laboratoires Bell du New Jersey, Max Mathews met au point MUSIC I, le premier programme informatique générant des signaux sonores par synthèse numérique. Avec ce programme Newman Guttman compose The Silver Scale en 1957, et John Pierce compose Stochatta avec MUSIC II en 1959. C’est le début de l’informatique musicale, l’ordinateur devient un instrument de composition et d’analyse musicale. Le principe de fonctionnement de l’informatique musicale est la conversion des signaux électriques en données numériques (des suites codées binaires de 0 et de 1), et inversement des données numériques en signaux électriques. Il est alors possible de contrôler les paramètres du son que l’on cherche à produire avec rigueur. Les recherches de Jean-Claude Risset, aux laboratoires Bell dans un premier temps puis à l’IRCAM, vont permettre d’optimiser la synthèse numérique des sons. En tentant d’imiter les sons des cuivres il parvient, par l’analyse spectrale de sons enregistrés, à l’« analyse par synthèse ». John Chowning développe quant à lui la synthèse FM en 1971. Les recherches de ces artistes, qui sont aussi de brillants scientifiques, permettent d’agir directement sur le timbre grâce à l’outil informatique. Il est exposé de manière graphique dans des sonagrammes qui en donnent une représentation visuelle, spectrale et dynamique.
De nouveaux instruments issus des laboratoires vers les nouveaux médias
Les nouveaux instruments de production musicale sont alors indissociables des progrès technologiques constants et de la recherche scientifique dans de multiples disciplines et domaines d’application.
Ces laboratoires ont mené leurs recherches quelque peu à l’écart du grand public et de son attention. Cependant à partir des années soixante, les sons électroniques se popularisent grâce à la radio, à la télévision et aux premiers jeux vidéo ; les besoins de bruitages conduisent à la constitution de riches banques de sons. Les sons électroniques deviennent particulièrement associés au cinéma, qui en fait usage pour les musiques de films et les bruitages. Les techniques d’enregistrements en studio se perfectionnent, l’enregistrement multipiste permet d’enregistrer des sources sonores séparément, les divers effets de traitements sonores deviennent plus accessibles et la qualité même des enregistrements est améliorée.
C’est également à cette période que débute la production en série des premiers instruments de musiques électroniques. On peut voir dans cette commercialisation les prémisses de ce qu’on connaît désormais comme l’industrie des machines. De nombreux musiciens commencent donc à utiliser ces nouveaux instruments qui participent à l’« électronisation » de certains genres, comme le rock. The Beach Boys utilise par exemple un thérémine dans le morceau Good Vibrations en 1966 ; The Beatles utilise le Mellotron (un instrument à clavier lisant des bandes magnétiques) sur Strawberry Field Forever en 1967. On fait désormais usage de la lutherie électronique en dehors des « perspectives de recherches en acoustique dont les œuvres lient compte rendu scientifique et forme artistique. » (Bacot, 2011 : 175). Les musiciens qui s’approprient ces instruments composent ainsi des morceaux et non plus seulement des pièces ou des œuvres.
Pour aller plus loin :
Bacot, Baptiste. 2011. « Du musical au paysage sonore : en haine de l’harmonie ? », Recherches & Travaux, Vol. 78 : 169-184.
Gallet, Bastien. 2002. Le boucher du prince Wen-Houei. Enquêtes sur les musiques électroniques, Paris, Musica Falsa.
Kosmicki, Guillaume. 2009. Musiques Électroniques : des avant-gardes aux dance floors, Paris, Le mot et le reste.
Retrouvez toutes nos chroniques électroniques sur Nonfiction.fr