Pourquoi l’avancée de la technologie semble-t-elle donner systématiquement lieu à des traductions approximatives, impropres et paresseuses ? Là où, jadis, l’on réfléchissait soigneusement à la dénomination des nouvelles inventions (ce qui a engendré d’authentiques réussites de la langue française telles que ordinateur, logiciel, numérique ou plus récemment courriel grâce au Québec), il faut se contenter depuis les années 1990 de l’abrutissement qui a conduit à traduire Start button par «Menu Démarrer», Favorites par «Favoris», at par «arobase», object-oriented par «orienté objet», social network par «réseau social». Fleurissent ainsi des mots que la langue française aurait, ô combien, préféré oublier («innovation», «obsolète», «paradigme», «entreprenariat»), des constructions atroces («vivre»+COD, «solutions»+épithète) -- quand on ne se contente pas de récupérer tout bonnement les buzzwords de langue anglaise : digital natives, cloud computing, business model, crowdsourcing et ainsi de suite.
L’un des sommets les plus navrants de cette mode est atteint par l’emploi abusif du mot smart, stupidement traduit par «intelligent» et que l’on applique à à peu près tout et n’importe quoi : téléphones, maisons, villes, rues, voitures, voitures, portes, vêtements, appareils électroménagers et ustensiles culinaires... S’y adjoint d’ailleurs aisément un qualificatif au choix parmi : «connecté», «augmenté», «amélioré», «positif», «intuitif», «proactif», «performant».
Donc évidemment, il fallait en venir là : les instruments de musique intelligents.
Le projet Smart Instruments (à prononcer à l’anglaise) est -- évidemment -- un projet de l’Ircam, dirigé par le chercheur et acousticien Adrien Mamou-Mani (il y est collègue, notamment, de notre propre oumupien Moreno Andreatta). Il s’agit de capter le son d’un instrument (par exemple au moyen d’une cellule piezo-électrique), de le traiter en temps réel, puis de se servir d’un transducteur (actionneur/résonateur) pour faire vibrer le corps de l’instrument. En ce sens, il s’agit d’électro-acoustique en temps réel, une démarche assez classique pour l’Ircam ; la véritable originalité (même si des expériences préalables en ce sens remontent à deux ou trois décennies) réside dans le dispositif d’émission du son : ici confondu avec la table d’harmonie, le son artificiel se combine avec le timbre de l’instrument, s’y ajoute ou s’y soustrait.
L’idée est évidemment très intéressante et offre effectivement (en tout cas aux compositeurs et interprètes ne craignant pas d’être tributaires d’une médiation technologique) des possibilités acoustiques et instrumentales pouvant déboucher sur des gestes expressifs nouveaux -- si tant est que ce dispositif puisse être utilisé avec suffisamment de liberté, nonobstant le brevet déposé par ses inventeurs et, plus généralement, la propension de l’Ircam à faire de ses outils une exploitation commerciale éhontée.
Ce qui surprend davantage, c’est l’emballage discursif, lexical et promotionnel de ces dispositifs ; particulièrement apparent dans ce reportage (vidéo) réalisé par le Journal du CNRS, qui chante glorieusement l’avènement d’une «révolution musicale» et d’une nouvelle ère : «Le Temps des instruments augmentés». La couverture presse est à l’avenant : «instruments pour le futur», «univers de réalité augmentée», etc.
En fin de compte, les Smart Instruments ne sont pas seulement une idée acoustique intéressante et élégamment réalisée, mais aussi un signe des temps : de notre société dans laquelle chercheurs et musiciens semblent condamnés à parler la langue de l’«entreprenariat innovant», celle du marketing et des startupeurs.