Toujours à l’affût, Martin Granger nous signale à l’instant cette expérience menée en ce moment par le site Flow Machines (façade ''trendy'' du laboratoire privé Sony CSL Paris, dirigé par François Parchet).
Dans ce test «à l’aveugle», le visiteur/auditeur est invité à écouter un fragment de choral de Bach et à estimer s’il est authentique ou non : à savoir, s’il a bien été écrit par le maître baroque, ou par une «Intelligence Artificielle». Derrière ce terme pompeux (que nous avons eu l’occasion de critiquer) se cache en fait l’un des nombreux algorithmes propriétaires actuellement développés par les acteurs industriels (Sony, en l’occurrence), affublés chacun de noms tous plus ''marketables'' les uns que les autres : ''Continuator'', ''Brazyle'', ''NeOpus'', ''Virtuoso'', ''MusicSpace'', ''VirtualBand'', ''Lrn2Cre8'' et l’on en passe.
Dans un tel cadre, s’agit-il vraiment d’une expérience à valeur scientifique, ou d’un gadget "viral" à emballage vaguement musical (dont nous savons que les publicitaires raffolent) ? S’il est vrai que l’expérience est en elle-même intéressante (quoique rudimentaire) et qu’aucune marque ni logo d’entreprise n’apparaît sur la page en question, le fait même que cette confusion puisse exister n’est pas sans affecter la crédibilité de l’initiative... et nous amener à nous demander, par exemple, pourquoi le visiteur souhaitant se prêter à l’expérience est obligé de fournir un nom et une adresse mail.
Il existe même un niveau supérieur d’ambiguïté : à supposer que l’on parvienne effectivement à réduire l’écriture de Bach (ou de tout autre compositeur) à un ensemble d’algorithmes, quel serait alors le statut de ce programme ? Serait-il légitime de revendiquer un copyright (ou, pire, un brevet) dessus (voire, cela s’est déjà vu, sur les ''œuvres'' en résultant) ? Et quid alors du langage de l’auteur d’origine, ou pire, des compositeurs et élèves qui encore aujourd’hui l’imitent et s’y réfèrent : ne seraient-ils pas en situation de ''copyvio'' involontaire quoiqu’inévitable ?
Quant à ces algorithmes proclamés «intelligents», quel est vraiment leur degré de sophistication ? Dans l’impossibilité de le savoir (faute de code source accessible), nous ne pouvons que poser l’hypothèse que ces systèmes prétendument révolutionnaires ne font que suivre le chemin emprunté depuis dix ans (sous licence Libre) par Strasheela et bien d’autres -- ou même, deux siècles plus tôt, par un simple jeu de dés.
Charles Darwin est l’un des premiers savants à s’être penché, dès 1871 (dans La Filiation de l’Homme, son deuxième ouvrage majeur après L’Origine des espèces), sur l’apparition de la musique dans l’espèce humaine -- un siècle après Rousseau, qui aimait à s’interroger (comme nous l’avons vu sur l’hypothèse d’une «mélodie» primordiale ayant pu précéder toute civilisation humaine. Darwin, pour sa part, imagine que le chant aurait pu participer, comme chez l’oiseau, d’un rituel de séduction et constituer par là un avantage reproductif. Ce champ d’étude restera peu ou prou en sommeil pendant le XXe siècle, jusqu’à la publication en 2001 du recueil trans-disciplinaire The Origins of Music, où se trouvent réunis des archéologues, anthropologues, chercheurs en neuro-sciences, qui chacun proposent d’autres facteurs ayant pu contribuer à l’avènement de l’Homo cantans : en particulier, la dimension sociale de cette activité, augmentant la cohésion du groupe et par là sa capacité de survie, ou encore répercutant et amplifiant les premiers moments de la vie, structurés par le lien entre la mère et son enfant (l’éthologue Ellen Dissanayake y voit la source de tout devenir expressif, qu’il soit linguistique ou artistique). Dix ans plus tard, l’ethnomusicologue Joseph Jordania récapitule très clairement l’état actuel de la recherche dans son livre magistral Why Do People Sing? (disponible intégralement en ligne, et à lire de toute urgence avant que les robots du copyright ne fassent leur sinistre moisson).
Appréhender avec certitude une chronologie de l’évolution de la communication humaine est quasiment impossible ; tout au plus les chercheurs peuvent-ils poser l’hypothèse que le langage était déjà apparu vers le 50 ou 60e millénaire avant l’Ère commune -- après un processus de formation qui aurait lui-même pu s’étaler sur plusieurs centaines de milliers d’années. Quant à savoir si l’acquisition du chant précède ou accompagne celle du langage parlé, cette question reste ouverte.
L’avènement d’une musique instrumentale est aujourd’hui un peu mieux connu grâce aux découvertes paléontologiques faites depuis le début du XXe siècle, et tout particulièrement ces vingt dernières années. En 1995, un fragment d’os découvert dans grotte de Divje Babe en Slovénie, suscite une controverse déchaînée -- malgré sa forme évoquant incontestablement une flûte. (Un ethnomusicologue de Berkeley, Bob Fink, ira même jusqu’à spéculer que l’emplacement des trous traduirait l’emploi d’une gamme diatonique...) Ce fragment a été daté d’au moins 43 millénaires avant l’Ère Commune, ce qui en fait l’instrument le plus ancien connu -- mais également le seul pouvant être associé à l’homo neanderthalensis. Des découvertes plus récentes, en 2008 puis en 2012, ont permis de montrer qu’il existait en Allemagne d’autres flûtes aussi anciennes (de 35 à 42 millénaires avant l’Ère Commune)... ce qui n’empêche pas certains chercheurs de persister dans leur contestation du fragment slovène. Diverses reconstitutions ont été proposées de ces flûtes.
Au delà des flûtes et sifflets, cette période de l’ère paléolithique supérieure (correspondant à la civilisation aurignacienne) est plus largement connue pour ses grottes aménagées et décorées, dont certains chercheurs se demandent si l’acoustique n’était pas une caractéristique majeure et volontairement recherchée par leurs habitants -- ce qui pourrait même contribuer à expliquer la présence de peintures rupestres, qui permettent une meilleure réverbération du son. S’ajoutant à notre compréhension croissante des «pierres chantantes» et lithophones préhistoriques (que nous avions mentionnés précédemment), l’on pourrait bien assister à l’émergence d’un véritable champ de recherche archéoacoustique.
Du reste, les groupes de recherches trans-disciplinaires et internationaux abondent (où la France semble d’ailleurs remarquablement peu représentée) : International Study Group on Music Archæology, International Council for Traditional Music Study Group, European Music Archæology Project. Ce dernier regroupement propose d’ailleurs, depuis juin 2016, une exposition intitulée Archæomusica, qui sera visible dans divers pays d’Europe -- mais non la France -- jusqu’à fin 2017, et où l’on peut voir (et même tester soi-même) plusieurs reconstitutions d’instruments, non limitées à l’ère paléolithique.
Il n’empêche que nous n’avons -- et n’aurons certainement jamais -- strictement pas la moindre idée de ce à quoi pouvaient ressembler ces musiques. Tout au plus les quelques traces connues suffisent-elles à susciter l’imagination, et la rêverie ; ainsi, la «sagesse des anciens», notamment en matière de musique, reste un sujet de choix pour les sites de pseudoscience plus ou moins farfelus. (Plutôt plus que moins, à vrai dire.)
Le sifflement est un mode de communication méconnu mais particulièrement intéressant, utilisé par les habitants de certains villages un peu partout dans le monde (particulièrement dans les espaces montagneux, où il était nécessaire de pouvoir transmettre des messages d’un versant à l’autre d’une même vallée avant l’avènement des communications électroniques). Le site Le Monde siffle, animé par le chercheur français Julien Meyer (auteur d’une monographie et de nombreuses publications sur le sujet), recense plus de 60 langues sifflées sur tous les continents ; l’on peut également se référer à la page Wikipédia anglophone, quoique moins complète.
Si les langues sifflées sont connues et répertoriées depuis le XVe siècle au moins, ce n’est qu’au XXe siècle qu’elles commencent à être étudiées : une première description de l’anthropologue Joseph Lajard sur «le langage sifflé des Canaries» en 1891 sera suivie par les travaux de Georges Cowan sur les indiens mazatèques du Mexique en 1948, auxquels s’ajouteront d’autres descriptions des indiens Kickapoo en 1954 et 1968 (cette tribu située entre le Texas et le Mexique ayant la particularité d’utiliser parfois des flûtes en plus du sifflement).
En Europe, les études essentielles sont surtout celles, à partir des années 1960, de René-Guy Busnel sur les Pyrénées puis la Turquie. Les langues sifflées font, depuis lors, le bonheur des linguistes puis des psycho-acousticiens et des neurosciences cognitives (la compréhension d’une langue sifflée mettant en jeu différemment ou non le rapport asymétrique entre les deux hémisphères du cerveau). Malheureusement, cette époque est également celle qui voit disparaître beaucoup de ces langues, sous l’effet cumulé de l’exode rural et de la révolution des télécommunications ; ainsi, la seule langue sifflée de France (ici et ici en vidéo), à Aas dans le Béarn, est aujourd’hui perdue ; celle du village d’Antia sur l’île d’Eubée en Grèce semble condamnée, et l’Unesco a été conduite à protéger en 2009 celle de l’île de Gomera, dans les Canaries, afin qu’elle ne connaisse pas le même sort.
Ce dernier cas, le Silbo de la Gomera, est certainement le plus étudié. Comme toutes les langues sifflées non-tonales, il ne s’agit pas d’une langue à proprement parler (pourvue d’un vocabulaire et d’une syntaxe propres) mais d’une façon de prononcer le langage oral existant (en l’occurrence, l’espagnol), une transphonation pourrait-on dire, ou plus exactement une trans-tonation dans la mesure où les sons-voyelles sont restitués plus aisément (en reproduisant leur deuxième formant) que les sons-consonnes, traduits par des interruptions et accentuations dans le dessin mélodique. De fait, même l’auditeur inexpérimenté peut reconnaître, au bout d’un moment, certaines inflexions de la langue-souche (l’espagnol dans le cas du silbo), pour peu que l’on juxtapose la version orale et la version sifflée. (De ce fait, l’auditeur reconstruit a posteriori les mots employés et le sens du discours, tout comme dans l’expérience Sine-Wave Speech consistant à transformer de la voix parlée en ondes sinusoïdales.) L’on peut donc décrire ce procédé comme une "parole musicale" (musical speech), ou comme un "substitut de parole" (speech surrogate), tout comme il en existe d’autres mettant en œuvre des instruments (flûtes, luths ou tambours) et sur lesquels nous serons amenés à revenir un jour prochain.
Il en résulte un objet musical étonnant et d’une grande beauté, qui n’est pas sans évoquer certains chants d’oiseaux -- même si les langues sifflées ne cherchent pas, historiquement, à imiter les oiseaux mais semblent chacune avoir été inventées de façon entièrement autonome (et assez récemment : certaines n’existeraient que depuis le début du XXe siècle) à partir des sifflements utilisés par les bergers pour rassembler leurs troupeaux.
Plusieurs régions du Mexique gardent des traces de langues sifflées tonales, plus complexes et ne correspondant pas forcément à un langage parlé (et dont la pratique est souvent réservée aux hommes) ; un documentaire américain en présente quelques exemples. Le sifflement joue également un rôle dans la culture traditionnelle Hmong, où il est employé pour séduire (mais où une superstition interdit par ailleurs de siffler la nuit).
Une forme particulière -- et beaucoup plus ancienne -- de langue sifflée, est à trouver dans le sifflement transcendental utilisé par les moines chinois depuis au moins le XIe siècle avant l’Ère Commune, et sous diverses formes successives tout au long du premier millénaire de l’Ère Commune. Cette tradition ésotérique quoiqu’abondamment documentée trouve ses racines dans les fondements même du taoïsme, où le souffle est un élément symbolique majeur reliant l’homme à la nature. (Ou quelque chose comme ça.)
L’usage purement musical du sifflement est connu et répandu, à la fois emblème kitsch (cette émission de 1984 en est un meme exemplaire) et gimmick inusable : comme le remarque un listicle de 2011, de nombreuses chansons à la mode incluent une ritournelle simplement sifflotée. Cette pratique s’étend notamment à la France (ce beau Pays Libre™ où l’on peut, par ailleurs, avoir la joie de se faire défoncer pour avoir sifflé l’Internationale, ou pour avoir sifflé pendant la Marseillaise).
L’on n’y connaît guère, cependant, la «flûte de mains» (hand flute) consistant à disposer ses mains devant la bouche pour former une cavité dans laquelle l’on peut souffler comme dans un ocarina (ou une conque), et qui permet de disposer d’un véritable instrument de musique, riche et expressif -- pour ne rien dire de son prix éminemment abordable. Deux techniques existent, selon que les doigts sont croisés ou non (dans le deuxième cas, la tessiture est plus grave et plus restreinte). Pour peu que l’on s’y penche sérieusement, de grandes choses sont à inventer pour cet ocarina bimane.
Enfin, le sifflement le plus connu et sans doute le plus pratiqué en occident, est certainement le «sifflement du loup» (wolf-whistling, interprété littéralement par Tex Avery en 1943), qui se fait en deux glissandos ascendants (le deuxième généralement plus bas). Selon une hypothèse séduisante, ce sifflement trouverait son origine dans la marine, où le bosco utilise son sifflet pour transmettre des ordres à l’équipage : les deux coups ascendants constituent l’appel à tous et auraient donc été utilisés par les marins à terre pour attirer l’attention de leurs collègues sur telle passante aux alentours. De fait, la mode de ce sifflement semble concorder avec le déploiement de l’armée américaine pendant la seconde guerre mondiale : outre le dessin animé déjà mentionné, l’on se doit évidemment de citer ici la scène du film To Have and Have Not (Le port de l’angoisse, 1944) qui scella le destin partagé de Lauren Bacall et Humphrey Bogart : en mémoire de cette scène, ce dernier offrit à l’actrice un sifflet d’or, qu’elle déposa parmi les cendres de Bogart après son décès treize ans plus tard.
D’un autre côté, le sifflement servait déjà de langage codé à diverses corporations : dès sa publication de 1891 précitée, le français Joseph Lajard comparait le silbo des îles Canaries aux sifflements servant de moyen de communication, dans sa propre patrie, aux charpentiers, aux maçons ou encore aux maraudeurs et repris de justice. Il se peut donc que le «sifflement du loup» ne soit qu’un avatar de cet héritage ; dans une explication comme dans l’autre, nous avons affaire, de toute façon, à un langage porteur de sens.
Les autorités ne s’y trompent d’ailleurs pas, qui envisagent gravement d’interdire cette pratique, assimilée à du harcèlement sexuel -- de fait, le récent succès médiatique de l’expression «harcèlement de rue» montre combien l’Europe se montre empressée à importer des États-Unis une idéologie de la microagression selon laquelle le ressenti des «victimes» importe davantage que la dangerosité objective des faits. (Laquelle «objectivité» étant, il est vrai, trop longtemps restée synonyme de «point de vue de l’homme-blanc-hétérosexuel-aisé».)
Et si l’on exilait les siffleurs ? Sur l’île d’Eubée ou de Gomera, des villages ne demandent qu’à être repeuplés...
Depuis les années 1970, les travaux de la chercheuse américaine Diana Deutsch (née en 1938), spécialiste en psychologie de la perception, ont mis en évidence d’intéressantes particularités de notre façon d’appréhender les phénomènes sonores. Ces illusions auditives trahissent les structures cérébrales (purement neurologiques, mais dans lesquelles entre parfois aussi un facteur culturel et linguistique) qui construisent du sens à partir de sons perçus, et les organisent en tant que langage verbal ou musical.
Au-delà du champ de recherche privilégié que constituent ces découvertes, il reste encore aux musiciens et compositeurs à s’en saisir. Le ponte électro-acousticien français Jean-Claude Risset (également né en 1938) s’y est notamment employé dès la fin des années 1960 -- souvent avec bonheur, quoique dans un langage aujourd’hui fortement daté. Toutefois, il n’est pas avéré à ce jour qu’elles puissent donner lieu à une orientation artistique et expressive : à supposer qu’elle existe, celle-ci reste à explorer.
Dans son essai Prosodia Rationalis (rédigé en 1775 puis révisé en 1779), l’écrivain et homme politique anglais Joshua Steele se propose d’«établir la mélodie et la métrique du langage parlé, en l’exprimant et en la transmettant par des symboles spécifiques».
Audacieuse et construite très rationnellement, son approche part de la notation musicale classique pour conclure rapidement à son insuffisance en matière de voix parlée, et procède alors à l’élaboration d’un nouveau système de notation pouvant exprimer à la fois les variations de hauteur (y compris au sein d’une même syllabe), de durée, et d’intensité.
L’influence du discours oral sur la musique n’est évidemment plus à démontrer : de la prosodie scandée antique au rap/slam en passant par le Sprechgesang ou encore la speech melody de Steve Reich, la voix parlée est un matériau essentiel à bien des langages musicaux anciens et contemporains. (Il faut à ce titre mentionner également les langues de communication employant des moyens musicaux, telles les langues sifflées ou les tambours parlants d’Afrique de l’Ouest.) Parallèlement, les chercheurs en phonétique n’ont de cesse de s’interroger sur les inflexions de la voix, propres à telle langue, à telle expression ou encore à tel milieu social -- et pour quelques compositeurs/acousticiens hautement spécialisés dans la décomposition des formants de la voix humaine, les deux démarches scientifique et artistique peuvent parfois converger.
De fait : bien avant l’avènement des sciences du langage, des sciences humaines et du structuralisme, Steele crée un pont extrêmement original entre la musique savante, qui constitue son arrière-plan culturel, et ce qui allait devenir la linguistique. L’aspect anthropologique et la comparaison de langues différentes ne semble pas faire partie de sa démarche (ce qui aurait pourtant pu être possible étant donné sa curiosité envers les hommes de toutes origines) ; cependant il témoigne d’une grande finesse pour analyser l’intonation de nombreuses phrases anglaises, issues notamment de sermons religieux, ou même... de son propre texte, donnant ainsi lieu à une forme de méta-sémiotique remarquable par sa modernité.
Curieux personnage que David Teie. Ce musicien américain accompli, chanteur, brillant violoncelliste (aussi bien en orchestre qu’en soliste), s’est aussi essayé à la composition (il est l’auteur de plusieurs pièces symphoniques et concertos, après avoir étudié notamment avec Corigliano), et a même pris part à des concerts de rock (avec Metallica puis Echobrain)... avant de s’improviser chercheur dans un domaine jusqu’alors totalement ignoré par la science : l’influence de la musique sur les différentes espèces animales.
L’hypothèse de Teie est simple, mais touche à l’essence même de la musique : selon lui, ce qui rend un stimulus auditif agréable à écouter, résulte, d’une part, de l’adéquation de ce son à l’appareil auditif propre à l’auditeur, d’autre part au souvenir, même inconscient, de sons entendus au tout début de son existence. Ainsi, les perceptions intra-utérines façonneraient le style de musique préféré chez l’être humain : instruments reproduisant les fréquences proches de la voix parlée (notamment la voix maternelle), tempo se rapprochant de la vitesse des battements cardiaques entendus par le fœtus, etc.
Il deviendrait alors possible, postule Teie, d’élaborer à partir de ces deux préceptes un langage musical adapté à d’autres espèces animales. Ce sera l’objet d’une première étude réalisée en 2010 avec le spécialiste des singes tamarins Charles Snowdon. Pour s’adresser à un public plus large, Teie se tourne ensuite vers des animaux plus familiers : les chats. Outre son approche scientifique (qui fait l’objet d’une nouvelle publication par la société d’éthologie appliquée), Teie cherche maintenant à commercialiser sa musique avec son site Web Music for Cats, une impeccable vidéo promotionnelle, impliquant très intelligemment quelques chats déjà rendus célèbres sur YouTube, et une campagne d’appel aux dons qui a récolté les vingt mille dollars escomptés en deux jours seulement, et a même dépassé deux cent quarante mille dollars en un mois.
À quoi ressemblent ces objets musicaux ? Tout d’abord, il faut noter que c’est bien de musique que nous devons parler : avec beaucoup de clairvoyance, Teie a compris qu’il s’adressait aussi (voire avant tout) aux humains se trouvant en compagnie de félins. (Exactement comme les "psys" spécialisés pour animaux s’intéressent en réalité souvent à la relation entre l’animal et son maître -- et l’on peut d’ailleurs constater que David Teie fait l’objet des mêmes moqueries que ces psycho-éthologues comportementaliste.)
À ce titre, il sous-tend son discours de couleurs harmoniques assez riches et renouvelées (dans une temporalité très étirée qui évoque les compositeurs américains dans le sillage de Feldman), et le parsème de quelques interventions mélodiques instrumentales manifestement destinées à une oreille humaine. La partie plus spécifiquement féline (qui s’intègre de façon organique et assez réussie avec le reste du discouts) repose sur des textures sonores (synthétiques) évoquant divers bruits naturels : ronronnement, chants d’oiseaux. Au-delà de son succès commercial et médiatique, l’ensemble est plaisant (y compris, semble-t-il, pour les chats) et donne l’impression d’avoir été élaboré avec beaucoup de soin et d’honnêteté -- même si le sérieux de la démarche et de son assise scientifique, reste à établir.
À travers cette musique étonnante et, d’une certaine façon, envoûtante, David Teie propose de réexaminer, même d’une façon peut-être ici idéaliste ou naïve, simpliste ou maladroite, la musique dans son état le plus élémentaire : celui de phénomène sonore et de perception psycho-acoustique. Grâce au choix d’une musique pour les chats, il invite aussi à retrouver la musique en tant qu’objet de partage et de lien affectif. Une démarche attachante... et peut-être plus profonde qu’il n’y paraît ?
Le projet Longplayer se présente comme une œuvre musicale dont l’exécution est prévue pour durer exactement 1000 ans. Commandée à Jem Finer, musicien anglais issu de la culture folk-rock (on lui doit notamment une «symphonie» pour sonneries de téléphones portables), elle fut officiellement présentée au public à partir du 1er janvier 2000, et semble ainsi s’inscrire dans une certaine vogue d’évènements musicaux «en temps réel», constituant autant de tentatives de coups médiatiques à la fin des années 1990 (l’on peut ainsi penser, en France, à la pièce Éclipse d’Éric Tanguy dont la création télévisée eut lieu pendant l’éclipse solaire de 1999, ou au Concert-Match de René Koering lors de la finale d’une coupe de football en 1998).
Longplayer (dont l’interprétation par des moyens synthétiques peut être écoutée en direct sur le Web) consiste en un matériau sonore limité, d’une durée initiale de 20 minutes et 20 secondes, et ensuite inlassablement recombiné de millions de façons différentes. Certes, des pratiques musicales anciennes (notamment en Inde) ou récentes (l’école dite «minimaliste» ou «répétitive») nous enseignent qu’une musique de pure trame peut également être intéressante ou expressive de par son aspect envoûtant ou hypnotique. Mais peut-on vraiment parler, dans le cas de Longplayer, d’œuvre musicale ? Cet objet sonore (dans lequel il serait assez difficile d’identifier une écriture, même fragmentaire, que ce soit en matière de rythmes ou de notes) se distingue par l’homogénéité de sa texture, faite d’enregistrements d’idiophones à connotation exotique (gongs tibétains). Son discours en trame évoque plutôt un arrière-plan sonore, une musique d’ambiance, dépaysante quoiqu’indéfinissable ; c’est en vain que l’on y chercherait, par exemple, des évènements marquants, des épisodes inattendus ou toute notion de progression dramatique.
Si Longplayer repose sur une approche combinatoire plutôt que strictement répétitive, tel n’est pas le cas d’autres partitions délibérément très longues : ainsi de Vexations d’Erik Satie, écrit (probablement) en 1893 suivant sa rupture avec Suzanne Valadon, qui consiste en une séquence (d’écriture passablement tortueuse) devant être répétée 840 fois. Selon le tempo adopté, l’exécution peut durer de 18 à 35 heures ; il n’est pas anodin de savoir que c’est John Cage qui, en 1963, initia la première représentation publique de cette œuvre ; à sa demande, le billet d’entrée était remboursé aux spectateurs qui restaient jusqu’au bout (à l’issue de la représentation, un spectateur facétieux réclama un bis).
De telles représentations (qui tiennent plus de la performance que du concert, et de l’art conceptuel que de la musique dans son sens communément admis) invitent évidemment à réévaluer le rapport entre l’auditeur et l’interprète (et entre l’interprète et le compositeur : Satie indique que l’on doit «se jouer» sa partition 840 fois, et s’y préparer «par des immobilités sérieuses»), et invite à une réflexion sur le déroulement du temps. Ces deux questions sont au centre de la célèbre pièce de John Cage, 4’33’’ (constituée entièrement de silence, les seuls bruits étant ceux provoqués involontairement ou volontairement par le public), conçue en 1952.
Le même John Cage, dans les années 1980, revient sur ces problématiques sous un angle différent avec sa partition As Slow As Possible («aussi lentement que possible»), jouée au piano en 20 minutes (lors de sa création) puis en plus de 70 minutes lors d’une représentation ultérieure. Son adaptation pour orgue, intitulée Organ²/ASLSP, est en cours de représentation dans une église d’Allemagne depuis septembre 2001 (la première note ne s’est toutefois fait entendre que dix-sept mois plus tard, la partition commençant par un silence). Cette représentation devrait se terminer en septembre 2640 ; le dernier changement de note a eu lieu en 2013, et l’on attend actuellement avec excitation la prochaine note, prévue pour 2020. Comme dans le cas de Longplayer, le public est encouragé à s’interroger sur cette curiosité, voire à se l’approprier : outre la possibilité (plus concrète que pour une œuvre entièrement dématérialisée comme Longplayer) d’assister à la représentation, le site Web de l’opération propose d’écouter en direct la note actuellement jouée, et même de réserver ses places pour le prochain changement de note.
Cette idée met en jeu non seulement une temporalité très longue et très lente, qui oblige à envisager le temps au-delà du rythme d’une vie humaine, mais également (c’est là sa différence avec Longplayer la présence d’échéances plus ou moins lointaines : ainsi, le geste musical banal qui consiste à passer d’une note à une autre se voit chargé d’un sens tout autre. On peut rapprocher ces initiatives de la célèbre expérience de la goutte de mélasse en cours dans diverses universités dans le monde (où une substance extrêmement visqueuse s’écoule au rythme d’une goutte tous les 10 ou 15 ans), et qui a notamment inspiré l’écrivain Frédéric Forte, membre de l’Oulipo.
Cette contribution du chercheur Matthias Robine au colloque J.I.M. 2007 (journées d’informatique musicale, organisées par le Grame) se penche sur les choix des pianistes en matière de doigtés, et sur le lien entre le jeu instrumental pris comme suite de mouvements bio-mécaniques, et son résultat sonore. Comment déterminer algorithmiquement le meilleur doigté pour une partition donnée ? Et à l’inverse, comment reconstituer, à partir d’un enregistrement sonore, quels doigtés ont été employés par l’interprète ?
L’auteur convoque ici certaines références essentielles en matière de recherche bio-mécanique portant sur la main du pianiste, à commencer par les travaux d’Otto Ortmann (1889-1979) qui fait figure de pionnier avec son ouvrage Physiological Mechanics of Piano Technique paru en 1929. (Le présent article inclut notamment, figure 3a, une photographie fascinante suivant une lumière attachée aux doigts d’un pianiste.) Cet article évoque également l’étude essentielle de Christine McKenzie et Dwayne Van Eerd, Rhythmic precision in the performance of piano scales (parue en 1990), et reproduit l’expérience effectuée alors : demander à un pianiste de jouer une gamme à différents tempos, puis relever sur le sonogramme les déviations rythmiques en comparaison d’une division (théorique) strictement égale du temps. Le diagramme résultant fait évidemment apparaître une aspérité notable -- la hantise de tout pianiste -- due au fatidique «passage du pouce». On peut néanmoins regretter que l’auteur n’ait pas ici tenté d’aller plus loin, par exemple en appliquant une analyse similaire aux variations dans l’intensité sonore des différentes notes.
Il est, pour un musicien, toujours amusant de voir combien les études ayant trait à la composition ou à l’exécution instrumentale, procèdent souvent d’un biais lié à la spécialisation scientifique de chaque chercheur : un statisticien parlera d’une partition en termes stochastiques et en chaînes de Markov, un programmeur en intelligence artificielle modélisera les règles harmoniques sous forme d’algorithmes, un cybernéticien tentera de fabriquer des contrôles d’instruments robotisés, etc. Et c’est là que le présent article perd, peut-être, de son intérêt : il ne tient aucun compte de l’aspect profondément affectif et singulier que revêt pour un instrumentiste le choix de ses doigtés, dans lesquels entre généralement des problématiques complexes justifiables (pas toujours) par des contraintes d’exécution, par des filiations esthétiques, par un confort et un ressenti personnel. De ce point de vue, prétendre aborder «la musique» sous forme de gammes supposées parfaitement égales, ou prétendre être en mesure de déterminer «le» doigté adéquat, ne peut trahir qu’une profonde méconnaissance des réalités de la pratique artistique.
Un petit tour sur le Web, d’ailleurs, achève de nous décevoir quant à la profondeur d’analyse (ou son absence) de Matthias Robine, qui (comme beaucoup d’universitaires, particulièrement dans les domaines pseudo-musicaux) semble avoir poursuivi son parcours ces dernières années en créant une entreprise remplie de bon gros buzzwords bien creux.