Toujours à l’affût, Martin Granger nous signale à l’instant cette expérience menée en ce moment par le site Flow Machines (façade ''trendy'' du laboratoire privé Sony CSL Paris, dirigé par François Parchet).
Dans ce test «à l’aveugle», le visiteur/auditeur est invité à écouter un fragment de choral de Bach et à estimer s’il est authentique ou non : à savoir, s’il a bien été écrit par le maître baroque, ou par une «Intelligence Artificielle». Derrière ce terme pompeux (que nous avons eu l’occasion de critiquer) se cache en fait l’un des nombreux algorithmes propriétaires actuellement développés par les acteurs industriels (Sony, en l’occurrence), affublés chacun de noms tous plus ''marketables'' les uns que les autres : ''Continuator'', ''Brazyle'', ''NeOpus'', ''Virtuoso'', ''MusicSpace'', ''VirtualBand'', ''Lrn2Cre8'' et l’on en passe.
Dans un tel cadre, s’agit-il vraiment d’une expérience à valeur scientifique, ou d’un gadget "viral" à emballage vaguement musical (dont nous savons que les publicitaires raffolent) ? S’il est vrai que l’expérience est en elle-même intéressante (quoique rudimentaire) et qu’aucune marque ni logo d’entreprise n’apparaît sur la page en question, le fait même que cette confusion puisse exister n’est pas sans affecter la crédibilité de l’initiative... et nous amener à nous demander, par exemple, pourquoi le visiteur souhaitant se prêter à l’expérience est obligé de fournir un nom et une adresse mail.
Il existe même un niveau supérieur d’ambiguïté : à supposer que l’on parvienne effectivement à réduire l’écriture de Bach (ou de tout autre compositeur) à un ensemble d’algorithmes, quel serait alors le statut de ce programme ? Serait-il légitime de revendiquer un copyright (ou, pire, un brevet) dessus (voire, cela s’est déjà vu, sur les ''œuvres'' en résultant) ? Et quid alors du langage de l’auteur d’origine, ou pire, des compositeurs et élèves qui encore aujourd’hui l’imitent et s’y réfèrent : ne seraient-ils pas en situation de ''copyvio'' involontaire quoiqu’inévitable ?
Quant à ces algorithmes proclamés «intelligents», quel est vraiment leur degré de sophistication ? Dans l’impossibilité de le savoir (faute de code source accessible), nous ne pouvons que poser l’hypothèse que ces systèmes prétendument révolutionnaires ne font que suivre le chemin emprunté depuis dix ans (sous licence Libre) par Strasheela et bien d’autres -- ou même, deux siècles plus tôt, par un simple jeu de dés.
Charles Darwin est l’un des premiers savants à s’être penché, dès 1871 (dans La Filiation de l’Homme, son deuxième ouvrage majeur après L’Origine des espèces), sur l’apparition de la musique dans l’espèce humaine -- un siècle après Rousseau, qui aimait à s’interroger (comme nous l’avons vu sur l’hypothèse d’une «mélodie» primordiale ayant pu précéder toute civilisation humaine. Darwin, pour sa part, imagine que le chant aurait pu participer, comme chez l’oiseau, d’un rituel de séduction et constituer par là un avantage reproductif. Ce champ d’étude restera peu ou prou en sommeil pendant le XXe siècle, jusqu’à la publication en 2001 du recueil trans-disciplinaire The Origins of Music, où se trouvent réunis des archéologues, anthropologues, chercheurs en neuro-sciences, qui chacun proposent d’autres facteurs ayant pu contribuer à l’avènement de l’Homo cantans : en particulier, la dimension sociale de cette activité, augmentant la cohésion du groupe et par là sa capacité de survie, ou encore répercutant et amplifiant les premiers moments de la vie, structurés par le lien entre la mère et son enfant (l’éthologue Ellen Dissanayake y voit la source de tout devenir expressif, qu’il soit linguistique ou artistique). Dix ans plus tard, l’ethnomusicologue Joseph Jordania récapitule très clairement l’état actuel de la recherche dans son livre magistral Why Do People Sing? (disponible intégralement en ligne, et à lire de toute urgence avant que les robots du copyright ne fassent leur sinistre moisson).
Appréhender avec certitude une chronologie de l’évolution de la communication humaine est quasiment impossible ; tout au plus les chercheurs peuvent-ils poser l’hypothèse que le langage était déjà apparu vers le 50 ou 60e millénaire avant l’Ère commune -- après un processus de formation qui aurait lui-même pu s’étaler sur plusieurs centaines de milliers d’années. Quant à savoir si l’acquisition du chant précède ou accompagne celle du langage parlé, cette question reste ouverte.
L’avènement d’une musique instrumentale est aujourd’hui un peu mieux connu grâce aux découvertes paléontologiques faites depuis le début du XXe siècle, et tout particulièrement ces vingt dernières années. En 1995, un fragment d’os découvert dans grotte de Divje Babe en Slovénie, suscite une controverse déchaînée -- malgré sa forme évoquant incontestablement une flûte. (Un ethnomusicologue de Berkeley, Bob Fink, ira même jusqu’à spéculer que l’emplacement des trous traduirait l’emploi d’une gamme diatonique...) Ce fragment a été daté d’au moins 43 millénaires avant l’Ère Commune, ce qui en fait l’instrument le plus ancien connu -- mais également le seul pouvant être associé à l’homo neanderthalensis. Des découvertes plus récentes, en 2008 puis en 2012, ont permis de montrer qu’il existait en Allemagne d’autres flûtes aussi anciennes (de 35 à 42 millénaires avant l’Ère Commune)... ce qui n’empêche pas certains chercheurs de persister dans leur contestation du fragment slovène. Diverses reconstitutions ont été proposées de ces flûtes.
Au delà des flûtes et sifflets, cette période de l’ère paléolithique supérieure (correspondant à la civilisation aurignacienne) est plus largement connue pour ses grottes aménagées et décorées, dont certains chercheurs se demandent si l’acoustique n’était pas une caractéristique majeure et volontairement recherchée par leurs habitants -- ce qui pourrait même contribuer à expliquer la présence de peintures rupestres, qui permettent une meilleure réverbération du son. S’ajoutant à notre compréhension croissante des «pierres chantantes» et lithophones préhistoriques (que nous avions mentionnés précédemment), l’on pourrait bien assister à l’émergence d’un véritable champ de recherche archéoacoustique.
Du reste, les groupes de recherches trans-disciplinaires et internationaux abondent (où la France semble d’ailleurs remarquablement peu représentée) : International Study Group on Music Archæology, International Council for Traditional Music Study Group, European Music Archæology Project. Ce dernier regroupement propose d’ailleurs, depuis juin 2016, une exposition intitulée Archæomusica, qui sera visible dans divers pays d’Europe -- mais non la France -- jusqu’à fin 2017, et où l’on peut voir (et même tester soi-même) plusieurs reconstitutions d’instruments, non limitées à l’ère paléolithique.
Il n’empêche que nous n’avons -- et n’aurons certainement jamais -- strictement pas la moindre idée de ce à quoi pouvaient ressembler ces musiques. Tout au plus les quelques traces connues suffisent-elles à susciter l’imagination, et la rêverie ; ainsi, la «sagesse des anciens», notamment en matière de musique, reste un sujet de choix pour les sites de pseudoscience plus ou moins farfelus. (Plutôt plus que moins, à vrai dire.)
Le sifflement est un mode de communication méconnu mais particulièrement intéressant, utilisé par les habitants de certains villages un peu partout dans le monde (particulièrement dans les espaces montagneux, où il était nécessaire de pouvoir transmettre des messages d’un versant à l’autre d’une même vallée avant l’avènement des communications électroniques). Le site Le Monde siffle, animé par le chercheur français Julien Meyer (auteur d’une monographie et de nombreuses publications sur le sujet), recense plus de 60 langues sifflées sur tous les continents ; l’on peut également se référer à la page Wikipédia anglophone, quoique moins complète.
Si les langues sifflées sont connues et répertoriées depuis le XVe siècle au moins, ce n’est qu’au XXe siècle qu’elles commencent à être étudiées : une première description de l’anthropologue Joseph Lajard sur «le langage sifflé des Canaries» en 1891 sera suivie par les travaux de Georges Cowan sur les indiens mazatèques du Mexique en 1948, auxquels s’ajouteront d’autres descriptions des indiens Kickapoo en 1954 et 1968 (cette tribu située entre le Texas et le Mexique ayant la particularité d’utiliser parfois des flûtes en plus du sifflement).
En Europe, les études essentielles sont surtout celles, à partir des années 1960, de René-Guy Busnel sur les Pyrénées puis la Turquie. Les langues sifflées font, depuis lors, le bonheur des linguistes puis des psycho-acousticiens et des neurosciences cognitives (la compréhension d’une langue sifflée mettant en jeu différemment ou non le rapport asymétrique entre les deux hémisphères du cerveau). Malheureusement, cette époque est également celle qui voit disparaître beaucoup de ces langues, sous l’effet cumulé de l’exode rural et de la révolution des télécommunications ; ainsi, la seule langue sifflée de France (ici et ici en vidéo), à Aas dans le Béarn, est aujourd’hui perdue ; celle du village d’Antia sur l’île d’Eubée en Grèce semble condamnée, et l’Unesco a été conduite à protéger en 2009 celle de l’île de Gomera, dans les Canaries, afin qu’elle ne connaisse pas le même sort.
Ce dernier cas, le Silbo de la Gomera, est certainement le plus étudié. Comme toutes les langues sifflées non-tonales, il ne s’agit pas d’une langue à proprement parler (pourvue d’un vocabulaire et d’une syntaxe propres) mais d’une façon de prononcer le langage oral existant (en l’occurrence, l’espagnol), une transphonation pourrait-on dire, ou plus exactement une trans-tonation dans la mesure où les sons-voyelles sont restitués plus aisément (en reproduisant leur deuxième formant) que les sons-consonnes, traduits par des interruptions et accentuations dans le dessin mélodique. De fait, même l’auditeur inexpérimenté peut reconnaître, au bout d’un moment, certaines inflexions de la langue-souche (l’espagnol dans le cas du silbo), pour peu que l’on juxtapose la version orale et la version sifflée. (De ce fait, l’auditeur reconstruit a posteriori les mots employés et le sens du discours, tout comme dans l’expérience Sine-Wave Speech consistant à transformer de la voix parlée en ondes sinusoïdales.) L’on peut donc décrire ce procédé comme une "parole musicale" (musical speech), ou comme un "substitut de parole" (speech surrogate), tout comme il en existe d’autres mettant en œuvre des instruments (flûtes, luths ou tambours) et sur lesquels nous serons amenés à revenir un jour prochain.
Il en résulte un objet musical étonnant et d’une grande beauté, qui n’est pas sans évoquer certains chants d’oiseaux -- même si les langues sifflées ne cherchent pas, historiquement, à imiter les oiseaux mais semblent chacune avoir été inventées de façon entièrement autonome (et assez récemment : certaines n’existeraient que depuis le début du XXe siècle) à partir des sifflements utilisés par les bergers pour rassembler leurs troupeaux.
Plusieurs régions du Mexique gardent des traces de langues sifflées tonales, plus complexes et ne correspondant pas forcément à un langage parlé (et dont la pratique est souvent réservée aux hommes) ; un documentaire américain en présente quelques exemples. Le sifflement joue également un rôle dans la culture traditionnelle Hmong, où il est employé pour séduire (mais où une superstition interdit par ailleurs de siffler la nuit).
Une forme particulière -- et beaucoup plus ancienne -- de langue sifflée, est à trouver dans le sifflement transcendental utilisé par les moines chinois depuis au moins le XIe siècle avant l’Ère Commune, et sous diverses formes successives tout au long du premier millénaire de l’Ère Commune. Cette tradition ésotérique quoiqu’abondamment documentée trouve ses racines dans les fondements même du taoïsme, où le souffle est un élément symbolique majeur reliant l’homme à la nature. (Ou quelque chose comme ça.)
L’usage purement musical du sifflement est connu et répandu, à la fois emblème kitsch (cette émission de 1984 en est un meme exemplaire) et gimmick inusable : comme le remarque un listicle de 2011, de nombreuses chansons à la mode incluent une ritournelle simplement sifflotée. Cette pratique s’étend notamment à la France (ce beau Pays Libre™ où l’on peut, par ailleurs, avoir la joie de se faire défoncer pour avoir sifflé l’Internationale, ou pour avoir sifflé pendant la Marseillaise).
L’on n’y connaît guère, cependant, la «flûte de mains» (hand flute) consistant à disposer ses mains devant la bouche pour former une cavité dans laquelle l’on peut souffler comme dans un ocarina (ou une conque), et qui permet de disposer d’un véritable instrument de musique, riche et expressif -- pour ne rien dire de son prix éminemment abordable. Deux techniques existent, selon que les doigts sont croisés ou non (dans le deuxième cas, la tessiture est plus grave et plus restreinte). Pour peu que l’on s’y penche sérieusement, de grandes choses sont à inventer pour cet ocarina bimane.
Enfin, le sifflement le plus connu et sans doute le plus pratiqué en occident, est certainement le «sifflement du loup» (wolf-whistling, interprété littéralement par Tex Avery en 1943), qui se fait en deux glissandos ascendants (le deuxième généralement plus bas). Selon une hypothèse séduisante, ce sifflement trouverait son origine dans la marine, où le bosco utilise son sifflet pour transmettre des ordres à l’équipage : les deux coups ascendants constituent l’appel à tous et auraient donc été utilisés par les marins à terre pour attirer l’attention de leurs collègues sur telle passante aux alentours. De fait, la mode de ce sifflement semble concorder avec le déploiement de l’armée américaine pendant la seconde guerre mondiale : outre le dessin animé déjà mentionné, l’on se doit évidemment de citer ici la scène du film To Have and Have Not (Le port de l’angoisse, 1944) qui scella le destin partagé de Lauren Bacall et Humphrey Bogart : en mémoire de cette scène, ce dernier offrit à l’actrice un sifflet d’or, qu’elle déposa parmi les cendres de Bogart après son décès treize ans plus tard.
D’un autre côté, le sifflement servait déjà de langage codé à diverses corporations : dès sa publication de 1891 précitée, le français Joseph Lajard comparait le silbo des îles Canaries aux sifflements servant de moyen de communication, dans sa propre patrie, aux charpentiers, aux maçons ou encore aux maraudeurs et repris de justice. Il se peut donc que le «sifflement du loup» ne soit qu’un avatar de cet héritage ; dans une explication comme dans l’autre, nous avons affaire, de toute façon, à un langage porteur de sens.
Les autorités ne s’y trompent d’ailleurs pas, qui envisagent gravement d’interdire cette pratique, assimilée à du harcèlement sexuel -- de fait, le récent succès médiatique de l’expression «harcèlement de rue» montre combien l’Europe se montre empressée à importer des États-Unis une idéologie de la microagression selon laquelle le ressenti des «victimes» importe davantage que la dangerosité objective des faits. (Laquelle «objectivité» étant, il est vrai, trop longtemps restée synonyme de «point de vue de l’homme-blanc-hétérosexuel-aisé».)
Et si l’on exilait les siffleurs ? Sur l’île d’Eubée ou de Gomera, des villages ne demandent qu’à être repeuplés...
Depuis les années 1970, les travaux de la chercheuse américaine Diana Deutsch (née en 1938), spécialiste en psychologie de la perception, ont mis en évidence d’intéressantes particularités de notre façon d’appréhender les phénomènes sonores. Ces illusions auditives trahissent les structures cérébrales (purement neurologiques, mais dans lesquelles entre parfois aussi un facteur culturel et linguistique) qui construisent du sens à partir de sons perçus, et les organisent en tant que langage verbal ou musical.
Au-delà du champ de recherche privilégié que constituent ces découvertes, il reste encore aux musiciens et compositeurs à s’en saisir. Le ponte électro-acousticien français Jean-Claude Risset (également né en 1938) s’y est notamment employé dès la fin des années 1960 -- souvent avec bonheur, quoique dans un langage aujourd’hui fortement daté. Toutefois, il n’est pas avéré à ce jour qu’elles puissent donner lieu à une orientation artistique et expressive : à supposer qu’elle existe, celle-ci reste à explorer.
Dans son essai Prosodia Rationalis (rédigé en 1775 puis révisé en 1779), l’écrivain et homme politique anglais Joshua Steele se propose d’«établir la mélodie et la métrique du langage parlé, en l’exprimant et en la transmettant par des symboles spécifiques».
Audacieuse et construite très rationnellement, son approche part de la notation musicale classique pour conclure rapidement à son insuffisance en matière de voix parlée, et procède alors à l’élaboration d’un nouveau système de notation pouvant exprimer à la fois les variations de hauteur (y compris au sein d’une même syllabe), de durée, et d’intensité.
L’influence du discours oral sur la musique n’est évidemment plus à démontrer : de la prosodie scandée antique au rap/slam en passant par le Sprechgesang ou encore la speech melody de Steve Reich, la voix parlée est un matériau essentiel à bien des langages musicaux anciens et contemporains. (Il faut à ce titre mentionner également les langues de communication employant des moyens musicaux, telles les langues sifflées ou les tambours parlants d’Afrique de l’Ouest.) Parallèlement, les chercheurs en phonétique n’ont de cesse de s’interroger sur les inflexions de la voix, propres à telle langue, à telle expression ou encore à tel milieu social -- et pour quelques compositeurs/acousticiens hautement spécialisés dans la décomposition des formants de la voix humaine, les deux démarches scientifique et artistique peuvent parfois converger.
De fait : bien avant l’avènement des sciences du langage, des sciences humaines et du structuralisme, Steele crée un pont extrêmement original entre la musique savante, qui constitue son arrière-plan culturel, et ce qui allait devenir la linguistique. L’aspect anthropologique et la comparaison de langues différentes ne semble pas faire partie de sa démarche (ce qui aurait pourtant pu être possible étant donné sa curiosité envers les hommes de toutes origines) ; cependant il témoigne d’une grande finesse pour analyser l’intonation de nombreuses phrases anglaises, issues notamment de sermons religieux, ou même... de son propre texte, donnant ainsi lieu à une forme de méta-sémiotique remarquable par sa modernité.
Curieux personnage que David Teie. Ce musicien américain accompli, chanteur, brillant violoncelliste (aussi bien en orchestre qu’en soliste), s’est aussi essayé à la composition (il est l’auteur de plusieurs pièces symphoniques et concertos, après avoir étudié notamment avec Corigliano), et a même pris part à des concerts de rock (avec Metallica puis Echobrain)... avant de s’improviser chercheur dans un domaine jusqu’alors totalement ignoré par la science : l’influence de la musique sur les différentes espèces animales.
L’hypothèse de Teie est simple, mais touche à l’essence même de la musique : selon lui, ce qui rend un stimulus auditif agréable à écouter, résulte, d’une part, de l’adéquation de ce son à l’appareil auditif propre à l’auditeur, d’autre part au souvenir, même inconscient, de sons entendus au tout début de son existence. Ainsi, les perceptions intra-utérines façonneraient le style de musique préféré chez l’être humain : instruments reproduisant les fréquences proches de la voix parlée (notamment la voix maternelle), tempo se rapprochant de la vitesse des battements cardiaques entendus par le fœtus, etc.
Il deviendrait alors possible, postule Teie, d’élaborer à partir de ces deux préceptes un langage musical adapté à d’autres espèces animales. Ce sera l’objet d’une première étude réalisée en 2010 avec le spécialiste des singes tamarins Charles Snowdon. Pour s’adresser à un public plus large, Teie se tourne ensuite vers des animaux plus familiers : les chats. Outre son approche scientifique (qui fait l’objet d’une nouvelle publication par la société d’éthologie appliquée), Teie cherche maintenant à commercialiser sa musique avec son site Web Music for Cats, une impeccable vidéo promotionnelle, impliquant très intelligemment quelques chats déjà rendus célèbres sur YouTube, et une campagne d’appel aux dons qui a récolté les vingt mille dollars escomptés en deux jours seulement, et a même dépassé deux cent quarante mille dollars en un mois.
À quoi ressemblent ces objets musicaux ? Tout d’abord, il faut noter que c’est bien de musique que nous devons parler : avec beaucoup de clairvoyance, Teie a compris qu’il s’adressait aussi (voire avant tout) aux humains se trouvant en compagnie de félins. (Exactement comme les "psys" spécialisés pour animaux s’intéressent en réalité souvent à la relation entre l’animal et son maître -- et l’on peut d’ailleurs constater que David Teie fait l’objet des mêmes moqueries que ces psycho-éthologues comportementaliste.)
À ce titre, il sous-tend son discours de couleurs harmoniques assez riches et renouvelées (dans une temporalité très étirée qui évoque les compositeurs américains dans le sillage de Feldman), et le parsème de quelques interventions mélodiques instrumentales manifestement destinées à une oreille humaine. La partie plus spécifiquement féline (qui s’intègre de façon organique et assez réussie avec le reste du discouts) repose sur des textures sonores (synthétiques) évoquant divers bruits naturels : ronronnement, chants d’oiseaux. Au-delà de son succès commercial et médiatique, l’ensemble est plaisant (y compris, semble-t-il, pour les chats) et donne l’impression d’avoir été élaboré avec beaucoup de soin et d’honnêteté -- même si le sérieux de la démarche et de son assise scientifique, reste à établir.
À travers cette musique étonnante et, d’une certaine façon, envoûtante, David Teie propose de réexaminer, même d’une façon peut-être ici idéaliste ou naïve, simpliste ou maladroite, la musique dans son état le plus élémentaire : celui de phénomène sonore et de perception psycho-acoustique. Grâce au choix d’une musique pour les chats, il invite aussi à retrouver la musique en tant qu’objet de partage et de lien affectif. Une démarche attachante... et peut-être plus profonde qu’il n’y paraît ?
Le projet Longplayer se présente comme une œuvre musicale dont l’exécution est prévue pour durer exactement 1000 ans. Commandée à Jem Finer, musicien anglais issu de la culture folk-rock (on lui doit notamment une «symphonie» pour sonneries de téléphones portables), elle fut officiellement présentée au public à partir du 1er janvier 2000, et semble ainsi s’inscrire dans une certaine vogue d’évènements musicaux «en temps réel», constituant autant de tentatives de coups médiatiques à la fin des années 1990 (l’on peut ainsi penser, en France, à la pièce Éclipse d’Éric Tanguy dont la création télévisée eut lieu pendant l’éclipse solaire de 1999, ou au Concert-Match de René Koering lors de la finale d’une coupe de football en 1998).
Longplayer (dont l’interprétation par des moyens synthétiques peut être écoutée en direct sur le Web) consiste en un matériau sonore limité, d’une durée initiale de 20 minutes et 20 secondes, et ensuite inlassablement recombiné de millions de façons différentes. Certes, des pratiques musicales anciennes (notamment en Inde) ou récentes (l’école dite «minimaliste» ou «répétitive») nous enseignent qu’une musique de pure trame peut également être intéressante ou expressive de par son aspect envoûtant ou hypnotique. Mais peut-on vraiment parler, dans le cas de Longplayer, d’œuvre musicale ? Cet objet sonore (dans lequel il serait assez difficile d’identifier une écriture, même fragmentaire, que ce soit en matière de rythmes ou de notes) se distingue par l’homogénéité de sa texture, faite d’enregistrements d’idiophones à connotation exotique (gongs tibétains). Son discours en trame évoque plutôt un arrière-plan sonore, une musique d’ambiance, dépaysante quoiqu’indéfinissable ; c’est en vain que l’on y chercherait, par exemple, des évènements marquants, des épisodes inattendus ou toute notion de progression dramatique.
Si Longplayer repose sur une approche combinatoire plutôt que strictement répétitive, tel n’est pas le cas d’autres partitions délibérément très longues : ainsi de Vexations d’Erik Satie, écrit (probablement) en 1893 suivant sa rupture avec Suzanne Valadon, qui consiste en une séquence (d’écriture passablement tortueuse) devant être répétée 840 fois. Selon le tempo adopté, l’exécution peut durer de 18 à 35 heures ; il n’est pas anodin de savoir que c’est John Cage qui, en 1963, initia la première représentation publique de cette œuvre ; à sa demande, le billet d’entrée était remboursé aux spectateurs qui restaient jusqu’au bout (à l’issue de la représentation, un spectateur facétieux réclama un bis).
De telles représentations (qui tiennent plus de la performance que du concert, et de l’art conceptuel que de la musique dans son sens communément admis) invitent évidemment à réévaluer le rapport entre l’auditeur et l’interprète (et entre l’interprète et le compositeur : Satie indique que l’on doit «se jouer» sa partition 840 fois, et s’y préparer «par des immobilités sérieuses»), et invite à une réflexion sur le déroulement du temps. Ces deux questions sont au centre de la célèbre pièce de John Cage, 4’33’’ (constituée entièrement de silence, les seuls bruits étant ceux provoqués involontairement ou volontairement par le public), conçue en 1952.
Le même John Cage, dans les années 1980, revient sur ces problématiques sous un angle différent avec sa partition As Slow As Possible («aussi lentement que possible»), jouée au piano en 20 minutes (lors de sa création) puis en plus de 70 minutes lors d’une représentation ultérieure. Son adaptation pour orgue, intitulée Organ²/ASLSP, est en cours de représentation dans une église d’Allemagne depuis septembre 2001 (la première note ne s’est toutefois fait entendre que dix-sept mois plus tard, la partition commençant par un silence). Cette représentation devrait se terminer en septembre 2640 ; le dernier changement de note a eu lieu en 2013, et l’on attend actuellement avec excitation la prochaine note, prévue pour 2020. Comme dans le cas de Longplayer, le public est encouragé à s’interroger sur cette curiosité, voire à se l’approprier : outre la possibilité (plus concrète que pour une œuvre entièrement dématérialisée comme Longplayer) d’assister à la représentation, le site Web de l’opération propose d’écouter en direct la note actuellement jouée, et même de réserver ses places pour le prochain changement de note.
Cette idée met en jeu non seulement une temporalité très longue et très lente, qui oblige à envisager le temps au-delà du rythme d’une vie humaine, mais également (c’est là sa différence avec Longplayer la présence d’échéances plus ou moins lointaines : ainsi, le geste musical banal qui consiste à passer d’une note à une autre se voit chargé d’un sens tout autre. On peut rapprocher ces initiatives de la célèbre expérience de la goutte de mélasse en cours dans diverses universités dans le monde (où une substance extrêmement visqueuse s’écoule au rythme d’une goutte tous les 10 ou 15 ans), et qui a notamment inspiré l’écrivain Frédéric Forte, membre de l’Oulipo.
Cette contribution du chercheur Matthias Robine au colloque J.I.M. 2007 (journées d’informatique musicale, organisées par le Grame) se penche sur les choix des pianistes en matière de doigtés, et sur le lien entre le jeu instrumental pris comme suite de mouvements bio-mécaniques, et son résultat sonore. Comment déterminer algorithmiquement le meilleur doigté pour une partition donnée ? Et à l’inverse, comment reconstituer, à partir d’un enregistrement sonore, quels doigtés ont été employés par l’interprète ?
L’auteur convoque ici certaines références essentielles en matière de recherche bio-mécanique portant sur la main du pianiste, à commencer par les travaux d’Otto Ortmann (1889-1979) qui fait figure de pionnier avec son ouvrage Physiological Mechanics of Piano Technique paru en 1929. (Le présent article inclut notamment, figure 3a, une photographie fascinante suivant une lumière attachée aux doigts d’un pianiste.) Cet article évoque également l’étude essentielle de Christine McKenzie et Dwayne Van Eerd, Rhythmic precision in the performance of piano scales (parue en 1990), et reproduit l’expérience effectuée alors : demander à un pianiste de jouer une gamme à différents tempos, puis relever sur le sonogramme les déviations rythmiques en comparaison d’une division (théorique) strictement égale du temps. Le diagramme résultant fait évidemment apparaître une aspérité notable -- la hantise de tout pianiste -- due au fatidique «passage du pouce». On peut néanmoins regretter que l’auteur n’ait pas ici tenté d’aller plus loin, par exemple en appliquant une analyse similaire aux variations dans l’intensité sonore des différentes notes.
Il est, pour un musicien, toujours amusant de voir combien les études ayant trait à la composition ou à l’exécution instrumentale, procèdent souvent d’un biais lié à la spécialisation scientifique de chaque chercheur : un statisticien parlera d’une partition en termes stochastiques et en chaînes de Markov, un programmeur en intelligence artificielle modélisera les règles harmoniques sous forme d’algorithmes, un cybernéticien tentera de fabriquer des contrôles d’instruments robotisés, etc. Et c’est là que le présent article perd, peut-être, de son intérêt : il ne tient aucun compte de l’aspect profondément affectif et singulier que revêt pour un instrumentiste le choix de ses doigtés, dans lesquels entre généralement des problématiques complexes justifiables (pas toujours) par des contraintes d’exécution, par des filiations esthétiques, par un confort et un ressenti personnel. De ce point de vue, prétendre aborder «la musique» sous forme de gammes supposées parfaitement égales, ou prétendre être en mesure de déterminer «le» doigté adéquat, ne peut trahir qu’une profonde méconnaissance des réalités de la pratique artistique.
Un petit tour sur le Web, d’ailleurs, achève de nous décevoir quant à la profondeur d’analyse (ou son absence) de Matthias Robine, qui (comme beaucoup d’universitaires, particulièrement dans les domaines pseudo-musicaux) semble avoir poursuivi son parcours ces dernières années en créant une entreprise remplie de bon gros buzzwords bien creux.
Parce qu’un peu d’auto-promotion ne nuit pas, nous signalons ici cet article déjà ancien (écrit en 2008, soit avant le lancement de l’Oumupo actuel, par l’auteur de la présente page de liens), consacré à la Composition Algorithmique -- sous l’angle plus spécifique des logiciels Libres.
Outre une description (faussement naïve) de l’état du champ à l’époque, ce compte-rendu (ici traduit de l’anglais) inclut quelques témoignages de compositeurs et programmeurs, et un test sommaire de certains logiciels disponibles, encore actifs aujourd’hui pour la plupart.
Comme souvent, l’article en lui-même importe moins que les nombreux liens qu’il contient. Pour n’en citer que quelques-uns (tous en langue anglaise) :
-
cet article récapitule le fonctionnement de l’ordinateur GENIAC qui, dans les années 1950, fut l’un des premiers à "créer" de la musique (même si Ada Lovelace en avait eu l’intuition un siècle auparavant) : http://www.jfsowa.com/misc/compose.htm
-
à la fin des années 1980, cet article fait le point sur les avancées en matière de composition (notamment imitative) par des programmes et algorithmes : http://www.nytimes.com/1989/01/22/nyregion/music-bach-versus-computer.html
-
quelques années plus tard, cet article s’interroge sur l’utilité de l’ordinateur au service de l’imagination artistique et soulève notamment la question de l’originalité humaine : http://www.ece.umd.edu/~blj/algorithmic_composition/algorithmicmodel.html
-
Ce compte-rendu daté de 2001 met en regard la composition algorithmique et la quête d’une Intelligence Artificielle (au moment même où l’humanité commence à se détourner de l’intelligence artificielle à proprement parler, et cesse de se passionner pour les compétitions d’échecs opposant Grands Maîtres humains et programmes informatiques) : http://www.kurzweilai.net/the-age-of-intelligent-machines-artificial-intelligence-and-musical-composition
À l’automne 2015, ce clip vidéo (sobrement) intitulé «Menuet de l’extrême : l’orchestre le plus rapide du monde» présente en grande pompe une mélodie de Mozart tirée du troisième mouvement du Divertimento n°17 pour cordes et deux cors kv334, (censément) jouée par une succession de pièces de monnaies lancées dans différents béchers en verre plus ou moins remplis pour émettre des hauteurs pré-établies.
Cette séquence met en œuvre trois ingrédients éprouvés des vidéos que l’on dit «virales» (en ce qu’elles sont supposées pousser ceux qui les voient à les faire immédiatement connaître à d’autres -- ce que nous sommes précisément en train de faire ici, à notre corps défendant) :
- L’alibi scientifique-expérimental, dûment souligné par un tableau noir, des écrans d’ordinateur couverts de code abscons, des modélisations en trois dimensions, et de prétendus chercheurs en blouse blanche comme dans la célèbre expérience Mentos et Coca-Cola
- L’aspect de performance musicale inattendue, comme dans une vidéo (probablement tout aussi falsifiée) du groupe "Ok Go"
- Le ralenti extrême, comme dans les vidéos du compte "Slow Mo Guys"
Cette conjonction ne doit rien au hasard, mais relève d’un calcul efficace : en effet, il s’agit là d’une opération publicitaire pour l’immense groupe industriel japonais Suntory, l’un des plus gros vendeurs de spiritueux et de sodas dans le monde entier. Le nom du produit, ni même du fabricant, n’apparaît que très discrètement à la toute fin de la vidéo (et sur le site http://集中.jp/ en lien dans la "description" sur YouTube, présentant diverses curiosités scientifiques dans un graphisme outrageusement flashy) : l’ultime secret d’une campagne efficace. (La firme Suntory est d’ailleurs réputée pour son sens de la publicité, comme en témoigne une scène mémorable du film «Lost In Translation».)
Intéressons-nous cependant au dernier point mentionné dans cette "description" :
▼ Mozart’s “Minuet” Heightens Concentration [Song: “Minuet” by Mozart (1759~1791)] According to research by Kyoto University and Harvard University, regardless of age, listening to Mozart’s “Minuet” will heighten concentration.
Cet encart nous informe que la "chanson" (song) utilisée dans la vidéo s’intitule "Menuet" ; c’est d’ailleurs, tout simplement , le menuet de Mozart («Mozart’s Minuet»). Ce qui ne laisse pas d’intriguer : non seulement il existe dans l’œuvre de Mozart des centaines de menuets (qu’ils soient ou non explicitement intitulés comme tels), mais le menuet en question n’est pas écrit pour piano comme on peut l’entendre au début de la vidéo, et n’est pas non plus en Ut Majeur comme on nous le donne ici à voir ! (Et encore, l’on passera charitablement sur le fait de désigner comme "chanson" une pièce purement instrumentale, ou comme "orchestre" un ensemble sonore entièrement monodique.)
La phrase suivante est traduite en "Engrish" (c’est-à-dire un anglais approximatif et calqué sur une syntaxe japonaise) : «D’après une recherche par l’Université de Kyoto et l’Université de Harvard, quel que soit l’âge, écouter le "Menuet" de Mozart augmentera la concentration.»
L’étude en question, signée de Nobuo Masataka et Leonid Perlovsky (chercheurs respectivement à Kyoto et Harvard) est parue sur le site Scientific Reports en juin 2013, après une première étude similaire publiée en septembre 2012. (Cette publication fait théoriquement l’objet d’un «peer review», même si sa validité scientifique et déontologique a récemment été remise en question.)
Le principe de ces deux études est de mettre des sujets en situation de dissonance cognitive (par exemple, devoir ranger des cubes verts sur lesquels il est écrit le mot "rouge"), et de déterminer si la présence d’un fond musical réputé consonant contribue à améliorer le temps de réaction et à réduire le taux d’erreurs.
Dans la première étude, des enfants de quatre ans sont exposés à la Sonate pour deux pianos kv448 et au Concerto pour piano kv488. Dans la deuxième étude, à laquelle fait allusion la publicité Suntory, il s’agit de sujets de 8-9 ans et de 65 à 75 ans ("regardless of age", à condition d’ignorer tout ce qu’il y a entre 10 et 65 ans...) exposés à un Menuet -- non pas le premier menuet du Divertimento kv334, mais le trio en Do Majeur kv1(f) pour clavecin (attribué à W.A. Mozart à l’âge de 8 ans quoique très probablement rédigé en partie par son père).
Le protocole expérimental est ici modifié afin de comparer les effets de cette musique réputée consonante (dans laquelle, nous disent les chercheurs, seulement trois intervalles de triton sont dissonants) à ceux d’une musique dissonante : en l’occurrence, une version modifiée du même Menuet dans laquelle les notes Sol et Ré sont abaissées d’un demi-ton (créant ainsi, toujours selon les chercheurs, pas moins de 21 intervalles dissonants : tritons et neuvièmes mineures).
Ces études, cependant, frappent par leur accumulation de présupposés culturels et conceptuels. Notons, par exemple, que ni le choix du compositeur ni celui des œuvres ne font l’objet de la moindre justification : apparemment dans le monde scientifique, il suffit de dire "c’est du Mozart" pour que tout le monde considère comme une évidence qu’il doive s’agir de la musique la plus consonante possible. (Manifestement, personne n’a jugé bon de leur faire écouter le quatuor kv465...) Ces travaux s’inscrivent ainsi dans un corpus interminable d’études sur un hypothétique impact neurologique de la musique de Mozart, à tel point que l’on a même pu parler (non sans une épaisse couche de mauvaise foi) d’«effet Mozart».
Cette dichotomie même de consonance/dissonance ne fait l’objet d’aucune définition -- or nous savons depuis (au moins) les travaux de Helmholtz au XIXe siècle, qu’exceptée l’octave juste (et éventuellement quelques quintes selon le tempérament), aucun intervalle considéré comme «consonant» dans les langages harmoniques occidentaux, ne repose sur une l’exactitude d’un phénomène psycho-acoustique : la consonance "idéale" est une pure construction culturelle -- or les chercheurs ignorent ici l’éventuelle (et quasi-certaine) influence d’un imaginaire musical pré-existant et partagé inconsciemment par les sujets de l’expérience (y compris les jeunes enfants de huit ans).
Du reste, même à supposer que certains intervalles soient intrinsèquement perçus comme consonants ou dissonants, réduire le discours musical à un ensemble d’intervalles sans tenir compte ni de leur succession (et en particulier de la progression dramatique et des gestes de tension-résolution), ni des mouvements mélodiques (les intervalles entre deux notes consécutives plutôt que simultanées), ni de la construction des phrases. Prenant le parti d’ignorer tout ce qui peut faire sens dans un langage musical donné, au nom de ce critère spécieux de «consonance», les auteurs de l’étude passent à côté de tout questionnement sur la prédictibilité formelle ou d’intelligibilité du discours musical.
De même, l’éventuelle expressivité de la musique et du geste instrumental est ignorée ; ainsi, aucun commentaire n’explique le choix, dans la deuxième étude, de diffuser une musique générée en MIDI par un programme informatique plutôt qu’un authentique enregistrement humain. Cette in-humanité de la musique est évidemment encore plus flagrante dans la version modifiée du menuet, où les hauteurs sont substituées de façon systématique sans tenir aucun compte du langage et de la logique interne de la partition. Prendre pour modèle de "musique dissonante" un tel objet musical trafiqué et dont le sens organique est entièrement détruit (plutôt qu’un un discours musical réputé «dissonant» mais doté de sa propre logique et d’une cohérence formelle et harmonique, par exemple écrit au XXe siècle dans un langage atonal ou post-modal), nous semble fortement contestable.
Que prouve cette étude, en définitive ? Qu’une musique moche, fausse, et (littéralement) inhumaine affecte dans des proportions mesurables quoiqu’infimes (inférieures à 6%) la capacité à se concentrer, par rapport à un fond sonore extrêmement prédictible et déjà omniprésent dans notre inconscient musical collectif. Et la presse de se jeter avidement sur cette n-ième occasion de proclamer qu’«une étude scientifique prouve que Mozart est bon pour votre cerveau»... L’on constate alors combien la superficialité de l’étude Masataka-Perlovsky est en parfaite adéquation avec celle des publicitaires Suntory.
Ainsi notre époque permet-elle à un compositeur du XVIIIe siècle de devenir le parfait porte-étendard de l’innocuité virale : ramené à ses «intervalles consonants», converti en MIDI, réduit à une aimable monodie, recyclé en auteur de "chansons" pour vidéos promotionnelles, Mozart est devenu une valeur sûre, un "branding" publicitaire prêt à l’emploi pour justifier tour à tour les approximations pseudo-scientifiques d’universitaires remplissant leurs quotas de publications, le sensationnalisme d’un maljournalisme en quête de clics, et l’alibi mi-scientifique mi-artistique idéal pour publicitaires déguisés.)
La sonde Voyager, première du nom (lancée en 1977), recèle un disque de cuivre plaqué or qui contient de nombreuses données jugées représentatives de la Terre et de la civilisation humaine dans son ensemble : photographies, électro-encéphalogramme humain, cartographie spatiale, salutations enregistrées dans diverses langues. Son chapitre musical, quant à lui, fait apparaître quelques œuvres dites «classiques» (Bach, Beethoven) ainsi qu’un nuancier d’esprit «world music» (chants traditionnels indien, péruvien, pygmée, japonais) et de musiques populaires dites «actuelles» (blues, etc.).
Saluons au passage la cohérence de la maison de disques EMI, qui s’opposa à l’inclusion de la chanson «Here Comes The Sun» des Beatles, violation de copyright intolérable à ses yeux.
Autre anecdote, rapportée par Lewis Thomas : à Freeman Dyson qui lui suggérait de n’inclure que de la musique de Jean-Sébastien Bach, Carl Sagan aurait répondu «non, ça nous ferait passer pour des crâneurs».
Un quart de siècle plus tard, la sonde Beagle 2, lancée en 2003 par le Royaume Uni en direction de Mars, inclut d’autres œuvres, notamment du plasticien britannique Damien Hirst. Son arrivée sur la planète rouge a été annoncée par un signal sonore de neuf notes composé par le groupe de rock Blur, alors à la mode (malgré l’échec de la mission, il semble avéré que l’indicatif s’est effectivement fait entendre dans l’atmosphère martienne).
C’est en 2012 que la sonde Curiosity, depuis la surface de Mars, a diffusé une chanson en direction de la Terre : il s’agit de Reach For The Stars, du rappeur Will.I.Am.
Curiosity ne s’est pas arrêtée là : un an plus tard, elle a donné à entendre (en faisant vibrer son mécanisme d’analyse d’échantillons du sol) la mélodie «Happy Birthday To You», ce qui a conduit certains commentateurs à se demander si le groupe Warner allait la poursuivre pour représentation non-autorisée (les paroles n’ayant pas été incluses dans l’exécution, cela semble improbable -- du reste, nous savons aujourd’hui que ce soi-disant copyright n’était qu’un grossier attrape-nigauds).
De nombreuses autres musiques ont été jouées dans l’espace, pour le seul bénéfice des astronautes. Ainsi, dès 1965, Wally Schirra et Tom Stafford emmenaient à bord du vaisseau Gemini un harmonica et une clochette. Lors des missions Apollo, Jim Lovell raconte que les astronautes sont autorisés à emporter un baladeur et une cassette ; une des chansons alors jouées sera naturellement le «Fly Me To The Moon» chanté par Frank Sinatra. Sans oublier, bien sûr, la chanson entonnée par Gene Cernan lors d’une excursion sur la Lune.
Rien de tout cela ne règle le «mystère» du sifflement ouï en 1969 par l’équipage d’Apollo 10 en orbite du côté de la face cachée de la Lune, quelques mois avant la première véritable mission lunaire, sifflement que d’aucuns n’hésitent pas à qualifier... de musique extra-terrestre.