Steve Coleman (1956)

Rameses 2000 Project (1999)

œuvre électronique, Ircam

  • Informations générales
    • Date de composition : 1999
    • Durée : variable
    • Éditeur : Inédit
    • Commande: Ircam-Centre Pompidou pour Agora 1999
Effectif détaillé
  • 1 saxophone alto, 1 saxophone ténor, 1 trompette, 1 guitare, 1 basse électrique, 1 batterie

Information sur la création

  • 11 June 1999, Paris, théâtre des Bouffes du Nord, festival Agora, par Steve Coleman and Five Elements : Steve Coleman : saxophone alto, Ravi Coltrane : saxophone ténor, Ralph Alessi : trompette, David Gilmore : guitare, Anthony Tidd : basse électrique, Sean Rickman : batterie, Takahiko Suzuki, Sukandar Kartadinata : programmeurs.

Information sur l'électronique
Information sur le studio : réalisée à l'Ircam
RIM (réalisateur(s) en informatique musicale) : Gilbert Nouno
Dispositif électronique : temps réel

Note de programme

L'histoire de Rameses
Depuis 1986, j'ai travaillé avec plus ou moins de suivi sur le logiciel Rameses, que j'ai progressivement fait tourner sur des machines et des systèmes de plus en plus puissants. La plupart du temps, j'ai travaillé seul, mais il y a bien sûr eu des moments où d'autres personnes m'ont apporté leur aide, parfois en me procurant quelque inspiration, d'autres fois, plus concrètement, en se chargeant du codage de routines spécifiques. C'est le musicien et compositeur George Lewis, qui, grâce à son travail de pionnier, m'a fait prendre conscience des possibilités qu'offraient les ordinateurs pour l'exploration de concepts musicaux. George est un pionnier dans le domaine de la conception de programmes spécialisés dans la capture informatique des expériences de musiciens en situation d'improvisation et dans l'analyse des schémas selon lesquels ceux-ci pensent et communiquent entre eux sur scène pendant le processus d'improvisation. C'est au milieu des années 1970 que George a commencé à m'initier à certains aspects de son logiciel Voyager. Plus tard, vers 1989, mon association avec Joe Ravo, guitariste et développeur de programmes, m'a permis de beaucoup apprendre sur la programmation en général. Joe m'a énormément aidé pour le transfert de mon programme du Commodore 64 sur l'Atari St et m'a initié au langage de programmation Forth. Par la suite, grâce à la puissance bien plus élevée du processeur 68000, le programme fut capable de gérer des fonctions de temps réel ; j'ai donc commencé à structurer quelques fonctions interactives de base. Celles-ci consistaient à programmer le logiciel pour écouter les accords joués par un musicien et pour créer par la suite des mélodies improvisées au sein de ces accords en train d'être joués. Le programme intègre les idées rythmiques, mélodiques et harmoniques que j'ai mises en œuvre pendant des années dans ma pratique du saxophone et, sur le plan compositionnel, avec ma formation. J'ai commencé à travailler début 1998 via Internet avec les programmeurs Takahiko Suzuki et Sukandar Kartadinata sur le portage de mon code sur l'environnement de programmation Max, tournant sur Macintosh. Takahiko a transféré une grande partie du code permettant de créer des mélodies au sein de « changements », ainsi que certaines idées mélodiques fondées sur la symétrie et les séquences de Fibonacci. Sukandar, lui, est parti de mon idée d'utiliser les anciens décans égyptiens (un système conçu pour agencer des configurations d'étoiles dans le ciel) pour créer des cellules harmoniques, et il s'est également occupé du codage de quelques idées que je devais au musicien et compositeur Henry Threadgill – originaire comme George Lewis et moi-même de Chicago –, auquel j'ai piqué de nombreuses idées.

C'est en septembre 1998 que j'ai sollicité l'Ircam en vue d'utiliser sa technologie pour développer mon projet. J'ai alors collaboré avec Gilbert Nouno, assistant musical à l'Ircam, qui s'est occupé de l'intégration, de la spatialisation, de la synthèse sonore et de l'ajustement des routines précédemment établies de manière à les rendre compatibles entre elles tout au long du programme. Gilbert s'est également chargé de l'intégration des routines spécifiques de « suivi de tempo » en temps réel, qui nous ont été gracieusement fournies par le mathématicien Edward Large. Etant donné la complexité du logiciel, j'ai préféré me faire seconder par Takahiko durant la seconde partie d'un séjour de six semaines de résidence à l'Ircam, afin qu'il m'assiste sur une partie du codage, plus particulièrement la partie dédiée aux calculs astronomiques. Sukandar m'a également beaucoup aidé en élaborant à mon intention quelques petites routines. La plupart des idées qui me viennent aujourd'hui à l'esprit sont difficiles à réaliser si l'on s'en tient aux méthodes traditionnelles, c'est pourquoi j'ai choisi d'utiliser cet outil de recherche et de pédagogie qu'est le logiciel, perpétuel work in progress, pour créer des modèles musicaux susceptibles de traduire ces idées. J'espérais de la sorte voir comment pourrait sonner une partie du matériau conceptuel qui est le mien une fois livré à des musiciens. Ces idées impliquent que l'on s'intéresse de près à des concepts astronomico-astrologiques et mythiques qui dérivent de mon étude de la cosmogonie de l'Egypte.

Un programme de temps réel
Il n'y a dans Rameses aucune programmation de musique prédéterminée. Le logiciel crée tout en temps réel (c'est-à-dire instantanément) et improvise en permanence toutes ses parties. Il ne répète par conséquent jamais la musique qu'il crée. A chaque fois que Rameses joue, nous entendons la musique pour la première fois, ce qui fait que les musiciens ne savent pas ce que celui-ci va créer. Nous connaissons uniquement les grandes lignes stylistiques qui serviront de fondement à sa création ainsi que les paramètres compositionnels. Rameses interagit en temps réel avec les musiciens de la façon suivante (il n'a pas besoin de connaître à l'avance les réactions des musiciens) : il peut écouter et suivre le rythme des musiciens en utilisant des routines de « suivi de tempo », écouter les improvisations des musiciens et répondre en jouant des accords qui résultent de sa propre analyse des mélodies improvisées. Pour ce faire, il analyse l'axe de mélodies symétriques que les musiciens sont en train de jouer puis élabore des cellules harmoniques (des accords) à partir de ces axes. Rameses gère ainsi l'« espace harmonique » de ce que les musiciens sont en train de jouer, procédé qui relève, pour moi, d'une sorte d'approche architecturale de la relation mélodie-harmonie. Rameses est capable d'écouter les accords joués par les musiciens et d'improviser simultanément des mélodies basées sur ces accords. Il le fait en examinant la modalité des accords pour ensuite improviser de façon consonante par rapport à cette modalité. Il peut élaborer ses propres progressions harmoniques en faisant appel à un système dérivé des décans kémétiques (interprétation de groupes d'étoiles dans le ciel de l'ancienne Egypte). Le logiciel affiche ensuite ces cellules harmoniques sur un écran de manière à permettre aux musiciens de suivre les progressions en cours d'élaboration. De plus, le programme affiche simultanément les cellules qu'il crée suite à l'écoute des improvisations des musiciens ainsi que les cellules créées par divers procédés de génération. Cette méthode produit sur l'écran des pistes distinctes détaillant une information qui se déplace en même temps, mais dans des laps de temps différents. Les musiciens peuvent choisir la « piste » qu'ils veulent suivre et ont la possibilité de réagir à plus d'une piste à la fois. Ceci signifie que la musique est réellement exprimée dans plus d'une seule dimension. Le logiciel peut générer des mélodies à partir de plusieurs « styles » mélodiques, y compris la symétrie, le juste milieu, le style de Treadgill et le style normal, et ce dans n'importe quelle combinaison à la fois. Il serait trop long de rentrer dans les détails de tous ces styles, mais la plupart d'entre eux ont un rapport avec la notion d'équilibre. Il est possible de soumettre à Rameses une liste de points temporels (exprimés sous forme de dates et de localisations géographiques) pour qu'il crée une partition rythmique basée sur les phases de la lune, la position du soleil, les positions des planètes et des étoiles, la position de points sensibles (comme l'ascendant, le milieu du ciel, les équinoxes de printemps et d'automne, les solstices d'été et d'hiver), tout en tenant compte dans ses calculs du jour ou de la nuit. Les musiciens et Rameses font évoluer leur musique à l'intérieur de la partition créée, Rameses procurant alors le matériel rythmique et harmonique. Pour créer des rythmes, Rameses utilise la technique de « direction de voix rythmique », qui analyse la structure des rythmes et la façon dont ils s'articulent entre eux. C'est ainsi qu'il crée les rythmes joués par le batteur du logiciel ainsi que ceux du choeur virtuel des tambours africains. En ce qui concerne les sons utilisés, ce que l'on entend est une combinaison de synthèse formantique (utilisation du son des voyelles), d'analyse sonore (incluant l'analyse de hauteurs, le suivi de hauteurs et le suiveur d'oscillateur pour suivre le tempo) et d'échantillons.

Remerciements
Je voudrais remercier les personnes suivantes : Von Freeman, qui a constitué ma principale influence musicale et a, sans le savoir, joué un rôle important dans l'orientation de certains aspects de ce logiciel ; le professeur Willie Anku de l'université de Legon au Ghana, dont les travaux de recherche et le travail sur les tambours africains m'ont influencé ainsi que mon travail sur le logiciel ; Thomas Goodwin, qui m'a initié aux concepts métaphysiques sur lesquels reposent une grande partie de la musique et du logiciel, et sans lesquels celui-ci ne serait pas ce qu'il est. Je voudrais remercier mes assistantes Sophia Wong et Michaela Mayer de Sooya Arts Management, Agnès Couaillier, chargée de production à l'Ircam, toute l'équipe de l'Ircam ainsi que tous les musiciens et programmeurs qui ont travaillé sans relâche à mes côtés autour de ce projet et qui, grâce à leur souci du détail, ont rendu cette association possible.

Steve Coleman.