Différences

Cette page vous donne les différences entre la révision choisie et la version actuelle de la page.

Lien vers cette vue

giavitto:stage_master_2019 [2018/12/03 17:21] (Version actuelle)
Jean-Louis Giavitto créée
Ligne 1: Ligne 1:
 +====== Stage de Master 2019 ======
 +
 +<html><center></html>
 +**Middleware pour la gestion distribuée du temps musical**
 +
 +//Responsables:// [[:bresson|Jean Bresson]] et [[giavitto:|Jean-Louis Giavitto]]
 +
 +//période:// de 5 à 6 mois entre février et septembre 2019 à l'[[http://www.ircam.fr|IRCAM]]
 +
 +
 +<html></center></html>
 +\\
 +
 +<html>
 +
 +<p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><i
 +style='mso-bidi-font-style:normal'>Se synchroniser, se coordonner, s’accorder,
 +faire se coïncider, se répondre, être à l’unisson…</i> la diversité du
 +vocabulaire dédié à la mise en correspondance dans le temps de nos activités
 +montre l’importance que revêt leur organisation temporelle. Les arts
 +performatifs, et la musique particulièrement, sont des domaines qui concentrent
 +ces problématiques&nbsp;: comment, lors de l’interprétation d’une œuvre
 +musicale ou scénique, réaliser les relations temporelles complexes exprimées
 +dans une partition, un scénario ou un script&nbsp;? Et comment y intégrer les
 +dispositifs technologiques qui produisent des informations de synchronisation
 +pour des médias temporels de toutes sortes (son, musique, images, animations,
 +lumière, automation, etc.), qui doivent interagir avec leur environnement, les
 +interprètes (musiciens, danseurs, acteurs) et aussi le public&nbsp;?</p>
 +
 +<p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'>Le
 +stage proposé vise à apporter des éléments de réponses en développant une API
 +logicielle permettant à des applications existantes de se synchroniser via des
 +communications de type OSC. Deux applications sont plus particulièrement
 +visées&nbsp;: <span class=SpellE>OpenMusic</span> et <span class=SpellE>Antescofo</span>,
 +dans le but de simplifier la construction d’applications musicales interactives
 +en confiant les parties génératives à <span class=SpellE>OpenMusic</span> et en
 +coordonnant les activités de générations et de rendus avec <span class=SpellE>Antescofo</span>.
 +Plusieurs objectifs scientifiques et techniques sont visés et les priorités
 +dépendront de l’intérêt de l’étudiant et des résultats obtenus. </p>
 +
 +<p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><b
 +style='mso-bidi-font-weight:normal'>Une couche de communication améliorée.</b>
 +OSC c’est imposé comme medium de communication du contrôle en informatique
 +musicale. Pourtant, d’autre middleware, comme ZQM,<span
 +style="mso-spacerun:yes">&nbsp; </span>offrent des primitives de communications
 +plus modernes. L’objectif ici est d’étendre les capacités d’OSC, afin de
 +maintenir un temps global partagé, d’échanger des informations de nature
 +temporelle (occurrence d’événement, tempi) entre applications, permettre un
 +routage actif et l’exécution distante d’expression à la manière de <span
 +class=SpellE><i style='mso-bidi-font-style:normal'>odot</i></span>. </p>
 +
 +<p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><b
 +style='mso-bidi-font-weight:normal'>Evènements temporels distribués</b>.
 +L’objectif est de pouvoir détecter des événements temporels distribués à la
 +fois événementiel (par exemple&nbsp;: entre l’événement A et B qui se
 +produisent sur la machine 1, il n’y a eu que des événements de type C sur la
 +machine 2) et temporisé (le processus P sur la machine 1 doit s’exécuter avec
 +le tempo du processus Q sur la machine 2). </p>
 +
 +
 +<p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><b
 +style='mso-bidi-font-weight:normal'>Moniteurs d’activité.</b> Le pilotage
 +d’applications musicales interactives nécessite des interfaces graphiques
 +souvent complexes et couteuse à réaliser.<span style="mso-spacerun:yes">&nbsp;
 +</span>L’émergence de nouvelles solutions techniques «&nbsp;dans un
 +navigateur&nbsp;» permet d’envisager des approches portables, facilement <span
 +class=SpellE>déployables</span> et permettant de répondre à une grande variété
 +de besoins. L’objectif ici est de développer divers composants de visualisation
 +dans une fenêtre de navigateur web, par exemple pour l’édition, l’affichage et
 +l‘animation dynamique de partition, de «&nbsp;piano-roll&nbsp;» et de
 +«&nbsp;time-line&nbsp;». </p>
 +
 +</html>
 +
 +==== Références ====
 +
 +   * Cont. [[https://hal.inria.fr/hal-00698922/document|Synchronisme musical et musiques mixtes: du temps écrit au temps produit]] in Circuit : musiques contemporaines, , 22 (1), Presses de l'Univ. de Montreal, 2012.
 +
 +   * R. Goebel, R. Sanfelice, A. Teel, [[https://pdfs.semanticscholar.org/96d8/6e1f53d9e07d93445c59898d6f4e2c4e1375.pdf|Hybrid dynamical systems]]. IEEE Control Systems Magazine 29 (2):28–93. 2009
 +
 +   * R. Dannenberg, [[https://www.cs.cmu.edu/~rbd/papers/timeflow2017.pdf|Time-Flow Concepts and Architectures For Music and Media Synchronization]], pp. 104-109. ICMC 2017.
 +
 +   * J. L. Giavitto, J. Echeveste. [[https://hal.archives-ouvertes.fr/hal-01054667/document|Real-time matching of Antescofo temporal patterns]]. In 16th Int. Symp. on Principles and Practice of Declarative Programming, pp. 93-104. ACM 2014.
 +
 +   * J. Goubault-Larrecq, J.-P. Lachance. [[https://link.springer.com/article/10.1007%2Fs10703-017-0303-x|On the complexity of monitoring Orchids signatures, and recurrence equations]]. Formal Methods in Syst. Design, 53(1), 6–32. 2018.
 +
 +   * Wang, G. [[https://people.finearts.uvic.ca/~aschloss/course_mat/MU307/MUS307_MATERIALS/2015-cmj-chuck.fail.pdf|ChucK : A strongly-timed and on-the-fly environ/mentality]]. Computer Music Journal, 39:4, pp. 10–29, 2015.
 +
 +   * M. McCurry. [[https://depositonce.tu-berlin.de/bitstream/11303/7886/4/LAC2018_proceedings.pdf#page=63|Rtosc - Realtime Safe Open Sound Control Messaging]]. Linux Audio Conf. 2018.
 +
 +   * R. Dannenberg, Z. Chi, [[http://www.cs.cmu.edu/~rbd/subjbib2.html#o2-2016|O2: Rethinking Open Sound Control]]. In 42nd Int. Comp. Music Conf., pp. 493-496, 2016.
 +
 +   * J. Bresson, J. MacCallum, A. Freed. [[https://hal.archives-ouvertes.fr/hal-01353794/file/o.OM.pdf|o.OM: structured-functional communication between computer music systems using OSC and Odot]]. In 4th Int. Work. on Functional Art, Music, Modelling, and Design, pp. 41-47. ACM, 2016.
 +
 +   * J MacCallum, R Gottfried, I Rostovtsev, J Bresson, [[https://scholar.google.fr/scholar?oi=bibs&cluster=1253569490352320357&btnI=1&hl=fr|Dynamic Message-Oriented Middleware with Open Sound Control and Odot]]. Int. Comp. Music Conference, ICMC 2014.
 +
 +
  
 


giavitto/stage_master_2019.txt · Dernière modification: 2018/12/03 17:21 par Jean-Louis Giavitto