Différences
Cette page vous donne les différences entre la révision choisie et la version actuelle de la page.
— |
giavitto:stage_master_2019 [2018/12/03 17:21] (Version actuelle) Jean-Louis Giavitto créée |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
+ | ====== Stage de Master 2019 ====== | ||
+ | |||
+ | <html><center></html> | ||
+ | **Middleware pour la gestion distribuée du temps musical** | ||
+ | |||
+ | //Responsables:// [[:bresson|Jean Bresson]] et [[giavitto:|Jean-Louis Giavitto]] | ||
+ | |||
+ | //période:// de 5 à 6 mois entre février et septembre 2019 à l'[[http://www.ircam.fr|IRCAM]] | ||
+ | |||
+ | |||
+ | <html></center></html> | ||
+ | \\ | ||
+ | |||
+ | <html> | ||
+ | |||
+ | <p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><i | ||
+ | style='mso-bidi-font-style:normal'>Se synchroniser, se coordonner, s’accorder, | ||
+ | faire se coïncider, se répondre, être à l’unisson…</i> la diversité du | ||
+ | vocabulaire dédié à la mise en correspondance dans le temps de nos activités | ||
+ | montre l’importance que revêt leur organisation temporelle. Les arts | ||
+ | performatifs, et la musique particulièrement, sont des domaines qui concentrent | ||
+ | ces problématiques : comment, lors de l’interprétation d’une œuvre | ||
+ | musicale ou scénique, réaliser les relations temporelles complexes exprimées | ||
+ | dans une partition, un scénario ou un script ? Et comment y intégrer les | ||
+ | dispositifs technologiques qui produisent des informations de synchronisation | ||
+ | pour des médias temporels de toutes sortes (son, musique, images, animations, | ||
+ | lumière, automation, etc.), qui doivent interagir avec leur environnement, les | ||
+ | interprètes (musiciens, danseurs, acteurs) et aussi le public ?</p> | ||
+ | |||
+ | <p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'>Le | ||
+ | stage proposé vise à apporter des éléments de réponses en développant une API | ||
+ | logicielle permettant à des applications existantes de se synchroniser via des | ||
+ | communications de type OSC. Deux applications sont plus particulièrement | ||
+ | visées : <span class=SpellE>OpenMusic</span> et <span class=SpellE>Antescofo</span>, | ||
+ | dans le but de simplifier la construction d’applications musicales interactives | ||
+ | en confiant les parties génératives à <span class=SpellE>OpenMusic</span> et en | ||
+ | coordonnant les activités de générations et de rendus avec <span class=SpellE>Antescofo</span>. | ||
+ | Plusieurs objectifs scientifiques et techniques sont visés et les priorités | ||
+ | dépendront de l’intérêt de l’étudiant et des résultats obtenus. </p> | ||
+ | |||
+ | <p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><b | ||
+ | style='mso-bidi-font-weight:normal'>Une couche de communication améliorée.</b> | ||
+ | OSC c’est imposé comme medium de communication du contrôle en informatique | ||
+ | musicale. Pourtant, d’autre middleware, comme ZQM,<span | ||
+ | style="mso-spacerun:yes"> </span>offrent des primitives de communications | ||
+ | plus modernes. L’objectif ici est d’étendre les capacités d’OSC, afin de | ||
+ | maintenir un temps global partagé, d’échanger des informations de nature | ||
+ | temporelle (occurrence d’événement, tempi) entre applications, permettre un | ||
+ | routage actif et l’exécution distante d’expression à la manière de <span | ||
+ | class=SpellE><i style='mso-bidi-font-style:normal'>odot</i></span>. </p> | ||
+ | |||
+ | <p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><b | ||
+ | style='mso-bidi-font-weight:normal'>Evènements temporels distribués</b>. | ||
+ | L’objectif est de pouvoir détecter des événements temporels distribués à la | ||
+ | fois événementiel (par exemple : entre l’événement A et B qui se | ||
+ | produisent sur la machine 1, il n’y a eu que des événements de type C sur la | ||
+ | machine 2) et temporisé (le processus P sur la machine 1 doit s’exécuter avec | ||
+ | le tempo du processus Q sur la machine 2). </p> | ||
+ | |||
+ | |||
+ | <p class=MsoNormal style='text-align:justify;text-justify:inter-ideograph'><b | ||
+ | style='mso-bidi-font-weight:normal'>Moniteurs d’activité.</b> Le pilotage | ||
+ | d’applications musicales interactives nécessite des interfaces graphiques | ||
+ | souvent complexes et couteuse à réaliser.<span style="mso-spacerun:yes"> | ||
+ | </span>L’émergence de nouvelles solutions techniques « dans un | ||
+ | navigateur » permet d’envisager des approches portables, facilement <span | ||
+ | class=SpellE>déployables</span> et permettant de répondre à une grande variété | ||
+ | de besoins. L’objectif ici est de développer divers composants de visualisation | ||
+ | dans une fenêtre de navigateur web, par exemple pour l’édition, l’affichage et | ||
+ | l‘animation dynamique de partition, de « piano-roll » et de | ||
+ | « time-line ». </p> | ||
+ | |||
+ | </html> | ||
+ | |||
+ | ==== Références ==== | ||
+ | |||
+ | * Cont. [[https://hal.inria.fr/hal-00698922/document|Synchronisme musical et musiques mixtes: du temps écrit au temps produit]] in Circuit : musiques contemporaines, , 22 (1), Presses de l'Univ. de Montreal, 2012. | ||
+ | |||
+ | * R. Goebel, R. Sanfelice, A. Teel, [[https://pdfs.semanticscholar.org/96d8/6e1f53d9e07d93445c59898d6f4e2c4e1375.pdf|Hybrid dynamical systems]]. IEEE Control Systems Magazine 29 (2):28–93. 2009 | ||
+ | |||
+ | * R. Dannenberg, [[https://www.cs.cmu.edu/~rbd/papers/timeflow2017.pdf|Time-Flow Concepts and Architectures For Music and Media Synchronization]], pp. 104-109. ICMC 2017. | ||
+ | |||
+ | * J. L. Giavitto, J. Echeveste. [[https://hal.archives-ouvertes.fr/hal-01054667/document|Real-time matching of Antescofo temporal patterns]]. In 16th Int. Symp. on Principles and Practice of Declarative Programming, pp. 93-104. ACM 2014. | ||
+ | |||
+ | * J. Goubault-Larrecq, J.-P. Lachance. [[https://link.springer.com/article/10.1007%2Fs10703-017-0303-x|On the complexity of monitoring Orchids signatures, and recurrence equations]]. Formal Methods in Syst. Design, 53(1), 6–32. 2018. | ||
+ | |||
+ | * Wang, G. [[https://people.finearts.uvic.ca/~aschloss/course_mat/MU307/MUS307_MATERIALS/2015-cmj-chuck.fail.pdf|ChucK : A strongly-timed and on-the-fly environ/mentality]]. Computer Music Journal, 39:4, pp. 10–29, 2015. | ||
+ | |||
+ | * M. McCurry. [[https://depositonce.tu-berlin.de/bitstream/11303/7886/4/LAC2018_proceedings.pdf#page=63|Rtosc - Realtime Safe Open Sound Control Messaging]]. Linux Audio Conf. 2018. | ||
+ | |||
+ | * R. Dannenberg, Z. Chi, [[http://www.cs.cmu.edu/~rbd/subjbib2.html#o2-2016|O2: Rethinking Open Sound Control]]. In 42nd Int. Comp. Music Conf., pp. 493-496, 2016. | ||
+ | |||
+ | * J. Bresson, J. MacCallum, A. Freed. [[https://hal.archives-ouvertes.fr/hal-01353794/file/o.OM.pdf|o.OM: structured-functional communication between computer music systems using OSC and Odot]]. In 4th Int. Work. on Functional Art, Music, Modelling, and Design, pp. 41-47. ACM, 2016. | ||
+ | |||
+ | * J MacCallum, R Gottfried, I Rostovtsev, J Bresson, [[https://scholar.google.fr/scholar?oi=bibs&cluster=1253569490352320357&btnI=1&hl=fr|Dynamic Message-Oriented Middleware with Open Sound Control and Odot]]. Int. Comp. Music Conference, ICMC 2014. | ||
+ | |||
+ | |||