Différences

Cette page vous donne les différences entre la révision choisie et la version actuelle de la page.

Lien vers cette vue

paco [2018/05/18 17:12]
Jean Bresson [PEPS I3A: Processus d'Apprentissage en Composition assistée par Ordinateur (PACO)]
— (Version actuelle)
Ligne 1: Ligne 1:
-{{ :paco:cnrs.jpg?80|}} 
  
-====== PEPS I3A: Processus d'Apprentissage en Composition assistée par Ordinateur (PACO) ==== 
- 
-;#; 
-[ [[paco-en|EN]] ] | [ FR ] 
-;#; 
- 
-**Projet Exploratoire Premier Soutien ([[http://www.cnrs.fr/ins2i/spip.php?article2867|PEPS]]) 2018: Intelligence Artificielle et Apprentissage Automatique** 
- 
-Dès l'apparition des premiers ordinateurs, la création musicale contemporaine s'est emparée des moyens de calcul et de représentation offerts par l'informatique pour étendre son champ de possibilités compositionnelles et sonores, et ainsi enrichir tout à la fois le pouvoir d'expression des musiciens et l'expérience musicale de ses auditeurs. Les débuts de ce que l'on appellera plus tard l'informatique musicale (//computer music//) se sont inspirées de l'intelligence artificielle, dans l'idée de produire des machines capables de composer, rivalisant de créativité avec leurs créateurs. Si l'on retrouve cette idée dans des projets récents, ambitieux et médiatisés, la notion d'apprentissage a cependant été rarement exploitée //par les compositeurs// dans une perspective d'aide à la création. 
-Dans le domaine de la composition assistée par ordinateur, la défiance vis-à-vis d'une certaine dépossession de l'acte créateur a conduit chercheurs et compositeurs à se tourner plutôt vers des démarches constructivistes et vers d'autres aspects des technologies de l'information, comme celui du //end-user programming// (soit le fait de donner à l'utilisateur final d'un système la capacité d'en être lui-même le programmeur) et des langages de programmation visuels. 
- 
-L'objectif de ce projet exploratoire est d'étudier les applications possibles des techniques d'apprentissage automatique en composition musicale assistée par ordinateur.  
-En contraste avec une approche plus répandue consistant à viser la production de systèmes créatifs plus ou moins autonomes, nous nous intéressons ici à l'apport potentiel de l'IA et de l'apprentissage comme assistant à la composition (et/ou à l'analyse musicale) dans la réalisation de tâches telles que la classification et le traitement de « gestes musicaux » (descripteurs temporels, mélodies, entrées graphiques), l'aide à la décision ou la recherche dans les espaces de solutions d'algorithmes de recherche opérationnelle, ou la production de structures et paramètres musicaux à partir de bases de données d'exemples.  
-/* En nous appuyant sur des collaborations internes et externes au laboratoire, nous souhaitons dans un premier temps concevoir des scénarios où les techniques d'apprentissage seront mises à profit dans le cadre de processus compositionnels. */ 
-Les applications envisagées pourront être liées à diverses étapes et activités compositionnelles : analyse et quantification rythmique, composition par recomposition/concaténation de motifs, etc.  
-pour lesquelles l'apprentissage automatique proposera de nouvelles modalités de contrôle, de synthèse et de compréhension des structures musicales. 
- 
-/* Au-delà de ces objectifs et de ce cas d'étude, nous visons la consolidation d'un réseau de chercheurs autour des thématique liées à l'apprentissage en composition musicale assistée par ordinateur, en renforçant l'intégration de technologies au sein du laboratoire et en fédérant des collaborateurs impliqués dans le développement de l'environnement OpenMusic et d'autres outils de composition assistée par ordinateur. */  
- 
- 
-**Laboratoire STMS: IRCAM/CNRS/Sorbonne Université**\\ 
-**Coordination/responsable scientifique:** [[http://repmus.ircam.fr/bresson|Jean Bresson]]\\ 
-**Participants:** 
-[[http://imtr.ircam.fr/imtr/Diemo_Schwarz|Diemo Schwarz]] (équipe Interaction Son-Musique-Mouvement),  
-[[http://recherche.ircam.fr/anasyn/obin/|Nicolas Obin]] (équipe Analyse et Synthèse des Sons),  
-[[http://repmus.ircam.fr/nika|Jérôme Nika]] (équipe Représentations Musicales),  
-Paul Best (stage M2, équipes RepMus / ISMM),  
-[[http://www.alirezafarhang.com/|Alireza Farhang]] (résidence recjerche musicale IRCAM),  
-[[https://avinjar.no/|Anders Vinjar]] (compositeur, Oslo),  
-[[http://www.music.mcgill.ca/marlonschumacher/|Marlon Schumacher]] (Institut für Musikwissenschaft und Musikinformatik, Hochschule für Musik Karlsruhe). 
- 
- 
- 
-===== Liens et évènements liés au projet ===== 
- 
-**• Workshop @SMC'18: [[.:smc-workshop|Music Composition & Creative Interaction with Machine Learning]]**\\ 
-[[http://smc2018.cut.ac.cy/|15th Sound and Music Computing conference]],  4-7 juillet 2018, Limassol, Chypre. 
- 
- 
-**• Traces de l'expressivité : partition de flux de données gestuelles pour les œuvres interdisciplinaires**\\ 
-Alireza Farhang: [[https://www.ircam.fr/person/alireza-fahrang/|Résidence en recherche musicale IRCAM]]  
- 
-**• Applications of Machine Learning in Computer-Aided Composition**\\ 
-Paul Best: [[http://repmus.ircam.fr/bresson/enseignement/stage2018|Stage M2 sous la direction de Jean Bresson et Diemo Schwarz]]\\ 
-Avec le soutien du dispositif "Unités Projet Innovation" de l'IRCAM. 
- 
-**• OM-XMM:** connexion entre l'environnement de CAO [[https://openmusic-project.github.io/|o7]] et la bibliothèque [[http://ircam-rnd.github.io/xmm/|XMM]] pour l'apprentissage et la reconnaissance de gestes.\\ 
-=> [[https://github.com/openmusic-project/om-xmm|Voir sur GitHub]]