Journée d'Étude Analyse et synthèse des textures musicales dans le contexte de l'IA

Nous vous présentons la Journée d’Étude Analyse et synthèse des textures musicales dans le contexte de l’IA, organisée dans le cadre du projet An analysis-by-synthesis approach to the study of musical texture, financé par l’InCIAM (Institut de Créativité et d’Innovation d’Aix-Marseille Univ.) et hébergée par les laboratoires PRISM et LIS (CNRS).

Intervenants

Date

24 Mars 2025, 12h30

Lieu

Laboratoire PRISM CNRS, Campus Joseph Aiguier 31 Chemin Joseph Aiguier 13402, Marseille

Inscription

Inscription par e-mail à antunes@prism.cnrs.fr.

Le contexte

La texture musicale est une propriété de haut niveau d’une composition, qui émerge de l’organisation et des interrelations entre ses éléments sonores constitutifs, donnant lieu à ses qualités perceptives. La complexité et la diversité de la texture musicale à travers le répertoire posent un défi pour la musicologie dans le développement d’outils de modélisation et synthèse. Bien que l’analyse de partitions, le traitement du signal audio et les études cognitives aient permis des avancées, la création de modèles exhaustifs demeure un défi.

Dans ce scénario, les outils d’apprentissage profond, en particulier les auto-encodeurs variationnels, possèdent un potentiel pour représenter les données musicales dans un espace latent compact, ouvrant ainsi de nouvelles perspectives pour modéliser la texture à partir d’informations musicales symboliques et audio.

En explorant ce potentiel, la journée d’études aborde trois aspects fondamentaux : (1) la modélisation et la représentation des données musicales ; (2) l’organisation des données musicales numériques en datasets ; et (3) le développement de modèles de synthèse sonore basés sur le deep learning. Cette journée vise à réunir chercheurs dans le domaine du son, musicologues, spécialistes en informatique musicale et autres acteurs du monde scientifique et artistique. Les discussions interdisciplinaires favoriseraient des avancées à la croisée de la recherche et de la création.

Programme de la JE

À propos des intervenants

Gérard Assayag - (DR CNRS - IRCAM, France)

Gérard Assayag a fondé et dirige actuellement l’équipe Représentations Musicales de l’IRCAM dans le laboratoire STMS (Sciences et technologies de la musique et du son). Il a dirigé ce laboratoire de 2011 à 2017 et été à ce titre impliqué dans les politiques de recherche nationales et internationales en sciences de la musique et du son. Gérard Assayag a contribué à la création de plusieurs institutions majeures en france comme le Collegium Musicae et l’Institut d’intelligence artificielle de Sorbonne Université, ou le Journal of Mathematics and Music et la Society for Mathematics and Computation in Music. Gérard Assayag a contribué à définir, par le biais de publications théoriques et de technologies largement diffusées (OpenMusic, OMax et leurs descendants), le concept d’interaction symbolique pour rendre compte d’un dialogue musical riche et polyvalent humains/machines, jetant ainsi les bases d’une co-créativité symbiotique, visant à modeler les futures générations de systèmes d’IA interactive. Ces recherches prennent place actuellement dans le projet REACH dont il est le porteur comme récipiendaire du prestigieux ERC advanced Grant de l’European Research Council.

Florence Levé (PU - Université de Picardie Jules Verne, Laboratoire MIS / CRIStAL (Algomus), France)

Florence Levé est professeure d’informatique à l’Université de Picardie Jules Verne et effectue ses recherches au laboratoire MIS (Modélisation, Information & Systèmes) à Amiens, où elle est responsable du domaine de recherche Réseaux et Données. Elle est également associée à l’équipe Algomus du laboratoire CRIStAL à Lille depuis sa création. Elle effectue ses recherches en informatique musicale, en particulier en musicologie computationnelle. Elle s’intéresse à la structuration de la musique à différentes échelles et dans différentes dimensions (rythme, texture, mélodie, harmonie…), ainsi qu’à la perception de ces éléments. Elle co-anime l’action MusiScale (Modélisation multi-échelle de masses de données musicales) du GDR Madics. Elle est également co-éditrice en chef de la revue Transactions of the International Society for Music Information Retrieval.

Fanny Roche (DSP-Machine Learning Team Lead, PhD - Arturia, France)

Fanny Roche est ingénieure au sein du département Recherche et Développement d’ARTURIA où elle dirige l’équipe Digital Signal Processing - Machine Learning (Traitement du Signal et Apprentissage Automatique). Elle est titulaire d’un master en traitement du signal obtenu par un double diplôme entre l’Institut National Polytechnique de Grenoble (Grenoble INP) et l’Institut Royal de Technologie (KTH) de Stockholm, et a obtenu un doctorat en traitement du signal et apprentissage automatique de l’Université Grenoble Alpes en collaboration avec ARTURIA (contrat CIFRE). Elle travaille depuis 8 ans dans la recherche industrielle, abordant divers sujets tels que la synthèse, la classification et la transformation de sons musicaux appliqués en particulier aux synthétiseurs numériques et aux effets audio.