Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond

L'avènement de l'Internet des Objets (IoT) a permis le développement de réseaux de capteurs acoustiques à grande échelle, dans le but d'évaluer en continu les environnements sonores urbains. Dans l'approche de paysages sonores, les attributs perceptifs de qualité sonore sont liés...

Description complète

Enregistré dans:
Détails bibliographiques
Auteurs principaux : Gontier Félix (Auteur), Petiot Jean-François (Directeur de thèse, Membre du jury), Lagrange Mathieu (Directeur de thèse, Membre du jury), Lavandier Catherine (Directeur de thèse, Membre du jury), Marquis-Favre Catherine (Président du jury de soutenance, Membre du jury), Botteldooren Dick (Rapporteur de la thèse, Membre du jury), Richard Gaël (Rapporteur de la thèse, Membre du jury)
Collectivités auteurs : Centrale Nantes 1991-.... (Organisme de soutenance), Sciences de l'ingénierie et des systèmes Centrale Nantes (Ecole doctorale associée à la thèse), Laboratoire des Sciences du Numérique de Nantes (Laboratoire associé à la thèse)
Format : Thèse ou mémoire
Langue : anglais
Titre complet : Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond / Félix Gontier; sous la direction de Jean-François Petiot et de Mathieu Lagrange et de Catherine Lavandier
Publié : 2020
Accès en ligne : Accès Nantes Université
Note sur l'URL : Accès au texte intégral
Note de thèse : Thèse de doctorat : Acoustique : Ecole centrale de Nantes : 2020
Sujets :
LEADER 07085clm a2200685 4500
001 PPN254360238
003 http://www.sudoc.fr/254360238
005 20240523055400.0
029 |a FR  |b 2020ECDN0042 
033 |a http://www.theses.fr/2020ECDN0042 
035 |a (OCoLC)1243061147 
035 |a STAR151535 
100 |a 20210324d2020 k y0frey0103 ba 
101 0 |a eng  |d fre  |d eng  |2 639-2 
102 |a FR 
105 |a ||||ma 00|yy 
135 |a dr||||||||||| 
181 |6 z01  |c txt  |2 rdacontent 
181 1 |6 z01  |a i#  |b xxxe## 
182 |6 z01  |c c  |2 rdamedia 
182 1 |6 z01  |a b 
183 1 |6 z01  |a ceb  |2 RDAfrCarrier 
200 1 |a Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond  |f Félix Gontier  |g sous la direction de Jean-François Petiot et de Mathieu Lagrange et de Catherine Lavandier 
214 1 |d 2020 
230 |a Données textuelles 
304 |a Titre provenant de l'écran-titre 
314 |a Ecole(s) Doctorale(s) : École doctorale Sciences pour l'ingénieur (Nantes) 
314 |a Partenaire(s) de recherche : Laboratoire des Sciences du Numérique de Nantes (Laboratoire) 
314 |a Autre(s) contribution(s) : Catherine Marquis-Favre (Président du jury) ; Jean-François Petiot, Mathieu Lagrange, Catherine Lavandier, Catherine Marquis-Favre, Dick Botteldooren, Gaël Richard, Romain Serizel (Membre(s) du jury) ; Dick Botteldooren, Gaël Richard (Rapporteur(s)) 
328 0 |b Thèse de doctorat  |c Acoustique  |e Ecole centrale de Nantes  |d 2020 
330 |a L'avènement de l'Internet des Objets (IoT) a permis le développement de réseaux de capteurs acoustiques à grande échelle, dans le but d'évaluer en continu les environnements sonores urbains. Dans l'approche de paysages sonores, les attributs perceptifs de qualité sonore sont liés à l'activité de sources, quantités d'importance pour mieux estimer la perception humaine des environnements sonores. Utilisées avec succès dans l'analyse de scènes sonores, les approches d'apprentissage profond sont particulièrement adaptées pour prédire ces quantités. Cependant, les annotations nécessaires au processus d'entraînement de modèles profonds ne peuvent pas être directement obtenues, en partie à cause des limitations dans l information enregistrée par les capteurs nécessaires pour assurer le respect de la vie privée. Pour répondre à ce problème, une méthode pour l'annotation automatique de l'activité des sources d'intérêt sur des scènes sonores simulées est proposée. Sur des données simulées, les modèles d'apprentissage profond développés atteignent des performances état de l'art pour l'estimation d'attributs perceptifs liés aux sources, ainsi que de l'agrément sonore. Des techniques d'apprentissage par transfert semisupervisé sont alors étudiées pour favoriser l'adaptabilité des modèles appris, en exploitant l'information contenue dans les grandes quantités de données enregistrées par les capteurs. Les évaluations sur des enregistrements réalisés in situ et annotés montrent qu'apprendre des représentations latentes des signaux audio compense en partie les défauts de validité écologique des scènes sonores simulées. Dans une seconde partie, l'utilisation de méthodes d'apprentissage profond est considérée pour la resynthèse de signaux temporels à partir de mesures capteur, sous contrainte de respect de la vie privée. Deux approches convolutionnelles sont développées et évaluées par rapport à des méthodes état de l'art pour la synthèse de parole. 
330 |a The advent of the Internet of Things (IoT) has enabled the development of largescale acoustic sensor networks to continuously monitor sound environments in urban areas. In the soundscape approach, perceptual quality attributes are associated with the activity of sound sources, quantities of importance to better account for the human perception of its acoustic environment. With recent success in acoustic scene analysis, deep learning approaches are uniquely suited to predict these quantities. Though, annotations necessary to the training process of supervised deep learning models are not easily obtainable, partly due to the fact that the information content of sensor measurements is limited by privacy constraints. To address this issue, a method is proposed for the automatic annotation of perceived source activity in large datasets of simulated acoustic scenes. On simulated data, trained deep learning models achieve state-of-the-art performances in the estimation of sourcespecific perceptual attributes and sound pleasantness. Semi-supervised transfer learning techniques are further studied to improve the adaptability of trained models by exploiting knowledge from the large amounts of unlabelled sensor data. Evaluations on annotated in situ recordings show that learning latent audio representations of sensor measurements compensates for the limited ecological validity of simulated sound scenes. In a second part, the use of deep learning methods for the synthesis of time domain signals from privacy-aware sensor measurements is investigated. Two spectral convolutional approaches are developed and evaluated against state-of-the-art methods designed for speech synthesis. 
337 |a Configuration requise : un logiciel capable de lire un fichier au format : PDF 
541 | |a Analysis and synthesis of urban sound scenes using deep learning techniques  |z eng 
606 |3 PPN027221687  |a Villes  |x Bruit  |2 rameau 
606 |3 PPN223540633  |a Apprentissage profond  |2 rameau 
606 |3 PPN027222004  |a Capteurs (technologie)  |2 rameau 
608 |3 PPN027253139  |a Thèses et écrits académiques  |2 rameau 
610 0 |a Paysages sonores 
610 0 |a Réseaux de capteurs acoustiques 
610 0 |a Perception de sources sonores 
610 0 |a Synthèse sonore 
686 |a 620  |2 TEF 
700 1 |3 PPN254241344  |a Gontier  |b Félix  |f 1995-....  |4 070 
701 1 |3 PPN066932815  |a Petiot  |b Jean-François  |f 19..-....  |c enseignant mécanique  |4 727  |4 555 
701 1 |3 PPN083993339  |a Lagrange  |b Mathieu  |f 1978-....  |4 727  |4 555 
701 1 |3 PPN139467238  |a Lavandier  |b Catherine  |f 19..-....  |4 727  |4 555 
701 1 |3 PPN117490105  |a Marquis-Favre  |b Catherine  |f 19..-....  |c spécialiste en acoustique (INSA)  |4 956  |4 555 
701 1 |3 PPN223539279  |a Botteldooren  |b Dick  |4 958  |4 555 
701 1 |3 PPN094977208  |a Richard  |b Gaël  |f 19..-....  |c Professeur  |4 958  |4 555 
711 0 2 |3 PPN03063525X  |a Centrale Nantes  |c 1991-....  |4 295 
711 0 2 |3 PPN20476842X  |a Sciences de l'ingénierie et des systèmes  |c Centrale Nantes  |4 996 
711 0 2 |3 PPN203637585  |a Laboratoire des Sciences du Numérique de Nantes  |4 981 
801 3 |a FR  |b Abes  |c 20230323  |g AFNOR 
856 4 |q PDF  |s 25972948  |u http://www.theses.fr/2020ECDN0042/document  |z Accès au texte intégral 
856 4 |u http://www.theses.fr/2020ECDN0042/abes 
856 4 |u https://tel.archives-ouvertes.fr/tel-03179093 
930 |5 441092306:78135420X  |b 441092306  |j g 
991 |5 441092306:78135420X  |a exemplaire créé automatiquement par STAR 
998 |a 892270