english Icono del idioma   español Icono del idioma  

Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12008/45254 Cómo citar
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorAlonso-Jiménez, Pablo-
dc.contributor.authorPepino, Leonardo-
dc.contributor.authorBatlle-Roca, Roser-
dc.contributor.authorZinemanas, Pablo-
dc.contributor.authorBogdanov, Dmitry-
dc.contributor.authorSerra, Xavier-
dc.contributor.authorRocamora, Martín-
dc.date.accessioned2024-08-09T13:37:01Z-
dc.date.available2024-08-09T13:37:01Z-
dc.date.issued2024-
dc.identifier.citationAlonso-Jiménez, P., Pepino, L., Batlle-Roca, R. y otros. Leveraging pre-trained autoencoders for interpretable prototype learning of music audio [Preprint] Publicado en : IEEE ICASSP 2024 Workshop on Explainable AI for Speech and Audio (XAI-SA), 15 apr. 2024, pp. 1-5.es
dc.identifier.urihttps://hdl.handle.net/20.500.12008/45254-
dc.description.abstractWe present PECMAE an interpretable model for music audio classification based on prototype learning. Our model is based on a previous method, APNet, which jointly learns an autoencoder and a prototypical network. Instead, we propose to decouple both training processes. This enables us to leverage existing self-supervised autoencoders pre-trained on much larger data (EnCodecMAE), providing representations with better generalization. APNet allows prototypes’ reconstruction to waveforms for interpretability relying on the nearest training data samples. In contrast, we explore using a diffusion decoder that allows reconstruction without such dependency. We evaluate our method on datasets for music instrument classification (Medley-Solos-DB) and genre recognition (GTZAN and a larger in-house dataset), the latter being a more challenging task not addressed with prototypical networks before. We find that the prototype-based models preserve most of the performance achieved with the autoencoder embeddings, while the sonification of prototypes benefits understanding the behavior of the classifier.es
dc.description.sponsorshipMinisterio de Ciencia, Innovación y Universidades (España) y Agencia Estatal de Investigación (AEI).es
dc.format.extent5 p.es
dc.format.mimetypeapplication/pdfes
dc.language.isoenes
dc.rightsLas obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)es
dc.subjectPrototypical learninges
dc.subjectSelf-supervised learninges
dc.subjectMusic audio classificationes
dc.subjectInterpretable AIes
dc.titleLeveraging pre-trained autoencoders for interpretable prototype learning of music audio.es
dc.typePreprintes
dc.contributor.filiacionAlonso-Jiménez Pablo, Universidad Pompeu Fabra, España.-
dc.contributor.filiacionPepino Leonardo, CONICET-UBA, Argentina.-
dc.contributor.filiacionBatlle-Roca Roser, Universidad Pompeu Fabra, España.-
dc.contributor.filiacionZinemanas Pablo, Universidad Pompeu Fabra, España.-
dc.contributor.filiacionBogdanov Dmitry, Universidad Pompeu Fabra, España.-
dc.contributor.filiacionSerra Xavier, Universidad Pompeu Fabra, España.-
dc.contributor.filiacionRocamora Martín, Universidad de la República (Uruguay). Facultad de Ingeniería.-
dc.rights.licenceLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)es
Aparece en las colecciones: Publicaciones académicas y científicas - Instituto de Ingeniería Eléctrica

Ficheros en este ítem:
Fichero Descripción Tamaño Formato   
APBZBSR24.pdfPreprint235,33 kBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons