english Icono del idioma   español Icono del idioma  

Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12008/45649 Cómo citar
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorFiori, Marcelo-
dc.contributor.advisorLarroca, Federico-
dc.contributor.advisorMateos, Gonzalo-
dc.contributor.authorPérez Casulo, María Sofía-
dc.date.accessioned2024-09-03T12:51:51Z-
dc.date.available2024-09-03T12:51:51Z-
dc.date.issued2024-
dc.identifier.citationPérez Casulo, M. LASE : Learned Adjacency Spectral Embeddings [en línea]. Tesis de maestría. Montevideo : Udelar. FI., 2024.es
dc.identifier.issn1688-2792-
dc.identifier.urihttps://hdl.handle.net/20.500.12008/45649-
dc.description.abstractLas redes neuronales de grafos (GNNs, por su sigla en inglés) se han convertido en un foco de interés durante los últimos años. Las mismas han sido aplicadas exitosamente en problemas de varios dominios, mostrando ser una metodología particularmente efectiva en lo que respecta al aprendizaje de representaciones de grafos (GRL). Por su parte, los Random Dot Product Graphs (RDPG) son un modelo generativo de grafos muy popular por su simplicidad, interpretabilidad y poder de expresión. El mismo postula que un grafo puede modelarse considerando que existen posiciones latentes (o embeddings) para cada nodo y especifica la probabilidad de interconexión entre estos como el producto interno entre los embeddings asociados. La tarea de estimar estos embeddings se plantea como un problema de factorización de matrices no convexo. Los Adjacency Spectral Embeddings (ASE) ofrecen una solución aproximada a este problema obtenida mediante la descomposición espectral de la matriz de adyacencia, la cual si bien goza de garantías estadísticas sólidas puede ser costosa computacionalmente. El presente trabajo se centra en el uso de GNNs para aprender embeddings similares a los de ASE. En particular, se propone una nueva arquitectura, denominada Learned Adjacency Spectral Embeddings (LASE), que utiliza la técnica de Algorithm Unrolling para modelar el descenso por gradiente (GD) aplicado a ASE. En esta arquitectura, cada iteración de GD se representa como una capa en una red neuronal, compuesta por componentes clásicos de las GNNs como las Graph Convolutional Networks(GCN) y los mecanismos de Graph Attention (GAT). Los embeddings obtenidos con LASE muestran ser de una calidad comparable o incluso superior a los obtenidos mediante otros métodos tradicionales como ser la descomposición en valores singulares (SVD). La arquitectura propuesta permite la incorporación de mecanismos de sparse attention los cuales reducen significativamente el costo computacional requerido. A su vez, se introduce una versión generalizada, Generalized LASE (GLASE), que expande su aplicación a escenarios con grafos heterofilios. Por su parte, este trabajo propone el uso de los embeddings obtenidos con LASE como Positional Encodings (PE), que pueden ser utilizados por ejemplo para alimentar modelos basados en Graph Transformers (GTs). A su vez, la incorporación de la información estructural que aportan estos embeddings, permite romper la simetría en las representaciones de los nodos, venciendo así algunas de las limitaciones que presentan las GCNs clásicas. En particular, se propone la creación de un módulo basado en LASE que pueda integrarse como parte de la arquitectura de un modelo más general destinado a tareas específicas, como ser clasificación de nodos o predicción de enlaces. Los experimentos realizados durante este trabajo consideran grafos homofilios y heterofilios, y buscan validar la efectividad y adaptabilidad de los modelos en una variedad de escenarios. En particular, se utilizan conjuntos de datos sintéticos generados mediante modelos Stochastic Block Model (SBM), así como conjuntos datos reales comúnmente utilizados en la literatura.es
dc.format.extent86 p.es
dc.format.mimetypeapplication/pdfes
dc.language.isoenes
dc.language.isoeses
dc.publisherUdelar.FI.es
dc.rightsLas obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)es
dc.subjectGrafos-
dc.subjectAprendizaje automático-
dc.subjectRedes neuronales sobre grafos-
dc.subjectGraph neural networks-
dc.subjectGraph signal processing-
dc.subjectAdjacency spectral embeddings-
dc.subjectPositional encodings-
dc.subject.otherREDES NEURONALESes
dc.titleLASE : Learned Adjacency Spectral Embeddings.es
dc.typeTesis de maestríaes
dc.contributor.filiacionPérez Casulo María Sofía, Universidad de la República (Uruguay). Facultad de Ingeniería.-
thesis.degree.grantorUniversidad de la República (Uruguay). Facultad de Ingeniería.es
thesis.degree.nameMagíster en Ciencia de datos y aprendizaje automático.es
dc.rights.licenceLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)es
Aparece en las colecciones: Tesis de Posgrado - Facultad de Ingeniería

Ficheros en este ítem:
Fichero Descripción Tamaño Formato   
Per24.pdfTesis de maestría37,5 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons