Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/20.500.12008/22867
Cómo citar
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | Delbracio, Mauricio | - |
dc.contributor.advisor | Lezama, José | - |
dc.contributor.advisor | Moncecchi, Guillermo | - |
dc.contributor.author | Irigaray, Diego | - |
dc.contributor.author | Serena, Camila | - |
dc.date.accessioned | 2019-12-26T18:22:11Z | - |
dc.date.available | 2019-12-26T18:22:11Z | - |
dc.date.issued | 2019 | - |
dc.identifier.citation | Irigaray, D. y Serena, C. Ataques adversarios en sistemas de reconocimiento visual [en línea]. Tesis de grado. Montevideo: Udelar. FI. INCO, 2019. | es |
dc.identifier.uri | https://hdl.handle.net/20.500.12008/22867 | - |
dc.description.abstract | En la actualidad, las redes neuronales alcanzan el estado del arte en la mayoría de tareas que emplean técnicas de aprendizaje automático, siendo cada vez más los problemas del mundo real en los cuales se hace uso de este tipo de modelos. Sin embargo, se ha demostrado recientemente que dichas redes son vulnerables a los denominados ejemplos adversarios: datos de entrada que tras ser levemente modificados logran engañar a las redes haciéndolas devolver resultados incorrectos. En este trabajo realizamos un estudio sobre el fenómeno de los ejemplos adversarios, centrándonos para ello en los sistemas de visión artificial. Estudiamos cómo se obtienen dichos ejemplos, qué características presentan y por qué existen, así como algunas de las principales propuestas que buscan mitigar esta vulnerabilidad. Adicionalmente implementamos un framework orientado al desarrollo y evaluación de algoritmos tanto de ataque como de defensa contra ejemplos adversarios, el cual utilizamos para realizar distintos experimentos sobre algunos de los métodos más relevantes propuestos hasta el momento. | es |
dc.format.extent | 85 p. | es |
dc.format.mimetype | application/pdf | es |
dc.language.iso | es | es |
dc.publisher | Udelar.FI | es |
dc.rights | Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014) | es |
dc.subject | Ataques adversarios | es |
dc.subject | Ejemplos adversarios | es |
dc.subject | Redes neuronales | es |
dc.subject | Visión artificial | es |
dc.title | Ataques adversarios en sistemas de reconocimiento visual | es |
dc.type | Tesis de grado | es |
dc.contributor.filiacion | Irigaray Diego, Universidad de la República (Uruguay). Facultad de Ingeniería | - |
dc.contributor.filiacion | Serena Camila, Universidad de la República (Uruguay). Facultad de Ingeniería | - |
thesis.degree.grantor | Universidad de la República (Uruguay). Facultad de Ingeniería | es |
thesis.degree.name | Ingeniero en Computación | es |
dc.rights.licence | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) | es |
Aparece en las colecciones: | Tesis de grado - Instituto de Computación |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | ||
---|---|---|---|---|---|
DLM19.pdf | Tesis de grado | 8,27 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons