english Icono del idioma   español Icono del idioma  

Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12008/20382 Cómo citar
Título: Analítica sobre Big Data
Autor: Rodríguez Saredo, Juan Francisco
Título Obtenido: Magíster en Informática
Facultad o Servicio que otorga el Título: Universidad de la República (Uruguay). Facultad de Ingeniería
Tutor: Motz, Regina
Baliosian, Javier
Tipo: Tesis de maestría
Palabras clave: Big data, Aprendizaje automático, Clustering, Arboles de decisión, Map reduce
Fecha de publicación: 2018
Resumen: El análisis de grandes datos ha sustituido a la recolección de datos como nuevo "cuello de botella" en el proceso de toma de decisiones. Para extraer conocimiento de utilidad de grandes, heterogéneos y fluctuantes conjuntos de datos, se necesita de poderosos recursos computacionales y abstracciones de programación, que sean efectivamente utilizados. Big Data surgió junto con la aparición en el mercado de computadoras con gran capacidad de cómputo las cuales actúan en forma distribuida, pero coordinadamente, aprovechando su potente capacidad de procesamiento. Para su tratamiento se debe tener en consideración las principales características en Big Data: volumen de los datos generados, su variabilidad y la velocidad con que ellos se originan. Su tratamiento implica tener que emplear algoritmos específicos que alternan el uso del disco y de la memoria, reducir las dimensiones de los modelos (para facilitar la interpretabilidad o para llegar a resultados válidos), adaptar algoritmos de propósito general (como el gradiente estocástico), generar nuevos algoritmos para el procesamiento de datos originados por streaming y distribuir los datos entre múltiples nodos, utilizando modelos computacionales que organizan los cálculos (el más popular es MapReduce). Tal diversidad de abordajes es debido a las diferencias entre el Data Mining tradicional y la analítica aplicada a Big Data. Incluso el análisis estadístico debe modificarse debido a que luego del procesamiento de los datos, el análisis predictivo en Big Data emplea muestras que representan a la mayor a de la población, por lo que la significación estadística no es tan apreciable como lo es en la analítica tradicional. Este hecho da lugar a nuevos métodos estadísticos para obtener conocimientos de los modelos predictivos. En el presente documento se describen generalidades del proceso de analítica sobre Big Data y se presentan técnicas que pueden ser aplicadas a este tipo de problemas. A lo largo de ellas se exploran y analizan distintos algoritmos y su viabilidad para enfrentarse con datos masivos, presentándose, en algunos casos, sugerencias para su adaptación. Por otro lado se presenta un ordenamiento que incluye una clasificación y una taxonomía de los términos de minería de datos y modelos computacionales adaptados a Big Data. Al estudiarse los algoritmos actuales, se identifican posibles modificaciones planteadas como casos de estudio cuya viabilidad podría ser analizada en el futuro. A su vez se presenta un caso de estudio donde algunas de las técnicas estudiadas son aplicadas al Plan Ceibal, basándose en los datos obtenidos de los usuarios, a través del análisis de una red modelada por un grafo, cuyos nodos son los centros de estudio y sus aristas están representadas por la hora en que esos centros están conectados.
Editorial: UR.FI.INCO; PEDECIBA Area Informática
Citación: Rodríguez Saredo, J. Analítica sobre Big Data [en línea] Tesis de maestría. Montevideo : UR.FI.INCO; PEDECIBA Area Informática, 2018.
Licencia: Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND)
Aparece en las colecciones: Tesis de posgrado - Instituto de Computación

Ficheros en este ítem:
Fichero Descripción Tamaño Formato   
tm-rodriguezsaredo.pdf3,25 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons