3.01 Tesis magíster
Permanent URI for this collection
Browse
Browsing 3.01 Tesis magíster by browse.metadata.categoria "Ciencias de la computación"
Now showing 1 - 9 of 9
Results Per Page
Sort Options
- ItemA differentiable adaptive computation time algorithm for neural networks(2021) Eyzaguirre, Cristóbal; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA pesar de las mejoras sustanciales en los resultados que aportan los modelos de redes neuronales, su aplicación generalizada se ha visto limitada por su elevado coste computacional debido a redundancias presentes en este tipo de arquitecturas. M´as a´un, esta tesis postula que dichas ineficiencias no pueden resolverse completamente con métodos estáticos, debido a que algunas redundancias son intrínsecas al problema que se resuelve y, por lo tanto, son dependientes de los datos. Aunque en respuesta a este problema se han propuesto arquitecturas dinámicas que se adaptan a la entrada, todas ellas comparten la limitación de que no son totalmente diferenciables. Ante esta limitación común, nuestro trabajo propone la primera implementación de un algoritmo de tiempo de cómputo dinámico que es totalmente diferenciable: un algoritmo dinámico diferenciable de early exiting que llamamos DACT. Validamos las ventajas de nuestro enfoque, tanto en términos de resultados como de interpretabilidad, utilizando dos de los casos de uso más comunes, y descubrimos que el DACT puede conllevar: i) importantes ganancias de rendimiento cuando sustituye a los enfoques dinámicos existentes, o ii) eliminar las redundancias intrínsecas cuando se utiliza para complementar modelos estáticos. De hecho, en el dominio del procesamiento de lenguaje descubrimos que nuestro enfoque es mejor para reducir el número de bloques Transformer utilizados por los modelos BERT sin pérdida de desempeño en una serie de tareas. Del mismo modo, mostramos una reducción significativa en el número de pasos recurrentes necesarios cuando se aplica a la arquitectura MAC, superando los resultados tanto de los algoritmos adaptativos existentes como de aquellos estáticos comparables, a la vez que se mejora la transparencia del modelo. Además, nuestro modelo muestra una notable estabilidad, respondiendo de forma predecible a los cambios de los hiperparámetros, a la vez que equilibra la precisión y la complejidad de forma razonable.
- ItemA framework for complex event processing(2017) Grez Arrau, Alejandro; Riveros Jaeger, Cristian; Pontificia Universidad Católica de Chile. Escuela de IngenieríaComplex Event Processing (CEP) ha surgido como el campo unificador para las tecnologías que requieren procesar y correlacionar en tiempo real datos heterogéneos y distribuidos. CEP tiene aplicaciones en diversas áreas, lo que ha resultado en que haya un gran número de propuestas para procesar eventos complejos. Sin embargo, los sistemas CEP existentes están basados en soluciones ad-hoc que no se sustentan en bases teóricas sólidas, lo que los hace difíciles de entender, extender y generalizar. Además, son presentados generalmente de manera informal como interfaces de programación, y el utilizar cada uno de ellos requiere aprender un conjunto completamente nuevo de conocimientos. En esta tesis buscamos definir un marco riguroso para CEP. Comenzamos proponiendo un lenguaje formal para especificar eventos complejos, llamado CEPL, que contiene los operadores más comunes utilizados en la literatura y el cual tiene semántica simple y denotacional. Además, formalizamos las llamadas estrategias de selección, que son la piedra angular de CEP y en los sistemas existentes son presentadas sólo como extensiones en su diseño. Con la semántica ya definida, estudiamos cómo evaluar eficientemente CEPL. Obtenemos resultados de optimización basados en la re escritura de fórmulas, proponiendo una forma normal para manejar filtros unarios. Además, damos un modelo computacional formal para CEP basado en transductores y autómatas simbólicos, llamado matchautomata, el cual captura el fragmento regular de fórmulas con predicados unarios. Utilizando técnicas de reescritura y transformando a autómata, mostramos que el fragmento regular de CEPL puede ser evaluado eficientemente (tiempo constante por evento) cuando se utiliza la estrategia de selección next. Con estos resultados, proponemos un marco para evaluar eficientemente CEPL, estableciendo bases sólidas para futuros sistemas CEP.
- ItemAlgorithm design for the distributed average consensus problem over IoT environments(2018) Oróstica Navarrete, Boris Enrique; Núñez Retamal, Felipe Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA medida que las tecnologías de comunicación han ampliado el conjunto de dispositivos con capacidades de red, está surgiendo una nueva concepción de la Internet de las cosas (IoT). Con la incorporación de dispositivos con diagnósticos avanzados y capacidades de actuación, el IoT proporciona un entorno atractivo para controlar procesos externos utilizando sus capacidades de detección, actuación y computación. En este contexto, los algoritmos de consenso son una alternativa atractiva para apoyar el funcionamiento del IoT y para habilitar su potencial como red de control distribuido. En particular, el problema de llegar a un consenso al promedio de algunas cantidades iniciales es un problema desafiante con potencial aplicaciones en el entorno IoT. Aunque los algoritmos de consenso son estrategias maduras y bien estudiadas que se ajustan naturalmente a las redes, su desempeño se deteriora cuando se enfrentan a fenómenos tales como retrasos estocásticos, transmisiones y recepciones secuenciales y falta de fiabilidad en el proceso de intercambio de información; todo presente en un entorno de IoT. En este trabajo, se diseña un nuevo algoritmo para lograr el consenso al promedio en un entorno IoT. Se desarrolla un análisis teórico para comprender sus principios de funcionamiento. Además, el algoritmo está codificado como un protocolo en hardware real el cual se evalúa en una red local de baja escala y en una red pública de gran escala. El algoritmo está inspirado en gossips y converge al promedio en todos los experimentos realizados en un entorno real de IoT donde enfrenta las no idealidades de los fenómenos de comunicación.
- ItemAprendiendo modelos sparse para algoritmos de deep reinforcement learning basados en policy gradient(2021) Meléndez Salinas, Christian; Löbel Díaz, Hans-Albert; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de redes neuronales han sido ampliamente utilizados durante la última década, debido principalmente a su gran versatilidad y capacidad de obtener un alto rendimiento al resolver diversos problemas. Una de las posibles causas de este fenómeno parece ser la estructura jerárquica y la gran cantidad de parámetros que poseen, ya que les otorga un gran poder expresivo. Sin embargo, esta gran complejidad puede ser perjudicial, ya que puede generar: i) overfitting, ii) parámetros redundantes para la tarea que se está resolviendo y iii) cómputo innecesario. Una forma de reducir la complejidad del modelo es a través de regularización sparse, la cual consiste en una penalización dentro de la función objetivo del problema de optimización que fuerza el uso de menos parámetros o neuronas. Se han explorado formas de reducir la complejidad de los modelos de redes neuronales a través de regularización en contextos de aprendizaje supervisado, sin embargo, no se ha explorado el efecto que tiene en un contexto de aprendizaje reforzado basado en policy gradient. El presente trabajo estudia la posibilidad de obtener modelos menos complejos en aprendizaje reforzado utilizando algoritmos basados en policy gradient. Esto se hace comparando distintos tipos de regularización sparse, enfocándose en la obtención de modelos menos complejos en cuanto al uso de neuronas. Los resultados de este estudio indican que sí es posible encontrar modelos que utilicen una baja cantidad de neuronas a través de regularización sparse, siendo aquella aplicada sobre las activaciones la que obtuvo mejores resultados en cuanto a rendimiento y nivel de sparsity. Además, se muestra que modelos menos complejos poseen neuronas más especializadas que podrían ayudar a interpretar modelos en cuanto al rol que cumplen grupos de neuronas dentro de una política.
- ItemBridging the visual semantic gap in VLN via semantically richer instructions(2022) Ossandón Stanke, Joaquín; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa tarea de Visual-and-Language Navigation (VLN) requiere entender complejas instrucciones de texto en lenguaje natural y navegar en un ambiente natural interior usando únicamente información visual. Mientras es una tarea trivial para el humano, sigue siendo un problema abierto para los modelos de inteligencia artificial. En este trabajo, planteamos como hipótesis que el mal uso de la información visual disponible es la razón principal del bajo rendimiento de los modelos actuales. Para apoyar esta hipótesis, presentamos evidencia experimental mostrando que modelos del estado del arte no son totalmente afectados cuando reciben limitada o incluso nula información visual, indicando un fuerte overfitting al texto de las instrucciones. Para fomentar un uso más adecuado de la información visual, proponemos un nuevo método de aumento de datos que fomenta la inclusión de información visual más explícita en la generación de instrucciones de navegación textuales. Nuestra intuición principal es que los conjuntos de datos actuales incluyen instrucciones textuales que tienen como objetivo informar a un navegante experto, como un ser humano, pero no a un agente de navegación visual principiante, como un modelo de deep learning inicializado aleatoriamente. Específicamente, para cerrar la brecha semántica visual de los conjuntos de datos actuales, aprovechamos los metadatos disponibles para el conjunto de datos Matterport3D que, entre otros, incluye información sobre etiquetas de objetos que están presentes en las escenas. Entrenando un modelo actual con el nuevo conjunto de instrucciones generado aumenta su rendimiento en un 8% en cuanto a tasa de éxito en entornos desconocidos, mientras que probar estas nuevas instrucciones en humanos supera a las instrucciones sintéticas disponibles, lo que demuestra las ventajas de la propuesta de aumento de datos.
- ItemDesarrollo y evaluación de un modelo de diseño de visualizaciones para inteligencia artificial explicable(2022) Valdivieso López, Hernán Felipe; Parra Santander, Denis; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn los últimos años, hemos sido testigos de la rápida adopción de la inteligencia artificial (IA) para automatizar y resolver diferentes tareas. Sin embargo, el uso de sistemas basados en IA a menudo carece de explicabilidad, lo que significa permitir que los usuarios comprendan el fundamento detrás de las predicciones de los sistemas de IA. Este problema ha impulsado el desarrollo de la IA explicable (XAI) y se han propuesto diversos métodos para construir explicaciones. Varios métodos recurren a generar visualizaciones que apoyen la explicación; por lo tanto, XAI no solo implica conocimientos de IA como el sistema que se utilizara o los algoritmos que se explicarán, sino que también se necesitarán conocimientos para diseñar e implementar visualizaciones adecuadas. Aunque existen flujos de trabajo para diseñar aplicaciones de aprendizaje automático interactivo (IML) o XAI, éstos se centran en las etapas del proceso de creación de modelos de aprendizaje automático (ML) y no proporcionan pautas o estrategias para diseñar o analizar las visualizaciones destinadas a aplicaciones de XAI. Por lo tanto, este trabajo propone comenzar desde el espacio de tareas de XAI y conectarlo al modelo anidado de Munzner ampliamente adoptado para diseñar visualización que permitan cerrar esta brecha. De esta forma, en esta tesis se propone el framework VD4XAI (Visualization Design for XAI) para guiar el proceso de análisis y diseño de visualizaciones de XAI para explicaciones locales. Esto también fomentará el desarrollo y la aplicación de enfoques visuales de XAI.
- ItemEvaluación de técnicas de interacción para comparación de mapas de densidad multiclase(2019) Svicarovic Rodríguez, Lukas; Parra Santander, Denis; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn el presente trabajo de tesis se realiza la evaluación de técnicas de interacción para tareas de comparación entre dos mapas de densidad multiclase y se estudian las variables que pueden influir en el rendimiento. Las técnicas de interacción son cuatro: Juxtapose (JX), Translucent Overlay (TO), Swipe (SW) y Magic Lens (ML). Los datos usados en el estudio de usuario para realizar las tareas de comparación corresponden a robos de vehículos de la Región Metropolitana de Santiago de Chile, pertenecientes a la Asociación de Aseguradoras de Chile (AACh), específicamente tipos de vehículo y marcas de auto. Las tareas de comparación corresponden a la resolución de preguntas de distinta dificultad (fácil, medio y difícil) y cantidad de comunas a comparar (una o dos). A través de encuestas, se recolecta información previa de los usuarios para ver el efecto del conocimiento previo en el estudio.
- ItemThe expressiveness of SHACL and a tractable language fragment proposal.(2020) Florenzano Hernández, Fernando Alberto; Reutter de la Maza, Juan; Pontificia Universidad Católica de Chile. Escuela de IngenieríaSHACL (Shapes Constraint Language) es una especificación para describir y validar grafos RDF que recientemente se convirtió en recomendación de la W3C. La dificultad principal que presenta su uso es la ausencia de una definición oficial para el manejo de restricciones recursivas. Además, el hecho de que grafos RDF por lo general son accesibles mediante alojamiento remoto a través de solo consultas SPARQL hace que la validación dependa de dichos sistemas. En esta tesis, extendemos trabajo previo con el objetivo de mejorar el entendimiento de lo conocido del problema de validación. Primero, investigamos la posibilidad de validar un grafo contra esquemas no recursivos utilizando solo procesamiento en memoria, y mediante el procesamiento de una única consulta general. Para el caso recursivo, cuyo problema es NP-duro, revisamos la jerarquía de fragmentos de SHACL conocidos y sus respectivas dificultades. Finalmente, proponemos un nuevo fragmento de restricciones y mostramos un algoritmo que resuelve eficientemente el problema de validación. Este último se puede utilizar cuando es necesario manejar restricciones recursivas, pero manteniendo cotas de ejecución eficientes sin tener que recurrir a maquinaria externa.
- ItemTowards automatic QOS aware restful service composition : security domain.(2012) Sepúlveda Ollier, Cristián Matías; Alarcón Choque, Rosa Ángela; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos servicios web han evolucionado hasta transformarse en un estilo arquitectónico ampliamente usado tanto en software corporativo como independiente. REST, es el estilo arquitectónico que subyace a la Web, es uno de los estilos más influyentes y seguido en los último años, ocasionando investigación que explota y extiende su funcionalidad, manteniendo sus propiedades no funcionales (ej. escalabilidad masiva, alto desempeño, alta evolución). Un tema de investigación actual en REST es la composición automática de servicios, que requiere el descubrimiento y acceso automático a recursos, lo que se puede lograr con descripciones de servicios legibles por máquinas, tales como ReLL, que expone una descripción de servicio que sigue las restricciones arquitectónicas de REST. En este trabajo se extiende ReLL para enriquecer tales descripciones incluyendo restricciones de calidad de servicio (QoS), particularmente en seguridad.