3.01 Tesis magíster
Permanent URI for this collection
Browse
Browsing 3.01 Tesis magíster by Title
Now showing 1 - 20 of 159
Results Per Page
Sort Options
- ItemA differentiable adaptive computation time algorithm for neural networks(2021) Eyzaguirre, Cristóbal; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA pesar de las mejoras sustanciales en los resultados que aportan los modelos de redes neuronales, su aplicación generalizada se ha visto limitada por su elevado coste computacional debido a redundancias presentes en este tipo de arquitecturas. M´as a´un, esta tesis postula que dichas ineficiencias no pueden resolverse completamente con métodos estáticos, debido a que algunas redundancias son intrínsecas al problema que se resuelve y, por lo tanto, son dependientes de los datos. Aunque en respuesta a este problema se han propuesto arquitecturas dinámicas que se adaptan a la entrada, todas ellas comparten la limitación de que no son totalmente diferenciables. Ante esta limitación común, nuestro trabajo propone la primera implementación de un algoritmo de tiempo de cómputo dinámico que es totalmente diferenciable: un algoritmo dinámico diferenciable de early exiting que llamamos DACT. Validamos las ventajas de nuestro enfoque, tanto en términos de resultados como de interpretabilidad, utilizando dos de los casos de uso más comunes, y descubrimos que el DACT puede conllevar: i) importantes ganancias de rendimiento cuando sustituye a los enfoques dinámicos existentes, o ii) eliminar las redundancias intrínsecas cuando se utiliza para complementar modelos estáticos. De hecho, en el dominio del procesamiento de lenguaje descubrimos que nuestro enfoque es mejor para reducir el número de bloques Transformer utilizados por los modelos BERT sin pérdida de desempeño en una serie de tareas. Del mismo modo, mostramos una reducción significativa en el número de pasos recurrentes necesarios cuando se aplica a la arquitectura MAC, superando los resultados tanto de los algoritmos adaptativos existentes como de aquellos estáticos comparables, a la vez que se mejora la transparencia del modelo. Además, nuestro modelo muestra una notable estabilidad, respondiendo de forma predecible a los cambios de los hiperparámetros, a la vez que equilibra la precisión y la complejidad de forma razonable.
- ItemA framework for complex event processing(2017) Grez Arrau, Alejandro; Riveros Jaeger, Cristian; Pontificia Universidad Católica de Chile. Escuela de IngenieríaComplex Event Processing (CEP) ha surgido como el campo unificador para las tecnologías que requieren procesar y correlacionar en tiempo real datos heterogéneos y distribuidos. CEP tiene aplicaciones en diversas áreas, lo que ha resultado en que haya un gran número de propuestas para procesar eventos complejos. Sin embargo, los sistemas CEP existentes están basados en soluciones ad-hoc que no se sustentan en bases teóricas sólidas, lo que los hace difíciles de entender, extender y generalizar. Además, son presentados generalmente de manera informal como interfaces de programación, y el utilizar cada uno de ellos requiere aprender un conjunto completamente nuevo de conocimientos. En esta tesis buscamos definir un marco riguroso para CEP. Comenzamos proponiendo un lenguaje formal para especificar eventos complejos, llamado CEPL, que contiene los operadores más comunes utilizados en la literatura y el cual tiene semántica simple y denotacional. Además, formalizamos las llamadas estrategias de selección, que son la piedra angular de CEP y en los sistemas existentes son presentadas sólo como extensiones en su diseño. Con la semántica ya definida, estudiamos cómo evaluar eficientemente CEPL. Obtenemos resultados de optimización basados en la re escritura de fórmulas, proponiendo una forma normal para manejar filtros unarios. Además, damos un modelo computacional formal para CEP basado en transductores y autómatas simbólicos, llamado matchautomata, el cual captura el fragmento regular de fórmulas con predicados unarios. Utilizando técnicas de reescritura y transformando a autómata, mostramos que el fragmento regular de CEPL puede ser evaluado eficientemente (tiempo constante por evento) cuando se utiliza la estrategia de selección next. Con estos resultados, proponemos un marco para evaluar eficientemente CEPL, estableciendo bases sólidas para futuros sistemas CEP.
- ItemA multifactor stochastic volatility model of commodity prices.(2015) López Abukalil, Matías Francisco; Cortázar S., Gonzalo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaNosotros proponemos una novedosa representación de los precios spot de commodities en la cual el cost-of-carry y la volatilidad del precio spot son ambas explicadas por un nmero arbitrario de factores de riesgo, anidando así muchas de las ya existentes especificaciones. El modelo exhibe unspanned stochastic volatility, provee simples y cerradas expresiones para los precios futuros y entrega fórmulas analíticas para opciones europeas sobre futuros. El modelo es estimado utilizando datos de futuros y opciones sobre petróleo, encontrando que la valorización de los contratos observados es precisa para un amplio rango de madureces y precios de ejercicio. Los resultados sugieren que al menos tres factores de riesgo en la volatilidad del precio spot son necesarios para ajustar correctamente la superficie de volatilidad presente en las opciones sobre futuros de petróleo, destacando así la importancia de usar modelos generales y multifactoriales en la valorización de derivados de commodities.
- ItemAccelerating dual cardiac phase images using undersampled radial phase encoding trajectories(2013) Letelier Farías, Karis del Pilar; Uribe Arancibia, Sergio A.; Prieto Vásquez, Claudia; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUn examen de 3D Dual Cardiac Phase (3D-DCP) se ha propuesto para obtener imágenes completas de corazón a final de sístole a final de diástole. En este trabajo proponemos acelerar el tiempo de adquisición y reconstrucción del método 3D-DCP al compartir información del exterior del espacio-K de ambas fases cardíacas usando una trayectoria modificada de Radial Phase Encoding y reconstrucción Gridding con combinación uniforme de bobinas. Datos totalmente muestreados fueron submuestreadas retrospectivamente y diferentes porcentajes del exterior del espacio-K fueron mezclados para determinar el porcentaje de información redundante existente entre ambas fases cardíacas. Posteriormente, datos submuestreadas prospectivamente fueron reconstruidos basados en el porcentaje de información redundante encontrado. Las imágenes usadas como gold standard fueron datos submuestreados y reconstruidos usando iterative SENSE. Se realizó una prueba de calidad de imagen y análisis del volumen cardíaco para validar los resultados.
- ItemAlgorithm design for the distributed average consensus problem over IoT environments(2018) Oróstica Navarrete, Boris Enrique; Núñez Retamal, Felipe Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaA medida que las tecnologías de comunicación han ampliado el conjunto de dispositivos con capacidades de red, está surgiendo una nueva concepción de la Internet de las cosas (IoT). Con la incorporación de dispositivos con diagnósticos avanzados y capacidades de actuación, el IoT proporciona un entorno atractivo para controlar procesos externos utilizando sus capacidades de detección, actuación y computación. En este contexto, los algoritmos de consenso son una alternativa atractiva para apoyar el funcionamiento del IoT y para habilitar su potencial como red de control distribuido. En particular, el problema de llegar a un consenso al promedio de algunas cantidades iniciales es un problema desafiante con potencial aplicaciones en el entorno IoT. Aunque los algoritmos de consenso son estrategias maduras y bien estudiadas que se ajustan naturalmente a las redes, su desempeño se deteriora cuando se enfrentan a fenómenos tales como retrasos estocásticos, transmisiones y recepciones secuenciales y falta de fiabilidad en el proceso de intercambio de información; todo presente en un entorno de IoT. En este trabajo, se diseña un nuevo algoritmo para lograr el consenso al promedio en un entorno IoT. Se desarrolla un análisis teórico para comprender sus principios de funcionamiento. Además, el algoritmo está codificado como un protocolo en hardware real el cual se evalúa en una red local de baja escala y en una red pública de gran escala. El algoritmo está inspirado en gossips y converge al promedio en todos los experimentos realizados en un entorno real de IoT donde enfrenta las no idealidades de los fenómenos de comunicación.
- ItemAlgoritmo de optimización probabilístico para resolver el problema de selección de modelo.(2012) Cortázar Morizon, Esteban; Mery Quiroz, Domingo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn aprendizaje supervisado existen numerosos algoritmos de preprocesamiento, selección de variables y clasificación, cada uno de los cuales tiene parámetros que permiten ajustarlo. El conjunto de combinaciones de algoritmos y parámetros (modelos) es enorme. Además, cada posible modelo debe ser entrenado y probado numerosas veces para una evaluación certera de su poder predictivo. Esta combinación de espacio de búsqueda grande y tiempo de evaluación elevado hace que encontrar un buen modelo puede tomar mucho tiempo. Por ejemplo, en el capítulo de experimentos, se puede ver que PSMS (un algoritmo de estado del arte, específicamente diseñado para la selección de modelo) requiere de más de dos semanas y media en la búsqueda de un modelo para un conjunto determinado de datos.
- ItemAn adaptive robust optimization model for power systems planning with operational uncertainty(2018) Verástegui Grünewald, Felipe; Lorca Gálvez, Álvaro Hugo; Gazmuri S., Pedro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa necesidad por sistemas sustentables de energía está impulsando la adopción de grandes cuotas de energía renovable variable en todo el mundo. Debido a esto, existe una creciente necesidad de nuevos modelos de planificación a largo plazo que puedan evaluar correctamente la capacidad de reserva y los requisitos de flexibilidad para gestionar niveles significativos de incertidumbre operativa a corto plazo. Motivado por este desafío clave, este trabajo propone un modelo de optimización adaptable robusto para el Problema de Planificación de la Expansión de la Generación y la Transmisión. El modelo propuesto tiene una estructura de dos etapas que separa las decisiones de inversión y operación, sobre un horizonte de planificación con míltiples períodos. El atributo clave de este modelo es la representación de la incertidumbre operativa diaria a través del concepto de días representativos y un conjunto de incertidumbre para la demanda y la disponibilidad de la energía eólica y solar, construido sobre esos días. Además, el modelo emplea una representación lineal del flujo de potencia para la red de transmisión. Este modelamiento permite una representación efectiva de la capacidad de reserva y de la flexibilidad operacional requeridas para la operación de un sistema de potencia con grandes cuotas de energía renovable. Para resolver eficientemente el problema de optimización, se emplea un método de generación de columnas. Extensos experimentos computacionales en una representación de 20 nodos del sistema eléctrico chileno en un horizonte de 20 años muestran las ventajas del modelo de planificación de expansión robusto propuesto, en comparación con un enfoque basado en días representativos deterministas, debido a una colocación espacial efectiva tanto de recursos variables como de recursos flexibles.
- ItemAnálisis de flujos metabólicos para elaborar estrategias de ingeniería metabólica en una cepa de Saccharomyces cerevisiae productora de monoterpenos(2012) Pérez Ascencio, Felipe Igor; Agosin T., Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos terpenos son una vasta y diversa clase de compuestos orgánicos con más de 50.000 ejemplos. Estos compuestos pueden ser clasificados según el número de átomos de carbono que presenten, siendo los más importantes los monoterpenos (C5), sesquiterpenos (C15), diterpenos (C20), y los triterpenos (C30). Los terpenos pueden ejercer una amplia variedad de funciones tal que han sido utilizados como anticancerígenos, antivirales, antibióticos, suplementos alimenticios, nutracéuticos, colorantes, cosméticos, o fragancias. Sin embargo, debido a sus bajas concentraciones en el reino vegetal y su compleja purificación se ha justificado el desarrollo de procesos alternativos de producción a gran escala. Entre las alternativas, el enfoque de la ingeniería metabólica para la producción de terpenos en Saccharomyces cerevisiae ha sido considerada como una metodología adecuada para la biosíntesis, extracción y purificación de estos compuestos.
- ItemAnálisis de la accesibilidad laboral para personas con y sin movilidad reducida en Santiago(2022) Orellana Rossi, Romina; Galilea Aranda, Patricia Viviana; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl transporte es una actividad cotidiana importante para las personas, abriendo oportunidades para la educación, el trabajo, el entretenimiento, entre otros. Sin embargo, en el contexto chileno, las personas con movilidad reducida no solo enfrentan barreras en la infraestructura de transporte, sino también culturales. Esto los ha llevado a desarrollar ciertos comportamientos que difieren de una persona sin movilidad reducida. En este trabajo se propone modelar la accesibilidad para viajes de trabajo de personas con movilidad reducida en la ciudad de Santiago de Chile y compararla con la accesibilidad de personas sin movilidad reducida. Para obtener los costos y rutas se utilizó el programa ESTRAUS, que es un modelo de equilibrio oferta-demanda de cuatro etapas para múltiples clases de usuarios y varios modos de transporte. Específicamente, se utilizó la base 2012 ya calibrada y se modificó para ejecutar solo la etapa de asignación. Para esta investigación se decidió utilizar una medida de accesibilidad gravitacional con una función de impedancia exponencial negativa. También, se calculó la misma medida, pero agrupada por modo y otra agrupada por modo y tiempo. Además, se realizó un análisis respecto a ciertos parámetros del ESTRAUS. Finalmente, se evaluó un proyecto de transporte para comparar los impactos en la accesibilidad para ambos usuarios. Los resultados fueron diferentes tiempos de viaje y niveles de accesibilidad para ambos usuarios, con peores niveles para las personas con movilidad reducida, que varía según el modo, el tiempo y la zona. La obtención de estas comparaciones es importante dado que el programa ESTRAUS se utiliza para evaluar proyectos como líneas de metro, carreteras, corredores de buses, tarificación vial, entre otros. Por lo tanto, es recomendable poder explorar nuevas metodologías que incluyan a las personas con movilidad reducida a la hora de evaluar proyectos y apunten a un transporte más inclusivo.
- ItemAnálisis de la microestructura y propiedades físico-mecánicas de bases estabilizadas con cloruro de magnesio hexahidratado en terreno(2022) Godoy Blanco, Pablo Enrique; Chamorro Giné, Marcela Alondra; González V., Álvaro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl cloruro de magnesio hexahidratado (MgCl2•6H2O) es un subproducto del litio, que en condiciones climáticas favorables es utilizado como estabilizador químico de bases granulares de Caminos de Bajo Volumen de Tránsito (CVBT). Esta alternativa de estabilización ha ido en aumento en las últimas décadas por su relativo bajo costo frente a otras alternativas y su buen desempeño frente a la acción abrasiva del tránsito. Las bases estabilizadas con MgCl2•6H2O al no contar con ninguna capa superior de protección, en los CVBT actúan como capa de rodadura y proporcionan capacidad estructural al camino. Estudios demuestran que estas bases granulares estabilizadas con MgCl2•6H2O tienen un buen rendimiento mecánico en terreno, lo que no es consecuente con las pruebas realizadas en el laboratorio. Para comprender el rendimiento de este material estabilizado, varios autores han estudiado sus propiedades físico-mecánicas en el laboratorio y en terreno, sin embargo, hasta ahora no se han estudiado sus propiedades micromecánicas, las cuales podrían explicar su desempeño físico-mecánico a partir del análisis de su microestructura y composición elemental del material. El objetivo de esta investigación es analizar la relación entre las propiedades físico-mecánicas de las bases granulares estabilizadas con MgCl2•6H2O en terreno y la caracterización de su microestructura con el fin de comprender el efecto de las características micromecánicas del material en el desempeño de las bases estabilizadas en terreno. Se evaluó la estructura físico-mecánica y microestructura del suelo estabilizado con MgCl2•6H2O y sin estabilizar. Se construyó una sección de prueba en terreno de donde se extrajeron las muestras, las cuales fueron tratadas en laboratorio y terreno con MgCl2•6H2O de la misma fuente y curadas por periodos iguales (7, 14 y 28 días). A diferencia de los suelos no estabilizados, se observó que en los suelos estabilizados con MgCl2•6H2O se forman nuevos productos cementicios que se unen a las partículas del suelo a medida que aumenta el tiempo de curado. Por medio del ensayo de Microscopía Electrónica de Barrido (FESEM) y la Espectroscopia de Infrarrojo Atenuada (FTIR -ATR) estos nuevos productos cementicios fueron identificados como Aluminato de Magnesio Hidratado (MAH) y Silicato de Magnesio Hidratado (MSH). A través del análisis de superficie específica (N2-BET), se determinó que debido a la formación de éstos productos cementicios, disminuye el volumen de poros en la microestructura de los suelos estabilizados, lo que produce un aumento en su densidad. Finalmente, a partir de la caracterización micromecánica y los resultados de laboratorio y terreno se desarrolló un modelo de comportamiento de las bases estabilizadas con MgCl2•6H2O, que permite comprender su desempeño en campo y en el laboratorio.
- ItemAnálisis de los efectos del terremoto del 27 de febrero de 2010 en estanques de acero inoxidable de pared delgada (EAIPD) con patas y desarrollo de un sistema de protección sísmica para estas estructuras(2011) Sandoval Sanzana, Víctor Manuel; Almazán Campillay, José Luis; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl sismo del Maule (Febrero 27, 2010, Chile) afectó gran parte del territorio nacional provocando daños de consideración en viviendas e industrias. La influencia de este sismo afectó directamente a gran parte de la industria vitivinícola nacional y los efectos fueron especialmente severos en sus estructuras de almacenamiento, en particular en los estanques de acero inoxidable de pared delgada utilizados en los procesos de fermentación y guarda. La utilización de sistemas de aislamiento sísmico en edificios demostró su gran eficiencia, sin embargo la utilización de este tipo de soluciones no es general en todo tipo de estructuras.
- ItemAnálisis de output en el largo plazo utilizando métodos de remuestreo bootstrap.(2014) Castro Anich, Margarita Paz; Gazmuri S., Pedro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUna de las áreas más importante de la simulación es el estudio del output para poder sacar conclusiones de los problemas modelados. En la actualidad existe una amplia gama de métodos utilizados para este propósito, pero curiosamente el bootstrap, uno de los métodos estadísticos más usados para análisis de datos, no es uno de ellos. En esta tesis se estudia el uso de métodos de bootstrap para análisis de output de modelos de simulación en el largo plazo con el objetivo de presentar a la comunidad científica la plusvalía de estos. Para esto se experimenta con el método bootstrap y variantes de este para datos correlacionados: el moving block bootstrap (MBB) y el threshold bootstrap (THB). Para analizar estos métodos se crearon dos modelos de simulación y los resultados se compararon a los obtenidos con método de réplicas independientes (RI). El primero modelo es un MjMj1 donde se pudo probar los métodos en un ambiente controlado. El segundo es un modelo de simulación que representa una problemática real, y en el cual se pretende mostrar el uso práctico de estos métodos. Con los experimentos realizados se pudo mostrar que los métodos bootstrap son una alternativa atractiva a la hora de analizar el output de una simulación. En ambos modelos los tiempos de cómputo de estos métodos fueron muy superiores a los de RI, siendo entre 9 y 47 veces más rápidos. Además, en ambos modelos se obtuvieron estimadores de alta calidad, con errores relativos cercanos al 2% y al 1%. Por lo tanto, los métodos de remuestreo deberían empezar a ganar más terreno en el campo de la simulación.
- ItemAnálisis experimental y simulación numérica del proceso de conformado de láminas metálicas delgadas mediante la aplicación de un láser de baja potencia(2011) Stevens Castro, Vicente Orlando; Celentano, Diego J.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn este trabajo se realizó un análisis experimental y numérico del conformado de chapas de acero inoxidable mediante un láser de baja potencia. En una primera etapa se realizó en el laboratorio el conformado de chapas de acero inoxidable AISI 302 para distintas configuraciones de potencia, de 20 a 67 W, y velocidad de avance del haz láser, 30 y 5 mm/s. Se obtuvieron ángulos de doblado de 0.2 a 10.3º.
- ItemAnálisis sísmico no lineal de la estructura de soporte de una caldera de potencia usando FNA(2009) García Núñez, Rodrigo Antonio; Cruz Z., Ernesto; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEste estudio busca por medio del análisis en el tiempo con el método Fast Nonlinear Analysis propuesto por E. Wilson (FNA) y usando distintos registros chilenos del terremoto de Marzo de 1985, aproximar el verdadero comportamiento que tiene la estructura de soporte de una caldera de potencia diseñada con la normativa y estado de la práctica vigente en Chile frente a una solicitación sísmica realística. Se presentan en el trabajo los distintos tipos de no linealidades consideradas en arriostramientos, columnas, pedestales y topes sísmicos, además de un detalle de los supuestos usados para aplicar el método FNA en el modelo estructural implementado y la referencia de la normalización de la intensidad de los registros de aceleración utilizados, escalados a la misma intensidad de Housner que el espectro de diseño de la norma NCh433.
- ItemApoyo para la escritura de ensayos académicos mediante hipermedios(2012) Gómez Zara, Diego Alonso; Nussbaum Voehl, Miguel; Chiuminatto, Pablo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUno de los mayores desafíos de la educación universitaria es cómo habilitar a los estudiantes para realizar ensayos académicos de calidad. Las principales debilidades detectadas en estos escritos derivan de la falta de estructuración de los argumentos y de una narrativa adecuada. Indagamos cómo apoyar el proceso de escritura a través de la elaboración de objetos multimodales, donde el estudiante además de la redacción iterativa del ensayo, aprende a representar los contenidos bajo distintos medios (imagen, video, sonido, texto e hipervínculos).
- ItemApproach for dynamic study scholarship allocation considering temporal renewal and budget transfer(2023) Toro Uquillas, Camila Ignacia; Cataldo Cornejo, Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn este artículo se propone un enfoque de solución para el problema de asignación de becas con renovación temporal y transferencia de presupuesto entre unidades territoriales y niveles educacionales. El problema se resuelve en dos etapas. En la primera etapa se realiza la asignación de becas para cada unidad territorial de manera independiente mediante un modelo de decisión markoviano que se resuelve de forma aproximada. En la segunda etapa, se implementa una heurística que permite reasignar el presupuesto sobrante de las unidades territoriales hacia aquellas con déficit presupuestario y postulantes sin beca asignada. El enfoque propuesto se aplica al caso de la Beca Indígena que otorga el Gobierno de Chile, donde el desempeño de la política resultante se compara con aquel de otras seis políticas que consideran diferentes criterios de decisión (puntaje de corte, cantidad de personas y porcentaje del presupuesto). Los resultados revelan que la política de asignación de becas generada por el enfoque propuesto permite obtener los mejores resultados, otorgando la mayor cantidad de becas y aprovechando de manera más eficiente el presupuesto disponible. Además, se observa que la política resultante es robusta frente a las diversas condiciones presentes en las distintas unidades territoriales, posicionándose como la mejor opción en todos los casos analizados. El enfoque de solución propuesto permite lidiar con un problema real, relevante y complejo como lo es el de asignación de becas, logrando una asignación dinámica y eficiente de recursos en el largo plazo.
- ItemAprendiendo modelos sparse para algoritmos de deep reinforcement learning basados en policy gradient(2021) Meléndez Salinas, Christian; Löbel Díaz, Hans-Albert; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos modelos de redes neuronales han sido ampliamente utilizados durante la última década, debido principalmente a su gran versatilidad y capacidad de obtener un alto rendimiento al resolver diversos problemas. Una de las posibles causas de este fenómeno parece ser la estructura jerárquica y la gran cantidad de parámetros que poseen, ya que les otorga un gran poder expresivo. Sin embargo, esta gran complejidad puede ser perjudicial, ya que puede generar: i) overfitting, ii) parámetros redundantes para la tarea que se está resolviendo y iii) cómputo innecesario. Una forma de reducir la complejidad del modelo es a través de regularización sparse, la cual consiste en una penalización dentro de la función objetivo del problema de optimización que fuerza el uso de menos parámetros o neuronas. Se han explorado formas de reducir la complejidad de los modelos de redes neuronales a través de regularización en contextos de aprendizaje supervisado, sin embargo, no se ha explorado el efecto que tiene en un contexto de aprendizaje reforzado basado en policy gradient. El presente trabajo estudia la posibilidad de obtener modelos menos complejos en aprendizaje reforzado utilizando algoritmos basados en policy gradient. Esto se hace comparando distintos tipos de regularización sparse, enfocándose en la obtención de modelos menos complejos en cuanto al uso de neuronas. Los resultados de este estudio indican que sí es posible encontrar modelos que utilicen una baja cantidad de neuronas a través de regularización sparse, siendo aquella aplicada sobre las activaciones la que obtuvo mejores resultados en cuanto a rendimiento y nivel de sparsity. Además, se muestra que modelos menos complejos poseen neuronas más especializadas que podrían ayudar a interpretar modelos en cuanto al rol que cumplen grupos de neuronas dentro de una política.
- ItemBERT for scientific articles recommendations using open source information(2023) Barías Compagnoni, Bernardo; Arenas Saavedra, Marcelo Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn los últimos años, los modelos de lenguaje han experimentado grandes avances en el Procesamiento del Lenguaje Natural (NLP). En concreto, el pre-entrenamiento y el desarrollo de modelos como BERT (Bidirectional Encoder Representations from Transformers) y sus derivados se han convertido en el estado del arte para muchas tareas de comprensión del lenguaje. Un campo de investigación interesante que utiliza modelos lingüísticos de PNL es el que estudia la similitud entre textos (Shahmirzadi et al., 2019; Wang & Dong, 2020). Estos textos pueden ser desde grandes documentos o párrafos, hasta oraciones o frases cortas. Gran parte de la dificultad de este problema radica en que los textos, en general, no están bien estructurados. Se han utilizado distintas técnicas para tratar de entender el contexto de los textos y comprender así la semántica de los documentos. Naturalmente, si los textos son mas largos, esto se convierte en una tarea más difícil. Dentro del estudio de la similitud entre textos, recientemente se ha intentado estudiar la relación entre pares de artículos científicos (Knoth et al., 2010, 2017; Tarnavsky et al., 2021). Al comparar artículos científicos, aprovechamos que el documento está dividido en distintas partes, como el título, el resumen, las conclusiones y otras áreas. Aunque siguen siendo datos no estructurados, dan cierta estructura al texto de entrada. Esta propiedad también nos permite trabajar con fragmentos de texto mas pequeños y, por tanto, comprender mejor el contexto. En este trabajo utilizamos BERT para proponer un pipeline que, dada una publicación, entregue publicaciones relacionadas: artículos científicos que puedan ser de interés para el lector. Para ello, abordamos dos problemas de NLP aplicados a artículos científicos: la clasificación de textos y la similitud entre pares de textos. Las etiquetas para los conjuntos de datos de estos problemas proceden de información jerárquica estructurada provista por los autores. Además, utilizamos la versión base de BERT para comprender el significado semántico de las publicaciones utilizando únicamente la información del resumen y el título, mediante la construcción de modelos para cada tarea. Estos modelos fueron evaluados en términos de precisión, recall y puntuación F1.
- ItemBridging the visual semantic gap in VLN via semantically richer instructions(2022) Ossandón Stanke, Joaquín; Soto Arriaza, Álvaro Marcelo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa tarea de Visual-and-Language Navigation (VLN) requiere entender complejas instrucciones de texto en lenguaje natural y navegar en un ambiente natural interior usando únicamente información visual. Mientras es una tarea trivial para el humano, sigue siendo un problema abierto para los modelos de inteligencia artificial. En este trabajo, planteamos como hipótesis que el mal uso de la información visual disponible es la razón principal del bajo rendimiento de los modelos actuales. Para apoyar esta hipótesis, presentamos evidencia experimental mostrando que modelos del estado del arte no son totalmente afectados cuando reciben limitada o incluso nula información visual, indicando un fuerte overfitting al texto de las instrucciones. Para fomentar un uso más adecuado de la información visual, proponemos un nuevo método de aumento de datos que fomenta la inclusión de información visual más explícita en la generación de instrucciones de navegación textuales. Nuestra intuición principal es que los conjuntos de datos actuales incluyen instrucciones textuales que tienen como objetivo informar a un navegante experto, como un ser humano, pero no a un agente de navegación visual principiante, como un modelo de deep learning inicializado aleatoriamente. Específicamente, para cerrar la brecha semántica visual de los conjuntos de datos actuales, aprovechamos los metadatos disponibles para el conjunto de datos Matterport3D que, entre otros, incluye información sobre etiquetas de objetos que están presentes en las escenas. Entrenando un modelo actual con el nuevo conjunto de instrucciones generado aumenta su rendimiento en un 8% en cuanto a tasa de éxito en entornos desconocidos, mientras que probar estas nuevas instrucciones en humanos supera a las instrucciones sintéticas disponibles, lo que demuestra las ventajas de la propuesta de aumento de datos.
- ItemCaracterización del desplazamiento de las actividades en Santiago de Chile en 1990-2015: impacto en los tiempos de viaje en la ciudad y sus campamentos(2017) Suazo Vecino, Gonzalo; Muñoz Abogabir, Juan Carlos; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEste trabajo analiza el cambio en la composición urbana de las oficinas y patrón de viajes en la ciudad de Santiago de Chile desde 1990 a la actualidad. Interesa en particular determinar la dirección y magnitud de la expansión del centro de actividades. Para desarrollar este análisis se observó el uso del suelo a través del tiempo mediante datos del SII, lo cual permitirá cuantificar el desarrollo de las actividades espacialmente. Por otra parte, para analizar la evolución de los tiempos de viaje entre pares Origen-Destino (OD) se verán las Encuestas OD de 1991, 2001 y 2012, matrices calibradas para los años 2001 y 2012 mediante ESTRAUS y las estimaciones de matrices derivadas del uso de las tarjetas Bip! (Munizaga et al., 2014) analizando las diferencias entre el 2011 y el 2015. Adicionalmente, se evaluarán las consecuencias del proceso de erradicación de campamentos llevado a cabo entre el año 1979 y 1985 analizando la variación en los tiempos de viaje de aquellos más relevantes de la región durante este proceso hasta la actualidad. Como resultados, se determinó que un 12% de la superficie de la capital ubicada en el nororiente, concentra cerca de dos tercios de la inversión en m2 de servicios y además un aumento en la demanda por transporte en este centro de actividades. Respecto a los tiempos de viaje, no se aprecia una tendencia significativa al alza o disminución, a excepción de reducciones en zonas donde se han implementado proyectos de transporte. Finalmente, respecto a la situación de los campamentos, se concluye que existió un empeoramiento en sus tiempos de viaje, identificando no sólo una gran diferencia entre quienes se encuentran lejanos y cercanos al centro de actividades, sino que también se observa que al expandirse éste, los sectores más periféricos se ven aún más perjudicados.