Examinando por Materia "Machine Learning"
Mostrando 1 - 18 de 18
Resultados por página
Opciones de ordenación
Publicación Acceso abierto Adquisición de señales por medio de electroencefalografía para futuro control de prótesis de miembro superior(Universidad EIA, 2022) Silva Sandoval, Juan Francisco; Osorio Sánchez, Laura Sofía; Torres Villa, Robinson AlbertoRESUMEN: La amputación representa un gran impacto en la vida de una persona, en el ámbito social y familiar, impidiéndoles así realizar tareas cotidianas por si solos. Las prótesis que están disponibles en la actualidad representan un alto costo para aquellos individuos que las necesitan, por lo que se ha explorado una gran variedad de alternativas con el fin de suplir esta necesidad. Es por esto por lo que en este trabajo se realizara un sistema de adquisición de señales de electroencefalografía, a la cual se le implementará un aprendizaje de la maquina o Machine Learning, para clasificar la entrada de los datos en diferentes movimientos, los cuales serán utilizados para activar una prótesis. Para desarrollar este trabajo se propone el desarrollo de un dispositivo mecánico como prototipo de prótesis que sirva de medio para evaluar un modelo de Machine Learning. Este será diseñado por medio de la plataforma Edge Impulse, la cual permite la adquisición de datos y elaboración de modelos de Machine Learning, sin la necesidad de tener conocimientos avanzados en programación, y con la oportunidad de aplicarlos en dispositivos embebidos. De manera que sea posible activar actuadores dentro del prototipo de prótesis a través de la adquisición de señales de electroencefalografía y el reconocimiento de los movimientos asociados a estas. En cuanto a los resultados obtenidos, se destaca el modelo de Machine Learning que identificó y clasificó correctamente, de acuerdo con las métricas de evaluación, los movimientos de brazo derecho, brazo izquierdo y pierna derecha, además de un estado de reposo. De manera que el dispositivo se considera funcional para realizar acciones como la activación de actuadores dentro de un prototipo de prótesis.Publicación Acceso abierto Análisis de la calidad en el servicio para la satisfacción de los usuarios en el Hotel San Fernando Plaza Medellín.(Universidad EIA, 2018) Arango Zuluaga, Alejandro; Córdoba Echeverri, David; Ocampo Morales, AlexandraHotel San Fernando Plaza Medellín es una empresa de servicio hotelero que a diario busca afianzar la fidelización de sus clientes a través de la calidad, renovación, actualización e innovación permanente de sus servicios y productos. Sin embargo, las encuestas actuales y la forma en la que son analizadas no permiten evidenciar las múltiples oportunidades de mejora que el cliente demanda. En este proyecto se estudian los históricos de encuestas, quejas y reclamos relacionados con la prestación del servicio hotelero del Hotel San Fernando Plaza Medellín con el fin de identificar posibles oportunidades de mejora a través de la relación y priorización de las variables más importantes. Dicha información será obtenida del rediseño de las actuales encuestas para adquirir una información de mejor calidad que así tengan mejores impactos en la toma de decisiones que aporten al análisis y mejoramiento continuo del hotel.Publicación Acceso abierto Generación de imágenes sintéticas de radiografía de tórax con enfermedad pulmonar obstructiva crónica utilizando técnicas de inteligencia artificial(Universidad EIA, 2023) Sánchez Ocampo, María Manuela; Bonet Cruz, Isis; Montagut, YeisonRESUMEN: La implementación de modelos generativos en la medicina, particularmente en la generación de imágenes diagnósticas de la Enfermedad Pulmonar Obstructiva Crónica (EPOC), representa un avance significativo en la convergencia entre la inteligencia artificial y la práctica clínica. En el presente trabajo se proponen dos modelos de redes neuronales. El primero es AEPOC, diseñado para clasificar la EPOC partiendo de imágenes médicas, con una arquitectura que combina dos autoencoders para extraer los patrones distintivos de cada clase. El segundo modelo es LunGAN, un modelo generativo que sintetiza imágenes que reflejan las características de la EPOC a partir de datos clínicos derivados de los exámenes de función pulmonar. El presente trabajo aborda cuatro etapas importantes. La primera se enfoca en la adquisición y procesamiento de los datos clínicos de la base de datos obtenida del Hospital Pablo Tobón Uribe. La segunda etapa se dedica al análisis detallado de la información estructurada y no estructurada que permiten comprender la patología. La tercera etapa implica el diseño e implementación de múltiples modelos con la finalidad de crear imágenes que presenten las características relevantes de la patología. Finalmente, se realizó la evaluación de la calidad de las imágenes, que permite tener una visión integral sobre la semejanza entre las imágenes reales y generadas, lo cual respalda la capacidad de los modelos para imitar con precisión las imágenes de radiografía de tórax. EL modelo generativo propuesto posee un potencial para transformar los datos clínicos en representaciones visuales, abriendo posibilidades de formación y el aprendizaje de profesionales médicos al simular diversidad de escenarios y manifestaciones de enfermedad sin la necesidad de un gran número de pacientes reales. Este avance señala un futuro prometedor en la unión de la inteligencia artificial con el campo de la medicina, ofreciendo nuevas perspectivas para afrontar y avanzar en los desafíos actuales del tratamiento y diagnóstico pulmonar, con el objetivo de mejorar constantemente la calidad de la atención médica.Publicación Acceso abierto Grow the pie or have it? Using machine learning for impact heterogeneity in the Ultra-poor Graduation Model(Universidad EIA, 2021) Chowdhury, Reajul; Ceballos-Sierra, Federico; Sulaiman, MunshiABSTRACT: Anti-poverty interventions often face a trade-off between immediate reduction in poverty, measured by consumption, and building assets for longer-term gains. An “Ultra-poor Graduation” model, found effective on both dimensions in several rigorous studies, generally leans towards asset building. By using data from a large-scale RCT in Bangladesh, we find significant variation in impact on assets where the top quintile gainers experience asset growth of 344% while asset growth is only 192% for the bottom quintile. Heterogeneity in impact on household expenditures is found to be present but of lower magnitude than that of assets. Importantly, the machine learning techniques we apply reveal contrasts in characteristics of beneficiaries who made the most in assets vs. consumption. The results identify beneficiary characteristics that can be used in targeting households either to maximize impact on the desired dimension and/or to customize interventions for balancing the asset and consumption trade-offPublicación Acceso abierto Identificación temprana de deterioro cardiovascular mediante técnicas de Machine Learning(Universidad EIA, 2021) Carmona Pulgarín, Carlos Daniel; Macias Pimienta, Juan CamiloRESUMEN: Las enfermedades infecciosas representan un problema de gran importancia en el contexto hospitalario dado que son un peligro de gran magnitud dentro de una institución de salud, siendo los pacientes de cuidados intensivos una población muy vulnerable por su delicada condición. Así bien, el deterioro cardiovascular es uno de los agentes más determinantes a la hora del desarrollo de una enfermedad infecciosa, pues este es uno de los órganos y sistemas que primero se ven afectados a la hora de presentarse una infección, además de representar un aumento sustancial en la mortalidad de los pacientes cuando este se presenta. Actualmente gracias a los avances en el campo de instrumentación médica, la maquinaria implicada en el monitoreo y mantenimiento de los pacientes genera constantemente información sobre las variables que se ven implicadas en tales procesos, información que no se utiliza en ningún proceso de diagnóstico o seguimiento de posibles condiciones desarrolladas por el paciente. Con esto dicho, el objetivo de este proyecto es el de, a partir de técnicas de Machine Learning, un sub campo de la inteligencia artificial que se basa en la abstracción de información y la búsqueda de patrones dentro de un grupo de datos, encontrar un método de identificación temprana de deterioro cardiovascular en pacientes infectados a partir de datos recopilados de pacientes en la unidad de cuidados intensivos, obtenidos de una base de datos en la red (MIMIC) y de una institución de salud local (clínica de Las Américas). Para la ejecución de este proyecto en primer lugar se realizó todo el proceso de descarga de datos de las respectivas fuentes (MIMIC e institución local) y además se definió el deterioro cardiovascular en dos parámetros: presión arterial media por debajo de 70 mmHg y suministro de vasopresores. Con estos parámetros se procedió a realizar el acondicionamiento de los datos en PostgreSQL donde se obtuvieron las cohortes definitivas con y sin sospecha de infección con el fin de analizar el comportamiento del modelo de las dos maneras. Con la obtención de la cohorte de ambas bases de datos, se realizó todo el análisis de cohortes en la herramienta Power BI y la minería de datos en el programa informático Orange, donde se definieron las variables a ingresar con el criterio de aporte de información mínimo del 1% en los métodos de puntuación. Se seleccionaron los parámetros y los modelos de predicción para trabajar con los datos de MIMIC y definir cuál modelo alcanzaba mejores métricas. Estos resultados se analizaron a través de la herramienta Power BI y se seleccionó el modelo con las métricas más altas. Este modelo fue evaluado con los datos de la institución local. Por último, se realizó el diseño de la interfaz gráfica del modelo en el programa Figma y se realizó un video simulando la interacción que tendría el profesional con la interfaz del modelo predictivo. Los resultados mostraron que no hubo una diferencia significativa en el desempeño de los modelos para las muestras de pacientes con y sin sospecha de infección, es decir que el funcionamiento del modelo no cuenta con casi ninguna dependencia relacionada a esta variable. Los modelos relacionados con Gradient Boosting contaron con un desempeño más sobresaliente en el set de datos de la clínica de una institución de salud local, gracias a su capacidad para trabajar de forma óptima en muestras con datos faltantes, por lo que se recomienda trabajar con el modelo Gradient Boosting con las respectivas variables definidas.Publicación Acceso abierto Identificación y conteo de insectos (mosca blanca, trips y minador de hoja) capturados en trampa adhesiva mediante visión e inteligencia artificial. Caso Flores El Trigal(Universidad EIA, 2020) López Grisales, Natalia; Martínez Osorio, AlejandroRESUMEN: En los cultivos de flores, la presencia de plagas puede generar grandes pérdidas y afectar la producción de las empresas, por esto, es fundamental realizar un monitoreo constante en busca de insectos, enfermedades o daños en las plantas que indiquen la presencia de plagas. Esta es una labor que se torna complicada debido a que el comportamiento de algunos insectos puede ser más activo en la noche o en la ausencia de los operarios. Actualmente, para contrarrestar esta problemática, se implementa el uso de trampas adhesivas como método de monitoreo indirecto, con las cuales se capturan insectos para luego analizar el crecimiento de su población. La información recolectada en la lectura de las trampas es clave para la toma de decisiones, pero la magnitud de los cultivos y el tamaño de los insectos hacen que sea una tarea que demanda tiempo, esfuerzo y conocimiento especializado. Por esto, con el desarrollo de este proyecto se busca automatizar el proceso, mediante la identificación automática de tres clases de insectos: Minador de hoja, Trips y Mosca Blanca, a través de una aplicación móvil, dando alivio a la persona encargada de realizar esta actividad. En este documento se presenta un estudio de diferentes métodos computacionales para la clasificación y conteo de insectos, mediante la metodología Design Thinking de Herbert Simon (1969), la cual propone 7 etapas: definición, investigación, ideación, prototipado, selección, implementación y aprendizaje. Esta metodología puede ejecutarse de forma no lineal e iterativa. Los métodos computacionales estudiados son: Procesamiento Digital de Imágenes, Machine Learning a través de la plataforma Custom Vision de Microsoft Azure y Deep Learning con el modelo de detección de objetos YOLO (You Only Look Once). Luego de diseñar y probar un prototipo por cada método, se elige el modelo YOLO para su implementación, ya que obtuvo el mejor desempeño en la clasificación de los insectos. El modelo seleccionado se implementa en una aplicación móvil desarrollada en el software Android Studio, con la cual es posible clasificar y cuantificar los insectos capturados en la trampa en tiempo real, lo que reduce el tiempo que toma realizar el monitoreo manual, de 1 minuto por placa aproximadamente a un par de segundos que le toma a la persona enfocar la trampa con el dispositivo móvil; suprime la necesidad de capacitar a las personas en identificación de plagas y ofrece a la empresa la oportunidad de almacenar la información digitalmente, dando un paso importante en la transformación digital, la cultura del dato y el uso de la información.Publicación Acceso abierto Identificación y remoción de piezas para el ensamble de botones mediante visión artificial(Universidad EIA, 2018) Velásquez Campillo, Miguel; Jaramillo Velásquez, Víctor HugoEn el presente trabajo se diseña y desarrolla un sistema de identificación y remoción de piezas para el ensamble de botones metálicos, mediante técnicas de visión artificial y Machine Learning. El sistema consta principalmente de una parte para la adquisición de imágenes en la línea de ensamble, y otra para la remoción de dichas piezas cuando se encuentran al revés. Se comienza con el diseño experimental físico de estas partes: la base para la cámara que detecta las piezas, y el sistema para remover las piezas directamente en el riel de ensamble. Luego se procede a desarrollar los distintos algoritmos en Python, utilizando librerías de OpenCV, para analizar e identificar si una pieza en particular se encuentra al revés, y en caso de serlo, expulsarla con el sistema de remoción. La técnica de entrenamiento del sistema de identificación es utilizando características geometrías para determinar las diferencias entre las piezas. Finalmente se instala el dispositivo de selección en una maquina ensambladora y se procede a verificar su funcionamiento, evaluando la capacidad de identificar y remover correctamente las piezas, al igual que evaluar su porcentaje de confiabilidad al realizar la tarea. El trabajo fue realizado para 3 referencias de botones, en donde se obtuvieron porcentajes de identificación y remoción de 90.4% para la referencia 2 y 91.6% para la referencia 3. La referencia 1 resultó ser demasiado similar al derecho y al revés como para poder determinar con certeza y con factores geométricos su diferencia.Publicación Acceso abierto Impacto de las cámaras de fotodetección en la seguridad vial del área metropolitana de Medellín(Universidad EIA, 2023) López Gómez, Juan Pablo; Vitola Villa, Carlos Andrés; Pava Restrepo, AndrésRESUMEN: esta tesis aborda el desafío de predecir la gravedad de los incidentes de tránsito en las vías del Área Metropolitana de Medellín, donde se hayan implementado cámaras de fotodetección, mediante el uso de técnicas de aprendizaje automático. El objetivo principal es, determinar el nivel de eficiencia de las cámaras de fotodetección en cuanto a la disminución de los accidentes de tránsito, con base en las variables de influencia y condiciones de su entorno. Utilizando datos de informes de la alcaldía de Medellín y a través de la aplicación de algoritmos de regresión y clasificación como: Regresión lineal (LR), Clasificador de crestas (Ridge), K-Vecinos más cercanos (KNN), Máquinas de vectores de soporte (SVM), Árboles de decisión embolsados (BDT), Bosque aleatorio (RF) y Aumento del gradiente estocástico (GB), además de métricas de validación como: Curva de aprendizaje, Índice jaccard, Puntuación F1 y Matriz de confusión para garantizar el desempeño del modelo de Machine Learning; y también de técnicas de sobre-muestreo para abordar el desequilibrio en el caso de faltar información. Los resultados mostraron que el clasificador (GB) obtuvo la mejor precisión en el conjunto de prueba, con un valor medio del 75% y el modelo (RF) entrenado con el conjunto de datos balanceado, alcanzó una precisión media del 74% para este mismo conjunto de datos. Estos resultados demuestran la eficacia del modelo para la predicción de la gravedad de los accidentes de tránsito ocurridos en cada cámara de fotodetección; a pesar de ser una investigación con fines académicos. En conclusión, esta tesis proporciona una metodología adecuada para predecir la gravedad de los accidentes de tránsito, utilizando técnicas de aprendizaje automático. Por lo que, el modelo desarrollado puede ser de gran utilidad para las autoridades encargadas de las medidas preventivas de accidentes. Brindando una herramienta al momento de la implementación de cámaras de fotodetección en futuras zonas, mediante una respuesta más eficiente y oportuna.Publicación Sólo datos Impacto de una infraestructura para la micromovilidad en Belén(Universidad EIA, 2021) Osorio Lopera, Jaqueline; Echeverri Calle, Juan Diego; Pava Restrepo, Andrés; Andrés Pava RestrepoRESUMEN: Según la Encuesta Origen Destino de 2017 realizada en la ciudad de Medellín, Colombia se encontró que la mayoría de los viajes realizados desde la comuna 16 Belén se hacían hacia este mismo destino, teniendo como uno de los modos principales de viaje el vehículo particular. Es por esto por lo que la presente investigación pretende por medio de una propuesta de infraestructura para la mircromovilidad en Belén evaluar la disposición de uso de esta a través de modelos de elección discreta. Siendo los modos de viaje de micromovilidad una buena alternativa para desplazamientos en los que los vehículos motorizados no son muy eficientes, y donde su impacto es mayor en relación con las distancias recorridas, contribuyendo al uso de nuevos medios de transporte amigables con el medio ambiente, ahorro en tiempos de viaje y aportando salud a las personas. En el desarrollo de la metodología, se realizó un grupo focal con el fin de identificar variables de influencia en la elección de modo de viaje de las personas como costo y tiempo de viaje y seguridad. Seguido a esto se hizo una encuesta de preferencias declaradas y reveladas donde se recogieron en total 202 datos con los cuales se hizo una base de datos y trabajar así con algoritmos de machine learning (aprendizaje automatizado) en lenguaje Python. El modelo es usado entonces para determinar la demanda que tendrían los modos de viaje de micromovilidad con la infraestructura planteada. Se obtuvo entonces que los usuarios seguirían prefiriendo los modos de viaje particulares, pero en el caso particular del automóvil a medida que su tiempo y costo de viaje aumentaban la probabilidad de usar los modos de viaje de micromovilidad.Publicación Acceso abierto Modelo basado en Machine Learning para la predicción de los precios futuros en el mercado de valores(Universidad EIA, 2021) Velez Garcia, Santiago; Peña P., AlejandroRESUMEN: El mercado de valores se ha convertido a lo largo de la historia en uno de los principales sectores económicos alrededor del mundo. Sin embargo, los inversores tradicionales suelen tener pérdidas debido a un horizonte de inversión poco claro y un proyección sin fundamentos. Es por esto, que crear un buen modelo de apoyo a las decisiones de inversión para una buena toma de decisiones se ha convertido en un importante problema de investigación. Los diferentes modelos de aprendizaje pueden proporcionar un rendimiento relativamente bueno en la previsión del precio de las acciones. Este documento se centra en evaluar diferentes modelos de Machine learning para crear un modelo de previsión para el precio futuro de las acciones. El resultado experimental muestra que el modelo de redes neuronales (RMSE=2,9) tiene una precisión mas alta que los demás modelos estudiados.Publicación Sólo datos Modelo cognitivo borroso para la caracterización de la percepción de la publicidad corporativa de Suramericana de Seguros S.A. en términos de patrones emocionales y atributos de marca(Universidad EIA, 2019) Henao Ocampo, Angélica María; Panesso Restrepo, Carolina; Peña Palacio, Juan AlejandroLa evaluación de la percepción de marca a través de publicidad corporativa es actualmente todo un reto para las compañías, pues estas generalmente utilizan métodos tradicionales del mercadeo donde su efectividad depende de la capacidad y voluntad de las personas para interpretar y detallar su nivel de involucramiento y afinidad frente a la información a la que están expuestas. Esto ocasiona que las organizaciones cuenten con evaluaciones sesgadas y limitadas que dificultan la ejecución de estrategias de mercadeo que le apunten a que la percepción de marca de sus clientes sea acorde con la estrategia comunicativa de la entidad en un momento dado. Por consiguiente, caracterizar la percepción de marca de una entidad a través de pautas corporativas, haciendo uso de métodos no tradicionales del mercadeo basados en los principios de la inteligencia computacional, se convierte en una herramienta innovadora para las organizaciones dado que facilita la creación de estrategias de comunicación más acertadas y objetivas de acuerdo a lo que realmente perciben los consumidores. De esta manera, la presente investigación se fundamenta en el diseño y desarrollo de un modelo cognitivo borroso para la caracterización de la percepción de marca de una muestra de individuos, al estos estar expuestos a dos pautas publicitarias de una compañía aseguradora –una de carácter informativo y otra emocional-, con base a las emociones y los atributos de marca percibidos, haciendo uso de métodos cuantitativos como redes neuronales y lógica borrosa, y cualitativos como encuestas, con el fin último de evaluar la percepción de marca de una forma más objetiva e integral. Para el entrenamiento del modelo se tuvieron en cuenta las señales EEG provenientes de la actividad bioeléctrica cerebral de 4 expertos al estar expuestos a estímulos visuales representativos tanto de emociones -alegría, tristeza, miedo e ira- como de atributos de marca -confianza, experta, cercana, dinámica y latinoamérica-; para la validación del mismo, se tuvieron en cuenta las señales EEG de una muestra de individuos -hombres y mujeres entre 18 y 25 años-, expuestos a una publicidad corporativa audiovisual. Seguidamente, se diseñó un autoencoder útil para la reducción e identificación de las características más importantes de cada conjunto de señales; y posteriormente, se diseñaron diferentes redes neuronales de aprendizaje profundo que sirvieron como base para el aprendizaje del modelo teniendo en cuenta las señales provenientes de los expertos, lo cual arrojó unos pesos útiles para el reconocimiento efectivo de patrones emocionales y atributos de marca en pautas corporativas. Por último, teniendo en cuenta dichos pesos y las señales provenientes de los individuos de la muestra, se implementó el modelo cognitivo que generó efectividades mayores al 90% en la clasificación de patrones emocionales y del 82% en la clasificación de atributos de marca, y se elaboró a continuación un mapa borroso por individuo que permitió caracterizar la percepción de marca de cada uno de estos de manera exitosa; así mismo, al comparar dichos resultados con los arrojados por las encuestas, se encontraron relaciones frente a lo que los individuos expresaron haber percibido y lo arrojado por el modelo, aunque también hubo casos en donde los resultados divergían dada la subjetividad implícita en las encuestas y en los insumos de entrada utilizados por el modelo.Publicación Acceso abierto Modelo de inversión de venture capital. Evidencia para América Latina.(Universidad EIA, 2023) Arboleda Uribe, Sara; Montoya Henao, Luis Miguel; Cruz Castañeda, VivianRESUMEN: El “venture capital” es una herramienta esencial de financiación privada que se utiliza para apoyar a empresas emergentes con un alto potencial de crecimiento. En este estudio, exploramos la aplicación de técnicas de Procesamiento de Lenguaje Natural (NLP) y Grandes Modelos del Lenguaje (LLM) para analizar datos no estructurados, como las descripciones de las empresas, con el objetivo de predecir los montos de inversión que estas empresas podrían atraer. Utilizamos una base de datos de empresas de América Latina que han recibido inversiones de capital de riesgo y aplicamos técnicas de NLP y Machine Learning en combinación con modelos de lenguaje pre-entrenados basados en la arquitectura de BERT para modelar la cantidad invertida. Evaluamos el rendimiento de estos modelos utilizando una serie de métricas relevantes para determinar la capacidad de este tipo de modelos en tareas fuera de NLP. Los resultados de este estudio proporcionan una visión valiosa sobre la capacidad de los modelos de lenguaje para predecir las inversiones de capital de riesgo y destacan las áreas potenciales para futuras investigaciones y mejoras en este campo emergente de estudio.Publicación Acceso abierto Modelo de scoring para el otorgamiento de crédito a personas naturales(Universidad EIA, 2021) Gómez Henao, Juan Pablo; Patiño Pérez, Héctor AlejandroRESUMEN: La calidad de los créditos de consumo y de vivienda (hipotecarios) en Colombia ha permanecido en rangos constantes desde el 2017 demostrando que las entidades crediticias presentan ineficiencias en sus modelos de calificación crediticia, ya sea en la recolección de información de las personas o en los métodos estadísticos que se utilizan actualmente, por lo que su asignación de capital para estos productos no son los mejores. Estos modelos de crédito si bien son útiles, no logran desempeñarse de la mejor manera, afectando así tanto a las entidades de crédito como a los posibles clientes. Con la propuesta planteada se busca que las entidades financieras asignen correctamente el capital, teniendo en cuenta el mayor número de criterios y su importancia en los modelos de evaluación de cartera, y de esta forma maximicen sus beneficios, reduzcan sus reservas de capital e incluyan a personas a que accedan a los créditos luego de realizar la solicitud de estos. El estudio se realizará utilizando una base de datos (ficticia o real), analizando la característica de los clientes y definirlos como criterios para los modelos estadísticos a utilizar, adicionalmente, se estudiará la implementación de variables macroeconómicas a los modelos estadísticos propuestos. Finalmente, se realizará una comparación según unas métricas de desempeño de los modelos de machine learning utilizados para el estudio del otorgamiento de créditos, seleccionando el mejor de estos y realizando las respectivas conclusiones.Publicación Acceso abierto Modelo del comportamiento humano en la conducción y su influencia en la generación de accidentes(Universidad EIA, 2022) Burgos Lugo, Juan José; Villegas Diez, Sebastian; Pava Restrepo, AndrésRESUMEN: Debido a una ardua investigación acerca de cuáles son los factores de muerte de las personas, según la OMS, se pudo verificar que cada año se pierden aproximadamente 1,3 millones de vidas a consecuencia de lesiones causadas por accidentes de tránsito. Entre 20 y 50 millones de personas sufren traumatismos no mortales, y muchos de ellos provocan una discapacidad, estos son generados por múltiples factores de riesgo como, por ejemplo, conductores que no respetan las normas de tránsito, conducen al ingerir altos grados del alcohol, conductores que manejan a altas velocidad, entre muchas causas más. El enfoque de sistemas de seguridad aboga por aplicar un sistema de transporte seguro para todos los usuarios de las vías de tránsito, teniendo en cuenta la vulnerabilidad de las personas a las lesiones graves causadas por el tránsito, y reconociendo que el sistema se debería concebir para tolerar el error humano. Este se considera un importante problema para la salud pública, por tanto, se busca dar un aporte a las soluciones en materia de seguridad vial para ayudar a prevenir estos incidentes de tránsito respecto a ciertos escenarios peligrosos (OMS, 2021). A pesar de que los países de ingresos bajos y medianos tienen aproximadamente el 60% de los vehículos del mundo, se producen en ellos más del 93% de las defunciones relacionadas con accidentes de tránsito. Por otro lado, Colombia, específicamente en la ciudad de Medellín en el Departamento de Antioquia, es el segundo departamento que presenta mayores accidentes de tránsito desde el año 2017, al realizar la búsqueda de cuáles eran los escenarios de movilidad más peligrosos y con mayor accidentalidad en Medellín, se eligieron 5 escenarios en total, los cuales fueron, La Glorieta Avenida Guayabal con Calle 10, Unidad deportiva de Belén, Glorieta Monterrey, Glorieta Exposiciones hasta la Rotonda San Diego, La Glorieta Avenida 80 con Carrera 70 (OMS, 2021). Luego de tener los escenarios se procedió a grabar los mismos por medio de una cámara, para luego convertir los videos a un formato compatible con las gafas de realidad virtual, permitiendo dar una experiencia inmersa a todos los individuos por evaluar. Con el fin de poder identificar, cuáles son las acciones que puede tomar un conductor ya sea de carro o bicicleta, dependiendo al escenario de movilidad que se le plante, y teniendo en cuenta las conductas que cada persona posea.Publicación Acceso abierto Modelo predictivo para el pronóstico temprano de gravedad en pacientes con neumonía de una unidad de cuidados intensivos(Universidad EIA, 2021) Barrera Sanchez, Jeisson Harvey; Camacho Cogollo, Javier Enrique; Bonet Cruz, IsisRESUMEN: La neumonía ataca directamente al sistema respiratorio, por lo que en algunos casos se hace necesario conectar al paciente a un ventilador o ingresarlo a una unidad de cuidados intensivos (UCI), en ese punto la salud del paciente es inestable por lo que es de vital importancia mantenerlo en revisión constante. Mediante este proyecto se pretende desarrollar un modelo que permita el pronóstico temprano de gravedad de los pacientes con neumonía en UCI, evitando el retraso en el tratamiento, falta de cuidados o errores clínicos. El trabajo se realizó utilizando la base de datos MIMIC-III, que tiene información clínica de pacientes reales en cuidados intensivos. En un análisis descriptivo de los datos se encontró que el 14.23% de la muestra tiende a obtener el peor desenlace, que es la muerte. El modelo propuesto fue LightGBM con un 96% de accuracy y su recall para la clase objetivo del 100%, teniendo una ventana de las últimas 24 horas para recolectar datos y 12 horas descartadas antes de la predicción.Publicación Acceso abierto Propuesta de oferta de reventa de Sneakers deportivas a partir de un modelo de inteligencia artificial(Universidad EIA, 2022) Hincapié Herrera, Juan Daniel; Patiño Perez, Héctor AlejandroRESUMEN: El mercado secundario de sneakers deportivas, o sneakers, ha venido en un vertiginoso ascenso en la última media década, pasando de ser artículos en su mayoría de culto o de mero uso funcional, a ser íconos de un movimiento y constante participación de nuestro diario vivir. La búsqueda de lo exclusivo con el objetivo de resaltar no es ajena a este mercado. Modelos exclusivos de temática sobre una ciudad o país, colaboraciones con el artista/deportista del momento, o simplemente una cantidad limitada de modelos generan una demanda de inéditas proporciones, la cual ha hecho que la accesibilidad al público en general sea prácticamente nula, y que solo quienes están en informados y en el lugar correcto puedan comprarlos. Dicha demanda ha sido explotada por una serie de jugadores a lo largo de la cadena de consumo de las sneakers , desde los fabricantes, retailers y como no, revendedores, personas que “monopolizan” el acceso al lanzamiento del momento. Con el fin de aprovechar el gran caudal de datos proveniente del mercado en crecimiento de reventa de sneakers , entre muchas otras tecnologías de inteligencia artificial, el machine learnig (ML) ha mostrado ser un arma poderosa para hacerle cara a este volumen de datos. Con este objetivo, dentro del machine learnig se han desarrollado algoritmos de aprendizaje tales como: redes neuronales artificiales, árboles de decisión, regresiones lineales, entre otros, los cuales permiten a un sistema aprender a desarrollar una labor dada una entrada de datos y la “experiencia” que extrae de estos. Entonces entra el cuestionamiento de cómo aplicar dicho conocimiento de carácter exponencial con este mercado tan prometedor, para así tomar una rebanada de este pastel donde aún se están definiendo los grandes jugadores y sus estrategias de juego. Para esto primero se debe decidir qué información es la de valor para enseñarle a estos modelos, probarlos y determinar cuál se ajusta más a los datos disponibles, pues contrario a lo que se podría pensar en este tipo de problemas son los modelos los que deben adaptarse a los datos, no al contrario.Publicación Acceso abierto Sistema para la detección de la depresión a partir del procesamiento, análisis y reconocimiento de patrones en señales fisiológicas(Universidad EIA, 2023) Alzate Márquez Mateo; Torres Villa, RóbinsonRESUMEN: se propone la creación de un sistema para la detección de la depresión, basado en la adquisición y procesamiento de señales de ECG y PPG, seguido por el desarrollo de un algoritmo para la clasificación y detección de patrones. El objetivo principal es lograr una clasificación precisa de un individuo en un grupo de depresión o no depresión, logrando en última instancia la detección correcta del problema mencionado. Esto se logró mediante el análisis de un conjunto de variables fisiológicas tomadas de las señales de PPG y ECG, utilizando un protocolo experimental llamado 'script-driven imagery' adaptado al paradigma actual, aplicado a individuos del Centro Médico de Alta Especialidad del Bajío T1 en León, México. Las variables utilizadas incluyen la variabilidad de la frecuencia cardíaca, el tiempo de tránsito del pulso, la frecuencia cardíaca, la señal de respiración, la coherencia fisiológica de cada una y el índice de coherencia global, así como otras variables relacionadas con la frecuencia seleccionadas en función de una revisión bibliográfica. Posteriormente, se desarrolló un programa en Python para el procesamiento y obtención de los valores de las variables mencionadas para su posterior uso en un código de aprendizaje automático. Se realizó una prueba con un modelo de aprendizaje automático múltiple para determinar que el algoritmo de clasificación binaria que mostró el mejor rendimiento fue un Bosque Aleatorio, con una sensibilidad y precisión del 76% para el grupo de validación, aunque se lograron porcentajes más altos con grupos más pequeños de individuos. También se llevó a cabo una revisión del rendimiento de las mejores características en el algoritmo para identificar qué variables pueden tener un mayor impacto al intentar detectar un estado depresivo en un individuo.Publicación Acceso abierto Software para reconocimiento automático de acordes en canciones(Universidad EIA, 2022) Pérez Horta, Nicolás; Bonet Cruz, IsisRESUMEN: En este trabajose plantea un modelo de Machine Learning para extraer informaciónmusicológica contenidaen los acordes de obrasmusicalesprocesadas. Posteriormente, se realiza la clasificación de esta información en 25 clases: 12 acordes mayores, 12 acordes menores y acorde no presente. El modelo propuesto está compuesto por capas de procesamiento Dense y Dropout, lo cual facilita una mayor velocidad de procesamiento.Para evaluar el desempeño del modelo, se utiliza como indicador la precisión, la cual es función de los valores positivos verdaderos y falsos positivos. Se usa como metodología de evaluaciónla validación cruzada de k-iteraciones.Los resultados obtenidos en esta evaluación muestran una precisión del 90.36% con un margen de error del 3.255%.Estos resultados se consideran aceptables dentro de la tarea de reconocimiento de acordes mayores –menores (MinMaj), teniendo en cuenta su velocidad de procesamiento y su ventana de tiempo a evaluarconstante.Además de esto, se implementa una aplicación web con nombre de Korder, que permite a sus usuarios clasificar diferentes canciones en formato mp3,obtener la información de sus acordes, y guardarla en la base dedatos creada para contar con una referencia futura sobre la información procesada y encontrada.