Examinando por Autor "Bonet Cruz, Isis"
Mostrando 1 - 20 de 25
Resultados por página
Opciones de ordenación
Publicación Acceso abierto Algoritmo de predicción de los precios del mercado de valores de la bolsa de Nueva York por medio de técnicas de inteligencia artificial implementadas en un sistema embebido(Universidad EIA, 2021) Zuluaga Suárez, Alejandro; Méndez Mejía, Santiago; Bonet Cruz, IsisRESUMEN: Los mercados financieros se han convertido en una de las mejores oportunidades de inversión, gracias a sus altos niveles de rentabilidad. Para el mercado de valores de la Bolsa de Nueva York, impulsado por la compra y venta de acciones de las empresas que coticen allí, se han dado múltiples desarrollos que proporcionan cierto nivel de ventaja para que un inversionista pueda conocer cómo sería el comportamiento del precio de una acción en un instante futuro. Hoy en día, el 80% de las transacciones que se dan en el mercado son mediante sistemas automáticos, aumentando las ganancias a ritmos acelerados gracias a su aprendizaje constante del comportamiento del precio. Este trabajo se enfocó en la exploración de múltiples modelos de Machine Learning que permitieran pronosticar el precio de una acción, desde modelos regresivos hasta modelos por clasificación, y mediante sus métricas de desempeño se seleccionó el mejor de ellos, tomando como ejemplo la información de Disney durante el año 2020 ya que fue una empresa que se vio afectada por los cierres de sus instalaciones durante la pandemia del COVID-19, por lo tanto, el precio de su acción posee tendencias al alza y a la baja muy pronunciadas que un modelo puede aprovechar para aprender. Una vez seleccionado el modelo, fue necesario seleccionar un sistema embebido óptimo en el que se pudiera ejecutar el modelo en tiempo real, este sistema embebido se seleccionó bajo criterios de consumo energético, consumo de procesamiento y tiempos de procesamiento en diferentes instancias, con el fin de garantizar un funcionamiento óptimo en la placa al momento de conectarse en tiempo real, sin tener problemas de retrasos o bloqueos. Se obtuvo resultados muy positivos sobre un modelo de red neuronal recurrente LSTM implementado en un sistema embebido Raspberry Pi 4, realizando pronósticos al precio de la acción de Disney cada dos minutos en tiempo real y graficando los resultados en un servidor local mediante el navegador web; siendo dos minutos el tiempo mínimo sugerido para utilizar con este tipo de sistemas debido a su bajo procesamiento respecto a un computador de escritorio tradicional, sin embargo, tiempo más que suficiente para que adquiera los datos de la bolsa, pronostique y grafique sus resultadosPublicación Acceso abierto Análisis de algoritmos para el agrupamiento de muestras metagenómicas(Universidad EIA, 2016) Escobar Vasco, Adriana María; Bonet Cruz, IsisLas formas de vida microscópicas se encuentran en todos los lugares y ambientes del planeta, y en su genética se halla información de gran valor para los científicos, sin embargo al tomar una muestra para estudiarlos solo se logra aislar y cultivar menos del 1% de ellos. La metagenómica nace con el fin de estudiar el otro 99% de la muestra y de descubrir más acerca de estas comunidades. El objetivo de la metagenómica es la secuenciación y el análisis de los genes contenidos en los cromosomas de microorganismos, esfuerzos en los cuales se enfoca el presente proyecto. Para la realización del proyecto se utiliza el programa weka y el algoritmo k-means, implementado en una versión iterativa que utiliza la distancia coseno o euclidiana dependiendo del criterio del experto. Además utiliza cómo parámetro las distancias entre los clústeres para escoger los mejores y optimizar los resultados de la segunda iteración. Con en desarrollo de este proyecto se llega a la conclusión que el k-means iterativo es una mejora al k-means, optimizando los resultados y encontrando clústeres más puros. También se encuentra que los resultados obtenidos con la función de distancia coseno son mejores que aquellos obtenidos con la función euclidiana y que el mejor atributo para describir las distancias es el 4-mer.Publicación Acceso abierto Aplicación de algoritmos genéticos para la generación óptima de horarios académicos en la Universidad EIA.(Universidad EIA, 2024) Muñoz Cuartas, Juan Felipe; Bonet Cruz, IsisRESUMEN: La elaboración de horarios académicos en la Universidad EIA enfrenta desafíos como la gestión eficiente de recursos, la satisfacción de preferencias individuales y la adaptación a cambios en las restricciones. Los métodos tradicionales, basados en la intervención humana, son propensos a errores y no siempre se optimizan logrando satisfacción de los involucrados. Este proyecto busca desarrollar un sistema basado en inteligencia artificial, utilizando algoritmos genéticos, para optimizar la generación de horarios académicos en la Universidad EIA con todas sus consideraciones. Este enfoque tiene el potencial de superar las limitaciones de los métodos tradicionales, mejorando la eficiencia de los espacios, el bienestar de estudiantes y profesores, y la calidad de la gestión académica. En primer lugar, se llevarán a cabo entrevistas con los encargados de diseñar los horarios en el área de sistemas para contextualizar el cómo se hace, que información se tiene y que observaciones se tienen en cuenta, se continua el diseño de una base de datos que almacene información esencial sobre cursos, profesores, aulas y horarios disponibles. Con lo mencionado se construye un modelo matemático que se diseñará para representar el problema de optimización de horarios como una cuestión combinatoria, considerando variables como la disponibilidad de recursos, las consideraciones espaciales de la Universidad EIA y las restricciones curriculares. La implementación del algoritmo genético se encargará de generar soluciones factibles y eficientes a través de operadores de selección, cruce y mutación, explorando así el espacio de soluciones para encontrar posibles horarios óptimos. La evaluación y validación de los horarios generados se realizarán comparándolos con los utilizados actualmente por la universidad, ajustando y corrigiendo según sea necesario para garantizar su calidad y adaptación a las necesidades institucionales. Finalmente, se desarrollará una interfaz de usuario que facilite la gestión y visualización de los horarios.Publicación Acceso abierto Caracterización neuro-cognitiva y neuro-funcional en pacientes eutímicos con trastorno bipolar tipo i en tratamiento con carbonato de litio y ácido valproico: estudio de corte transversal(Universidad EIA, 2019) Barrera Fernández, Alejandro; Bonet Cruz, IsisLas imágenes por resonancia magnética funcional son resultado del desarrollo de nuevas tecnologías no invasivas para el diagnóstico de enfermedades neurodegenerativas, con las cuales se obtienen imágenes en tercera dimensión que al tener en cuenta el tiempo las convierte en cuarta dimensión. Dentro de los trastornos mentales, la bipolaridad es uno de los más comunes y persistentes, con una prevalencia de hasta el 7% de la población mundial. La bipolaridad tipo I, es una enfermedad mental grave debido a su prevalencia en la población, el grado de incapacidad que produce y su difícil diagnóstico. El trastorno ha sido estudiado con estas imágenes cerebrales, sin embargo, los métodos para analizarlas son ineficaces, costosos y complejos, por lo que el objetivo es explorar el uso de métodos paramétricos y no paramétricos para obtener mejores resultados con el fin de entender mejor la enfermedad y los efectos de su tratamiento. En este trabajo se procesan y analizan imágenes de resonancia magnética funcional para estudiar pacientes con bipolaridad tipo I. Para esto se analizaron 4 grupos de pacientes eutímicos. Tres de los grupos son pacientes que tienen la enfermedad: uno de pacientes que no están tomando medicamentos, otro que están tomando litio y otro que están tomando ácido valproico, y un último grupo de control con pacientes que no presentan la enfermedad. Con los cuatro grupos se realizó el mismo experimento, donde el paciente tenía que memorizar palabras relacionadas y no relacionas, para luego recordarlas, en intervalos de tiempo de 30 segundos de tarea y 30 segundos de descanso. Durante todo este proceso se tomaron imágenes de resonancia magnética. El objetivo del trabajo es determinar las regiones de activación del cerebro, donde se buscan diferencias y semejanzas entre los diferentes grupos del experimento. El procedimiento de análisis de las imágenes necesita una primera etapa de preprocesamiento de las imágenes donde ser realiza realineamiento, coregistro, normalización y suavizado. Posteriormente se diseña la especificación del modelo donde se representan las condiciones del experimento. Esta especificación del modelo se hace para cada paciente individualmente y para los grupos, con el fin de posteriormente realizar el análisis estadístico entre grupos y encontrar similitudes o diferencias. Existen muchos métodos estadísticos para el análisis de los grupos. Aunque históricamente los más usados fueron métodos paramétricos, en la actualidad se presenta un reto en explorar el uso de métodos no paramétricos con el fin de arrojar resultados más exactos. En este trabajo se realizan las pruebas tanto con métodos paramétrico, como con no paramétricos, para comparar las diferencias en estos métodos. Los resultados, tanto con pruebas paramétricas, como con las no paramétricas, muestran que hay diferencias significativas entre los 4 grupos. Se puede observar que las activaciones que los diferencias están en diferentes regiones del cerebro, lo cual puede llevar a un futuro estudio neuropsicológico de estas regiones y su asociación con cada grupo.Publicación Acceso abierto Desarrollo de herramienta web para evaluar la renovación y reposición de tecnologías médicas en instituciones prestadoras de servicios de salud(Universidad EIA, 2019) Aguirre Cardona, Jorge Iván; Bonet Cruz, Isis; Camacho Cogollo, Javier EnriqueEn la actualidad determinar en qué momento se debe cambiar un equipo médico es uno de los mayores problemas que enfrentan las instituciones médicas en la administración de sus tecnologías, principalmente porque quienes usan los equipos siempre quieren la última tecnología, incluso cuando la que tienen es funcional y quienes los compran siempre quieren que un equipo dure más de lo que debe aun cuando ya el equipo es obsoleto. En este trabajo se implementa una aplicación web que busca una forma fácil en que los usuarios puedan llegar a la conclusión de cuándo cambiar un equipo médico de forma objetiva. Para esto se utilizó como base un estudio preliminar que lo hace a través del análisis jerárquico. El método de trabajo para desarrollar esta aplicación fue una adaptación de la metodología Scrum, en la cual se busca la agilidad de esta metodología. Debido a que la metodología original es para equipos de desarrollo y este trabajo sólo tenía un desarrollo se realizó una modificación de esta. Al final se logró llegar a una aplicación sostenible y escalabre que soluciona el problema y ayuda a los usuarios a determinar en qué momento se debe hacer el cambio de un equipo médico de forma objetiva.Publicación Acceso abierto DETECCIÓN DE MINADORES EN LOS CULTIVOS DE CRISANTEMOS POR MEDIO DE VISIÓN ARTIFICIAL(2021-06-14) Ibarra, Kevin; García, Alexis; Bonet Cruz, IsisEl aumento de los datos y su procesamiento ha potenciado el uso de la inteligencia artificial en el sector de la agricultura. El uso de estos avances tecnológicos, permiten mejorar la predicción y diagnóstico de plagas, lo que causa un incremento en la rentabilidad de los agricultores. Dentro de estas plagas se encuentra el minador, un insecto que deposita sus huevos en las hojas de las plantas perjudicando la masa foliar y facilitando el ingreso de infecciones en la misma, produciendo pérdidas en los cultivos principalmente para los agricultores de los crisantemos. Actualmente los cultivadores para combatir esta plaga realizan monitoreos manuales periódicos, en donde se estima la presencia de minador y se toman decisiones para su control. Sin embargo, estos monitoreos son costosos y lentos para las empresas por lo que su frecuencia no es la ideal. Se creó un repositorio de imágenes, donde éstas debían de estar seleccionadas y clasificadas. Se realizó un aumento de los datos para ayudar a robustecer el modelo y evitar un poco de ruido por la disposición que pudieran tener las imágenes. Se procedió a extraer características de los datos para luego ser ingresados a los varios modelos de machine learning seleccionados: red neuronal, máquinas de vectores de soporte, KNN. También se probaron diferentes redes profundas como: ResNet50, MobileNet, MobileNet V2, Xception3 y red YOLO. Para esta clasificación, se dividieron los datos en dos conjuntos: entrenamiento y prueba, se ingresaron a los modelos, y por último se compararon los modelos entre sí por medio de la validación cruzada para obtener el mejor clasificador. Los resultados obtenidos indicaron que el modelo más apropiado para la detección del minador en los crisantemos fue la red YOLO, con este modelo se lograron estadísticas muy buenas en contraste a las demás, debido, en parte, al aumento de datos autónomo y facilidad de implementación.Publicación Acceso abierto Elaboración de matriz de riesgos climáticos de transición empleando técnicas de lógica difusa(Universidad EIA, 2023-11-22) Pablo Isaza Gómez; Juan Fernando Pérez Pérez; Bonet Cruz, Isis; Universidad EIA; Isis Bonet Cruz; Juan Fernando Pérez Pérez; Juan Sebastián Valencia; Christián Lochmuller; Johan Vélez; Doris Prada; GECIUno de los retos más grandes que tiene la humanidad en este siglo XXI es sin duda el cambio climático. El cambio climático está creciendo de manera insostenible, a velocidades cada vez mayores y más difíciles de contener. Las herramientas y conocimientos a través de las cuales se han basado naciones, instituciones y empresas para combatir esta problemática parecen ya no ser suficientes, y cada día que pasa se van quedando más obsoletas frente a un panorama que cambia vertiginosamente. Los avances en la inteligencia artificial también han llegado a esta rama. En este trabajo se desarrolla una herramienta, mediante el uso de lógica difusa, para elaborar una matriz de riesgos climáticos de transición. Para ello, se identifican las variables más relevantes de cambio climático de transición. Posteriormente se elabora la matriz de riesgos, partiendo del conocimiento recolectado tanto en la literatura como en la opinión de expertos temáticos. Luego, se definen los parámetros, funciones de pertenencia, y reglas del modelo de defuzificación. Por último, se prueba el modelo con datos recolectados y/o elaborados. Se valida también a través de la opinión de expertos temáticos, para posteriormente reconfigurar las variables que sea necesario reevaluar. El resultado es un modelo computacional capaz de clasificar de manera acertada los diferentes riesgos climáticos de transición que sirva como base para su gestión, de manera eficiente.Publicación Acceso abierto Exploración y comparación de métodos de inteligencia artificial para la clasificación taxonómica en análisis metagenómicos(Universidad EIA, 2014) Montoya Ramírez, Widerman Stid; Bonet Cruz, IsisLa mayor diversidad genética está presente en las comunidades de microorganismos, el conocer estas especies, sus funciones y diferencias constituye un papel importante para solucionar problemas diversas áreas, como la salud, la alimentación y el medio ambiente. El método tradicional para realizar este tipo de investigaciones consiste en aislar el microorganismo de una muestra del entorno y así estudiar su constitución genética, sin embargo menos del 1% de los microorganismos pueden ser aislados y cultivados en los laboratorios. Gracias a las técnicas de secuenciación modernas cada vez más accesibles surge la metagenómica proponiendo una alternativa para poder estudiar el otro 99%. La metagenómica se encarga de estudiar la secuenciación de una muestra del entorno para descubrir a qué organismos pertenecen los fragmentos secuenciados. Sin embargo el problema radica en que los procesos necesarios para identificar el tipo de organismos en la muestra demandan mucho tiempo y recursos computacionales. En este trabajo se utilizan diferentes algoritmos de inteligencia artificial para agrupar los fragmentos de secuencias según su similitud en conjuntos puros, es decir, conjuntos cuyos fragmentos pertenezcan a un solo organismo o a un mismo grupo taxonómico de organismos. Además se propone un nuevo algoritmo que se basa en la aplicación del k-means de manera iterativa perfeccionando los grupos según la distancia entre ello. Se compararon los resultados con métodos de agrupamientos clásicos y se comprobó que con este último método se obtienen grupos más puros. Este resultado ayuda a que los procesos de ensamblado o de comparación serán más eficientes y rápidos, debido a que se tiene como entrada inicial una muestra más condensada y uniforme, disminuyendo el tiempo y los recursos consumidos durante los proyectos metagenómicos, al mismo tiempo que pueden realizarse de una forma más enfocada.Publicación Acceso abierto Generación de imágenes sintéticas de radiografía de tórax con enfermedad pulmonar obstructiva crónica utilizando técnicas de inteligencia artificial(Universidad EIA, 2023) Sánchez Ocampo, María Manuela; Montagut, Yeison; Bonet Cruz, IsisRESUMEN: La implementación de modelos generativos en la medicina, particularmente en la generación de imágenes diagnósticas de la Enfermedad Pulmonar Obstructiva Crónica (EPOC), representa un avance significativo en la convergencia entre la inteligencia artificial y la práctica clínica. En el presente trabajo se proponen dos modelos de redes neuronales. El primero es AEPOC, diseñado para clasificar la EPOC partiendo de imágenes médicas, con una arquitectura que combina dos autoencoders para extraer los patrones distintivos de cada clase. El segundo modelo es LunGAN, un modelo generativo que sintetiza imágenes que reflejan las características de la EPOC a partir de datos clínicos derivados de los exámenes de función pulmonar. El presente trabajo aborda cuatro etapas importantes. La primera se enfoca en la adquisición y procesamiento de los datos clínicos de la base de datos obtenida del Hospital Pablo Tobón Uribe. La segunda etapa se dedica al análisis detallado de la información estructurada y no estructurada que permiten comprender la patología. La tercera etapa implica el diseño e implementación de múltiples modelos con la finalidad de crear imágenes que presenten las características relevantes de la patología. Finalmente, se realizó la evaluación de la calidad de las imágenes, que permite tener una visión integral sobre la semejanza entre las imágenes reales y generadas, lo cual respalda la capacidad de los modelos para imitar con precisión las imágenes de radiografía de tórax. EL modelo generativo propuesto posee un potencial para transformar los datos clínicos en representaciones visuales, abriendo posibilidades de formación y el aprendizaje de profesionales médicos al simular diversidad de escenarios y manifestaciones de enfermedad sin la necesidad de un gran número de pacientes reales. Este avance señala un futuro prometedor en la unión de la inteligencia artificial con el campo de la medicina, ofreciendo nuevas perspectivas para afrontar y avanzar en los desafíos actuales del tratamiento y diagnóstico pulmonar, con el objetivo de mejorar constantemente la calidad de la atención médica.Publicación Acceso abierto Identificación temprana y predicción de sepsis en pacientes de UCI a partir de datos fisiológicos(Universidad EIA, 2020) Gonzalez Mesa, Pablo; Bonet Cruz, IsisRESUMEN: Sepsis se define como una disfunción orgánica causada por una respuesta desregulada a una infección por parte del paciente. Es una de las causas de muerte más común en pacientes de unidades de cuidados intensivos en todo el mundo, lo que lo convierte en una problemática de gran importancia. La detección temprana de este síndrome es de gran importancia a la hora tratar a los pacientes efectivamente. En este trabajo se propone un modelo de inteligencia artificial para la identificación temprana y predicción de sepsis utilizando la base de datos MIMIC y adaptando los resultados a los datos de una institución local de salud. Se realizaron pruebas con múltiples modelos y parámetros de estos. El mejor resultado para la identificación temprana de sepsis fue el resultado de hacer un modelo multiclasificador con diferentes rasgos para los clasificadores, en este caso se usaron un kNN y un XGBoost y utilizar sus resultados como las entradas de una regresión logística. Éste tuvo un AUROC de 0.944. Para predicción de sepsis se propuso un modelo XGBoost capaz de predecir 1, 2 y 3 horas de anticipación con métricas de 0.918, 0.912 y 0.908 respectivamente.Publicación Acceso abierto Manejo de escenarios a la hora de calcular el capital de riesgo operacional, aplicando inteligencia borrosa.(Universidad EIA, 2019) Tobón Osorio, Sandra Liliana; Bonet Cruz, IsisEl riesgo operacional es uno de los factores empresariales que es más se está evaluando en los últimos tiempos, en parte gracias al auge de las firmas aseguradoras que asumen el riesgo ajeno a través de sus pólizas y también con el fin de evadirlo, disminuirlo o aceptarlo. Aunque los métodos para medir el riesgo operacional se establecieron hace menos de 20 años con Basilea II, ya es evidente que hay ciertos problemas al calcular el capital por riesgo operacional con estos. Uno de los problemas principales se encuentra a la hora de integrar los escenarios empleando el método AMA, para el cálculo del capital por riego operacional. La razón de esta problemática, radica en el tipo de dato que son los escenarios, pues ellos se caracterizan por su incertidumbre tanto en el costo que le pueden generar a la empresa, como en el periodo de tiempo en que puedan suceder. Igualmente, la cantidad de estos datos es mínima, ya que provienen de la opinión de expertos y no de una recolección histórica. Por esta razón estudiarlos con métodos que son idóneos para datos que siguen determinado orden, no es lo ideal y puede generar como resultado requerimientos de capital erróneos por riesgo operacional. En el presente trabajo de grado, se aplica la lógica difusa para el estudio de los escenarios, con el fin de integrarlos de la manera adecuada a los requerimientos de capital por riesgo operacional. Aunque los requerimientos de capital que se obtienen son 4 veces mayor a los que se originan al integrar los escenarios con el método tradicional, la realidad ha demostrado que los métodos originalmente empleados por Basilea II, no fueron lo suficientemente acertados al calcular el capital por riesgo operacional, razón por la cual Basilea III invita a utilizar un nuevo método con el cual el capital por riesgo operacional es mayor. Por lo cual los resultados de este proyecto podrían ser adecuados.Publicación Acceso abierto Modelo basado en técnicas de procesamiento del lenguaje natural para extraer y anotar información relacionada con la sepsis(Universidad EIA, 2021) Orrego Martínez, Emmanuel; Bonet Cruz, Isis; Camacho Cogollo, Javier EnriqueRESUMEN: La sepsis presenta una de las mayores tasas de mortalidad mundial en los hospitales. Su diagnóstico puede ser considerablemente difícil a causa de su amplio cuadro de síntomas y múltiples causas. En el presente trabajo se ahonda en la evaluación y revisión de los datos de manera estadística y visual. Se proponen diferentes métodos de normalización de datos, limpieza de los mismos y análisis, así como herramientas visuales que permiten realizar un análisis profundo de los mismos. En este primer acercamiento del trabajo se llegará a conclusiones que permitirán avanzar hacia el siguiente paso de implementar un modelo en un entorno controlado. El éxito del análisis en parte dependerá de la calidad de los datos suministrados por los expertos y de la capacidad de limpieza y normalización de los mismos. Se le aplicarán diferentes técnicas de extracción de información y se analizara cuales datos son más relevantes para dar los siguientes pasos hacia el diagnostico de sepsis. Adicionalmente se cuenta con una sección de resultados en los cuales se presenta minuciosamente lo que se ha realizado hasta el momento respecto al análisis te texto estructurado y no estructurado, las técnicas usadas para extracción limpieza y análisis Finalmente se dejará para próximos estudios la implementación de un modelo de inteligencia artificial que apoye el diagnóstico de la sepsis el cual será alimentado con los datos recolectados en este trabajo.Publicación Acceso abierto Modelo de predicción de sepsis a partir de datos históricos de pacientes en una unidad de cuidados intensivos(Universidad EIA, 2019) González Muñoz, Zuleimi Esteffanny; Merizalde Maya, Pablo; Bonet Cruz, IsisLa creciente disponibilidad de datos y el rápido desarrollo de métodos de análisis de datos, han hecho posible las recientes aplicaciones exitosas de la Inteligencia Artificial en la salud. El uso de estos avances tecnológicos, permiten ayudar en los diferentes procesos de las instituciones de salud como en la predicción y diagnóstico de enfermedades. Dentro de estas, la sepsis es considerada como una afección con alta tasa de mortalidad especialmente en las unidades de cuidados intensivos. Esta afección, puede llegar a ser muy grave debido a las diferentes maneras de manifestarse, lo que dificulta su diagnóstico. La verificación de algunas variables generales inflamatorias, permiten indicar la letalidad de la infección. Actualmente, lo más común es el uso de indicadores como: SOFA, qSOFA y SAPS-II para predecir la posibilidad de sepsis, ya que ésta está muy ligada a la mortalidad. Aunque, en países desarrollados ya se están usando métodos basados en datos históricos con algoritmos de inteligencia artificial para poder hacer una predicción temprana. En el presente trabajo se analizaron los datos almacenados en la base de datos libre MIMIC-III, la cual contiene información de pacientes admitidos en la unidad de cuidados intensivos de The Beth Israel Deaconess Medical Center en Boston, Massachusetts. Se usaron una serie de variables clínicas de los pacientes, las cuales se pasaron por unas reglas duras que generan un valor numérico o probabilidad que se relaciona con la severidad del padecimiento. Las variables elegidas, corresponden a las que se utilizan en los indicadores mencionados para poder predecir la existencia o no de sepsis y la mortalidad de los pacientes. Por lo que el objetivo del trabajo es realizar un modelo de predicción de sepsis temprana, utilizando métodos de inteligencia artificial y compararlos con loa diferentes indicadores para el diagnóstico de esta afección. El procedimiento realizado, se basó en la metodología CRISP-DM, donde se inició con la obtención de los datos, se realizó un análisis de calidad de estos, se procedió a seleccionar las variables de los indicadores mencionados, se realizó una limpieza de estos datos y se obtuvo la vista única, la cual fue utilizada para entrenar clasificadores supervisados seleccionados: árbol de decisiones, KNN, naive bayes, red neuronal y máquinas de vector soporte. Para esta clasificación, se dividieron primero los datos en datos de aprendizaje y validación, se implementaron los modelos, y por último se corroboraron los resultados, eligiendo los mejores modelos y comparando los algoritmos entre sí, por medio de la evaluación de métricas utilizando validación cruzada. Los resultados indicaron que los modelos de machine learning y deep learning implementados, son capaces de igualar e incluso mejorar las predicciones de los modelos de reglas duras, rompiendo los paradigmas y sirviendo como un apoyo en la toma de decisiones de los profesionales de la salud.Publicación Acceso abierto Modelo para la identificación de adenomas hipofisarios por medio de la imagenología y la visión artificial(Universidad EIA, 2023) Suárez Gómez, Silvia Natalia; Cardona Ramírez, Juan Felipe; Jiménez Mejía, Ricardo de Jesús; Bonet Cruz, IsisRESUMEN: con la presente investigación se busca realizar la identificación de adenomas hipofisarios de manera temprana y confiable, por medio de la imagenología y la inteligencia artificial. Este tipo de tumores cerebrales representan el 90% de las lesiones selares que se generan en una persona y aunque en muchas ocasiones son benignos, si no se detectan a tiempo, pueden llegar a ser críticos para la salud humana. Es por esto que, si se hace la detección de anticipada de dichas lesiones, se pueden prevenir riesgos futuros y dar un apoyo a los profesionales de la salud para un mejor diagnóstico en sus pacientes. Para lograr el objetivo del proyecto, inicialmente se hará una recopilación de datos a trabajar. Se tomarán la mayor cantidad de imágenes posibles, tanto de cerebros sanos, como de aquellos que tengan anomalías, necesarias para el desarrollo de las pruebas que se harán en la investigación. Como siguiente, se proseguirá con definir la estandarización para el tratamiento de los recursos (normalización, contraste, que tipo de imágenes se usarán, etc.), esto para continuar con el preprocesamiento y limpieza de los datos encontrados; y así alimentar el modelo de machine learning que consecuentemente se propondrá. Por último, una vez se abarque el problema con todo lo anteriormente mencionado, se hará la revisión final del prototipo generado con los datos separados para las pruebas, es decir, se probará el algoritmo creado con los datos ya clasificados, de pruebas. Se espera de este proceso, que los resultados que arroje el modelo de software sean confiables; de tal manera, que sea una herramienta de gran ayuda al sector de salud y consiguiente de eso, una gran aliada de las personas, pues permitirá que tengan un mayor nivel de confianza en sus diagnósticos.Publicación Acceso abierto Modelo predictivo para el pronóstico de tiempos de estancia de pacientes en unidades de cuidados intensivos(Universidad EIA, 2021) David Martínez, Cristian Camilo; Bonet Cruz, Isis; Camacho Cogollo, Javier EnriqueRESUMEN: La ciudad de Medellín es una de las más grandes en Colombia, y sigue en crecimiento, lo cual implica un reto para muchos sectores, entre ellos el sector de la salud, que tiene que aprovechar al máximo sus recursos para poder cubrir la gran demanda que se genere. Uno de los recursos más esenciales y limitados que puede ofrecer un hospital son las unidades de cuidados intensivos (UCI), pues estás unidades deben estar equipadas con alta tecnología con la capacidad de mantener a un paciente en condiciones constantes y monitoreo las 24 horas, y por estas necesidades, es complicado expandir constantemente estás unidades, obligando a buscar otras alternativas a la atención de más personas con los mismos recursos. Por ello, se plantea la implementación de un sistema de inteligencia artificial, el cual ayude en la administración de las unidades de cuidados intensivos, ofreciendo estimaciones de uso con base a los datos del paciente, para garantizar una planeación más acertada y poder aprovechar en todo momento estás unidades. Para ello se entrenaron diferentes modelos de inteligencia artificial y se evaluó la efectividad de cada uno de estos prediciendo los tiempos de estancia en las unidades de cuidados intensivos y así se determinó el más útil para una institución de salud local. Como resultando, diferentes tipos de modelos tanto de regresión como clasificación categórica fueron entrenados y dentro de estos se puede resaltar modelos basados en arboles de decisiones como el Random Forest con una precisión del 69%, modelos probabilísticos como Naive Bayes con una precisión del 64.3% brindando prioridad sobre los peores casos y dentro de los modelos de regresión podemos destacar el XGBoost con una desviación estándar de 7.43 días de estancia.Publicación Acceso abierto Modelo predictivo para el pronóstico temprano de gravedad en pacientes con neumonía de una unidad de cuidados intensivos(Universidad EIA, 2021) Barrera Sanchez, Jeisson Harvey; Bonet Cruz, Isis; Camacho Cogollo, Javier EnriqueRESUMEN: La neumonía ataca directamente al sistema respiratorio, por lo que en algunos casos se hace necesario conectar al paciente a un ventilador o ingresarlo a una unidad de cuidados intensivos (UCI), en ese punto la salud del paciente es inestable por lo que es de vital importancia mantenerlo en revisión constante. Mediante este proyecto se pretende desarrollar un modelo que permita el pronóstico temprano de gravedad de los pacientes con neumonía en UCI, evitando el retraso en el tratamiento, falta de cuidados o errores clínicos. El trabajo se realizó utilizando la base de datos MIMIC-III, que tiene información clínica de pacientes reales en cuidados intensivos. En un análisis descriptivo de los datos se encontró que el 14.23% de la muestra tiende a obtener el peor desenlace, que es la muerte. El modelo propuesto fue LightGBM con un 96% de accuracy y su recall para la clase objetivo del 100%, teniendo una ventana de las últimas 24 horas para recolectar datos y 12 horas descartadas antes de la predicción.Ítem Acceso abierto Modelo predictivo para identificar zonas potenciales de deslizamientos influenciados por precipitación en la ciudad de Medellín(Universidad EIA, 2023) Garcés Mesa, David; Bonet Cruz, Isis; Peláez Mesa, Claudia PatriciaRESUMEN: el objetivo de este trabajo de grado es desarrollar un modelo predictivo para identificar zonas potenciales de deslizamientos influenciados por la precipitación en Medellín. Se emplearon técnicas de inteligencia artificial, se integró información geoespacial y de precipitación disponible al público. El modelo se basó en la implementación de modelos supervisados y series de tiempo, adaptados de manera híbrida para capturar la relación entre la precipitación y los movimientos en masa. La pregunta de investigación se centra en la falta de un enfoque integrado que utilice información de organismos de atención a emergencias, cartografía, antecedentes de deslizamientos, características geométricas del terreno y la variación espacial y temporal de la precipitación; que permita comprender el comportamiento de los escenarios de riesgo por movimientos en masa en función de la lluvia antecedente y mejorar la interpretación y respuesta en estas situaciones en la ciudad. Los resultados principales se enfocaron en la estimación de parámetros relevantes para la ocurrencia de deslizamientos, como la vulnerabilidad y la cantidad de agua en el suelo según la precipitación previa. Además, se investigaron los umbrales de lluvia específicos por cuadrantes de la ciudad y su relación con la activación de los movimientos en masa. Se observó una influencia significativa de la vulnerabilidad, así como la importancia de las características geológicas y geomorfológicas en la ocurrencia de deslizamientos. Estos hallazgos proporcionan una base sólida para comprender y gestionar el riesgo de deslizamientos en Medellín, y sugieren la implementación de medidas públicas preventivas y de mitigación. En conclusión, este estudio presenta un modelo predictivo que integra información geoespacial y de precipitación para identificar zonas propensas a deslizamientos influenciados por la lluvia en Medellín. Los resultados destacan la necesidad de considerar la vulnerabilidad y las características del terreno al evaluar el riesgo de movimientos en masa en la ciudad.Publicación Acceso abierto Optimización de algoritmos de agrupamiento aplicados a metagenómica usando big data(Universidad EIA, 2018) Vanegas Piedrahita, Julián; Bonet Cruz, IsisEn el campo de la metagenómica, está incrementando el uso de la metagenómica balística como proceso de extracción de cadenas de aminoácidos de microorganismos previamente no identificados, basándose en muestras ambientales de diversas fuentes. Estas cadenas de aminoácidos, debido al proceso de extracción, son separadas en subcadenas de tamaños variables que luego buscan ser comparadas e identificadas con una base de datos para no sólo determinar qué especies ya reconocidas habitan en las muestras tomadas, sino también qué porciones de estas secuencias de aminoácidos no han sido previamente categorizadas. En búsqueda de que este método de identificación produzca mayores resultados, se usan algoritmos de agrupamiento como facilitadores en el proceso de identificación de las diferentes especies. Estos algoritmos agrupan secuencias de aminoácidos que tienen cierto grado de similitud, produciendo clústeres de subcadenas, para que luego estos puedan ser comparados en grupo y ser más rápidamente analizadas. Con el objetivo de mejorar los tiempos de ejecución, se usaron plataformas como Apache Spark y TensorFlow, que dentro de sus librerías incluyen implementaciones nativas de estos algoritmos de agrupamiento. A partir de estas librerías se implementó el K-means iterativo que fue usado como punto de comparación. En los resultados se puede apreciar que el uso de K-means Iterativo mejora la pureza comparado con la alternativa de una sola iteración, para el caso de uso de una base de metagenómica usando los 4mer como rasgos, y usando el coseno como distancia. Debido a este último punto, y a que la implementación de Apache Spark de K-means no tiene la distancia coseno, se utilizó TensorFlow principalmente para la toma de resultados. El uso de TensorFlow muestra una mejora en general de tiempos de ejecución, siendo mucho más significativa en el caso de K-means Iterativo, teniendo como desventaja que requiere mucho más poder de procesamiento.Publicación Acceso abierto Procesamiento y análisis de imágenes diagnósticas usando inteligencia artificial para la estimación de parámetros de entrada de un simulador virtual de pulmón(Universidad EIA, 2023) Bedoya Torres, Santiago; Sánchez Ocampo, María Manuela; Bonet Cruz, IsisRESUMEN: En la actualidad, incluso con los avances en la medicina que se han dado a lo largo de la historia, el pulmón es un órgano que no se ha podido estudiar en profundidad, puesto que esta es una labor complicada. El pulmón posee propiedades que dificultan su observación directa, como la presión negativa de su interior, que causa que el órgano colapse al abrir la caja toráxica. Así, surge la necesidad de crear herramientas no invasivas para el estudio de la mecánica respiratoria, tales como imágenes de rayos X y la tomografía computarizada que permiten obtener información útil del cuerpo a analizar. En este trabajo se pretende identificar características fisiológicas del pulmón, y también su forma a través del procesamiento de imágenes diagnósticas no invasivas utilizando inteligencia artificial, con el propósito de aportar a los estudios del órgano, y facilitar diagnósticos médicos arrojando resultados certeros. Se diseñará e implementará un modelo para poder obtener características de imágenes tridimensionales (3D) que permitan personalizar una simulación en 3D del pulmón. Este trabajo se va a incorporar en el simulador AVILUNG creado por María Manuela Sánchez Ocampo en 2019, para lograr personalizar el simulador a las características particulares de cada paciente.Publicación Acceso abierto Prototipo de chatbot orientado a la gestión de citas para el entendendimiento de datos brindados por un usuario(Universidad EIA, 2022) Londoño Pacheco, Carolina Maria; Bonet Cruz, IsisRESUMEN: Hoy en día todos debemos interactuar con diferentes chatbots que nos prestan un servicio, sea la consulta de información, la asignación de una cita, respuestas de preguntas recurrentes, entre otras. Sin embargo, muchos de estos programas mantienen las mismas dificultades desde hace ya varios años, además de que en Colombia estos no suelen ser muy completos, debido a esto se realizará un prototipo de chatbot enfocado en la asignación de citas que brinde una mejora al entendimiento del lenguaje humano. Con el fin de lograr esto, se iniciará por una investigación con respecto a los programas que existen actualmente en el mercado, además de una encuesta a diferentes personas sobre su interacción con chatbots. Según la información se hará el correcto análisis, comparación y finalmente diseño y documentación de los requisitos necesarios del proyecto. De la misma manera, se definirá el lenguaje más efectivo para la creación del algoritmo junto con un framework que permita generar una interfaz web básica para interactuar con el bot. Una vez se hayan completado todos estos procesos, se validará el funcionamiento del prototipo y se expondrá a diferentes usuarios para observar su comportamiento. Con todo esto lo que se busca es presentar un prototipo de chatbot que utiliza inteligencia artificial para el entendimiento del lenguaje humano por medio de las intenciones que pueden ser detectadas en el mensaje.