Examinando por Materia "Artificial vision"
Mostrando 1 - 2 de 2
Resultados por página
Opciones de ordenación
Publicación Acceso abierto Detección de errores en la ejecución de una sentadilla con peso mediante visión artificial(Universidad EIA, 2021) Eskaff Diaz, Elías Ricardo; Trujillo Jaramillo, Sofía; Jurko, Juan JoséRESUMEN: Actualmente muchas personas al ejecutar el movimiento de la sentadilla con peso ocurren en algún tipo de error, y con frecuencia no están conscientes de este hasta que alguna parte del cuerpo les está molestando o doliendo. Las únicas soluciones, en el momento, a dicho problema son videos tutoriales y/o acompañamiento de un experto, las cuales carecen de disponibilidad por alguna de las partes y no representan un acercamiento tecnológico. En el presente se expone una propuesta que busca recurrir a la visión artificial y modelos matemáticos, para analizar el movimiento de la sentadilla con peso con el fin de entregar una valoración que le permita saber a la persona si está realizando correctamente o no la acción. Esta propuesta compara modelos de personas que ejecutan el ejercicio de manera adecuada (entrenadores, fisiculturistas, fisiatras, …) con los modelos de las personas que desean conocer si lo están ejecutando de manera errónea, determinando así un porcentaje de cumplimiento de la forma correcta de realizar la acción, esto ayudara a evitar posibles lesiones y mejorar la motivación de las personas que hagan ejercicio y usen la aplicación.Publicación Acceso abierto Sistema de retroalimentación en el espacio de trabajo del Robot ABB por medio de tecnologías de visión artificial(Universidad EIA, 2024) Gomez Urrutia, Andres Jose; Varon Munera, Kevin; Rozo Osorio, DavidRESUMEN: El proyecto desarrolla un sistema de retroalimentación para el robot ABB IRB 140 del laboratorio de la Universidad EIA, utilizando tecnologías de visión artificial para mejorar su interacción con el entorno de trabajo. La metodología incluyó la recopilación de información técnica del robot, la selección de la cámara OAK-D y el modelo YOLOv8 por su precisión y velocidad en detección de objetos, y la implementación de algoritmos de deep learning para reconocimiento y seguimiento. Se estableció comunicación entre el sistema de visión y el robot mediante protocolos TCP/IP y OPC, integrando lenguajes Python, MATLAB y RAPID. Las pruebas realizadas mostraron una mejora significativa en la precisión del robot, con errores reducidos a 2.41 cm en el eje X y 1.88 cm en el eje Y tras correcciones, logrando así un sistema eficiente para tareas dinámicas, aunque se recomienda optimizar aún más para aplicaciones de alta precisión.