Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.uta.edu.ec/jspui/handle/123456789/39616
Título : Plataforma de interacción virtual para la navegación de visitantes primarios en los predios de la UTA del Campus Huachi usando un avatar y algoritmos de machine learning
Autor : Nogales Portero, Rubén Eduardo
Palate Amaguaña, Alexis Israel
Palabras clave : INTERACCIÓN VIRTUAL
RECONOCIMIENTO DE GESTOS
AVATAR
LEAP MOTION CONTROLLER
KNN
TCP IP
UNITY 3D
Fecha de publicación : sep-2023
Editorial : Universidad Técnica de Ambato. Facultad de Ingeniería en Sistemas, Electrónica e Industrial. Carrera de Ingeniería en Sistemas Computacionales e Informáticos
Resumen : People who do not know a place of interest have problems on their first visit, causing them a bad experience. In this context, a person can look for alternatives to get to know these places virtually, before getting to know them physically. However, most of the options are not a reflection of reality. Basically limiting them to see the exteriors of a place. In this sense, a virtual interaction platform is proposed where the user can control an avatar with hand gestures, to get to know a place virtually before getting to know it physically. In this way you can improve your experience on the first visit to the places that are of interest to you. In this project, a 3D model of the Huachi campus of the Technical University of Ambato (UTA) is proposed. This platform works with two integrated systems, running on the same computer. The first system consists of a hand gesture recognition model. This system uses the Leap Motion Controller sensor to capture the gestures made by the user. These data are sent to the model. This is in charge of processing them using a KNN classifier, to predict a label that represents the gesture. Subsequently, the predicted label is sent through the TCP/IP communication protocol, with the local IP address of the computer where the platform is running. The second system receives the label and interprets it as an instruction that the avatar must comply with by performing an action within its virtual environment. The platform was tested by 15 people. A group of 5 people who do know the UTA, and another group of 10 people who do not know the UTA, giving priority to people who do not know the UTA. The model was tested by the researcher, performing 20 repetitions for each gesture. Finding that, with kn=5 and frames=400, an accuracy percentage of 100% is obtained in the Open Hand gesture, 85% in the Close Hand gesture, 65% in the Wave In gesture, 95% in the Wave Out gesture, and 10% on the Pinch gesture. These gestures are used for the interaction of the avatar with the virtual world. However, the action corresponding to the Pinch gesture is limited, due to its low percentage of accuracy
Descripción : Las personas que no conocen un lugar de su interés tienen problemas en su primera visita, produciéndoles una mala experiencia. En este contexto, una persona puede buscar alternativas para conocer estos lugares de forma virtual, antes de conocerlos físicamente. Sin embargo, la mayoría de las opciones no son un reflejo de la realidad. Limitándolos básicamente a ver los exteriores de un lugar. En este sentido, se propone una plataforma de interacción virtual donde el usuario puede controlar un avatar con los gestos de la mano, para conocer un lugar de forma virtual antes de conocerlo físicamente. De esta forma puede mejorar su experiencia en la primera visita a los lugares que son de su interés. En este proyecto se propone un modelo 3D del campus Huachi de la Universidad Técnica de Ambato (UTA). Esta plataforma funciona con dos sistemas integrados, ejecutándose sobre el mismo computador. El primer sistema consiste en un modelo de reconocimiento de gestos de la mano. Este sistema utiliza el sensor Leap Motion Controller para capturar los gestos realizados por el usuario. Estos datos son enviados hacia el modelo. Este se encarga de procesarlos utilizando un clasificador KNN, para predecir una etiqueta que representa el gesto. Posteriormente, se envía la etiqueta predicha a través del protocolo de comunicación TCP/IP, con la dirección IP local del computador donde se ejecuta la plataforma. El segundo sistema recibe la etiqueta y lo interpreta como una instrucción que el avatar debe cumplir realizando una acción dentro de su entorno virtual. La plataforma fue testeada por 15 personas. Un grupo de 5 personas que sí conocen la UTA, y otro grupo de 10 personas que no conocen la UTA, dando prioridad a las personas que no conocen la UTA. El modelo fue testeado por el investigador, realizando 20 repeticiones por cada gesto. Encontrando que, con kn=5 y frames=400, se obtiene un porcentaje de exactitud de 100% en el gesto Open Hand, 85% en el gesto Close Hand, 65% en el gesto Wave In, 95% en el gesto Wave Out, y 10% en el gesto Pinch. Estos gestos se utilizan para la interacción del avatar con el mundo virtual. Sin embargo, se limita la acción correspondiente al gesto Pinch, debido a su bajo porcentaje de exactitud.
URI : https://repositorio.uta.edu.ec/jspui/handle/123456789/39616
Aparece en las colecciones: Tesis Ingeniería en Sistemas Informáticos y Computacionales

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
t2414si.pdfTexto completo1,64 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.