Resumen: El uso del gesto, sea manual, facial y postural, establece una forma de comunicación hombre-máquina que aún debe ser estudiada profunda y ampliamente. Esta investigación establece la factibilidad del reconocimiento de los gestos o posturas de la mano usando un wearable (brazalete MYO) para la captura las señales electromiográficas (EMG) producidas por los músculos del antebrazo al formar un gesto. La información es capturada usando electrodos de superficie para luego, mediante el uso de clasificadores, lograr su reconocimiento. Participaron veintiún voluntarios y se analizaron doscientos setenta y tres gestos. Se evaluaron dos clasificadores, a saber, k-Nearest Neighbor (k-NN) y Support Vector Machines (SVM). El clasificador basado en SVM con núcleos Radial (93,03%) y Polinomial (97,81%) logró los mejores resultados. Además, se implementó un diccionario gestual que puede ser usado en investigaciones similares especialmente para tareas de control e interacción hombre-máquina.
Palabras-clave: Señales EMG; Interfaz de control gestual; reconocimiento gestual; Clasificador SVM; diccionario gestual.
Abstract: The use of the gesture using hands, face, and body positions, establish a form of man-machine communication that has yet to be studied deeply and widely. The purpose of this paper is to illustrate the feasibility of gestural recognition performed with the hand by using a wearable (MYO), which captures the electromyographic (EMG) signals produced by the forearm's muscles, precisely by forming and maintaining the gesture. The EMG signals are captured using surface electrodes and applied in classifier algorithms to achieve gesture recognition. Twenty-one volunteers participated in this research and two hundred and seventy-three gestures were analyzed. Two classifiers were evaluated, namely k-Nearest Neighbor (k-NN) and Support Vector Machines (SVM). SVM-based classifier with Polynomial kernel (97.81%) and Radial kernel (93.03) achieved the best results. A gestural dictionary of hand poses was implemented that can be used for similar research, especially in human-machine control tasks interaction.
Keywords: EMG signals; gesture control interface; gestural recognition; SVM classifier; gestural dictionary.
(ProQuest: ... denotes formulae omitted.)
1.Introducción
La forma más sencilla de lograr la interacción con la máquina es, sin duda, aquella que refleja el deseo o la intención del usuario en forma rápida, sencilla y confiable. A este tipo de interacción se la conoce Interfaz Natural de Usuario (INU) en la cual la intuición juega un papel muy importante para ejecutar una tarea o una acción. Esto fue demostrado por Ibañez et al. (Ibañez, Soria, Teyseyre, & Campo, 2014), que utilizaron los movimientos intuitivos del usuario (manos, brazos, piernas, posiciones) como comandos para controlar un juego. De la misma manera, según Mitra et al. (Mitra & Acharya, 2007), las manos son el mejor recurso de comunicación que posee el hombre. La riqueza gestual en el ser humano es muy amplia, al punto que existen lenguajes gestuales basados en signos, como el ASL (American Sign Language), que utilizan principalmente las manos. Además, desde este punto de vista, el gesto permite a los usuarios expresar una idea o un concepto (Lian, Hu, & Wang, 2014), que puede ser convertido en una acción o un comando.
Se han propuesto muchos métodos para lograr el reconocimiento del gesto, incluidas soluciones ópticas (usando cámaras) (Hasan & Abdul-Kareem, 2014), mediante el contacto (por ejemplo, pantalla táctil) (Poppinga, Sahami Shirazi, Henze, Heuten, & Boll, 2014), y dispositivos fijados o implantados en el cuerpo (por ejemplo, electrodos EMG) (C. Chen, Jafari, & Kehtarnavaz, 2015). Por su complejidad, estas soluciones han tenido que superar varios problemas (óptica con problemas de oclusión, contacto con problemas de captura-sensibilidad, dispositivos fijados al cuerpo con problemas de identificación y reconocimiento) (Hsieh & Liou, 2015) para convertirse en métodos operativos, fiables y portables (Ionescu et al., 2014).
El uso de señales electromiográficas (EMG) aplicadas al reconocimiento de movimientos o gestos (faciales, corporales o manuales) no es nuevo, y las investigaciones han hecho notables avances tanto en su captura como en su aplicación un ejemplo de ello es la prótesis de miembros superiores e inferiores, los mecanismos de ayuda a personas con discapacidades motoras, etc. La señal EMG provoca la contracción o relajación de un músculo produciendo, en consecuencia, un movimiento o gesto. El movimiento muscular genera patrones los cuales definen su comportamiento o permiten su identificación. Para encontrar estos patrones, los algoritmos de clasificación son necesarios e indispensables para lograr un reconocimiento gestual preciso. La señal EMG también contiene características aleatorias que deben ser procesadas antes de aplicar un clasificador. Existe un consenso en la comunidad científica para aplicar métodos de extracción de características en el dominio del tiempo (TD) y en el dominio de la frecuencia (FD). Kakoty et al. (Kakoty, Hazarika, & Gan, 2016) evalúan las características del tiempo, la frecuencia, la frecuencia del tiempo y el análisis de los componentes principales (PCA) del dominio tiempo-frecuencia. Mientras que Menon et al. (Menon et al., 2017) estudiaron los efectos de la información temporal y espacial proporcionada al clasificador, fuera de línea, y analizaron sus interdependencias. En cualquier caso, la aplicación de las características, cualquiera sea el método de extracción, es fundamental cuando se intenta lograr la máxima precisión de la clasificación. A continuación, se indican algunos de los métodos más utilizados para clasificar y analizar las señales EMG: Red neuronal convolucional (CNN) (Zhai, Jelfs, Chan, & Tin, 2017), Redes neuronales artificiales (RNA), Análisis discriminante lineal (LDA) (Menon et al., 2017; Zhai et al., 2017), Máquinas vectoriales de apoyo (SVM)-RBF (Kakoty et al., 2016), Vecino más cercano (k-NN) (J. Kim, Mastnik, & André, 2008), entre otros. Estos dos últimos algoritmos, k-NN y SVM, han sido utilizados con resultados muy alentadores a la hora de clasificar las señales EMG (Singh, Arora, Shukla, & Mittal, 2015).
Por otro lado, varias investigaciones discuten el uso de dos tipos de electrodos (sEMG, superficial e iEMG, intramuscular) para la captura efectiva de señales EMG (Yugan, Gobee, & Vickneswari, 2014). Las soluciones con iEMG son muy escasas ya que se consideran demasiado invasivas y sólo se recomiendan en casos obligatorios, al contrario de lo que sucede con sEMG. Los electrodos sEMG deben estar correctamente ubicados para garantizar la lectura de la señal que, por lo general, tiene una resolución ultra baja (pV-mV) (Al-Timemy, Bugmann, Escudero, & Outram, 2013). Otros estudios muestran que es posible controlar dispositivos y máquinas, utilizando un pequeño número de electrodos sEMG integrados al usuario. En este ámbito, el brazalete MYO®, incorpora electrodos de tipo sEMG y permite ser usado en el usuario sin mayor complicación. Este dispositivo no requiere ningún accesorio especial y es adaptable a diferentes perfiles de usuarios. El brazalete lee las señales EMG de los usuarios y envía los datos al equipo receptor (empotrado o computador) usando protocolo Bluetooth con características de bajo consumo (BLE). El brazalete es invariable a las condiciones de iluminación, a oclusiones y es independiente de la relación usuario-posición (W. G. Pomboza-Junez & Holgado-Terriza, 2016). Los gestos utilizados en este estudio se basan en posturas estáticas y se describen en la Sección 2.
Este trabajo se compone de las siguientes secciones: La sección 2 determina los antecedentes conceptuales mientras la sección 3 describe los materiales y métodos. La sección 4 muestra nuestros resultados y consideraciones. Por último, la sección 5 presenta las conclusiones y la sección 6 los trabajos futuros.
2.Antecedentes conceptuales
2.1.Diccionario Gestual
El diccionario gestual que en esta investigación se analiza, usa una sola mano y ofrece varias alternativas si pensamos en una interfaz basada en gestos de una mano. Utilizamos gestos que son fáciles de hacer y aprender para los usuarios (Nielsen, Störring, Moeslund, & Granum, 2004), como se muestra en la Figura 1.
2.2.Algoritmos de clasificación.
SVM
Las Máquinas de Vectores de Soporte (SVM) ofrecen un nuevo y prometedor método para clasificar tanto datos lineales como no lineales (Figura 2). SVM puede utilizarse tanto para la predicción como para la clasificación. Para más detalles, véase (Wallraven et al., 2003). Los clasificadores SVM encuentran hiperplanos que dividen las clases; el mejor hiperplano es el que tiene el mayor margen entre las dos o más clases. El hiperplano correspondiente puede definirse como:
... (1)
dónde w es un vector de peso, x es un vector de datos y b es un término separado que ofrece una mayor libertad para encontrar el hiperplano óptimo para clasificar los datos. Al aplicar núcleos el clasificador lineal puede servir como un clasificador no lineal. Los métodos de los núcleos de los SVMs muestran que, los SVMs funcionan bien para espacios de altas dimensiones, ya que encuentran el hiperplano con el mayor margen para clasificar diferentes conjuntos de datos. Hay tres tipos de funciones núcleo involucradas: funciones polinómicas, de base radial y sigmoidales.
... (2)
... (3)
... (4)
La ecuación (3) ofrece un clasificador que es un polinomio de grado p, la ecuación (4) ofrece un clasificador en base radial gaussiana, y la ecuación (5) es una función de la activación neuronal sigmoidal, específicamente del tipo perceptrón (para ciertos valores de 8 y y).
...
El clasificador k-NN encuentra un grupo de objetos k en el conjunto de entrenamiento los cuales están más cerca del objeto de prueba (Figura 3) y se basa en almacenar los vectores característicos y las etiquetas de las clases de los objetos de entrenamiento. El vecino más cercano da la mejor clasificación (Wu et al., 2008). k-NN localiza las instancias k más cercanas a la instancia de consulta y determina su clase identificando la etiqueta de clase más frecuente (Kotsiantis, 2007). Para determinar la distancia relativa entre las instancias más significativas k-NN utiliza una métrica de distancia. Las más significativas son Mikowsky, Manhattan, Chebychev, Euclidiano, Canberra, y la Correlación de Rango de Kendall. En este trabajo, usamos la distancia euclidiana para facilitar la implementación y la velocidad de cálculo que se expresa en la ecuación (6). Para más detalles, puede revisar la encuesta realizada por (Wettschereck, Aha, & Mohri, 1997).
... (5)
k es un factor clave en el algoritmo k-NN, ya que no debe ser tan pequeño que se vea afectado por el ruido, ni tan grande que el vecino más cercano pueda influir en él (Cover & Hart, 1967; Kim et al., 2008; Parada & Melia-Segui, 2017). Varias cuestiones clave afectan al rendimiento de k-NN según la elección de k (Figura 3).
Selección de Características
En este trabajo se ha usado la extracción de características en el dominio del tiempo, implícitas en la señal. Estos incluyen los resultados de la Rectificación de Onda Completa de una señal EMG (FW-REMG), y, el EMG Integrado (IEMG), las cuales se muestran en la Figura 4. Además, estos valores proporcionan la información necesaria sobre el cambio que experimenta la señal del EMG a lo largo del tiempo.
Rectificación: Se prefiere el FW-REMG porque se conserva toda la energía de la señal para el análisis (Kaur, Mathur, Bhatia, & Verma, 2015). A veces se considera un paso intermedio antes de la fase de integración en la señal. La rectificación de onda completa se lleva a cabo convirtiendo todas las amplitudes negativas en amplitudes positivas, los picos negativos se "suben" al lado positivo del eje del tiempo, en otras palabras, es lo mismo que tomar el valor absoluto de la señal EMG. Se define como:
... (6)
dónde, x2(t) = Señal filtrada del sensor, y x3(t) = Señal rectificada.
Integración de EMG: IEMG es una característica de la señal EMG que puede ser calculada tomando la suma del valor absoluto de la señal EMG digitalizada. Está definido por:
... (8)
dónde, y(t) = Señal integrada, y x3(t) = Señal rectificada.
La extracción de características nos permitió extraer la información útil que está oculta en la señal de EMG de la superficie y eliminar la parte no deseada y las interferencias. Se pueden incluir otros análisis en el dominio del tiempo y la frecuencia (por ejemplo, el cuadrado medio de la raíz, la frecuencia media, la amplitud máxima, la frecuencia media, etc.). Sin embargo, hemos intentado tomar las características más significativas de la señal EMG que no reducen la potencia de procesamiento del sistema incorporado, asegurando al mismo tiempo la correcta identificación del gesto basada en las características de las señales EMG.
3.Materiales y métodos
3.1. Captura de los datos
Participantes
Veintiún voluntarios participaron en los experimentos de captura de datos. Las edades oscilaban entre 20 y 50 años (Media=33,44; SD=8,7) (6 mujeres y 15 hombres). Todos ellos eran propietarios de un teléfono inteligente y manifestaron tener experiencia con las utilidades de "manos libres". Además, todos los voluntarios sabían cómo usar la computadora y todos los hombres indicaron que tenían experiencia previa en el uso de videojuegos.
Sensor
El brazalete MYO® (Figura 5.a) fue seleccionado para capturar las señales EMG que se producen en el antebrazo del usuario al realizar un gesto con la mano. El brazalete viene equipado con un microprocesador de tipo Cortex ARM-M4 de bajo consumo y compuesto por un conjunto de 8 sensores de electromiografía de superficie (sEMG) y un sensor inercial (IMU, unidad de medición inercial). Cada sensor sEMG se agrupa en barras paralelas que han sido colocadas radialmente en el brazalete, describiendo una circunferencia, y unidos por una banda flexible, como se muestra en la Figura 5.b. La frecuencia de muestreo, según el fabricante, es de 200 Hz para los sensores sEMG y de 50 Hz para la IMU de 9 ejes.
Protocolo experimental.
El área de pruebas consistía en un gran escritorio y una cómoda silla con respaldo. Los voluntarios colocaban el brazalete en el antebrazo de la mano derecha (no existieron voluntarios zurdos). El procedimiento para la toma de muestras fue el siguiente: el brazalete se alineaba en el antebrazo del voluntario tomando como referencia el pulgar, con la palma vertical al piso, y trazando visualmente una línea recta entre aquel y el led de estado del brazalete (ver figura 5.c). Esta forma de alineación del brazalete evitó la pérdida de calibración al pasar de un usuario a otro. Además, permitió mantener la configuración por defecto en el brazalete.
El investigador explicaba brevemente (de forma verbal y visual) al voluntario el gesto que debía realizar y mantener, antes de cada prueba, con el objetivo de minimizar datos inconsistentes o no pertenecientes al gesto. Cada prueba tuvo una duración de 10 s y era controlada por software. El inicio lo daba el investigador, para cada gesto, coordinando la indicación verbal con el inicio de la prueba. Durante este tiempo, el sistema registraba los datos generados. Se controlaba siempre la correcta ejecución del gesto. Una señal auditiva indicaba el final de cada prueba. Los datos generados por el voluntario, correspondientes a las señales EMG del gesto, eran capturados por los electrodos sEMG y transferidos, por Bluetooth, a un empotrado. El software de captura fue escrito en lenguaje C y los datos almacenados en un archivo. El brazalete no presentó problemas durante las pruebas.
3.2.Procesamiento de datos y experimentos
El experimento, por cada voluntario, alcanzó un total de 150 s. Se analizaron 273 gestos y un volumen aproximado de datos que alcanzó las 581.000 muestras (entre 28.000 y 30.000 muestras por voluntario). El software, creado para las pruebas, cerraba el archivo de datos y mostraba automáticamente, en pantalla, el siguiente gesto a ser realizado por el voluntario, en un ciclo repetitivo hasta que fuesen todos ejecutados. La figura 6, muestra gráficamente una parte de los datos recopilados del gesto (i) por cada uno de los 8 canales.
Se utilizó el procesamiento fuera de línea para evaluar el rendimiento de la clasificación. Para el procesamiento numérico se utilizó R (Project for Statistical Computing). Los clasificadores SVM y k-NN se construyeron utilizando el paquete e1071, entre otros disponibles en R, para el procesamiento de datos y señales.
Procesamiento y experimentos numéricos
Se utilizaron 8 canales y se analizaron todas las lecturas de los electrodos sEMG; por lo tanto, cada electrodo entregaba una lectura asociada a un músculo, en ese lugar específico pues, todos los músculos, en mayor o menor grado, se encuentran relacionados con el gesto (figura 6).
Los resultados se obtuvieron después de la separación del conjunto de datos para el entrenamiento y la verificación (70-30 para SVM y 80-20 para k-NN). Se investigaron combinaciones de técnicas de reducción de características y clasificación para lograr un máximo rendimiento. Los clasificadores se entrenaron utilizando un conjunto de entrenamiento, mientras que se utilizó un conjunto de validación para optimizar los parámetros de cada método.
En SVM se utilizó el procedimiento "uno contra uno" para realizar la clasificación. Los datos fueron procesados usando SVM con funciones de núcleo tipo: Base Radial Gaussiana (RBF), Polinomial y Sigmoidal. El núcleo requiere dos parámetros: C y y (gamma). Para afinar estos parámetros y encontrar aquellos que permitan una mejor generalización, hemos utilizado una búsqueda por intervalos en C y y a través de la validación cruzada (n=10). Los parámetros se seleccionaron sobre la base de varios valores de C Ш [0.0001,0.001,0.01,0.1,1,10,100,1000,10000] y y В [0.00125,0.0625,0 .0125,0.125,0.25,0.5,0.625,0.75]. El mejor parámetro se usó para optimizar a C en el conjunto de entrenamiento solamente. La tabla 1 muestra la precisión alcanzada por cada núcleo en SVM.
En k-NN el conjunto de datos se clasificó utilizando k Й {i,3,5,...,27}. Los mejores resultados se obtuvieron para k =7. Este algoritmo mira al vecino más cercano, usando la distancia euclidiana de la ecuación 6. La Tabla 1 muestra la precisión para cada valor de k.
4.Resultados y discusión
En esta investigación, se estudió un amplio conjunto de datos, a los cuales se agregaron características de rectificación e integración, como resultado del análisis de la señal EMG. Se obtuvo una precisión de 93,03% para SVM con núcleo RBF. Fue notorio que, al experimentar con un núcleo polinomial, SVM alcanzó una precisión de 97,81%.
Es necesario indicar que, los resultados para SVM con nucleo sigmoidal, se mantuvieron bajos e incluso por debajo de los inicialmente esperados (apenas alcanzaron el 12,62%). La precisión de SVM con nUcleos RBF y polinomial fue alta, con una diferencia entre ellos de 4,78. Por otro lado, la precisión alcanzada por el clasificador k-NN fue de 70,24%. Esta precisión, aunque baja, permite una rápida implementación por lo simple de su algoritmo. Además, no requiere un tiempo de aprendizaje significativo. Sin embargo, si el objetivo es la alta precisión de reconocimiento gestual, los núcleos RBF y polinómico son la mejor alternativa en SVM para reconocimiento gestual. Las matrices de confusión de SVM polinomial (figura 7.a) y k-NN (figura 7.b) se muestran en la figura 7.
Para SVM, el mejor par (C, y) estaba en el rango establecido en la Sección 2.2, con una tasa de error de 0,0697 para el nUcleo RBF, con porcentajes de exactitud calculados para cada gesto, como se muestra en la Tabla 1. El núcleo polinomial alcanzó una tasa de error de 0,0219 con los mismos parámetros. La Tabla 1, muestra también los niveles de precisión para cada uno de los núcleos probados y el grado de reconocimiento gestual. Los niveles de precisión son aceptables, pero podrían mejorarse eliminando los gestos con lecturas muy similares, por ejemplo, (f), (k), (d), (a), (i), (j), (g) y (h).
Para k-NN, se probaron varios valores de k (k Й {i,3,...,27}), logrando la mejor precisión para k=7 utilizando el mismo conjunto de datos. El algoritmo k-NN alcanzó 70,24% de precisión en la clasificación. La tasa de error alcanzó 0,2976, con porcentajes de exactitud calculados para cada gesto, como se muestra en la Tabla 1. En este sentido, los niveles de precisión son aceptables, ya que todos superan el 80% excepto el gesto (e). Esto podría mejorarse eliminando los gestos con lecturas muy similares, por ejemplo, el gesto (a) y (f), (e) y (f), (d) y (k), (d) y (e), (h) y (j). La similitud se produce en la señal generada por los músculos, y no necesariamente en la representación espacial del gesto (Figura 1).
En resumen, los dos métodos de aprendizaje automático utilizados, SVM y k-NN, aplicados al reconocimiento gestual han demostrado ser adecuados. Sin embargo, la precisión de clasificación demostrada por SVM con respecto a k-NN fue mucho mayor.
En el primer caso, SVM con núcleo RBF logró una diferencia de 22,79% con respecto k-NN, y en el segundo, con núcleo polinomial logró diferencia aún mayor con respecto a k-NN (27,57%). SVM con núcleos RBF y polinomial logra la mayor precisión, mejor rendimiento y mejores resultados individuales y globales.
5. Conclusiones
Esta investigación muestra el alto nivel de precisión que el algoritmo de clasificación SVM con núcleo RBF y polinomial es capaz de lograr en comparación con el algoritmo k-NN, ambos aplicados al reconocimiento gestual. SVM logra clasificar correctamente todos los gestos propuestos, en la biblioteca gestual de experimentación, a partir de las señales EMG obtenidas de los voluntarios al formar y mantener cada gesto. También hemos encontrado que, al agregar características de rectificación de onda completa (FW-REMG) e integración (IEMG) de la señal EMG los resultados de clasificación y reconocimiento son muy aceptables. Finalmente, se determinó que, la precisión del clasificador SVM (97,81%) con núcleo polinomial es mayor que la alcanzada por k-NN (70,24%) usando, en ambos casos, señales EMG capturadas con electrodos EMG de superficie incorporados en el brazalete MYO.
6. Trabajos futuros
Hemos pensado en la implementación de una interfaz de reconocimiento gestual en viviendas, como parte de un sistema integral de control domótico. Implementar algoritmos de reconocimiento con Deep Learning. Implementar algoritmos que logren introducir el gesto en el control de sistemas de seguridad y monitoreo. En el campo educativo, las posibilidades son mucho más amplias, se podría lograr un aprendizaje significativo mucho más amplio trabajando con niños de educación básica e inicial a través del gesto.
Referencias
Al-Timemy, A. H., Bugmann, G., Escudero, J., & Outram, N. (2013). Classification of Finger Movements for the Dexterous Hand Prosthesis Control With Surface Electromyography. IEEE Journal of Biomedical and Health Informatics, 17(3), 608-618. https://doi.org/10.1109/JBHI.2013.2249590
Chen, C., Jafari, R., & Kehtarnavaz, N. (2015). Improving Human Action Recognition Using Fusion of Depth Camera and Inertial Sensors. IEEE Transactions on Human-Machine Systems, 45(1), 51-61. https://doi.org/10.1109/THMS.2014.2362520
Cover, T., & Hart, P. (1967). Nearest neighbor pattern classification. IEEE Transactions on Information Theory, 13(1), 21-27. https://doi.org/10.1109/TIT.1967.1053964
Hasan, H., & Abdul-Kareem, S. (2014). Static hand gesture recognition using neural networks. Artificial Intelligence Review, 41(2), 147-181. https://doi.org/10.1007/ s10462-011-9303-1
Hsieh, C.-C., & Liou, D.-H. (2015). Novel Haar features for real-time hand gesture recognition using SVM. Journal of Real-Time Image Processing, 10(2), 357-370. https://doi.org/10.1007/s11554-012-0295-0
Ibañez, R., Soria, Á., Teyseyre, A., & Campo, M. (2014). Easy gesture recognition for Kinect. Advances in Engineering Software, 76, 171-180. https://doi.org/10.1016/j. advengsoft.2014.07.005
Ionescu, B., Suse, V., Gadea, C., Solomon, B., Ionescu, D., Islam, S., & Cordea, M. (2014). Using a NIR camera for car gesture control. IEEE Latin America Transactions, 12(3), 520-523. https://doi.org/10.1109/TLA.2014.6827882
Kakoty, N. M., Hazarika, S. M., & Gan, J. Q. (2016). EMG Feature Set Selection Through Linear Relationship for Grasp Recognition. Journal of Medical and Biological Engineering, 36(6), 883-890. https://doi.org/10.1007/s40846-016-0188-y
Kaur, M., Mathur, S., Bhatia, D., & Verma, S. (2015). siGnum: Graphical user interface for EMG signal analysis. Journal of Medical Engineering & Technology, 39(1), 19-25. https://doi.org/10.3109/03091902.2014.973615
Kim, J., Mastnik, S., & André, E. (2008). EMG-based hand gesture recognition for realtime biosignal interfacing. In Proceedings of the 13th international conference on Intelligent user interfaces - IUI '08 (Vol. 39, p. 30). New York, New York, USA: ACM Press. https://doi.org/10.1145/1378773.1378778
Kotsiantis, S. B. (2007). Supervised machine learning: A review of classification techniques. Informatica, 31, 249-268. https://doi.org/10.1115/1.1559160
Lian, S., Hu, W., & Wang, K. (2014). Automatic user state recognition for hand gesture based low-cost television control system. IEEE Transactions on Consumer Electronics, 60(1), 107-115. https://doi.org/10.1109/TCE.2014.6780932
Menon, R., Di Caterina, G., Lakany, H., Petropoulakis, L., Conway, B., & Soraghan, J. (2017). Study on interaction between temporal and spatial information in classification of EMG signals in myoelectric prostheses. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 4320(c), 1-1. https://doi.org/10.1109/TNSRE.2017.2687761
Mitra, S., & Acharya, T. (2007). Gesture Recognition: A Survey. IEEE Transactions on Systems, Man and Cybernetics, Part C (Applications and Reviews), 37(3), 311-324. https://doi.org/10.1109/TSMCC.2007.893280
Naik, G. R., & Nguyen, H. T. (2015). Nonnegative matrix factorization for the identification of EMG finger movements: Evaluation using matrix analysis. IEEE Journal of Biomedical and Health Informatics, 19(2), 478-485. https://doi.org/10.1109/ JBHI.2014.2326660
Nielsen, M., Störring, M., Moeslund, T. B., & Granum, E. (2004). A procedure for developing intuitive and ergonomic gesture interfaces for HCI. In Gesture-Based Communication in Human-Computer Interaction (pp. 409-420). https://doi.org/10.1007/978-3-540-24598-8_38
Parada, R., & Melia-Segui, J. (2017). Gesture Detection Using Passive RFID Tags to Enable People-Centric IoT Applications. IEEE Communications Magazine, 55(2), 56-61. https://doi.org/10.1109/MCOM.2017.1600701CM
Pomboza-Junez, G., & Holgado-Terriza Juan, A. (2015). Control of home devices based on hand gestures. In 2015 IEEE 5th International Conference on Consumer Electronics - Berlin (ICCE-Berlin) (pp. 510-514). IEEE. https://doi.org/10.1109/ ICCE-Berlin.2015.7391325
Pomboza-Junez, W. G., & Holgado-Terriza, J. A. (2016). Gestural Interaction with Mobile Devices. In Proceedings of the XVII International Conference on Human Computer Interaction - Interacción '16 (pp. 1-2). New York, New York, USA: ACM Press. https://doi.org/10.1145/2998626.2998672
Poppinga, B., Sahami Shirazi, A., Henze, N., Heuten, W., & Boll, S. (2014). Understanding shortcut gestures on mobile touch devices. In Proceedings of the 16th international conference on Human-computer interaction with mobile devices & services - MobileHCI '14 (pp. 173-182). New York, New York, USA: ACM Press. https://doi.org/10.1145/2628363.2628378
Singh, A., Arora, S., Shukla, P., & Mittal, A. (2015). Indian Sign Language gesture classification as single or double handed gestures. In 2015 Third International Conference on Image Information Processing (ICIIP) (pp. 378-381). IEEE. https://doi.org/10.1109/ICIIP.2015.7414800
Wallraven, C., Caputo, B., & Graf, A. (2003). Recognition with local features: the kernel recipe. Proceedings Ninth IEEE International Conference on Computer Vision, (Iccv), 1-8. https://doi.org/10.1109/ICCV.2003.1238351
Wettschereck, D., Aha, D. W., & Mohri, T. (1997). A Review and Empirical Evaluation of Feature Weighting Methods for a Class of Lazy Learning Algorithms. Artificial Intelligence Review, 11(1/5), 273-314. https://doi.org/io.i023/A:ioo65936i4256
Wu, X., Kumar, V., Ross Quinlan, J., Ghosh, J., Yang, Q., Motoda, H., ... Steinberg, D. (2008). Top 10 algorithms in data mining. Knowledge and Information Systems, 14(1), 1-37. https://doi.org/10.1007/s10115-007-0114-2
Yugan, V., Gobee, S., & Vickneswari, D. (2014). Design and Development of Lower Limb Exoskeleton for Rehabilitation. In The 15th International Conference on Biomedical Engineering - IFMBE Proceedings (Vol. 43, pp. 516-519). https://doi.org/10.1007/978-3-319-02913-9
Zhai, X. L., Jelfs, B., Chan, R. H. M., & Tin, C. (2017). Self-Recalibrating Surface EMG Pattern Recognition for Neuroprosthesis Control based on Convolutional Neural Network. Under Review, 11(July), 1-11. https://doi.org/10.3389/fnins.2017.00379
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
© 2020. This work is published under https://creativecommons.org/licenses/by-nc-nd/4.0/ (the “License”). Notwithstanding the ProQuest Terms and Conditions, you may use this content in accordance with the terms of the License.
Abstract
Abstract: The use of the gesture using hands, face, and body positions, establish a form of man-machine communication that has yet to be studied deeply and widely. The purpose of this paper is to illustrate the feasibility of gestural recognition performed with the hand by using a wearable (MYO), which captures the electromyographic (EMG) signals produced by the forearm's muscles, precisely by forming and maintaining the gesture. A gestural dictionary of hand poses was implemented that can be used for similar research, especially in human-machine control tasks interaction. Red neuronal convolucional (CNN) (Zhai, Jelfs, Chan, & Tin, 2017), Redes neuronales artificiales (RNA), Análisis discriminante lineal (LDA) (Menon et al., 2017; Zhai et al., 2017), Máquinas vectoriales de apoyo (SVM)-RBF (Kakoty et al., 2016), Vecino más cercano (k-NN) (J. Kim, Mastnik, & André, 2008), entre otros.
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
Details
1 Carrera de Informática Aplicada a la Educación, Universidad Nacional de Chimborazo, Riobamba, Ecuador
2 Departamento de Lenguajes y Sistemas Informáticos, Universidad de Granada, Granada, España