dor_id: 45417

506.#.#.a: Público

590.#.#.d: Los artículos enviados a la revista "Journal of Applied Research and Technology", se juzgan por medio de un proceso de revisión por pares

510.0.#.a: Scopus, Directory of Open Access Journals (DOAJ); Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal (Latindex); Indice de Revistas Latinoamericanas en Ciencias (Periódica); La Red de Revistas Científicas de América Latina y el Caribe, España y Portugal (Redalyc); Consejo Nacional de Ciencia y Tecnología (CONACyT); Google Scholar Citation

561.#.#.u: https://www.icat.unam.mx/

650.#.4.x: Ingenierías

336.#.#.b: article

336.#.#.3: Artículo de Investigación

336.#.#.a: Artículo

351.#.#.6: https://jart.icat.unam.mx/index.php/jart

351.#.#.b: Journal of Applied Research and Technology

351.#.#.a: Artículos

harvesting_group: RevistasUNAM

270.1.#.p: Revistas UNAM. Dirección General de Publicaciones y Fomento Editorial, UNAM en revistas@unam.mx

590.#.#.c: Open Journal Systems (OJS)

270.#.#.d: MX

270.1.#.d: México

590.#.#.b: Concentrador

883.#.#.u: https://revistas.unam.mx/catalogo/

883.#.#.a: Revistas UNAM

590.#.#.a: Coordinación de Difusión Cultural

883.#.#.1: https://www.publicaciones.unam.mx/

883.#.#.q: Dirección General de Publicaciones y Fomento Editorial

850.#.#.a: Universidad Nacional Autónoma de México

856.4.0.u: https://jart.icat.unam.mx/index.php/jart/article/view/558/554

100.1.#.a: Villa Angulo, R.; Hidalgo Silva, H.

524.#.#.a: Villa Angulo, R., et al. (2005). A wearable neural interface for real time translation of spanish deaf sign language to voice and writing. Journal of Applied Research and Technology; Vol. 3 Núm. 03. Recuperado de https://repositorio.unam.mx/contenidos/45417

245.1.0.a: A wearable neural interface for real time translation of spanish deaf sign language to voice and writing

502.#.#.c: Universidad Nacional Autónoma de México

561.1.#.a: Instituto de Ciencias Aplicadas y Tecnología, UNAM

264.#.0.c: 2005

264.#.1.c: 2005-12-01

653.#.#.a: Neural Networks; Human-Computer Interfaces; Signed Languages

506.1.#.a: La titularidad de los derechos patrimoniales de esta obra pertenece a las instituciones editoras. Su uso se rige por una licencia Creative Commons BY-NC-SA 4.0 Internacional, https://creativecommons.org/licenses/by-nc-sa/4.0/legalcode.es, para un uso diferente consultar al responsable jurídico del repositorio por medio del correo electrónico gabriel.ascanio@icat.unam.mx

884.#.#.k: https://jart.icat.unam.mx/index.php/jart/article/view/558

001.#.#.#: 074.oai:ojs2.localhost:article/558

041.#.7.h: eng

520.3.#.a: En este documento se presenta el trabajo de diseño e implementación de una herramienta de comunicación para personas discapacitadas del habla y del oído. Esta herramienta es conceptualizada como una interfaz humanocomputadora capaz de capturar y reconocer ademanes del lenguaje español signado de México. Para realizar la captura de las expresiones manuales, el sistema utiliza un guante de datos basado en sensores de flexión capaces de medir la posición de quince articulaciones de una de las manos de un usuario, y un sistema basado en sensores de ultrasonido para detectar la posición y movimientos de la mano con respecto al cuerpo del usuario. Un par de autómatas programables realiza el tratamiento de la información proveniente del guante de datos y del rastreador de movimientos y una computadora personal realiza el trabajo de reconocimiento e interpretación de los ademanes. Para realizar el procesamiento de la información se utilizan técnicas de redes neuronales artificiales con las cuales se realizan mapeos del espacio de información generado por los instrumentos a un espacio de soluciones donde se encuentran los significados de los ademanes representados por el usuario. Una vez capturado e interpretado un ademán, éste es presentado en forma escrita a través de una pantalla montada en la ropa del usuario, y en forma sonora a través de una bocina la cual pronuncia la letra que ha sido representada.

773.1.#.t: Journal of Applied Research and Technology; Vol. 3 Núm. 03

773.1.#.o: https://jart.icat.unam.mx/index.php/jart

022.#.#.a: ISSN electrónico: 2448-6736; ISSN: 1665-6423

310.#.#.a: Bimestral

264.#.1.b: Instituto de Ciencias Aplicadas y Tecnología, UNAM

doi: https://doi.org/10.22201/icat.16656423.2005.3.03.558

harvesting_date: 2023-11-08 13:10:00.0

856.#.0.q: application/pdf

245.1.0.b: A wearable neural interface for real time translation of spanish deaf sign language to voice and writing

last_modified: 2024-03-19 14:00:00

license_url: https://creativecommons.org/licenses/by-nc-sa/4.0/legalcode.es

license_type: by-nc-sa

_deleted_conflicts: 2-460489dede4802c1445a36d0bc441836

No entro en nada

No entro en nada 2

Artículo

A wearable neural interface for real time translation of spanish deaf sign language to voice and writing

Villa Angulo, R.; Hidalgo Silva, H.

Instituto de Ciencias Aplicadas y Tecnología, UNAM, publicado en Journal of Applied Research and Technology, y cosechado de Revistas UNAM

Licencia de uso

Procedencia del contenido

Cita

Villa Angulo, R., et al. (2005). A wearable neural interface for real time translation of spanish deaf sign language to voice and writing. Journal of Applied Research and Technology; Vol. 3 Núm. 03. Recuperado de https://repositorio.unam.mx/contenidos/45417

Descripción del recurso

Autor(es)
Villa Angulo, R.; Hidalgo Silva, H.
Tipo
Artículo de Investigación
Área del conocimiento
Ingenierías
Título
A wearable neural interface for real time translation of spanish deaf sign language to voice and writing
Fecha
2005-12-01
Resumen
En este documento se presenta el trabajo de diseño e implementación de una herramienta de comunicación para personas discapacitadas del habla y del oído. Esta herramienta es conceptualizada como una interfaz humanocomputadora capaz de capturar y reconocer ademanes del lenguaje español signado de México. Para realizar la captura de las expresiones manuales, el sistema utiliza un guante de datos basado en sensores de flexión capaces de medir la posición de quince articulaciones de una de las manos de un usuario, y un sistema basado en sensores de ultrasonido para detectar la posición y movimientos de la mano con respecto al cuerpo del usuario. Un par de autómatas programables realiza el tratamiento de la información proveniente del guante de datos y del rastreador de movimientos y una computadora personal realiza el trabajo de reconocimiento e interpretación de los ademanes. Para realizar el procesamiento de la información se utilizan técnicas de redes neuronales artificiales con las cuales se realizan mapeos del espacio de información generado por los instrumentos a un espacio de soluciones donde se encuentran los significados de los ademanes representados por el usuario. Una vez capturado e interpretado un ademán, éste es presentado en forma escrita a través de una pantalla montada en la ropa del usuario, y en forma sonora a través de una bocina la cual pronuncia la letra que ha sido representada.
Tema
Neural Networks; Human-Computer Interfaces; Signed Languages
Idioma
eng
ISSN
ISSN electrónico: 2448-6736; ISSN: 1665-6423

Enlaces