• Administrador

Google traducirá también lenguaje de señas

Mediante el uso de una cámara junto con un software que rastrea movimiento y los gestos de la mano, el sistema interpretará al usuario


El reto será integrar cada lenguaje, según la región del mundo e interpretar todos ellos para ser realmente eficaz

La plataforma de Google trabaja en una actualización a su servicio de traductor al incluir el lenguaje de señas. De hecho, su equipo de soporte técnico ya asiste a los usuarios con ese tipo de comunicación.

Según se dio a conocer el miércoles pasado, la nueva herramienta de Google Translate permitirá interpretar conversaciones sin tener que hacer pausas, ya que se encargará de escuchar y traducir al mismo tiempo, como en las películas de ciencia ficción.

Una tecnología que, en la óptica de expertos en tecnología, es un sistema ya usado en otros sitios, como el de servicio de telefonía con video, Skype.

Se destacó sin embargo, que los métodos de comunicación no escritos, como el lenguaje de señas, son más difíciles de traducir, ya que requiere una captura de la imagen y una interpretación de la misma para cada idioma.

En Google se estableció que han conseguido desarrollar una IA (Inteligencia Artificial), capaz de interpretar esos signos y convertirlos en habla. Podrían ahora crear un software, o integrarlo en Google Traductor, que permitiría a las personas con problemas de habla, comunicarse más fácilmente con otras personas que quizás no conozcan el lenguaje de señas.

Esto se hace mediante el uso de una cámara junto con un software que puede rastrear el movimiento y los gestos de la mano del usuario e interpretarlo en consecuencia.

Google logró alcanzar un rendimiento en tiempo real en un teléfono inteligente, por lo que no se necesitará un gran procesador para realizar el reconocimiento adecuado.

Es importante recordar que no hay un lenguaje de señas único en el mundo. Cada país tiene el suyo, por lo que el software debería ser capaz de interpretar todos ellos para ser realmente eficaz.

De momento la tecnología aún se está perfeccionando, ya que por ahora sólo captura parte de la conversación, olvida las expresiones faciales, la velocidad y los regionalismos, pero están trabajando en extender esta tecnología con un seguimiento más robusto y estable, así como aumentar la cantidad de gestos que pueden detectar de manera confiable.

El anuncio se realizó desde agosto de 2019, cuando se lanzó la aplicación en teléfonos celulares con sistema Android, que a través de la cámara percibía los movimientos y las formas de las manos por medio del aprendizaje automático.

El sistema está basado en un rastreo de la palma y los dedos de la mano para luego detectar 21 puntos clave 3D de un solo fotograma.

Google ha empleado la plataforma de código abierto MediaPipe para desarrollar el proyecto de percepción y según la empresa, el modelo podría “formar la base para la comprensión del lenguaje de signos”, así como otras funciones orientadas a la realidad aumentada en las que las manos se superponen al contenido digital.

Este año, se espera completar los detalles del software para utilizarlo en computadoras, así como iPad o tabletas.


Todos en la carrera tecnológica

Otras innovaciones en el mercado, es la habilitación en Facebook para identificar con palabras las fotografías del perfil del usuario, al cual reconoce por gestos en puntos clave configurados.

En los teléfonos móviles como una herramienta de seguridad también se desarrolló el BlazePalm, para reconocer la forma de la palma de la mano con un modelo de detección de disparo único, que trabaja en una variedad de tamaños de manos y tiene un alcance de gran escala con relación al marco de la imagen. Además, es capaz de detectar manos tapadas o sobrepuestas y tiene una precisión del 95.7%, superando en casi diez puntos a los sistemas anteriores.

A su vez, la plataforma de Amazon anunció que su sistema de reconocimiento detectará el miedo en la palma de la mano con un modelo de puntos de referencia, que localiza 21 puntos clave 3D de nudillos y dedos dentro de las distintas regiones de la mano. Con estos puntos, se obtiene una representación de postura interna de la mano y funciona incluso con gestos parcialmente visibles y dedos auto-tapados.

Ese modelo aplica un algoritmo para descifrar los gestos que está realizando la mano, a través de la posición de los dedos: recto o doblado. Luego, comparan el conjunto de dedos con conjuntos de gestos predeterminados con el fin de identificar el gesto en cuestión. (Con información de www.dineroenimagen.com / www.hatsnew.com)

2 vistas
No te pierdas ninguna de nuestras notas. ¡Suscribete ahora! Noticias Chihuahua

Solo registra tu correo electrónico.

© 2023 por GG Publicidad