La comunidad sorda, protagonista en la Cabalgata de Reyes de Madrid

De entre todas las carrozas que recorrieron ayer las calles de Madrid en la Cabalgata de Reyes de 2018, nos quedamos con una: la dedicada a la astronomía. ¡La apuesta del Ayuntamiento de Madrid por hacer accesible a la comunidad sorda una fecha tan señalada!

Astronomía en lengua de signos. Foto: Fundación First Team.

Encima de ella estaban nuestros amigos de Comunicados —cabecillas de la iniciativa, junto a la Fundación First Team y Escena Global— y personajes históricos como Zacharias Jansen, Galileo Galilei, Isaac Newton o María Mitchel, que acercaron también a los niños y niñas sordos todo un universo de planetas, satélites y galaxias. Además, la visibilidad de la Lengua de Signos Española también tuvo su espacio en el colofón final de la noche: tres niños sordos  entregaron su carta a los Reyes Magos de Oriente y el mensaje de la alcaldesa de Madrid, Manuela Carmena, fue interpretado en lengua de signos.

Desde Showleap, nuestra enhorabuena a todos los implicados por hacer posible esta iniciativa para sensibilizar a todos los públicos sobre la integración de la comunidad sorda y el uso de la LSE.

 

Día Nacional de las Lenguas de Signos Españolas

02 Dia Nacional Lenguas Signos EspaEl reconocimiento de las lenguas de signos ha sido una lucha constante por parte de las personas sordas. Por eso, el año pasado el Consejo de Ministros declaró el 14 de junio como el Día Nacional de las Lenguas de Signos Españolas con el objetivo de fomentar la inclusión, la igualdad de oportunidades y participación en una sociedad diversa, multilingüe y multicultural.

Hace relativamente poco que la lengua de signos es reconocida oficialmente; sí, pero… ¿a qué siglo se remonta su origen? Existe muy poca información sobre el origen de esta lengua, pero todos estaremos de acuerdo en que surgió en el mismo momento en que se encontraron dos personas sordas en un mismo lugar, ¿verdad? Entonces nos preguntamos… ¿es una lengua tan antigua que incluso podría haber surgido antes que las lengua orales? Porque sería un error pensar que la lengua de signos depende de la lengua oral…

Aproximación a la historia de la lengua de signos

La lengua de signos es una lengua minoritaria y minorizada por la sociedad desde hace siglos. Nos remontamos al siglo IV: San Agustín expone que «los sordos y bufones significan con los gestos… mucho y casi todo lo que nosotros hablamos; de donde encontramos que  los gestos mismos son signos». Para que os hagáis una idea, en esta época, los sordos no tenían derechos de ciudadanía reconocidos, y esto se mantendría hasta el siglo XVI, época del Renacimiento. Es aquí donde a las personas sordas se les comienza a reconocer esa capacidad de pensamiento, esa inteligencia “dormida”… pero ¿cómo? Siempre desde la dependencia y el aprendizaje de la lengua oral.

Durante estos años, los monjes comienzan a educar a los niños sordos y así surgen algunos proyectos educativos enfocados a la enseñanza de las personas sordas con alto nivel adquisitivo (familias de nobles); y bueno, se puede decir que utilizan como herramienta de aprendizaje las señas. En este sentido, la figura de Fray Pedro Ponce de León pasará a la historia por considerarse el primer educador de personas sordas del mundo.

Un cambio de mentalidad es lo que necesitaba la sociedad. ¿Por qué los monjes y no otras personas fueron los que enseñaron a los niños sordos a expresar su pensamiento mediante los signos? Porque, antiguamente, los monjes estaban obligados a respetar el voto de silencio en los monasterios y se hacían comprender mediante señas. Fue por ello por lo que Ponce de León cayó en la cuenta de que era posible expresar la razón sin habla, así que utilizó con los niños sordos un sistema gestual de comunicación.

A lo largo de la historia, muchas personas han tenido como objetivo crear sistemas de enseñanza para las personas sordas (el Licenciado Lasso con su Tratado legal sobre los mudos de 1550, Juan Pablo Bonet con su Reduction de las letras y Arte para enseñar á ablar los Mudos de 1620…), sin embargo hay que esperar hasta la época de la Ilustración para encontrar un reconocimiento claro de que la lengua materna de las personas sordas es verdaderamente la lengua de signos. Esta afirmación se puede encontrar en el libro publicado por el abad L´Epée, Introducción de los sordomudos a través de los signos metódicos, (1776). Charles-Michel de l’Épée llegó a un acuerdo con los alumnos sordos, estableciendo signos artificiales pactados para poder comunicarse con ellos. Fue la primera vez que las personas sordas recibían educación de forma colectiva.

Tres años después, en 1779, se publica el primer libro en defensa de la lengua de signos,  ¡escrito por una persona sorda!: Observaciones de un sordomudo sobre un curso elemental de educación de sordos y mudos, de Pierre Desloges.

¿Y en España, qué ha pasado?

Aquí siguen esta misma línea de enseñanza a partir de los propios signos de los alumnos sordos. En 1795 se fundó el primer colegio para sordos en España y se publicó Escuela Española de Sordomudos o Arte para enseñarles a escribir y hablar el idioma español, de Lorenzo Hervás y Panduro, que aconseja enseñar a los sordos desde el medio más natural para ellos. Sin embargo, tenemos que destacar que el primer registro de signos españoles fue el Diccionario de mímica y dactilología de Francisco Fernández Villabrille (1851), donde se describen hasta 1547 signos. Este documento es muy muy importante, porque es el primer diccionario de Lengua de Signos en España.

No obstante, en 1880 se convocó un Congreso Internacional de Maestros de Sordomudos en Milán que fue un gran retroceso para las lenguas de signos. «¡Viva la palabra!» era el lema de aquel congreso, que provocó un cese de de la transmisión de las lenguas de signos y su desaparición de las escuelas en favor de una metodología oralista que vetaba a los sordos de su lengua natural. Pero, en su vida cotidiana, las personas sordas siguieron utilizando la lengua de signos, su lengua materna.

En los años 20, Lev Vigotski y William Stokoe fueron los que se dieron cuenta de que la lengua de signos cumplía con todos los requisitos necesarios para ser considerada una verdadera lengua. Poco a poco, las personas sordas volvieron a reactivar la lucha por el derecho a utilizar su lengua y como veis, hasta nuestros días, la lucha por su reconocimiento ha sido constante. Así, mediante la investigación y la puesta en duda de los métodos oralistas que se utilizaban en la educación de estas personas se han conseguido grandes logros: avances, pequeñas batallas que apreciamos hoy en día mediante los diferentes congresos celebrados en relación con la lengua de signos, los diccionarios editados y publicados, las legislaciones tanto en el ámbito estatal como autonómico, las asociaciones, federaciones y centros de interpretación…

A pesar de que la lengua de signos es una lengua muy novedosa, es difícil resumir en unos pocos párrafos su origen y lo que realmente ha significado para la Comunidad Sorda. Espero que os haya parecido interesante, y recordad: ¡la lengua de signos es una lengua viva y dinámica, en continua evolución!

Leap Motion (II): principio de funcionamiento

¿Recordáis que en la entrada anterior vimos las partes de las que consta el sensor Leap Motion? Pues hoy nos toca analizar su funcionamiento. ¡Allá vamos!

Una de las razones por las que hemos elegido Leap Motion como sensor para nuestro traductor de lengua de signos es porque, para identificar correctamente los gestos, necesitamos obtener la máxima información posible de la configuración y del movimiento realizado por las manos. Tener información tridimensional es imprescindible para nuestro proyecto.

Existen diferentes técnicas para obtener parámetros de profundidad mediante un sistema de visión (por ejemplo, Kinect obtiene imágenes a color e imágenes de profundidad proyectando un mallado de puntos de los que analiza la distancia a partir de la distorsión del mallado). Con esta información se pueden obtener variables suficientes para poder determinar un gesto realizado. Nosotros vamos a centrarnos en el funcionamiento de Leap Motion; como siempre, ¡paso a paso!

Cómo funciona el controlador Leap Motion

El dispositivo ilumina la zona de cobertura mediante una luz infrarroja emitida a través de sus tres LEDs, con una longitud de onda de 850 nm. Esta zona de cobertura está limitada por el ángulo de visión de los sensores (esto también lo vimos en la entrada anterior) y por la corriente máxima que puede entregar la conexión USB.

IMG 1-Blog de ShowLeap-Leap Motion-Principio de funcionamientoCuando un objeto —en nuestro caso, las manos— es iluminado, se produce una reflexión de luz que llega al dispositivo e incide sobre las lentes de las dos cámaras. Estas lentes, de tipo biconvexas, concentran los rayos en el sensor de cada cámara; y los datos recogidos por los sensores se almacenan en una matriz (imagen digitalizada) en la memoria del controlador USB, en donde se realizan los ajustes de resolución adecuados mediante el microcontrolador del dispositivo.

Una vez ajustada la resolución, los datos de los sensores se envían directamente al driver instalado en el ordenador. Estos datos representan un valor de intensidad luminosa por cada píxel de la imagen capturada y se guardan en un buffer. El valor de intensidad luminosa se cuantifica a 8 bits para generar una imagen RAW en escala de grises —por tanto, hay un total de 256 posibles valores de luminosidad. Y nos falta otro dato: cada imagen tiene un tamaño de 640 x 120 px, con lo que en total hay 76.800 píxeles por imagen. ¿Y aún así es rápido el dispositivo? Pues si, porque las imágenes no son tratadas en el propio dispositivo; ¡este solo recoge y envía datos! 😉

Una vez que las imágenes de las dos cámaras llegan al driver son analizadas para identificar las manos y los dedos a partir de un modelo matemático de caracterización anatómico. Además, se obtiene la profundidad mediante un algoritmo que os explicamos  a continuación. Primero, mirad esto:

IMG 2-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Estas son las dos imágenes que llegan al driver del Leap Motion (se puede acceder a ellas a partir de la versión 2.1 de la API).

Pero antes de aplicar el algoritmo de identificación y el de profundidad hay que tener en cuenta que las lentes del dispositivo producen una distorsión en la imagen óptica , deformando el objeto observado. Vayamos por partes: ¿sabes que existen diferentes tipos de distorsión, dependiendo del tipo de lente que se use?

IMG 3-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Pues en Leap Motion se produce lo que conocemos como distorsión compleja: una mezcla entre la distorsión barril y la distorsión cojín.

IMG 4-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Para mejorar esta distorsión, Leap Motion tiene una opción de calibrado mediante la cual se obtiene un mapa de mallado de puntos de calibrado que se superpone a la imagen captada por cada sensor.

IMG 5-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Por lo tanto, cada buffer de datos de imagen que se envía al driver va acompañado de otro buffer que contiene los datos de distorsión. Estos datos son una rejilla de 64 x 64 puntos con dos valores de 32 bits cada uno. Cada uno de estos puntos representa un rayo proyectado en la cámara. El valor de un punto del mallado define la luminosidad de un píxel en la imagen y se pueden obtener los datos de luminosidad de todos los píxeles mediante interpolación.

Así pues, se puede obtener el valor de brillo para cualquier rayo proyectado. Los valores de la cuadrícula que caen fuera del rango [0…1] no corresponden a un valor de datos de la imagen y, por tanto, debemos ignorar estos puntos. Vamos a tratar de que se entienda mejor con un ejemplo:

IMG 6-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

La imagen nos muestra una reconstrucción de los datos de una imagen con la distorsión corregida. El valor de brillo de cada píxel de la imagen se originó a partir de un rayo de luz que entró en la cámara desde una dirección específica. La imagen se reconstruye mediante el cálculo de las pistas horizontales y verticales representados por cada píxel y se puede encontrar el valor de brillo verdadero de los datos de la imagen utilizando el mapa de calibración. Las partes rojas de la imagen representan las áreas dentro de la prestación para la que ningún valor de brillo está disponible (el campo de visión real es de menos de 150 grados).

Una vez que han llegado las imágenes, las hemos corregido debidamente y el driver ha identificado las manos y los dedos, podemos determinar la posición de estas en el sistema de coordenadas cartesianas de Leap Motion a través de técnicas de visión estereoscópica. Porque, como ya hemos visto, Leap Motion es un sistema de captación de imágenes basado en la visión binocular y por ello podemos obtener distancias.

Básicamente, un sistema estereoscópico funciona del siguiente modo: gracias a la separación de las dos cámaras en el eje X se obtienen dos imágenes con pequeñas diferencias (disparidad).

IMG 7-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Como se puede observar en la imagen anterior, las dos cámaras —representadas por Oi y Od— están en el mismo plano Z, sobre la línea base. Si trazamos una línea epipolar entre las dos imágenes Ii e Id, dado que Oi y Od están en el mismo plano Z y las dos cámaras tienen la misma distancia focal, podemos ver la proyección del punto P en las dos imágenes. Por tanto, se puede obtener un valor de disparidad para cada par de puntos emparejados Pi(xi,yi) y Pd(xd,yd) dado por d = XI-XD.

IMG 8-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Considerando igual la distancia focal f en las dos cámaras y conociendo la distancia entre cámaras b:

IMG 9-Blog de ShowLeap-Leap Motion-Principio de funcionamiento

Como vemos, a partir del sistema anterior podemos obtener las coordenadas del punto P.

Y ahora sin tantos tecnicismos… ¿Cómo funciona Leap Motion? 🙂

Para terminar este post te nombramos los pasos básicos que realiza Leap Motion para entregar variables descriptivas de una configuración de mano y de un gesto:

  1. Obtiene las imágenes desde los sensores de las cámaras del dispositivo.
  2. Aplica una corrección de la distorsión que producen los sensores.
  3. Aplica un modelo para determinar la configuración de cada mano y ejecuta un algoritmo de visión estereoscópica entre cada par de imágenes para obtener la posición en el plano tridimensional.

 

Créditos del post
Imágenes:
- Página oficial de Leap Motion
- TFM «Técnicas de visión estereoscópica para determinar la estructura tridimensional de la escena». Autor: Martín Montalvo Martínez / Director: Gonzalo Pajares Martinsanz

 

Otras formas de comunicación visogestual que no son lengua de signos

Muchas veces, cuando vemos mover las manos a alguien, pensamos que es probable que esa persona esté comunicándose en lengua de signos, ¿verdad? Bueno, pues hoy vamos a dejar la gramática a un lado para aprender que esto no siempre es así 😉

A lo largo de la historia, en el contexto educativo de las personas sordas, se han desarrollado diferentes sistemas alternativos de comunicación con un fin común: representar la lengua oral para facilitar el aprendizaje de ésta; pero no solo a personas sordas, sino también a personas con otras discapacidades. Estos sistemas siempre dependen de la lengua oral; no son sistemas independientes y no constituyen una lengua —aunque en algunas ocasiones se pueden confundir con la Lengua de Signos Española, ¡por lo que hay que tener cuidado!

Hay un montón de sistemas, pero los más conocidos y los que más se han llevado a la práctica con personas sordas hasta el momento son:

  1. El sistema bimodal
  2. La palabra complementada
  3. El dactilológico (que ya vimos lo que era en este blog)

El sistema bimodal

El sistema bimodal se basa en el uso del habla y los signos a la vez, aunque la sintaxis y el orden de las palabras sigue siendo el de la lengua oral.

Otras formas de comunicación viso gestual que no son lengua de signos 1Este sistema busca facilitar el aprendizaje de la lengua oral a través de los apoyos visuales que nos dan los signos; y por ello, el objetivo importantísimo del bimodal es que las personas sordas u otros colectivos con diversidad funcional desde la infancia desarrollen una competencia lingüística que les facilite el acceso a la lengua oral.

La palabra complementada

Captura de pantalla 2015-03-22 a las 23.55.19Gracias a este sistema se puede percibir el habla a través de la vista. Ahora necesito que leáis lo siguiente con atención, para que quede claro: en este sistema se combina la lectura labial con los componentes manuales, que son ocho configuraciones de la mano que se elaboran en tres posiciones diferentes y se mueven de diferente manera según el tipo de sílaba que se quiera ejecutar (queirema y kinema… ¿los recuerdas?). Además, son movimientos dispuestos en la cara o el cuello (toponema).

Y ¿para qué es esto? Pues, básicamente, lo que hace es ayudar a diferenciar sonidos muy parecidos, por ejemplo “BA” o “PA”. Si pronunciáis estas dos sílabas delante del espejo, os daréis cuenta de que la posición de los labios es la misma y por tanto, para una persona sorda, va a ser muy difícil distinguir un sonido de otro. ¡Haced la prueba! 🙂 S Y recuerda que no hablamos de sílabas sino de sonidos, que es lo que realmente interesa para aprender.

 El dactilológico

Como ya sabrás si eres lector de este blog con este sistema se puede representar manualmente el abecedario, porque representa la grafía.

Otras formas de comunicación viso gestual que no son lengua de signos 3Lo utilizan sobre todo las personas sordas con el objetivo de construir cualquier palabra que carezca de signo (tecnicismos, nombres propios, etc.), aunque en realidad con el dactilológico se puede construir cualquier palabra. No es un sistema único de España, cada país domina un dactilológico diferente; por lo que según donde nos encontremos este sistema podrá variar más o menos.

Antes de terminar… ¡CUIDADO! No puedes irte sin entender algo muy importante.

A través de estos sistemas educaremos a la persona sorda desde perspectivas o puntos de vista diferentes: priorizando la lengua oral, la lengua de signos, o una combinación de ambas. En este contexto, hay tres posturas fundamentales con respecto a la educación de esta persona: hablamos del método oralista, el método bilingüe y la propia lengua de signos, pero… ¿cuál es el método más adecuado? ¿Y por qué? ¡En el siguiente post lo sabréis! 😉

Si te ha parecido útil lo que has aprendido, no dudes en compartirlo en tus redes sociales. Pero hay mucho más, ¡atento al blog!

Esperamos vuestras opiniones y dudas en los comentarios 😉