El trabajo presentado en el último número de Current Biology, explica que con un entrenamiento sumamente breve, los no videntes de nacimiento pueden deducir de los sonidos la silueta de un cuerpo humano, por ejemplo, e incluso la postura y otros detalles en que el cuerpo se encuentra, afirman los desarrolladores.
El trabajo, se ha traducido en una App, bautizada EyeMusic, que está disponible en forma gratuita en itunes. “En el fondo la idea consiste en reemplazar la información de un sentido perdido, como la vista en este caso, por la que puede transmitir otro órgano como el oído. Los murciélagos y los delfines, usan naturalmente esta ecolocalización para ´ver´, a través de sus oídos”, explicó el equipo investigador a la publicación.
EyeMusic, es un dispositivo de sustitución sensorial (DSS), que al tiempo que escanea una imagen la traduce en tonos de música, representando la localización de los pixels. En un plano vertical, cuánto más alto está un píxel de la imagen, más agudo el tono correspondiente, las notas de inicio representan el margen izquierdo de la imagen, y las finales refieren al lado derecho. Los colores tienen que ver con lo que produce el sonido: la voz humana representa el blanco, el silencio el negro, y cada instrumento tiene un color particular.
Con 70 horas de entrenamiento, los ciegos han logrado representar una imagen y reproducir su postura, a partir de los sonidos que reciben.
Nota completa: http://www.lr21.com.uy/tecnologia/1163241-desarrollan-app-eye-music-y-ciegos-ven-imagenes-como-paisaje-sonoro
NINGÚN COMENTARIO