El software ha sido desarrollado por un equipo de
investigadores de la Universidad Hebrea de Jerusalén (Israel), liderados por
los neurocientíficos Amir Amedi y Ella Striem-Amit, y se basa “simplemente” en
un sistema que convierte imágenes en secuencias de sonido. Esta nueva
tecnología no solo capacita de “visión” a los ciegos, sino que cuestiona la
manera en la que los neurólogos creen que está organizado el cerebro.
Para el estudio,
utilizaron a un grupo de personas que había nacido con ceguera. Tras 70 horas
de formación con el software y a pesar de no tener ningún punto de referencia
visual, los individuos fueron capaces de “ver” imágenes completas de rostros compuestos
por 4.500 píxeles. Además, tras 10 horas de entrenamiento extra para reconocer
siluetas humanas, los participantes del estudio consiguieron detectar la
postura exacta de la persona representada en el “paisaje sonoro” y emular la
pose.
Lo sorprendente
del estudio es que los investigadores descubrieron que la actividad cerebral,
al contrario de la creencia general de que el cerebro reutiliza los sentidos
que no están disponibles (por la ceguera, por ejemplo) para mejorar otros
sentidos como el auditivo, se activaba cuando los participantes estaban
interpretando siluetas humanas en base a sonidos.
La neurocientífica
Ella Striem-Amit de la Universidad de Harvard cree que es hora de establecer un
nuevo modelo organizativo del cerebro: “Resulta que el cerebro es una máquina
de trabajo, no una máquina sensorial; tiene áreas que procesan las formas del
cuerpo con el sonido, por lo que la corteza visual no sólo procesa información
visual”.
No hay comentarios:
Publicar un comentario