https://www.facebook.com/AutismoVivo0/
top of page

La pulsera que te da superpoderes


Varios prototipos del Buzz expuestos en NeoSensory.



POR STEVEN KOTLER

Fuente: proto.life | 10/01/2019

Fotografía: Eric Ruby



El neurocientífico David Eagleman quiere dar a los sordos una nueva forma de oír y mejorar también los sentidos de los demás.


Estoy escuchando a David Eagleman hablar sobre el futuro, pero intento no hacerlo. Intento sentir sus palabras.


No lo digo en un sentido empático. Quiero decir que sus palabras se reproducen en mi muñeca, en tiempo real, como un braille háptico inducido sónicamente.


Eso es porque llevo Buzz, un dispositivo que la nueva empresa de Eagleman, NeoSensory, planea lanzar en un par de meses. Alojado en una pulsera ligeramente más grande que un Fitbit, el Buzz tiene un micrófono que capta el sonido y un chip informático que lo divide en ocho gamas de frecuencias. Cada gama de frecuencias está vinculada a un micromotor integrado. Cuando el sonido de un rango específico activa el motor correspondiente, éste zumba ligeramente. Es más que un cosquilleo, pero menos que una picadura de abeja. Por ejemplo, cuando Eagleman dice la palabra "touch", el zumbido barítono del sonido "uh" en medio de la palabra me zumba en el lado izquierdo de la muñeca, y luego la "ch" más aguda con la que termina la palabra me zumba en el derecho.


Sobre el hombro de Eagleman hay un perchero del que cuelgan unos 50 chalecos. Cada VEST, abreviatura de Versatile Extra-Sensory Transducer (transductor extrasensorial versátil) parece un chaleco fino de traje de neopreno con círculos negros brillantes incrustados en el tejido a intervalos regulares. Funcionan como la pulsera Buzz, descomponiendo el sonido en frecuencias que se reproducen en la piel. Pero en lugar de tener ocho motores, tiene 32, distribuidos uniformemente por el pecho y la espalda.


Como VEST y Buzz transforman el sonido en vibraciones, se podría sospechar que son nuevas herramientas para sordos. Y tendría razón, pero sólo hasta cierto punto. Porque estos dispositivos pueden hacer mucho más. Aunque son capaces de convertir el sonido en tacto, en realidad pueden hacer lo mismo con casi cualquier flujo de datos. Eagleman tiene versiones que funcionan con imágenes, con la gran diferencia de que el micrófono que capta el sonido se sustituye por una cámara que capta vídeo. También ha creado versiones capaces de detectar información que normalmente escapa a los sentidos humanos. Hay versiones que pueden ver en infrarrojos y ultravioleta, dos partes del espectro invisibles para el ojo humano. Otros pueden captar en directo las noticias de Twitter o los datos bursátiles en tiempo real y traducirlos en sensaciones táctiles.



La investigación sobre la sinestesia convenció a Eagleman de que cualquiera puede desarrollar nuevas formas de percibir el mundo.



Ésta es la parte realmente chiflada: con unos pocos días de práctica, cualquiera puede aprender a interpretar estos zumbidos, lo que da lugar a una prótesis sensorial que sustituye a la que falta o a un superpoder que te proporciona una forma totalmente nueva de detectar el mundo.



Nuevos periféricos

Eagleman, autor de varios libros sobre el cerebro, ha dedicado su carrera a entender cómo influyen las percepciones del mundo en la experiencia y el comportamiento de las personas. Durante muchos años fue profesor de la Universidad de Baylor, donde dirigió el único laboratorio de percepción del tiempo del mundo. En la actualidad, es profesor adjunto en Stanford y empresario, con su nueva empresa, NeoSensory, situada a pocas manzanas del campus.


Su inspiración para NeoSensory surgió de un largo interés por la sinestesia, una enfermedad neurológica en la que un sentido sustituye a otro. Las personas con esta afección, por ejemplo, huelen los colores además de verlos. "Nuestras percepciones conforman nuestra realidad", afirma Eagleman. "Lo que me interesó de la sinestesia es que no es una enfermedad ni un trastorno. Las personas que la padecen simplemente viven en una realidad ligeramente distinta a la de la mayoría de nosotros". La sinestesia es una forma alternativa de conciencia, una manera distinta de percibir el mundo".


Los científicos utilizan la palabra alemana umwelt -que se pronuncia "oom-velt"- para describir el mundo tal como lo perciben los sentidos. Y no todos los animales tienen el mismo umwelt. "Tenemos la idea psicológica popular de que percibimos el mundo tal como es", explica Eagleman. "Pero eso no es cierto en absoluto. Nuestros sentidos limitan nuestra visión de la realidad. Las garrapatas son ciegas y sordas. Viven en un mundo completamente determinado por la temperatura y el olor. Ése es su umwelt, su realidad. Los murciélagos viven en un mundo distinto, formado por ondas sonoras que rebotan".



Un primer prototipo del VEST, cosido en NeoSensory.



Por eso el filósofo Thomas Nagel sostenía que es imposible conocer la mente de un murciélago. Pero Eagleman no estaba tan seguro. La sinestesia le hizo preguntarse si nuestros sentidos eran más flexibles de lo que se suponía. Además, 50 años de investigación habían demostrado que el cerebro es capaz de sustituir los sentidos, es decir, recibir información a través de un sentido y experimentarla con otro.


"En 1969, un neurocientífico llamado Paul Bach-y-Rita construyó un dispositivo de sustitución sensorial para ciegos. Captaba señales de vídeo con una cámara, las digitalizaba y las introducía en una silla de dentista modificada. El sillón tenía una serie de clavijas que grababan la imagen en la parte baja de la espalda de la persona. Si Bach-y-Rita sostenía una taza delante de la cámara, la persona sentía su forma en la espalda. Y a los pacientes se les daba bastante bien. Después de un poco de práctica, podían identificar los objetos que se les mostraban".


"Si alimentas al cerebro con un patrón, al final averiguará cómo descodificar la información".

Aunque la interfaz es diferente, se parece mucho a lo que hacen los implantes cocleares. Toman una señal auditiva, la digitalizan y la introducen en el cerebro. Cuando se inventaron los implantes cocleares, no todo el mundo estaba seguro de que funcionaran. "El oído está hecho para convertir las ondas sonoras en señales electroquímicas, pero los implantes cocleares hablan un dialecto ligeramente distinto", dice Eagleman. Ahora sabemos que los implantes cocleares funcionan perfectamente. También lo hacen los implantes de retina, aunque no envían señales al cerebro de la misma forma que las retinas biológicas.



Cada una de estas pulseras Buzz capta distintos tipos de señales.



Todo esto llevó a Eagleman a la conclusión de que el cerebro está diseñado para manejar todo tipo de flujos de datos procedentes de todo tipo de dispositivos de entrada. En términos informáticos, está construido para múltiples periféricos.


Los ojos son detectores de fotones, los oídos recogen ondas sonoras, pero es el cerebro el que toma estas señales y las convierte en información. Normalmente, la evolución tarda millones de años en poner a punto estos periféricos. Se necesitaron eones para dar forma al sistema de ecolocalización del murciélago o a la capacidad del pulpo para degustar a través de sus tentáculos. Pero Eagleman sospecha que todo ese tiempo no fue necesario. "El cerebro es una caja negra", afirma. "Está completamente aislado del mundo. Le llegan todos esos cables de los distintos sentidos, pero el cerebro no experimenta directamente la vista, el oído o el tacto. Lo único que recibe son patrones reproducidos en señales electroquímicas. El cerebro está hecho para convertir patrones en significados. Lo que nos enseñaron el implante coclear y el sillón dental de Bach-y-Rita es que no parece importar cuál sea el dispositivo de entrada, el periférico. Si alimentas al cerebro con un patrón, al final averiguará cómo descodificar la información".


Mientras Eagleman explica todo esto, Buzz está convirtiendo sus palabras en tacto y alimentando ese patrón a través de mi piel hasta llegar a mi cerebro. También recoge ruidos de la habitación. Cuando uno de los ingenieros de NeoSensory da un portazo, puedo sentirlo en mi muñeca. No es que sea capaz de distinguir estas señales conscientemente. Los motores del dispositivo funcionan cada 1/16 de segundo, que es más rápido de lo que puedo procesar conscientemente. Según Eagleman, la mayor parte del aprendizaje (es decir, la capacidad de mi cerebro para descodificar estas señales) tiene lugar a nivel subconsciente.


No todo el mundo está de acuerdo en que esto sea lo que ocurre. Algunos investigadores afirman que la sensibilidad táctil de la piel no es lo bastante fina para distinguir las señales. Otros sostienen que este tipo de aprendizaje subconsciente ni siquiera es posible. Pero Eagleman afirma que, en un experimento aún no publicado, los sordos aprendieron a "oír" con un zumbido. Aunque, como también explica Eagleman, "oír" es un término relativo. En este caso, significa que las personas podían reconocer e identificar la sensación de 50 palabras diferentes, dice. Por término medio, se necesitaron cuatro sesiones de entrenamiento, cada una de unas dos horas.


El Buzz, por su parte, ha funcionado incluso más rápido, aunque con una resolución mucho menor. En las pruebas, el equipo de Eagleman reproducía un sonido y los sujetos que llevaban el Buzz tenían que decidir si era el ladrido de un perro, el paso de un coche o el portazo. Eagleman afirma que el 80 por ciento de ellos pudo hacerlo casi de inmediato. El equipo también mostró a personas sordas un vídeo de alguien hablando y reprodujo una de dos bandas sonoras diferentes. Una coincidía con el vídeo y la otra no. Eagleman afirma que el 95 por ciento de los sujetos pudo identificar rápidamente la banda sonora correcta basándose en las señales de Buzz.


Según Eagleman, con el tipo adecuado de compresión de datos, no hay límites reales a lo que el dispositivo puede detectar.


Según Eagleman, esto mejoraría enormemente la capacidad de lectura labial de las personas sordas y posiblemente les permitiría descodificar el habla en bruto sin la ayuda visual de la lectura labial.


Según Amir Amedi, neurocientífico de Harvard, esta última posibilidad supondría un gran avance. "La gente lo ha intentado", dice, "pero hasta ahora nadie ha sido capaz de obtener capacidades completas del habla a partir de la sensación háptica".


Incluso si no es posible la plena capacidad de descodificar el habla, Eagleman no lo sabe, ya que aún no ha realizado pruebas a largo plazo con sus dispositivos, la capacidad de Buzz de proporcionar una "audición de baja resolución" será extremadamente valiosa, afirma. "Si eres ciego y consigo que tengas una visión 80/20, claro que no es 20/20, pero es mucho mejor que la que tenías antes", afirma Eagleman. "Eso es lo que creo que estamos haciendo con la audición".


Compárelo con otra opción tecnológica para personas con pérdida auditiva severa, el implante coclear. Requiere una intervención quirúrgica invasiva y seis semanas de recuperación, y cuesta decenas de miles de dólares. Además, los implantes cocleares pueden tardar un año en aprender a oír correctamente.



El chaleco puede iluminarse y vibrar en respuesta a estímulos auditivos.



Se espera que Buzz salga a la venta a finales de este año y que VEST lo haga en 2020. La pulsera podría costar unos 600 dólares y el VEST unos 1.000, pero Eagleman dice que los precios aún no son seguros.


Eagleman cree que devolver la audición a los sordos no será más que un primer paso. Su verdadera cuestión no es la sustitución sensorial. Se trata de la adición sensorial. ¿Podemos utilizar la tecnología para ampliar nuestros umwelts?



¿Qué dice tu perro?

Eagleman me cuenta una anécdota sobre un paseo por Santa Bárbara con el escritor y empresario Rob Reid, que entrevistó a Eagleman en su podcast "After On". Ambos llevaban una versión de la pulsera que detecta partes del espectro visual que los humanos no pueden ver, incluidas las frecuencias infrarroja y ultravioleta. Mientras paseaban, sin ver nada raro, ambos empezaron a recibir señales muy fuertes en sus muñecas. Estaban siendo observados, pero ¿por qué? Las pulseras les permitieron responder a esa pregunta. Pudieron rastrear las señales hasta su punto de origen: una cámara de infrarrojos instalada en casa de alguien. Es posible que ésta haya sido una de las primeras veces que un ser humano detecta accidentalmente una señal infrarroja sin la ayuda de unas gafas de visión nocturna. De hecho, puede que sea una de las primeras veces que los humanos amplían accidentalmente sus umwelts.


Y no será la última. Eagleman ve docenas de usos para sus dispositivos. "Me imagino construyendo unos con detectores de olores moleculares para que la gente pueda oler (lo que huele un perro), o que un cirujano obtenga datos biológicos y no tenga que levantar la vista para comprobar los monitores, o que un piloto de dron pueda sentir el cabeceo y la guiñada y aprenda a volar en la oscuridad". Según Eagleman, con el tipo adecuado de compresión de datos, no hay límites reales a lo que el dispositivo puede detectar.


Nunca antes la naturaleza de la realidad había sido tan flexible.

"Me parece muy interesante", afirma Adam Gazzaley, neurocientífico de la UCSF familiarizado con el trabajo, "del mismo modo que me parece interesante la RV. El potencial de crear experiencias realmente únicas que puedan ampliar nuestras perspectivas, curarnos e incluso mejorarnos como humanos: ése es el increíble potencial de estas nuevas tecnologías."


Para explorar más a fondo este potencial, Eagleman también se ha asociado con Philip Rosedale, el creador del mundo virtual Second Life. La próxima iteración de Rosedale, conocida como High Fidelity, está diseñada para la realidad virtual. Eagleman tiene una versión de manga larga del chaleco -conocida como "exo-skin"- diseñada para funcionar con él. "Si te toca otro avatar, puedes sentir su tacto. O si llueve en el mundo de la RV, puedes sentir las gotas de lluvia".


Estos dispositivos se comercializan con una API abierta, lo que significa que cualquiera puede hacer sus propios experimentos. Por ejemplo, mi mujer y yo dirigimos un santuario canino de cuidados paliativos y compartimos nuestra casa con unos 25 animales a la vez. Aunque la casa es mucho más tranquila de lo que muchos sospecharían, hay momentos en los que todos los perros empiezan a ladrar a la vez. ¿De qué demonios hablan?


No es una pregunta ociosa. Recientes investigaciones sobre la decodificación del habla animal -principalmente con delfines y perros de las praderas- han descubierto que los animales tienen una sintaxis y un vocabulario mucho más sofisticados de lo que se sospechaba. Eagleman sospecha que si yo llevara uno de sus dispositivos alrededor de mi manada de perros durante un tiempo, tarde o temprano podría ser capaz de detectar cosas que los pongan nerviosos.


Durante la mayor parte de la existencia humana, la forma en que nuestros sentidos perciben la realidad y cómo nuestro cerebro utiliza esas percepciones para dar forma a nuestro mundo han sido misterios. Ahora puede que estemos en un punto de inflexión. Estamos entrando en una era en la que la tecnología no sólo sustituye los sentidos que hemos perdido, sino que nos proporciona otros que nunca habíamos tenido. ¿Sabremos lo que es ser un murciélago? Puede que sí, puede que no. Pero nunca antes había sido tan flexible la naturaleza de la realidad ni tan poderosa nuestra capacidad de experimentar con umwelts alternativos.


Este artículo se actualizó el 26 de enero de 2019 para eliminar una referencia incorrecta a las fechas de lanzamiento de los dispositivos y aclarar la descripción del experimento inédito con personas sordas.




¿Qué fue de este proyecto?

En la actualidad pueden ver el video de su creador






Toda la información en:


93 visualizaciones0 comentarios

Entradas Recientes

Ver todo

Comments


bottom of page