Thursday, April 17, 2008

Brain Computer Interface (II)

Hace tiempo escribí un primer post sobre Brain-Computer Interfaces, en el que contaba que eran dispositivos que traducían las señales en el cerebro en instrucciones para el ordenador. En aquel post me centraba en los BCI intrusivos, que medían directamente la actividad de neuronas individualmente. Estos dispositivos tienen la ventaja de que permiten extraer mayor información, y que gracias a la plasticidad cerebral es posible educar a una zona del cerebro para adoptar una nueva función. Por ejemplo se han hecho pruebas en que un mono aprendía a controlar un brazo robótico usando un BCI y terminaba moviéndolo sin mover ninguna otra parte de su cuerpo como si de una nueva extremidad se tratase.

No obstante, debido a los peligros que supone abrir el cráneo para introducir estos dispositivos, y al hecho de que el cuerpo reacciona aislándolos y pierden sensibilidad con el tiempo, la investigación de métodos no intrusivos sigue teniendo mucho interés.

Un método curioso es el que tuve ocasión de probar este fin de semana. La banda en la cabeza tiene dos LEDs, uno de luz visible y otro infrarroja, y dos receptores a esas frecuencias. Midiendo la reflexión de ambas y el ratio de las mismas es posible deducir la cantidad de oxígeno que hay el lóbulo frontal, y de esta forma estimar el flujo de sangre y deducir si estamos usando esa zona del cerebro o no.


P4120026


Debo decir que es extraordinariamente difícil de controlar sin entrenamiento, y que aparentemente, incluso con entrenamiento el rendimiento es bastante "estocástico", es decir, que incluso los que lo controlan bien solo consiguen hacer lo que quieren entorno al 70% del tiempo. Una cosa curiosa es que resulta que esa zona del cerebro normalmente la usamos para planificar cosas a largo plazo, y que mientras estas buscando estrategias para controlarlo puedes llegar a ganar bastante control, pero una vez que crees que ya lo dominas, dejas de utilizar esa parte del cerebro y pierdes control. También es posible usar este dispositivo para otras áreas del cerebro, por ejemplo, con mi lóbulo derecho podía controlarlo mejor.

Otro método que permite un mejor control con mucho menos entrenamiento es medir las señales que el cerebro envía a otras partes del cuerpo. Como estamos acostumbrados a hacer un control consciente de las mismas no es necesario mucho entrenamiento para controlar la máquina. Un buen ejemplo es usar las señales que controlan los músculos de los ojos, ya que las podemos usar con mucha frecuencia (movemos los ojos unas 200.000 veces al día) y ello permite un mayor "ancho de banda". Este video que preparé para una presentación en una clase de neuroingeniería muestra un ejemplo al principio de este tipo de montaje.



Sin embargo, es evidente que a nadie le gustaría tener que estar moviendo los ojos para controlar una máquina. Necesitamos medir alguna señal que no suponga necesariamente mover una parte del cuerpo, y eso es precisamente lo que ha hecho Ambient Corporation, una empresa que ha diseñado un dispositivo que mide las señales que el cerebro envía a las cuerdas vocales, sin que necesariamente ningún sonido salga de nuestra boca. Una vez que tenemos un método de extraer información directamente del cerebro de manera consciente las aplicaciones son de lo más variadas.

La primera aplicación que hicieron es la más sencilla, controlar una silla eléctrica. Es la más sencilla porque solo hay que diferenciar 5 tipos de señales: adelante, atrás, parar, izquierda y derecha. En este video se muestra un ejemplo de cómo lo hicieron.




Bastante más impresionante fue la siguiente demostración que hicieron hace poco en que el dispositivo era capaz de saber lo que querías decir. En este caso el vocabulario de la máquina era de 150 palabras, así que si bien la extracción era lenta (nótese el retraso que experimenta), diferenciar entre 150 señales supone que el ancho de banda empieza a ser considerable, posiblemente de cerca de 2bps, lo que para un dispositivo no intrusivo está bastante bien. Aparentemente esta no será la implementación final que tomarán en la empresa, sino que harán que los usuarios produzcan fonemas y no palabras, lo que hará que se puedan formar cualquier número de palabras con un número limitado de fonemas. Este es el vídeo de la demostración.

3 comments:

Mrs. Knook said...

Desde luego una de las cosas que más me fascinan de tu blog es la cantidad de cosas que haces, sitios que visitas, etc. No se si esto se debe a que estás fuera y hay más cosas que ver y hacer, o es una cualidad intrínseca tuya el buscar incesantemente nuevas actividades. Sea lo que sea es un placer compartir tus experiencias y descubrir los sitios que visitas.
Un saludo.

Anonymous said...

Nunca te han dicho que tienes una yugular externa preciosa?

kota said...

Perdón por ser tan snob, no puedo contenerme:
Que yo sepa pinchó Amon Tobin, quien por cierto es bastante famoso (más que bastante de los que pinchan en el FIB, dicho sea de paso). También pincharon DJs de Soma FM, por si te moló lo que escuchaste y quisieras bajarte algo (o por qué no, para tu audiencia también).

Salud!