Científicos del denominado Kamitani Lab, perteneciente a la Universidad japonesa de la ciudad de Kyoto han publicado un trabajo en el que muestran el desarrollo de una red neuronal que ha sido capaz de ‘leer’, o de ‘ver’ lo que una persona estaba penando en un momento puntual y de reflejarlo en una pantalla. De eso trata el video anterior, en el que podemos ver a la izquierda: imágenes presentadas a los sujetos de la investigación, como unas piernas con calcetines, una estufa o una libreria; mientras que en el lado derecho, se puede ver la imagen que han trasladado y que han sido reconstruidas. Además, en cada imagen, se muestra el proceso de optimización que se ha recerado de forma interactivo. Y, a la derecha, el resultado.
Reconstrucción de imágenes visuales de la actividad del cerebro humano medida por fMRI
Para reconstruir las imágenes visuales, lo que han llevado a cabo los científicos japonese fue decodificar (traducir) los patrones de la actividad cerebral de ciertos sujetos medidos en características de red neuronal profunda (DNN), y luego alimentaron esas características decodificadas con un algoritmo de reconstrucción.
El algoritmo de reconstrucción parte de una imagen inicial dada y optimiza interactivamente los valores de píxel para que las características DNN de la imagen actual se vuelvan similares a las descodificadas a partir de la actividad cerebral.
La verdad es que, viendo las imágenes, algunas no se corresponden demasiado con el patrón dado, no obstante, parece que se están dando nuevos pasos en el conocimiento del cerebro, de cómo analiza la información recibida.