El deseo de obtener superpoderes que permitan saber en tiempo real lo que está pensando un ser humano o los planos creativos que genera la ciencia ficción se encuentran cada vez más cerca.
La Universidad de Singapur, con base en objetivos médicos, logró reflejar un porcentaje de los efectos cerebrales ante estímulos estáticos.
El deseo de obtener superpoderes que permitan saber en tiempo real lo que está pensando un ser humano o los planos creativos que genera la ciencia ficción se encuentran cada vez más cerca.
En esta ocasión, la Universidad Nacional de Singapur y la Universidad China de Hong Kong lograron un relevante avance en lo que respecta a herramientas capaces de reproducir lo que sucede en el cerebro de las personas frente a estímulos simples estáticos.
Dentro de un plano coloquial, se puede decir que el MinD-Vis desarrollado por Zijiao Chen, Jiaxin Qing, Tiange Xiang, Wan Lin Yue y Juan Helen Zhou del Laboratorio de Neuroimagen Multimodal en Trastornos Neuropsiquiátricos (MNNDL) de la Escuela de Medicina Yong Loo Lin del centro universitario singapurense, con la colaboración del Departamento de Ingeniería de la Información chino y el Laboratorio de Visión y Aprendizaje de la Universidad de Standford, han logrado “leer la mente”.
El punto de partida no lo ha tomado este grupo de investigadores. La búsqueda de una lectura de los pensamientos o algo que se asemeje ya poseía avances destacados.
Todos poseen una base en el uso del escáner de resonancia magnética funcional (IRMf), el cuál mide la actividad cerebral y luego lo traslada a diferentes lenguajes, dependiendo del sistema de representación.
Uno de los más llamativos a la hora de representar lo que sucede en la mente en formato texto fue el trabajo de la Universidad de Texas en Austin, Estados Unidos. Allí, tres personas fueron sometidas a escaneo mientras escuchaban unas 16 horas de podcast y con GPT como interventor, convirtió la información de la resonancia en frases sueltas del audio original.
Más cercano a las imágenes del MinD-Vis son los proyectos que encabezan empresas como Neuralink, Meta o investigaciones privadas rusas. Dichos ejemplos lograron vagas representaciones, pero con métodos mucho más invasivos en los que incluso se llegaban a colocar sensores dentro del cuerpo humano. Un método riesgoso y que abre la puerta a una de las mayores problemáticas contemporáneas: el comercio de la información y la falta de privacidad.
En cada caso, se aplica el Machine Learning. Si la herramienta acierta en la representación, se le indica que es correcta y viceversa. Aprende al igual que los IA conversacionales.
La Universidad de Singapur ha logrado superar esta barrera y desarrolló su herramienta sin necesidad de “penetrar” el cerebro. Escudada además bajo los conceptos primordiales de sus objetivos.
La creación utiliza un modelo de difusión doble condicionada para decodificar imágenes visuales, presentadas como simples fotografías, a partir de datos de fMRI en estado de reposo.
MinD-Vis busca en primera instancia proporcionar una herramienta de investigación médica y científica valiosa, con foco en campos como la psicología y la neurociencia.
Este punto no elimina por completo el riesgo implicado de acceder con cierta libertad a la mente de las personas y que la interfaz que lleve a cabo el procedimiento sea una máquina.