Si hacemos caso a las principales compañías tecnológicas, la IA será capaz de todo en un futuro a corto plazo, pero ¿qué opinan los neurocientíficos especializados en nuevas tecnologías? ¿La inteligencia artificial llegará tan lejos como se nos está prometiendo? ¿Y si la IA pudiera, por ejemplo, leer la mente? ¿Ciencia ficción o realidad?
Leer la mente con un decodificador semántico
En declaraciones que recogen medios como The Guardian, Alexander Huth afirmó que su sistema “funciona a nivel de ideas, de semántica, de significado, aunque no logramos sacar las palabras exactas, sí obtuvimos la esencia”. Y no está nada mal, ¿verdad?
A pesar de no lograr la “exactitud” que persigue el equipo de Huth, el profesor de la Universidad de Texas afirma que se trata de un verdadero avance para un método no invasivo. Y es que, hasta ahora, para lograr resultados similares se necesitaban implantes quirúrgicos.
No obstante, el reto de este decodificador semántico es “leer” cualquier mente, ya que, de momento, el sistema no puede entrenar con una persona y después ejecutarlo con otra, además de que, y esto es importante, no puede reproducir las palabras del sujeto sin la cooperación de este.
Así que, de momento, podemos estar tranquilos: ninguna máquina adivinará nuestros pensamientos si no queremos que lo haga.
Reconstruir imágenes cerebrales con IA
A la hora de valorar el experimento precedente, el profesor de neurociencia Shinji Nishimoto lo catalogó como un avance significativo celebrando la posibilidad de que pueda ser la base del desarrollo de interfaces “cerebro-computadora”.
Y es que Nishimoto sabe bien de lo que habla porque también ha presentado recientemente un estudio muy prometedor en este ámbito, aunque optando por la reconstrucción de imágenes en vez de la traducción de los pensamientos en palabras.
Los investigadores de la Universidad de Osaka presentaron a varios voluntarios una serie de fotos y les pidieron que se concentraran en ellas mientras se les practicaba una resonancia magnética cerebral. Para reconstruir las imágenes partiendo de la actividad cerebral fijada en la fMRI, los investigadores usaron un modelo de difusión latente conocido como Stable Diffusion de alto rendimiento generativo.
El resultado de la prueba fue altamente satisfactorio como se muestra en las imágenes: “Mostramos que nuestro método propuesto puede reconstruir imágenes de alta resolución con alta fidelidad de manera sencilla, sin necesidad de capacitación adicional y ajuste de modelos complejos de aprendizaje profundo”.
Meta y su decodificador semántico
Facebook, ahora conocido como Meta, lleva años buscando una nueva tecnología para volver a liderar el sector. Y es evidente que la inteligencia artificial se presenta como el medio adecuado para lograr sus objetivos. La última promesa del imperio de Mark Zuckerberg es la aplicación de la IA para decodificar el habla a partir de la actividad cerebral, algo que ya hemos visto en los experimentos precedentes, pero en este caso con un objetivo comercial.
En un comunicado difundido en agosto del año pasado, Meta señalaba como cada año casi 70 millones de personas sufren lesiones cerebrales traumáticas que dejan a muchas de ellas incapaces de comunicarse mediante el habla, los gestos o la escritura.
En colaboración con la Universidad de Nueva York, la de Míchigan, el Trinity College de Dublín y la Universidad de Rochester, Meta patrocinó una investigación para identificar las representaciones complejas del habla en los cerebros de voluntarios que escuchaban audiolibros.
Fuente: https://www.publico.es