La UPCT desarrolla un modelo computacional para que la inteligencia artificial detecte síntomas de enfermedades neurodegenerativas


Publicada el 12.Nov.2019

¿Sería posible que un asistente virtual, como puede ser Alexa, detecte que una persona está desarrollando una enfermedad neurodegenerativa como el alzhéimer o el parkinson? Aunque parece algo de ciencia ficción, desde la Universidad Politécnica de Cartagena (UPCT) ya se están dando los pasos para que sistemas de inteligencia artificial puedan detectar este tipo de enfermedades.

Jennifer Sorinas, doctora en neuroingeniería, ha desarrollado un modelo computacional capaz de reconocer las emociones en tiempo real, ya sean tanto positivas como negativas. Sorinas, que trabaja dentro del grupo de Neurobiomedicina, partiendo de una colaboración entre la UPCT y la Universidad Miguel Hernández, explica que están estudiando el desarrollo emocional de personas de edad avanzada y lo están comparando en personas sanas y aquellas que tienen enfermedades neurodegenerativas. "Sería muy interesante para un diagnóstico precoz el poder aplicar este modelo computacional", ha asegurado.

Según explica, cuando una persona padece algún tipo de demencia, los sistemas de inteligencia artificial que hay en el mercado "presentan dificultades" a la hora de reconocer las emociones, por lo que ella propone un nuevo modelo computacional que sí reconozca en tiempo real las emociones para que a través de distintos aparatos electrónicos "se pueda tener un registro fisiológico de la persona y que esto también se conecte con un robot que tengas en casa que se encargue de monitorizar esas enfermedades".

Asegura que con la edad, la persona aprende a regular mejor las emociones, "tenemos muchas menos emociones negativas que positivas; sin embargo, en personas con una enfermedad neurodegenerativa se tienen más emociones negativas", añade poniendo como ejemplo el caso de personas con alzhéimer, que tienen episodios de más euforia y ansiedad. "Con un simple ejercicio de reconocimiento de emociones faciales, se estaría viendo que algo está pasando", indica la investigadora.

El objetivo de este trabajo es que en un futuro se pueda disponer de tecnología con inteligencia artificial que permita detectar los síntomas tempranos de la enfermedad y que estos sistemas contacten directamente con el médico o especialista de dicha persona. "No creo que de momento se pueda diagnosticar un alzhéimer con el hecho de que haya problemas para reconocer las emociones, pero puede dar una pista de que hay que hacer más análisis".

En el grupo de investigación ya disponen del modelo computacional, ahora están desarrollando el protocolo para poder aplicarlo a personas ancianas y disponen de una base de datos para comenzar a realizar las pruebas.