Hay algo que hacés todos los días, miles de veces, sin pensarlo: hablar. Y aparentemente, la manera en que hablás — las pausas que hacés, las palabras que buscás, los "ehhh" que intercalás mientras pensás — contiene información sobre el estado de tu cerebro que ningún test clínico estándar captura tan temprano.
Una investigación publicada esta semana en ScienceDaily entrenó una inteligencia artificial para detectar deterioro cognitivo temprano analizando patrones de habla natural. Los resultados sugieren que la voz es un biomarcador del Alzheimer que aparece antes que los síntomas — antes del olvido notable, antes de la confusión, antes de cualquier señal que el propio paciente o su familia puedan identificar.
Qué escucha la IA que vos no escuchás
Los marcadores que el sistema analiza no son los que intuitivamente asociarías con deterioro. No es que la persona hable mal o use palabras incorrectas. Son patrones más sutiles:
Pausas de relleno: la frecuencia y duración de "ehhh", "mmm" y equivalentes refleja el tiempo que el cerebro tarda en recuperar palabras del almacén léxico. En el deterioro cognitivo temprano, ese tiempo aumenta de manera medible antes de que el hablante — o quienes lo escuchan — lo noten conscientemente.
Velocidad de recuperación: cuánto tiempo pasa entre que una persona recibe una pregunta y empieza a responder. No el tiempo total de la respuesta, sino el tiempo de arranque. Ese intervalo aumenta con el deterioro ejecutivo.
Complejidad sintáctica: las personas con deterioro cognitivo tienden progresivamente a usar oraciones más cortas y estructuras más simples, no porque no sepan construirlas, sino porque el procesamiento paralelo que requiere la sintaxis compleja empieza a costar más recursos.
Repeticiones y reformulaciones: cuántas veces se vuelve a empezar una frase o se corrige una elección de palabra.
Ninguno de estos marcadores por sí solo es diagnóstico. La IA los combina en cientos de variables simultáneas y detecta patrones que ningún clínico podría identificar a oído.
Por qué es mejor que los tests actuales
Los tests cognitivos estándar — el Mini-Mental, el MoCA — son instantáneas. Miden cómo está el cerebro en ese momento, bajo las condiciones específicas de un consultorio, con un paciente que sabe que lo están evaluando. Son útiles, pero tienen dos problemas: se administran raramente (una vez al año en el mejor caso) y son sensibles al estado del día, el nivel educativo, y el estrés de la situación.
El habla natural es diferente. Es continua, no invasiva, y refleja el estado del cerebro en condiciones normales, no de laboratorio. Un sistema que analice conversaciones cotidianas — llamadas telefónicas, interacciones con asistentes de voz, grabaciones de rutina — podría monitorear el deterioro de manera longitudinal, detectando cambios graduales que cualquier medición puntual perdería.
La distancia entre el laboratorio y el uso real
La investigación todavía tiene limitaciones importantes. Los modelos entrenados en inglés no funcionan igual en otros idiomas. Los patrones de habla varían por cultura, clase social y contexto. Y hay preguntas éticas sin resolver: quién tiene acceso a esos datos de voz, cómo se almacenan, qué pasa si un algoritmo detecta deterioro que el paciente no quiere saber.
Pero la dirección es clara. El cerebro habla antes de que vos notes que algo está cambiando. Aprender a escucharlo es cuestión de tiempo y tecnología — y la tecnología ya existe.
---
Fuente original: Un Mundo Loco
Fuentes consultadas: ScienceDaily — Speech patterns predict dementia risk before symptoms appear