
POR CHARLES Q. CHOI
Fuente: thetransmitter.org | 13/02/2025
Fotografía: Sladic / Getty Images
El código y los datos de entrenamiento del sistema, extraídos de una de las mayores bases de datos de grabaciones del habla de personas autistas, son de libre acceso.
Según un nuevo estudio, un algoritmo de aprendizaje automático puede analizar el habla de los niños autistas para estimar con precisión su capacidad de comunicación social.
Los resultados se suman a las pruebas cada vez más numerosas de que algunos niños autistas hablan de forma diferente a sus compañeros no autistas. «Aunque lo sabíamos hasta cierto punto, desde las primeras descripciones de Kanner, ha sido difícil precisar cuáles son las diferencias y si son clínicamente útiles», dice Helen Tager-Flusberg, profesora emérita de ciencias psicológicas y del cerebro en la Universidad de Boston, que no trabajó en este estudio. «Ahora sabemos que lo son».
Estudios anteriores han identificado una serie de diferencias en el habla asociadas al autismo. Por ejemplo, algunos niños autistas pueden utilizar un tono más agudo y variable, tomar menos turnos en las conversaciones o producir menos fonemas (sonidos básicos del habla) por enunciado.
Los científicos han intentado desarrollar métodos automatizados para analizar el habla y clasificar a los niños autistas de forma directa y objetiva. Por ejemplo, el sistema LENA combinaba software con una grabadora de audio portátil para buscar patrones de habla distintivos en niños autistas. Otros sistemas más recientes utilizan algoritmos de inteligencia artificial de aprendizaje profundo para detectar rasgos autistas.
Sin embargo, los proyectos de desarrollo de dichos algoritmos adolecían de limitaciones, como un número relativamente pequeño de niños autistas y datos de evaluaciones de cada niño recopilados en un único momento, lo que limitaba la aplicabilidad a lo largo del desarrollo. LENA, por ejemplo, se diseñó para trabajar con niños de 4 años o menos, por lo que no podía realizar un seguimiento del desarrollo del habla en niños mayores.

En el nuevo estudio, los investigadores desarrollaron un algoritmo de aprendizaje profundo llamado ASDSpeech que entrenaron con vocalizaciones de 136 niños autistas de entre 1 y 7 años, grabadas durante una evaluación diagnóstica que utilizó la segunda edición del Programa de Observación Diagnóstica del Autismo (ADOS-2). A continuación, el equipo probó el sistema de IA con los datos de otros 61 niños autistas, todos los cuales participaron en dos evaluaciones diagnósticas separadas por uno o dos años. Cada grabación duraba unos 40 minutos.
Según Ilan Dinstein, coinvestigador principal del estudio y profesor de psicología de la universidad Ben Gurion del Negev, el conjunto total de muestras de entrenamiento y prueba utilizadas en este estudio es al menos tres veces mayor que los conjuntos de datos anteriores sobre el habla en el autismo. A diferencia de investigaciones anteriores sobre algoritmos de análisis del habla en autismo, Dinstein y sus colegas comparten abiertamente su algoritmo y sus datos.
«Esto ayudará a acelerar futuras investigaciones en este campo», afirma Tager-Flusberg.
Y representa sólo una pequeña fracción de los datos que Dinstein y sus colegas han acumulado en un repositorio cada vez mayor que actualmente contiene grabaciones de unos 2.000 niños, lo que lo convierte en «uno de los mayores repositorios de vídeo y audio de niños autistas del mundo», afirma.
«Hemos creado una red clínica nacional en Israel donde grabamos a niños en nueve centros clínicos distintos de todo el país: unos 800 casos nuevos cada año».
ASDSpeech examinó la relación entre 49 características del habla, como el tono y la duración, y la gravedad de los rasgos autistas definidos por las puntuaciones ADOS-2 de los niños. Dinstein señala que, dadas las deficiencias del algoritmo de reconocimiento del habla para identificar el habla de los niños en situaciones desordenadas del mundo real, los científicos anotaron manualmente qué vocalizaciones de las grabaciones pertenecían a los niños. La laboriosidad de este proceso limitó el estudio a una pequeña parte de las grabaciones disponibles.
Los científicos descubrieron que el sistema de IA estimaba las puntuaciones ADOS-2 de los niños con una precisión de hasta el 60% en ambos momentos del desarrollo. Ninguna de las características del habla se relacionó con un efecto fuerte o consistente en la precisión de ASDSpeech, lo que podría sugerir una gran redundancia entre las características. No se observaron diferencias significativas en la precisión del algoritmo en función de la edad ni entre niños y niñas (47 participantes eran niñas y 150 niños).
Probablemente nunca será posible definir el autismo con un único tipo de métrica, por lo que el matiz que los autores aportaron a este tipo de investigación es importante. - Ruth Grossman
Los investigadores señalan en su artículo, publicado el mes pasado en la revista Translational Psychiatry, que las grabaciones utilizadas para el ASDSpeech se realizaron en condiciones ruidosas con un micrófono instalado en la pared de un concurrido centro médico público. Esto sugiere que el algoritmo es robusto en situaciones reales, afirman.
ASDSpeech demostró ser considerablemente más preciso y fiable a la hora de estimar las puntuaciones de comunicación social que a la hora de estimar las puntuaciones de conductas restringidas y repetitivas, otro rasgo clave relacionado con el autismo. Esto «tiene mucho sentido y pone de relieve que el autismo es una condición compleja», afirma Ruth Grossman, profesora de Ciencias y Trastornos de la Comunicación del Emerson College, que no participó en el estudio. «Probablemente nunca será posible definir el autismo con un solo tipo de métrica, por lo que el matiz que los autores aportaron a este tipo de investigación es importante».

Todos los niños de este estudio hablaban hebreo, señala Dinstein. Un próximo paso clave para ASDSpeech «es probarlo con muestras de habla de otros idiomas», dice Grossman.
«Me encantaría ver una colaboración internacional y translingüística de este tipo de investigación».
Hasta entonces, está por ver si los rasgos que identificó el ASDSpeech son específicos de una lengua o de una cultura. Algunas investigaciones previas sugieren que puede no existir una voz autista claramente definible, señala Grossman.
También advierte que el estudio sólo incluyó a niños autistas, por lo que no probó si la herramienta podía diferenciar entre las voces de niños autistas y no autistas, dice.
Dinstein espera que ASDSpeech pueda combinarse con otras herramientas de «fenotipado digital» para medir objetivamente los movimientos oculares, las expresiones faciales y otros factores relacionados con el autismo, así como su posible evolución con el tiempo y las intervenciones. «Estas técnicas no pretenden sustituir a los médicos», afirma.
«La idea es reducir la dependencia de los cuestionarios subjetivos sobre autismo, que son sesgados y ofrecen poca sensibilidad a los cambios, pero que actualmente se utilizan ampliamente».
En última instancia, Dinstein dice que le gustaría que ASDSpeech incorporara datos de grabaciones de miles de niños con y sin autismo para mejorar la precisión y fiabilidad de este trabajo. «Nuestro estudio es un paso importante que demuestra la viabilidad y la oportunidad inherentes a este enfoque de investigación», afirma.

Charles Q. Choi es un periodista científico que ha escrito para Scientific American,
The New York Times, Wired, Science, Nature, The San Diego Union-Tribune,
Newsday, Popular Science y National Geographic News, entre otros.
Escribe artículos periodísticos para The Transmitter.
Por su trabajo, ha buscado ADN de mamut en Yukón, se ha enfrentado a pistoleros en Guatemala, ha entrado en el sarcófago que alberga unas ruinas radiactivas en Chernóbil y ha buscado fósiles de mamíferos en Wyoming guiado por una inteligencia artificial. En su tiempo libre, Charles ha viajado a los siete continentes, incluso escalando la ladera de un iceberg en la Antártida, investigando momias de Siberia, buceando en las Galápagos, excavando antiguas ruinas mayas en Belice, escalando el monte Kilimanjaro, acampando en el Outback y evitando ladrones cerca del templo Shaolin.
Artículo original en inglés:
コメント