Crean un algoritmo que puede detectar si estamos deprimidos por nuestro tono voz

Un algoritmo que puede saber si estamos deprimidos por el tono de nuestra voz

  • La Organización Mundial de la Salud informó que el 5% de los adultos alrededor del mundo sufre de depresión clínica.
  • Esto se traduce en un poco más de 280 millones de personas con depresión.
  • La situación se pone mucho más trágica, cuando nos damos cuenta de que existe un promedio de 700 mil personas que se suicidan anualmente debido a la depresión.
  • Dos ingenieras se encuentran desarrollando un algoritmo capaz de detectar si estamos deprimidos solo por el tono de nuestra voz.

No podemos negar que gracias a la pandemia muchos problemas de salud mental se han vuelto más claros que nunca. Lamentablemente, todavía pasan desapercibido, más de lo que nos gustaría. Sin embargo, dos ingenieras que sufrieron depresión y tuvieron dificultades a la hora de encontrar terapia. Tomaron la decisión de desarrollar una opción que podría ser de gran ayuda a los profesionales médicos para detectar la depresión. Se trata de un algoritmo que puede saber si estamos deprimidos por el tono de nuestra voz.

Kintsugi vendría a ser una startup que tiene intenciones de poner a trabajar la tecnología en este complejo problema.  Su cofundadora y directora ejecutiva, Grace Chang, considero esto como un problema de acceso. Los dos fundadores tienen problemas de depresión y conseguir ayuda médica fue algo complicado, lo que los obligó a tomar este asunto desde la perspectiva de un ingeniero.

La idea detrás es identificar a las personas que más necesitan terapia, si esto es posible, sería más fácil lograr dirigir a la persona al tratamiento adecuado. De esta manera, Chang y la cofundadora Rima Seiilova-Olson. Idearon una API que es capaz de detectar signos de depresión dependiendo del tono de nuestra voz.

Chang comento: “Esto lo vimos más como un problema de infraestructura, en donde vemos muchas personas intentando entrar por una puerta principal. Pero lamentablemente no se puede ver quién está deprimido y quien se encuentra en una fase temprana. Si podemos proporcionarles esta información a los profesionales, especialmente de los casos más severos, entonces podríamos ayudar a solucionar un enorme problema”.

Un algoritmo que detecta si estamos deprimidos por nuestro tono de voz ¿Y por qué la voz?

La idea detrás viene por el hecho de que aquellas personas que se sienten tristes, generalmente tienen una voz plana, algo que los profesionales han estado observando durante décadas. Independientemente del idioma o la cultura, esto siempre es así; al parecer es una reacción universal del ser humano a la depresión.

Seiilova-Olson dijo: “El retraso psicomotor es el proceso de ralentización del pensamiento y de los movimientos musculares. Esto es algo universal, no importa en dónde nacimos, como nos criamos o que idioma hablemos”.

Todos los psiquiatras que tratan pacientes extremadamente deprimidos han notado este síntoma, asegura Seiilova-Olson. Entonces, la idea de Kintsugi es hacer uso de la tecnología para desarrollar un modelo de aprendizaje automático que sea capaz de acumular diferentes muestras. Significativamente superior a las que cualquier profesional médico podría juntar.

Esto mide la depresión en dos escalas, PHQ-9 (0-27 con números más altos indican mayor gravedad) y GAD-7 (0-21, igual) Luego de que un paciente otorga el permiso, el profesional es capaz de obtener comentarios al instante en función a la puntuación obtenida. De esta manera, la puntuación, pasaría a formar parte de las notas del paciente, algo que se encontraría dentro de la información protegida por el privilegio médico-paciente.

El modelo de red neuronal fue entrenado en decenas de miles de voces deprimidas. Podríamos decir que esto puede ser como un grupo de psiquiatras, aunque es mucho más detallado. Es capaz de detectar la depresión en niveles muy bajos o moderados”.

El fantasma de la depresión

Debemos considerar que, incluso antes de la pandemia, la depresión se estaba muy presente. La Organización Mundial de la Salud informo que al menos el 5% de los adultos alrededor del mundo sufren depresión clínica. Esto daría como resultado 280 millones de personas. Se trata de una de las principales causas de discapacidad en el menú y gracias a la tecnología, esto no tiene que ser así.

La OMS asegura que todos los tipos de depresión, ya sean leves, moderadas o graves, son totalmente tratables; el problema es detectarlas. Otro gran inconveniente es que, frecuentemente, las personas con depresión guardan silencio y no buscan la ayuda necesaria.

Incluso podemos ver un artículo publicado en SSM Population Health Journal de 2017 que cita un estudio realizado en 1999 en donde se encontró que dos tercios de los casos de depresión en Estados Unidos, no son ni siquiera diagnosticados.

Pero esto se vuelve mucho más grave cuando las estadísticas dejan en claro que un poco más de 700K personas se quitan la vida cada año, derivado de la depresión, según la OMS. Entonces, nos encontramos con el problema de conseguir que estas personas reciban tratamiento y también de la falta de profesionales capacitados para ayudar en el diagnóstico. Un gran problema es que los profesionales únicamente tratan este tema cuando los pacientes informan los síntomas, algo que no es confiable.

Encontrando una fuente de datos

Antes de que se pudiera construir un algoritmo capaz de detectar si estamos deprimidos dependiendo del tono de voz, era fundamental tener datos. Lo primero que hicieron Chang y Seiilova-Olson, fue entrevistar a más de 200 psicólogos, psiquiatras y médicos. Lograron recolectar mucha información como para llegar a la conclusión que escribir un diario es una excelente manera para que muchas personas logren resolver sus sentimientos.

Por lo tanto, lo primero que hicieron fue crear una aplicación de diario de voz, también llamada Kingtsugi. Gracias a esto, lograron acceder a miles de muestras de voz que fueron usadas para entrenar al modelo sobre cómo suena realmente una voz deprimida.

Evidentemente, suena como una violación de datos privados. No obstante, la aplicación advierte que los datos se pueden utilizar con fines de investigación; entonces el usuario puede aceptar o declinarlo. Igualmente, en términos de seguridad, las entradas se encuentran cifradas, aunque si deseamos hacerlo es posible compartirlas.

La idea aquí era intentar entender cómo hablan las personas, en lugar de lo que decían en sí, debido a que el contenido no era relevante para lo que se trataba de lograr.

Chang comentó que esto resolvió el problema. En principio, no debían preocuparse por proteger la privacidad de sus usuarios debido a que el contenido no era el objetivo de la investigación. A su vez, simplificó la tecnología subyacente y les permitió enfocarse en construir un sistema de puntuación basándose en el patrón de la voz. De esta manera, al utilizar reconocimiento de patrones, lograron ser independientes del idioma.

Finalmente, una solución

Estuvieron pensando demasiado tiempo en cómo incorporar la solución en un entorno clínico y tomaron la decisión de crear una API. La cual es capaz de conectarse al apartado de notas clínicas del registro de salud electrónico del paciente.

En algunas ocasiones se les solicita a los pacientes que evalúen su propio estado de salud mental como parte del proceso de admisión de pacientes. Sin embargo, en muchas ocasiones no evalúan con presión su condición. Es justamente aquí en donde se necesita Kintsugi.

Chang explicó “Disponemos de una API, que es una capa de software que se puede integrar en los centros de llamadas clínicas y aplicaciones de telesalud. De esta forma, las enfermeras y administradores de atención podrán comprender en un breve lapso de tiempo si un paciente necesita atención, si está luchando con problemas de salud mental, etc.”

Las dos fundadoras se conocieron en un hackathon en 2019 y se emocionaron al encontrarse con otra mujer en un evento de esta clase; algo que generalmente asisten hombres. Gracias a su amor mutuo por la codificación y sus experiencias inmigratorias similares, se unieron más que nunca. Chang nació y creció en Taiwán, mientras que Seiilova-Olsen lo hizo en Kazajstán.

A medida que se fueron conociendo, se dieron cuenta de que cada una había tenido problemas para encontrar atención de salud mental cuando la necesitaron y comenzaron a explorar la idea de desarrollar una solución. Lograron recaudar una ronda semilla inicial de $ 8 millones para construir un prototipo el año pasado y una Seria A de $ 20 millones a principio de este.

Evidentemente, la recaudación de fondos como dos mujeres inmigrantes fundadoras genero uno que otro desafío, comentó Chang. “La increíble barrera para las mujeres es que no puedes pintar una historia de todas estas cosas que vas a hacer. Debes tener cosas echas para que la gente invierta, por lo que es un enorme desafío. Posiblemente, no solo para las mujeres, sino para las minorías en general, eso creo.”

Por otro lado, Ellipsis Health, Sonde Health, Vocalis Health y Winterlight Labs también se encuentran trabajando en diferentes soluciones basadas en la voz. Varias de estas empresas han intentado identificar problemas para dar resultados específicos en diferentes dialectos y datos demográficos. Sin embargo, las fundadoras de Kintsugi creen que su idea supera estos enfoques. Kintsugi ya tiene varios contratos con grandes empresas de atención médica y se encuentran trabajando plenamente en esto para aprovechar la situación y lograr un mejor desarrollo.


Deja un comentario