EchoSpeech: los anteojos equipados con IA pueden leer el habla silenciosa
Los ingenieros de la Universidad de Cornell han desarrollado unas gafas con sonar incorporado para reconocer el habla silenciosa de los usuarios. Si una persona por alguna razón no puede emitir sonidos, pero su aparato oral ha conservado la movilidad, puede imitar el habla moviendo los labios. El dispositivo EchoSpeech puede captar estos movimientos y “traducirlos” en comandos de voz.
El principio de funcionamiento de EchoSpeech es extremadamente simple: en un arco del marco de las gafas hay un par de fuentes de señales acústicas, en el otro, un par de micrófonos para recibirlas. Las ondas se dirigen hacia la boca y se reflejan en los labios de una persona cuando se mueve, formando señales características. Resulta un análogo de sonar para leer datos de voz, incluso si no se emite ningún sonido.
El sistema de aprendizaje automático permite adaptar las gafas a cada nuevo usuario y su anatomía en tan solo unos minutos. Un punto importante: EchoSpeech no utiliza una conexión a Internet y no accede a servidores potentes para procesar información, todos los procesos son autónomos y se mantiene la confidencialidad. El dispositivo puede reconocer alrededor de 30 comandos diferentes con una precisión del 95%. No utiliza componentes que consumen mucha energía, por lo que EchoSpeech puede funcionar hasta 10 horas con una sola carga.
