Stage-sync, así es como se llama una tecnología pionera a nivel mundial que, gracias a la inteligencia artificial, hace posible que personas con discapacidad auditiva y visual puedan disfrutar en el teatro de los espectáculos musicales. Sus creadores son investigadores de la Universidad Carlos III de Madrid (UC3M) y ya se ha puesto en práctica con la comedia musical de Broadway La Familia Addams en el Teatro Calderón de Madrid.
El proyecto, que también ha contado con la participación de la agencia creativa C&W, COMUNICAdos, Escena Global y la Consejería de Educación e Investigación de la Comunidad de Madrid, tiene como objetivo que las más de dos millones de personas que sufren una discapacidad auditiva y visual en España puedan acceder por primera vez en su vida a un musical de este tipo. El sistema emplea un software que, gracias a tecnologías como la realidad aumentada, permite escuchar la audiodescripción, en el caso de las personas ciegas, y ver los subtítulos adaptados y a un intérprete de lengua de signos en el caso de los sordos. Así, ya no será necesario incluir los subtítulos en la escenografía, sino que cada espectador puede verlos 'integrados' en el espectáculo.
Además, gracias a la inteligencia artificial, este sistema es capaz de captar todo lo que sucede en el escenario y se sincroniza de forma automática con la obra. Y otra de sus grandes aportaciones de Stage-sync, tal y como han destacado sus creadores, es que gracias al uso de técnicas de deep learning, el sistema “va aprendiendo a medida que se van realizando representaciones y se adapta a los cambios de ritmo y actores que se suelen producir” durante el tiempo que la obra esté en cartel.
Ángel García Crespo, uno de los investigadores que ha desarrollado este sistema, hasta ahora solo se producían esporádica y puntualmente unas pocas representaciones teatrales con este público objetivo en mente y no se incluía la lengua de signos. “Ahora ya es posible que todas las representaciones sean accesibles”.