Análisis detallado de la distribución con latencia baja
La calidad de cualquier experiencia de streaming en vivo depende en gran parte de que la red no tenga latencia; es decir, que no haya retardo cuando un paquete sale de la plataforma de streaming de origen y llega al dispositivo del consumidor. La latencia se puede manifestar de varias maneras: en forma de retardo, pérdida de fotogramas, almacenamiento en el búfer y, como consecuencia de todo lo anterior, también en una menor calidad de vídeo.
Para minimizarla o reducirla, es necesario contar con un buen proceso de planificación y optimización, y sacrificar en cierto modo los costes por la latencia. Aunque gran parte de los problemas de latencia se producen en la fase de distribución, seguir una metodología efectiva desde el principio para grabar, codificar y transmitir contenido puede evitar problemas de calidad y latencia desde las fases más tempranas del proceso. En concreto, las empresas de creación de contenido necesitan soluciones en dos ámbitos si quieren conseguir que su latencia sea lo más baja posible: el frontend del sistema y los componentes de distribución de la red. En una encuesta de 2021, el 42 % de los participantes consideraban que lo más importante para una buena experiencia de uso era que la calidad de vídeo fuera alta. Muy de cerca quedaba, en segundo lugar, la baja latencia: el 32 % de los encuestados consideraban que la respuesta de vídeo era la principal prioridad (https://www.wowza.com/blog/2021-video-streaming-latency-report)
Qué se entiende por latencia, latencia baja y latencia ultrabaja
Para que el dispositivo del consumidor canalice el contenido en las fases de creación, transmisión y recepción, necesitamos procesamiento, ancho de banda y tiempo. Un evento en directo, por ejemplo, suele tardar unos 10 segundos en aparecer en la pantalla del consumidor. Cualquier experiencia de transmisión de contenido por cable HD presenta una latencia de 4 a 5 segundos, mientras que alrededor del 25 % de las redes de contenido debe hacer frente a una latencia de entre 10 y 45 segundos. Actualmente no hay un estándar determinado, pero la distribución de baja latencia se suele fijar en un retardo de 4 a 5 segundos entre el contenido en directo y el momento en que aparece en la pantalla del consumidor. En la latencia ultrabaja, el tiempo de retardo es aún menor. Y en el caso de la llamada latencia «glass-to-glass» (entre la lente de la cámara que graba el evento y la pantalla del consumidor) se encuentra en torno a los 20 segundos. Para la latencia baja se toma como referencia el contenido de la televisión por cable de alta definición, con unos 5 segundos.
Causas más comunes de la latencia
La latencia en las redes de distribución y retransmisión se debe a múltiples factores. En primer lugar, cabe señalar el retardo inherente a la transmisión de vídeo en directo por el simple hecho de que esta se codifica en paquetes que luego se envían a la red. A eso hay que añadirle mayor latencia cuando la distribución al dispositivo del usuario final se realiza a través de diversas redes de terceros. También debemos tener en cuenta que los protocolos presentan distintas fortalezas y debilidades que no siempre contribuyen a mejorar la latencia.
Por ejemplo, el protocolo HTTP de streaming en vivo que lanzó Apple en 2009 da prioridad a la infraestructura HTTP existente frente a otros protocolos más eficaces pero menos usados en la distribución y, por eso, tiene una latencia por defecto de 30 segundos. Otros protocolos optimizan la ruta de la red para llegar a su destino, reducen los retardos del encriptado y otras funcionalidades secundarias de la red y seleccionan técnicas de codificación y decodificación optimizadas. Volviendo a Apple, en 2020 lanzó una versión de baja latencia de su protocolo HLS (LL-HLS) que favorece una latencia menor gracias al uso de segmentos más pequeños y otra clase de avances tecnológicos.
Cómo reducir la latencia
La latencia se puede reducir ajustando el flujo de codificación para obtener un procesamiento más rápido. Sin embargo, en algunos casos esto puede resultar ineficaz e incluso incrementar los costes. Otra posibilidad es usar paquetes de red y segmentos de vídeo más pequeños, pero también eso puede aumentar los gastos generales y reducir el ancho de banda. Por otro lado, si se usan segmentos más grandes, aumenta el ancho de banda general y la eficiencia, aunque en detrimento de la experiencia de visualización en tiempo real.
El flujo de trabajo para capturar y codificar contenido audiovisual es un buen comienzo para reducir la latencia. Con un buen ajuste del flujo, es posible distribuir rápidamente segmentos de vídeo codificados. No obstante, reducir el tiempo de procesamiento no es el único objetivo: a veces, la latencia general se puede reducir con un tiempo de procesamiento mayor ya que, en consecuencia, se producen transmisiones de datos más compactas. Así pues, los creadores de contenido deben encontrar el punto medio entre la eficiencia de procesamiento y la de transporte en la red para lograr el equilibrio deseado.
La latencia baja (y ultrabaja) facilitan la interactividad y la atención de los usuarios
No hay duda de que la visualización de contenido online mejora cuando la latencia es baja. No obstante, también es interesante intentar eliminar la latencia en aplicaciones en tiempo real. Los usuarios no se conforman con las videoconferencias para grupos reducidos: quieren realizar presentaciones en directo para cientos de personas y que se pueda interactuar en tiempo real. Lo mismo ha ocurrido con los eventos deportivos en directo: los usuarios no se contentan con verlos, quieren conversar, apostar y participar activamente en la experiencia. Si hay latencia, los clientes pasan a otros proveedores, ven otros eventos y buscan otras personas y empresas. La verdadera ventaja de la latencia ultrabaja es que el contenido, las experiencias y los datos se distribuyen casi en tiempo real. De esta manera, se ponen los cimientos para mejorar la experiencia de uso, lo que facilita la creación de nuevos modelos de negocio. Si logras mantener una latencia baja, tu contenido y tu empresa se diferenciarán de la competencia y tendrás más clientes, y estarán más satisfechos.
Te invito a consultar este informe de soluciones, con un análisis más detallado y algunas sugerencias para reducir la latencia de tu contenido. Te ayudará a hacer de la distribución con una latencia ultrabaja una ventaja competitiva para tu empresa. No te pierdas los nuevos artículos que publicaremos sobre las tecnologías emergentes y diferénciate de la competencia.