ES2397741B1 - Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real. - Google Patents

Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real. Download PDF

Info

Publication number
ES2397741B1
ES2397741B1 ES201130541A ES201130541A ES2397741B1 ES 2397741 B1 ES2397741 B1 ES 2397741B1 ES 201130541 A ES201130541 A ES 201130541A ES 201130541 A ES201130541 A ES 201130541A ES 2397741 B1 ES2397741 B1 ES 2397741B1
Authority
ES
Spain
Prior art keywords
frames
network
quality
user end
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
ES201130541A
Other languages
English (en)
Other versions
ES2397741A1 (es
Inventor
José Antonio LOZANO LÓPEZ
Juan Manuel GONZÁLEZ MUÑOZ
Álvaro RODRÍGUEZ PÉREZ
Jesús BARBERO VILLASECA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonica SA
Original Assignee
Telefonica SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonica SA filed Critical Telefonica SA
Priority to ES201130541A priority Critical patent/ES2397741B1/es
Priority to US14/110,114 priority patent/US20140201330A1/en
Priority to PCT/EP2012/055996 priority patent/WO2012136633A1/en
Priority to EP12718924.9A priority patent/EP2695331A1/en
Publication of ES2397741A1 publication Critical patent/ES2397741A1/es
Application granted granted Critical
Publication of ES2397741B1 publication Critical patent/ES2397741B1/es
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5061Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the interaction between service providers and their network customers, e.g. customer relationship management
    • H04L41/5067Customer-centric QoS measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/12Network monitoring probes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0823Errors, e.g. transmission errors
    • H04L43/0829Packet loss
    • H04L43/0835One way packet loss
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • H04L43/0858One way delays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • H04L43/087Jitter

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real.#Método y dispositivo de sonda para medir la calidad en transmisión en flujo en tiempo real de audio, vídeo, o una mezcla sincronizada de ambos, a través de IP, que realiza:#- recibir un flujo de transmisión en flujo de medios en tiempo real en un extremo de usuario,#- medir al menos un parámetro de red que indica QoS y/o QoE,#- extraer tramas de la transmisión en flujo en tiempo real en el extremo de usuario,#- analizar las tramas en el extremo de usuario buscando determinados errores y entregando al menos un parámetro de calidad definido por determinados resultados de dicha búsqueda;#- correlacionar cada parámetro de red medido y cada parámetro de calidad entregado en el extremo de usuario y devolver los resultados al operador de la red IP a través de una interfaz de control y configuración.#El operador usa la interfaz de control y configuración para configurar en el extremo de usuario cómo realizar la correlación entre los parámetros, teniendo en cuenta en dicha correlación las preferencias del usuario descritas por una ontología.

Description

MÉTODO Y DISPOSITIVO PARA MEDIR LA CALIDAD DE SERVICIOS DE TRANSMISIÓN EN FLUJO DE MEDIOS EN TIEMPO REAL
CAMPO TÉCNICO DE LA INVENCIÓN
La presente invención trata de un método y un dispositivo de sonda para medir parámetros de calidad, relacionados con parámetros de calidad de servicio (QoS) y de calidad de experiencia de usuario (QoE), de servicios que incluyen transmisión en flujo ("streaming", en inglés) en tiempo real de vídeo, de audio y de medios en general ("media streaming").
ANTECEDENTES DE LA INVENCIÓN
La transmisión en flujo (streaming) de medios en tiempo real es una tecnología de transmisión que permite a los usuarios ver o escuchar archivos a medida que se transfieren por redes de telecomunicación. El streaming de medios se diferencia de la descarga de archivos al equipo de usuario (ordenador, teléfono inteligente, ... ), en primer lugar, en que la descarga normal requiere que los usuarios esperen hasta que termine de estar todo el archivo descargado para reproducirlo. La capacidad de transmitir/reproducir archivos en tiempo real se encuentra habitualmente en sitios web, lo que permite a los espectadores experimentar los archivos en tiempo real. Los tipos más habituales de transmisión en flujo de medios en tiempo real normalmente incluyen audio, vídeo, o una mezcla sincronizada de ambos.
La transmisión en flujo en tiempo real de audio (audio streaming) se crea ejecutando un archivo de sonido digital a través de un codificador, y a continuación habitualmente colocándolo en un sitio web para que los usuarios lo escuchen. La transmisión en flujo en tiempo real de vídeo a menudo se encuentra en Internet (la mayoría de reproducciones de vídeo en tiempo real de calidad se hacen específicamente para este medio), pero no siempre incluye sonido (un ejemplo de un archivo de vídeo básico que no necesita audio es una transmisión en flujo en tiempo real de fotografías). Uno de los tipos más útiles y favoritos de transmisión en flujo de medios en tiempo real incluye audio y vídeo sincronizados entre sí, lo que garantiza que la imagen en la pantalla y el audio de los oradores coincidan, haciendo que la experiencia de visionado parezca de alta calidad.
La calidad de los archivos normalmente depende de la velocidad de la conexión a Internet del usuario. La mayoría de los ordenadores pueden reproducir archivos de audio bastante fácilmente, pero las reproducciones en tiempo real de vídeo normalmente ocupan más ancho de banda. Esto significa que puedan tardar más en reproducir en tiempo real de manera continua, lo que da como resultado varias pausas a medida que la tasa de transferencia trata de recuperarse. Incluso en conexiones más lentas, el streaming habitualmente todavía es una alternativa más rápida a la descarga.
Un proveedor de alojamiento de medios puede ofrecer streaming de audio y vídeo a través de difusión web en directo o bajo petición, incluso gratis (por ejemplo, YouTube, Vimeo, y sitios similares que son principalmente sitios de compartición de vídeo internacionales, que alojan medios generados por usuarios y los reproducen en tiempo real).
Así pues, la transmisión en flujo en tiempo real de vídeo (video streaming) es una pieza clave para un número siempre creciente de servicios de telecomunicaciones tales como videoconferencia, vídeo bajo petición, videoblogs, TV en directo a través de Internet, etc. Aunque algunos de estos servicios se entregan usando el esquema de "mejor calidad posible" (best effort), poder medir la calidad de los flujos de vídeo es una cuestión importante para las empresas que proporcionan servicios gestionados de telecomunicaciones.
Las señales de transmisión en flujo en tiempo real de vídeo transportadas a través de redes de protocolo de Internet (IP) se ven afectadas por varios factores de degradación posibles como retardo de paquetes, jitter (fluctuación), pérdida de paquetes, etc. Estos factores se manifiestan en la imagen como artefactos que distorsionan la imagen que aparece en el dispositivo de transmisión en flujo. A medida que los artefactos superan un umbral, se vuelven visibles para el ojo humano afectando a la calidad de servicio que perciben los usuarios finales. Un flujo de vídeo puede mostrar los siguientes artefactos que afectan a la calidad percibida por el usuario: congelado (un flujo de vídeo está congelado cuando no hay cambio entre tramas durante un periodo de tiempo específico) y pixelación (un flujo de vídeo muestra este problema cuando los usuarios perciben artefactos de píxel hasta un grado inadmisible).

Las redes IP se caracterizan por estar muy distribuidas y así lo está la medición en ellas. Los algoritmos de medición de vídeo están distribuidos por toda la red con el fin de conseguir el visionado de extremo a extremo de servicios de vídeo. Pero otro problema que debe considerarse se refiere a cómo controlar las sondas puesto que son infraestructura muy distribuida. El trabajo de referencia lo presentó el Grupo de trabajo de ingeniería de Internet (Internet Engineering Task Force (IETF)) en 2000 y se conoce como gestión basada en política. El grupo de trabajo de política de IETF continúa empleándose por la industria y otros organismos de estandarización tales como el Third Generation Partnership Project (3GPP), que ha decidido usar COPS como protocolo de política para la interfaz entre el punto de cumplimiento de política ubicado en el encaminador de borde (por ejemplo, nodo de soporte de pasarela GPRS) de la red y el punto de decisión de política que se comunica con la interfaz de usuario a través de un protocolo de repositorio de política. No obstante, los protocolos (COPS, SNMP, etc.) diseñados para estos problemas de control y gobierno están orientados a red. Por tanto, es importante proporcionar a los operadores medios para controlar las infraestructuras desde la capa de negocio y servicio.
Por otro lado, actualmente existe la necesidad de que los operadores garanticen servicios de televisión sobre protocolo de Internet (IPTV) a través de los cuales se entregan señales de televisión por Internet usando los métodos de arquitectura y conexión de red de la suite de protocolos de Internet a través de una infraestructura de red conmutada por paquetes (por ejemplo, Internet y redes de acceso Internet de banda ancha), en lugar de entregarse a través de formatos de difusión por radiofrecuencia tradicional, señal de satélite, y televisión por cable (CATV).
La calidad percibida por los usuarios de servicios de 1PTV depende de la calidad de la imagen que están recibiendo. Los métodos de QoS/QoE actuales miden los parámetros de red directamente de bases de información de gestión (MIB) de los elementos de red (NE) o usando algunas sondas ubicadas en diferentes puntos en la red. Estas sondas pueden recopilar parámetros de trabajo de la pila de protocolos de servicio (IP, TCP, UDP, HTTP, etc.) como retardo de paquetes, pérdida de paquetes, jitter de paquetes, etc., que pueden recopilarse usando protocolo simple de gestión de red (SNMP), por ejemplo.
La principal desventaja de analizar parámetros de red donde la sonda está instalada es que sólo puede proporcionarse una estimación de la percepción de los usuarios finales. Las mediciones de parámetros de red sólo pueden proporcionar una estimación más o menos precisa; a partir de estos datos se estima (se calcula) la calidad percibida, pero se trata de una medición indirecta porque, por ejemplo, el efecto de pérdidas de paquetes depende del tipo de trama en la que se produzca, lo que significa que el mismo valor puede producir diferente efecto sobre la imagen. Además, los métodos para estimar la calidad de las señales de vídeo basándose en mediciones de parámetros de red requieren recursos fuera de línea costosos con altas capacidades de procesamiento. Por tanto, faltan herramientas para conocer de manera eficaz la calidad de la imagen que están recibiendo realmente los usuarios finales de servicios de IPTV.

Otras soluciones actuales se basan en una calidad de vídeo percibida que se mide siempre que esté disponible señal de vídeo de referencia completa. Estos enfoques dependen de la existencia del vídeo de referencia completa en el punto de medición, lo que no es realista para el ámbito de los proveedores de servicios, en el que las señales tienen que distribuirse a través de redes de comunicación en las que experimentarán pérdidas, retardos, etc. En el punto de extremo no es posible tener tal referencia completa. En una utilización comercial de una red para proporcionar flujos de vídeo a clientes, no es posible tener la señal de vídeo original en el punto de extremo puesto que se transporta mediante una red en la que la señal puede experimentar jitter, retardo, pérdida de paquetes, etc. Por tanto no hay manera de garantizar que la señal es exactamente la del principio.
SUMARIO DE LA INVENCIÓN
La presente invención sirve para resolver el problema mencionado anteriormente proporcionando un método y dispositivo para medir parámetros de calidad relacionados con QoE de servicios de transmisión en flujo de medios en tiempo real proporcionados a través de una red IP.
La solución presentada en este caso hace que la calidad de servicio percibida sea sensible tanto para el contexto del usuario como para los intereses del operador.
La presente propuesta consiste en proporcionar un dispositivo y un procedimiento de bajo coste para medir en línea la calidad de servicios de media streaming en tiempo real a través de IP según la percepción del usuario final, que se basa en la calidad de los medios contenidos en el flujo de streaming en tiempo real que va a distribuirse a través del protocolo de Internet (por ejemplo, basándose en la calidad real de las imágenes en una transmisión en flujo en tiempo real de vídeo). No se necesita ninguna señal de referencia (el vídeo completo), lo que hace que la invención sea más adecuada para su uso en entornos en directo en los que la señal de (vídeo de) referencia completa no está disponible en puntos de medición (por ejemplo, la invención hace posible obtener una calidad de vídeo percibida que simplifica lo que se describe en la recomendación ITU-T J.144). Permite un control adaptativo, puesto que el dispositivo de medición propuesto está ubicado en las instalaciones de los usuarios finales, lo que significa que funciona en entornos bastante diferentes lo que requiere capacidades de adaptación que pueden incorporarse fácilmente en el dispositivo propuesto.

Además, la invención permite correlacionar la medición percibida de flujos de streaming de medios en tiempo real con información de parámetros de red técnicos extraídos en el mismo punto. Además, implementa una interfaz para que un operador controle el proceso de medición usando órdenes de alto nivel, además de hacer que los algoritmos tengan constancia de, y puedan autoajustarse a, las características y contenidos de flujos de streaming en tiempo real específicos.
Según un aspecto de la invención, se proporciona un método para medir la calidad de servicios de transmisión en flujo de medios en tiempo real, que incluye transmisión en flujo en tiempo real de audio, vídeo, o una mezcla sincronizada de ambos medios (audio, video o media streaming), que puede entregarse a través del protocolo de Internet. El método comprende las siguientes etapas:
recibir un flujo de transmisión en flujo de medios en tiempo real en un
extremo de usuario,
medir al menos un parámetro de red que indica QoS y/o QoE de transmisión
de paquetes a través de la red IP,
extraer en el extremo de usuario una pluralidad de tramas del flujo de
transmisión en flujo de medios en tiempo real que van a analizarse,
analizar la pluralidad de tramas en el extremo de usuario buscando
determinados errores en las tramas y entregando al menos un parámetro de
calidad de las tramas, estando definido el parámetro de calidad por
determinados resultados de dicha búsqueda;
realizar correlación en el extremo de usuario entre cada parámetro de red
medido y cada parámetro de calidad entregado,
entregar resultados de la correlación del extremo de usuario a un operador
de la red IP a través de una interfaz de control y configuración.
El operador puede configurar por medio de la interfaz de control y configuración en el extremo de usuario la etapa de correlación entre los parámetros mencionados anteriormente teniendo en cuenta preferencias del usuario que se describen mediante un modelo de ontología. La ontología permite al operador describir los errores que hay que buscar en las tramas y los resultados que van a entregarse usando dicha interfaz de control y configuración.
Según un aspecto adicional de la invención, se proporciona un dispositivo de sonda, que puede conectarse a un terminal de usuario a partir del cual recibe un flujo de entrada de transmisión en flujo de medios en tiempo real, que comprende medios de procesamiento para realizar el método descrito antes de usar dicho flujo de entrada de transmisión en flujo de medios en tiempo real y medios de retransmisión para entregar el flujo de entrada de transmisión en flujo de medios en tiempo real como salida.

Según un último aspecto de la invención, trata de un programa informático que comprende medios de código de programa que ejecutan el método descrito anteriormente, cuando se carga en medios de procesamiento de un dispositivo tal como se definió anteriormente, dichos medios de procesamiento pueden ser cualquier forma de hardware programable: tal como un procesador de propósito general de un ordenador, un procesador de señal digital, una disposición de puertas programables en campo (FPGA), un circuito integrado de aplicación específica (ASIC), un microprocesador, un microcontrolador, etc.
Existen varias ventajas que la invención aporta a las tecnologías actuales del

estado de la técnica, concretamente: calidad real percibida medida por esta propuesta frente a estimación basada en parámetros de red de la mayoría de las soluciones actuales del estado de la técnica. La presente invención difiere claramente del estado de la técnica en que, por ejemplo, puede buscar artefactos en los propios medios (trama de la transmisión en flujo en tiempo real de vídeo de entrada) y medir directamente la calidad de la transmisión en flujo en tiempo real (imagen de vídeo). Además, la invención permite la correlación entre la calidad percibida y los parámetros de red con fines operativos. Por el contrario, la mayoría de las soluciones existentes sólo proporcionan estimaciones de calidad basadas en parámetros de rendimiento de red, en lugar de usar los propios medios. Mediciones de calidad percibida de referencia cero. La mayoría de los algoritmos estandarizados para medir calidad de vídeo necesitan referencia completa, lo que es un inconveniente importante para usarlos en servicios de telecomunicación. La invención permite a un operador vincular la configuración de la sonda a las necesidades del servicio, por ejemplo, los parámetros técnicos que hay que medir pueden ser diferentes dependiendo del contenido. Además puede aplicarse un patrón que modela los intereses del usuario. Es posible ajustar la sensibilidad y la configuración de la sonda en tiempo real. Además es posible cambiarlos de modo que la sonda pueda funcionar sin codificarla de nuevo, lo que reduce radicalmente el tiempo de comercialización de las nuevas necesidades de monitorización. La sensibilidad puede ajustarse de manera adaptativa en tiempo real para coincidir con la percepción de los usuarios por medio de la especificación del tipo de contenidos, tipo de usuarios, etc. Asimismo, es posible una configuración para tener constancia del contexto. La gestión de una pluralidad de sondas tal como se propone es ajustable a escala. Cada sonda actúa individualmente, comprobando su propio entorno y las indicaciones de operadores incrustadas en la base de datos de conocimientos. Se comportan según su propio entorno. Sólo se necesitan indicaciones de alto nivel de los operadores. Se implementa un modelo de información semántica para proporcionar una interfaz orientada a los conocimientos para control y gestión dirigidos por política en el dispositivo propuesto de sonda.
DESCRIPCIÓN DE LOS DIBUJOS
Para completar la descripción que está realizándose y con objeto de ayudar a una mejor comprensión de las características de la invención, según un ejemplo de realización práctica preferido de la misma, se adjuntan a dicha descripción como parte integral de ésta, un juego de dibujos en los que, a modo de ilustración y de manera no restrictiva, se ha representado lo siguiente:
Figura 1. -Muestra un dispositivo de sondeo que puede conectarse en el extremo de usuario para medir la calidad de transmisión en flujo en tiempo real de vídeo, según una posible realización de la invención.
Figura 2. -Muestra un diagrama de bloques de la arquitectura funcional del dispositivo de sondeo, según una posible realización de la invención.
Figura 3. -Muestra un diagrama esquemático de procesamiento de vídeo para el análisis de la transmisión en flujo en tiempo real de vídeo realizada por el dispositivo de sondeo en el extremo de usuario, según una realización preferida de la invención.
Figura 4. -Muestra un diagrama esquemático del análisis de vídeo, según una realización preferida de la invención.
Figura 5. -Muestra un esquema de ontología de un modelo de conocimientos usado para el gobierno del dispositivo de sondeo, según una posible realización de la invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
La figura 1 muestra una posible realización de la invención que implementa un dispositivo de sonda inteligente de vídeo (1 ), que puede recibir un flujo de vídeo sobre IP a través de una interfaz de entrada (2) y pasarlo a una interfaz de salida (3). Este dispositivo

(1) es adecuado para conectarse a través de medios de conexión IP (4) entre un terminal de usuario, por ejemplo, un módulo descodificador (5) que proporciona el flujo de entrada de vídeo y un encaminador de cliente (6) que lo retransmite a una red IP. Otra posibilidad
junto con las mediciones de red con el fin de analizarlas adicionalmente en un proceso de lotes por correlación. Estos dos componentes, para vídeo y procesamiento adaptativo, se explican con más detalle a continuación.
El componente de procesamiento de vídeo (24) implementa un procedimiento de cuatro etapas representado en la figura 3, que comprende: medios de recepción de transmisión en flujo en tiempo real de vídeo o etapa
(31) conectados a la interfaz del vídeo de entrada (21), una etapa opcional de conversión de vídeo llevada a cabo por medios de conversión (32), medios de análisis (33) que manejan el flujo de vídeo dado en un determinado formato mediante las etapas anteriores, y una etapa final de medios de entrega de resultados (34) conectados al componente de procesamiento adaptativo (27).
La etapa de recepción (31) extrae las tramas del flujo de vídeo de entrada. Cada trama es una entrada a la etapa de conversión (32) en la que las tramas se convierten a un formato de color para procesamiento de imagen y de vídeo, preferiblemente, un formato YUV, por ejemplo, YUV420p. El formato YUV es un espacio de color en el que Y se refiere al componente de luminancia y U y V son los componentes de crominancia. El formato YUV 420p obtiene una trama en blanco y negro fácilmente tomando el componente Y de la trama convertida. El principal motivo para elegir el formato YUV 420p es mejorar la eficacia en la etapa de análisis, puesto que los medios de análisis (33) pueden funcionar con tramas en blanco y negro de modo que el componente Y de la trama convertida es el único que se necesita. Asimismo, en la mayoría de los sistemas de difusión de IPTV, el YUV 420p es el formato de emisión, de modo que en muchos casos la etapa de conversión puede omitirse.

Los medios de análisis (33) pueden buscar errores específicos en las imágenes del flujo de vídeo, preferiblemente estos dos: imagen congelada y pixelación. Para el análisis de imagen congelada, cada trama se compara con la anterior obteniendo la diferencia de movimiento entre ellas. Si no hay diferencia entre dos tramas consecutivas, la imagen del flujo de vídeo está congelada, es decir, la imagen está congelada cuando la relación o el % de movimiento es cero. El análisis de pixelación puede dividirse en dos fases: la primera es un filtrado de bordes y la otra, un análisis delta de Dirac. El filtro de bordes puede implementarse mediante un detector de bordes de Canny de la librería OpenCV y detecta los píxeles de la imagen que son candidatos para ser un borde usando valor umbral con histéresis. El filtro de bordes usa dos umbrales, alto y bajo: los píxeles que tienen un gradiente mayor que el umbral alto se marcan como borde, los que tiene un gradiente entre el umbral alto y el bajo se marcan como posibles candidatos para ser píxeles de borde y los que tiene un gradiente menor que el umbral bajo se descartan como píxeles de borde. Respecto al análisis Delta de Dirac, esta fase de la etapa de análisis detecta las partes de la trama que tienen el mismo o un valor Delta de Dirac muy similar, siendo el Valor Delta de Dirac una zona específica de la trama que representa su textura. La trama se divide en componentes cuadrados, los valores Delta de Dirac se calculan para cada componente y, comparando estos valores, el algoritmo puede descubrir las zonas de la imagen que tienen textura similar.
Los artefactos que componen un error de pixelación tienen características particulares: tienen forma cuadrangular y tienen una textura similar. Teniendo en cuenta estas dos características, las dos fases de dicho análisis de pixelación, filtrado de bordes y el cálculo de los valores delta de Dirac, pueden localizar los errores de pixelación en una imagen. La figura 4 resume todos los procesos de detección de pixelación y de imagen congelada ejecutados por los medios de análisis (33). Las tramas (40) del flujo de vídeo de entrada se convierten, si es necesario, del formato de emisión a formato YUV 420p de modo que los componentes Y de las tramas (40) se extraen (41 ). Cada componente Y es la entrada para las siguientes etapas de los medios de análisis (33). En la etapa de medición de movimiento (42), cada trama se compara con la anterior y el resultado es el porcentaje de movimiento. La etapa de filtrado de bordes (43) aplica un filtrado de bordes de Canny a la trama y la etapa delta de Dirac (44) calcula el valor Delta de Dirac de las zonas de trama. Los resultados tanto de la etapa de filtrado de bordes como de la etapa Delta de Dirac se combinan y el resultado es el porcentaje de las zonas de imagen que tienen una textura muy similar y bordes cuadrados, como los artefactos de píxeles. Finalmente la salida de la etapa de análisis va a los medios de entrega de resultados (34) y esta salida es la combinación de los resultados del análisis de imagen congelada y el análisis de pixelación, que presentan los artefactos de error de la imagen y que garantizan
o bien si la imagen está congelada o bien si tiene un cierto porcentaje de artefactos de pixelación.
Por tanto, la etapa final llevada a cabo por los medios de entrega de resultados (34) da al componente de procesamiento adaptativo (27) el porcentaje de movimiento de imagen de las tramas y porcentaje de tramas que presenta artefactos de pixelación.

El componente de procesamiento adaptativo (27) usa un modelo semántico, mostrado en la figura 5, que puede describirse mediante un lenguaje rico semánticamente, es decir, una ontología, por ejemplo, el lenguaje de ontología de Web (Web Ontology Language) también conocido como OWL. Según una realización de la invención, la ontología describe los parámetros y su relación según cuatro ámbitos: sonda (51), cliente (52), vídeo (53) y red (54). El procesamiento de adaptación se basa en técnicas de razonamiento que permiten a este componente adaptar visiones de alto nivel de negocios y servicios del operador (1 O) con métricas de red y perfiles de calidad de vídeo de bajo nivel, resultantes del componente de mediciones de red (26) y el componente de procesamiento de vídeo (24) respectivamente. El componente de procesamiento adaptativo (27) se configura definiendo un perfil semántico, siendo un perfil el conjunto de parámetros que pueden medirse y caracterizar un campo específico. El componente de procesamiento adaptativo (27) también comprende una descripción semántica de lo que significa cada parámetro del perfil dentro de cada campo y cómo se relacionan los parámetros entre diferentes campos.
Las relaciones entre los diferentes campos o ámbitos se capturan a través del uso de la ontología, por ejemplo OWL. Los cuatro ámbitos (sonda (51), cliente (52), vídeo (53) y red (54)), mostrados en la figura 5 y que se describen mediante este modelo semántico, se refieren a:
Sonda (51): Se describe el propio dispositivo de sonda (20), qué tipo de parámetros se miden, el tipo de errores de vídeo que pueden detectarse y la configuración de la sonda, incluyendo qué parámetros van a configurarse para ajustar el área de trabajo del dispositivo de sonda (20). Es importante resaltar que la sensibilidad del dispositivo de sonda (20) se ajusta así no sólo según el tipo de contenido sino las preferencias de los usuarios, capturadas mediante la interfaz de control y configuración (23) de sistemas externos. Aunque se trata de un problema subjetivo, la sonda propuesta puede manejarlo.
Cliente (52): Puesto que la percepción es algo subjetivo, este ámbito describe las preferencias del cliente, que pueden ser preferencias personales, por ejemplo, el interés del cliente por el fútbol y así, la sonda tiene que ser más sensible a estos tipos de contenidos. Esta información se incluye en el modelo semántico y afecta al razonamiento.
Vídeo (53): Se describen los parámetros técnicos del flujo de vídeo, por ejemplo, códec, bitrate (tasa de transmisión), resolución, etc., pero también está vinculado con el tipo de contenido para permitir que la sonda combine parámetros técnicos con tipo de contenidos que son a su vez preferencias del cliente.

Red (54): Puesto que los servicios convergen a nivel de red, es importante describir semánticamente lo que puede obtenerse a partir de la red. Este concepto está vinculado con el vídeo a través de las descripción de impactos. Así, el proceso de razonamiento puede encontrar trayectos de clientes a rendimiento de red para aplicaciones de vídeo.
El modelo semántico presentado, como el representado en la figura 5, puede cambiarse en cualquier momento y distribuirse a las sondas sin codificarlas de nuevo. Puede actualizarse, extenderse o incluso acortarse y a continuación distribuirse de nuevo a las sondas para que funcionen con la nueva descripción de campo. Esto significa que la
5 invención presentada permite al operador introducir nuevos conceptos para que la sonda los gestione, y esto puede hacerse con desarrollo mínimo.
Obsérvese que en este texto, el término "comprende" y sus derivaciones (tales
como "que comprende", etc.) no deben entenderse en un sentido excluyente, es decir,
estos términos no deben interpretarse como que excluyen la posibilidad de que lo que se

10 describe y define pueda incluir elementos, etapas, etc. adicionales.

Claims (6)

  1. REIVINDICACIONES
    1.
  2. 2.
    3_
    Un método para medir parámetros de calidad de servicios de transmisión en flujo de
    medios en tiempo real proporcionados por una red IP, que comprende: recibir a través de una interfaz de vídeo de entrada (2 1) un flujo de transmisión en flujo de medios en tiempo real en un extremo de usuario, medir mediante un componente de mediciones de red (26) al menos un parámetro de red que indica calidad de servicio o calidad de experiencia de usuario de transmisión de paquetes a través de la red IP,
    caracterizado porque comprende además: extraer mediante un dispositivo de sonda (20) en el extremo de usuario una pluralidad de tramas del flujo de transmisión en flujo de medios en tiempo real que van a analizarse, analizar mediante un com ponente de procesamiento de vídeo (24) la pluralidad de tramas en el extremo de usuario buscando determinados errores en las tramas y entregando al menos un parámetro de calidad de las tramas, estando definido el parámetro de calidad de las tramas por ciertos resullados de dicha búsqueda; realizar correlación mediante un componente de procesamiento adaptativo
    (27) en el extremo de usuario entre cada parámetro de red medido por el componente de mediciones de red (26) y cada parámetro de calidad de las tramas entregado por el componente de procesamiento de vídeo (24) , entregar resultados de la correlación mediante medios de entrega de resultados (34) conectados al componente de procesamiento adaptativo (27) del extremo de usuario a un operador (10) de la red IP a través de una interfaz de control y configuración (23).
    El método según la reivindicación 1, en el que la correlación en el extremo de usuario la configura el operador (10) a través de la interfaz de control y configuración (23) teniendo en cuenta las preferencias del usuario que se describen mediante una ontología. El método según la reivindicación 2, en el que los errores que hay que buscar en las tramas y los resultados que van a entregarse se describen mediante la ontología y los configura el operador (10) a través de la interfaz de control y configuración (23), teniendo en cuenta si los medios transmitidos en tiempo real se seleccionan de audio, vídeo y una sincronización de ambos, y las preferencias del usuario
    ES 2 397 741 Al
    descritas.
  3. 4. El método según cualquier reivindicación anterior, en el que los medios transmitidos en tiempo real comprenden vídeo y los errores que hay que buscar en las tramas se seleccionan de imagen congelada y pixelación.
    5_ El método según la reivindicación 4 , en el que analizar la pluralidad de tramas en el extremo de usuario comprende comparar cada trama con al menos una previa y los resultados que van a entregarse comprenden una indicación de diferencia de movimiento entre las tramas comparadas.
    6_ El método según cualquiera de las reivindicaciones 4 Ó 5, en el que analizar la pluralidad de tramas en el extremo de usuario comprende filtrar bordes y calcular valores Delta de Dirae de una determinada zona de las tramas y los resultados que van a entregarse comprenden una indicación de las tramas que presentan pixelación.
    7_ El método según cualquier reivindicación 4 a 6, en el que las tramas extraídas que van a analizarse en el extremo de usuario están en un formato de vídeo que usa tramas en blanco y negro.
  4. 8. El método según cualquier reivindicación anterior, en el que el, al menos un, parámetro de red medido se selecciona de relardo de paqueles, pérdida de paquetes y jitter de paquetes.
    9_ Un dispositivo de sonda (1) para medir parámetros de calidad de transmisión en flujo de medios en tiempo real que recibe un flujo de transmisión en flujo de medios en tiempo real en un extremo de usuario, pudiendo conectarse el dispositivo de sonda en un extremo de usuario para recibir un flujo de transmisión en flujo de medios en tiempo real y que comprende recibir medios de parámetros de red medidos que indican calidad de servicio o calidad de experiencia de usuario de transmisión de paquetes a través de los servicios de red IP proporcionados por una red IP, y estando caracterizado el dispositivo de sonda porque comprende medios de procesamiento configurados para implementar el método expuesto en cualquier reivindicación anterior.
  5. 10. El dispositivo de sonda según la reivindicación 9, en el que el dispositivo de sonda
    (1) puede conectarse entre un módulo descodificador (5) y un encaminador IP (6) en el extremo de usuario.
  6. 11. El dispositivo de sonda según la reivindicación 9, en el que el dispositivo de sonda está integrado en un módulo descodificador (5) y puede conectarse a un encaminador IP (6) en el extremo de usuario.
    12_ Un programa informático que comprende medios de código de programa adaptados
    ES 2 397 741 Al
    para realizar las etapas del método según cualquiera de las reivindicaciones 1 a 8, cuando dicho programa se ejecuta en un ordenador, un procesador de señal digital, una FPGA, un ASIC, un microprocesador, un microcontrolador, o cualquier otra forma de hardware programable.
ES201130541A 2011-04-05 2011-04-05 Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real. Expired - Fee Related ES2397741B1 (es)

Priority Applications (4)

Application Number Priority Date Filing Date Title
ES201130541A ES2397741B1 (es) 2011-04-05 2011-04-05 Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real.
US14/110,114 US20140201330A1 (en) 2011-04-05 2012-04-02 Method and device for quality measuring of streaming media services
PCT/EP2012/055996 WO2012136633A1 (en) 2011-04-05 2012-04-02 Method and device for quality measuring of streaming media services
EP12718924.9A EP2695331A1 (en) 2011-04-05 2012-04-02 Method and device for quality measuring of streaming media services

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201130541A ES2397741B1 (es) 2011-04-05 2011-04-05 Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real.

Publications (2)

Publication Number Publication Date
ES2397741A1 ES2397741A1 (es) 2013-03-11
ES2397741B1 true ES2397741B1 (es) 2013-10-02

Family

ID=46027914

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201130541A Expired - Fee Related ES2397741B1 (es) 2011-04-05 2011-04-05 Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real.

Country Status (4)

Country Link
US (1) US20140201330A1 (es)
EP (1) EP2695331A1 (es)
ES (1) ES2397741B1 (es)
WO (1) WO2012136633A1 (es)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US20140156901A1 (en) 2005-10-26 2014-06-05 Cortica Ltd. Computing device, a system and a method for parallel processing of data streams
US20160085733A1 (en) 2005-10-26 2016-03-24 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US11537636B2 (en) 2007-08-21 2022-12-27 Cortica, Ltd. System and method for using multimedia content as search queries
US10103899B2 (en) * 2013-06-17 2018-10-16 Google Llc Methods, systems, and media for media content streaming device setup
EP2916544A1 (en) * 2014-03-06 2015-09-09 Alcatel Lucent Method to determine the quality of a video stream
US10395541B2 (en) * 2015-01-16 2019-08-27 Texas Instruments Incorporated Integrated fault-tolerant augmented area viewing system
KR102286882B1 (ko) 2015-03-06 2021-08-06 삼성전자 주식회사 이동 통신 시스템에서 사용자 체감 품질 관리 방법 및 장치
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
US11037015B2 (en) * 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US11613261B2 (en) 2018-09-05 2023-03-28 Autobrains Technologies Ltd Generating a database and alerting about improperly driven vehicles
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11904863B2 (en) 2018-10-26 2024-02-20 AutoBrains Technologies Ltd. Passing a curve
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US11392738B2 (en) 2018-10-26 2022-07-19 Autobrains Technologies Ltd Generating a simulation scenario
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US10805361B2 (en) 2018-12-21 2020-10-13 Sansay, Inc. Communication session preservation in geographically redundant cloud-based systems
US11170647B2 (en) 2019-02-07 2021-11-09 Cartica Ai Ltd. Detection of vacant parking spaces
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US12055408B2 (en) 2019-03-28 2024-08-06 Autobrains Technologies Ltd Estimating a movement of a hybrid-behavior vehicle
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US11908242B2 (en) 2019-03-31 2024-02-20 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11245742B2 (en) * 2019-07-19 2022-02-08 Juniper Networks, Inc Apparatus, system, and method for flow-level switchover of video streams
US11704292B2 (en) 2019-09-26 2023-07-18 Cortica Ltd. System and method for enriching a concept database
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
EP4096280A4 (en) * 2020-02-21 2023-03-22 Huawei Technologies Co., Ltd. MEASUREMENT PROCESS AND APPARATUS
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
US12049116B2 (en) 2020-09-30 2024-07-30 Autobrains Technologies Ltd Configuring an active suspension
EP4002338A1 (en) * 2020-11-19 2022-05-25 Ficosa Adas, S.L.U. Detecting image freezing in a video displayer
CN115314407B (zh) * 2022-08-03 2024-08-02 东南大学 一种基于网络流量的网络游戏QoE检测方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7599307B2 (en) * 2003-08-21 2009-10-06 Vidiator Enterprises Inc. Quality of experience (QoE) method and apparatus for wireless communication networks
JP4593437B2 (ja) * 2005-10-21 2010-12-08 パナソニック株式会社 動画像符号化装置
US7620716B2 (en) * 2006-01-31 2009-11-17 Dell Products L.P. System and method to predict the performance of streaming media over wireless links
US7561989B2 (en) * 2006-04-04 2009-07-14 Procise Extracting performance metrics from images
US20070271590A1 (en) * 2006-05-10 2007-11-22 Clarestow Corporation Method and system for detecting of errors within streaming audio/video data
CN101087438A (zh) * 2006-06-06 2007-12-12 安捷伦科技有限公司 计算无参考视频质量评估的分组丢失度量的系统和方法
US8424049B2 (en) * 2006-08-25 2013-04-16 Verizon Laboratories Inc. Measurement of video quality at customer premises
US8009932B2 (en) * 2006-09-13 2011-08-30 Providence Engineering and Environmental Group LLC Automatic alignment of video frames for image processing
US9628786B2 (en) * 2007-05-18 2017-04-18 At&T Intellectual Property I, L.P. System and method of indicating video content quality
EP2112835A1 (en) * 2008-04-24 2009-10-28 Psytechnics Ltd Method and apparatus for generation of a video quality parameter
US8311116B2 (en) * 2008-07-09 2012-11-13 Marvell World Trade Ltd. Method and apparatus for periodic structure handling for motion compensation
US20100110199A1 (en) * 2008-11-03 2010-05-06 Stefan Winkler Measuring Video Quality Using Partial Decoding
US8468391B2 (en) * 2010-08-04 2013-06-18 International Business Machines Corporation Utilizing log event ontology to deliver user role specific solutions for problem determination
US8966555B2 (en) * 2010-09-15 2015-02-24 At&T Intellectual Property I, L.P. Method and system for performance monitoring of network terminal devices
US20120102184A1 (en) * 2010-10-20 2012-04-26 Sony Corporation Apparatus and method for adaptive streaming of content with user-initiated quality adjustments

Also Published As

Publication number Publication date
WO2012136633A1 (en) 2012-10-11
EP2695331A1 (en) 2014-02-12
US20140201330A1 (en) 2014-07-17
ES2397741A1 (es) 2013-03-11

Similar Documents

Publication Publication Date Title
ES2397741B1 (es) Método y dispositivo para medir la calidad de servicios de transmisión en flujo de medios en tiempo real.
Wamser et al. Modeling the YouTube stack: From packets to quality of experience
Schatz et al. Passive youtube QoE monitoring for ISPs
Frnda et al. Impact of packet loss and delay variation on the quality of real-time video streaming
Serral-Gracià et al. An overview of quality of experience measurement challenges for video applications in IP networks
EP3518494A1 (en) System and method for quality of service detection of encrypted packet flows
Mu et al. Framework for the integrated video quality assessment
Casas et al. Monitoring YouTube QoE: Is your mobile network delivering the right experience to your customers?
Gómez et al. YouTube QoE evaluation tool for Android wireless terminals
Mok et al. IRate: Initial video bitrate selection system for HTTP streaming
Schwind et al. Dissecting the performance of YouTube video streaming in mobile networks
Pan et al. Towards QoE assessment of encrypted YouTube adaptive video streaming in mobile networks
Jiménez et al. A network-layer QoE model for YouTube live in wireless networks
Li et al. Real‐Time QoE Monitoring System for Video Streaming Services with Adaptive Media Playout
Khorsandroo et al. A generic quantitative relationship between quality of experience and packet loss in video streaming services
Miranda et al. Estimating video on demand QoE from network QoS through ICMP probes
Baik et al. Video acuity assessment in mobile devices
Chang et al. A tale of three videoconferencing applications: Zoom, Webex, and Meet
Barkowsky et al. Objective video quality assessment—towards large scale video database enhanced model development
Yetgin et al. Quality of experience prediction model for progressive downloading over mobile broadcast networks
Mu et al. Discrete quality assessment in IPTV content distribution networks
JP2005069749A (ja) 時刻補正方法、ネットワーク品質評価測定方法およびネットワーク品質評価装置
Gardikis et al. Cross-layer monitoring in IPTV networks
KR101108888B1 (ko) Iptv 가입자단 품질 측정 장치 및 방법
Kleinrouweler et al. A model for evaluating sharing policies for network-assisted HTTP adaptive streaming

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2397741

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20131002

FD2A Announcement of lapse in spain

Effective date: 20210915