ES2390298A1 - Procedimiento de transmisión de contenido visual. - Google Patents

Procedimiento de transmisión de contenido visual. Download PDF

Info

Publication number
ES2390298A1
ES2390298A1 ES201030552A ES201030552A ES2390298A1 ES 2390298 A1 ES2390298 A1 ES 2390298A1 ES 201030552 A ES201030552 A ES 201030552A ES 201030552 A ES201030552 A ES 201030552A ES 2390298 A1 ES2390298 A1 ES 2390298A1
Authority
ES
Spain
Prior art keywords
content
zone
dynamic
static
proportion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201030552A
Other languages
English (en)
Other versions
ES2390298B1 (es
Inventor
Pablo LÓPEZ GARCÍA
Sergio MORENO CLAROS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonica SA
Original Assignee
Telefonica SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=42752440&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2390298(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Telefonica SA filed Critical Telefonica SA
Priority to ES201030552A priority Critical patent/ES2390298B1/es
Priority to EP10729703A priority patent/EP2559242A1/en
Priority to PE2012002031A priority patent/PE20130928A1/es
Priority to US13/641,482 priority patent/US20130036235A1/en
Priority to PCT/EP2010/059042 priority patent/WO2011127991A1/en
Priority to BR112012026528A priority patent/BR112012026528A2/pt
Priority to ARP110101283A priority patent/AR080906A1/es
Priority to CL2012002888A priority patent/CL2012002888A1/es
Publication of ES2390298A1 publication Critical patent/ES2390298A1/es
Publication of ES2390298B1 publication Critical patent/ES2390298B1/es
Application granted granted Critical
Withdrawn - After Issue legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Discrete Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Procedimiento de transmisión de contenido visual a través de una red de comunicación que localiza contenido estático (5) y contenido dinámico (6), y transmite cada tipo de contenido de manera diferente para optimizar la tasa de transmisión y la calidad del contenido recibido en el otro extremo de la red de comunicación.

Description

CAMPO DE LA INVENCIÓN
5 La presente invención tiene su aplicación dentro del sector de las telecomunicaciones y, especialmente en el campo de los sistemas para compartir contenido.
ANTECEDENTES DE LA INVENCIÓN
10 Compartir en tiempo real información visual a través de redes de telecomunicación es una técnica ampliamente usada con aplicaciones en diversos campos, tales como gestión de sistema remoto, teleconferencias
o diagnósticos médicos remotos. Por ejemplo, permite a los usuarios recibir alimentación de vídeo en directo desde una ubicación remota para
15 monitorizar actividades o interactuar con otros usuarios, o recibir en un primer ordenador información que normalmente se visualizaría en el monitor de un segundo ordenador, permitiendo así al usuario controlar de forma remota dicho segundo ordenador.
Hay dos maneras principales de compartir información visual en 20 tiempo real:
-
Soluciones de escritorio remoto. Estas técnicas tratan toda la información visual que va a enviarse como una imagen estática individual. La imagen completa se transmite al comienzo de la transmisión, y cuando cambia una
parte o la totalidad de dicha imagen, la imagen resultante (o sección de
imagen) se transmite de nuevo. Protocolos como RDP (Remate Desktop
Pro toco/, protocolo de escritorio remoto) están relacionados con esta
técnica.
5
-Soluciones de transmisión de flujo continuo de vídeo. En este caso, todo el
contenido se procesa como una trama de vídeo y se usan tecnologías de
codificación de vídeo para enviar el vídeo resultante. El ancho de banda
requerido puede reducirse usando algoritmos de compresión de vídeo. Un
ejemplo de protocolo de transmisión de flujo continuo de vídeo es el
1o
protocolo H.239.
Sin embargo, ambas soluciones se diseñan para un tipo específico de
contenido (imágenes y vídeo, respectivamente), y funcionan mal cuando es
necesario tratar con otro tipo de contenido:
-las soluciones de transmisión de flujo continuo de vídeo están diseñadas
15
para transmisiones de vídeo y por tanto no pueden enviar imágenes
estáticas con el alto nivel de detalle requerido en determinadas aplicaciones,
tales como, por ejemplo, diagnósticos médicos remotos.
-Las soluciones de escritorio remoto tienen tasas de refresco bajas, lo que
las hace inapropiadas para tratar alimentaciones de vídeo.
20
Estas limitaciones son especialmente problemáticas a la hora de
tratar con contenido mixto (por ejemplo una pantalla que comprende tanto
vídeos como imágenes que permanecen estáticas durante periodos de
tiempo más largos), ya que la elección de cualquiera de las opciones
anteriores siempre da como resultado una degradación o bien de la calidad
de las imágenes estáticas o bien de la tasa de refresco de alimentaciones de
vídeo.
5
SUMARIO DE LA INVENCIÓN
La presente invención soluciona los problemas anteriormente
mencionados dando a conocer un procedimiento de transmisión de
contenido visual que diferencia contenido estático (por ejemplo, imágenes
fijas, o imágenes con pocos cambios a lo largo del tiempo) de contenido
1o
dinámico (tal como vídeo) y transmite cada uno usando una técnica
diferente. De este modo, la calidad del contenido estático se optimiza sin
aumentar el ancho de banda requerido, y al mismo tiempo, los vídeos se
transmiten con una calidad y tasa de refresco apropiada.
En un primer aspecto de la presente invención, se da a conocer un
15
procedimiento de transmisión de contenido visual a través de una red de
comunicación, comprendiendo el procedimiento:
-detectar qué parte o partes del contenido visual corresponden a
contenido estático (tal como imágenes), y qué parte corresponde a
contenido dinámico (tal como vídeos).
20
-Transmitir cada tipo de contenido (estático y dinámico) usando
diferentes protocolos, preferiblemente protocolos de escritorio remoto para
contenido estático y transmisión de flujo continuo de vídeo para contenido
dinámico.
La detección de contenido estático y dinámico se realiza
preferiblemente de forma periódica, con el fin de detectar alteraciones en
dicho contenido (tales como iniciación y finalización de vídeos, nuevas
aplicaciones visualizadas en una pantalla, etc.).
5
Preferiblemente, la etapa de detectar contenido estático y contenido
dinámico comprende además
(i) detectar operaciones de extracción realizadas por un sistema operativo.
Según dos opciones preferidas, esta etapa se realiza monitorizando
llamadas de sistema, o usando controladores de vídeo de espejo.
1o
(ii) Determinar qué zonas de la trama que va a visualizarse de forma
remota se ven afectadas por dichas operaciones de extracción.
Preferiblemente, el procedimiento considera zonas rectangulares, que
pueden analizarse y manipularse de manera más sencilla y rápida.
(iii) Para cada una de las zonas localizadas en la etapa (ii), el
15
procedimiento determina si dicha zona contiene contenido estático o
dinámico. Preferiblemente, el procedimiento tiene en cuenta una clase de
objeto del objeto extraído por las operaciones de extracción detectadas, ya
que algunas clases tienen mayor probabilidad que otras de dar como
resultado contenido dinámico o estático. Además, preferiblemente esta
20
etapa se realiza calculando una proporción o puntuación que indica una
medida del dinamismo del contenido de dicha zona. La proporción
calculada se compara entonces con un umbral con el fin de diferenciar
contenido estático y dinámico. Esta proporción tiene en cuenta
preferiblemente la totalidad o un subconjunto de los siguientes aspectos de
la zona y las operaciones de extracción en la misma: -número de operaciones de extracción realizadas en la zona, y tamaño de la parte de dicha zona afectada por las operaciones.
5 -Operaciones de generación de texto (es decir, operaciones realizadas para visualizar texto) realizadas en la zona.
-
Tasa de refresco.
-
Proporción de aspecto.
-
Resultados previos de la proporción de dinamismo.
10 En otro aspecto de la presente invención, también se da a conocer un programa informático que realiza el procedimiento descrito.
Por tanto, la invención dada a conocer permite transmitir contenido
visual mixto (que contiene tanto vídeos como imágenes) a través de una
red de comunicación en tiempo real sin sacrificar la calidad ni de contenido 15 estático ni de contenido dinámico. Éstas y otras ventajas serán evidentes a la luz de la descripción detallada de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Para ayudar a entender las características de la invención, según una realización práctica preferida de la misma y para complementar esta 20 descripción, se adjuntan las siguientes figuras como parte integrante de la
misma, teniendo un carácter ilustrativo y no limitativo:
la figura 1 muestra una representación esquemática del
procedimiento de la invención según una de sus realizaciones preferidas.
La figura 2 presenta un ejemplo de aplicación del procedimiento en el
campo de la telemedicina.
5
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
Los contenidos definidos en esta descripción detallada se
proporcionan para ayudar a una comprensión exhaustiva de la invención. En
consecuencia, los expertos en la técnica reconocerán que pueden hacerse
cambios, variaciones y modificaciones de las realizaciones descritas en el
1o
presente documento sin apartarse del alcance y espíritu de la invención.
Obsérvese que en este texto, el término "comprende" y sus
derivaciones (tales como "que comprende", "comprendiendo", etc.) no deben
entenderse en un sentido excluyente, es decir, estos términos no deben
interpretarse como que excluyen la posibilidad de que lo que se describe y
15
define pueda incluir elementos, etapas, etc. adicionales.
Además, el término "contenido visual" se refiere a cualquier
información susceptible de ser mostrada en una pantalla o cualquier otro
sistema de visualización, incluso si no hay ninguna visualización activa que
muestre dicha información. Un ejemplo de contenido visual es la totalidad de
20
información mostrada por la pantalla de un ordenador, aunque también la
información mostrada en una región dada de dicha pantalla, tal como la
ventana de una aplicación, o dicha información codificada en el ordenador
cuando no hay ninguna pantalla que la presente. Finalmente, los términos
"extraer" y "operaciones de extracción" se refieren a la acción (o acciones)
realizada por un ordenador o cualquier otro hardware programable con el fin
de presentar una información sobre una pantalla o cualquier otro sistema de
visualización.
5
La figura 1 muestra una representación esquemática de una
realización particular del procedimiento de la invención. Según se describe
además a continuación en el presente documento, las operaciones de
extracción 1 se usan para extraer 2 datos estadísticos 3 acerca de las zonas
en las que tienen lugar dichas operaciones de extracción 1 . Los datos
1o
estadísticos 3 se usan para detectar 4 objetos estáticos 5 y objetos
dinámicos 6. El contenido estático 5 se transmite entonces usando un primer
modo de transmisión 7, tal como protocolos de escritorio remoto, y se
transmite contenido dinámico 6 usando un segundo modo de transmisión 8,
tal como un vídeo de transmisión de flujo continuo.
15
EXTRACCIÓN DE DATOS ESTADÍSTICOS
Las operaciones de extracción se analizan y se almacenan con el fin
de obtener información estadística simple acerca de los comportamientos de
extracción de las diferentes aplicaciones en el ordenador. Para cada
20
operación de extracción se extrae la siguiente información:
-un rectángulo que define los límites en la pantalla en el que se realiza la
operación de extracción.
-Clase de operación de extracción, que indica si la operación corresponde a
una visualización de imágenes o a la generación de texto.
-El objeto que ha emitido la operación de extracción.
Estos datos estadísticos acerca de las operaciones de extracción
pueden obtenerse mediante la solución usando diferentes mecanismos,
5
proporcionados habitualmente por el sistema operativo tales como:
-controladores de vídeo de espejo: controladores de vídeo instalados en el
sistema operativo que clonan todas las operaciones de extracción realizadas
por las aplicaciones que están ejecutándose en una memoria interna a los
que puede acceder cualquier otra aplicación para obtener los datos
1o
estadísticos de extracción. Estos controladores proporcionan la información
de extracción de manera instantánea sin retardo.
-Monitorización de llamadas del sistema operativo: se crea un monitor de
sistema operativo para detectar llamadas de sistema asociadas con la
operación de extracción. Este procedimiento es habitualmente más lento ya
15
que las llamadas del sistema operativo necesitan leer el contenido gráfico de
la memoria. Éste es un procedimiento general usado por soluciones sin un
mecanismo específico para analizar la información gráfica de las
aplicaciones.
Independientemente del mecanismo de detección de operaciones de
20
extracción usado, dicho mecanismo puede funcionar o bien sobre la
totalidad del contenido de vídeo (por ejemplo la totalidad de la pantalla), o
bien sólo sobre el contenido asociado con una aplicación activa. Si el
mecanismo está funcionando con toda la pantalla, se usan todos los datos
estadísticos. Si la solución sólo funciona con la aplicación activa, se descarta
parte de los datos estadísticos usando esta regla:
-si la intersección del rectángulo que define los límites de la operación de
extracción y el rectángulo que define los límites de las aplicaciones activas
5
es una intersección vacía, se descarta la operación de extracción.
Obsérvese que el resto de esta descripción se refiere a una
"aplicación activa", aunque debe entenderse que todas las explicaciones son
igualmente válidas para el caso en el que la información visual que va a
transmitirse comprende una pluralidad de aplicaciones, tal como en el caso
1o
en el que se transmite toda la visualización de un ordenador.
DETECCIÓN DE OBJETOS DINÁMICOS
Los datos estadísticos extraídos se usan en un proceso de detección
para determinar las partes dinámicas de la aplicación activa:
15
1. La aplicación activa se analiza y se divide en objetos (tales como botones,
etiquetas, cuadros ... ). Para cada objeto visual, se almacenan los siguientes
atributos:
a. rectángulo que define los límites del objeto.
20
b. Clase de objeto: nombre que describe el tipo de objeto en el sistema
operativo.
c. Cualquier otro atributo descriptivo del objeto asignado por el sistema
operativo.
2. Se realiza una primera discriminación de los objetos según su clase:
-los objetos cuyas clases de objeto tienen habitualmente contenido
dinámico (según una lista previamente definida que se construye de forma
empírica), se detectan directamente como contenido dinámico.
5
-Los objetos cuyas clases de objeto nunca tienen contenido dinámico (por
ejemplo, controles estáticos tales como botones, cuadros de lista, editores
de texto, barras de desplazamiento, etc.).
-Adicionalmente, los objetos que son más pequeños que una dimensión
previamente definida también se detectan como contenido estático.
1o
3. A continuación, todos los datos estadísticos acerca de las operaciones de
extracción se procesan para asignar una puntuación a cada objeto. Para
cada operación de extracción, se realizan las siguientes etapas:
a. si el objeto que ha realizado la operación de extracción es desconocido, el
rectángulo que define los límites de la operación de extracción se usa para
15
seleccionar el objeto que realizó la operación de extracción. En un ejemplo,
el objeto ubicado en el centro del rectángulo se asigna a la operación de
extracción.
b. Cada objeto se asigna a un contador de extracción, que se aumenta cada
vez que una operación de extracción se asigna al objeto.
20
c. Cada objeto tiene un contador de densidad que contiene el tamaño total
de las operaciones de extracción. Para cada operación de extracción, el
tamaño de la operación es la zona del rectángulo que define los límites de la
operación. El valor de este contador de densidad es la adición de la zona de
todas las operaciones de extracción asignadas al objeto.
d. Si la clase de la operación de extracción es generación de texto, se añade
una penalización al objeto asignado a la operación, ya que es muy poco
probable que el contenido dinámico realice operaciones de generación de
5
texto.
4. Cuando están procesados todos los datos estadísticos, se calcula una
puntuación para cada objeto de la ventana activa. En el presente documento
se presenta una implementación preferida de dicha puntuación (y su
umbral), aunque en otras realizaciones particulares pueden variarse los
1o
pesos y efectos de los factores considerados, así como de los propios
factores seleccionados.
a. La puntuación se calcula inicialmente con el contador de extracción y el
contador de densidad, según esta expresión:
a ·contador densidad
fJ ·contador_ extracción
15
donde a y ~ son parámetros para determinar los pesos de los contadores
(en una realización ejemplar, de ambos (habitualmente tanto a como ~ son
igual a 1). Si el objeto tiene una penalización como resultado del
procesamiento de datos estadísticos previos, la puntuación es directamente
O.
20
b. Si el objeto se detecta como un objeto dinámico en iteraciones previas de
la solución, la puntuación se multiplica por el número de veces consecutivas
que el objeto se ha detectado como dinámico. De este modo, se premian los
objetos conocidos como dinámicos.
c. Se define un umbral para cada objeto para determinar si el objeto tiene dinamismo suficiente. Este umbral depende de la zona del objeto (anchura X altura), según esta expresión:
z·zona_ objeto
5 donde x es un factor de ponderación que permite ajustar la importancia del dinamismo (por ejemplo 1/4). Si la puntuación del objeto es inferior al umbral, el objeto se descarta y se detecta como contenido estático.
d. Los objetos dinámicos deben tener una tasa de refresco similar al contenido de vídeo. El contador de extracción y la tasa de repetición del
1o proceso de detección (por ejemplo una vez por segundo) se usan para calcular la tasa de refresco del objeto. Si la tasa de refresco es inferior a un valor fijo (por ejemplo 5 tramas por segundo) el objeto se descarta y se detecta como objeto estático. La tasa de refresco se calcula con la expresión: contador extracción
frecuencia _repetición
e. Adicionalmente, la puntuación de los objetos no descartados se penaliza
o se premia según el aspecto visual del objeto: -si la proporción de aspecto (anchura/ altura) es similar a las proporciones de aspecto de vídeo más comunes (16:9, 4:3 ó 1:1) la puntuación se
20 aumenta. -Otras propiedades visuales del objeto proporcionado para el sistema operativo también pueden compararse con propiedades comunes de objetos dinámicos para aumentar o reducir su puntuación. Estas propiedades
dependen del sistema operativo, siendo CS_ VREDRAW y CS_HREDRAWN dos ejemplos de propiedades de sistemas Windows que son válidos para esta tarea.
5 1o
6. Finalmente, todos los objetos que no se han descartado en este proceso se detectan como objeto dinámico y tienen una puntuación que indica el dinamismo del objeto. Obsérvese que el proceso de detección es un proceso iterativo que analiza constantemente los objetos de la aplicación activa, buscando contenido dinámico.
15
SELECCIÓN DEL MEJOR OBJETO DINÁMICO Para reducir la cantidad de contenido dinámico que va a enviarse y para centrar el proceso en el objeto dinámico más importante, es posible seleccionar sólo como contenido dinámico el objeto con la mayor puntuación. Como resultado de esta selección, los demás objetos dinámicos se detectan entonces como objetos estáticos.
20
ACCESO DIRECTO A IMÁGENES Y TRANSMISIÓN Tras la detección de contenido estático y dinámico, se usan diferentes procedimientos para su transmisión. El contenido dinámico se capta como una imagen que va a usarse como una trama de vídeo y se codifica usando cualquier códec de vídeo
(como H.264, VC-1 ... ) y se envía usando cualquier protocolo de transmisión
de flujo continuo de vídeo (como RTP). Debido a la tasa de transmisión de
tramas común de vídeos (1 0-25 tramas por segundo), la captación del
contenido dinámico como imagen debe ser rápida. Esto se consigue
5
obteniendo acceso directo a una memoria intermedia (buffer) con toda la
imagen de pantalla a través del controlador de vídeo anteriormente
mencionado. La imagen de pantalla se recorta usando el rectángulo que
define los límites del objeto dinámico para obtener la imagen del objeto
dinámico. Puede usarse cualquier algoritmo de transmisión de flujo continuo
1o
de vídeo.
El contenido estático se transfiere usando un algoritmo de escritorio
remoto para mantener su detalle, aprovechando de este modo su baja tasa
de refresco. Las partes del contenido estático que han cambiado se captan
como imágenes y se envían como imagen comprimida (habitualmente
15
compresión JPEG, aunque es posible cualquier otra). La información
adicional, como la posición de cada parte modificada, se envía para permitir
el proceso de reconstrucción en el lado del receptor. La primera vez que se
capta el contenido, se envía todo el contenido. En este caso, también se
accede a una memoria intermedia con toda la imagen de pantalla a través
20
del controlador de vídeo. Para evitar enviar información duplicada, el
contenido dinámico puede recortarse cuando se envía contenido estático.
La tasa de refresco de transmisión de flujo continuo de vídeo y los
algoritmos de escritorio remoto son independientes de la tasa de iteración
del proceso de detección. La detección se realiza habitualmente cada
segundo, mientras que la tasa de transmisión de vídeo es aproximadamente
de 70-100 milisegundos (1 0-15 tramas por segundo) y la tasa de escritorio
remoto es aproximadamente de 1 00-250 milisegundos.
5
Obsérvese que el procedimiento descrito es igualmente válido para
transmisiones a un único receptor o a múltiples receptores, ya que tanto la
transmisión de flujo continuo de vídeo como el escritorio remoto soportan
transmisiones de punto a punto y multidifusión.
El receptor de la información puede visualizar el contenido compartido
1o
usando los mecanismos apropiados para decodificar la diferente información
que recibe:
-transmisión de flujo continuo de vídeo: el contenido dinámico transmitido
usando transmisión de flujo continuo de vídeo, puede visualizarse usando el
reproductor de flujo continuo de vídeo correspondiente. Como resultado, el
15
receptor puede visualizar el contenido dinámico como un vídeo real.
-Escritorio remoto: el contenido estático transmitido usando algoritmos de
escritorio remoto puede visualizarse extrayendo las imágenes recibidas en
sus ubicaciones correspondientes. Como resultado, el receptor puede
visualizar el contenido estático como una imagen que se actualiza cada vez
20
que cambia.
En la figura 2, se aplica una realización particular del procedimiento a
una aplicación 9 de diagnóstico remoto. Al aplicar las etapas descritas, el
contenido visual de la aplicación se divide en contenido dinámico y
contenido estático. A continuación, las tramas 1 O del contenido dinámico, y las imágenes 11 que han cambiado se transmiten usando los protocolos correspondientes.
5 Habiendo descrito la invención como antecede, se declara como propiedad lo contenido en las siguientes
20

Claims (11)

  1. REIVINDICACIONES
    1.
    Procedimiento de transmisión de contenido visual a través de una
    red de comunicación, comprendiendo el procedimiento:
    -detectar
    (4) contenido estático (5) y contenido dinámico (6) en el
    5
    contenido visual;
    -transmitir el contenido estático (5) con un primer modo de transmisión (7),
    y transmitir el contenido dinámico (6) con un segundo modo de transmisión
    (8).
    1o
    2. Procedimiento según la reivindicación 1, en el que la etapa de
    detectar (4)
    contenido estático (5) y contenido dinámico (6) se realiza
    periódicamente.
  2. 3.
    Procedimiento según cualquiera de las reivindicaciones anteriores,
    15
    en el que la etapa de detectar (4) contenido estático (5) y contenido
    dinámico (6) comprende además:
    (i)
    detectar operaciones de extracción (1) realizadas por un sistema
    operativo;
    (ii)
    localizar zonas en las que se realizan dichas operaciones de
    20
    extracción (1 );
    (iii)
    determinar si cada zona contiene contenido estático (5) o contenido
    dinámico (6);
  3. 4. Procedimiento según la reivindicación 3, en el que la etapa (i)
    comprende además monitorizar llamadas de sistema del sistema 5 operativo.
  4. 5. Procedimiento según la reivindicación 3, en el que la etapa (i) comprende además usar controladores de vídeo de espejo.
  5. 6. Procedimiento según cualquiera de las reivindicaciones 3 a 5, en el 1o que las zonas tienen forma rectangular.
  6. 7. Procedimiento según cualquiera de las reivindicaciones 3 a 6, en el que la etapa (iii) comprende además determinar una clase de objeto de un objeto extraído en una zona.
  7. 8. Procedimiento según cualquiera de las reivindicaciones 3 a 7, en el que la etapa (iii) comprende además:
    -
    calcular, para cada zona, una proporción que mide una probabilidad de que la zona tenga contenido (6) dinámico, calculándose la proporción 20 usando datos (3) estadísticos de dicha zona;
    -y comparar la proporción calculada con un umbral.
  8. 9. Procedimiento según la reivindicación 8, en el que la proporción de dinamismo de una zona considera el número de veces que se realiza una operación de extracción (1) en dicha zona y el tamaño de una parte modificada por operaciones de extracción (1 ).
    1O. Procedimiento según cualquiera de las reivindicaciones 8 y 9, en el que la proporción de una zona recibe una penalización si se detecta una operación de generación de texto en la zona.
    10 11. Procedimiento según cualquiera de las reivindicaciones 8 a 1 O, en el que la proporción de una zona considera una tasa de refresco de la zona.
  9. 12. Procedimiento según cualquiera de las reivindicaciones 8 a 11, en el
    que la proporción de una zona considera una proporción de aspecto de la 15 zona.
  10. 13.
    Procedimiento según cualquiera de las reivindicaciones 8 a 13, en el que la proporción de una zona considera valores previos de la proporción de la zona.
  11. 14.
    Procedimiento según cualquiera de las reivindicaciones anteriores,
    en
    el que el primer modo de transmisión (7) es un procedimiento de
    transmisión de flujo continuo de vídeo y el segundo modo de transmisión
    (8) es un procedimiento de escritorio remoto.
    5
    15. Un programa informático que comprende medios de código de
    programa informático adaptados para realizar las etapas del procedimiento
    según cualquiera de las reivindicaciones 1 a 14, cuando dicho programa se
    ejecuta en un ordenador, un procesador de señal digital, una agrupación
    de
    puertas programable en campo un circuito integrado de aplicación
    1o
    específica, un microprocesador, un microcontrolador o cualquier otra forma
    de hardware programable.
ES201030552A 2010-04-16 2010-04-16 Procedimiento de transmisión de contenido visual. Withdrawn - After Issue ES2390298B1 (es)

Priority Applications (8)

Application Number Priority Date Filing Date Title
ES201030552A ES2390298B1 (es) 2010-04-16 2010-04-16 Procedimiento de transmisión de contenido visual.
PCT/EP2010/059042 WO2011127991A1 (en) 2010-04-16 2010-06-25 Method of transmission of visual content
PE2012002031A PE20130928A1 (es) 2010-04-16 2010-06-25 Procedimiento de transmision de contenido visual
US13/641,482 US20130036235A1 (en) 2010-04-16 2010-06-25 Method of transmission of visual content
EP10729703A EP2559242A1 (en) 2010-04-16 2010-06-25 Method of transmission of visual content
BR112012026528A BR112012026528A2 (pt) 2010-04-16 2010-06-25 procedimento de transmissão de conteúdo visual
ARP110101283A AR080906A1 (es) 2010-04-16 2011-04-14 Procedimiento de transmision de contenido visual
CL2012002888A CL2012002888A1 (es) 2010-04-16 2012-10-16 Procedimiento de transmision de contenido visual a traves de una red de comunicacion que localiza contenido estatico y dinamico y transmite cada tipo de contenido de manera diferente para optimizar la tasa de transmision y la calidad del contenido recibido en el otro extremo de la red de comunicacion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201030552A ES2390298B1 (es) 2010-04-16 2010-04-16 Procedimiento de transmisión de contenido visual.

Publications (2)

Publication Number Publication Date
ES2390298A1 true ES2390298A1 (es) 2012-11-08
ES2390298B1 ES2390298B1 (es) 2013-11-11

Family

ID=42752440

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201030552A Withdrawn - After Issue ES2390298B1 (es) 2010-04-16 2010-04-16 Procedimiento de transmisión de contenido visual.

Country Status (8)

Country Link
US (1) US20130036235A1 (es)
EP (1) EP2559242A1 (es)
AR (1) AR080906A1 (es)
BR (1) BR112012026528A2 (es)
CL (1) CL2012002888A1 (es)
ES (1) ES2390298B1 (es)
PE (1) PE20130928A1 (es)
WO (1) WO2011127991A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5678743B2 (ja) * 2011-03-14 2015-03-04 富士通株式会社 情報処理装置、画像送信プログラム、画像送信方法および画像表示方法
US8924507B2 (en) * 2011-09-02 2014-12-30 Microsoft Corporation Cross-frame progressive spoiling support for reduced network bandwidth usage
EP2648390B1 (de) 2012-04-04 2017-03-08 Siemens Healthcare GmbH Entfernte Steuerung einer diagnostischen Darstellungseinrichtung über Remote-Desktop Verbindungen
US20130268621A1 (en) * 2012-04-08 2013-10-10 Broadcom Corporation Transmission of video utilizing static content information from video source
TWI536824B (zh) * 2012-05-04 2016-06-01 奇揚網科股份有限公司 視訊編碼系統、方法以及電腦可讀取之媒體
TWI482470B (zh) * 2013-02-23 2015-04-21 Wistron Corp 數位看板播放系統、即時監看系統及其即時監看之方法
US8977945B2 (en) 2013-03-12 2015-03-10 Intel Corporation Techniques for transmitting video content to a wirelessly docked device having a display
WO2016118848A1 (en) * 2015-01-22 2016-07-28 Clearstream. Tv, Inc. Video advertising system
RU2728766C2 (ru) * 2015-11-09 2020-07-31 Томсон Лайсенсинг Способ и устройство для адаптации видеоконтента, декодированного из элементарных потоков, под характеристики устройства отображения

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050197804A1 (en) * 2004-03-08 2005-09-08 Reeves Simon J. System and method for continuously recording user actions and displayed images
US20060053163A1 (en) * 2004-09-03 2006-03-09 International Business Machines Corporation Hierarchical space partitioning for scalable data dissemination in large-scale distributed interactive applications
EP1635581A1 (en) * 2003-06-19 2006-03-15 Matsushita Electric Industrial Co., Ltd. Transmitter apparatus, image processing system, image processing method, program, and recording medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6512520B1 (en) * 1997-07-31 2003-01-28 Matsushita Electric Industrial Co., Ltd. Apparatus for and method of transmitting and receiving data streams representing 3-dimensional virtual space
US6507848B1 (en) * 1999-03-30 2003-01-14 Adobe Systems Incorporated Embedded dynamic content in a static file format
US6675387B1 (en) * 1999-04-06 2004-01-06 Liberate Technologies System and methods for preparing multimedia data using digital video data compression
NZ520986A (en) * 2002-08-23 2005-04-29 Ectus Ltd Audiovisual media encoding system
US7911536B2 (en) * 2004-09-23 2011-03-22 Intel Corporation Screen filled display of digital video content
US20060090123A1 (en) * 2004-10-26 2006-04-27 Fuji Xerox Co., Ltd. System and method for acquisition and storage of presentations
US8112513B2 (en) * 2005-11-30 2012-02-07 Microsoft Corporation Multi-user display proxy server
US20080055318A1 (en) * 2006-08-31 2008-03-06 Glen David I J Dynamic frame rate adjustment
JP2009071809A (ja) * 2007-08-20 2009-04-02 Panasonic Corp 映像表示装置ならびに補間画像生成回路および方法
US20100005406A1 (en) * 2008-07-02 2010-01-07 Moresteam.Com Llc Method of presenting information
US8219759B2 (en) * 2009-03-16 2012-07-10 Novell, Inc. Adaptive display caching
US8392596B2 (en) * 2009-05-26 2013-03-05 Red Hat Israel, Ltd. Methods for detecting and handling video and video-like content in remote display system
US8891939B2 (en) * 2009-12-22 2014-11-18 Citrix Systems, Inc. Systems and methods for video-aware screen capture and compression

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1635581A1 (en) * 2003-06-19 2006-03-15 Matsushita Electric Industrial Co., Ltd. Transmitter apparatus, image processing system, image processing method, program, and recording medium
US20050197804A1 (en) * 2004-03-08 2005-09-08 Reeves Simon J. System and method for continuously recording user actions and displayed images
US20060053163A1 (en) * 2004-09-03 2006-03-09 International Business Machines Corporation Hierarchical space partitioning for scalable data dissemination in large-scale distributed interactive applications

Also Published As

Publication number Publication date
BR112012026528A2 (pt) 2017-10-31
ES2390298B1 (es) 2013-11-11
PE20130928A1 (es) 2013-09-26
AR080906A1 (es) 2012-05-16
EP2559242A1 (en) 2013-02-20
WO2011127991A1 (en) 2011-10-20
CL2012002888A1 (es) 2013-01-18
US20130036235A1 (en) 2013-02-07

Similar Documents

Publication Publication Date Title
ES2390298B1 (es) Procedimiento de transmisión de contenido visual.
US11659098B2 (en) Information reminding method and apparatus, and electronic terminal
JP2022529300A (ja) 違反イベント検出方法及び装置、電子デバイス並びに記憶媒体
US9585565B2 (en) System, method, and software for automating physiologic displays and alerts with trending heuristics
EP2449550B1 (en) Method and apparatus for providing mobile device interoperability
EP2768216A1 (en) Video play method, terminal and system
CN107483976A (zh) 直播管控方法、装置及电子设备
US20150113369A1 (en) Image transitioning and error detection for online presentations
CN107193653B (zh) 带宽资源分配方法、装置及存储介质
CN104301528B (zh) 显示信息的方法及装置
US10110541B2 (en) Optimization of posting in social networks using content delivery preferences comprising hashtags that correspond to geography and a content type associated with a desired time window
CN111277848B (zh) 直播间互动消息的处理方法、装置、电子设备及存储介质
KR102358002B1 (ko) 콘텐츠 전송 제어 방법 및 이를 지원하는 전자 장치
CN108021492B (zh) 一种告警合并方法及设备
US20120005301A1 (en) Sharing an image
WO2016110752A1 (en) Control method and control apparatus for electronic equipment and electronic equipment
US10972706B2 (en) Surveillance system, surveillance method, and program
US9491220B2 (en) Systems and methods for adapting mobile multimedia content delivery service
US9633253B2 (en) Moving body appearance prediction information processing system, and method
US10229192B2 (en) Hierarchical de-duplication techniques for tracking fitness metrics
CN109287139B (zh) 数据传输方法及装置
CN105516746B (zh) 视频预下载系统及其方法
CN113254834A (zh) 页面内容加载方法、装置、电子设备及可读存储介质
KR101822310B1 (ko) 컨텐츠 표시 방법 및 장치
CN104038736A (zh) 视频数据动态传输方法

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2390298

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20131111

FA2A Application withdrawn

Effective date: 20140320