ES2390298A1 - Procedimiento de transmisión de contenido visual. - Google Patents
Procedimiento de transmisión de contenido visual. Download PDFInfo
- Publication number
- ES2390298A1 ES2390298A1 ES201030552A ES201030552A ES2390298A1 ES 2390298 A1 ES2390298 A1 ES 2390298A1 ES 201030552 A ES201030552 A ES 201030552A ES 201030552 A ES201030552 A ES 201030552A ES 2390298 A1 ES2390298 A1 ES 2390298A1
- Authority
- ES
- Spain
- Prior art keywords
- content
- zone
- dynamic
- static
- proportion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/80—Responding to QoS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/762—Media network packet handling at the source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/10—Special adaptations of display systems for operation with variable images
- G09G2320/103—Detection of image changes, e.g. determination of an index representative of the image change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2350/00—Solving problems of bandwidth in display systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Discrete Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Procedimiento de transmisión de contenido visual a través de una red de comunicación que localiza contenido estático (5) y contenido dinámico (6), y transmite cada tipo de contenido de manera diferente para optimizar la tasa de transmisión y la calidad del contenido recibido en el otro extremo de la red de comunicación.
Description
CAMPO DE LA INVENCIÓN
5 La presente invención tiene su aplicación dentro del sector de las telecomunicaciones y, especialmente en el campo de los sistemas para compartir contenido.
10 Compartir en tiempo real información visual a través de redes de telecomunicación es una técnica ampliamente usada con aplicaciones en diversos campos, tales como gestión de sistema remoto, teleconferencias
o diagnósticos médicos remotos. Por ejemplo, permite a los usuarios recibir alimentación de vídeo en directo desde una ubicación remota para
15 monitorizar actividades o interactuar con otros usuarios, o recibir en un primer ordenador información que normalmente se visualizaría en el monitor de un segundo ordenador, permitiendo así al usuario controlar de forma remota dicho segundo ordenador.
Hay dos maneras principales de compartir información visual en 20 tiempo real:
- -
- Soluciones de escritorio remoto. Estas técnicas tratan toda la información visual que va a enviarse como una imagen estática individual. La imagen completa se transmite al comienzo de la transmisión, y cuando cambia una
- parte o la totalidad de dicha imagen, la imagen resultante (o sección de
- imagen) se transmite de nuevo. Protocolos como RDP (Remate Desktop
- Pro toco/, protocolo de escritorio remoto) están relacionados con esta
- técnica.
- 5
- -Soluciones de transmisión de flujo continuo de vídeo. En este caso, todo el
- contenido se procesa como una trama de vídeo y se usan tecnologías de
- codificación de vídeo para enviar el vídeo resultante. El ancho de banda
- requerido puede reducirse usando algoritmos de compresión de vídeo. Un
- ejemplo de protocolo de transmisión de flujo continuo de vídeo es el
- 1o
- protocolo H.239.
- Sin embargo, ambas soluciones se diseñan para un tipo específico de
- contenido (imágenes y vídeo, respectivamente), y funcionan mal cuando es
- necesario tratar con otro tipo de contenido:
- -las soluciones de transmisión de flujo continuo de vídeo están diseñadas
- 15
- para transmisiones de vídeo y por tanto no pueden enviar imágenes
- estáticas con el alto nivel de detalle requerido en determinadas aplicaciones,
- tales como, por ejemplo, diagnósticos médicos remotos.
- -Las soluciones de escritorio remoto tienen tasas de refresco bajas, lo que
- las hace inapropiadas para tratar alimentaciones de vídeo.
- 20
- Estas limitaciones son especialmente problemáticas a la hora de
- tratar con contenido mixto (por ejemplo una pantalla que comprende tanto
- vídeos como imágenes que permanecen estáticas durante periodos de
- tiempo más largos), ya que la elección de cualquiera de las opciones
- anteriores siempre da como resultado una degradación o bien de la calidad
- de las imágenes estáticas o bien de la tasa de refresco de alimentaciones de
- vídeo.
- 5
- SUMARIO DE LA INVENCIÓN
- La presente invención soluciona los problemas anteriormente
- mencionados dando a conocer un procedimiento de transmisión de
- contenido visual que diferencia contenido estático (por ejemplo, imágenes
- fijas, o imágenes con pocos cambios a lo largo del tiempo) de contenido
- 1o
- dinámico (tal como vídeo) y transmite cada uno usando una técnica
- diferente. De este modo, la calidad del contenido estático se optimiza sin
- aumentar el ancho de banda requerido, y al mismo tiempo, los vídeos se
- transmiten con una calidad y tasa de refresco apropiada.
- En un primer aspecto de la presente invención, se da a conocer un
- 15
- procedimiento de transmisión de contenido visual a través de una red de
- comunicación, comprendiendo el procedimiento:
- -detectar qué parte o partes del contenido visual corresponden a
- contenido estático (tal como imágenes), y qué parte corresponde a
- contenido dinámico (tal como vídeos).
- 20
- -Transmitir cada tipo de contenido (estático y dinámico) usando
- diferentes protocolos, preferiblemente protocolos de escritorio remoto para
- contenido estático y transmisión de flujo continuo de vídeo para contenido
- dinámico.
- La detección de contenido estático y dinámico se realiza
- preferiblemente de forma periódica, con el fin de detectar alteraciones en
- dicho contenido (tales como iniciación y finalización de vídeos, nuevas
- aplicaciones visualizadas en una pantalla, etc.).
- 5
- Preferiblemente, la etapa de detectar contenido estático y contenido
- dinámico comprende además
- (i) detectar operaciones de extracción realizadas por un sistema operativo.
- Según dos opciones preferidas, esta etapa se realiza monitorizando
- llamadas de sistema, o usando controladores de vídeo de espejo.
- 1o
- (ii) Determinar qué zonas de la trama que va a visualizarse de forma
- remota se ven afectadas por dichas operaciones de extracción.
- Preferiblemente, el procedimiento considera zonas rectangulares, que
- pueden analizarse y manipularse de manera más sencilla y rápida.
- (iii) Para cada una de las zonas localizadas en la etapa (ii), el
- 15
- procedimiento determina si dicha zona contiene contenido estático o
- dinámico. Preferiblemente, el procedimiento tiene en cuenta una clase de
- objeto del objeto extraído por las operaciones de extracción detectadas, ya
- que algunas clases tienen mayor probabilidad que otras de dar como
- resultado contenido dinámico o estático. Además, preferiblemente esta
- 20
- etapa se realiza calculando una proporción o puntuación que indica una
- medida del dinamismo del contenido de dicha zona. La proporción
- calculada se compara entonces con un umbral con el fin de diferenciar
- contenido estático y dinámico. Esta proporción tiene en cuenta
preferiblemente la totalidad o un subconjunto de los siguientes aspectos de
la zona y las operaciones de extracción en la misma: -número de operaciones de extracción realizadas en la zona, y tamaño de la parte de dicha zona afectada por las operaciones.
5 -Operaciones de generación de texto (es decir, operaciones realizadas para visualizar texto) realizadas en la zona.
- -
- Tasa de refresco.
- -
- Proporción de aspecto.
- -
- Resultados previos de la proporción de dinamismo.
10 En otro aspecto de la presente invención, también se da a conocer un programa informático que realiza el procedimiento descrito.
Por tanto, la invención dada a conocer permite transmitir contenido
visual mixto (que contiene tanto vídeos como imágenes) a través de una
red de comunicación en tiempo real sin sacrificar la calidad ni de contenido 15 estático ni de contenido dinámico. Éstas y otras ventajas serán evidentes a la luz de la descripción detallada de la invención.
Para ayudar a entender las características de la invención, según una realización práctica preferida de la misma y para complementar esta 20 descripción, se adjuntan las siguientes figuras como parte integrante de la
misma, teniendo un carácter ilustrativo y no limitativo:
la figura 1 muestra una representación esquemática del
- procedimiento de la invención según una de sus realizaciones preferidas.
- La figura 2 presenta un ejemplo de aplicación del procedimiento en el
- campo de la telemedicina.
- 5
- DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
- Los contenidos definidos en esta descripción detallada se
- proporcionan para ayudar a una comprensión exhaustiva de la invención. En
- consecuencia, los expertos en la técnica reconocerán que pueden hacerse
- cambios, variaciones y modificaciones de las realizaciones descritas en el
- 1o
- presente documento sin apartarse del alcance y espíritu de la invención.
- Obsérvese que en este texto, el término "comprende" y sus
- derivaciones (tales como "que comprende", "comprendiendo", etc.) no deben
- entenderse en un sentido excluyente, es decir, estos términos no deben
- interpretarse como que excluyen la posibilidad de que lo que se describe y
- 15
- define pueda incluir elementos, etapas, etc. adicionales.
- Además, el término "contenido visual" se refiere a cualquier
- información susceptible de ser mostrada en una pantalla o cualquier otro
- sistema de visualización, incluso si no hay ninguna visualización activa que
- muestre dicha información. Un ejemplo de contenido visual es la totalidad de
- 20
- información mostrada por la pantalla de un ordenador, aunque también la
- información mostrada en una región dada de dicha pantalla, tal como la
- ventana de una aplicación, o dicha información codificada en el ordenador
- cuando no hay ninguna pantalla que la presente. Finalmente, los términos
- "extraer" y "operaciones de extracción" se refieren a la acción (o acciones)
- realizada por un ordenador o cualquier otro hardware programable con el fin
- de presentar una información sobre una pantalla o cualquier otro sistema de
- visualización.
- 5
- La figura 1 muestra una representación esquemática de una
- realización particular del procedimiento de la invención. Según se describe
- además a continuación en el presente documento, las operaciones de
- extracción 1 se usan para extraer 2 datos estadísticos 3 acerca de las zonas
- en las que tienen lugar dichas operaciones de extracción 1 . Los datos
- 1o
- estadísticos 3 se usan para detectar 4 objetos estáticos 5 y objetos
- dinámicos 6. El contenido estático 5 se transmite entonces usando un primer
- modo de transmisión 7, tal como protocolos de escritorio remoto, y se
- transmite contenido dinámico 6 usando un segundo modo de transmisión 8,
- tal como un vídeo de transmisión de flujo continuo.
- 15
- EXTRACCIÓN DE DATOS ESTADÍSTICOS
- Las operaciones de extracción se analizan y se almacenan con el fin
- de obtener información estadística simple acerca de los comportamientos de
- extracción de las diferentes aplicaciones en el ordenador. Para cada
- 20
- operación de extracción se extrae la siguiente información:
- -un rectángulo que define los límites en la pantalla en el que se realiza la
- operación de extracción.
- -Clase de operación de extracción, que indica si la operación corresponde a
- una visualización de imágenes o a la generación de texto.
- -El objeto que ha emitido la operación de extracción.
- Estos datos estadísticos acerca de las operaciones de extracción
- pueden obtenerse mediante la solución usando diferentes mecanismos,
- 5
- proporcionados habitualmente por el sistema operativo tales como:
- -controladores de vídeo de espejo: controladores de vídeo instalados en el
- sistema operativo que clonan todas las operaciones de extracción realizadas
- por las aplicaciones que están ejecutándose en una memoria interna a los
- que puede acceder cualquier otra aplicación para obtener los datos
- 1o
- estadísticos de extracción. Estos controladores proporcionan la información
- de extracción de manera instantánea sin retardo.
- -Monitorización de llamadas del sistema operativo: se crea un monitor de
- sistema operativo para detectar llamadas de sistema asociadas con la
- operación de extracción. Este procedimiento es habitualmente más lento ya
- 15
- que las llamadas del sistema operativo necesitan leer el contenido gráfico de
- la memoria. Éste es un procedimiento general usado por soluciones sin un
- mecanismo específico para analizar la información gráfica de las
- aplicaciones.
- Independientemente del mecanismo de detección de operaciones de
- 20
- extracción usado, dicho mecanismo puede funcionar o bien sobre la
- totalidad del contenido de vídeo (por ejemplo la totalidad de la pantalla), o
- bien sólo sobre el contenido asociado con una aplicación activa. Si el
- mecanismo está funcionando con toda la pantalla, se usan todos los datos
- estadísticos. Si la solución sólo funciona con la aplicación activa, se descarta
- parte de los datos estadísticos usando esta regla:
- -si la intersección del rectángulo que define los límites de la operación de
- extracción y el rectángulo que define los límites de las aplicaciones activas
- 5
- es una intersección vacía, se descarta la operación de extracción.
- Obsérvese que el resto de esta descripción se refiere a una
- "aplicación activa", aunque debe entenderse que todas las explicaciones son
- igualmente válidas para el caso en el que la información visual que va a
- transmitirse comprende una pluralidad de aplicaciones, tal como en el caso
- 1o
- en el que se transmite toda la visualización de un ordenador.
- DETECCIÓN DE OBJETOS DINÁMICOS
- Los datos estadísticos extraídos se usan en un proceso de detección
- para determinar las partes dinámicas de la aplicación activa:
- 15
- 1. La aplicación activa se analiza y se divide en objetos (tales como botones,
- etiquetas, cuadros ... ). Para cada objeto visual, se almacenan los siguientes
- atributos:
- a. rectángulo que define los límites del objeto.
- 20
- b. Clase de objeto: nombre que describe el tipo de objeto en el sistema
- operativo.
- c. Cualquier otro atributo descriptivo del objeto asignado por el sistema
- operativo.
2. Se realiza una primera discriminación de los objetos según su clase:
- -los objetos cuyas clases de objeto tienen habitualmente contenido
- dinámico (según una lista previamente definida que se construye de forma
- empírica), se detectan directamente como contenido dinámico.
- 5
- -Los objetos cuyas clases de objeto nunca tienen contenido dinámico (por
- ejemplo, controles estáticos tales como botones, cuadros de lista, editores
- de texto, barras de desplazamiento, etc.).
- -Adicionalmente, los objetos que son más pequeños que una dimensión
- previamente definida también se detectan como contenido estático.
- 1o
- 3. A continuación, todos los datos estadísticos acerca de las operaciones de
- extracción se procesan para asignar una puntuación a cada objeto. Para
- cada operación de extracción, se realizan las siguientes etapas:
- a. si el objeto que ha realizado la operación de extracción es desconocido, el
- rectángulo que define los límites de la operación de extracción se usa para
- 15
- seleccionar el objeto que realizó la operación de extracción. En un ejemplo,
- el objeto ubicado en el centro del rectángulo se asigna a la operación de
- extracción.
- b. Cada objeto se asigna a un contador de extracción, que se aumenta cada
- vez que una operación de extracción se asigna al objeto.
- 20
- c. Cada objeto tiene un contador de densidad que contiene el tamaño total
- de las operaciones de extracción. Para cada operación de extracción, el
- tamaño de la operación es la zona del rectángulo que define los límites de la
- operación. El valor de este contador de densidad es la adición de la zona de
- todas las operaciones de extracción asignadas al objeto.
- d. Si la clase de la operación de extracción es generación de texto, se añade
- una penalización al objeto asignado a la operación, ya que es muy poco
- probable que el contenido dinámico realice operaciones de generación de
- 5
- texto.
- 4. Cuando están procesados todos los datos estadísticos, se calcula una
- puntuación para cada objeto de la ventana activa. En el presente documento
- se presenta una implementación preferida de dicha puntuación (y su
- umbral), aunque en otras realizaciones particulares pueden variarse los
- 1o
- pesos y efectos de los factores considerados, así como de los propios
- factores seleccionados.
- a. La puntuación se calcula inicialmente con el contador de extracción y el
- contador de densidad, según esta expresión:
- a ·contador densidad
- fJ ·contador_ extracción
- 15
- donde a y ~ son parámetros para determinar los pesos de los contadores
- (en una realización ejemplar, de ambos (habitualmente tanto a como ~ son
- igual a 1). Si el objeto tiene una penalización como resultado del
- procesamiento de datos estadísticos previos, la puntuación es directamente
- O.
- 20
- b. Si el objeto se detecta como un objeto dinámico en iteraciones previas de
- la solución, la puntuación se multiplica por el número de veces consecutivas
- que el objeto se ha detectado como dinámico. De este modo, se premian los
- objetos conocidos como dinámicos.
c. Se define un umbral para cada objeto para determinar si el objeto tiene dinamismo suficiente. Este umbral depende de la zona del objeto (anchura X altura), según esta expresión:
z·zona_ objeto
5 donde x es un factor de ponderación que permite ajustar la importancia del dinamismo (por ejemplo 1/4). Si la puntuación del objeto es inferior al umbral, el objeto se descarta y se detecta como contenido estático.
d. Los objetos dinámicos deben tener una tasa de refresco similar al contenido de vídeo. El contador de extracción y la tasa de repetición del
1o proceso de detección (por ejemplo una vez por segundo) se usan para calcular la tasa de refresco del objeto. Si la tasa de refresco es inferior a un valor fijo (por ejemplo 5 tramas por segundo) el objeto se descarta y se detecta como objeto estático. La tasa de refresco se calcula con la expresión: contador extracción
frecuencia _repetición
e. Adicionalmente, la puntuación de los objetos no descartados se penaliza
o se premia según el aspecto visual del objeto: -si la proporción de aspecto (anchura/ altura) es similar a las proporciones de aspecto de vídeo más comunes (16:9, 4:3 ó 1:1) la puntuación se
20 aumenta. -Otras propiedades visuales del objeto proporcionado para el sistema operativo también pueden compararse con propiedades comunes de objetos dinámicos para aumentar o reducir su puntuación. Estas propiedades
- dependen del sistema operativo, siendo CS_ VREDRAW y CS_HREDRAWN dos ejemplos de propiedades de sistemas Windows que son válidos para esta tarea.
- 5 1o
- 6. Finalmente, todos los objetos que no se han descartado en este proceso se detectan como objeto dinámico y tienen una puntuación que indica el dinamismo del objeto. Obsérvese que el proceso de detección es un proceso iterativo que analiza constantemente los objetos de la aplicación activa, buscando contenido dinámico.
- 15
- SELECCIÓN DEL MEJOR OBJETO DINÁMICO Para reducir la cantidad de contenido dinámico que va a enviarse y para centrar el proceso en el objeto dinámico más importante, es posible seleccionar sólo como contenido dinámico el objeto con la mayor puntuación. Como resultado de esta selección, los demás objetos dinámicos se detectan entonces como objetos estáticos.
- 20
- ACCESO DIRECTO A IMÁGENES Y TRANSMISIÓN Tras la detección de contenido estático y dinámico, se usan diferentes procedimientos para su transmisión. El contenido dinámico se capta como una imagen que va a usarse como una trama de vídeo y se codifica usando cualquier códec de vídeo
- (como H.264, VC-1 ... ) y se envía usando cualquier protocolo de transmisión
- de flujo continuo de vídeo (como RTP). Debido a la tasa de transmisión de
- tramas común de vídeos (1 0-25 tramas por segundo), la captación del
- contenido dinámico como imagen debe ser rápida. Esto se consigue
- 5
- obteniendo acceso directo a una memoria intermedia (buffer) con toda la
- imagen de pantalla a través del controlador de vídeo anteriormente
- mencionado. La imagen de pantalla se recorta usando el rectángulo que
- define los límites del objeto dinámico para obtener la imagen del objeto
- dinámico. Puede usarse cualquier algoritmo de transmisión de flujo continuo
- 1o
- de vídeo.
- El contenido estático se transfiere usando un algoritmo de escritorio
- remoto para mantener su detalle, aprovechando de este modo su baja tasa
- de refresco. Las partes del contenido estático que han cambiado se captan
- como imágenes y se envían como imagen comprimida (habitualmente
- 15
- compresión JPEG, aunque es posible cualquier otra). La información
- adicional, como la posición de cada parte modificada, se envía para permitir
- el proceso de reconstrucción en el lado del receptor. La primera vez que se
- capta el contenido, se envía todo el contenido. En este caso, también se
- accede a una memoria intermedia con toda la imagen de pantalla a través
- 20
- del controlador de vídeo. Para evitar enviar información duplicada, el
- contenido dinámico puede recortarse cuando se envía contenido estático.
- La tasa de refresco de transmisión de flujo continuo de vídeo y los
- algoritmos de escritorio remoto son independientes de la tasa de iteración
- del proceso de detección. La detección se realiza habitualmente cada
- segundo, mientras que la tasa de transmisión de vídeo es aproximadamente
- de 70-100 milisegundos (1 0-15 tramas por segundo) y la tasa de escritorio
- remoto es aproximadamente de 1 00-250 milisegundos.
- 5
- Obsérvese que el procedimiento descrito es igualmente válido para
- transmisiones a un único receptor o a múltiples receptores, ya que tanto la
- transmisión de flujo continuo de vídeo como el escritorio remoto soportan
- transmisiones de punto a punto y multidifusión.
- El receptor de la información puede visualizar el contenido compartido
- 1o
- usando los mecanismos apropiados para decodificar la diferente información
- que recibe:
- -transmisión de flujo continuo de vídeo: el contenido dinámico transmitido
- usando transmisión de flujo continuo de vídeo, puede visualizarse usando el
- reproductor de flujo continuo de vídeo correspondiente. Como resultado, el
- 15
- receptor puede visualizar el contenido dinámico como un vídeo real.
- -Escritorio remoto: el contenido estático transmitido usando algoritmos de
- escritorio remoto puede visualizarse extrayendo las imágenes recibidas en
- sus ubicaciones correspondientes. Como resultado, el receptor puede
- visualizar el contenido estático como una imagen que se actualiza cada vez
- 20
- que cambia.
- En la figura 2, se aplica una realización particular del procedimiento a
- una aplicación 9 de diagnóstico remoto. Al aplicar las etapas descritas, el
- contenido visual de la aplicación se divide en contenido dinámico y
contenido estático. A continuación, las tramas 1 O del contenido dinámico, y las imágenes 11 que han cambiado se transmiten usando los protocolos correspondientes.
5 Habiendo descrito la invención como antecede, se declara como propiedad lo contenido en las siguientes
20
Claims (11)
- REIVINDICACIONES
- 1.
- Procedimiento de transmisión de contenido visual a través de una
- red de comunicación, comprendiendo el procedimiento:
- -detectar
- (4) contenido estático (5) y contenido dinámico (6) en el
- 5
- contenido visual;
- -transmitir el contenido estático (5) con un primer modo de transmisión (7),
- y transmitir el contenido dinámico (6) con un segundo modo de transmisión
- (8).
- 1o
- 2. Procedimiento según la reivindicación 1, en el que la etapa de
- detectar (4)
- contenido estático (5) y contenido dinámico (6) se realiza
- periódicamente.
-
- 3.
- Procedimiento según cualquiera de las reivindicaciones anteriores,
- 15
- en el que la etapa de detectar (4) contenido estático (5) y contenido
- dinámico (6) comprende además:
- (i)
- detectar operaciones de extracción (1) realizadas por un sistema
- operativo;
- (ii)
- localizar zonas en las que se realizan dichas operaciones de
- 20
- extracción (1 );
- (iii)
- determinar si cada zona contiene contenido estático (5) o contenido
dinámico (6); - 4. Procedimiento según la reivindicación 3, en el que la etapa (i)comprende además monitorizar llamadas de sistema del sistema 5 operativo.
- 5. Procedimiento según la reivindicación 3, en el que la etapa (i) comprende además usar controladores de vídeo de espejo.
- 6. Procedimiento según cualquiera de las reivindicaciones 3 a 5, en el 1o que las zonas tienen forma rectangular.
- 7. Procedimiento según cualquiera de las reivindicaciones 3 a 6, en el que la etapa (iii) comprende además determinar una clase de objeto de un objeto extraído en una zona.
- 8. Procedimiento según cualquiera de las reivindicaciones 3 a 7, en el que la etapa (iii) comprende además:
- -
- calcular, para cada zona, una proporción que mide una probabilidad de que la zona tenga contenido (6) dinámico, calculándose la proporción 20 usando datos (3) estadísticos de dicha zona;
-y comparar la proporción calculada con un umbral. - 9. Procedimiento según la reivindicación 8, en el que la proporción de dinamismo de una zona considera el número de veces que se realiza una operación de extracción (1) en dicha zona y el tamaño de una parte modificada por operaciones de extracción (1 ).1O. Procedimiento según cualquiera de las reivindicaciones 8 y 9, en el que la proporción de una zona recibe una penalización si se detecta una operación de generación de texto en la zona.10 11. Procedimiento según cualquiera de las reivindicaciones 8 a 1 O, en el que la proporción de una zona considera una tasa de refresco de la zona.
- 12. Procedimiento según cualquiera de las reivindicaciones 8 a 11, en elque la proporción de una zona considera una proporción de aspecto de la 15 zona.
-
- 13.
- Procedimiento según cualquiera de las reivindicaciones 8 a 13, en el que la proporción de una zona considera valores previos de la proporción de la zona.
-
- 14.
- Procedimiento según cualquiera de las reivindicaciones anteriores,
- en
- el que el primer modo de transmisión (7) es un procedimiento de
- transmisión de flujo continuo de vídeo y el segundo modo de transmisión
- (8) es un procedimiento de escritorio remoto.
- 5
- 15. Un programa informático que comprende medios de código de
- programa informático adaptados para realizar las etapas del procedimiento
- según cualquiera de las reivindicaciones 1 a 14, cuando dicho programa se
- ejecuta en un ordenador, un procesador de señal digital, una agrupación
- de
- puertas programable en campo un circuito integrado de aplicación
- 1o
- específica, un microprocesador, un microcontrolador o cualquier otra forma
- de hardware programable.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201030552A ES2390298B1 (es) | 2010-04-16 | 2010-04-16 | Procedimiento de transmisión de contenido visual. |
PCT/EP2010/059042 WO2011127991A1 (en) | 2010-04-16 | 2010-06-25 | Method of transmission of visual content |
PE2012002031A PE20130928A1 (es) | 2010-04-16 | 2010-06-25 | Procedimiento de transmision de contenido visual |
US13/641,482 US20130036235A1 (en) | 2010-04-16 | 2010-06-25 | Method of transmission of visual content |
EP10729703A EP2559242A1 (en) | 2010-04-16 | 2010-06-25 | Method of transmission of visual content |
BR112012026528A BR112012026528A2 (pt) | 2010-04-16 | 2010-06-25 | procedimento de transmissão de conteúdo visual |
ARP110101283A AR080906A1 (es) | 2010-04-16 | 2011-04-14 | Procedimiento de transmision de contenido visual |
CL2012002888A CL2012002888A1 (es) | 2010-04-16 | 2012-10-16 | Procedimiento de transmision de contenido visual a traves de una red de comunicacion que localiza contenido estatico y dinamico y transmite cada tipo de contenido de manera diferente para optimizar la tasa de transmision y la calidad del contenido recibido en el otro extremo de la red de comunicacion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201030552A ES2390298B1 (es) | 2010-04-16 | 2010-04-16 | Procedimiento de transmisión de contenido visual. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2390298A1 true ES2390298A1 (es) | 2012-11-08 |
ES2390298B1 ES2390298B1 (es) | 2013-11-11 |
Family
ID=42752440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201030552A Withdrawn - After Issue ES2390298B1 (es) | 2010-04-16 | 2010-04-16 | Procedimiento de transmisión de contenido visual. |
Country Status (8)
Country | Link |
---|---|
US (1) | US20130036235A1 (es) |
EP (1) | EP2559242A1 (es) |
AR (1) | AR080906A1 (es) |
BR (1) | BR112012026528A2 (es) |
CL (1) | CL2012002888A1 (es) |
ES (1) | ES2390298B1 (es) |
PE (1) | PE20130928A1 (es) |
WO (1) | WO2011127991A1 (es) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5678743B2 (ja) * | 2011-03-14 | 2015-03-04 | 富士通株式会社 | 情報処理装置、画像送信プログラム、画像送信方法および画像表示方法 |
US8924507B2 (en) * | 2011-09-02 | 2014-12-30 | Microsoft Corporation | Cross-frame progressive spoiling support for reduced network bandwidth usage |
EP2648390B1 (de) | 2012-04-04 | 2017-03-08 | Siemens Healthcare GmbH | Entfernte Steuerung einer diagnostischen Darstellungseinrichtung über Remote-Desktop Verbindungen |
US20130268621A1 (en) * | 2012-04-08 | 2013-10-10 | Broadcom Corporation | Transmission of video utilizing static content information from video source |
TWI536824B (zh) * | 2012-05-04 | 2016-06-01 | 奇揚網科股份有限公司 | 視訊編碼系統、方法以及電腦可讀取之媒體 |
TWI482470B (zh) * | 2013-02-23 | 2015-04-21 | Wistron Corp | 數位看板播放系統、即時監看系統及其即時監看之方法 |
US8977945B2 (en) | 2013-03-12 | 2015-03-10 | Intel Corporation | Techniques for transmitting video content to a wirelessly docked device having a display |
WO2016118848A1 (en) * | 2015-01-22 | 2016-07-28 | Clearstream. Tv, Inc. | Video advertising system |
RU2728766C2 (ru) * | 2015-11-09 | 2020-07-31 | Томсон Лайсенсинг | Способ и устройство для адаптации видеоконтента, декодированного из элементарных потоков, под характеристики устройства отображения |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050197804A1 (en) * | 2004-03-08 | 2005-09-08 | Reeves Simon J. | System and method for continuously recording user actions and displayed images |
US20060053163A1 (en) * | 2004-09-03 | 2006-03-09 | International Business Machines Corporation | Hierarchical space partitioning for scalable data dissemination in large-scale distributed interactive applications |
EP1635581A1 (en) * | 2003-06-19 | 2006-03-15 | Matsushita Electric Industrial Co., Ltd. | Transmitter apparatus, image processing system, image processing method, program, and recording medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6512520B1 (en) * | 1997-07-31 | 2003-01-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus for and method of transmitting and receiving data streams representing 3-dimensional virtual space |
US6507848B1 (en) * | 1999-03-30 | 2003-01-14 | Adobe Systems Incorporated | Embedded dynamic content in a static file format |
US6675387B1 (en) * | 1999-04-06 | 2004-01-06 | Liberate Technologies | System and methods for preparing multimedia data using digital video data compression |
NZ520986A (en) * | 2002-08-23 | 2005-04-29 | Ectus Ltd | Audiovisual media encoding system |
US7911536B2 (en) * | 2004-09-23 | 2011-03-22 | Intel Corporation | Screen filled display of digital video content |
US20060090123A1 (en) * | 2004-10-26 | 2006-04-27 | Fuji Xerox Co., Ltd. | System and method for acquisition and storage of presentations |
US8112513B2 (en) * | 2005-11-30 | 2012-02-07 | Microsoft Corporation | Multi-user display proxy server |
US20080055318A1 (en) * | 2006-08-31 | 2008-03-06 | Glen David I J | Dynamic frame rate adjustment |
JP2009071809A (ja) * | 2007-08-20 | 2009-04-02 | Panasonic Corp | 映像表示装置ならびに補間画像生成回路および方法 |
US20100005406A1 (en) * | 2008-07-02 | 2010-01-07 | Moresteam.Com Llc | Method of presenting information |
US8219759B2 (en) * | 2009-03-16 | 2012-07-10 | Novell, Inc. | Adaptive display caching |
US8392596B2 (en) * | 2009-05-26 | 2013-03-05 | Red Hat Israel, Ltd. | Methods for detecting and handling video and video-like content in remote display system |
US8891939B2 (en) * | 2009-12-22 | 2014-11-18 | Citrix Systems, Inc. | Systems and methods for video-aware screen capture and compression |
-
2010
- 2010-04-16 ES ES201030552A patent/ES2390298B1/es not_active Withdrawn - After Issue
- 2010-06-25 EP EP10729703A patent/EP2559242A1/en not_active Withdrawn
- 2010-06-25 PE PE2012002031A patent/PE20130928A1/es not_active Application Discontinuation
- 2010-06-25 US US13/641,482 patent/US20130036235A1/en not_active Abandoned
- 2010-06-25 BR BR112012026528A patent/BR112012026528A2/pt not_active IP Right Cessation
- 2010-06-25 WO PCT/EP2010/059042 patent/WO2011127991A1/en active Application Filing
-
2011
- 2011-04-14 AR ARP110101283A patent/AR080906A1/es unknown
-
2012
- 2012-10-16 CL CL2012002888A patent/CL2012002888A1/es unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1635581A1 (en) * | 2003-06-19 | 2006-03-15 | Matsushita Electric Industrial Co., Ltd. | Transmitter apparatus, image processing system, image processing method, program, and recording medium |
US20050197804A1 (en) * | 2004-03-08 | 2005-09-08 | Reeves Simon J. | System and method for continuously recording user actions and displayed images |
US20060053163A1 (en) * | 2004-09-03 | 2006-03-09 | International Business Machines Corporation | Hierarchical space partitioning for scalable data dissemination in large-scale distributed interactive applications |
Also Published As
Publication number | Publication date |
---|---|
BR112012026528A2 (pt) | 2017-10-31 |
ES2390298B1 (es) | 2013-11-11 |
PE20130928A1 (es) | 2013-09-26 |
AR080906A1 (es) | 2012-05-16 |
EP2559242A1 (en) | 2013-02-20 |
WO2011127991A1 (en) | 2011-10-20 |
CL2012002888A1 (es) | 2013-01-18 |
US20130036235A1 (en) | 2013-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2390298B1 (es) | Procedimiento de transmisión de contenido visual. | |
US11659098B2 (en) | Information reminding method and apparatus, and electronic terminal | |
JP2022529300A (ja) | 違反イベント検出方法及び装置、電子デバイス並びに記憶媒体 | |
US9585565B2 (en) | System, method, and software for automating physiologic displays and alerts with trending heuristics | |
EP2449550B1 (en) | Method and apparatus for providing mobile device interoperability | |
EP2768216A1 (en) | Video play method, terminal and system | |
CN107483976A (zh) | 直播管控方法、装置及电子设备 | |
US20150113369A1 (en) | Image transitioning and error detection for online presentations | |
CN107193653B (zh) | 带宽资源分配方法、装置及存储介质 | |
CN104301528B (zh) | 显示信息的方法及装置 | |
US10110541B2 (en) | Optimization of posting in social networks using content delivery preferences comprising hashtags that correspond to geography and a content type associated with a desired time window | |
CN111277848B (zh) | 直播间互动消息的处理方法、装置、电子设备及存储介质 | |
KR102358002B1 (ko) | 콘텐츠 전송 제어 방법 및 이를 지원하는 전자 장치 | |
CN108021492B (zh) | 一种告警合并方法及设备 | |
US20120005301A1 (en) | Sharing an image | |
WO2016110752A1 (en) | Control method and control apparatus for electronic equipment and electronic equipment | |
US10972706B2 (en) | Surveillance system, surveillance method, and program | |
US9491220B2 (en) | Systems and methods for adapting mobile multimedia content delivery service | |
US9633253B2 (en) | Moving body appearance prediction information processing system, and method | |
US10229192B2 (en) | Hierarchical de-duplication techniques for tracking fitness metrics | |
CN109287139B (zh) | 数据传输方法及装置 | |
CN105516746B (zh) | 视频预下载系统及其方法 | |
CN113254834A (zh) | 页面内容加载方法、装置、电子设备及可读存储介质 | |
KR101822310B1 (ko) | 컨텐츠 표시 방법 및 장치 | |
CN104038736A (zh) | 视频数据动态传输方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2390298 Country of ref document: ES Kind code of ref document: B1 Effective date: 20131111 |
|
FA2A | Application withdrawn |
Effective date: 20140320 |