ES2345893T3 - Disposicion y procedimiento para generar imagenes de presencia continua. - Google Patents
Disposicion y procedimiento para generar imagenes de presencia continua. Download PDFInfo
- Publication number
- ES2345893T3 ES2345893T3 ES05710946T ES05710946T ES2345893T3 ES 2345893 T3 ES2345893 T3 ES 2345893T3 ES 05710946 T ES05710946 T ES 05710946T ES 05710946 T ES05710946 T ES 05710946T ES 2345893 T3 ES2345893 T3 ES 2345893T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- images
- video
- encoded
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/152—Multipoint control units therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Polysaccharides And Polysaccharide Derivatives (AREA)
- Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
- Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Detergent Compositions (AREA)
Abstract
Procedimiento para crear una imagen de presencia continua (CP) objetivo codificada según una norma de codificación de vídeo a partir de una pluralidad de señales de vídeo codificadas incluyendo órdenes definidos de macrobloques, comprendiendo cada uno señales de vídeo codificadas correspondientes a una imagen de vídeo respectiva de terminal final recibida desde terminales finales que participan en una conferencia de vídeo multipunto, caracterizado por el hecho de que el procedimiento comprende las siguientes etapas: - descodificar dichas señales de vídeo codificadas, dando como resultado imágenes de vídeo de terminal final, - mezclar espacialmente dichas imágenes de vídeo de terminal final, dando como resultado una pluralidad de imágenes CP compuestas por regiones asociadas respectivamente con cada una de dichas imágenes de vídeo de terminal final, - codificar dichas imágenes CP, - reorganizar los macrobloques de las imágenes CP codificadas, creando de ese modo dicha imagen CP codificada objetivo.
Description
Disposición y procedimiento para generar
imágenes de presencia continua.
La presente invención se refiere a la
videoconferencia y, en particular, a la generación de imágenes de
presencia continua (CP, Continuous Presence) en una unidad
de control multipunto (MCU, Multipoint Control Unit).
La transmisión de imágenes en movimiento en
tiempo real se utiliza en varias aplicaciones tales como, por
ejemplo, videoconferencias, reuniones a través de la red, difusión
de TV y videotelefonía.
Sin embargo, la representación de imágenes en
movimiento requiere una gran cantidad de información ya que el
vídeo digital se describe normalmente representando cada píxel de
una imagen con 8 bits (1 octeto). Tales datos de vídeo no
comprimidos dan como resultado grandes volúmenes de bits y no pueden
transferirse a través de redes de comunicación y líneas de
transmisión convencionales en tiempo real debido a un ancho de banda
limitado.
Por lo tanto, permitir la transmisión de vídeo
en tiempo real requiere un alto grado de compresión de datos. Sin
embargo, la compresión de datos puede comprometer la calidad de las
imágenes. Por lo tanto, se han llevado a cabo grandes esfuerzos
para desarrollar técnicas de compresión que permitan la transmisión
en tiempo real de vídeo de alta calidad a través de conexiones de
datos limitadas por el ancho de banda.
En los sistemas de compresión de vídeo, el
objetivo principal es representar la información de vídeo con la
menor capacidad posible. La capacidad se define con bits, ya sea
como un valor constante o como una unidad de bits/tiempo. En ambos
casos, el objetivo principal es reducir el número de bits.
El procedimiento de codificación de vídeo más
común se describe en las normas MPEG* y H.26*. Los datos de vídeo
pasan por cuatro procesos principales antes de su transmisión,
concretamente predicción, transformación, cuantificación y
codificación de entropía.
El proceso de predicción reduce
significativamente la cantidad de bits requerida para cada imagen de
una secuencia de vídeo que va a transferirse. Aprovecha la
similitud de partes de la secuencia con otras partes de la
secuencia. Puesto que la parte de predicción es conocida tanto para
el codificador como para el descodificador, solo tiene que
transferirse la diferencia. Esta diferencia requiere normalmente
mucha menos capacidad para su representación. La predicción se basa
principalmente en el contenido de la imagen a partir de imágenes
reconstruidas anteriormente en las que la ubicación del contenido
se define mediante vectores de movimiento. El proceso de predicción
se realiza normalmente en tamaños de bloques cuadrados (por ejemplo,
16x16 píxeles).
Los sistemas de videoconferencia permiten el
intercambio simultáneo de información de audio, de vídeo y de datos
entre múltiples emplazamientos de la conferencia. Los sistemas
conocidos como unidades de control multipunto (MCU) llevan a cabo
funciones de conmutación para permitir que múltiples emplazamientos
se intercomuniquen en una conferencia. La MCU conecta los
emplazamientos entre sí recibiendo tramas de señales de conferencia
desde los emplazamientos, procesando las señales recibidas y
retransmitiendo las señales procesadas a los emplazamientos
apropiados. Las señales de conferencia incluyen información de
audio, de vídeo, de datos y de control. En una conferencia
conmutada, la señal de vídeo de uno de los emplazamientos de la
conferencia, normalmente el del interlocutor que hable más alto, se
difunde a cada uno de los participantes. En una conferencia de
presencia continua, las señales de vídeo de dos o más emplazamientos
se mezclan espacialmente para formar una señal de vídeo compuesta
para su visualización por parte de los participantes de la
conferencia. La imagen compuesta o de presencia continua es una
imagen combinada que puede incluir flujos de vídeo en directo,
imágenes estáticas, menús u otras imágenes visuales de los
participantes de la conferencia.
En una conferencia de presencia continua típica,
la visualización de vídeo se divide en una distribución compuesta
que presenta áreas o regiones (por ejemplo, cuadrantes). Los
emplazamientos se seleccionan en la configuración de la conferencia
a partir de los emplazamientos conectados en la conferencia para su
visualización en las regiones. Las distribuciones compuestas
comunes incluyen cuatro, nueve o dieciséis regiones. La distribución
se selecciona y después se fija durante la duración de la
conferencia.
Algunas disposiciones de conferencia
proporcionan diferentes señales compuestas o una mezcla de vídeo de
manera que cada emplazamiento puede ver una mezcla diferente de
emplazamientos. Otra disposición utiliza una selección de
cuadrantes activados por voz para asociar emplazamientos con
cuadrantes particulares. Esa disposición permite a los
participantes de la conferencia ver no solamente emplazamientos
fijos de mezcla de vídeo, sino también un emplazamiento
seleccionado en función de la actividad de voz. Sin embargo, la
distribución, en lo que respecta al número de regiones o
cuadrantes, es fija para la conferencia.
Haciendo referencia ahora a la Fig. 1, se
muestra un diagrama esquemático de una realización de una MCU 10
del tipo desvelado en la patente estadounidense 5.600.646, cuya
descripción se incorpora expresamente en este documento como
referencia. La MCU 10 incluye además funcionalidad H.323 tal y como
se desvela en la patente estadounidense 6.404.745, cuya descripción
también se incorpora expresamente en este documento como referencia.
Además, el procesamiento de vídeo en la MCU se ha mejorado, tal y
como se describirá en detalle en este documento. Las
características descritas en este documento para la MCU 10 pueden
representarse en una MCU Tandberg.
La MCU 10 incluye al menos una unidad de
interfaz de red (NIU, Network Interface Unit) 120, al menos
una unidad de procesamiento de puente (BPU, Bridge Processing
Unit) 122, una unidad de procesamiento de vídeo (VPU, Video
Processing Unit) 124, una unidad de procesamiento de datos (DPU,
Data Processing Unit) 126 y una unidad de procesamiento
principal (HPU, Host Processing Unit) 130. Además de un bus
de control principal 132 de la Arquitectura Estándar Industrial
(ISA, Industry Standard Architecture), la MCU 10 incluye un
bus de red 134, un bus BPU 136 y un bus X 138. El bus de red 134
cumple con el protocolo de integración de múltiples fabricantes
(MVIP, Multi-Vendor Integration Protocol),
mientras que el bus BPU 136 y el bus X son derivados de la
especificación MVIP. La HPU 130 proporciona una interfaz de gestión
para operaciones MCU. Cada uno de los elementos MCU anteriores se
describe en detalle en las patentes estadounidenses 5.600.646 y
6.404.745 mencionadas anteriormente.
La funcionalidad H.323 se proporciona mediante
la adición de una unidad de procesamiento de pasarela (GPU,
Gateway Processing Unit) 128 y de una BPU modificada
denominada como una BPU-G 122A. La GPU 128 utiliza
protocolos H.323 para la señalización de llamadas y la creación y
control de flujos de audio, de vídeo y de datos a través de una
Ethernet u otra interfaz LAN 140 para terminales finales. La
BPU-G 122A es una BPU 122 que está programada para
procesar paquetes de audio, de vídeo y de datos recibidos desde la
GPU 128.
A continuación se describe el funcionamiento de
una MCU a un alto nivel, inicialmente para conferencias por
conmutación de circuitos y después para conferencias H.323 por
conmutación de paquetes. En conferencias por conmutación de
circuitos, las tramas de datos digitales de terminales finales H.320
de conmutación de circuitos se vuelven disponibles en el bus de red
134 a través de una interfaz de red 142 para una NIU 120. Las BPU
122 procesan las tramas de datos a partir del bus de red 134 para
generar tramas de datos que se vuelven disponibles para otras BPU
122 en el bus BPU 136. Las BPU 122 también extraen información de
audio de las tramas de datos.
Las BPU 122 combinan información de vídeo
comprimida e información de audio codificada mezclada en tramas que
se colocan en el bus de red 134 para su transmisión a terminales
H.320 respectivos.
En casos en los que los terminales audiovisuales
funcionan a diferentes velocidades de transmisión o con diferentes
algoritmos de compresión o van a mezclarse en una imagen compuesta,
múltiples entradas de vídeo se envían a la VPU 124, en donde las
entradas de vídeo se descomprimen, se mezclan y vuelven a
comprimirse en un único flujo de vídeo. Este único flujo de vídeo
se devuelve después a través de la BPU 122, la cual conmuta el flujo
de vídeo a los terminales finales apropiados.
Para una conferencia H.323 basada en paquetes,
la GPU 128 vuelve disponibles paquetes de audio, de vídeo y de
datos en el bus de red 134. Los paquetes de datos se procesan a
través de la DPU 126. La BPU-G 122A procesa
paquetes de audio y vídeo a partir del bus de red 134 para generar
mezclas de difusión de audio y vídeo que se colocan en el bus de
red 134 para su transmisión a terminales finales respectivos a
través de la GPU 128. Además, la BPU-G 122A procesa
paquetes de audio y vídeo para generar tramas de datos que se
vuelven disponibles para las BPU 122 en el bus BPU 136. De esta
manera, la MCU 14 realiza una función de pasarela mediante la cual
las BPU 122 habituales y la BPU-G 122A pueden
intercambiar audio y vídeo entre terminales H.320 y H.323 de manera
transparente.
Una vez descritos los componentes de la MCU 10
que permiten las funciones puente básicas de una conferencia, a
continuación se proporciona una descripción a un alto nivel de la
flexibilidad proporcionada por la VPU 124 con referencia al
diagrama de bloques funcional de la Fig. 2. En la MCU 10,
información de vídeo comprimida de hasta cinco terminales
audiovisuales que están en la misma conferencia se encamina hasta
una VPU 124 particular a través del bus BPU 136. La VPU 124
comprende cinco procesadores de compresión de vídeo (VCP0 a VCP4),
presentando cada uno un par descodificador/codificador de vídeo
102-i, 106-i, y bloques de escalado
de píxeles 104-i,
108-i.
108-i.
Un par descodificador/codificador de vídeo
102-i, 106-i está asignado al flujo
de información de vídeo comprimido asociado a cada emplazamiento
particular de la conferencia. Cada descodificador de vídeo
102-i descodifica la información de vídeo
comprimida utilizando el algoritmo que coincida con el algoritmo de
codificación de su emplazamiento asociado. El procesamiento para
determinar la estructura de trama, los paquetes y las sumas de
control que pueden ser parte del protocolo de transmisión puede
estar incluido como parte del descodificador de vídeo
102-i. Debe observarse que un flujo de vídeo
codificado por procesador puede asignarse a múltiples
emplazamientos (por ejemplo, una aplicación de presencia continua
que tenga más de cinco emplazamientos en la conferencia). Además,
un par descodificador/codificador 102-i,
106-i puede conmutar entre los emplazamientos de
una conferencia.
La información de vídeo descodificada (por
ejemplo, píxeles) se escala de manera ascendente o descendente, si
fuera necesario, por un bloque de escalado de píxeles
104-i para adaptarse a los requisitos de resolución
de píxeles de otros emplazamientos de la conferencia que codificarán
los píxeles escalados. Por ejemplo, un sistema de escritorio puede
codificar a una resolución de 256x240 píxeles, mientras que un
terminal H.320 puede requerir una resolución de píxel de 352x288
píxeles para una imagen de formato intermedio común (CIF, Common
Intermediate Format). Otros formatos comunes incluyen el formato
intermedio común con un cuarto de resolución (QCIF, Quarter
Common Intermediate Format) (176x144 píxeles), 4CIF (704x576),
SIF (352x240), 4SIF (704x480), VGA (640x480), SVGA (800x600) y XGA
(1024x768).
La VPU 124 incluye un bus de píxeles 182 y una
memoria 123. El sistema desvelado en la patente estadounidense
5.600.646 utiliza un bus de multiplexión por división de tiempo. En
particular, cada descodificador 102-j proporciona
píxeles en el bus de píxeles 182 a la memoria 123. Cada codificador
106-j puede recuperar cualquiera de las imágenes de
la memoria 123 en el bus de píxeles para una recodificación y/o una
mezcla o composición espacial. Otro bloque de escalado de píxeles
108-j está acoplado entre el bus de píxeles 182 y el
codificador 106-j para ajustar la resolución de
píxeles de la imagen muestreada según sea necesario.
A continuación se describirá una aplicación de
presencia continua con referencia a las Figs. 3 y 4. Por motivos de
simplicidad, los terminales finales mostrados son terminales H.320.
En la Fig. 3, los datos de los emplazamientos 38 llegan a través de
una red de comunicaciones a las NIU 120 respectivas. Cinco
emplazamientos 38 (A, B, C, D, E) están conectados en la
conferencia. Los emplazamientos A y B se muestran conectados a una
NIU 120 particular que soporta múltiples conexiones de códec (por
ejemplo, una interfaz T1). Los otros emplazamientos C, D y E están
conectados a NIU 120 que soportan solamente una única conexión de
códec (por ejemplo, una interfaz ISDN). Cada emplazamiento 38
coloca uno o más octetos de datos digitales en el bus de red 134
como datos de trama H.221 no sincronizados. Después, las BPU 122
determinan la alineación de octetos y la estructura de trama H.221.
Estos datos alineados se vuelven disponibles para todas las demás
unidades en el bus BPU 136. Las BPU 122 extraen además información
de audio de las tramas H.221 y descodifican el audio en datos PCM de
16 bits. Los datos de audio descodificados se vuelven disponibles
en el bus BPU 136 para mezclarse con datos de audio de otros
emplazamientos de la conferencia.
Las tramas H.221 alineadas se reciben por la VPU
124 para procesarse mediante elementos de codificador/desco-
dificador denominados como procesadores de compresión de vídeo (VCP, video compression processors). La VPU 124 presenta 5 VCP (Fig. 2) que en este ejemplo están asignados respectivamente a los emplazamientos A, B, C, D, E. Un VCP de la VPU 124 que está asignado al emplazamiento E se ilustra de manera funcional en la Fig. 4. La información de vídeo comprimida (H.261) se extrae de las tramas H.221 y se descodifica por el VCP como una imagen X. La imagen X de video de descodificador se coloca en el bus de píxeles 182 a través de un bloque de escalado. La Fig. 4 muestra el bus de píxeles 182 con tramas de vídeo descodificadas de cada emplazamiento A, B, C, D, E recuperadas sucesivamente de la memoria 123 identificadas mediante sus direcciones RAM respectivas. El VCP asignado al emplazamiento E recibe las tramas de vídeo descodificadas desde los emplazamientos A, B, C y D que después se disponen en mosaico (se mezclan espacialmente) en una única imagen I compuesta. Después, la imagen I en mosaico se codifica como vídeo H.261 en una estructura de trama H.221 y se coloca en el bus BPU 136 (Fig. 3) para su procesamiento BPU descrito anteriormente.
dificador denominados como procesadores de compresión de vídeo (VCP, video compression processors). La VPU 124 presenta 5 VCP (Fig. 2) que en este ejemplo están asignados respectivamente a los emplazamientos A, B, C, D, E. Un VCP de la VPU 124 que está asignado al emplazamiento E se ilustra de manera funcional en la Fig. 4. La información de vídeo comprimida (H.261) se extrae de las tramas H.221 y se descodifica por el VCP como una imagen X. La imagen X de video de descodificador se coloca en el bus de píxeles 182 a través de un bloque de escalado. La Fig. 4 muestra el bus de píxeles 182 con tramas de vídeo descodificadas de cada emplazamiento A, B, C, D, E recuperadas sucesivamente de la memoria 123 identificadas mediante sus direcciones RAM respectivas. El VCP asignado al emplazamiento E recibe las tramas de vídeo descodificadas desde los emplazamientos A, B, C y D que después se disponen en mosaico (se mezclan espacialmente) en una única imagen I compuesta. Después, la imagen I en mosaico se codifica como vídeo H.261 en una estructura de trama H.221 y se coloca en el bus BPU 136 (Fig. 3) para su procesamiento BPU descrito anteriormente.
Tal y como puede observarse a partir de la
descripción anterior, la transcodificación requiere considerables
recursos de procesamiento, ya que los datos de píxel no procesados
tienen que mezclarse y después codificarse para formar una vista
mezclada o una vista de presencia continua. Para evitar vistas
propias, es decir, para evitar que las vistas CP contengan una
imagen de los respectivos participantes a los que se transmiten, la
MCU debe incluir al menos un codificador para cada imagen de una
vista CP. Para permitir 16 CP, la MCU debe incluir entonces al
menos 16 codificadores.
La invención se describe en las reivindicaciones
independientes 1 y 8.
Objetivos y ventajas adicionales se consiguen
mediante las características descritas en las reivindicaciones
dependientes.
Con el fin entender más fácilmente la invención,
la siguiente descripción hará referencia a los dibujos adjuntos, en
los que:
Figura 1. Diagrama de bloques de una
configuración MCU.
Figura 2. Diagrama de bloques esquemático de una
realización de una VPU.
Figura 3. Diagrama de bloques de una
configuración MCU que ilustra un flujo de datos para una conferencia
de presencia continua.
Figura 4. Diagrama de bloques que ilustra la
disposición en mosaico de una imagen en una conferencia de presencia
continua.
Figura 5. Diagrama de bloques de las
disposiciones de un grupo de bloques en una imagen CIF.
Figura 6. Ilustra la capa del grupo de bloques
según la norma H.263.
Figura 7. Ilustra la capa de macrobloques según
la norma H.263.
Figura 8. Diagramas de bloques que ilustran tres
imágenes diferentes de presencia continua utilizadas en una
realización de la presente invención.
Figura 9. Diagrama de bloques esquemático de una
realización de la presente invención.
Figura 10. Diagrama de flujo esquemático que
ilustra una realización del procedimiento según la invención.
La presente invención utiliza la estructura de
bits de la norma H.26* de la ITU para reducir el tiempo de
procesamiento y los requisitos en una MCU para generar vistas CP sin
vistas propias. Para entender las características de las
estructuras de bits que se utilizan, a continuación se describirá la
estructura de bloques de imágenes según la norma H.263.
Según la norma H.263, cada imagen se divide en
bloques que representan 8x8 píxeles. Los bloques están dispuestos
en macrobloques, que para la parte de luminancia de los píxeles son
16 (8x8) bloques y para la parte de crominancia de los píxeles son
4 (2x2) bloques. Un grupo de bloques (GOB, Group Of Blocks)
representa normalmente 22 macrobloques, y el número de GOB por
imagen es de 6 para sub-QCIF, 9 para QCIF y 18 para
CIF, 4CIF y 16CIF. La numeración de los GOB se realiza utilizando
un barrido vertical de los GOB, empezando con el GOB superior
(número 0) y terminando con el GOB inferior. Un ejemplo de la
disposición de los GOB en una imagen se proporciona para el formato
de imagen CIF de la figura 5. Los datos para cada GOB consisten en
una cabecera GOB seguida por datos para macrobloques. Los datos
para los GOB se transmiten para cada GOB en un número de GOB
creciente. El inicio de un GOB se identifica mediante un código de
inicio de grupo de bloques (GBSC, Group of Block Start
Code). La estructura de la capa GOB se muestra en la figura
6.
Los datos para cada macrobloque consisten en una
cabecera de macrobloque seguida por datos para bloques. La
estructura se muestra en la figura 7. El COD sólo está presente en
imágenes que no son del tipo "INTRA" para cada macrobloque de
estas imágenes. Un bit que cuando está fijado a "0" indica que
el macrobloque está codificado. Si está fijado a "1" no se
transmite información adicional para este macrobloque; en ese caso,
el descodificador tratará el macrobloque como un macrobloque INTER
con un vector de movimiento para todo el bloque igual a cero y sin
datos de coeficientes.
Si el COD está fijado a "0", la parte de
datos del macrobloque incluye información de los bloques respectivos
en el macrobloque, y esta información se representa mediante
vectores de movimiento que indican la posición en imágenes
anteriores para las que los píxeles incluidos son iguales.
Convencionalmente, la evitación de vistas
propias en una imagen CP requiere una codificación especial para
cada uno de los participantes que implica un codificador para cada
flujo de datos saliente en la MCU, tal y como se indica en la
figura 2. La presente invención utiliza la estructura de
macrobloques de los datos de vídeo ya codificados para obtener una
mezcla personalizada de una imagen CP dependiente del receptor.
En la siguiente realización de ejemplo de la
presente invención, considérese una conferencia con cinco
emplazamientos finales que capturan imágenes de vídeo del formato
CIP y que codifican las imágenes según la norma H.263. En la MCU,
el flujo de datos de los respectivos participantes se descodifica
mediante descodificadores asociados con entradas MCU respectivas
según la norma H.263. Después de la descodificación, los datos de
píxel no procesados de los respectivos participantes estarán
disponibles en un bus interno de la MCU, listos para mezclarse y
transcodificarse.
En caso de cinco participantes, resulta obvio
elegir un formato CP 4 de la imagen mezclada que va a devolverse a
los respectivos emplazamientos. El formato mezclado puede
seleccionarse por la MCU según los principios de "mejor
impresión" descritos en la solicitud de patente estadounidense
10/601.095.
Según esta realización de ejemplo de la
invención, dos imágenes CP4 diferentes, una imagen 1 CP y una imagen
2 CP, se codifican por cada codificador respectivo tal y como se
ilustra en la figura 8. La imagen 1 CP incluye las imágenes
recibidas desde los emplazamientos 1, 2, 3 y 4, mientras que la
imagen 2 CP incluye las imágenes recibidas desde el emplazamiento 5
en un cuadrante dejando los cuadrantes restantes vacíos. Cuando se
codifican las imágenes CP y se disponen los datos codificados en el
sistema de bloques descrito anteriormente, los límites de los
cuadrantes coinciden con los límites de los macrobloques de los GOB.
En lo que respecta a la imagen 1 CP, los primeros 11 macrobloques
del primer GOB incluyen datos de la imagen del emplazamiento 1,
mientras que los 11 últimos macrobloques del primer GOB incluyen
datos de la imagen del emplazamiento 2.
Según la presente invención, la MCU reorganiza
los macrobloques de cada imagen CP según el receptor. Como un
ejemplo, en la imagen CP transmitida al emplazamiento 4, los 11
últimos macrobloques de cada uno de los 9 últimos GOB de la imagen
1 CP se sustituyen por los 11 primeros macrobloques de cada uno de
los 9 primeros GOB de la imagen 2 CP, respectivamente. Esto da como
resultado una nueva imagen CP descodificada que incluye la imagen
recibida desde el emplazamiento 5 en lugar de la imagen recibida
desde el emplazamiento 4. Esta imagen CP se devuelve al
emplazamiento 4, evitando de esta manera la vista propia en ese
emplazamiento.
Sustituciones o reorganizaciones
correspondientes se llevan a cabo para las otras cuatro imágenes CP
asociadas respectivamente con los otros emplazamientos.
La figura 9 ilustra un ejemplo de la
arquitectura interna de una MCU según la presente invención. Esta
arquitectura se utiliza según la invención en lugar de la VPU de la
técnica anterior ilustrada en la figura 2. El bus de píxeles, la
memoria y las unidades de escalado de píxeles se sustituyen por
simplicidad por una unidad de mezcla y escalado 156. Obsérvese que,
como alternativa, el primer bus de datos 176 y el segundo bus de
datos 177 de la figura 9 pueden fusionarse para formar un bus de
datos común. Obsérvese también que la implementación real puede ser
diferente y que solo se muestran las unidades relevantes para la
presente invención.
Los flujos de datos de entrada 171, 172, 173,
174 y 175 se descodifican con distintos descodificadores 151, 152,
153, 154, 155 respectivamente, con un descodificador para cada
emplazamiento. La codificación se lleva a cabo según la norma de
codificación que esté utilizándose, en este caso la H.263. Los datos
descodificados están en la forma de datos PCM y se vuelven
accesibles para una unidad de mezcla y escalado (MSU, Mixing and
Scaling Unit) 156 en el primer bus de datos 176.
La MSU 156 mezcla espacialmente los datos PCM
171, 172, 173, 174 del primer, segundo, tercer y cuarto
emplazamiento, creando una primera imagen CP. Una segunda imagen CP
también se crea colocando los datos PCM 175 del quinto
emplazamiento en el primer cuadrante, dejando los cuadrantes
restantes vacíos o llenos con datos ficticios. Los datos PCM de las
dos imágenes mezcladas espacialmente se vuelven después accesibles
para el primer codificador 157 y el segundo codificador 158
siguientes en el segundo bus de datos 177.
Los codificadores 157, 158 extraen los datos PCM
de las imágenes CP generadas por la MSU 156 a partir del segundo
bus de datos 177 y codifican cada imagen respectiva. El resultado
del proceso de codificación es una pluralidad de macrobloques
ensamblados en GOB como los descritos anteriormente. En el caso de
un formato CIF según la norma H.263, un GOB contiene 22
macrobloques y cada imagen consiste en 18 GOB. Después de codificar
las imágenes, los GOB se insertan consecutivamente en memorias
intermedias 159, 160 asociadas, respectivamente. El tamaño de las
memorias intermedias 159, 160 debe ser lo bastante grande como para
alojar los GOB de al menos una imagen. Las salidas de las memorias
intermedias 159, 160 están conectadas a un tercer bus de datos 178
que también está conectado a las entradas de los dispositivos de
reorganización 161, 162, 163, 164, 165.
Sin embargo, el número de bits que representan
una imagen codificada no es constante, sino que puede variar
sustancialmente según la variación del contenido de imagen y los
movimientos de una imagen a otra. El número de bits también depende
de si la imagen está INTRA codificada o INTER codificada, es decir,
predicción a partir de macrobloques vecinos en la misma imagen o
predicción a partir de una imagen/imágenes anterior(es).
Cuando los datos codificados de imágenes
síncronas completas se insertan en las memorias intermedias
respectivas, los dispositivos de reorganización 161, 162, 163, 164,
165 están listos para reorganizar el orden de los macrobloques para
crear las imágenes CP requeridas para las salidas 181, 182, 183, 184
y 185 asociadas, respectivamente. Los dispositivos de
reorganización podrán identificar y aislar los macrobloques mediante
el GOB y las cabeceras de macrobloque. El inicio de cada GOB se
indica mediante un código de inicio único denominado GBSC (código
de inicio de grupo de bloques), seguido de un GN (número de grupo,
Group Number) que indica el número de GOB. En las cabeceras
de los macrobloques, COD indica si el macrobloque está codificado o
no. Si COD vale "1", no hay información adicional para ese
macrobloque, con el vector de movimiento para todo el bloque igual
a cero y sin datos de coeficientes. Si COD vale "0", hay datos
adicionales del macrobloque. Algunos de los datos adicionales
pueden tener una longitud variable, pero los diferentes códigos
están definidos de tal manera que la longitud de cada código está
bien definida.
Puesto que los macrobloques pueden identificarse
y se almacenan temporalmente en una memoria intermedia 159, 160,
los dispositivos de reorganización 161, 162, 163, 164, 165 pueden
leer los macrobloques en cualquier orden creando cualquier variante
de una imagen CP 4 a partir de la imagen de los cinco
emplazamientos. Como un ejemplo, considérese el dispositivo de
reorganización 164 que crea la imagen CP para el cuarto
emplazamiento, es decir, la salida 184 del emplazamiento 4. La
primera memoria intermedia 159 contiene los datos codificados de la
imagen 1 CP, mientras que la segunda memoria intermedia 160 contiene
los datos codificados de la imagen 2 CP. El dispositivo de
reorganización 164 extrae los GOB 1 a 9 de la imagen 1 CP en el
mismo orden establecido en la primera memoria intermedia 159 para
crear la nueva imagen CP. Sin embargo, cuando se crea el GOB 10, el
dispositivo de reorganización 164 identifica y extrae los 11
primeros macrobloques del GOB 10 de la primera memoria intermedia
159 seguidos por los 11 primeros macrobloques del GOB 1 de la
segunda memoria intermedia 160. Además, el GOB 11 se crea
extrayendo los 11 primeros macrobloques del GOB 11 de la primera
memoria intermedia 159 seguidos por los 11 primeros macrobloques
del GOB 2 de la segunda memoria intermedia 160. Los 7 GOB restantes
se crean de manera similar, terminando con el GOB 18 que se crea
extrayendo los 11 primeros macrobloques del GOB 18 de la primera
memoria intermedia 159 seguidos por los 11 primeros macrobloques del
GOB 9 de la segunda memoria intermedia 160.
Los dispositivos de reorganización 181, 182,
182, 184, 185 pueden preprogramarse para extraer los macrobloques
de las memorias intermedias 159, 160 en un orden constante, o el
orden de los macrobloques puede controlarse por una unidad de
control (no mostrada) permitiendo que un dispositivo de
reorganización cree varias imágenes CP.
La fig. 10 es un diagrama de bloques esquemático
que ilustra una realización del procedimiento según la
invención.
Las etapas de procedimiento ilustradas en la
fig. 10 están incluidas en un procedimiento para crear una imagen
de presencia continua (CP) objetivo codificada según una norma de
codificación de vídeo a partir de una pluralidad de señales de
vídeo codificadas que incluyen órdenes definidos de macrobloques.
Cada macrobloque comprende señales de vídeo codificadas
correspondientes a una imagen de vídeo respectiva de terminal final,
recibida desde terminales finales que participan en una conferencia
de vídeo multipunto.
El procedimiento comienza en la etapa 202.
En primer lugar se lleva a cabo la etapa de
descodificación 204, en la que las señales de vídeo se descodifican
para las imágenes de vídeo correspondientes de terminal final.
Después, en la etapa de mezcla 206, las imágenes
de vídeo de terminal final se mezclan espacialmente para una
pluralidad de imágenes CP compuestas por regiones asociadas
respectivamente con cada una de las imágenes de vídeo de terminal
final.
Después, en la etapa de codificación 208, las
imágenes CP se codifican para una pluralidad de imágenes CP
codificadas, respectivamente. Esta etapa establece los órdenes
definidos de macrobloques correspondientes a la norma de
codificación de vídeo y una fusión de los límites de región y los
límites de macrobloque.
Después de las tres etapas preparatorias 204,
206 y 208 anteriores, se lleva a cabo la etapa de creación 210. En
la etapa de creación 210, la imagen CP objetivo codificada se crea
reorganizando dichos órdenes de macrobloques de una manera
predefinida o controlada.
De manera ventajosa, la etapa de creación 210
comprende sustituir un primer número m de macrobloques que
representan un ancho de región en n números de GOB subsiguientes
que representan una altura de región en una primera imagen de la
pluralidad de imágenes CP codificadas por m números de macrobloques
en n números de GOB subsiguientes de una segunda imagen de la
pluralidad de imágenes CP codificadas.
El procedimiento termina en la etapa 212.
Como alternativa, las tres etapas preparatorias
del proceso descrito con referencia a la fig. 10, es decir, la
etapa de descodificación 204, la etapa de mezcla 206 y la etapa de
codificación 210, pueden sustituirse por una única etapa
solicitante (no ilustrada). En esta etapa solicitante, se solicita a
los terminales finales que codifiquen las imágenes de vídeo
respectivas de terminal final según la norma de vídeo y una
resolución, velocidad binaria y escalado determinados.
En su forma más básica, el procedimiento según
la invención incluye simplemente la etapa de creación 210.
Las realizaciones descritas hasta ahora se han
limitado a la creación de imágenes CP 4 de formato CIF según la
norma H.263. Sin embargo, los expertos en la materia observarán que
los principios básicos de la presente invención también pueden
aplicarse a otras imágenes CP de otros formatos. Como un ejemplo, la
presente invención puede utilizarse de hecho en la creación de
imágenes CP 9. Por tanto, los límites de las imágenes de cada GOB
(en el caso de CIF, H.263) se encuentran después del séptimo y del
decimocuarto macrobloque (como alternativa, después del octavo y
del decimoquinto o del séptimo y del decimoquinto).
En cualquier caso, debe haber un dispositivo de
reorganización (o al menos un procedimiento de reorganización) para
cada salida MCU. El número de codificadores depende de la relación
entre el número de regiones en las imágenes CP y el número de
emplazamientos que van a rellenar las regiones de las imágenes CP.
Debe haber un número suficiente de codificadores para generar una
región para cada emplazamiento. En caso de CP 4 y de ocho
emplazamientos, dos codificadores serán suficientes para colocar una
región para cada emplazamiento en cada uno de los ocho cuadrantes
totales. Sin embargo, aumentando el número de emplazamientos a
nueve, se requerirá un codificador adicional para crear una tercera
imagen CP 4 en la que pueda residir la novena región.
En una realización más general de la invención,
no se lleva a cabo ninguna descodificación y ningún escalado/mezcla
en la MCU. En cambio, se solicita a los terminales finales que
transmitan una imagen codificada según una norma, resolución,
velocidad binaria y escalado determinados. Los macrobloques de los
flujos de datos entrantes se cargan después directamente en las
memorias intermedias (preferentemente una para cada flujo de datos),
y los dispositivos de reorganización reorganizan los macrobloques
según procedimientos preprogramados o controlados, creando imágenes
CP sin vista propia que se transmiten a los respectivos
emplazamientos de conferencia. Como un ejemplo, considérense cinco
emplazamientos que participan en una conferencia. Entonces, una
vista CP 4 requiere que los terminales finales coloquen sus
respectivas imágenes en uno de los cuadrantes de una imagen
completa antes de codificarse. Esto se solicita a los terminales
finales junto con información de codificación como la norma, la
resolución, la velocidad binaria y el escalado. Después, los
dispositivos de reorganización pueden reorganizar fácilmente los
macrobloques de los flujos de datos entrantes cuando están presentes
en las respectivas memorias intermedias tal y como se ha descrito
anteriormente.
\vskip1.000000\baselineskip
Esta lista de referencias citadas por el
solicitante está prevista únicamente para ayudar al lector y no
forma parte del documento de patente europea. Aunque se ha puesto
el máximo cuidado en su realización, no se pueden excluir errores u
omisiones y la OEP declina cualquier responsabilidad al
respecto.
\bullet US 5600646 A [0011] [0012] [0021]
\bullet US 6404745 B [0011]
\bullet US 6404745 A [0012]
\bullet US 10601095 B [0034]
Claims (12)
1. Procedimiento para crear una imagen de
presencia continua (CP) objetivo codificada según una norma de
codificación de vídeo a partir de una pluralidad de señales de
vídeo codificadas incluyendo órdenes definidos de macrobloques,
comprendiendo cada uno señales de vídeo codificadas correspondientes
a una imagen de vídeo respectiva de terminal final recibida desde
terminales finales que participan en una conferencia de vídeo
multipunto, caracterizado por el hecho de que el
procedimiento comprende las siguientes etapas:
- -
- descodificar dichas señales de vídeo codificadas, dando como resultado imágenes de vídeo de terminal final,
- -
- mezclar espacialmente dichas imágenes de vídeo de terminal final, dando como resultado una pluralidad de imágenes CP compuestas por regiones asociadas respectivamente con cada una de dichas imágenes de vídeo de terminal final,
- -
- codificar dichas imágenes CP,
- -
- reorganizar los macrobloques de las imágenes CP codificadas, creando de ese modo dicha imagen CP codificada objetivo.
2. Procedimiento según la reivindicación 1, que
comprende además la siguiente etapa adicional, antes de la etapa de
crear la imagen CP objetivo codificada:
- solicitar a los terminales finales que codifiquen las imágenes de video respectivas de terminal final según la norma de vídeo y una resolución, velocidad binaria y escalado determinados.
3. Procedimiento según la reivindicación 1, en
el que dicha etapa de codificar dichas imágenes CP comprende
establecer órdenes definidos de macrobloques correspondientes a la
norma de codificación de vídeo y una fusión de los límites de
región y los límites de macrobloque.
4. Procedimiento según la reivindicación 3, en
el que las imágenes CP codificadas y la imagen CP objetivo
codificada están cada una en un formato CIF con 18 grupos de bloques
(GOB), incluyendo cada uno 22 macrobloques, dispuestos en una
formación apilada de manera que los 9 primeros GOB representan
regiones superiores y los últimos 9 GOB representan regiones
inferiores.
5. Procedimiento según la reivindicación 4, en
el que la etapa de crear la imagen CP objetivo codificada
incluye:
- sustituir m números de macrobloques que representan un ancho de región en n números de GOB subsiguientes que representan una altura de región en una primera imagen de la pluralidad de imágenes CP codificadas por m números de macrobloques en n números de GOB subsiguientes de una segunda imagen de la pluralidad de imágenes CP codificadas.
6. Procedimiento según la reivindicación 5, en
el que m=11, n=9 y dichas regiones representan cada una un
cuadrante de una imagen CP.
7. Procedimiento según la reivindicación 5, en
el que m=7 o m=8, n=6 y dichas regiones representan cada una un
octavo de una imagen CP.
8. Disposición en una unidad de control
multipunto (MCU) para crear una imagen CP objetivo codificada según
una norma de codificación de vídeo a partir de una pluralidad de
señales de entrada de vídeo codificadas, correspondiéndose cada una
con una imagen de vídeo respectiva de terminal final recibida desde
terminales finales que participan en una conferencia de vídeo
multipunto,
caracterizada por
- -
- descodificadores para descodificar cada una de dichas señales de vídeo codificadas, dando como resultado imágenes de vídeo de terminal final,
- -
- una unidad de mezcla y escalado, configurada para mezclar espacialmente dichas imágenes de vídeo de terminal final, dando como resultado una pluralidad de imágenes CP compuestas por regiones asociadas respectivamente con cada una de dichas imágenes de vídeo de terminal final,
- -
- una pluralidad de codificadores, configurados para codificar dichas imágenes CP,
- -
- un dispositivo de reorganización, configurado para reorganizar los macrobloques de las imágenes CP codificadas, creando de ese modo dicha imagen CP codificada objetivo.
9. Disposición según la reivindicación 8, en la
que las imágenes CP codificadas y la imagen CP objetivo codificada
están cada una en un formato CIF con 18 grupos de bloques (GOB),
incluyendo cada uno 22 macrobloques, dispuestos en una formación
apilada de manera que los 9 primeros GOB representan regiones
superiores y los últimos 9 GOB representan regiones inferiores.
10. Disposición según la reivindicación 9, en la
que dicho dispositivo de reorganización está configurado además
para sustituir m números de macrobloques que representan un ancho de
región en n números de GOB subsiguientes que representan una altura
de región en una primera imagen de la pluralidad de imágenes CP
codificadas por m números de macrobloques en n números de GOB
subsiguientes de una segunda imagen de la pluralidad de imágenes CP
codificadas.
11. Disposición según la reivindicación 10, en
la que m=11, n=9 y dichas regiones representan cada una un
cuadrante de una imagen CP.
12. Disposición según la reivindicación 10, en
la que m=7 o m=8, n=6 y dichas regiones representan cada una un
octavo de una imagen CP.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO20040661 | 2004-02-13 | ||
NO20040661A NO320115B1 (no) | 2004-02-13 | 2004-02-13 | Anordning og fremgangsmate for a generere CP-bilder. |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2345893T3 true ES2345893T3 (es) | 2010-10-05 |
Family
ID=34793425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05710946T Active ES2345893T3 (es) | 2004-02-13 | 2005-02-11 | Disposicion y procedimiento para generar imagenes de presencia continua. |
Country Status (9)
Country | Link |
---|---|
US (1) | US7720157B2 (es) |
EP (1) | EP1721462B1 (es) |
JP (1) | JP4582659B2 (es) |
CN (1) | CN100559865C (es) |
AT (1) | ATE471631T1 (es) |
DE (1) | DE602005021859D1 (es) |
ES (1) | ES2345893T3 (es) |
NO (1) | NO320115B1 (es) |
WO (1) | WO2005079068A1 (es) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8542266B2 (en) * | 2007-05-21 | 2013-09-24 | Polycom, Inc. | Method and system for adapting a CP layout according to interaction between conferees |
US8446454B2 (en) * | 2007-05-21 | 2013-05-21 | Polycom, Inc. | Dynamic adaption of a continuous presence videoconferencing layout based on video content |
US8116372B1 (en) * | 2007-10-26 | 2012-02-14 | Xilinx, Inc. | Data structure and method using same for encoding video information |
US8319820B2 (en) * | 2008-06-23 | 2012-11-27 | Radvision, Ltd. | Systems, methods, and media for providing cascaded multi-point video conferencing units |
DE102009011251A1 (de) * | 2009-03-02 | 2010-09-09 | Siemens Enterprise Communications Gmbh & Co. Kg | Multiplexverfahren und zugehörige funktionelle Datenstruktur zum Zusammenfassen digitaler Videosignale |
US9516272B2 (en) | 2010-03-31 | 2016-12-06 | Polycom, Inc. | Adapting a continuous presence layout to a discussion situation |
DE102010023954A1 (de) * | 2010-06-16 | 2011-12-22 | Siemens Enterprise Communications Gmbh & Co. Kg | Verfahren und Vorrichtung zum Mischen von Videoströmen auf der Makroblock-Ebene |
JP2012074981A (ja) * | 2010-09-29 | 2012-04-12 | Nec Corp | 多地点会議接続装置、多地点会議システム、多地点会議接続方法およびプログラム |
US8537195B2 (en) * | 2011-02-09 | 2013-09-17 | Polycom, Inc. | Automatic video layouts for multi-stream multi-site telepresence conferencing system |
US20140028788A1 (en) * | 2012-07-30 | 2014-01-30 | Polycom, Inc. | Method and system for conducting video conferences of diverse participating devices |
US9118807B2 (en) | 2013-03-15 | 2015-08-25 | Cisco Technology, Inc. | Split frame multistream encode |
US9215413B2 (en) | 2013-03-15 | 2015-12-15 | Cisco Technology, Inc. | Split frame multistream encode |
WO2014145481A1 (en) * | 2013-03-15 | 2014-09-18 | Cisco Technology, Inc. | Split frame multistream encode |
CN105635636B (zh) * | 2015-12-30 | 2019-05-03 | 随锐科技股份有限公司 | 一种视频会议系统及其实现视频图像传输控制的方法 |
US11153582B2 (en) * | 2019-01-17 | 2021-10-19 | Brightcove Inc. | Optimal multi-codec ABR ladder design |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0795553A (ja) * | 1993-09-22 | 1995-04-07 | Nippon Telegr & Teleph Corp <Ntt> | 多地点間画像通信システム |
JP3586484B2 (ja) * | 1993-12-10 | 2004-11-10 | 日本電気エンジニアリング株式会社 | 多地点会議用画面合成システムおよび方法 |
US5446491A (en) * | 1993-12-21 | 1995-08-29 | Hitachi, Ltd. | Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals |
JPH08251567A (ja) * | 1995-03-15 | 1996-09-27 | Toshiba Corp | テレビ会議装置 |
JPH1066088A (ja) * | 1996-08-16 | 1998-03-06 | Ricoh Co Ltd | 多地点テレビ会議制御装置 |
US6335927B1 (en) * | 1996-11-18 | 2002-01-01 | Mci Communications Corporation | System and method for providing requested quality of service in a hybrid network |
BR9714315A (pt) | 1996-11-18 | 2000-02-08 | Mci Communications Corp | Arquitetura para sistema de comunicação. |
US6731625B1 (en) * | 1997-02-10 | 2004-05-04 | Mci Communications Corporation | System, method and article of manufacture for a call back architecture in a hybrid network with support for internet telephony |
JPH10262228A (ja) * | 1997-03-18 | 1998-09-29 | Toshiba Corp | 通信システム、多地点制御装置、映像情報表示方法 |
JPH11239331A (ja) * | 1998-02-23 | 1999-08-31 | Kyocera Corp | 多地点通信システム |
US6288740B1 (en) * | 1998-06-11 | 2001-09-11 | Ezenia! Inc. | Method and apparatus for continuous presence conferencing with voice-activated quadrant selection |
EP1024643A1 (en) | 1999-01-29 | 2000-08-02 | International Business Machines Corporation | Method, apparatus and communication system for setting up a communication session |
US6606112B1 (en) * | 2000-03-16 | 2003-08-12 | Tandberg Telecom As | Composite-video generation from different-rate constituents |
US6535240B2 (en) * | 2001-07-16 | 2003-03-18 | Chih-Lung Yang | Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels |
AU2003207746A1 (en) | 2002-01-30 | 2003-09-02 | Jon T. Genna | Multipoint audiovisual conferencing system |
US7352809B2 (en) * | 2003-02-21 | 2008-04-01 | Polycom, Inc. | System and method for optimal transmission of a multitude of video pictures to one or more destinations |
US20050008240A1 (en) * | 2003-05-02 | 2005-01-13 | Ashish Banerji | Stitching of video for continuous presence multipoint video conferencing |
-
2004
- 2004-02-13 NO NO20040661A patent/NO320115B1/no not_active IP Right Cessation
-
2005
- 2005-02-11 ES ES05710946T patent/ES2345893T3/es active Active
- 2005-02-11 JP JP2006553078A patent/JP4582659B2/ja not_active Expired - Fee Related
- 2005-02-11 AT AT05710946T patent/ATE471631T1/de not_active IP Right Cessation
- 2005-02-11 US US11/055,176 patent/US7720157B2/en active Active
- 2005-02-11 EP EP05710946A patent/EP1721462B1/en active Active
- 2005-02-11 CN CNB2005800047469A patent/CN100559865C/zh active Active
- 2005-02-11 DE DE602005021859T patent/DE602005021859D1/de active Active
- 2005-02-11 WO PCT/NO2005/000050 patent/WO2005079068A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
NO20040661D0 (no) | 2004-02-13 |
US20050195275A1 (en) | 2005-09-08 |
EP1721462B1 (en) | 2010-06-16 |
WO2005079068A1 (en) | 2005-08-25 |
EP1721462A1 (en) | 2006-11-15 |
US7720157B2 (en) | 2010-05-18 |
NO320115B1 (no) | 2005-10-24 |
CN100559865C (zh) | 2009-11-11 |
JP4582659B2 (ja) | 2010-11-17 |
CN1918912A (zh) | 2007-02-21 |
JP2007522761A (ja) | 2007-08-09 |
ATE471631T1 (de) | 2010-07-15 |
DE602005021859D1 (de) | 2010-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2345893T3 (es) | Disposicion y procedimiento para generar imagenes de presencia continua. | |
US7616591B2 (en) | Video conferencing system | |
US6535240B2 (en) | Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels | |
EP2214410B1 (en) | Method and system for conducting continuous presence conferences | |
US9215416B2 (en) | Method and system for switching between video streams in a continuous presence conference | |
ES2336216T3 (es) | Compositor de medios distribuidos a tiempo real. | |
JP4295441B2 (ja) | ビデオ通信システム、デコーダ回路、ビデオディスプレイシステム、エンコーダ回路、及びビデオデータ受信方法 | |
US5764277A (en) | Group-of-block based video signal combining for multipoint continuous presence video conferencing | |
US7932920B2 (en) | Method and apparatus for video conferencing having dynamic picture layout | |
US20180343419A1 (en) | Method and system for conducting video conferences of diverse participating devices | |
US8184142B2 (en) | Method and system for composing video images from a plurality of endpoints | |
AU2002355089A1 (en) | Method and apparatus for continuously receiving frames from a pluarlity of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels | |
US8259624B2 (en) | Dynamic picture layout for video conferencing based on properties derived from received conferencing signals | |
CN101095350A (zh) | 用于低延迟视频混合的方法和系统 | |
EP2557780A2 (en) | Method and system for switching between video streams in a continuous presence conference | |
KR19990070821A (ko) | 화상회의 시스템에서 참가자 4명까지의 비디오를 단일 비디오 스트림으로 변환하는 서버 | |
Simmons et al. | Telecommunications and videoconferencing for psychiatry | |
JPH04119085A (ja) | 画像伝送装置 | |
JPH0399593A (ja) | 多地点間テレビ会議システムの画像データ伝送方式 |