ES2206213T3 - Procedimiento y sistema para videoconferencias. - Google Patents

Procedimiento y sistema para videoconferencias.

Info

Publication number
ES2206213T3
ES2206213T3 ES00918645T ES00918645T ES2206213T3 ES 2206213 T3 ES2206213 T3 ES 2206213T3 ES 00918645 T ES00918645 T ES 00918645T ES 00918645 T ES00918645 T ES 00918645T ES 2206213 T3 ES2206213 T3 ES 2206213T3
Authority
ES
Spain
Prior art keywords
participant
data
image data
image
videoconferences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00918645T
Other languages
English (en)
Inventor
Eric Lauper
Beat Herrmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Swisscom Mobile AG
Original Assignee
Swisscom Mobile AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Swisscom Mobile AG filed Critical Swisscom Mobile AG
Application granted granted Critical
Publication of ES2206213T3 publication Critical patent/ES2206213T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Glass Compositions (AREA)

Abstract

Procedimiento para videoconferencias, en el cual al menos tres participantes se comunican entre sí a través de puestos de participante en videoconferencias (11) de un sistema para videoconferencias, siendo transmitidos a través de una red de telecomunicaciones (40) datos multimedia que comprenden al menos datos de imagen de participante (22) y/o datos de tono de participante (21), y recibiendo cada uno de los participantes (10) los datos de imagen de participante de los otros participantes, representados de forma simultáneamente visible, en un aparato reproductor (24) del respectivo puesto de participante en videoconferencias (11), caracterizado porque la dirección de visión de los participantes (10) es registrada por respectivos sistemas de Eye Tracking (23), y datos de Eye Tracking, que comprenden al menos indicaciones sobre la dirección de visión, son transmitidos a una unidad de comunicación (20) del respectivo puesto de participante en videoconferencias (11), y porque cada vez son transmitidos con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones (40) a la unidad de comunicación (20) de un puesto de participante en videoconferencias (11), los datos de imagen de participante de aquel participante cuyos datos de imagen de participante son representados en el aparato reproductor (24) de dicho últimamente citado puesto de participante en videoconferencias (11) en la dirección de visión momentánea del participante (10) de dicho puesto de participante en videoconferencias (11), mientras que los datos de imagen de participante de los restantes participantes son transmitidos con resolución reducida y/o velocidad de transmisión de imagen reducida.

Description

Procedimiento y sistema para videoconferencias.
La presente invención se refiere a un procedimiento y sistema para videoconferencias con al menos tres distintos puestos de participante en videoconferencias, que se comunican entre sí, siendo transmitidos a través de una red de telecomunicaciones datos multimedia que comprenden al menos datos de imagen de participante y/o datos de tono de participante, y recibiendo cada participante los datos de imagen de participante de los otros participantes, representados de forma visible simultáneamente, en un aparato reproductor, por ejemplo una. pantalla o un VRD (Virtual Retinal Display). La invención se refiere particularmente a procedimientos y sistemas que se comuniquen a través de redes de telecomunicaciones que consistan al menos en parte de una red de radiofrecuencia móvil.
La rápida transmisión, la recepción y la representación de imágenes de vídeo por medio de aparatos de vídeo y televisión es conocida. Las imágenes suelen poseer normalmente una resolución de al menos de 10x6 ppi (pixel por pulgada) en suficientemente buena calidad de color y de escalonamiento de grises. Para la transmisión de toda la información de imagen es condición previa un ancho de banda mínimo del canal de transmisión de varios megahercios. Los costos de tales sistemas resultan, no obstante, excesivamente elevados para ciertas aplicaciones, tales como sistemas de videoconferencia para uso comercial y doméstico. Es conocido emplear, para la transmisión de imágenes de video, medios con menor ancho de banda, tales como por ejemplo redes de telecomunicación públicas. Sin embargo, la velocidad de transmisión resulta correspondientemente baja con estos medios. Para aplicaciones especiales, tales como sistemas de vídeo "slow scan", puede efectivamente también ser suficiente un tal ancho de banda reducido. Ejemplos de ello son sistemas de seguridad y vigilancia, en los cuales no se precisa una alta velocidad de repetición de imágenes o una elevada resolución, respectivamente. Tales sistemas emplean típicamente una resolución de 128x128 pixel para toda la imagen, empleándose únicamente 16 escalones de color o de gris. Sin embargo, imágenes de vídeo de superior calidad, por ejemplo con 640x480 pixel (Norma europea: 620x576 pixel, 8 bit de profundidad de color) y una profundidad de color de 64 escalones, tales como son habituales para videoconferencias, no pueden transmitirse con estos sistemas. Una imagen de vídeo normal requiere aproximadamente 2 millones de bits de información, o sea aproximadamente 250 kByte, para imágenes con escalones de gris. En el caso de imágenes de color la cantidad de datos aumenta incluso a 750 kByte. La velocidad de transmisión de datos a través de redes telefónicas fijas públicas (PSTN: Public Switched Telephone Network) es hoy día típicamente de 57.000 bps (bits por segundo, para datos digitales ello corresponde a bauds) por línea en el campo analógico y de 64.000 bps para ISDN, con lo que se precisan aproximadamente 30 segundos o 90 segundos, respectivamente, para transmitir una imagen de vídeo completa de suficientemente buena calidad. Ello resulta excesivamente lento para la mayoría de aplicaciones de videoconferencia. Por esta razón, los datos de video digitales no tratados son comprimidos con diversos algoritmos de compresión de datos, a fin de acortar el tiempo de transmisión. Pero incluso algoritmos de compresión y descompresión muy buenos, con una relación de compresión de 1/20 hasta 1/50, resultan insuficientes para múltiples aplicaciones de videoconferencia. Además, la compresión y descompresión requieren normalmente tiempo y consumen correspondientemente energía y capacidad de cálculo. Por ejemplo en el campo de la radiofrecuencia móvil, puede ser también decisivo justamente este último factor. Además debe tenerse en cuenta que en el campo de la radiofrecuencia móvil, a diferencia de las redes PSTN, la calidad de conexión, que permitiría una máxima velocidad de transmisión, no está siempre dada. En caso de velocidades de transmisión inferiores a la máxima posible, se multiplica además correspondientemente el tiempo de transmisión. Para conseguir una ulterior compresión de datos se hallan en el estado de la técnica múltiples documentos que proponen transmitir con elevada resolución únicamente un determinado fragmento de una imagen tomada, mientras que todos los demás fragmentos de la imagen son transmitidos con resolución inferior. Las Patentes US 5703637 y US 4513317 constituyen ejemplos que mediante un sistema detector de la posición de los ojos (Eye Tracking System) registran el movimiento del globo del ojo o de la retina y utilizan esta información para representar con elevada resolución únicamente una pequeña porción de la imagen. Estos sistemas aprovechan la propiedad del ojo humano de que únicamente una pequeña parte de la retina (denominada fóvea) es de alta resolución, mientras que la gran parte restante posee una reducida resolución. El estado de la técnica adolece, no obstante, de diversos inconvenientes, entre otros del inconveniente de que todos los participantes deben utilizar el mismo estándar de video para poder representar estas imágenes. Sin embargo, es deseable que sistemas de videoconferencia sean independientes del estándar de video. Además, la fóvea posee un ángulo de visión de alta resolución de únicamente 2º. Este hecho es corregido por el cerebro mediante un movimiento de escaneo del ojo, natural pero inevitable y constante. Ello da lugar a que, por muy bien que coincidan la dirección de visión y la porción de imagen de alta resolución, al usuario le aparece la imagen borrosa con un pequeño fragmento de imagen agudo en el centro de visión. Este inconveniente solamente puede corregirse con el actual estado de la técnica, caso de que sea siguiera posible, de forma muy costosa.
La finalidad de la presente invención consiste en proponer un nuevo procedimiento y sistema para videoconferencias, el cual no adolezca de los arriba descritos inconvenientes. Particularmente se pretende poder transmitir los datos de imagen de participante de videoconferencias con elevada compresión.
De acuerdo con la presente invención, esta finalidad se consigue particularmente mediante los elementos de las reivindicaciones independientes. Ulteriores formas de realización ventajosas se desprenden, además, de las reivindicaciones dependientes y de la descripción.
Particularmente, estas finalidades se consiguen mediante la invención por el hecho de que al menos tres participante se comuniquen entre sí a través de puestos de participante en videoconferencias de un sistema de videoconferencia, siendo transmitidos a través de una red de telecomunicaciones datos multimedia que comprenden al menos datos de imagen de participante y/o datos de tono de participante, y recibiendo cada uno de los participantes los datos de imagen de participante de los otros participantes, representados de forma visible simultáneamente, en un aparato reproductor, por ejemplo una pantalla, del respectivo puesto de participante en videoconferencias, de que la dirección de visión de los participantes es respectivamente registrada por un Eye Tracking System y los datos de Eye Tracking, que comprenden al menos indicaciones sobre la dirección de visión, son transmitidos a una unidad de comunicación del respectivo puesto de participante en videoconferencias, y de que cada vez son transmitidos con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones a la unidad de comunicación de un puesto de participante en videoconferencias, los datos de imagen de participante de aquel participante cuyos datos de imagen de participante sean representados en el aparato reproductor del último citado puesto de participante en videoconferencias en la dirección de visión momentánea del participante de dicho puesto de participante en videoconferencias, en tanto que los datos de imagen de participante de los restantes participantes son transmitidos con resolución reducida y/o velocidad de transmisión de imagen reducida. La invención presenta la ventaja de que la compresión, es decir la reducción de los datos de imagen de participante es independiente del estándar de video empleado, ya que los datos de imagen de participante de un participante son transmitidos ya sea con resolución reducida o plena, sin que para ello tenga lugar una complicada subdivisión en Subframes como en el estado de la técnica. De esta manera pueden por ejemplo mantenerse las distintas imágenes de video de un interfase de videoconferencia. La sencillez del procedimiento conlleva igualmente un consumo mínimo de capacidad de cálculo, lo cual puede ser particularmente importante en aparatos de radiofrecuencia móvil con reservas de energía limitadas. El inconveniente del estado de la técnica, de que el movimiento de escaneado de la fóvea precisa ser corregido (tal como, por ejemplo, US 4513317), desaparece en la presente invención, ya que el movimiento de escaneado se refiere normalmente al objeto que deba ser reconocido. La impresión de un punto central agudo con fondo borroso desaparece. Todo el objeto lógico, por ejemplo el participante en la videoconferencia, es reconocido de forma aguda. Si la visión se desplaza a la próxima unidad lógica, es decir a los datos de imagen de participante de otro participante, éstos serán percibidos de forma aguda como un todo.
De acuerdo con una variante de realización, la velocidad de transmisión de imagen para aquellos datos de imagen de participante, que no son representados en la dirección de visión momentánea del participante, es equiparada a cero. Esta variante de realización posee particularmente la ventaja de que la solicitación de la red es limitada a un mínimo. Simultáneamente es minimizada la capacidad de cálculo requerida, que se precisa por ejemplo para descomprimir los datos de imagen de participante.
De acuerdo con una ulterior variante de realización, los datos de Eye Tracking así como los datos de imagen de participante son transmitidos a una unidad central, determinando la unidad central para cada participante, según las indicaciones de los datos de Eye Tracking del respectivo participante, la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes y transmitiendo los datos de imagen de participante en esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación del respectivo participante. Esta variante de realización posee, entre otras, la ventaja de que en caso de un gran número de participantes la solicitación de la red permanece pequeña. Debido a la reducción central de los datos de imagen de participante, permanece por ejemplo también pequeña la capacidad de cálculo de los distintos puestos de participante en videoconferencias, en comparación con otras soluciones.
De acuerdo con otra variante de realización, los datos de imagen de participante son transmitidos a una unidad central y memorizados en una memoria de datos de la unidad central (la memorización o el almacenamiento de los datos puede por ejemplo realizarse a través de un almacén de datos, una corriente de datos, un banco de datos o de otra manera), la unidad de comunicación de un participante determina, según las indicaciones de los datos de Eye Tracking del respectivo participante, la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes y estos datos de imagen de participante son transmitidos por la unidad central en esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación del respectivo participante. Esta variante de realización posee las mismas ventajas que la anteriormente citada variante de realización, pero no presupone de la unidad central capacidad de cálculo alguna para el cálculo de las imágenes de video que deban representarse de los distintos participantes, ya que las unidades de comunicación acceden directamente a los datos de imagen de participante en la resolución y velocidad de transmisión de imagen determinadas por ellos. Otra ventaja consiste en que los datos de Eye Tracking no precisan ser transmitidos a través de la red.
De acuerdo con una variante de realización, los datos de imagen de participante de un participante son memorizados en una respectiva memoria de datos de la unidad de comunicación de este participante y la unidad de comunicación determina, según las indicaciones de los datos de Eye Tracking de este participante, la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes, siendo transmitidos los últimamente citados datos de imagen de participante por las unidades de comunicación de los otros participantes con esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación del respectivo participante. Esta variante de realización posee, entre otras, la ventaja de que pasa sin necesidad de unidad central. Participantes de la red de telecomunicaciones pueden comunicarse entre sí directamente a través de la red de telecomunicaciones, sin tener que requerir ulteriores unidades, aparte de sus puestos de participante en videoconferencias.
De acuerdo con una ulterior variante de realización, al menos un puesto de participante en videoconferencias está conectado a través de una red de radiofrecuencia móvil con la red de telecomunicaciones. La red de telecomunicaciones puede por ejemplo comprender una red fija, tal como una red LAN (Local Area Network) o WAN (Wide Area Network), la red telefónica pública (PSTN (Public Switched Telephone Network) y/o ISDN (Integrated Services Digital Network)), el Internet u otra red de comunicación, particularmente una red de radiofrecuencia móvil.
De acuerdo con otra variante de realización, la unidad de comunicación emplea algoritmos de análisis de imagen y de reconstrucción de forma para representar los datos de imagen de participante, que han sido transmitidos con resolución reducida. Una de las ventajas de esta variante de realización consiste en que, a pesar de una resolución reducida de las imágenes transmitidas, las imágenes pueden ser restablecidas por medio de la síntesis de imagen de los algoritmos de reconstrucción de forma y representadas con mayor resolución que las transmitidas.
En este lugar se hace también constar que la presente invención se refiere, además de al procedimiento según la invención, también a un sistema para la realización de este procedimiento.
A continuación se describirán más detalladamente formas de realización de la presente invención en base de ejemplos, los cuales son ilustrados por las siguientes figuras de los dibujos adjuntos, en los cuales:
La Fig. 1 muestra un diagrama de bloques, que ilustra esquemáticamente una variante de realización de un sistema de videoconferencia, en el cual unidades de comunicación 20 de puestos de participante en videoconferencias acceden, a través de una unidad central 30, a datos de imagen de participante y datos de tono de participante;
la Fig. 2 muestra un diagrama de bloques, que ilustra esquemáticamente una ulterior variante de realización de un sistema de videoconferencia, en el cual unidades de comunicación 20 de puestos de participante en videoconferencias acceden, a través de memorias de datos 26 de las otras unidades de comunicación 20, a datos de imagen de participante y datos de tono de participante; y
la Fig. 3 muestra un diagrama de flujo, que ilustra esquemáticamente las etapas para una variante de realización de un módulo de codificación 27, cuyo módulo de codificación 27 comprende, entre otras, las funciones de compresión y descompresión asi como las funciones de codificación y descodificación.
La Fig. 1 ilustra una arquitectura susceptible de ser empleada para la realización de la invención. En este ejemplo de realización se comunican entre sí al menos tres distintos puestos de participante en videoconferencias 11, siendo transmitidos a través de una red de telecomunicaciones 40 datos multimedia que comprenden al menos datos de imagen de participante 22 y/o datos de tono de participante 21, y recibiendo cada uno de los participantes 10 los datos de imagen de participante de los otros participantes, representados de forma simultáneamente visible, en un aparato reproductor 24 del respectivo puesto de participante en videoconferencias 11. El aparato reproductor 24 puede ser, por ejemplo, una pantalla o un VRD (Virtual Retinal Display). La red de telecomunicaciones 40 puede comprender, por ejemplo, una red fija, tal como una red LAN (Local Area Network) o WAN (Wide Area Network), la red telefónica pública (PSTN, Public Switched Telephone Network y/o ISDN, Integrated Services Digital Network), el Internet, una red de comunicaciones orientada como paquete u otra red de comunicaciones, particularmente una red de radiofrecuencia móvil. La red de radiofrecuencia móvil puede ser, por ejemplo, una red GSM, UMTS u otra red de radiofrecuencia móvil. La comunicación a través de la red de radiofrecuencia móvil 40 se realiza, por ejemplo, a través de protocolos tales como GPRS (Generalized Packet Radio Service), WAP (Wireless Application Protokoll) o UMTS (Universal Mobile Telecommunication System). La captación de los datos de imagen de participante se realiza a través de un módulo de entrada de datos de imagen 22 y la captación de los datos de tono de participante se realiza a través de un módulo de entrada de datos de tono 21. El módulo de entrada de datos de imagen 22 puede comprender, por ejemplo, una videocámara, una unidad de escaneado por ejemplo basada en MEMS (Sistema Microelectromecánico), o una cámara digital. Ejemplos de datos de imagen de participante pueden ser imágenes de vídeo, textos, tablas, diapositivas, gráficos, etc. El módulo de entrada de datos de tono 21 puede comprender, por ejemplo, uno o varios micrófonos, reproductores CD-ROM u otros aparatos de entrada de tono. Un sistema de Eye Tracking 23 registra la dirección de visión del respectivo participante 10 y transmite datos de Eye Tracking, que comprenden al menos indicaciones sobre la dirección de visión, a una unidad de comunicación 20 del respectivo puesto de participante en videoconferencias 11 (es decir, el puesto de participante en videoconferencias del respectivo participante). El sistema de Eye Tracking 23 puede comprender, por ejemplo, un sistema basado en imagen Purkinje, que determina, a través de las diferencias de reflexión de dos rayos luminosos paralelos, reflejados en el fondo del ojo y en la córnea, la dirección de visión del participante 10, o bien puede comprender, por ejemplo, un sistema basado en un escáner de láser que, a través de un rayo láser y un rayo de referencia, explora el fondo del ojo y determina así la dirección de visión del participante 10, u otro sistema para la determinación de la dirección de visión del participante 10, tal como por ejemplo un sistema de Eye Tracking según la Patente WO 94/09472. Datos de imagen de participante y datos de tono de participante son transmitidos por la unidad de comunicación 20 a una unidad central 30. La transmisión puede por ejemplo realizarse de forma comprimida y/o codificada. La unidad central 30 posee un módulo de codificación 31, el cual recibe los datos y los descomprime y/o descodifica. Para la compresión pueden emplearse los más diversos algoritmos del estado de la técnica, tales como, por ejemplo, codificación Huffman, 3:2 Pulldown, etc., aunque también estándares de compresión tales como, por ejemplo, MPEG (Moving Pictures Expert Group) de la International Organization for Standardisation (ISO). En la transmisión de datos desde la unidad central 30 a una unidad de comunicación 20 el módulo de codificación 31 se hace también cargo de la compresión y/o de la codificación de los datos para la transmisión. Las unidades de comunicación 20 poseen también un módulo de codificación 27, el cual se ocupa de la compresión/descompresión así como de la codificación/descodificación de los datos. Así por ejemplo, una videocámara del módulo de entrada de datos de imagen 22 genera una videoseñal analógica. El conmutador de codificación 279 es posicionado por la unidad de comunicación 20 de tal modo que el flujo de datos sea conducido a través del sistema de compresión y codificación 271. El procesador de entrada 273 recibe la videoseñal, por ejemplo una señal PAL con 25 fps (Frames per Second) o una señal NTSC con 29,97 fps, y digitaliza así como filtra la videoseñal analógica, a fin de generar la videoseñal digital no tratada. En el caso de, por ejemplo, captación de datos de imagen digitales, se prescinde del último paso. Los 25 Frames de la señal PAL corresponden a 50 campos, o sea 50 campos por segundo, mientras que los 29,97 Frames de la señal NTSC corresponden a 59,94 campos, o sea 59,94 campos por segundo. El analizador de videodatos 274 recibe del procesador de entrada 273 la videoseñal digital, que va por ejemplo acompañada de una señal VSync, una señal de sincronización de campo, y genera una videoseñal modificada para el módulo de compresión 275. La modificación de la señal tiene lugar en tiempo real y genera una señal de salida que luego puede comprimirse óptimamente. Entre otras cosas, el analizador de videodatos 274 elimina, por ejemplo, campos o Frames redundantes en la videoseñal y genera las informaciones necesarias para, por ejemplo, Motion Compensated Prediction o Discrete Cosine Transformation (DCT), tal como se emplea, por ejemplo, también en el formato MPEG. Caso de que se empleen algoritmos de análisis de imagen y de reconstrucción de formas, éstos pueden ser también ejecutados por el analizador de videodatos. Forman parte de ello, particularmente, técnicas de análisis y síntesis de rostros, tales como, por ejemplo, Feature Point Modeling. Concretamente, de un modelo preestablecido, lo más generalizado posible (por ejemplo del rostro), se definen los denominados Feature Points, describiendo el vector de estos Feature Points la forma del modelo, la trayectoria el movimiento del modelo, y el espacio vectorial de estos vectores las posibilidades de movimiento del modelo. La deformación del modelo generalizado original puede por ejemplo calcularse con métodos DFFD (Dirichlet Free Form Deformation). La síntesis facial así como la animación facial pueden, por ejemplo, estar implementadas según estándar MPEG-4. Los videodatos digitales modificados son finalmente comprimidos y en caso necesario codificados por el módulo de compresión 275. La videoseñal digital comprimida es transmitida por la unidad de comunicación 20 a través de la red de telecomunicaciones 40. El módulo de codificación 27 de la unidad de comunicación 20 puede también emplearse para la descodificación de datos que hayan sido transmitidos a la unidad de comunicación 20 a través de la red de telecomunicaciones 40. El conmutador de codificación 279 es en este caso posicionado por la unidad de comunicación 20 de tal modo que sean activas las funciones del sistema de descompresión y descodificación 272. El módulo de descodificación 276 recibe los videodatos de la unidad de comunicación 20, los descomprime y, en caso necesario, los descodifica. Un procesador de salida 277 realiza, caso de que hayan sido empleados algoritmos de reconstrucción de formas, la síntesis de imagen, calcula la videoimagen que deba representarse y la retransmite como videoseñal a un módulo de reproducción 278, por ejemplo una tarjeta de pantalla o un dispositivo indicador VRD (Virtual Retinal Display), por ejemplo un dispositivo indicador VRD según la Patente WO 94/09472. La transferencia de datos de los datos de imagen de participante, que deban ser transmitidos, es por ejemplo iniciada y realizada a través de un módulo de transferencia, implementado por software o hardware, de la unidad central 30 o de las unidades de comunicación 20. Los datos de imagen de participante y los datos de tono de participante son memorizados en la unidad central en una memoria de datos 32. El almacenamiento o la memorización de los datos puede realizarse a través de una corriente de datos, un almacén de datos, un banco de datos o de otra manera. Cada vez son transmitidos con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones 40 a la unidad de comunicación 20 de un puesto de participante en videoconferencias 11, los datos de imagen de participante de aquel participante cuyos datos de imagen de participante son representados en el aparato reproductor 24 del últimamente citado puesto de participante en videoconferencias 11 en la dirección de visión momentánea del respectivo participante 10 (es decir del participante 10 cuya dirección de visión ha sido registrada por el sistema de Eye Tracking del puesto de participante en videoconferencias), mientras que los datos de imagen de participante de los restantes participantes son transmitidos con resolución reducida y/o velocidad de transmisión de imagen reducida. En el ejemplo de realización de la Fig. 1 las unidades de comunicación 20 transmiten los datos de imagen de participante de sus participantes 10 a la unidad central 30, donde son memorizados en una memoria de datos 32 de la unidad central 30. Existe por ejemplo la posibilidad de que simultáneamente sean transmitidos los datos de Eye Tracking de las respectivas unidades de comunicación 20. Los datos de Eye Tracking pueden por ejemplo ser indicaciones de dirección de la dirección de visión, indicaciones relativas a los datos de imagen de participante representados en la dirección de visión, etc. En este caso, la unidad central 30 determina para cada participante 10, según las indicaciones de los datos de Eye Tracking respecto a la dirección de visión del respectivo participante 10, la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes y los transmite con esta resolución y/o velocidad de transmisión de imagen a las unidades de comunicación 20 del respectivo participante 10. El módulo de codificación 31 de la unidad central 30 lleva también a cabo la reducción de la resolución de los datos de imagen de participante. La reducción de los datos multimedia no tiene que limitarse necesariamente a los datos de imagen de participante, sino que puede también afectar a otros datos de imagen multimedia del canal seleccionado por medio de la dirección de visión, por ejemplo los datos de tono de participante (por ejemplo con estándar MP3). Otra posibilidad consiste en que los datos de Eye Tracking no sean transmitidos por las unidades de comunicación 20 a la unidad central 30, sino únicamente los datos de imagen de participante. La unidad central 30 memoriza los datos de imagen de participante en plena y reducida resolución en una memoria de datos 32. Las unidades de comunicación 20 pueden entonces acceder, según sus datos de Eye Tracking, a los datos de imagen de participante de los otros participantes 10 en la correspondiente resolución y/o velocidad de transmisión de imagen en la unidad central 30. Los datos de imagen de participante solicitados son transmitidos por la unidad central 30 a la correspondiente unidad de comunicación 20 a través de la red de telecomunicaciones 40.
La Fig. 2 ilustra una arquitectura susceptible de ser empleada para la realización de la invención. En este ejemplo de realización se comunican entre sí al menos tres distintos puestos de participante en videoconferencias 11 a través de un sistema de videoconferencia, siendo transmitidos a través de una red de telecomunicaciones 40 datos multimedia que comprenden al menos datos de imagen de participante 22 y/o datos de tono de participante 21, y recibiendo cada uno de los participantes 10 los datos de imagen de participante de los otros participantes, representados de forma simultáneamente visible, en un aparato reproductor 24 del respectivo puesto de participante en videoconferencias 11. El aparato reproductor 24 puede ser, por ejemplo, una pantalla o un VRD (Virtual Retinal Display). Al igual que en el precedente ejemplo de realización, la red de telecomunicaciones 40 puede comprender, por ejemplo, una red fija, tal como una red LAN (Local Area Network) o WAN (Wide Area Network), la red telefónica pública (PSTN, Public Switched Telephone Network, y/o ISDN, Integrated Services Digital Network), el Internet u otra red de comunicación, particularmente una red de radiofrecuencia móvil. La captación de los datos de imagen de participante se realiza a través de un módulo de entrada de datos de imagen 22 y la captación de los datos de tono de participante se realiza a través de un módulo de entrada de datos de tono 21. El módulo de entrada de datos de imagen 22 puede comprender, por ejemplo, una videocámara, una unidad de escaneado o una cámara digital. Ejemplos de datos de imagen de participante pueden ser videoimágenes, fotos escaneadas, tablas, textos, gráficos, etc. El módulo de entrada de datos de tono 21 puede comprender, por ejemplo, uno o varios micrófonos, reproductores CDROM u otros aparatos de entrada de tono. Un sistema de Eye Tracking 23 registra la dirección de visión del respectivo participante 10 y transmite datos de Eye Tracking, que comprenden al menos indicaciones sobre la dirección de visión, a una unidad de comunicación 20 del respectivo puesto de participante en videoconferencias 11. Pueden emplearse, por ejemplo, sistemas de Eye Tracking tales como los descritos en el precedente ejemplo de realización. Cada vez son transmitidos con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones 40 a la unidad de comunicación 20 de un puesto de participante en videoconferencias 11, los datos de imagen de participante de aquel participante cuyos datos de imagen de participante son representados en el aparato reproductor 24 del últimamente citado puesto de participante en videoconferencias 11 en la dirección de visión momentánea del respectivo participante 10 (es decir del participante 10 cuya dirección de visión ha sido registrada por el sistema de Eye Tracking del puesto de participante en videoconferencias), mientras que los datos de imagen de participante de los restantes participantes son transmitidos con resolución reducida y/o velocidad de transmisión de imagen reducida. La reducción de los datos multimedia no tiene que limitarse necesariamente a los datos de imagen de participante, sino que puede también afectar a otros datos de imagen multimedia del canal seleccionado mediante la dirección de visión, por ejemplo los datos de tono de participante (por ejemplo con estándar MP3). Sin embargo, datos de imagen de participante y datos de tono de participante no son transmitidos, en este ejemplo de realización, a una unidad central 30, sino que son memorizados en una memoria de datos 26 de la respectiva unidad de comunicación 20. El almacenamiento o la memorización de los datos puede realizarse a través de una corriente de datos, un almacén de datos, un banco de datos o de otra manera. La unidad de comunicación 20 determina, en base de las indicaciones de los datos de Eye Tracking respecto a la dirección de visión del respectivo participante 10, la resolución y/o las velocidades de transmisión de imagen de los datos de imagen de participante que deban ser representados en el aparato reproductor 24 y solicita estos datos de imagen de participante a las unidades de comunicación de los otros participantes. Los datos de imagen de participante solicitados son transmitidos por las unidades de comunicación 20 de los otros participantes con esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación del respectivo participante 10. El ejemplo de realización posee un módulo de codificación 27 con la misma funcionalidad que en el precedente ejemplo de realización. Así pues, por ejemplo compresión/descompresión, codificación/descodificación y/o síntesis de imagen con algoritmos de reconstrucción de formas están implementados, tal como arriba descrito, en el módulo de codificación 27. Igualmente, el módulo de codificación 27 se hace cargo, en caso necesario, por ejemplo de la conversión de los videodatos analógicos en videodatos digitales, y viceversa.
En ambos ejemplos de realización es posible que la velocidad de transmisión de imagen para aquellos datos de imagen de participante, que en el aparato reproductor 24 no se representan en la dirección de visión del participante 10, sea equiparada a cero. El participante recibirá entonces en el aparato reproductor 24, representados en movimiento, únicamente los datos de imagen de participante momentáneamente observados, mientras que los restantes serán representados sin movimiento, por ejemplo como imagen estática. La imagen estática puede por ejemplo comprender aquellos datos de imagen de participante que habían sido transmitidos cuando se hallaban por última vez en la dirección de visión momentánea del participante 10 en el aparato reproductor 24. Sin embargo, existe también la posibilidad de representar como imagen estática, por ejemplo, cualesquiera otros datos de imagen en lugar de los precitados, por ejemplo sencillas reproducciones sintéticas de los datos de imagen de participante. Otra posibilidad para los datos de imagen de participante (tanto aquellos transmitidos con plena resolución como también aquellos transmitidos con resolución reducida), consiste en que el movimiento de los objetos de los datos de imagen de participante, o sea por ejemplo el movimiento de los labios de un participante, sea representado de forma totalmente sintética, es decir por medio de algoritmos de reconstrucción de formas y de animación. Entonces es por ejemplo suficiente transmitir únicamente una imagen de un participante y simular luego el movimiento. De acuerdo con una variante de realización, es por ejemplo también concebible variar la velocidad de transmisión de imagen mediante Motion Compensated Prediction. Así por ejemplo, en caso de mayores movimientos es aumentada la velocidad de transmisión de imagen y el porcentaje de imágenes con movimiento plenamente animado disminuye, mientras que en caso de menores movimientos es reducida la velocidad de transmisión de imagen y es sintetizado el movimiento en los datos de imagen de participante.

Claims (14)

1. Procedimiento para videoconferencias, en el cual al menos tres participantes se comunican entre sí a través de puestos de participante en videoconferencias (11) de un sistema para videoconferencias, siendo transmitidos a través de una red de telecomunicaciones (40) datos multimedia que comprenden al menos datos de imagen de participante (22) y/o datos de tono de participante (21), y recibiendo cada uno de los participantes (10) los datos de imagen de participante de los otros participantes, representados de forma simultáneamente visible, en un aparato reproductor (24) del respectivo puesto de participante en videoconferencias (11), caracterizado porque la dirección de visión de los participantes (10) es registrada por respectivos sistemas de Eye Tracking (23), y datos de Eye Tracking, que comprenden al menos indicaciones sobre la dirección de visión, son transmitidos a una unidad de comunicación (20) del respectivo puesto de participante en videoconferencias (11), y porque cada vez son transmitidos con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones (40) a la unidad de comunicación (20) de un puesto de participante en videoconferencias (11), los datos de imagen de participante de aquel participante cuyos datos de imagen de participante son representados en el aparato reproductor (24) de dicho últimamente citado puesto de participante en videoconferencias (11) en la dirección de visión momentánea del participante (10) de dicho puesto de participante en videoconferencias (11), mientras que los datos de imagen de participante de los restantes participantes son transmitidos con resolución reducida y/o velocidad de transmisión de imagen reducida.
2. Procedimiento según la reivindicación 1, caracterizado porque la velocidad de transmisión de imagen para aquellos datos de imagen de participante que no son representados en la dirección de visión momentánea del participante (10) es igual a cero.
3. Procedimiento según una de las reivindicaciones 1 ó 2, caracterizado porque los datos de Eye Tracking así como los datos de imagen de participante son transmitidos a una unidad central (30), determinando dicha unidad central (30) para cada participante (10), según las indicaciones de los datos de Eye Tracking del respectivo participante (10), la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes, y transmitiendo la misma los datos de imagen de participante con esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación (20) del respectivo participante (10).
4. Procedimiento según una de las reivindicaciones 1 ó 2, caracterizado porque los datos de imagen de participante son transmitidos a una unidad central (30) y son memorizados en una memoria de datos (32) de la unidad central (30), porque la unidad de comunicación (20) de un participante (10) determina, según las indicaciones de los datos de Eye Tracking del respectivo participante (10), la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes, y porque estos datos de imagen de participante son transmitidos por la unidad central (30) con esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación (20) del respectivo participante (10).
5. Procedimiento según una de las reivindicaciones 1 ó 2, caracterizado porque los datos de imagen de participante de un participante (10) son memorizados en una memoria de datos (26) de la unidad de comunicación (20) de dicho participante (10), y la unidad de comunicación (20) determina, en base de las indicaciones de los datos de Eye Tracking de este participante (10), la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes, siendo transmitidos los últimamente citados datos de imagen de participante por las unidades de comunicación de los otros participantes con esta resolución y/o velocidad de transmisión de imagen a la unidad de comunicación (20) del respectivo participante (10).
6. Procedimiento según una de las reivindicaciones 1 a 5, caracterizado porque al menos un puesto de participante en videoconferencias (11) está conectado con la red de telecomunicaciones (40) a través de una red de radiofrecuencia móvil (40).
7. Procedimiento según una de las reivindicaciones 1 a 6, caracterizado porque la unidad de comunicación (20) emplea algoritmos de análisis de imagen y de reconstrucción de formas, a fin de representar los datos de imagen de participante que han sido transmitidos con resolución reducida.
8. Sistema para videoconferencias, que comprende al menos tres distintos puestos de participante en videoconferencias (11), vinculados entre sí a través de una red de telecomunicaciones (40), comprendiendo cada uno de dichos puestos de participante en videoconferencias (11) una unidad de comunicación (20), un aparato reproductor (24) para la representación simultáneamente visible de datos de imagen de participante, y un módulo de emisión de tono (25) para la reproducción de datos de tono de participante, así como un módulo de captación de datos de imagen (22) para la captación de datos de imagen de participante, y un módulo de captación de datos de tono (21) para la captación de datos de tono de participante, caracterizado porque los puestos de participante en videoconferencias (11) comprenden un sistema de Eye Tracking (23), por medio del cual es registrada la dirección de visión del respectivo participante (10), y mediante el cual son transmitidos datos de Eye Tracking a la unidad de comunicación (20), comprendiendo los datos de Eye Tracking al menos indicaciones sobre la dirección de visión del participante (10), y porque el sistema para videoconferencias comprende medios aptos para transmitir con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones (40) a la unidad de comunicación (20) de un puesto de participante en videoconferencias (11), los datos de imagen de participante de aquel participante cuyos datos de imagen de participante sean representados en el aparato reproductor (24) de este últimamente citado puesto de participante en videoconferencias (11) en la dirección de visión momentánea del participante (10) de dicho puesto de participante en videoconferencias (11), y aptos para transmitir los datos de imagen de participante de los restantes participantes con resolución reducida y/o velocidad de transmisión de imagen reducida.
9. Sistema según la reivindicación 8, caracterizado porque la velocidad de transmisión de imagen para aquellos datos de imagen de participante que en el aparato reproductor (24) no son representados en la dirección de visión momentánea del participante (10) es igual a cero.
10. Sistema según una de las reivindicaciones 8 ó 9, caracterizado porque el sistema para videoconferencias comprende una unidad central (30), cuya unidad central (30) determina para cada participante, según las indicaciones de los datos de Eye Tracking del respectivo participante (10), la resolución y/o la velocidad de transmisión de imagen de los datos de imagen de participante de los otros participantes, y transmite los datos de imagen de participante con esta resolución y/o velocidad de transmisión de imagen a las unidades de comunicación (20) del respectivo participante (10).
11. Sistema según una de las reivindicaciones 8 ó 9, caracterizado porque el sistema para videoconferencias comprende una unidad central (30) con memoria de datos (32), desde cuya memoria de datos (32) son susceptibles de ser descargados los datos de imagen de participante de los participantes desde las unidades de comunicación, según las indicaciones de los datos de Eye Tracking del respectivo participante (10), con resolución plena o reducida así como con velocidad de transmisión de imagen plena o reducida.
12. Sistema según una de las reivindicaciones 8 ó 9, caracterizado porque la unidad de comunicación (20) de un participante (10) comprende una memoria de datos (26), desde cuya memoria de datos (26) son susceptibles de ser descargados los datos de imagen de participante del respectivo participante (10), por las unidades de comunicación (20), según las indicaciones de los datos de Eye Tracking del respectivo participante, con resolución plena o reducida y/o con velocidad de transmisión de imagen plena o reducida.
13. Sistema según una de las reivindicaciones 8 a 12, caracterizado porque la red de telecomunicaciones (40) comprende una red de radiofrecuencia móvil.
14. Sistema según una de las reivindicaciones 8 a 13, caracterizado porque la unidad de comunicación (20) comprende un módulo de. reconstrucción de imagen, el cual emplea algoritmos de análisis de imagen y algoritmos de reconstrucción de formas, a fin de reconstruir los datos de imagen de participante, que han sido transmitidos con resolución reducida.
ES00918645T 2000-04-28 2000-04-28 Procedimiento y sistema para videoconferencias. Expired - Lifetime ES2206213T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2000/000236 WO2001084838A1 (de) 2000-04-28 2000-04-28 Verfahren und system für videokonferenzen

Publications (1)

Publication Number Publication Date
ES2206213T3 true ES2206213T3 (es) 2004-05-16

Family

ID=4358070

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00918645T Expired - Lifetime ES2206213T3 (es) 2000-04-28 2000-04-28 Procedimiento y sistema para videoconferencias.

Country Status (12)

Country Link
US (1) US6717607B1 (es)
EP (1) EP1201082B1 (es)
JP (1) JP4602632B2 (es)
CN (1) CN1192618C (es)
AT (1) ATE249125T1 (es)
AU (1) AU772400B2 (es)
BR (1) BR0013612A (es)
DE (1) DE50003567D1 (es)
DK (1) DK1201082T3 (es)
ES (1) ES2206213T3 (es)
MX (1) MXPA02002131A (es)
WO (1) WO2001084838A1 (es)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1148690A1 (en) * 2000-04-20 2001-10-24 Telefonaktiebolaget Lm Ericsson Method, gateway system and arrangement in a communication network
KR100396892B1 (ko) * 2000-10-05 2003-09-03 삼성전자주식회사 비디오 mp3 시스템, 축소 비디오데이터 생성장치와생성방법 및 축소 비디오데이터 복원장치 및 복원방법
US20050149364A1 (en) * 2000-10-06 2005-07-07 Ombrellaro Mark P. Multifunction telemedicine software with integrated electronic medical record
US8392502B2 (en) * 2002-04-12 2013-03-05 Alcatel Lucent System and method for effecting conference calling
US7474326B2 (en) * 2002-11-04 2009-01-06 Tandberg Telecom As Inter-network and inter-protocol video conference privacy method, apparatus, and computer program product
JP2004312401A (ja) * 2003-04-08 2004-11-04 Sony Corp 再生装置および再生方法
US7464262B2 (en) * 2003-09-12 2008-12-09 Applied Minds, Inc. Method and apparatus for synchronizing audio and video in encrypted videoconferences
JP2005182456A (ja) * 2003-12-19 2005-07-07 Canon Inc 情報表示装置及び情報表示方法
CN100334882C (zh) * 2003-12-23 2007-08-29 华为技术有限公司 传输线路配置方法
US20060031912A1 (en) * 2004-07-30 2006-02-09 Pulitzer J H Integrated resource management and A/V telecommunication device
US20060036852A1 (en) * 2004-08-16 2006-02-16 Kwok-Yan Leung Byte-based data-processing device and the processing method thereof
DE502004009151D1 (de) * 2004-12-02 2009-04-23 Swisscom Mobile Ag Verfahren und System zur Wiedergabe des Bildes einer Person
US8223213B2 (en) * 2005-12-07 2012-07-17 Wireless Avionics Wireless and CCTV megapixel digital camera for surveillance and unmanned air vehicles
US8004540B1 (en) 2006-10-10 2011-08-23 Adobe Systems Incorporated Display resolution boundary
US8045469B2 (en) * 2006-12-18 2011-10-25 Research In Motion Limited System and method for adjusting transmission data rates to a device in a communication network
CN101355682B (zh) * 2007-07-23 2011-03-16 中兴通讯股份有限公司 一种宽带专线会议电视系统全网自动调速的方法
JP2009044328A (ja) * 2007-08-07 2009-02-26 Seiko Epson Corp 会議システム、サーバ、画像表示方法、コンピュータプログラム及び記録媒体
US20100054526A1 (en) * 2008-09-03 2010-03-04 Dean Eckles Method, apparatus and computer program product for providing gaze information
DE102009011251A1 (de) * 2009-03-02 2010-09-09 Siemens Enterprise Communications Gmbh & Co. Kg Multiplexverfahren und zugehörige funktionelle Datenstruktur zum Zusammenfassen digitaler Videosignale
CN107071688B (zh) 2009-06-23 2019-08-23 诺基亚技术有限公司 用于处理音频信号的方法及装置
US8179417B2 (en) * 2009-07-22 2012-05-15 Hewlett-Packard Development Company, L.P. Video collaboration
US9535651B2 (en) * 2009-12-18 2017-01-03 Oracle International Corporation Co-browsing systems and methods
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8949333B2 (en) * 2011-05-20 2015-02-03 Alejandro Backer Systems and methods for virtual interactions
US9874990B2 (en) 2012-02-10 2018-01-23 Oracle International Corporation System and method of concurrent unobstructed co-browsing and chat messaging
EP2642752A1 (en) 2012-03-23 2013-09-25 Alcatel Lucent Method, server, and terminal for conducting a video conference
US8976226B2 (en) * 2012-10-15 2015-03-10 Google Inc. Generating an animated preview of a multi-party video communication session
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9253520B2 (en) 2012-12-14 2016-02-02 Biscotti Inc. Video capture, processing and distribution system
US9654563B2 (en) 2012-12-14 2017-05-16 Biscotti Inc. Virtual remote functionality
US9485459B2 (en) * 2012-12-14 2016-11-01 Biscotti Inc. Virtual window
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
KR20160026317A (ko) * 2014-08-29 2016-03-09 삼성전자주식회사 음성 녹음 방법 및 장치
US9967399B2 (en) 2014-12-19 2018-05-08 Oracle International Corporation Co-browsing preview of queued customer contacts
US10671337B2 (en) 2015-09-25 2020-06-02 Oracle International Corporation Automatic sizing of agent's screen for html co-browsing applications
US10123020B2 (en) 2016-12-30 2018-11-06 Axis Ab Block level update rate control based on gaze sensing
US10110802B2 (en) 2016-12-30 2018-10-23 Axis Ab Historical gaze heat map for a video stream
US10121337B2 (en) 2016-12-30 2018-11-06 Axis Ab Gaze controlled bit rate
US10643443B2 (en) 2016-12-30 2020-05-05 Axis Ab Alarm masking based on gaze in video management system
CN107168668A (zh) * 2017-04-28 2017-09-15 北京七鑫易维信息技术有限公司 图像数据传输方法、装置以及存储介质、处理器
US10038788B1 (en) 2017-05-09 2018-07-31 Oracle International Corporation Self-learning adaptive routing system
US10445921B1 (en) * 2018-06-13 2019-10-15 Adobe Inc. Transferring motion between consecutive frames to a digital image
DE102020003522B4 (de) * 2020-06-12 2022-04-14 Jochen Ohligs Vorrichtung zur Darstellung von Bildern sowie Verwendung einer solchen Vorrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57208781A (en) * 1981-06-19 1982-12-21 Hitachi Ltd Conference system by video telephone
JPH07135623A (ja) 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
US5500671A (en) * 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
JPH099230A (ja) * 1995-06-15 1997-01-10 Oki Electric Ind Co Ltd 解像度制御装置
JP3217723B2 (ja) * 1997-03-13 2001-10-15 ▲すすむ▼ 舘 遠隔通信システム及び遠隔通信方法
US6288739B1 (en) * 1997-09-05 2001-09-11 Intelect Systems Corporation Distributed video communications system
US6606111B1 (en) * 1998-10-09 2003-08-12 Sony Corporation Communication apparatus and method thereof

Also Published As

Publication number Publication date
EP1201082A1 (de) 2002-05-02
CN1192618C (zh) 2005-03-09
CN1379953A (zh) 2002-11-13
JP4602632B2 (ja) 2010-12-22
EP1201082B1 (de) 2003-09-03
ATE249125T1 (de) 2003-09-15
MXPA02002131A (es) 2002-09-02
DK1201082T3 (da) 2003-12-15
DE50003567D1 (de) 2003-10-09
BR0013612A (pt) 2002-05-14
AU772400B2 (en) 2004-04-29
JP2003533098A (ja) 2003-11-05
WO2001084838A1 (de) 2001-11-08
US6717607B1 (en) 2004-04-06
AU3953300A (en) 2001-11-12

Similar Documents

Publication Publication Date Title
ES2206213T3 (es) Procedimiento y sistema para videoconferencias.
ES2203222T3 (es) Procedimiento de transmision de datos de imagen.
CN101002471B (zh) 对图像编码的方法和设备及对图像数据解码的方法和设备
KR100881526B1 (ko) 데이터 전송 방법 및 그 장치, 및 데이터 전송 시스템
US7982762B2 (en) System and method for combining local and remote images such that images of participants appear overlaid on another in substanial alignment
JP2018509113A (ja) 独立符号化バックグラウンド更新に基づく映像伝送
CN101072406A (zh) 用于显示图像的移动通信终端和方法
US20020149696A1 (en) Method for presenting improved motion image sequences
RU2226320C2 (ru) Способ и система для осуществления видеоконференций
US7719764B1 (en) Method and device for stereo projection of pictures
US6526173B1 (en) Method and system for compression encoding video signals representative of image frames
Fujii et al. Super-high-definition digital movie system
Lebreton Assessing human depth perception for 2D and 3D stereoscopic images and video and its relation with the overall 3D QoE
FR2660142A1 (fr) Procede et dispositif de codage-decodage d'un signal numerique de television haute definition en bande etroite.
Biswas Content adaptive video processing algorithms for digital TV
KR100498363B1 (ko) 휴대폰의 복원영상 후처리 방법
KR100498362B1 (ko) 휴대폰의 복원영상 후처리 방법
JPS61159881A (ja) テレビジヨン伝送方式
JP4335483B2 (ja) 遠隔地撮影システム
Sormain Offline H. 264 encoding method for omnidirectional videos with empirical region-of-interest
Tsai Affine motion based error concealment for ATM MPEG video
CN108833886A (zh) 一种标定焦点的方法
JPH01289389A (ja) 動画像信号の復号化方式
Leonardi Distributed Video Coding: Identifying Promising Application Scenarios
JP2002077843A (ja) テレビ会議用動画像転送装置、動画像復元装置および動画像交換装置