ES2206213T3 - Procedimiento y sistema para videoconferencias. - Google Patents
Procedimiento y sistema para videoconferencias.Info
- Publication number
- ES2206213T3 ES2206213T3 ES00918645T ES00918645T ES2206213T3 ES 2206213 T3 ES2206213 T3 ES 2206213T3 ES 00918645 T ES00918645 T ES 00918645T ES 00918645 T ES00918645 T ES 00918645T ES 2206213 T3 ES2206213 T3 ES 2206213T3
- Authority
- ES
- Spain
- Prior art keywords
- participant
- data
- image data
- image
- videoconferences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
- Glass Compositions (AREA)
Abstract
Procedimiento para videoconferencias, en el cual al menos tres participantes se comunican entre sí a través de puestos de participante en videoconferencias (11) de un sistema para videoconferencias, siendo transmitidos a través de una red de telecomunicaciones (40) datos multimedia que comprenden al menos datos de imagen de participante (22) y/o datos de tono de participante (21), y recibiendo cada uno de los participantes (10) los datos de imagen de participante de los otros participantes, representados de forma simultáneamente visible, en un aparato reproductor (24) del respectivo puesto de participante en videoconferencias (11), caracterizado porque la dirección de visión de los participantes (10) es registrada por respectivos sistemas de Eye Tracking (23), y datos de Eye Tracking, que comprenden al menos indicaciones sobre la dirección de visión, son transmitidos a una unidad de comunicación (20) del respectivo puesto de participante en videoconferencias (11), y porque cada vez son transmitidos con plena resolución y velocidad de transmisión de imagen, a través de la red de telecomunicaciones (40) a la unidad de comunicación (20) de un puesto de participante en videoconferencias (11), los datos de imagen de participante de aquel participante cuyos datos de imagen de participante son representados en el aparato reproductor (24) de dicho últimamente citado puesto de participante en videoconferencias (11) en la dirección de visión momentánea del participante (10) de dicho puesto de participante en videoconferencias (11), mientras que los datos de imagen de participante de los restantes participantes son transmitidos con resolución reducida y/o velocidad de transmisión de imagen reducida.
Description
Procedimiento y sistema para
videoconferencias.
La presente invención se refiere a un
procedimiento y sistema para videoconferencias con al menos tres
distintos puestos de participante en videoconferencias, que se
comunican entre sí, siendo transmitidos a través de una red de
telecomunicaciones datos multimedia que comprenden al menos datos
de imagen de participante y/o datos de tono de participante, y
recibiendo cada participante los datos de imagen de participante de
los otros participantes, representados de forma visible
simultáneamente, en un aparato reproductor, por ejemplo una.
pantalla o un VRD (Virtual Retinal Display). La invención se
refiere particularmente a procedimientos y sistemas que se
comuniquen a través de redes de telecomunicaciones que consistan al
menos en parte de una red de radiofrecuencia móvil.
La rápida transmisión, la recepción y la
representación de imágenes de vídeo por medio de aparatos de vídeo
y televisión es conocida. Las imágenes suelen poseer normalmente
una resolución de al menos de 10x6 ppi (pixel por pulgada) en
suficientemente buena calidad de color y de escalonamiento de
grises. Para la transmisión de toda la información de imagen es
condición previa un ancho de banda mínimo del canal de transmisión
de varios megahercios. Los costos de tales sistemas resultan, no
obstante, excesivamente elevados para ciertas aplicaciones, tales
como sistemas de videoconferencia para uso comercial y doméstico. Es
conocido emplear, para la transmisión de imágenes de video, medios
con menor ancho de banda, tales como por ejemplo redes de
telecomunicación públicas. Sin embargo, la velocidad de transmisión
resulta correspondientemente baja con estos medios. Para
aplicaciones especiales, tales como sistemas de vídeo "slow
scan", puede efectivamente también ser suficiente un tal ancho
de banda reducido. Ejemplos de ello son sistemas de seguridad y
vigilancia, en los cuales no se precisa una alta velocidad de
repetición de imágenes o una elevada resolución, respectivamente.
Tales sistemas emplean típicamente una resolución de 128x128 pixel
para toda la imagen, empleándose únicamente 16 escalones de color o
de gris. Sin embargo, imágenes de vídeo de superior calidad, por
ejemplo con 640x480 pixel (Norma europea: 620x576 pixel, 8 bit de
profundidad de color) y una profundidad de color de 64 escalones,
tales como son habituales para videoconferencias, no pueden
transmitirse con estos sistemas. Una imagen de vídeo normal
requiere aproximadamente 2 millones de bits de información, o sea
aproximadamente 250 kByte, para imágenes con escalones de gris. En
el caso de imágenes de color la cantidad de datos aumenta incluso a
750 kByte. La velocidad de transmisión de datos a través de redes
telefónicas fijas públicas (PSTN: Public Switched Telephone Network)
es hoy día típicamente de 57.000 bps (bits por segundo, para datos
digitales ello corresponde a bauds) por línea en el campo analógico
y de 64.000 bps para ISDN, con lo que se precisan aproximadamente
30 segundos o 90 segundos, respectivamente, para transmitir una
imagen de vídeo completa de suficientemente buena calidad. Ello
resulta excesivamente lento para la mayoría de aplicaciones de
videoconferencia. Por esta razón, los datos de video digitales no
tratados son comprimidos con diversos algoritmos de compresión de
datos, a fin de acortar el tiempo de transmisión. Pero incluso
algoritmos de compresión y descompresión muy buenos, con una
relación de compresión de 1/20 hasta 1/50, resultan insuficientes
para múltiples aplicaciones de videoconferencia. Además, la
compresión y descompresión requieren normalmente tiempo y consumen
correspondientemente energía y capacidad de cálculo. Por ejemplo en
el campo de la radiofrecuencia móvil, puede ser también decisivo
justamente este último factor. Además debe tenerse en cuenta que en
el campo de la radiofrecuencia móvil, a diferencia de las redes
PSTN, la calidad de conexión, que permitiría una máxima velocidad de
transmisión, no está siempre dada. En caso de velocidades de
transmisión inferiores a la máxima posible, se multiplica además
correspondientemente el tiempo de transmisión. Para conseguir una
ulterior compresión de datos se hallan en el estado de la técnica
múltiples documentos que proponen transmitir con elevada resolución
únicamente un determinado fragmento de una imagen tomada, mientras
que todos los demás fragmentos de la imagen son transmitidos con
resolución inferior. Las Patentes US 5703637 y US 4513317
constituyen ejemplos que mediante un sistema detector de la
posición de los ojos (Eye Tracking System) registran el movimiento
del globo del ojo o de la retina y utilizan esta información para
representar con elevada resolución únicamente una pequeña porción
de la imagen. Estos sistemas aprovechan la propiedad del ojo humano
de que únicamente una pequeña parte de la retina (denominada fóvea)
es de alta resolución, mientras que la gran parte restante posee una
reducida resolución. El estado de la técnica adolece, no obstante,
de diversos inconvenientes, entre otros del inconveniente de que
todos los participantes deben utilizar el mismo estándar de video
para poder representar estas imágenes. Sin embargo, es deseable que
sistemas de videoconferencia sean independientes del estándar de
video. Además, la fóvea posee un ángulo de visión de alta resolución
de únicamente 2º. Este hecho es corregido por el cerebro mediante
un movimiento de escaneo del ojo, natural pero inevitable y
constante. Ello da lugar a que, por muy bien que coincidan la
dirección de visión y la porción de imagen de alta resolución, al
usuario le aparece la imagen borrosa con un pequeño fragmento de
imagen agudo en el centro de visión. Este inconveniente solamente
puede corregirse con el actual estado de la técnica, caso de que
sea siguiera posible, de forma muy costosa.
La finalidad de la presente invención consiste en
proponer un nuevo procedimiento y sistema para videoconferencias, el
cual no adolezca de los arriba descritos inconvenientes.
Particularmente se pretende poder transmitir los datos de imagen de
participante de videoconferencias con elevada compresión.
De acuerdo con la presente invención, esta
finalidad se consigue particularmente mediante los elementos de las
reivindicaciones independientes. Ulteriores formas de realización
ventajosas se desprenden, además, de las reivindicaciones
dependientes y de la descripción.
Particularmente, estas finalidades se consiguen
mediante la invención por el hecho de que al menos tres participante
se comuniquen entre sí a través de puestos de participante en
videoconferencias de un sistema de videoconferencia, siendo
transmitidos a través de una red de telecomunicaciones datos
multimedia que comprenden al menos datos de imagen de participante
y/o datos de tono de participante, y recibiendo cada uno de los
participantes los datos de imagen de participante de los otros
participantes, representados de forma visible simultáneamente, en
un aparato reproductor, por ejemplo una pantalla, del respectivo
puesto de participante en videoconferencias, de que la dirección de
visión de los participantes es respectivamente registrada por un
Eye Tracking System y los datos de Eye Tracking, que comprenden al
menos indicaciones sobre la dirección de visión, son transmitidos a
una unidad de comunicación del respectivo puesto de participante en
videoconferencias, y de que cada vez son transmitidos con plena
resolución y velocidad de transmisión de imagen, a través de la red
de telecomunicaciones a la unidad de comunicación de un puesto de
participante en videoconferencias, los datos de imagen de
participante de aquel participante cuyos datos de imagen de
participante sean representados en el aparato reproductor del último
citado puesto de participante en videoconferencias en la dirección
de visión momentánea del participante de dicho puesto de
participante en videoconferencias, en tanto que los datos de imagen
de participante de los restantes participantes son transmitidos con
resolución reducida y/o velocidad de transmisión de imagen reducida.
La invención presenta la ventaja de que la compresión, es decir la
reducción de los datos de imagen de participante es independiente
del estándar de video empleado, ya que los datos de imagen de
participante de un participante son transmitidos ya sea con
resolución reducida o plena, sin que para ello tenga lugar una
complicada subdivisión en Subframes como en el estado de la
técnica. De esta manera pueden por ejemplo mantenerse las distintas
imágenes de video de un interfase de videoconferencia. La sencillez
del procedimiento conlleva igualmente un consumo mínimo de
capacidad de cálculo, lo cual puede ser particularmente importante
en aparatos de radiofrecuencia móvil con reservas de energía
limitadas. El inconveniente del estado de la técnica, de que el
movimiento de escaneado de la fóvea precisa ser corregido (tal
como, por ejemplo, US 4513317), desaparece en la presente
invención, ya que el movimiento de escaneado se refiere normalmente
al objeto que deba ser reconocido. La impresión de un punto central
agudo con fondo borroso desaparece. Todo el objeto lógico, por
ejemplo el participante en la videoconferencia, es reconocido de
forma aguda. Si la visión se desplaza a la próxima unidad lógica,
es decir a los datos de imagen de participante de otro participante,
éstos serán percibidos de forma aguda como un todo.
De acuerdo con una variante de realización, la
velocidad de transmisión de imagen para aquellos datos de imagen de
participante, que no son representados en la dirección de visión
momentánea del participante, es equiparada a cero. Esta variante de
realización posee particularmente la ventaja de que la solicitación
de la red es limitada a un mínimo. Simultáneamente es minimizada la
capacidad de cálculo requerida, que se precisa por ejemplo para
descomprimir los datos de imagen de participante.
De acuerdo con una ulterior variante de
realización, los datos de Eye Tracking así como los datos de imagen
de participante son transmitidos a una unidad central, determinando
la unidad central para cada participante, según las indicaciones de
los datos de Eye Tracking del respectivo participante, la
resolución y/o la velocidad de transmisión de imagen de los datos
de imagen de participante de los otros participantes y
transmitiendo los datos de imagen de participante en esta
resolución y/o velocidad de transmisión de imagen a la unidad de
comunicación del respectivo participante. Esta variante de
realización posee, entre otras, la ventaja de que en caso de un
gran número de participantes la solicitación de la red permanece
pequeña. Debido a la reducción central de los datos de imagen de
participante, permanece por ejemplo también pequeña la capacidad de
cálculo de los distintos puestos de participante en
videoconferencias, en comparación con otras soluciones.
De acuerdo con otra variante de realización, los
datos de imagen de participante son transmitidos a una unidad
central y memorizados en una memoria de datos de la unidad central
(la memorización o el almacenamiento de los datos puede por ejemplo
realizarse a través de un almacén de datos, una corriente de datos,
un banco de datos o de otra manera), la unidad de comunicación de
un participante determina, según las indicaciones de los datos de
Eye Tracking del respectivo participante, la resolución y/o la
velocidad de transmisión de imagen de los datos de imagen de
participante de los otros participantes y estos datos de imagen de
participante son transmitidos por la unidad central en esta
resolución y/o velocidad de transmisión de imagen a la unidad de
comunicación del respectivo participante. Esta variante de
realización posee las mismas ventajas que la anteriormente citada
variante de realización, pero no presupone de la unidad central
capacidad de cálculo alguna para el cálculo de las imágenes de
video que deban representarse de los distintos participantes, ya
que las unidades de comunicación acceden directamente a los datos
de imagen de participante en la resolución y velocidad de
transmisión de imagen determinadas por ellos. Otra ventaja consiste
en que los datos de Eye Tracking no precisan ser transmitidos a
través de la red.
De acuerdo con una variante de realización, los
datos de imagen de participante de un participante son memorizados
en una respectiva memoria de datos de la unidad de comunicación de
este participante y la unidad de comunicación determina, según las
indicaciones de los datos de Eye Tracking de este participante, la
resolución y/o la velocidad de transmisión de imagen de los datos de
imagen de participante de los otros participantes, siendo
transmitidos los últimamente citados datos de imagen de
participante por las unidades de comunicación de los otros
participantes con esta resolución y/o velocidad de transmisión de
imagen a la unidad de comunicación del respectivo participante. Esta
variante de realización posee, entre otras, la ventaja de que pasa
sin necesidad de unidad central. Participantes de la red de
telecomunicaciones pueden comunicarse entre sí directamente a través
de la red de telecomunicaciones, sin tener que requerir ulteriores
unidades, aparte de sus puestos de participante en
videoconferencias.
De acuerdo con una ulterior variante de
realización, al menos un puesto de participante en
videoconferencias está conectado a través de una red de
radiofrecuencia móvil con la red de telecomunicaciones. La red de
telecomunicaciones puede por ejemplo comprender una red fija, tal
como una red LAN (Local Area Network) o WAN (Wide Area Network), la
red telefónica pública (PSTN (Public Switched Telephone Network)
y/o ISDN (Integrated Services Digital Network)), el Internet u otra
red de comunicación, particularmente una red de radiofrecuencia
móvil.
De acuerdo con otra variante de realización, la
unidad de comunicación emplea algoritmos de análisis de imagen y de
reconstrucción de forma para representar los datos de imagen de
participante, que han sido transmitidos con resolución reducida.
Una de las ventajas de esta variante de realización consiste en que,
a pesar de una resolución reducida de las imágenes transmitidas,
las imágenes pueden ser restablecidas por medio de la síntesis de
imagen de los algoritmos de reconstrucción de forma y representadas
con mayor resolución que las transmitidas.
En este lugar se hace también constar que la
presente invención se refiere, además de al procedimiento según la
invención, también a un sistema para la realización de este
procedimiento.
A continuación se describirán más detalladamente
formas de realización de la presente invención en base de ejemplos,
los cuales son ilustrados por las siguientes figuras de los
dibujos adjuntos, en los cuales:
La Fig. 1 muestra un diagrama de bloques, que
ilustra esquemáticamente una variante de realización de un sistema
de videoconferencia, en el cual unidades de comunicación 20 de
puestos de participante en videoconferencias acceden, a través de
una unidad central 30, a datos de imagen de participante y datos de
tono de participante;
la Fig. 2 muestra un diagrama de bloques, que
ilustra esquemáticamente una ulterior variante de realización de un
sistema de videoconferencia, en el cual unidades de comunicación 20
de puestos de participante en videoconferencias acceden, a través
de memorias de datos 26 de las otras unidades de comunicación 20, a
datos de imagen de participante y datos de tono de participante;
y
la Fig. 3 muestra un diagrama de flujo, que
ilustra esquemáticamente las etapas para una variante de realización
de un módulo de codificación 27, cuyo módulo de codificación 27
comprende, entre otras, las funciones de compresión y descompresión
asi como las funciones de codificación y descodificación.
La Fig. 1 ilustra una arquitectura susceptible de
ser empleada para la realización de la invención. En este ejemplo
de realización se comunican entre sí al menos tres distintos puestos
de participante en videoconferencias 11, siendo transmitidos a
través de una red de telecomunicaciones 40 datos multimedia que
comprenden al menos datos de imagen de participante 22 y/o datos de
tono de participante 21, y recibiendo cada uno de los participantes
10 los datos de imagen de participante de los otros participantes,
representados de forma simultáneamente visible, en un aparato
reproductor 24 del respectivo puesto de participante en
videoconferencias 11. El aparato reproductor 24 puede ser, por
ejemplo, una pantalla o un VRD (Virtual Retinal Display). La red de
telecomunicaciones 40 puede comprender, por ejemplo, una red fija,
tal como una red LAN (Local Area Network) o WAN (Wide Area
Network), la red telefónica pública (PSTN, Public Switched
Telephone Network y/o ISDN, Integrated Services Digital Network), el
Internet, una red de comunicaciones orientada como paquete u otra
red de comunicaciones, particularmente una red de radiofrecuencia
móvil. La red de radiofrecuencia móvil puede ser, por ejemplo, una
red GSM, UMTS u otra red de radiofrecuencia móvil. La comunicación
a través de la red de radiofrecuencia móvil 40 se realiza, por
ejemplo, a través de protocolos tales como GPRS (Generalized Packet
Radio Service), WAP (Wireless Application Protokoll) o UMTS
(Universal Mobile Telecommunication System). La captación de los
datos de imagen de participante se realiza a través de un módulo de
entrada de datos de imagen 22 y la captación de los datos de tono de
participante se realiza a través de un módulo de entrada de datos
de tono 21. El módulo de entrada de datos de imagen 22 puede
comprender, por ejemplo, una videocámara, una unidad de escaneado
por ejemplo basada en MEMS (Sistema Microelectromecánico), o una
cámara digital. Ejemplos de datos de imagen de participante pueden
ser imágenes de vídeo, textos, tablas, diapositivas, gráficos, etc.
El módulo de entrada de datos de tono 21 puede comprender, por
ejemplo, uno o varios micrófonos, reproductores
CD-ROM u otros aparatos de entrada de tono. Un
sistema de Eye Tracking 23 registra la dirección de visión del
respectivo participante 10 y transmite datos de Eye Tracking, que
comprenden al menos indicaciones sobre la dirección de visión, a una
unidad de comunicación 20 del respectivo puesto de participante en
videoconferencias 11 (es decir, el puesto de participante en
videoconferencias del respectivo participante). El sistema de Eye
Tracking 23 puede comprender, por ejemplo, un sistema basado en
imagen Purkinje, que determina, a través de las diferencias de
reflexión de dos rayos luminosos paralelos, reflejados en el fondo
del ojo y en la córnea, la dirección de visión del participante
10, o bien puede comprender, por ejemplo, un sistema basado en un
escáner de láser que, a través de un rayo láser y un rayo de
referencia, explora el fondo del ojo y determina así la dirección
de visión del participante 10, u otro sistema para la determinación
de la dirección de visión del participante 10, tal como por ejemplo
un sistema de Eye Tracking según la Patente WO 94/09472. Datos de
imagen de participante y datos de tono de participante son
transmitidos por la unidad de comunicación 20 a una unidad central
30. La transmisión puede por ejemplo realizarse de forma comprimida
y/o codificada. La unidad central 30 posee un módulo de
codificación 31, el cual recibe los datos y los descomprime y/o
descodifica. Para la compresión pueden emplearse los más diversos
algoritmos del estado de la técnica, tales como, por ejemplo,
codificación Huffman, 3:2 Pulldown, etc., aunque también estándares
de compresión tales como, por ejemplo, MPEG (Moving Pictures Expert
Group) de la International Organization for Standardisation (ISO).
En la transmisión de datos desde la unidad central 30 a una unidad
de comunicación 20 el módulo de codificación 31 se hace también
cargo de la compresión y/o de la codificación de los datos para la
transmisión. Las unidades de comunicación 20 poseen también un
módulo de codificación 27, el cual se ocupa de la
compresión/descompresión así como de la codificación/descodificación
de los datos. Así por ejemplo, una videocámara del módulo de entrada
de datos de imagen 22 genera una videoseñal analógica. El
conmutador de codificación 279 es posicionado por la unidad de
comunicación 20 de tal modo que el flujo de datos sea conducido a
través del sistema de compresión y codificación 271. El procesador
de entrada 273 recibe la videoseñal, por ejemplo una señal PAL con
25 fps (Frames per Second) o una señal NTSC con 29,97 fps, y
digitaliza así como filtra la videoseñal analógica, a fin de generar
la videoseñal digital no tratada. En el caso de, por ejemplo,
captación de datos de imagen digitales, se prescinde del último
paso. Los 25 Frames de la señal PAL corresponden a 50 campos, o sea
50 campos por segundo, mientras que los 29,97 Frames de la señal
NTSC corresponden a 59,94 campos, o sea 59,94 campos por segundo.
El analizador de videodatos 274 recibe del procesador de entrada
273 la videoseñal digital, que va por ejemplo acompañada de una
señal VSync, una señal de sincronización de campo, y genera una
videoseñal modificada para el módulo de compresión 275. La
modificación de la señal tiene lugar en tiempo real y genera una
señal de salida que luego puede comprimirse óptimamente. Entre otras
cosas, el analizador de videodatos 274 elimina, por ejemplo, campos
o Frames redundantes en la videoseñal y genera las informaciones
necesarias para, por ejemplo, Motion Compensated Prediction o
Discrete Cosine Transformation (DCT), tal como se emplea, por
ejemplo, también en el formato MPEG. Caso de que se empleen
algoritmos de análisis de imagen y de reconstrucción de formas,
éstos pueden ser también ejecutados por el analizador de videodatos.
Forman parte de ello, particularmente, técnicas de análisis y
síntesis de rostros, tales como, por ejemplo, Feature Point
Modeling. Concretamente, de un modelo preestablecido, lo más
generalizado posible (por ejemplo del rostro), se definen los
denominados Feature Points, describiendo el vector de estos Feature
Points la forma del modelo, la trayectoria el movimiento del
modelo, y el espacio vectorial de estos vectores las posibilidades
de movimiento del modelo. La deformación del modelo generalizado
original puede por ejemplo calcularse con métodos DFFD (Dirichlet
Free Form Deformation). La síntesis facial así como la animación
facial pueden, por ejemplo, estar implementadas según estándar
MPEG-4. Los videodatos digitales modificados son
finalmente comprimidos y en caso necesario codificados por el módulo
de compresión 275. La videoseñal digital comprimida es transmitida
por la unidad de comunicación 20 a través de la red de
telecomunicaciones 40. El módulo de codificación 27 de la unidad de
comunicación 20 puede también emplearse para la descodificación de
datos que hayan sido transmitidos a la unidad de comunicación 20 a
través de la red de telecomunicaciones 40. El conmutador de
codificación 279 es en este caso posicionado por la unidad de
comunicación 20 de tal modo que sean activas las funciones del
sistema de descompresión y descodificación 272. El módulo de
descodificación 276 recibe los videodatos de la unidad de
comunicación 20, los descomprime y, en caso necesario, los
descodifica. Un procesador de salida 277 realiza, caso de que hayan
sido empleados algoritmos de reconstrucción de formas, la síntesis
de imagen, calcula la videoimagen que deba representarse y la
retransmite como videoseñal a un módulo de reproducción 278, por
ejemplo una tarjeta de pantalla o un dispositivo indicador VRD
(Virtual Retinal Display), por ejemplo un dispositivo indicador VRD
según la Patente WO 94/09472. La transferencia de datos de los
datos de imagen de participante, que deban ser transmitidos, es
por ejemplo iniciada y realizada a través de un módulo de
transferencia, implementado por software o hardware, de la unidad
central 30 o de las unidades de comunicación 20. Los datos de
imagen de participante y los datos de tono de participante son
memorizados en la unidad central en una memoria de datos 32. El
almacenamiento o la memorización de los datos puede realizarse a
través de una corriente de datos, un almacén de datos, un banco de
datos o de otra manera. Cada vez son transmitidos con plena
resolución y velocidad de transmisión de imagen, a través de la red
de telecomunicaciones 40 a la unidad de comunicación 20 de un puesto
de participante en videoconferencias 11, los datos de imagen de
participante de aquel participante cuyos datos de imagen de
participante son representados en el aparato reproductor 24 del
últimamente citado puesto de participante en videoconferencias 11 en
la dirección de visión momentánea del respectivo participante 10 (es
decir del participante 10 cuya dirección de visión ha sido
registrada por el sistema de Eye Tracking del puesto de
participante en videoconferencias), mientras que los datos de
imagen de participante de los restantes participantes son
transmitidos con resolución reducida y/o velocidad de transmisión de
imagen reducida. En el ejemplo de realización de la Fig. 1 las
unidades de comunicación 20 transmiten los datos de imagen de
participante de sus participantes 10 a la unidad central 30, donde
son memorizados en una memoria de datos 32 de la unidad central 30.
Existe por ejemplo la posibilidad de que simultáneamente sean
transmitidos los datos de Eye Tracking de las respectivas unidades
de comunicación 20. Los datos de Eye Tracking pueden por ejemplo
ser indicaciones de dirección de la dirección de visión,
indicaciones relativas a los datos de imagen de participante
representados en la dirección de visión, etc. En este caso, la
unidad central 30 determina para cada participante 10, según las
indicaciones de los datos de Eye Tracking respecto a la dirección
de visión del respectivo participante 10, la resolución y/o la
velocidad de transmisión de imagen de los datos de imagen de
participante de los otros participantes y los transmite con esta
resolución y/o velocidad de transmisión de imagen a las unidades de
comunicación 20 del respectivo participante 10. El módulo de
codificación 31 de la unidad central 30 lleva también a cabo la
reducción de la resolución de los datos de imagen de participante.
La reducción de los datos multimedia no tiene que limitarse
necesariamente a los datos de imagen de participante, sino que puede
también afectar a otros datos de imagen multimedia del canal
seleccionado por medio de la dirección de visión, por ejemplo los
datos de tono de participante (por ejemplo con estándar MP3). Otra
posibilidad consiste en que los datos de Eye Tracking no sean
transmitidos por las unidades de comunicación 20 a la unidad
central 30, sino únicamente los datos de imagen de participante. La
unidad central 30 memoriza los datos de imagen de participante en
plena y reducida resolución en una memoria de datos 32. Las
unidades de comunicación 20 pueden entonces acceder, según sus
datos de Eye Tracking, a los datos de imagen de participante de los
otros participantes 10 en la correspondiente resolución y/o
velocidad de transmisión de imagen en la unidad central 30. Los
datos de imagen de participante solicitados son transmitidos por la
unidad central 30 a la correspondiente unidad de comunicación 20 a
través de la red de telecomunicaciones 40.
La Fig. 2 ilustra una arquitectura susceptible de
ser empleada para la realización de la invención. En este ejemplo
de realización se comunican entre sí al menos tres distintos puestos
de participante en videoconferencias 11 a través de un sistema de
videoconferencia, siendo transmitidos a través de una red de
telecomunicaciones 40 datos multimedia que comprenden al menos datos
de imagen de participante 22 y/o datos de tono de participante 21, y
recibiendo cada uno de los participantes 10 los datos de imagen de
participante de los otros participantes, representados de forma
simultáneamente visible, en un aparato reproductor 24 del
respectivo puesto de participante en videoconferencias 11. El
aparato reproductor 24 puede ser, por ejemplo, una pantalla o un VRD
(Virtual Retinal Display). Al igual que en el precedente ejemplo de
realización, la red de telecomunicaciones 40 puede comprender, por
ejemplo, una red fija, tal como una red LAN (Local Area Network) o
WAN (Wide Area Network), la red telefónica pública (PSTN, Public
Switched Telephone Network, y/o ISDN, Integrated Services Digital
Network), el Internet u otra red de comunicación, particularmente
una red de radiofrecuencia móvil. La captación de los datos de
imagen de participante se realiza a través de un módulo de entrada
de datos de imagen 22 y la captación de los datos de tono de
participante se realiza a través de un módulo de entrada de datos
de tono 21. El módulo de entrada de datos de imagen 22 puede
comprender, por ejemplo, una videocámara, una unidad de escaneado o
una cámara digital. Ejemplos de datos de imagen de participante
pueden ser videoimágenes, fotos escaneadas, tablas, textos,
gráficos, etc. El módulo de entrada de datos de tono 21 puede
comprender, por ejemplo, uno o varios micrófonos, reproductores
CDROM u otros aparatos de entrada de tono. Un sistema de Eye
Tracking 23 registra la dirección de visión del respectivo
participante 10 y transmite datos de Eye Tracking, que comprenden al
menos indicaciones sobre la dirección de visión, a una unidad de
comunicación 20 del respectivo puesto de participante en
videoconferencias 11. Pueden emplearse, por ejemplo, sistemas de
Eye Tracking tales como los descritos en el precedente ejemplo de
realización. Cada vez son transmitidos con plena resolución y
velocidad de transmisión de imagen, a través de la red de
telecomunicaciones 40 a la unidad de comunicación 20 de un puesto
de participante en videoconferencias 11, los datos de imagen de
participante de aquel participante cuyos datos de imagen de
participante son representados en el aparato reproductor 24 del
últimamente citado puesto de participante en videoconferencias 11
en la dirección de visión momentánea del respectivo participante
10 (es decir del participante 10 cuya dirección de visión ha sido
registrada por el sistema de Eye Tracking del puesto de
participante en videoconferencias), mientras que los datos de
imagen de participante de los restantes participantes son
transmitidos con resolución reducida y/o velocidad de transmisión de
imagen reducida. La reducción de los datos multimedia no tiene que
limitarse necesariamente a los datos de imagen de participante,
sino que puede también afectar a otros datos de imagen multimedia
del canal seleccionado mediante la dirección de visión, por ejemplo
los datos de tono de participante (por ejemplo con estándar MP3).
Sin embargo, datos de imagen de participante y datos de tono de
participante no son transmitidos, en este ejemplo de realización, a
una unidad central 30, sino que son memorizados en una memoria de
datos 26 de la respectiva unidad de comunicación 20. El
almacenamiento o la memorización de los datos puede realizarse a
través de una corriente de datos, un almacén de datos, un banco de
datos o de otra manera. La unidad de comunicación 20 determina, en
base de las indicaciones de los datos de Eye Tracking respecto a la
dirección de visión del respectivo participante 10, la resolución
y/o las velocidades de transmisión de imagen de los datos de imagen
de participante que deban ser representados en el aparato
reproductor 24 y solicita estos datos de imagen de participante a
las unidades de comunicación de los otros participantes. Los datos
de imagen de participante solicitados son transmitidos por las
unidades de comunicación 20 de los otros participantes con esta
resolución y/o velocidad de transmisión de imagen a la unidad de
comunicación del respectivo participante 10. El ejemplo de
realización posee un módulo de codificación 27 con la misma
funcionalidad que en el precedente ejemplo de realización. Así
pues, por ejemplo compresión/descompresión,
codificación/descodificación y/o síntesis de imagen con algoritmos
de reconstrucción de formas están implementados, tal como arriba
descrito, en el módulo de codificación 27. Igualmente, el módulo de
codificación 27 se hace cargo, en caso necesario, por ejemplo de la
conversión de los videodatos analógicos en videodatos digitales, y
viceversa.
En ambos ejemplos de realización es posible que
la velocidad de transmisión de imagen para aquellos datos de imagen
de participante, que en el aparato reproductor 24 no se representan
en la dirección de visión del participante 10, sea equiparada a
cero. El participante recibirá entonces en el aparato reproductor
24, representados en movimiento, únicamente los datos de imagen de
participante momentáneamente observados, mientras que los restantes
serán representados sin movimiento, por ejemplo como imagen
estática. La imagen estática puede por ejemplo comprender aquellos
datos de imagen de participante que habían sido transmitidos cuando
se hallaban por última vez en la dirección de visión momentánea
del participante 10 en el aparato reproductor 24. Sin embargo,
existe también la posibilidad de representar como imagen estática,
por ejemplo, cualesquiera otros datos de imagen en lugar de los
precitados, por ejemplo sencillas reproducciones sintéticas de los
datos de imagen de participante. Otra posibilidad para los datos de
imagen de participante (tanto aquellos transmitidos con plena
resolución como también aquellos transmitidos con resolución
reducida), consiste en que el movimiento de los objetos de los
datos de imagen de participante, o sea por ejemplo el movimiento de
los labios de un participante, sea representado de forma totalmente
sintética, es decir por medio de algoritmos de reconstrucción de
formas y de animación. Entonces es por ejemplo suficiente transmitir
únicamente una imagen de un participante y simular luego el
movimiento. De acuerdo con una variante de realización, es por
ejemplo también concebible variar la velocidad de transmisión de
imagen mediante Motion Compensated Prediction. Así por ejemplo, en
caso de mayores movimientos es aumentada la velocidad de
transmisión de imagen y el porcentaje de imágenes con movimiento
plenamente animado disminuye, mientras que en caso de menores
movimientos es reducida la velocidad de transmisión de imagen y es
sintetizado el movimiento en los datos de imagen de
participante.
Claims (14)
1. Procedimiento para videoconferencias, en el
cual al menos tres participantes se comunican entre sí a través de
puestos de participante en videoconferencias (11) de un sistema para
videoconferencias, siendo transmitidos a través de una red de
telecomunicaciones (40) datos multimedia que comprenden al menos
datos de imagen de participante (22) y/o datos de tono de
participante (21), y recibiendo cada uno de los participantes (10)
los datos de imagen de participante de los otros participantes,
representados de forma simultáneamente visible, en un aparato
reproductor (24) del respectivo puesto de participante en
videoconferencias (11), caracterizado porque la dirección de
visión de los participantes (10) es registrada por respectivos
sistemas de Eye Tracking (23), y datos de Eye Tracking, que
comprenden al menos indicaciones sobre la dirección de visión, son
transmitidos a una unidad de comunicación (20) del respectivo
puesto de participante en videoconferencias (11), y porque cada vez
son transmitidos con plena resolución y velocidad de transmisión de
imagen, a través de la red de telecomunicaciones (40) a la unidad
de comunicación (20) de un puesto de participante en
videoconferencias (11), los datos de imagen de participante de
aquel participante cuyos datos de imagen de participante son
representados en el aparato reproductor (24) de dicho últimamente
citado puesto de participante en videoconferencias (11) en la
dirección de visión momentánea del participante (10) de dicho
puesto de participante en videoconferencias (11), mientras que los
datos de imagen de participante de los restantes participantes son
transmitidos con resolución reducida y/o velocidad de transmisión
de imagen reducida.
2. Procedimiento según la reivindicación 1,
caracterizado porque la velocidad de transmisión de imagen
para aquellos datos de imagen de participante que no son
representados en la dirección de visión momentánea del participante
(10) es igual a cero.
3. Procedimiento según una de las
reivindicaciones 1 ó 2, caracterizado porque los datos de
Eye Tracking así como los datos de imagen de participante son
transmitidos a una unidad central (30), determinando dicha unidad
central (30) para cada participante (10), según las indicaciones de
los datos de Eye Tracking del respectivo participante (10), la
resolución y/o la velocidad de transmisión de imagen de los datos
de imagen de participante de los otros participantes, y
transmitiendo la misma los datos de imagen de participante con esta
resolución y/o velocidad de transmisión de imagen a la unidad de
comunicación (20) del respectivo participante (10).
4. Procedimiento según una de las
reivindicaciones 1 ó 2, caracterizado porque los datos de
imagen de participante son transmitidos a una unidad central (30) y
son memorizados en una memoria de datos (32) de la unidad central
(30), porque la unidad de comunicación (20) de un participante (10)
determina, según las indicaciones de los datos de Eye Tracking del
respectivo participante (10), la resolución y/o la velocidad de
transmisión de imagen de los datos de imagen de participante de los
otros participantes, y porque estos datos de imagen de participante
son transmitidos por la unidad central (30) con esta resolución y/o
velocidad de transmisión de imagen a la unidad de comunicación (20)
del respectivo participante (10).
5. Procedimiento según una de las
reivindicaciones 1 ó 2, caracterizado porque los datos de
imagen de participante de un participante (10) son memorizados en
una memoria de datos (26) de la unidad de comunicación (20) de
dicho participante (10), y la unidad de comunicación (20) determina,
en base de las indicaciones de los datos de Eye Tracking de este
participante (10), la resolución y/o la velocidad de transmisión de
imagen de los datos de imagen de participante de los otros
participantes, siendo transmitidos los últimamente citados datos de
imagen de participante por las unidades de comunicación de los otros
participantes con esta resolución y/o velocidad de transmisión de
imagen a la unidad de comunicación (20) del respectivo participante
(10).
6. Procedimiento según una de las
reivindicaciones 1 a 5, caracterizado porque al menos un
puesto de participante en videoconferencias (11) está conectado con
la red de telecomunicaciones (40) a través de una red de
radiofrecuencia móvil (40).
7. Procedimiento según una de las
reivindicaciones 1 a 6, caracterizado porque la unidad de
comunicación (20) emplea algoritmos de análisis de imagen y de
reconstrucción de formas, a fin de representar los datos de imagen
de participante que han sido transmitidos con resolución
reducida.
8. Sistema para videoconferencias, que comprende
al menos tres distintos puestos de participante en videoconferencias
(11), vinculados entre sí a través de una red de telecomunicaciones
(40), comprendiendo cada uno de dichos puestos de participante en
videoconferencias (11) una unidad de comunicación (20), un aparato
reproductor (24) para la representación simultáneamente visible de
datos de imagen de participante, y un módulo de emisión de tono
(25) para la reproducción de datos de tono de participante, así
como un módulo de captación de datos de imagen (22) para la
captación de datos de imagen de participante, y un módulo de
captación de datos de tono (21) para la captación de datos de tono
de participante, caracterizado porque los puestos de
participante en videoconferencias (11) comprenden un sistema de Eye
Tracking (23), por medio del cual es registrada la dirección de
visión del respectivo participante (10), y mediante el cual son
transmitidos datos de Eye Tracking a la unidad de comunicación
(20), comprendiendo los datos de Eye Tracking al menos indicaciones
sobre la dirección de visión del participante (10), y porque el
sistema para videoconferencias comprende medios aptos para
transmitir con plena resolución y velocidad de transmisión de
imagen, a través de la red de telecomunicaciones (40) a la unidad
de comunicación (20) de un puesto de participante en
videoconferencias (11), los datos de imagen de participante de
aquel participante cuyos datos de imagen de participante sean
representados en el aparato reproductor (24) de este últimamente
citado puesto de participante en videoconferencias (11) en la
dirección de visión momentánea del participante (10) de dicho puesto
de participante en videoconferencias (11), y aptos para transmitir
los datos de imagen de participante de los restantes participantes
con resolución reducida y/o velocidad de transmisión de imagen
reducida.
9. Sistema según la reivindicación 8,
caracterizado porque la velocidad de transmisión de imagen
para aquellos datos de imagen de participante que en el aparato
reproductor (24) no son representados en la dirección de visión
momentánea del participante (10) es igual a cero.
10. Sistema según una de las reivindicaciones 8 ó
9, caracterizado porque el sistema para videoconferencias
comprende una unidad central (30), cuya unidad central (30)
determina para cada participante, según las indicaciones de los
datos de Eye Tracking del respectivo participante (10), la
resolución y/o la velocidad de transmisión de imagen de los datos
de imagen de participante de los otros participantes, y transmite
los datos de imagen de participante con esta resolución y/o
velocidad de transmisión de imagen a las unidades de comunicación
(20) del respectivo participante (10).
11. Sistema según una de las reivindicaciones 8 ó
9, caracterizado porque el sistema para videoconferencias
comprende una unidad central (30) con memoria de datos (32), desde
cuya memoria de datos (32) son susceptibles de ser descargados los
datos de imagen de participante de los participantes desde las
unidades de comunicación, según las indicaciones de los datos de Eye
Tracking del respectivo participante (10), con resolución plena o
reducida así como con velocidad de transmisión de imagen plena o
reducida.
12. Sistema según una de las reivindicaciones 8 ó
9, caracterizado porque la unidad de comunicación (20) de un
participante (10) comprende una memoria de datos (26), desde cuya
memoria de datos (26) son susceptibles de ser descargados los datos
de imagen de participante del respectivo participante (10), por las
unidades de comunicación (20), según las indicaciones de los datos
de Eye Tracking del respectivo participante, con resolución plena o
reducida y/o con velocidad de transmisión de imagen plena o
reducida.
13. Sistema según una de las reivindicaciones 8 a
12, caracterizado porque la red de telecomunicaciones (40)
comprende una red de radiofrecuencia móvil.
14. Sistema según una de las reivindicaciones 8 a
13, caracterizado porque la unidad de comunicación (20)
comprende un módulo de. reconstrucción de imagen, el cual emplea
algoritmos de análisis de imagen y algoritmos de reconstrucción de
formas, a fin de reconstruir los datos de imagen de participante,
que han sido transmitidos con resolución reducida.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CH2000/000236 WO2001084838A1 (de) | 2000-04-28 | 2000-04-28 | Verfahren und system für videokonferenzen |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2206213T3 true ES2206213T3 (es) | 2004-05-16 |
Family
ID=4358070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00918645T Expired - Lifetime ES2206213T3 (es) | 2000-04-28 | 2000-04-28 | Procedimiento y sistema para videoconferencias. |
Country Status (12)
Country | Link |
---|---|
US (1) | US6717607B1 (es) |
EP (1) | EP1201082B1 (es) |
JP (1) | JP4602632B2 (es) |
CN (1) | CN1192618C (es) |
AT (1) | ATE249125T1 (es) |
AU (1) | AU772400B2 (es) |
BR (1) | BR0013612A (es) |
DE (1) | DE50003567D1 (es) |
DK (1) | DK1201082T3 (es) |
ES (1) | ES2206213T3 (es) |
MX (1) | MXPA02002131A (es) |
WO (1) | WO2001084838A1 (es) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1148690A1 (en) * | 2000-04-20 | 2001-10-24 | Telefonaktiebolaget Lm Ericsson | Method, gateway system and arrangement in a communication network |
KR100396892B1 (ko) * | 2000-10-05 | 2003-09-03 | 삼성전자주식회사 | 비디오 mp3 시스템, 축소 비디오데이터 생성장치와생성방법 및 축소 비디오데이터 복원장치 및 복원방법 |
US20050149364A1 (en) * | 2000-10-06 | 2005-07-07 | Ombrellaro Mark P. | Multifunction telemedicine software with integrated electronic medical record |
US8392502B2 (en) * | 2002-04-12 | 2013-03-05 | Alcatel Lucent | System and method for effecting conference calling |
US7474326B2 (en) * | 2002-11-04 | 2009-01-06 | Tandberg Telecom As | Inter-network and inter-protocol video conference privacy method, apparatus, and computer program product |
JP2004312401A (ja) * | 2003-04-08 | 2004-11-04 | Sony Corp | 再生装置および再生方法 |
US7464262B2 (en) * | 2003-09-12 | 2008-12-09 | Applied Minds, Inc. | Method and apparatus for synchronizing audio and video in encrypted videoconferences |
JP2005182456A (ja) * | 2003-12-19 | 2005-07-07 | Canon Inc | 情報表示装置及び情報表示方法 |
CN100334882C (zh) * | 2003-12-23 | 2007-08-29 | 华为技术有限公司 | 传输线路配置方法 |
US20060031912A1 (en) * | 2004-07-30 | 2006-02-09 | Pulitzer J H | Integrated resource management and A/V telecommunication device |
US20060036852A1 (en) * | 2004-08-16 | 2006-02-16 | Kwok-Yan Leung | Byte-based data-processing device and the processing method thereof |
DE502004009151D1 (de) * | 2004-12-02 | 2009-04-23 | Swisscom Mobile Ag | Verfahren und System zur Wiedergabe des Bildes einer Person |
US8223213B2 (en) * | 2005-12-07 | 2012-07-17 | Wireless Avionics | Wireless and CCTV megapixel digital camera for surveillance and unmanned air vehicles |
US8004540B1 (en) | 2006-10-10 | 2011-08-23 | Adobe Systems Incorporated | Display resolution boundary |
US8045469B2 (en) * | 2006-12-18 | 2011-10-25 | Research In Motion Limited | System and method for adjusting transmission data rates to a device in a communication network |
CN101355682B (zh) * | 2007-07-23 | 2011-03-16 | 中兴通讯股份有限公司 | 一种宽带专线会议电视系统全网自动调速的方法 |
JP2009044328A (ja) * | 2007-08-07 | 2009-02-26 | Seiko Epson Corp | 会議システム、サーバ、画像表示方法、コンピュータプログラム及び記録媒体 |
US20100054526A1 (en) * | 2008-09-03 | 2010-03-04 | Dean Eckles | Method, apparatus and computer program product for providing gaze information |
DE102009011251A1 (de) * | 2009-03-02 | 2010-09-09 | Siemens Enterprise Communications Gmbh & Co. Kg | Multiplexverfahren und zugehörige funktionelle Datenstruktur zum Zusammenfassen digitaler Videosignale |
CN107071688B (zh) | 2009-06-23 | 2019-08-23 | 诺基亚技术有限公司 | 用于处理音频信号的方法及装置 |
US8179417B2 (en) * | 2009-07-22 | 2012-05-15 | Hewlett-Packard Development Company, L.P. | Video collaboration |
US9535651B2 (en) * | 2009-12-18 | 2017-01-03 | Oracle International Corporation | Co-browsing systems and methods |
US8982151B2 (en) * | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8949333B2 (en) * | 2011-05-20 | 2015-02-03 | Alejandro Backer | Systems and methods for virtual interactions |
US9874990B2 (en) | 2012-02-10 | 2018-01-23 | Oracle International Corporation | System and method of concurrent unobstructed co-browsing and chat messaging |
EP2642752A1 (en) | 2012-03-23 | 2013-09-25 | Alcatel Lucent | Method, server, and terminal for conducting a video conference |
US8976226B2 (en) * | 2012-10-15 | 2015-03-10 | Google Inc. | Generating an animated preview of a multi-party video communication session |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9253520B2 (en) | 2012-12-14 | 2016-02-02 | Biscotti Inc. | Video capture, processing and distribution system |
US9654563B2 (en) | 2012-12-14 | 2017-05-16 | Biscotti Inc. | Virtual remote functionality |
US9485459B2 (en) * | 2012-12-14 | 2016-11-01 | Biscotti Inc. | Virtual window |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
KR20160026317A (ko) * | 2014-08-29 | 2016-03-09 | 삼성전자주식회사 | 음성 녹음 방법 및 장치 |
US9967399B2 (en) | 2014-12-19 | 2018-05-08 | Oracle International Corporation | Co-browsing preview of queued customer contacts |
US10671337B2 (en) | 2015-09-25 | 2020-06-02 | Oracle International Corporation | Automatic sizing of agent's screen for html co-browsing applications |
US10123020B2 (en) | 2016-12-30 | 2018-11-06 | Axis Ab | Block level update rate control based on gaze sensing |
US10110802B2 (en) | 2016-12-30 | 2018-10-23 | Axis Ab | Historical gaze heat map for a video stream |
US10121337B2 (en) | 2016-12-30 | 2018-11-06 | Axis Ab | Gaze controlled bit rate |
US10643443B2 (en) | 2016-12-30 | 2020-05-05 | Axis Ab | Alarm masking based on gaze in video management system |
CN107168668A (zh) * | 2017-04-28 | 2017-09-15 | 北京七鑫易维信息技术有限公司 | 图像数据传输方法、装置以及存储介质、处理器 |
US10038788B1 (en) | 2017-05-09 | 2018-07-31 | Oracle International Corporation | Self-learning adaptive routing system |
US10445921B1 (en) * | 2018-06-13 | 2019-10-15 | Adobe Inc. | Transferring motion between consecutive frames to a digital image |
DE102020003522B4 (de) * | 2020-06-12 | 2022-04-14 | Jochen Ohligs | Vorrichtung zur Darstellung von Bildern sowie Verwendung einer solchen Vorrichtung |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57208781A (en) * | 1981-06-19 | 1982-12-21 | Hitachi Ltd | Conference system by video telephone |
JPH07135623A (ja) | 1993-10-27 | 1995-05-23 | Kinseki Ltd | 網膜直接表示装置 |
US5500671A (en) * | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
JPH099230A (ja) * | 1995-06-15 | 1997-01-10 | Oki Electric Ind Co Ltd | 解像度制御装置 |
JP3217723B2 (ja) * | 1997-03-13 | 2001-10-15 | ▲すすむ▼ 舘 | 遠隔通信システム及び遠隔通信方法 |
US6288739B1 (en) * | 1997-09-05 | 2001-09-11 | Intelect Systems Corporation | Distributed video communications system |
US6606111B1 (en) * | 1998-10-09 | 2003-08-12 | Sony Corporation | Communication apparatus and method thereof |
-
2000
- 2000-04-28 US US10/069,518 patent/US6717607B1/en not_active Expired - Lifetime
- 2000-04-28 JP JP2001581534A patent/JP4602632B2/ja not_active Expired - Lifetime
- 2000-04-28 ES ES00918645T patent/ES2206213T3/es not_active Expired - Lifetime
- 2000-04-28 MX MXPA02002131A patent/MXPA02002131A/es active IP Right Grant
- 2000-04-28 AT AT00918645T patent/ATE249125T1/de active
- 2000-04-28 BR BR0013612-3A patent/BR0013612A/pt active Search and Examination
- 2000-04-28 WO PCT/CH2000/000236 patent/WO2001084838A1/de active IP Right Grant
- 2000-04-28 EP EP00918645A patent/EP1201082B1/de not_active Expired - Lifetime
- 2000-04-28 DK DK00918645T patent/DK1201082T3/da active
- 2000-04-28 AU AU39533/00A patent/AU772400B2/en not_active Ceased
- 2000-04-28 DE DE50003567T patent/DE50003567D1/de not_active Expired - Lifetime
- 2000-04-28 CN CN00814101.0A patent/CN1192618C/zh not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP1201082A1 (de) | 2002-05-02 |
CN1192618C (zh) | 2005-03-09 |
CN1379953A (zh) | 2002-11-13 |
JP4602632B2 (ja) | 2010-12-22 |
EP1201082B1 (de) | 2003-09-03 |
ATE249125T1 (de) | 2003-09-15 |
MXPA02002131A (es) | 2002-09-02 |
DK1201082T3 (da) | 2003-12-15 |
DE50003567D1 (de) | 2003-10-09 |
BR0013612A (pt) | 2002-05-14 |
AU772400B2 (en) | 2004-04-29 |
JP2003533098A (ja) | 2003-11-05 |
WO2001084838A1 (de) | 2001-11-08 |
US6717607B1 (en) | 2004-04-06 |
AU3953300A (en) | 2001-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2206213T3 (es) | Procedimiento y sistema para videoconferencias. | |
ES2203222T3 (es) | Procedimiento de transmision de datos de imagen. | |
CN101002471B (zh) | 对图像编码的方法和设备及对图像数据解码的方法和设备 | |
KR100881526B1 (ko) | 데이터 전송 방법 및 그 장치, 및 데이터 전송 시스템 | |
US7982762B2 (en) | System and method for combining local and remote images such that images of participants appear overlaid on another in substanial alignment | |
JP2018509113A (ja) | 独立符号化バックグラウンド更新に基づく映像伝送 | |
CN101072406A (zh) | 用于显示图像的移动通信终端和方法 | |
US20020149696A1 (en) | Method for presenting improved motion image sequences | |
RU2226320C2 (ru) | Способ и система для осуществления видеоконференций | |
US7719764B1 (en) | Method and device for stereo projection of pictures | |
US6526173B1 (en) | Method and system for compression encoding video signals representative of image frames | |
Fujii et al. | Super-high-definition digital movie system | |
Lebreton | Assessing human depth perception for 2D and 3D stereoscopic images and video and its relation with the overall 3D QoE | |
FR2660142A1 (fr) | Procede et dispositif de codage-decodage d'un signal numerique de television haute definition en bande etroite. | |
Biswas | Content adaptive video processing algorithms for digital TV | |
KR100498363B1 (ko) | 휴대폰의 복원영상 후처리 방법 | |
KR100498362B1 (ko) | 휴대폰의 복원영상 후처리 방법 | |
JPS61159881A (ja) | テレビジヨン伝送方式 | |
JP4335483B2 (ja) | 遠隔地撮影システム | |
Sormain | Offline H. 264 encoding method for omnidirectional videos with empirical region-of-interest | |
Tsai | Affine motion based error concealment for ATM MPEG video | |
CN108833886A (zh) | 一种标定焦点的方法 | |
JPH01289389A (ja) | 動画像信号の復号化方式 | |
Leonardi | Distributed Video Coding: Identifying Promising Application Scenarios | |
JP2002077843A (ja) | テレビ会議用動画像転送装置、動画像復元装置および動画像交換装置 |