ES2203222T3 - Procedimiento de transmision de datos de imagen. - Google Patents

Procedimiento de transmision de datos de imagen.

Info

Publication number
ES2203222T3
ES2203222T3 ES99960758T ES99960758T ES2203222T3 ES 2203222 T3 ES2203222 T3 ES 2203222T3 ES 99960758 T ES99960758 T ES 99960758T ES 99960758 T ES99960758 T ES 99960758T ES 2203222 T3 ES2203222 T3 ES 2203222T3
Authority
ES
Spain
Prior art keywords
image data
image
communication terminal
transmission channel
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES99960758T
Other languages
English (en)
Inventor
Rudolf Ritter
Eric Lauper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Swisscom Mobile AG
Original Assignee
Swisscom Mobile AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Swisscom Mobile AG filed Critical Swisscom Mobile AG
Application granted granted Critical
Publication of ES2203222T3 publication Critical patent/ES2203222T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Television Systems (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Communication Control (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Procedimiento para la transmisión y reproducción de datos de imagen (20), en el que los datos de imagen mencionados son transferidos por parte de un dispositivo emisor (1) a por lo menos un terminal de comunicación (8) y son reproducidos por parte de elementos reproductores de imagen (85), determinándose la dirección instantánea de visión del usuario (9) del terminal de comunicación, caracterizado porque unos primeros datos de imagen (25) de baja resolución se transmiten a través de un primer canal de transmisión, porque la mencionada dirección instantánea de visión (22) se envía a través de un canal de retorno al dispositivo emisor (1) mencionado, porque unos segundos datos de imagen (21, 24), correspondientes a las áreas de imagen vistas actualmente o en el futuro por el usuario mencionado, al menos uno, de mayor resolución se transmiten a través de un segundo canal de transmisión, y porque los primeros y los segundos datos de imagen mencionados se superponen y se emiten simultáneamente en el mencionado terminal de comunicación.

Description

Procedimiento de transmisión de datos de imagen.
La presente invención se refiere a un procedimiento para la transmisión de datos de imagen y a los dispositivos adecuados para dicho procedimiento.
Los datos de imagen, especialmente datos digitales, que pueden ser reproducidos como imágenes para un usuario con los elementos reproductores adecuados, acostumbran a comprimirse antes de su transmisión para reducir los tiempos de transmisión, descomprimiéndose antes o durante su reproducción. Han sido ya descritos diferentes formatos estándar para la compresión y descompresión de datos de imagen, como, por ejemplo, los distintos formatos MPEG (Moving Pictures Expert Group).
El documento de patente WO98/33315 (University of Texas) describe otro procedimiento de compresión de datos de imagen basado en las propiedades fisiológicas del ojo humano, por el cual se requiere una resolución máxima tan sólo en el área de la imagen que se proyecta sobre la fóvea del ojo (área de visión). Las áreas periféricas de imagen pueden reproducirse con una resolución menor sin una pérdida apreciable de calidad. Esta solicitud de patente propone por ello determinar de forma continua el área de imagen observada por el usuario empleando una resolución máxima tan sólo para dicha área, mientras que para las demás áreas alejadas de ella se emplea una resolución menor. El área de imagen observada sólo supone generalmente aproximadamente un dos por ciento de la imagen total. La imagen fuertemente comprimida se transmite pues a través de un canal de transmisión entre dos ordenadores.
Este procedimiento resulta especialmente adecuado para la transmisión de imágenes destinadas a su reproducción en monitores pequeños, como por ejemplo, la pantalla de un ordenador de oficina. Sin embargo, en caso de que el punto de visión pueda variar rápidamente, por ejemplo, en formatos de imagen muy amplios o en caso de movimientos bruscos de la pupila, puede ocurrir que el tiempo de reacción del sistema sea demasiado lento, de modo que áreas con una mala resolución puedan encontrarse repentinamente en el centro del área observada. Además, este procedimiento no resulta adecuado para la emisión simultánea de datos de imagen a múltiples usuarios.
El documento US-A-5,103,306 describe un dispositivo y un método para la compresión de datos de imagen móviles transmitidos al observador por parte de un dispositivo de captación y codificación de imagen a través de un canal de comunicación. Los datos de imagen enfocados por el observador y por tanto percibidos por la fóvea de la retina del ojo humano, se transmiten con una resolución mayor que el resto de áreas de imagen. El área enfocada por el observador se determina realizando un seguimiento de los movimientos de sus ojos.
El documento XP-000734723 ("Adaptative Foveation of MPEG Video", Proceedings of ACM Multimedia, Nueva York, EE.UU., 18 de noviembre de 1996, páginas 231-241, ISBN: 0-89791-871-1) publica una aplicación del método descrito en el documento US-A-5,103,306. Varios usuarios reciben datos de vídeo comprimidos a través de canales de comunicación de dos vías separados, conteniendo los datos de Video datos de mayor resolución en ciertas áreas. Estas áreas se ajustan individualmente al usuario y corresponden a cada una de las áreas enfocadas (foveales) por cada usuario. Esta área foveal se determina mediante un seguimiento de los movimientos del ojo o mediante un dispositivo visualizador, transmitiéndose a través de canales de retorno al punto nodal.
Uno de los objetivos de esta invención consiste en proponer un procedimiento nuevo y mejor para la compresión y transmisión de imágenes, y concretamente un procedimiento con el que puedan evitarse las desventajas mencionadas anteriormente.
Según la presente invención, este objetivo se consigue especialmente mediante los elementos de las reivindicaciones independientes. De la descripción y de las subreivindicaciones se desprenden, además, otras formas de realización ventajosas de la invención.
Estos objetivos se consiguen especialmente con un procedimiento para la transmisión y reproducción de datos de imagen en el que:
-
los datos de imagen mencionados se transmiten desde un dispositivo emisor a por lo menos un terminal de comunicación, y se reproducen con elementos reproductores de imagen en el mencionado terminal de comunicación, al menos uno, determinándose la dirección instantánea de visión del usuario del terminal de comunicación,
-
unos primeros datos de imagen, correspondientes al área completa de imagen, se transmiten a través de un primer canal de transmisión con baja resolución,
-
la mencionada dirección instantánea de visión (22) se envía al mencionado dispositivo emisor (1) a través de un canal de retorno,
-
unos segundos datos de imagen, correspondientes al área de imagen observada en el momento por el usuario, se transmiten a través de un segundo canal de transmisión con una resolución mayor, y
-
los mencionados primeros y segundos datos de imagen se superponen y se reproducen simultáneamente.
Esto presenta la ventaja de que los primeros datos de imagen se transmiten a través de un primer canal de transmisión (por ejemplo, un canal broadcast [broadcast = transmisión por ondas de radio]), mientras que únicamente los segundos datos de imagen, correspondientes al área de imagen observada en el momento, se transmiten a través de un segundo canal de transmisión (por ejemplo, una costosa red de radiotelefonía móvil bidireccional). Con ello puede emplearse una mayor resolución para las áreas periféricas que en la publicación de patente mencionada WO98/33315, sin aumentar el volumen de datos transmitidos a través de la costosa red de radiotelefonía móvil.
Así, a través del canal broadcast se pueden enviar a todos los usuarios los mismos datos de imagen con una resolución baja, mientras que los datos de imagen del área de imagen observada por cada usuario se transmiten personalmente a cada uno de ellos con una mayor resolución a través del segundo canal de transmisión.
A continuación se describe una realización de la presente invención a partir de un ejemplo. Este ejemplo de realización se ilustra mediante las figuras adjuntas siguientes:
La figura 1 muestra un diagrama de bloques del sistema según la invención.
La figura 2 muestra esquemáticamente la segmentación del mapa de bits.
La figura 3 muestra el requerimiento de resolución condicionado por la fisiología del ojo durante la observación de datos de imagen por parte de múltiples usuarios.
En la figura 1, el número de referencia 1 se refiere a un dispositivo emisor, que puede consistir en un servidor de comunicación de uso comercial, el cual permite, gracias a componentes de hardware y de software, comunicar a través de dos canales de transmisión distintos 4, 7, con múltiples terminales de comunicación 8. El número de referencia 10 se refiere a datos de imagen, por ejemplo, ficheros de datos digitales, cuyo contenido puede reproducirse con los elementos reproductores adecuados para un usuario 9 en forma de imágenes, por ejemplo, como imágenes estáticas o preferentemente animadas. Los datos de imagen pueden, por ejemplo, corresponder a una secuencia de imagen digitalizada (por ejemplo, un largometraje o un programa de televisión), o a otros datos multimedia, como, por ejemplo, datos HTML que incluyen datos fijos y/o animados y/o de audio. En una variante de la invención, los datos de imagen 10 se marcan especialmente, como se explicará más adelante, en el área de imagen especialmente interesante y en los sectores de la imagen sobre los que el observador dirigirá la mirada con una mayor probabilidad.
La secuencia de datos de imagen es leída secuencialmente por parte de un secuenciador, no representado, situado en el dispositivo emisor 1, pudiendo ser controlada opcionalmente la secuencia por parte del usuario 9, por ejemplo, en caso de datos de imagen con elementos de mando de hipertexto. El secuenciador puede componerse, por ejemplo, de un módulo de hardware y/o de software que lea las imágenes de la secuencia de imagen, transfiriéndolas a un módulo de segmentación 2 (opcional).
El módulo de segmentación 2 divide la imagen en distintos segmentos, como se representa en la figura 2. Para ello utiliza indicaciones A referentes a la dirección instantánea de visión de los observadores 9 individuales, por ejemplo, las coordenadas x, y de todos los puntos 22 sobre los que se dirige en este momento la mirada de por lo menos un usuario 9. Además, preferentemente se reciben o se determinan en el módulo de segmentación uno o más vectores de desplazamiento 23 que corresponden a la velocidad de los puntos 22 observados en el momento.
El módulo de segmentación 2 determina, a partir de esta indicación A, el área o áreas 21 observadas actualmente por al menos un usuario 9. Como se explica más adelante, estas áreas se comprimen con una resolución mayor y se transmiten al usuario correspondiente a través del canal de transmisión 7. La imagen completa, incluyendo las áreas periféricas 25, se comprimen con otro algoritmo y una resolución menor, y se envían a todos los usuarios a través del canal de transmisión 4. El tamaño de cada área 21 puede ajustarse preferentemente a la anchura de banda del canal de transmisión 7. En general, el tamaño de cada área 21 fuertemente comprimida corresponde aproximadamente a de un 2 a un 4 por ciento de la imagen completa.
En una variante preferente de la invención, el módulo de segmentación 2 intenta, además, determinar con antelación una o más áreas de visión 24. Con este objetivo, el módulo de segmentación puede, por ejemplo, controlar los movimientos de la vista indicados por el vector de desplazamiento 23, los movimientos del objeto observado o de la persona sobre la imagen, y/o sectores especialmente marcados en los datos de imagen, como, por ejemplo, hipervínculos en caso de datos de imagen multimedia. El módulo de segmentación 2 puede, por ejemplo, almacenar las posiciones sucesivas de los ojos y/o del objeto observado sobre la imagen, y predeterminar la siguiente dirección de visión prevista, por ejemplo, mediante funciones de regresión adecuadas, pudiéndose marcar manualmente determinadas áreas observadas con frecuencia.
En la variante representada en la figura 2, las distintas áreas de imagen 21, 24, 25 son rectangulares. Sin embargo, pueden presentar una forma distinta y tener distintos tamaños, e incluso solaparse parcial o totalmente.
Las áreas de imagen 25, alejadas del punto de observación, se envían a un primer módulo de codificación 3, donde se comprimen, por ejemplo, con un algoritmo MPEG o, en caso de imágenes estáticas, con un algoritmo JPEG o GIF. Este primer módulo de codificación 3 emplea preferentemente procedimientos de compresión locales, temporales y de crominancia. Además, el primer módulo de codificación lleva a cabo preferentemente una codificación de errores y una codificación de canal.
Las áreas de imagen codificadas por el módulo de codificación 3 son enviadas a continuación por parte de un emisor 4 en modo broadcast, pudiéndose así ser recibidas por parte de múltiples receptores 8 mediante receptores broadcast 80 individuales. El emisor 4 puede, por ejemplo, enviar los datos como datos de imagen DAB o DVB (Digital Audio Broadcasting o Digital Video Broadcasting), como datos de televisión, por ejemplo, datos de televisión codificados digitalmente, o como datos TCP-IP a través de internet, etc. Los datos tratados por el módulo de codificación 3 pueden incluso copiarse sobre soportes magnéticos y/o ópticos, como, por ejemplo, en CD o DVD, distribuyéndose de este modo y siendo así adquiridos por múltiples usuarios.
Los datos de imagen recibidos por el primer receptor 80 del terminal de comunicación 8 se copian en una primera memoria caché 81, almacenándose preferentemente áreas de imagen 25 de varias imágenes individuales sucesivas. De este modo pueden compensarse tiempos de transmisión variables a través de los dos canales de transmisión 4 y 7.
Los datos seleccionados por el módulo de segmentación de las áreas de imagen 21 y 24, observadas en el momento y en el futuro, se transfieren a un segundo módulo de codificación 5 que comprime cada área 21, 24 observada en el momento o en el futuro con una función de compresión foveal, es decir, con una función que da como resultado datos de imagen con una mayor resolución en la zona próxima al punto 22 observado que en las otras áreas de imagen alejadas del mismo, como se describe en la publicación de patente WO98/33315 indicada anteriormente. En una variante preferente de la invención, al menos ciertos parámetros de la función foveal pueden depender de la anchura de banda del segundo canal de transmisión. Además, el segundo módulo de codificación 5 lleva a cabo preferentemente una codificación de errores y una codificación de canal.
Cada área de imagen 21 codificada por el módulo de codificación 5 se envía a través de un segundo canal de transmisión 7 a todos los usuarios 9 que observan dicha área en este momento, pudiendo así ser recibida por estos usuarios en terminales de comunicación 8 mediante segundos receptores 83 (por ejemplo, terminales de radiotelefonía móvil). El segundo canal de transmisión 7 es un canal de comunicación bidireccional que permite conexiones casi a tiempo real, por ejemplo, una red telefónica pública conmutada, por ejemplo, una red de radiotelefonía móvil digital, por ejemplo, según las tecnologías GSM o UMTS, o una red fija, como, por ejemplo, según la tecnología ISDN, o una red TCP-IP, como, por ejemplo, internet.
En una variante no representada de la invención, se prescinde del módulo de segmentación 2, y todas las imágenes 10 individuales se transfieren a los dos módulos de codificación 3 y 5. En este caso, el primer módulo de codificación 3 puede consistir en un módulo estandarizado que comprima todas las áreas 21, 24 y 25 de todas las imágenes individuales. El segundo módulo de codificación 5 puede comprimir las imágenes completas según una función foveal.
Los terminales de comunicación 8 son preferentemente portátiles, eléctricamente autónomos y se fabrican preferentemente como dispositivos de bolsillo. En la variante de realización, en la que la red de telecomunicaciones 7 es una red de radiotelefonía móvil, al menos ciertos terminales de comunicación 8 son dispositivos de radiotelefonía móvil, por ejemplo, teléfonos móviles o ordenadores laptop o palmtop, capaces de establecer comunicación, los cuales contienen también un receptor broadcast 80. Estos terminales de comunicación combinados ya han sido descritos, por ejemplo, en la publicación de patente WO99/60712 y WO99/60713 (las dos a nombre de Swisscom AG). El terminal de radiotelefonía móvil 83 puede intercambiar datos a través de la red de radiotelefonía móvil 7, por ejemplo, con ayuda de servicios GPRS (Generalized Packet Radio Service), o según un protocolo adecuado en el canal útil. El primer receptor 80, por ejemplo, un receptor DVB, y el segundo receptor 83, por ejemplo, un terminal UMTS, se combinan preferentemente en una única unidad (por ejemplo, en un único soporte), aunque como variante pueden también integrarse en varias unidades interconectadas. En el último caso, las dos unidades pueden conectarse preferentemente a través de una interfaz inalámbrica, por ejemplo, según las tecnologías IrDA, BlueTooth o HomeRF.
Los datos de imagen recibidos por el segundo receptor 83 en el terminal de comunicación 8 se copian en una segunda memoria caché 84, almacenándose preferentemente varias áreas de imagen 21 y 24 sucesivas en la segunda memoria caché 84.
Un módulo de superposición 82 del terminal de comunicación 8 lee los datos de imagen de las dos memorias caché y lleva a cabo la transición entre ellos. Con este objetivo, cada área 21, 24, 25 posee un número en las dos memorias caché que indica a qué imagen individual pertenece, para poder compensar los distintos tiempos de transmisión a través de los dos canales de transmisión 4 y 7. El área de imagen 21, 24 seleccionada por el módulo 82 en la segunda memoria caché 84 se escoge en función del área de imagen observada en el momento. Si la memoria caché es suficientemente grande, puede también emplearse para detener, reiniciar y/o retroceder o hacer avanzar, mediante los correspondientes comandos del usuario, la lectura de los datos de imagen almacenados.
A continuación, las señales de imagen, que corresponden a los datos de imagen mezclados por el módulo 82 pueden ser reproducidas a través de un dispositivo visualizador 85 del terminal de comunicación 8. En una variante preferente de la invención, el dispositivo visualizador consiste en un así llamado dispositivo visualizador virtual retinal (en VRD), el cual proyecta las señales de imagen sobre la retina del ojo del usuario 9 del terminal de comunicación 8. Estos dispositivos visualizadores VRD se han descrito en las publicaciones de patente WO94/09472 y WO97/37339. A través de una interfaz adecuada, pueden suministrarse datos de imagen en distintos formatos al dispositivo visualizador 85.
El dispositivo visualizador 85 y los demás componentes del terminal de comunicación 8 pueden implementarse en unidades separadas o comunes, pudiéndose conectar el dispositivo visualizador 85 en una primera unidad, por ejemplo, a través de una interfaz alámbrica o inalámbrica, con los componentes de la segunda unidad.
Como se representa esquemáticamente en la figura 1, el terminal de comunicación 8 incluye un módulo de medición de la dirección de visión 86 capaz de determinar la dirección de visión x, y del usuario 9. Un módulo de medición de la dirección de visión de este tipo (Eye Tracking System ETS) también se ha descrito en la publicación de patente WO94/09472 arriba mencionada. La indicación A acerca de la dirección de visión x, y se transfiere al módulo 82, el cual puede así determinar, como ya se ha dicho, qué área de imagen 21, 24 debe leerse en la segunda memoria caché 84. A continuación, esta indicación A se transfiere al emisor-receptor 83, se encadena mediante un módulo no representado con información específica del usuario y se transmite en tiempo real por parte del emisor-receptor 83 a través del canal de retorno del segundo canal de transmisión 7 al dispositivo emisor 1. Según el tipo de canal que sea el segundo canal de transmisión, esta información puede transmitirse, por ejemplo, como mensaje RSSD o, preferentemente, a través del canal de datos o canal útil.
En una variante de realización de la invención, la dirección de visión se mide preferentemente por medio de un módulo de medición montado sobre una lente frente a la cabeza del usuario, midiéndose preferentemente la posición de la pupila de, por lo menos, uno de los dos ojos.
En otra variante de realización de la invención, la dirección de visión se mide preferentemente por medio de un módulo de medición montado sobre una lente frente a la cabeza del usuario y la posición y/o orientación de la cabeza del usuario 9 se miden respecto a una banda de referencia, por medio de un sistema de medición, preferentemente un sistema inercial montado sobre la cabeza del usuario. Así se pueden proyectar datos de imagen hacia el usuario 9 mayores que su ángulo de visión y cuyo contenido se mueve en cuanto el usuario hace girar su cabeza. De este modo, se conectan la dirección instantánea de visión 22 con el área observada correcta 21. Con este procedimiento pueden reproducirse películas de gran ángulo para el usuario.
Las mencionadas informaciones adicionales específicas del usuario, que se reenvían de modo análogo a la dirección de visión A, incluyen preferentemente una identificación del usuario, almacenada, por ejemplo, en un módulo de identificación personal 830 (por ejemplo, una tarjeta SIM). Además, estas informaciones adicionales pueden incluir otros comandos del usuario 9 (por ejemplo, una URL seleccionada por el usuario en caso de que la imagen reproducida incluya hipervínculos) u otras selecciones dispuestas en menús. Estas informaciones adicionales pueden transmitirse juntas o por separado. Al menos algunas de estas informaciones adicionales pueden ser encriptadas y/o contener una firma electrónica.
En el dispositivo emisor 1, la indicación A acerca del punto x, y observado en el momento es empleada por el módulo de segmentación 2 para determinar el área de imagen 21 observada en el momento y, eventualmente, para predeterminar el área de imagen 24 observada en el futuro y para transferir estas áreas de imagen 21, 24 al módulo de codificación 5.
La identificación de usuario, transmitida como información adicional, puede ser utilizada por un centro de facturación 6 del emisor, el cual puede facturar la visión de los datos de imagen. El importe calculado puede cargarse, por ejemplo, directamente a una suma pagada por adelantado y almacenada en el módulo de identificación 830, a un importe en efectivo, a una tarjeta de crédito o por facturación (por ejemplo, como parte de la factura de teléfono), y abonarse, por ejemplo, por unidad de tiempo de recepción de imágenes, por títulos recibidos, por información adicional o páginas, y/o en combinación con un abono. Las especificaciones de facturación para cada usuario (por ejemplo, la dirección de factura preferente y el tipo de factura) pueden almacenarse en una base de datos de usuarios 80 del centro de facturación. El centro de facturación puede integrarse en el dispositivo emisor 1, o como variante, ser administrado por otra institución (por ejemplo, la compañía explotadora de la red 7).
Los comandos de selección e instrucciones introducidos por el usuario 9 del terminal de comunicación 8 y transmitidos como información adicional a través del segundo canal de transmisión 7 son recibidos y tratados por el mencionado y no representado secuenciador, de modo que datos de imagen requeridos, por ejemplo, por el usuario, como, por ejemplo, subtítulos, páginas HTML o WML, secuencias audio, etc., se reciben y se transmiten al terminal de comunicación 4 través de los dos canales de transmisión.
Esta invención resulta especialmente adecuada para la transmisión simultánea de datos de imagen 1 (por ejemplo, largometrajes o programas de televisión) a múltiples usuarios 9, enviándose los datos comunes a través de un canal broadcast 4, mientras que los datos que dependen de la dirección individual de visión se transmiten a través de un canal direccionado 7. También puede emplearse, sin embargo, en videoconferencias o telefonía con transmisión de imágenes entre dos interlocutores. De este modo, la transmisión de los datos de imagen se ajusta teniendo en cuenta la resolución requerida en función de la fisiología del ojo dentro del marco de una anchura de banda máxima y predefinida de los canales de comunicación 4 y 7.
A pesar de que esta invención describe en muchos detalles el caso específico de realización en una red de radiotelefonía móvil GSM, el experto en la materia comprenderá fácilmente que este procedimiento puede emplearse en otros tipos de redes fijas y móviles, como, por ejemplo, redes de radiotelefonía móvil AMPS, TDMA, CDMA, TACS, PDC, HSCSD, GPRS, EDGE o UMTS, y especialmente en redes de radiotelefonía móvil dotadas de tecnología WAP (Wireless Application Protocol). Esta invención también puede emplearse en otras redes, en especial en Internet.

Claims (54)

1. Procedimiento para la transmisión y reproducción de datos de imagen (20), en el que los datos de imagen mencionados son transferidos por parte de un dispositivo emisor (1) a por lo menos un terminal de comunicación (8) y son reproducidos por parte de elementos reproductores de imagen (85), determinándose la dirección instantánea de visión del usuario (9) del terminal de comunicación,
caracterizado porque unos primeros datos de imagen (25) de baja resolución se transmiten a través de un primer canal de transmisión, porque la mencionada dirección instantánea de visión (22) se envía a través de un canal de retorno al dispositivo emisor (1) mencionado,
porque unos segundos datos de imagen (21, 24), correspondientes a las áreas de imagen vistas actualmente o en el futuro por el usuario mencionado, al menos uno, de mayor resolución se transmiten a través de un segundo canal de transmisión,
y porque los primeros y los segundos datos de imagen mencionados se superponen y se emiten simultáneamente en el mencionado terminal de comunicación.
2. Procedimiento según la reivindicación anterior, caracterizado porque los datos de imagen mencionados son proyectados por los elementos reproductores de imagen (85) mencionados sobre la retina del usuario (9) mencionado.
3. Procedimiento según la reivindicación anterior, caracterizado porque la mencionada área de imagen (21) observada es el área de imagen que debe proyectarse sobre la fóvea de la mencionada retina.
4. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque se ajusta el tamaño de la mencionada área de imagen (21).
5. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque el tamaño de la mencionada área de imagen (21) se ajusta a la anchura de banda del segundo canal de transmisión (7) mencionado.
6. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque los mencionados primeros datos de imagen (25) se transmiten a través del mencionado primer canal de transmisión (4) en modo broadcast.
7. Procedimiento según la reivindicación anterior, caracterizado porque los mencionados primeros datos de imagen (25) se transmiten en forma de datos DVB.
8. Procedimiento según una de las reivindicaciones 1 a 4, caracterizado porque los mencionados primeros datos de imagen (25) se copian y distribuyen en soporte magnético y/o óptico.
9. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque se transmiten datos de audio a través del mencionado primer canal de transmisión (4) de forma simultánea a los mencionados primeros datos de imagen (25) y se reproducen por parte del mencionado terminal de comunicación (8).
10. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque el mencionado segundo canal de transmisión (7) es bidireccional y porque el mencionado canal de retorno es el canal de retorno de este segundo canal de transmisión (7) bidireccional mencionado.
11. Procedimiento según la reivindicación anterior, caracterizado porque el mencionado segundo canal de transmisión (7) comprende una red telefónica pública conmutada.
12. Procedimiento según la reivindicación anterior, caracterizado porque la red telefónica mencionada es una red de radiotelefonía móvil.
13. Procedimiento según una de las reivindicaciones 1 a 10, caracterizado porque el mencionado segundo canal de transmisión (7) incluye una red TCP-IP.
14. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque se envían datos de identificación del usuario a través del mencionado canal de retorno hacia un centro de facturación (6), donde se emplean para realizar la facturación de las imágenes reproducidas.
15. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque los datos multimedia adicionales requeridos por el mencionado usuario, al menos uno, se envían a través del mencionado segundo canal de transmisión (7).
16. Procedimiento según la reivindicación anterior, caracterizado porque los datos multimedia adicionales mencionados corresponden al hipervínculo de la imagen reproducida seleccionado con el ojo.
17. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque la mencionada dirección de visión (22) se determina con antelación.
18. Procedimiento según la reivindicación anterior, caracterizado porque la mencionada dirección de visión se predetermina teniendo en cuenta el movimiento del punto de observación.
19. Procedimiento según la reivindicación 17, caracterizado porque la mencionada dirección de visión se predetermina teniendo en cuenta el movimiento del objeto observado sobre los mencionados datos de imagen.
20. Procedimiento según la reivindicación 17, caracterizado porque la mencionada dirección de visión se predetermina teniendo en cuenta áreas marcadas de la imagen.
21. Terminal de comunicación (8) que recibe datos de imagen y reproduce mediante elementos de reproducción de imagen (85), y que determina la dirección instantánea de visión (22) del usuario (9) del terminal de comunicación, caracterizado;
porque recibe unos primeros datos de imagen (25) de baja resolución a través de un primer canal de transmisión (4),
porque recibe unos segundos datos de imagen (21, 24), correspondientes a las áreas de imagen, vistas actualmente o en el futuro por el usuario mencionado, de mayor resolución a través de un segundo canal de transmisión (7),
porque envía la mencionada dirección instantánea de visión (22) a través de un canal de retorno,
y porque superpone y emite simultáneamente los primeros y los segundos datos de imagen mencionados.
22. Terminal de comunicación según la reivindicación anterior, caracterizado porque los datos de imagen mencionados son proyectados por los mencionados elementos de reproducción de imagen (85) sobre la retina del mencionado usuario (9).
23. Terminal de comunicación según la reivindicación anterior, caracterizado porque el mencionado elemento de reproducción de imagen (85) es un monitor retinal virtual que proyecta señales de imagen correspondientes a los mencionados datos de imagen sobre la retina del mencionado usuario.
24. Terminal de comunicación según una de las reivindicaciones 21 a 23, caracterizado porque el mencionado elemento de reproducción de imagen (85) está integrado en una unidad distinta de la parte receptora (80, 83) del mencionado terminal de comunicación (8).
25. Terminal de comunicación según la reivindicación anterior, caracterizado porque las mencionadas unidades están conectadas mediante una interfaz inalámbrica de corta distancia.
26. Terminal de comunicación según la reivindicación 22, caracterizado porque la mencionada área de imagen observada en el momento corresponde al área de imagen que debe proyectarse sobre la fóvea de la mencionada retina.
27. Terminal de comunicación según la reivindicación anterior, caracterizado porque se ajusta el tamaño de la mencionada área de imagen (21) observada en el momento.
28. Terminal de comunicación según una de las reivindicaciones 21 a 27, caracterizado porque comprende un primer receptor (80) para los datos de imagen transmitidos en modo broadcast a través del mencionado primer canal de transmisión (4).
29. Terminal de comunicación según la reivindicación anterior, caracterizado porque el mencionado primer receptor (80) es un radiorreceptor.
30. Terminal de comunicación según la reivindicación anterior, caracterizado porque el mencionado primer receptor (80) es un radiorreceptor DVB.
31. Terminal de comunicación según la reivindicación 28, caracterizado porque el mencionado primer receptor (80) comprende un lector de soporte de datos.
32. Terminal de comunicación según una de las reivindicaciones 21 a 31, caracterizado porque comprende un segundo receptor (83) para los datos de imagen transmitidos a través del mencionado segundo canal de transmisión (7).
33. Terminal de comunicación según la reivindicación anterior, caracterizado porque el mencionado segundo receptor (83) es un emisor-receptor que envía la mencionada dirección de visión (22) a través del mencionado canal de retorno (7).
34. Terminal de comunicación según la reivindicación anterior, caracterizado porque el mencionado segundo receptor (83) es un terminal de radio móvil.
35. Terminal de comunicación según una de las reivindicaciones 21 a 34, caracterizado porque envía la mencionada dirección de visión (x, y) en tiempo real a través del mencionado segundo canal de transmisión (7) hacia el dispositivo emisor (1).
36. Terminal de comunicación según una de las reivindicaciones 21 a 35, caracterizado porque comprende una memoria caché (84) para los mencionados segundos datos de imagen (21, 24).
37. Terminal de comunicación según la reivindicación anterior, caracterizado porque la mencionada memoria caché (84) contiene datos de imagen que corresponden a un área mayor (21+24) que la mencionada área de imagen (21) observada en el momento, y porque los datos de imagen que se extraen de la mencionada memoria caché dependen de la mencionada dirección instantánea de visión (x, y).
38. Terminal de comunicación según una de las reivindicaciones 36 a 37, caracterizado porque incluye además una primera memoria caché (81) para los mencionados primeros datos de imagen (25),
y porque los datos se extraen sincrónicamente de la mencionada primera y de la mencionada segunda memoria caché.
39. Dispositivo emisor, caracterizado porque incluye los siguientes componentes:
un receptor encargado de recibir los datos que contienen la dirección de visión (22) transmitida a través de un canal de retorno de al menos un usuario (9),
un primer módulo de codificación (3) para comprimir los primeros datos de imagen (25) de baja resolución y para enviarlos a través de un primer canal de transmisión (4) en modo broadcast,
un segundo módulo de codificación (5) para comprimir los segundos datos de imagen (21, 24) de mayor resolución que corresponden a las áreas de imagen observadas en el momento o en el futuro por el mencionado, al menos uno, usuario, y para transmitirlos a través de un segundo canal de transmisión (7).
40. Dispositivo según la reivindicación anterior, caracterizado porque la mencionada área de imagen (21) observada es el área de imagen que debe proyectarse sobre la fóvea de la retina del mencionado usuario.
41. Dispositivo según la reivindicación anterior, caracterizado porque se ajusta el tamaño de la mencionada área de imagen (21).
42. Dispositivo según la reivindicación anterior, caracterizado porque el tamaño de la mencionada área de imagen (21) se ajusta a la anchura de banda del segundo canal de transmisión (7) mencionado.
43. Dispositivo según una de las reivindicaciones anteriores, caracterizado porque los mencionados primeros datos de imagen (25) se transmiten a través del mencionado primer canal de transmisión (4) en modo broadcast.
44. Dispositivo según una de las reivindicaciones 39 a 43, caracterizado porque se transmiten datos de audio a través del mencionado primer canal de transmisión (4) de forma simultánea a los mencionados primeros datos de imagen (25).
45. Dispositivo según una de las reivindicaciones 39 a 44, caracterizado porque el mencionado segundo canal de transmisión (7) es bidireccional y porque el mencionado canal de retorno es el canal de retorno de este segundo canal de transmisión (7) bidireccional mencionado.
46. Dispositivo según la reivindicación anterior, caracterizado porque el mencionado segundo canal de transmisión (7) comprende una red telefónica pública conmutada.
47. Dispositivo según la reivindicación anterior, caracterizado porque la red telefónica mencionada es una red de radiotelefonía móvil.
48. Dispositivo según una de las reivindicaciones 39 a 47, caracterizado porque se prevé un centro de facturación (6) para facturar al usuario (9) la reproducción de las imágenes.
49. Dispositivo según una de las reivindicaciones 39 a 48, caracterizado porque comprende un módulo de segmentación (2) para determinar las áreas de imagen (21, 24, 25) que deben transmitirse a los mencionados primer o segundo módulos de codificación.
50. Dispositivo según una de las reivindicaciones 39 a 49, caracterizado porque el mencionado segundo módulo de codificación (5) codifica a la vez los datos de imagen que corresponden como mínimo a un área de imagen observada simultáneamente, en el momento o en el futuro, por múltiples usuarios, y los manda a los mencionados múltiples usuarios.
51. Dispositivo según una de las reivindicaciones 39 a 50, caracterizado porque la mencionada dirección de visión se determina con antelación.
52. Dispositivo según una de las reivindicaciones 39 a 51, caracterizado porque la mencionada dirección de visión se predetermina teniendo en cuenta el movimiento del punto de observación.
53. Dispositivo según una de las reivindicaciones 39 a 52, caracterizado porque la mencionada dirección de visión se predetermina teniendo en cuenta el movimiento del objeto observado sobre los mencionados datos de imagen.
54. Dispositivo según una de las reivindicaciones 39 a 53, caracterizado porque la mencionada dirección de visión se predetermina teniendo en cuenta áreas marcadas de la imagen.
ES99960758T 1999-12-30 1999-12-30 Procedimiento de transmision de datos de imagen. Expired - Lifetime ES2203222T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH1999/000632 WO2001050754A1 (de) 1999-12-30 1999-12-30 Verfahren für die übermittlung von bilddaten

Publications (1)

Publication Number Publication Date
ES2203222T3 true ES2203222T3 (es) 2004-04-01

Family

ID=4551760

Family Applications (1)

Application Number Title Priority Date Filing Date
ES99960758T Expired - Lifetime ES2203222T3 (es) 1999-12-30 1999-12-30 Procedimiento de transmision de datos de imagen.

Country Status (9)

Country Link
US (1) US7095522B2 (es)
EP (1) EP1247401B1 (es)
JP (1) JP4456791B2 (es)
AT (1) ATE244489T1 (es)
AU (1) AU1765800A (es)
DE (1) DE59906217D1 (es)
ES (1) ES2203222T3 (es)
IL (2) IL148431A0 (es)
WO (1) WO2001050754A1 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002065443A1 (en) * 2001-02-15 2002-08-22 Tveye Inc. Method and apparatus for low bandwidth transmission of data utilizing of the human eye anatomy
EP1244311A3 (en) * 2001-03-22 2004-10-06 Sony Corporation Picture encoding
JP2002330440A (ja) 2001-05-01 2002-11-15 Sony Corp 画像伝送方法、画像伝送方法のプログラム、画像伝送方法のプログラムを記録した記録媒体及び画像伝送装置
JP2003108476A (ja) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd コンテンツ管理システム、コンテンツ管理方法およびプログラム
US7464176B2 (en) * 2002-06-17 2008-12-09 Microsoft Corporation Multicast system and method for deploying multiple images simultaneously
WO2004013676A2 (de) * 2002-07-31 2004-02-12 Theodor Heutschi Elektronisches gerät, insbesondere ein mobiles multimedia-kommunikationsgerät
KR20050088448A (ko) * 2002-12-20 2005-09-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 계층 미디어 데이터를 처리하는 방법 및 장치
KR100461542B1 (ko) * 2002-12-26 2004-12-17 한국전자통신연구원 다중 주파수 대역을 이용한 디지탈 방송 송/수신 장치 및그 방법
WO2005006754A1 (ja) * 2003-07-14 2005-01-20 Fujitsu Limited 送信した低品質a/vデータに対応する高品質a/vデータの送信
EP1720357A1 (de) * 2005-05-04 2006-11-08 Swisscom Mobile AG Verfahren und Vorrichtung zur Übermittlung von Videodaten mit Komprimierung basierend auf Blickrichtung nach Augenverfolgungsverfahren
US7876978B2 (en) * 2005-10-13 2011-01-25 Penthera Technologies, Inc. Regions of interest in video frames
JP4670902B2 (ja) * 2008-05-30 2011-04-13 ソニー株式会社 送信装置、送信方法および受信装置
US10209771B2 (en) 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US10585472B2 (en) 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
CN103630915B (zh) * 2012-08-24 2018-08-03 深圳思凯微电子有限公司 一种利用数字调频广播进行导航定位的方法
JP6138453B2 (ja) 2012-10-29 2017-05-31 京セラ株式会社 テレビ電話機能付き機器、プログラムおよびテレビ電話機能付き機器の制御方法
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US20140161199A1 (en) * 2012-12-06 2014-06-12 Xiaomi Inc. Method and apparatus for processing video image
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
JP6526051B2 (ja) * 2014-12-12 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10373592B2 (en) 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
CN106506490B (zh) * 2016-11-03 2019-07-09 深圳智高点知识产权运营有限公司 一种分布式计算控制方法以及分布式计算系统
US10121337B2 (en) * 2016-12-30 2018-11-06 Axis Ab Gaze controlled bit rate
CN111510782A (zh) 2017-04-28 2020-08-07 华为技术有限公司 视频播放方法、虚拟现实设备、服务器及计算机存储介质
GB2563832B (en) * 2017-06-23 2021-11-10 Sony Interactive Entertainment Inc Display method and apparatus

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4513317A (en) * 1982-09-28 1985-04-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Retinally stabilized differential resolution television display
JP2733953B2 (ja) * 1988-05-16 1998-03-30 日本電気株式会社 動画像信号の符号化復号化方式
DE58903019D1 (de) * 1988-09-13 1993-01-28 Thomson Brandt Gmbh Uebertragungssystem fuer ein zeitlich und oertlich hochaufgeloestes bildsignal.
JPH02100488A (ja) * 1988-10-06 1990-04-12 Fuji Xerox Co Ltd 画像伝送装置
JP2648198B2 (ja) * 1989-01-23 1997-08-27 日本電信電話株式会社 注視方向検出方法
JPH03133290A (ja) * 1989-10-19 1991-06-06 Fujitsu Ltd 画像符号化装置
US5103306A (en) * 1990-03-28 1992-04-07 Transitions Research Corporation Digital image compression employing a resolution gradient
JPH04293375A (ja) * 1991-03-22 1992-10-16 A T R Shichiyoukaku Kiko Kenkyusho:Kk 映像表示システム
US5326266A (en) * 1992-09-02 1994-07-05 Evans & Sutherland Computer Corporation Area of interest display system with opto/mechanical image combining
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
JPH0744110A (ja) * 1993-08-03 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> 視線適応型表示装置
JPH07135651A (ja) * 1993-11-10 1995-05-23 Matsushita Electric Ind Co Ltd 映像通信システム
WO1995026606A2 (en) * 1994-03-18 1995-10-05 Philips Electronics N.V. Audio-visual presentation system
JPH07284095A (ja) * 1994-04-12 1995-10-27 Nippon Telegr & Teleph Corp <Ntt> 視点適応型画像伝送方法および画像伝送装置
FR2731896B1 (fr) * 1995-03-24 1997-08-29 Commissariat Energie Atomique Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil
US6078349A (en) * 1995-06-07 2000-06-20 Compaq Computer Corporation Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent
JP3263278B2 (ja) * 1995-06-19 2002-03-04 株式会社東芝 画像圧縮通信装置
JP3636797B2 (ja) * 1995-12-08 2005-04-06 日本放送協会 デマンドアクセス情報提供システム、およびこれに用いる情報配信装置、中継配信装置、並びに利用者端末装置
JPH09214932A (ja) * 1996-01-30 1997-08-15 Nippon Telegr & Teleph Corp <Ntt> 画像装置及び画像通信システム
JP2000504906A (ja) * 1996-02-14 2000-04-18 オリブル コーポレイション リミティド マルチメディアデータのプログレッシブ非同期伝送方法及びシステム
US5898423A (en) * 1996-06-25 1999-04-27 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven captioning
US6292591B1 (en) * 1996-07-17 2001-09-18 Sony Coporation Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
JPH10112856A (ja) * 1996-10-04 1998-04-28 Agency Of Ind Science & Technol 画像伝送装置および方法
US6252989B1 (en) * 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JPH10326071A (ja) * 1997-03-27 1998-12-08 Nippon Telegr & Teleph Corp <Ntt> 注視点高解像度化による計算機ホログラム表示方法並びに装置並びにこの方法を記録した記録媒体
JPH10294941A (ja) * 1997-04-22 1998-11-04 Canon Inc 画像伝送システム、画像伝送装置、画像送信装置及び画像受信装置
JPH11195065A (ja) * 1998-01-06 1999-07-21 Digital Vision Laboratories:Kk 情報流通システム及び情報供給システム
US6792245B1 (en) * 1998-04-10 2004-09-14 Sony Computer Entertainment Inc. Information reproducing apparatus and broadcasting system
US6091378A (en) * 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6312129B1 (en) * 1998-07-21 2001-11-06 L-3 Communications Corp. Head mounted projector system
US5980044A (en) * 1998-09-16 1999-11-09 Evans & Sutherland Computer Corp. Area of interest display system with image combining using error dithering
US6454411B1 (en) * 1998-11-17 2002-09-24 Entertainment Design Workshop Llc Method and apparatus for direct projection of an image onto a human retina

Also Published As

Publication number Publication date
WO2001050754A1 (de) 2001-07-12
DE59906217D1 (de) 2003-08-07
JP4456791B2 (ja) 2010-04-28
ATE244489T1 (de) 2003-07-15
IL148431A (en) 2007-06-17
EP1247401A1 (de) 2002-10-09
AU1765800A (en) 2001-07-16
EP1247401B1 (de) 2003-07-02
IL148431A0 (en) 2002-09-12
US20020101612A1 (en) 2002-08-01
JP2003519982A (ja) 2003-06-24
US7095522B2 (en) 2006-08-22

Similar Documents

Publication Publication Date Title
ES2203222T3 (es) Procedimiento de transmision de datos de imagen.
US11763367B2 (en) System to process data related to user interactions or feedback while user experiences product
CN1157951C (zh) 传输图像数据的方法及适用于此的通信终端和发送装置
ES2206213T3 (es) Procedimiento y sistema para videoconferencias.
US10061349B2 (en) Head mountable camera system
US10948982B2 (en) Methods and systems for integrating virtual content into an immersive virtual reality world based on real-world scenery
KR101617111B1 (ko) 무선 통신 디바이스들에 대한 핸즈-프리 증강 현실
US8401460B2 (en) Transmitting sports and entertainment data to wireless hand held devices over a telecommunications network
EP2225896B1 (en) Mobile virtual and augmented reality system
US8583027B2 (en) Methods and systems for authorizing computing devices for receipt of venue-based data based on the location of a user
EP1237373A2 (en) An electronic news gathering system, a method of electronic news gathering, a method of fabricating an apparatus for facilitating electronic news gathering and an electronic news audio and video coverage system
US20130141313A1 (en) Wearable personal digital eyeglass device
US20100020229A1 (en) Wearable personal video/audio device method and system
US10326918B2 (en) Head-unit and system for interactive transmission of video and audio signals
US20040257440A1 (en) Mobile communication system, mobile communication terminal and program thereof
CN101184166A (zh) 成像系统和方法
JPH1175172A (ja) 送信画像を生成する方法及び端末
US20240129595A1 (en) Video Monitoring Assembly
Ostkamp et al. Using mobile devices to enable visual multiplexing on public displays: three approaches compared
JP2003299056A (ja) 映像処理装置、映像配信システム、映像処理方法、プログラム及び記録媒体
CN206877665U (zh) 一种景区实景互动系统
CN115917572A (zh) 用于自适应广告和通知的方法及系统
WO2009101227A1 (es) Sistema y procedimiento para la emisión de contenidos personalizados en dispositivos de comunicación
SE524020C2 (sv) Metod och anordning i ett datakommunikationssystem