ES2203222T3 - Procedimiento de transmision de datos de imagen. - Google Patents
Procedimiento de transmision de datos de imagen.Info
- Publication number
- ES2203222T3 ES2203222T3 ES99960758T ES99960758T ES2203222T3 ES 2203222 T3 ES2203222 T3 ES 2203222T3 ES 99960758 T ES99960758 T ES 99960758T ES 99960758 T ES99960758 T ES 99960758T ES 2203222 T3 ES2203222 T3 ES 2203222T3
- Authority
- ES
- Spain
- Prior art keywords
- image data
- image
- communication terminal
- transmission channel
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004891 communication Methods 0.000 claims abstract description 50
- 230000011218 segmentation Effects 0.000 claims description 12
- 210000001525 retina Anatomy 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 5
- 230000001850 reproductive effect Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000002207 retinal effect Effects 0.000 claims description 2
- 230000002457 bidirectional effect Effects 0.000 claims 4
- 230000006870 function Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000007906 compression Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000035479 physiological effects, processes and functions Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234363—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/637—Control signals issued by the client directed to the server or network components
- H04N21/6377—Control signals issued by the client directed to the server or network components directed to server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Mobile Radio Communication Systems (AREA)
- Television Systems (AREA)
- Photoreceptors In Electrophotography (AREA)
- Communication Control (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Procedimiento para la transmisión y reproducción de datos de imagen (20), en el que los datos de imagen mencionados son transferidos por parte de un dispositivo emisor (1) a por lo menos un terminal de comunicación (8) y son reproducidos por parte de elementos reproductores de imagen (85), determinándose la dirección instantánea de visión del usuario (9) del terminal de comunicación, caracterizado porque unos primeros datos de imagen (25) de baja resolución se transmiten a través de un primer canal de transmisión, porque la mencionada dirección instantánea de visión (22) se envía a través de un canal de retorno al dispositivo emisor (1) mencionado, porque unos segundos datos de imagen (21, 24), correspondientes a las áreas de imagen vistas actualmente o en el futuro por el usuario mencionado, al menos uno, de mayor resolución se transmiten a través de un segundo canal de transmisión, y porque los primeros y los segundos datos de imagen mencionados se superponen y se emiten simultáneamente en el mencionado terminal de comunicación.
Description
Procedimiento de transmisión de datos de
imagen.
La presente invención se refiere a un
procedimiento para la transmisión de datos de imagen y a los
dispositivos adecuados para dicho procedimiento.
Los datos de imagen, especialmente datos
digitales, que pueden ser reproducidos como imágenes para un usuario
con los elementos reproductores adecuados, acostumbran a comprimirse
antes de su transmisión para reducir los tiempos de transmisión,
descomprimiéndose antes o durante su reproducción. Han sido ya
descritos diferentes formatos estándar para la compresión y
descompresión de datos de imagen, como, por ejemplo, los distintos
formatos MPEG (Moving Pictures Expert Group).
El documento de patente WO98/33315 (University of
Texas) describe otro procedimiento de compresión de datos de imagen
basado en las propiedades fisiológicas del ojo humano, por el cual
se requiere una resolución máxima tan sólo en el área de la imagen
que se proyecta sobre la fóvea del ojo (área de visión). Las áreas
periféricas de imagen pueden reproducirse con una resolución menor
sin una pérdida apreciable de calidad. Esta solicitud de patente
propone por ello determinar de forma continua el área de imagen
observada por el usuario empleando una resolución máxima tan sólo
para dicha área, mientras que para las demás áreas alejadas de ella
se emplea una resolución menor. El área de imagen observada sólo
supone generalmente aproximadamente un dos por ciento de la imagen
total. La imagen fuertemente comprimida se transmite pues a través
de un canal de transmisión entre dos ordenadores.
Este procedimiento resulta especialmente adecuado
para la transmisión de imágenes destinadas a su reproducción en
monitores pequeños, como por ejemplo, la pantalla de un ordenador de
oficina. Sin embargo, en caso de que el punto de visión pueda variar
rápidamente, por ejemplo, en formatos de imagen muy amplios o en
caso de movimientos bruscos de la pupila, puede ocurrir que el
tiempo de reacción del sistema sea demasiado lento, de modo que
áreas con una mala resolución puedan encontrarse repentinamente en
el centro del área observada. Además, este procedimiento no resulta
adecuado para la emisión simultánea de datos de imagen a múltiples
usuarios.
El documento
US-A-5,103,306 describe un
dispositivo y un método para la compresión de datos de imagen
móviles transmitidos al observador por parte de un dispositivo de
captación y codificación de imagen a través de un canal de
comunicación. Los datos de imagen enfocados por el observador y por
tanto percibidos por la fóvea de la retina del ojo humano, se
transmiten con una resolución mayor que el resto de áreas de imagen.
El área enfocada por el observador se determina realizando un
seguimiento de los movimientos de sus ojos.
El documento XP-000734723
("Adaptative Foveation of MPEG Video", Proceedings of ACM
Multimedia, Nueva York, EE.UU., 18 de noviembre de 1996, páginas
231-241, ISBN:
0-89791-871-1)
publica una aplicación del método descrito en el documento
US-A-5,103,306. Varios usuarios
reciben datos de vídeo comprimidos a través de canales de
comunicación de dos vías separados, conteniendo los datos de Video
datos de mayor resolución en ciertas áreas. Estas áreas se ajustan
individualmente al usuario y corresponden a cada una de las áreas
enfocadas (foveales) por cada usuario. Esta área foveal se determina
mediante un seguimiento de los movimientos del ojo o mediante un
dispositivo visualizador, transmitiéndose a través de canales de
retorno al punto nodal.
Uno de los objetivos de esta invención consiste
en proponer un procedimiento nuevo y mejor para la compresión y
transmisión de imágenes, y concretamente un procedimiento con el que
puedan evitarse las desventajas mencionadas anteriormente.
Según la presente invención, este objetivo se
consigue especialmente mediante los elementos de las
reivindicaciones independientes. De la descripción y de las
subreivindicaciones se desprenden, además, otras formas de
realización ventajosas de la invención.
Estos objetivos se consiguen especialmente con un
procedimiento para la transmisión y reproducción de datos de imagen
en el que:
- -
- los datos de imagen mencionados se transmiten desde un dispositivo emisor a por lo menos un terminal de comunicación, y se reproducen con elementos reproductores de imagen en el mencionado terminal de comunicación, al menos uno, determinándose la dirección instantánea de visión del usuario del terminal de comunicación,
- -
- unos primeros datos de imagen, correspondientes al área completa de imagen, se transmiten a través de un primer canal de transmisión con baja resolución,
- -
- la mencionada dirección instantánea de visión (22) se envía al mencionado dispositivo emisor (1) a través de un canal de retorno,
- -
- unos segundos datos de imagen, correspondientes al área de imagen observada en el momento por el usuario, se transmiten a través de un segundo canal de transmisión con una resolución mayor, y
- -
- los mencionados primeros y segundos datos de imagen se superponen y se reproducen simultáneamente.
Esto presenta la ventaja de que los primeros
datos de imagen se transmiten a través de un primer canal de
transmisión (por ejemplo, un canal broadcast [broadcast =
transmisión por ondas de radio]), mientras que únicamente los
segundos datos de imagen, correspondientes al área de imagen
observada en el momento, se transmiten a través de un segundo canal
de transmisión (por ejemplo, una costosa red de radiotelefonía móvil
bidireccional). Con ello puede emplearse una mayor resolución para
las áreas periféricas que en la publicación de patente mencionada
WO98/33315, sin aumentar el volumen de datos transmitidos a través
de la costosa red de radiotelefonía móvil.
Así, a través del canal broadcast se pueden
enviar a todos los usuarios los mismos datos de imagen con una
resolución baja, mientras que los datos de imagen del área de imagen
observada por cada usuario se transmiten personalmente a cada uno de
ellos con una mayor resolución a través del segundo canal de
transmisión.
A continuación se describe una realización de la
presente invención a partir de un ejemplo. Este ejemplo de
realización se ilustra mediante las figuras adjuntas siguientes:
La figura 1 muestra un diagrama de bloques del
sistema según la invención.
La figura 2 muestra esquemáticamente la
segmentación del mapa de bits.
La figura 3 muestra el requerimiento de
resolución condicionado por la fisiología del ojo durante la
observación de datos de imagen por parte de múltiples usuarios.
En la figura 1, el número de referencia 1 se
refiere a un dispositivo emisor, que puede consistir en un servidor
de comunicación de uso comercial, el cual permite, gracias a
componentes de hardware y de software, comunicar a través de dos
canales de transmisión distintos 4, 7, con múltiples terminales de
comunicación 8. El número de referencia 10 se refiere a datos de
imagen, por ejemplo, ficheros de datos digitales, cuyo contenido
puede reproducirse con los elementos reproductores adecuados para un
usuario 9 en forma de imágenes, por ejemplo, como imágenes estáticas
o preferentemente animadas. Los datos de imagen pueden, por ejemplo,
corresponder a una secuencia de imagen digitalizada (por ejemplo, un
largometraje o un programa de televisión), o a otros datos
multimedia, como, por ejemplo, datos HTML que incluyen datos fijos
y/o animados y/o de audio. En una variante de la invención, los
datos de imagen 10 se marcan especialmente, como se explicará más
adelante, en el área de imagen especialmente interesante y en los
sectores de la imagen sobre los que el observador dirigirá la mirada
con una mayor probabilidad.
La secuencia de datos de imagen es leída
secuencialmente por parte de un secuenciador, no representado,
situado en el dispositivo emisor 1, pudiendo ser controlada
opcionalmente la secuencia por parte del usuario 9, por ejemplo, en
caso de datos de imagen con elementos de mando de hipertexto. El
secuenciador puede componerse, por ejemplo, de un módulo de hardware
y/o de software que lea las imágenes de la secuencia de imagen,
transfiriéndolas a un módulo de segmentación 2 (opcional).
El módulo de segmentación 2 divide la imagen en
distintos segmentos, como se representa en la figura 2. Para ello
utiliza indicaciones A referentes a la dirección instantánea de
visión de los observadores 9 individuales, por ejemplo, las
coordenadas x, y de todos los puntos 22 sobre los que
se dirige en este momento la mirada de por lo menos un usuario 9.
Además, preferentemente se reciben o se determinan en el módulo de
segmentación uno o más vectores de desplazamiento 23 que
corresponden a la velocidad de los puntos 22 observados en el
momento.
El módulo de segmentación 2 determina, a partir
de esta indicación A, el área o áreas 21 observadas actualmente por
al menos un usuario 9. Como se explica más adelante, estas áreas se
comprimen con una resolución mayor y se transmiten al usuario
correspondiente a través del canal de transmisión 7. La imagen
completa, incluyendo las áreas periféricas 25, se comprimen con otro
algoritmo y una resolución menor, y se envían a todos los usuarios a
través del canal de transmisión 4. El tamaño de cada área 21 puede
ajustarse preferentemente a la anchura de banda del canal de
transmisión 7. En general, el tamaño de cada área 21 fuertemente
comprimida corresponde aproximadamente a de un 2 a un 4 por ciento
de la imagen completa.
En una variante preferente de la invención, el
módulo de segmentación 2 intenta, además, determinar con antelación
una o más áreas de visión 24. Con este objetivo, el módulo de
segmentación puede, por ejemplo, controlar los movimientos de la
vista indicados por el vector de desplazamiento 23, los movimientos
del objeto observado o de la persona sobre la imagen, y/o sectores
especialmente marcados en los datos de imagen, como, por ejemplo,
hipervínculos en caso de datos de imagen multimedia. El módulo de
segmentación 2 puede, por ejemplo, almacenar las posiciones
sucesivas de los ojos y/o del objeto observado sobre la imagen, y
predeterminar la siguiente dirección de visión prevista, por
ejemplo, mediante funciones de regresión adecuadas, pudiéndose
marcar manualmente determinadas áreas observadas con frecuencia.
En la variante representada en la figura 2, las
distintas áreas de imagen 21, 24, 25 son rectangulares. Sin embargo,
pueden presentar una forma distinta y tener distintos tamaños, e
incluso solaparse parcial o totalmente.
Las áreas de imagen 25, alejadas del punto de
observación, se envían a un primer módulo de codificación 3, donde
se comprimen, por ejemplo, con un algoritmo MPEG o, en caso de
imágenes estáticas, con un algoritmo JPEG o GIF. Este primer módulo
de codificación 3 emplea preferentemente procedimientos de
compresión locales, temporales y de crominancia. Además, el primer
módulo de codificación lleva a cabo preferentemente una codificación
de errores y una codificación de canal.
Las áreas de imagen codificadas por el módulo de
codificación 3 son enviadas a continuación por parte de un emisor 4
en modo broadcast, pudiéndose así ser recibidas por parte de
múltiples receptores 8 mediante receptores broadcast 80
individuales. El emisor 4 puede, por ejemplo, enviar los datos como
datos de imagen DAB o DVB (Digital Audio Broadcasting o Digital
Video Broadcasting), como datos de televisión, por ejemplo, datos de
televisión codificados digitalmente, o como datos
TCP-IP a través de internet, etc. Los datos tratados
por el módulo de codificación 3 pueden incluso copiarse sobre
soportes magnéticos y/o ópticos, como, por ejemplo, en CD o DVD,
distribuyéndose de este modo y siendo así adquiridos por múltiples
usuarios.
Los datos de imagen recibidos por el primer
receptor 80 del terminal de comunicación 8 se copian en una primera
memoria caché 81, almacenándose preferentemente áreas de imagen 25
de varias imágenes individuales sucesivas. De este modo pueden
compensarse tiempos de transmisión variables a través de los dos
canales de transmisión 4 y 7.
Los datos seleccionados por el módulo de
segmentación de las áreas de imagen 21 y 24, observadas en el
momento y en el futuro, se transfieren a un segundo módulo de
codificación 5 que comprime cada área 21, 24 observada en el momento
o en el futuro con una función de compresión foveal, es decir, con
una función que da como resultado datos de imagen con una mayor
resolución en la zona próxima al punto 22 observado que en las otras
áreas de imagen alejadas del mismo, como se describe en la
publicación de patente WO98/33315 indicada anteriormente. En una
variante preferente de la invención, al menos ciertos parámetros de
la función foveal pueden depender de la anchura de banda del segundo
canal de transmisión. Además, el segundo módulo de codificación 5
lleva a cabo preferentemente una codificación de errores y una
codificación de canal.
Cada área de imagen 21 codificada por el módulo
de codificación 5 se envía a través de un segundo canal de
transmisión 7 a todos los usuarios 9 que observan dicha área en este
momento, pudiendo así ser recibida por estos usuarios en terminales
de comunicación 8 mediante segundos receptores 83 (por ejemplo,
terminales de radiotelefonía móvil). El segundo canal de transmisión
7 es un canal de comunicación bidireccional que permite conexiones
casi a tiempo real, por ejemplo, una red telefónica pública
conmutada, por ejemplo, una red de radiotelefonía móvil digital, por
ejemplo, según las tecnologías GSM o UMTS, o una red fija, como, por
ejemplo, según la tecnología ISDN, o una red TCP-IP,
como, por ejemplo, internet.
En una variante no representada de la invención,
se prescinde del módulo de segmentación 2, y todas las imágenes 10
individuales se transfieren a los dos módulos de codificación 3 y 5.
En este caso, el primer módulo de codificación 3 puede consistir en
un módulo estandarizado que comprima todas las áreas 21, 24 y 25 de
todas las imágenes individuales. El segundo módulo de codificación 5
puede comprimir las imágenes completas según una función foveal.
Los terminales de comunicación 8 son
preferentemente portátiles, eléctricamente autónomos y se fabrican
preferentemente como dispositivos de bolsillo. En la variante de
realización, en la que la red de telecomunicaciones 7 es una red de
radiotelefonía móvil, al menos ciertos terminales de comunicación 8
son dispositivos de radiotelefonía móvil, por ejemplo, teléfonos
móviles o ordenadores laptop o palmtop, capaces de establecer
comunicación, los cuales contienen también un receptor broadcast 80.
Estos terminales de comunicación combinados ya han sido descritos,
por ejemplo, en la publicación de patente WO99/60712 y WO99/60713
(las dos a nombre de Swisscom AG). El terminal de radiotelefonía
móvil 83 puede intercambiar datos a través de la red de
radiotelefonía móvil 7, por ejemplo, con ayuda de servicios GPRS
(Generalized Packet Radio Service), o según un protocolo adecuado en
el canal útil. El primer receptor 80, por ejemplo, un receptor DVB,
y el segundo receptor 83, por ejemplo, un terminal UMTS, se combinan
preferentemente en una única unidad (por ejemplo, en un único
soporte), aunque como variante pueden también integrarse en varias
unidades interconectadas. En el último caso, las dos unidades pueden
conectarse preferentemente a través de una interfaz inalámbrica, por
ejemplo, según las tecnologías IrDA, BlueTooth o HomeRF.
Los datos de imagen recibidos por el segundo
receptor 83 en el terminal de comunicación 8 se copian en una
segunda memoria caché 84, almacenándose preferentemente varias áreas
de imagen 21 y 24 sucesivas en la segunda memoria caché 84.
Un módulo de superposición 82 del terminal de
comunicación 8 lee los datos de imagen de las dos memorias caché y
lleva a cabo la transición entre ellos. Con este objetivo, cada área
21, 24, 25 posee un número en las dos memorias caché que indica a
qué imagen individual pertenece, para poder compensar los distintos
tiempos de transmisión a través de los dos canales de transmisión 4
y 7. El área de imagen 21, 24 seleccionada por el módulo 82 en la
segunda memoria caché 84 se escoge en función del área de imagen
observada en el momento. Si la memoria caché es suficientemente
grande, puede también emplearse para detener, reiniciar y/o
retroceder o hacer avanzar, mediante los correspondientes comandos
del usuario, la lectura de los datos de imagen almacenados.
A continuación, las señales de imagen, que
corresponden a los datos de imagen mezclados por el módulo 82 pueden
ser reproducidas a través de un dispositivo visualizador 85 del
terminal de comunicación 8. En una variante preferente de la
invención, el dispositivo visualizador consiste en un así llamado
dispositivo visualizador virtual retinal (en VRD), el cual proyecta
las señales de imagen sobre la retina del ojo del usuario 9 del
terminal de comunicación 8. Estos dispositivos visualizadores VRD se
han descrito en las publicaciones de patente WO94/09472 y
WO97/37339. A través de una interfaz adecuada, pueden suministrarse
datos de imagen en distintos formatos al dispositivo visualizador
85.
El dispositivo visualizador 85 y los demás
componentes del terminal de comunicación 8 pueden implementarse en
unidades separadas o comunes, pudiéndose conectar el dispositivo
visualizador 85 en una primera unidad, por ejemplo, a través de una
interfaz alámbrica o inalámbrica, con los componentes de la segunda
unidad.
Como se representa esquemáticamente en la figura
1, el terminal de comunicación 8 incluye un módulo de medición de la
dirección de visión 86 capaz de determinar la dirección de visión
x, y del usuario 9. Un módulo de medición de la
dirección de visión de este tipo (Eye Tracking System ETS) también
se ha descrito en la publicación de patente WO94/09472 arriba
mencionada. La indicación A acerca de la dirección de visión
x, y se transfiere al módulo 82, el cual puede así
determinar, como ya se ha dicho, qué área de imagen 21, 24 debe
leerse en la segunda memoria caché 84. A continuación, esta
indicación A se transfiere al emisor-receptor 83, se
encadena mediante un módulo no representado con información
específica del usuario y se transmite en tiempo real por parte del
emisor-receptor 83 a través del canal de retorno del
segundo canal de transmisión 7 al dispositivo emisor 1. Según el
tipo de canal que sea el segundo canal de transmisión, esta
información puede transmitirse, por ejemplo, como mensaje RSSD o,
preferentemente, a través del canal de datos o canal útil.
En una variante de realización de la invención,
la dirección de visión se mide preferentemente por medio de un
módulo de medición montado sobre una lente frente a la cabeza del
usuario, midiéndose preferentemente la posición de la pupila de, por
lo menos, uno de los dos ojos.
En otra variante de realización de la invención,
la dirección de visión se mide preferentemente por medio de un
módulo de medición montado sobre una lente frente a la cabeza del
usuario y la posición y/o orientación de la cabeza del usuario 9 se
miden respecto a una banda de referencia, por medio de un sistema de
medición, preferentemente un sistema inercial montado sobre la
cabeza del usuario. Así se pueden proyectar datos de imagen hacia el
usuario 9 mayores que su ángulo de visión y cuyo contenido se mueve
en cuanto el usuario hace girar su cabeza. De este modo, se conectan
la dirección instantánea de visión 22 con el área observada correcta
21. Con este procedimiento pueden reproducirse películas de gran
ángulo para el usuario.
Las mencionadas informaciones adicionales
específicas del usuario, que se reenvían de modo análogo a la
dirección de visión A, incluyen preferentemente una identificación
del usuario, almacenada, por ejemplo, en un módulo de identificación
personal 830 (por ejemplo, una tarjeta SIM). Además, estas
informaciones adicionales pueden incluir otros comandos del usuario
9 (por ejemplo, una URL seleccionada por el usuario en caso de que
la imagen reproducida incluya hipervínculos) u otras selecciones
dispuestas en menús. Estas informaciones adicionales pueden
transmitirse juntas o por separado. Al menos algunas de estas
informaciones adicionales pueden ser encriptadas y/o contener una
firma electrónica.
En el dispositivo emisor 1, la indicación
A acerca del punto x, y observado en el momento
es empleada por el módulo de segmentación 2 para determinar el área
de imagen 21 observada en el momento y, eventualmente, para
predeterminar el área de imagen 24 observada en el futuro y para
transferir estas áreas de imagen 21, 24 al módulo de codificación
5.
La identificación de usuario, transmitida como
información adicional, puede ser utilizada por un centro de
facturación 6 del emisor, el cual puede facturar la visión de los
datos de imagen. El importe calculado puede cargarse, por ejemplo,
directamente a una suma pagada por adelantado y almacenada en el
módulo de identificación 830, a un importe en efectivo, a una
tarjeta de crédito o por facturación (por ejemplo, como parte de la
factura de teléfono), y abonarse, por ejemplo, por unidad de tiempo
de recepción de imágenes, por títulos recibidos, por información
adicional o páginas, y/o en combinación con un abono. Las
especificaciones de facturación para cada usuario (por ejemplo, la
dirección de factura preferente y el tipo de factura) pueden
almacenarse en una base de datos de usuarios 80 del centro de
facturación. El centro de facturación puede integrarse en el
dispositivo emisor 1, o como variante, ser administrado por otra
institución (por ejemplo, la compañía explotadora de la red 7).
Los comandos de selección e instrucciones
introducidos por el usuario 9 del terminal de comunicación 8 y
transmitidos como información adicional a través del segundo canal
de transmisión 7 son recibidos y tratados por el mencionado y no
representado secuenciador, de modo que datos de imagen requeridos,
por ejemplo, por el usuario, como, por ejemplo, subtítulos, páginas
HTML o WML, secuencias audio, etc., se reciben y se transmiten al
terminal de comunicación 4 través de los dos canales de
transmisión.
Esta invención resulta especialmente adecuada
para la transmisión simultánea de datos de imagen 1 (por ejemplo,
largometrajes o programas de televisión) a múltiples usuarios 9,
enviándose los datos comunes a través de un canal broadcast 4,
mientras que los datos que dependen de la dirección individual de
visión se transmiten a través de un canal direccionado 7. También
puede emplearse, sin embargo, en videoconferencias o telefonía con
transmisión de imágenes entre dos interlocutores. De este modo, la
transmisión de los datos de imagen se ajusta teniendo en cuenta la
resolución requerida en función de la fisiología del ojo dentro del
marco de una anchura de banda máxima y predefinida de los canales de
comunicación 4 y 7.
A pesar de que esta invención describe en muchos
detalles el caso específico de realización en una red de
radiotelefonía móvil GSM, el experto en la materia comprenderá
fácilmente que este procedimiento puede emplearse en otros tipos de
redes fijas y móviles, como, por ejemplo, redes de radiotelefonía
móvil AMPS, TDMA, CDMA, TACS, PDC, HSCSD, GPRS, EDGE o UMTS, y
especialmente en redes de radiotelefonía móvil dotadas de tecnología
WAP (Wireless Application Protocol). Esta invención también puede
emplearse en otras redes, en especial en Internet.
Claims (54)
1. Procedimiento para la transmisión y
reproducción de datos de imagen (20), en el que los datos de imagen
mencionados son transferidos por parte de un dispositivo emisor (1)
a por lo menos un terminal de comunicación (8) y son reproducidos
por parte de elementos reproductores de imagen (85), determinándose
la dirección instantánea de visión del usuario (9) del terminal de
comunicación,
caracterizado porque unos primeros datos
de imagen (25) de baja resolución se transmiten a través de un
primer canal de transmisión, porque la mencionada dirección
instantánea de visión (22) se envía a través de un canal de retorno
al dispositivo emisor (1) mencionado,
porque unos segundos datos de imagen (21, 24),
correspondientes a las áreas de imagen vistas actualmente o en el
futuro por el usuario mencionado, al menos uno, de mayor resolución
se transmiten a través de un segundo canal de transmisión,
y porque los primeros y los segundos datos de
imagen mencionados se superponen y se emiten simultáneamente en el
mencionado terminal de comunicación.
2. Procedimiento según la reivindicación
anterior, caracterizado porque los datos de imagen
mencionados son proyectados por los elementos reproductores de
imagen (85) mencionados sobre la retina del usuario (9)
mencionado.
3. Procedimiento según la reivindicación
anterior, caracterizado porque la mencionada área de imagen
(21) observada es el área de imagen que debe proyectarse sobre la
fóvea de la mencionada retina.
4. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque se ajusta
el tamaño de la mencionada área de imagen (21).
5. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque el tamaño
de la mencionada área de imagen (21) se ajusta a la anchura de banda
del segundo canal de transmisión (7) mencionado.
6. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque los
mencionados primeros datos de imagen (25) se transmiten a través del
mencionado primer canal de transmisión (4) en modo broadcast.
7. Procedimiento según la reivindicación
anterior, caracterizado porque los mencionados primeros datos
de imagen (25) se transmiten en forma de datos DVB.
8. Procedimiento según una de las
reivindicaciones 1 a 4, caracterizado porque los mencionados
primeros datos de imagen (25) se copian y distribuyen en soporte
magnético y/o óptico.
9. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque se
transmiten datos de audio a través del mencionado primer canal de
transmisión (4) de forma simultánea a los mencionados primeros datos
de imagen (25) y se reproducen por parte del mencionado terminal de
comunicación (8).
10. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque el
mencionado segundo canal de transmisión (7) es bidireccional y
porque el mencionado canal de retorno es el canal de retorno de este
segundo canal de transmisión (7) bidireccional mencionado.
11. Procedimiento según la reivindicación
anterior, caracterizado porque el mencionado segundo canal de
transmisión (7) comprende una red telefónica pública conmutada.
12. Procedimiento según la reivindicación
anterior, caracterizado porque la red telefónica mencionada
es una red de radiotelefonía móvil.
13. Procedimiento según una de las
reivindicaciones 1 a 10, caracterizado porque el mencionado
segundo canal de transmisión (7) incluye una red
TCP-IP.
14. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque se envían
datos de identificación del usuario a través del mencionado canal de
retorno hacia un centro de facturación (6), donde se emplean para
realizar la facturación de las imágenes reproducidas.
15. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque los datos
multimedia adicionales requeridos por el mencionado usuario, al
menos uno, se envían a través del mencionado segundo canal de
transmisión (7).
16. Procedimiento según la reivindicación
anterior, caracterizado porque los datos multimedia
adicionales mencionados corresponden al hipervínculo de la imagen
reproducida seleccionado con el ojo.
17. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque la
mencionada dirección de visión (22) se determina con antelación.
18. Procedimiento según la reivindicación
anterior, caracterizado porque la mencionada dirección de
visión se predetermina teniendo en cuenta el movimiento del punto de
observación.
19. Procedimiento según la reivindicación 17,
caracterizado porque la mencionada dirección de visión se
predetermina teniendo en cuenta el movimiento del objeto observado
sobre los mencionados datos de imagen.
20. Procedimiento según la reivindicación 17,
caracterizado porque la mencionada dirección de visión se
predetermina teniendo en cuenta áreas marcadas de la imagen.
21. Terminal de comunicación (8) que recibe datos
de imagen y reproduce mediante elementos de reproducción de imagen
(85), y que determina la dirección instantánea de visión (22) del
usuario (9) del terminal de comunicación, caracterizado;
porque recibe unos primeros datos de imagen (25)
de baja resolución a través de un primer canal de transmisión
(4),
porque recibe unos segundos datos de imagen (21,
24), correspondientes a las áreas de imagen, vistas actualmente o en
el futuro por el usuario mencionado, de mayor resolución a través de
un segundo canal de transmisión (7),
porque envía la mencionada dirección instantánea
de visión (22) a través de un canal de retorno,
y porque superpone y emite simultáneamente los
primeros y los segundos datos de imagen mencionados.
22. Terminal de comunicación según la
reivindicación anterior, caracterizado porque los datos de
imagen mencionados son proyectados por los mencionados elementos de
reproducción de imagen (85) sobre la retina del mencionado usuario
(9).
23. Terminal de comunicación según la
reivindicación anterior, caracterizado porque el mencionado
elemento de reproducción de imagen (85) es un monitor retinal
virtual que proyecta señales de imagen correspondientes a los
mencionados datos de imagen sobre la retina del mencionado
usuario.
24. Terminal de comunicación según una de las
reivindicaciones 21 a 23, caracterizado porque el mencionado
elemento de reproducción de imagen (85) está integrado en una unidad
distinta de la parte receptora (80, 83) del mencionado terminal de
comunicación (8).
25. Terminal de comunicación según la
reivindicación anterior, caracterizado porque las mencionadas
unidades están conectadas mediante una interfaz inalámbrica de corta
distancia.
26. Terminal de comunicación según la
reivindicación 22, caracterizado porque la mencionada área de
imagen observada en el momento corresponde al área de imagen que
debe proyectarse sobre la fóvea de la mencionada retina.
27. Terminal de comunicación según la
reivindicación anterior, caracterizado porque se ajusta el
tamaño de la mencionada área de imagen (21) observada en el
momento.
28. Terminal de comunicación según una de las
reivindicaciones 21 a 27, caracterizado porque comprende un
primer receptor (80) para los datos de imagen transmitidos en modo
broadcast a través del mencionado primer canal de transmisión
(4).
29. Terminal de comunicación según la
reivindicación anterior, caracterizado porque el mencionado
primer receptor (80) es un radiorreceptor.
30. Terminal de comunicación según la
reivindicación anterior, caracterizado porque el mencionado
primer receptor (80) es un radiorreceptor DVB.
31. Terminal de comunicación según la
reivindicación 28, caracterizado porque el mencionado primer
receptor (80) comprende un lector de soporte de datos.
32. Terminal de comunicación según una de las
reivindicaciones 21 a 31, caracterizado porque comprende un
segundo receptor (83) para los datos de imagen transmitidos a través
del mencionado segundo canal de transmisión (7).
33. Terminal de comunicación según la
reivindicación anterior, caracterizado porque el mencionado
segundo receptor (83) es un emisor-receptor que
envía la mencionada dirección de visión (22) a través del mencionado
canal de retorno (7).
34. Terminal de comunicación según la
reivindicación anterior, caracterizado porque el mencionado
segundo receptor (83) es un terminal de radio móvil.
35. Terminal de comunicación según una de las
reivindicaciones 21 a 34, caracterizado porque envía la
mencionada dirección de visión (x, y) en tiempo real a
través del mencionado segundo canal de transmisión (7) hacia el
dispositivo emisor (1).
36. Terminal de comunicación según una de las
reivindicaciones 21 a 35, caracterizado porque comprende una
memoria caché (84) para los mencionados segundos datos de imagen
(21, 24).
37. Terminal de comunicación según la
reivindicación anterior, caracterizado porque la mencionada
memoria caché (84) contiene datos de imagen que corresponden a un
área mayor (21+24) que la mencionada área de imagen (21) observada
en el momento, y porque los datos de imagen que se extraen de la
mencionada memoria caché dependen de la mencionada dirección
instantánea de visión (x, y).
38. Terminal de comunicación según una de las
reivindicaciones 36 a 37, caracterizado porque incluye además
una primera memoria caché (81) para los mencionados primeros datos
de imagen (25),
y porque los datos se extraen sincrónicamente de
la mencionada primera y de la mencionada segunda memoria caché.
39. Dispositivo emisor, caracterizado
porque incluye los siguientes componentes:
un receptor encargado de recibir los datos que
contienen la dirección de visión (22) transmitida a través de un
canal de retorno de al menos un usuario (9),
un primer módulo de codificación (3) para
comprimir los primeros datos de imagen (25) de baja resolución y
para enviarlos a través de un primer canal de transmisión (4) en
modo broadcast,
un segundo módulo de codificación (5) para
comprimir los segundos datos de imagen (21, 24) de mayor resolución
que corresponden a las áreas de imagen observadas en el momento o en
el futuro por el mencionado, al menos uno, usuario, y para
transmitirlos a través de un segundo canal de transmisión (7).
40. Dispositivo según la reivindicación anterior,
caracterizado porque la mencionada área de imagen (21)
observada es el área de imagen que debe proyectarse sobre la fóvea
de la retina del mencionado usuario.
41. Dispositivo según la reivindicación anterior,
caracterizado porque se ajusta el tamaño de la mencionada
área de imagen (21).
42. Dispositivo según la reivindicación anterior,
caracterizado porque el tamaño de la mencionada área de
imagen (21) se ajusta a la anchura de banda del segundo canal de
transmisión (7) mencionado.
43. Dispositivo según una de las reivindicaciones
anteriores, caracterizado porque los mencionados primeros
datos de imagen (25) se transmiten a través del mencionado primer
canal de transmisión (4) en modo broadcast.
44. Dispositivo según una de las reivindicaciones
39 a 43, caracterizado porque se transmiten datos de audio a
través del mencionado primer canal de transmisión (4) de forma
simultánea a los mencionados primeros datos de imagen (25).
45. Dispositivo según una de las reivindicaciones
39 a 44, caracterizado porque el mencionado segundo canal de
transmisión (7) es bidireccional y porque el mencionado canal de
retorno es el canal de retorno de este segundo canal de transmisión
(7) bidireccional mencionado.
46. Dispositivo según la reivindicación anterior,
caracterizado porque el mencionado segundo canal de
transmisión (7) comprende una red telefónica pública conmutada.
47. Dispositivo según la reivindicación anterior,
caracterizado porque la red telefónica mencionada es una red
de radiotelefonía móvil.
48. Dispositivo según una de las reivindicaciones
39 a 47, caracterizado porque se prevé un centro de
facturación (6) para facturar al usuario (9) la reproducción de las
imágenes.
49. Dispositivo según una de las reivindicaciones
39 a 48, caracterizado porque comprende un módulo de
segmentación (2) para determinar las áreas de imagen (21, 24, 25)
que deben transmitirse a los mencionados primer o segundo módulos de
codificación.
50. Dispositivo según una de las reivindicaciones
39 a 49, caracterizado porque el mencionado segundo módulo de
codificación (5) codifica a la vez los datos de imagen que
corresponden como mínimo a un área de imagen observada
simultáneamente, en el momento o en el futuro, por múltiples
usuarios, y los manda a los mencionados múltiples usuarios.
51. Dispositivo según una de las reivindicaciones
39 a 50, caracterizado porque la mencionada dirección de
visión se determina con antelación.
52. Dispositivo según una de las reivindicaciones
39 a 51, caracterizado porque la mencionada dirección de
visión se predetermina teniendo en cuenta el movimiento del punto de
observación.
53. Dispositivo según una de las reivindicaciones
39 a 52, caracterizado porque la mencionada dirección de
visión se predetermina teniendo en cuenta el movimiento del objeto
observado sobre los mencionados datos de imagen.
54. Dispositivo según una de las reivindicaciones
39 a 53, caracterizado porque la mencionada dirección de
visión se predetermina teniendo en cuenta áreas marcadas de la
imagen.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CH1999/000632 WO2001050754A1 (de) | 1999-12-30 | 1999-12-30 | Verfahren für die übermittlung von bilddaten |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2203222T3 true ES2203222T3 (es) | 2004-04-01 |
Family
ID=4551760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES99960758T Expired - Lifetime ES2203222T3 (es) | 1999-12-30 | 1999-12-30 | Procedimiento de transmision de datos de imagen. |
Country Status (9)
Country | Link |
---|---|
US (1) | US7095522B2 (es) |
EP (1) | EP1247401B1 (es) |
JP (1) | JP4456791B2 (es) |
AT (1) | ATE244489T1 (es) |
AU (1) | AU1765800A (es) |
DE (1) | DE59906217D1 (es) |
ES (1) | ES2203222T3 (es) |
IL (2) | IL148431A0 (es) |
WO (1) | WO2001050754A1 (es) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002065443A1 (en) * | 2001-02-15 | 2002-08-22 | Tveye Inc. | Method and apparatus for low bandwidth transmission of data utilizing of the human eye anatomy |
EP1244311A3 (en) * | 2001-03-22 | 2004-10-06 | Sony Corporation | Picture encoding |
JP2002330440A (ja) | 2001-05-01 | 2002-11-15 | Sony Corp | 画像伝送方法、画像伝送方法のプログラム、画像伝送方法のプログラムを記録した記録媒体及び画像伝送装置 |
JP2003108476A (ja) * | 2001-09-28 | 2003-04-11 | Fuji Photo Film Co Ltd | コンテンツ管理システム、コンテンツ管理方法およびプログラム |
US7464176B2 (en) * | 2002-06-17 | 2008-12-09 | Microsoft Corporation | Multicast system and method for deploying multiple images simultaneously |
WO2004013676A2 (de) * | 2002-07-31 | 2004-02-12 | Theodor Heutschi | Elektronisches gerät, insbesondere ein mobiles multimedia-kommunikationsgerät |
KR20050088448A (ko) * | 2002-12-20 | 2005-09-06 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 계층 미디어 데이터를 처리하는 방법 및 장치 |
KR100461542B1 (ko) * | 2002-12-26 | 2004-12-17 | 한국전자통신연구원 | 다중 주파수 대역을 이용한 디지탈 방송 송/수신 장치 및그 방법 |
WO2005006754A1 (ja) * | 2003-07-14 | 2005-01-20 | Fujitsu Limited | 送信した低品質a/vデータに対応する高品質a/vデータの送信 |
EP1720357A1 (de) * | 2005-05-04 | 2006-11-08 | Swisscom Mobile AG | Verfahren und Vorrichtung zur Übermittlung von Videodaten mit Komprimierung basierend auf Blickrichtung nach Augenverfolgungsverfahren |
US7876978B2 (en) * | 2005-10-13 | 2011-01-25 | Penthera Technologies, Inc. | Regions of interest in video frames |
JP4670902B2 (ja) * | 2008-05-30 | 2011-04-13 | ソニー株式会社 | 送信装置、送信方法および受信装置 |
US10209771B2 (en) | 2016-09-30 | 2019-02-19 | Sony Interactive Entertainment Inc. | Predictive RF beamforming for head mounted display |
US9897805B2 (en) | 2013-06-07 | 2018-02-20 | Sony Interactive Entertainment Inc. | Image rendering responsive to user actions in head mounted display |
US10585472B2 (en) | 2011-08-12 | 2020-03-10 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
CN103630915B (zh) * | 2012-08-24 | 2018-08-03 | 深圳思凯微电子有限公司 | 一种利用数字调频广播进行导航定位的方法 |
JP6138453B2 (ja) | 2012-10-29 | 2017-05-31 | 京セラ株式会社 | テレビ電話機能付き機器、プログラムおよびテレビ電話機能付き機器の制御方法 |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US20140161199A1 (en) * | 2012-12-06 | 2014-06-12 | Xiaomi Inc. | Method and apparatus for processing video image |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
JP6526051B2 (ja) * | 2014-12-12 | 2019-06-05 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US10373592B2 (en) | 2016-08-01 | 2019-08-06 | Facebook Technologies, Llc | Adaptive parameters in image regions based on eye tracking information |
CN106506490B (zh) * | 2016-11-03 | 2019-07-09 | 深圳智高点知识产权运营有限公司 | 一种分布式计算控制方法以及分布式计算系统 |
US10121337B2 (en) * | 2016-12-30 | 2018-11-06 | Axis Ab | Gaze controlled bit rate |
CN111510782A (zh) | 2017-04-28 | 2020-08-07 | 华为技术有限公司 | 视频播放方法、虚拟现实设备、服务器及计算机存储介质 |
GB2563832B (en) * | 2017-06-23 | 2021-11-10 | Sony Interactive Entertainment Inc | Display method and apparatus |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4513317A (en) * | 1982-09-28 | 1985-04-23 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Retinally stabilized differential resolution television display |
JP2733953B2 (ja) * | 1988-05-16 | 1998-03-30 | 日本電気株式会社 | 動画像信号の符号化復号化方式 |
DE58903019D1 (de) * | 1988-09-13 | 1993-01-28 | Thomson Brandt Gmbh | Uebertragungssystem fuer ein zeitlich und oertlich hochaufgeloestes bildsignal. |
JPH02100488A (ja) * | 1988-10-06 | 1990-04-12 | Fuji Xerox Co Ltd | 画像伝送装置 |
JP2648198B2 (ja) * | 1989-01-23 | 1997-08-27 | 日本電信電話株式会社 | 注視方向検出方法 |
JPH03133290A (ja) * | 1989-10-19 | 1991-06-06 | Fujitsu Ltd | 画像符号化装置 |
US5103306A (en) * | 1990-03-28 | 1992-04-07 | Transitions Research Corporation | Digital image compression employing a resolution gradient |
JPH04293375A (ja) * | 1991-03-22 | 1992-10-16 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | 映像表示システム |
US5326266A (en) * | 1992-09-02 | 1994-07-05 | Evans & Sutherland Computer Corporation | Area of interest display system with opto/mechanical image combining |
US5644324A (en) * | 1993-03-03 | 1997-07-01 | Maguire, Jr.; Francis J. | Apparatus and method for presenting successive images |
JPH0744110A (ja) * | 1993-08-03 | 1995-02-14 | Nippon Telegr & Teleph Corp <Ntt> | 視線適応型表示装置 |
JPH07135651A (ja) * | 1993-11-10 | 1995-05-23 | Matsushita Electric Ind Co Ltd | 映像通信システム |
WO1995026606A2 (en) * | 1994-03-18 | 1995-10-05 | Philips Electronics N.V. | Audio-visual presentation system |
JPH07284095A (ja) * | 1994-04-12 | 1995-10-27 | Nippon Telegr & Teleph Corp <Ntt> | 視点適応型画像伝送方法および画像伝送装置 |
FR2731896B1 (fr) * | 1995-03-24 | 1997-08-29 | Commissariat Energie Atomique | Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil |
US6078349A (en) * | 1995-06-07 | 2000-06-20 | Compaq Computer Corporation | Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent |
JP3263278B2 (ja) * | 1995-06-19 | 2002-03-04 | 株式会社東芝 | 画像圧縮通信装置 |
JP3636797B2 (ja) * | 1995-12-08 | 2005-04-06 | 日本放送協会 | デマンドアクセス情報提供システム、およびこれに用いる情報配信装置、中継配信装置、並びに利用者端末装置 |
JPH09214932A (ja) * | 1996-01-30 | 1997-08-15 | Nippon Telegr & Teleph Corp <Ntt> | 画像装置及び画像通信システム |
JP2000504906A (ja) * | 1996-02-14 | 2000-04-18 | オリブル コーポレイション リミティド | マルチメディアデータのプログレッシブ非同期伝送方法及びシステム |
US5898423A (en) * | 1996-06-25 | 1999-04-27 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven captioning |
US6292591B1 (en) * | 1996-07-17 | 2001-09-18 | Sony Coporation | Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks |
JPH10112856A (ja) * | 1996-10-04 | 1998-04-28 | Agency Of Ind Science & Technol | 画像伝送装置および方法 |
US6252989B1 (en) * | 1997-01-07 | 2001-06-26 | Board Of The Regents, The University Of Texas System | Foveated image coding system and method for image bandwidth reduction |
JPH10326071A (ja) * | 1997-03-27 | 1998-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 注視点高解像度化による計算機ホログラム表示方法並びに装置並びにこの方法を記録した記録媒体 |
JPH10294941A (ja) * | 1997-04-22 | 1998-11-04 | Canon Inc | 画像伝送システム、画像伝送装置、画像送信装置及び画像受信装置 |
JPH11195065A (ja) * | 1998-01-06 | 1999-07-21 | Digital Vision Laboratories:Kk | 情報流通システム及び情報供給システム |
US6792245B1 (en) * | 1998-04-10 | 2004-09-14 | Sony Computer Entertainment Inc. | Information reproducing apparatus and broadcasting system |
US6091378A (en) * | 1998-06-17 | 2000-07-18 | Eye Control Technologies, Inc. | Video processing methods and apparatus for gaze point tracking |
US6312129B1 (en) * | 1998-07-21 | 2001-11-06 | L-3 Communications Corp. | Head mounted projector system |
US5980044A (en) * | 1998-09-16 | 1999-11-09 | Evans & Sutherland Computer Corp. | Area of interest display system with image combining using error dithering |
US6454411B1 (en) * | 1998-11-17 | 2002-09-24 | Entertainment Design Workshop Llc | Method and apparatus for direct projection of an image onto a human retina |
-
1999
- 1999-12-30 WO PCT/CH1999/000632 patent/WO2001050754A1/de active IP Right Grant
- 1999-12-30 AT AT99960758T patent/ATE244489T1/de active
- 1999-12-30 ES ES99960758T patent/ES2203222T3/es not_active Expired - Lifetime
- 1999-12-30 IL IL14843199A patent/IL148431A0/xx active IP Right Grant
- 1999-12-30 JP JP2001551008A patent/JP4456791B2/ja not_active Expired - Lifetime
- 1999-12-30 EP EP99960758A patent/EP1247401B1/de not_active Expired - Lifetime
- 1999-12-30 DE DE59906217T patent/DE59906217D1/de not_active Expired - Lifetime
- 1999-12-30 AU AU17658/00A patent/AU1765800A/en not_active Abandoned
-
2002
- 2002-02-25 US US10/082,837 patent/US7095522B2/en not_active Expired - Lifetime
- 2002-02-27 IL IL148431A patent/IL148431A/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
WO2001050754A1 (de) | 2001-07-12 |
DE59906217D1 (de) | 2003-08-07 |
JP4456791B2 (ja) | 2010-04-28 |
ATE244489T1 (de) | 2003-07-15 |
IL148431A (en) | 2007-06-17 |
EP1247401A1 (de) | 2002-10-09 |
AU1765800A (en) | 2001-07-16 |
EP1247401B1 (de) | 2003-07-02 |
IL148431A0 (en) | 2002-09-12 |
US20020101612A1 (en) | 2002-08-01 |
JP2003519982A (ja) | 2003-06-24 |
US7095522B2 (en) | 2006-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2203222T3 (es) | Procedimiento de transmision de datos de imagen. | |
US11763367B2 (en) | System to process data related to user interactions or feedback while user experiences product | |
CN1157951C (zh) | 传输图像数据的方法及适用于此的通信终端和发送装置 | |
ES2206213T3 (es) | Procedimiento y sistema para videoconferencias. | |
US10061349B2 (en) | Head mountable camera system | |
US10948982B2 (en) | Methods and systems for integrating virtual content into an immersive virtual reality world based on real-world scenery | |
KR101617111B1 (ko) | 무선 통신 디바이스들에 대한 핸즈-프리 증강 현실 | |
US8401460B2 (en) | Transmitting sports and entertainment data to wireless hand held devices over a telecommunications network | |
EP2225896B1 (en) | Mobile virtual and augmented reality system | |
US8583027B2 (en) | Methods and systems for authorizing computing devices for receipt of venue-based data based on the location of a user | |
EP1237373A2 (en) | An electronic news gathering system, a method of electronic news gathering, a method of fabricating an apparatus for facilitating electronic news gathering and an electronic news audio and video coverage system | |
US20130141313A1 (en) | Wearable personal digital eyeglass device | |
US20100020229A1 (en) | Wearable personal video/audio device method and system | |
US10326918B2 (en) | Head-unit and system for interactive transmission of video and audio signals | |
US20040257440A1 (en) | Mobile communication system, mobile communication terminal and program thereof | |
CN101184166A (zh) | 成像系统和方法 | |
JPH1175172A (ja) | 送信画像を生成する方法及び端末 | |
US20240129595A1 (en) | Video Monitoring Assembly | |
Ostkamp et al. | Using mobile devices to enable visual multiplexing on public displays: three approaches compared | |
JP2003299056A (ja) | 映像処理装置、映像配信システム、映像処理方法、プログラム及び記録媒体 | |
CN206877665U (zh) | 一种景区实景互动系统 | |
CN115917572A (zh) | 用于自适应广告和通知的方法及系统 | |
WO2009101227A1 (es) | Sistema y procedimiento para la emisión de contenidos personalizados en dispositivos de comunicación | |
SE524020C2 (sv) | Metod och anordning i ett datakommunikationssystem |