FR2884027A1 - Procede et dispositif de transmission et de reception de sequences d'images entre un serveur et un client - Google Patents
Procede et dispositif de transmission et de reception de sequences d'images entre un serveur et un client Download PDFInfo
- Publication number
- FR2884027A1 FR2884027A1 FR0503298A FR0503298A FR2884027A1 FR 2884027 A1 FR2884027 A1 FR 2884027A1 FR 0503298 A FR0503298 A FR 0503298A FR 0503298 A FR0503298 A FR 0503298A FR 2884027 A1 FR2884027 A1 FR 2884027A1
- Authority
- FR
- France
- Prior art keywords
- image
- images
- sequence
- area
- zone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000033001 locomotion Effects 0.000 title claims abstract description 43
- 238000004891 communication Methods 0.000 title claims description 18
- 238000004590 computer program Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 25
- 238000013507 mapping Methods 0.000 claims description 6
- 239000001117 sulphuric acid Substances 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 4
- PMZURENOXWZQFD-UHFFFAOYSA-L sodium sulphate Substances [Na+].[Na+].[O-]S([O-])(=O)=O PMZURENOXWZQFD-UHFFFAOYSA-L 0.000 claims description 4
- NLXLAEXVIDQMFP-UHFFFAOYSA-N Ammonium chloride Substances [NH4+].[Cl-] NLXLAEXVIDQMFP-UHFFFAOYSA-N 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000009472 formulation Methods 0.000 claims description 2
- 238000003780 insertion Methods 0.000 claims description 2
- 230000037431 insertion Effects 0.000 claims description 2
- CSNNHWWHGAXBCP-UHFFFAOYSA-L magnesium sulphate Substances [Mg+2].[O-][S+2]([O-])([O-])[O-] CSNNHWWHGAXBCP-UHFFFAOYSA-L 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- CDBYLPFSWZWCQE-UHFFFAOYSA-L sodium carbonate Substances [Na+].[Na+].[O-]C([O-])=O CDBYLPFSWZWCQE-UHFFFAOYSA-L 0.000 claims description 2
- 230000002123 temporal effect Effects 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 description 23
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000012360 testing method Methods 0.000 description 12
- 230000004044 response Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000001095 magnesium carbonate Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000001175 calcium sulphate Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000001119 stannous chloride Substances 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 239000004128 Copper(II) sulphate Substances 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 239000001164 aluminium sulphate Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004220 glutamic acid Substances 0.000 description 1
- TWRXJAOTZQYOKJ-UHFFFAOYSA-L magnesium chloride Substances [Mg+2].[Cl-].[Cl-] TWRXJAOTZQYOKJ-UHFFFAOYSA-L 0.000 description 1
- 239000004238 monoammonium glutamate Substances 0.000 description 1
- 239000004239 monopotassium glutamate Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000001103 potassium chloride Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/637—Control signals issued by the client directed to the server or network components
- H04N21/6377—Control signals issued by the client directed to the server or network components directed to server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
La présente invention concerne un procédé et dispositif de transmission d'images d'une séquence d'images numériques entre un dispositif serveur et un dispositif client reliés par un réseau de communication, les images étant codées selon un format permettant l'accès à des sous-parties spatiales. Le procédé comporte une étape préalable de réception d'une requête (E500) de suivi spécifiant une zone spatiale d'une image de la séquence préalablement reçue par le dispositif client, et des étapes de :-détermination (E502,E518) de l'image suivante de la séquence d'images à envoyer au dispositif client- détermination d'une zone dans l'image suivante à envoyer (E506), correspondant à la zone spécifiée, en fonction du mouvement estimé dans la séquence d'images, et- envoi au dispositif client (E514) d'au moins une partie des données d'image de la zone ainsi déterminée.L'invention concerne également un procédé et dispositif de réception d'images transmises selon ce procédé de transmission.
Description
La présente invention concerne un procédé et un dispositif de transmission
et de réception de vidéo numérique, en particulier la transmission et la réception de sous-parties spatiales d'une vidéo numérique.
L'invention se situe dans le domaine technique de la communication de données d'une séquence d'images entre un serveur et un client, et s'applique tout particulièrement lorsque le format des images de la séquence est un format de codage permettant l'accès à des sous-parties spatiales des images de la séquence, comme par exemple le format standardisé Motion-JPEG2000 ( JPEG2000 Part 3 Final Draft International Standard , ISO/IEC JTC1/SC29 WG1 N2250, September 2001).
En effet, un tel format associé à un protocole de communication approprié permet le développement de nouvelles applications interactives de visualisation de séquences d'images, permettant notamment à un utilisateur de naviguer spatialement dans les séquences vidéo, par exemple en demandant un zoom avant ou un zoom arrière ou un déplacement spatial, d'augmenter ou diminuer la taille des images affichées ou la fréquence d'affichage.
En particulier, grâce à un tel format de codage, un utilisateur peut spécifier une fenêtre de visualisation, de taille plus faible que la taille de l'image pleine résolution. Ceci est particulièrement intéressant lorsque le client reçoit des images d'une caméra fixe haute définition permettant de prendre des images de grande résolution, dans une application de type vidéosurveillance par exemple.
II serait intéressant, notamment dans ce contexte, de permettre au client de suivre une zone de l'image en temps réel en fonction de son mouvement, sans avoir à envoyer une nouvelle requête spécifique dès que l'objet contenu dans cette zone s'est déplacé.
On connaît dans l'état de l'art des méthodes permettant le suivi d'objets en mouvement dans une vidéo numérique. La demande de brevet US20030197720 décrit un procédé exécuté sur des séquences vidéo qui permet d'extraire et de suivre des objets dans ces séquences. Sur le serveur, préalablement à toute transmission, des objets de la vidéo sont extraits et des vecteurs de mouvement permettant de les suivre dans toute la séquence sont calculés. Ces vecteurs sont stockés sur le serveur, et transmis au client en même temps que l'ensemble des données d'image. Le client peut ensuite sélectionner un de ces objets prédéfinis et de le suivre dans toute la séquence. Mais il faut pour cela avoir reçu toutes les données compressées et seuls les objets prédéterminés peuvent être sélectionnés.
La méthode citée ci-dessus ne permet donc pas à l'utilisateur de sélectionner un objet quelconque de l'image et de ne recevoir que les données nécessaires pour suivre cet objet dans la séquence.
La présente invention a pour objectif de résoudre ce problème en proposant un procédé permettant de recevoir automatiquement une sous- partie des données codées correspondant à une zone à suivre demandée par l'utilisateur.
A cet effet, l'invention propose un procédé de transmission d'images d'une séquence d'images numériques entre un dispositif serveur et un dispositif client reliés par un réseau de communication, les images étant codées selon un format permettant l'accès à des sous-parties spatiales. Ce procédé de transmission d'images est remarquable en ce qu'il comporte: une étape préalable de réception d'une requête de suivi, spécifiant une zone spatiale à suivre appartenant à une image de la séquence préalablement reçue par le dispositif client, et des étapes de: - détermination de l'image suivante de la séquence d'images à envoyer au dispositif client détermination d'une zone spatiale dans ladite image suivante, correspondant à la zone spécifiée, en fonction du mouvement estimé dans la séquence d'images, et - envoi au dispositif client d'au moins une partie des données d'image de la zone déterminée.
Ainsi, l'invention permet d'envoyer au dispositif client uniquement les données nécessaires pour décoder et afficher la zone en mouvement demandée par le client, sans avoir besoin de ré-encoder les données. Ceci permet de diminuer la bande passante nécessaire à la transmission des données et de satisfaire plus rapidement la requête du client. De plus, l'utilisateur est dispensé d'un suivi manuel de la zone en mouvement.
Dans un mode de mise en oeuvre avantageux, la zone spatiale spécifiée dans la requête de suivi est une zone rectangulaire, définie par sa taille et sa position. Une telle zone peut être spécifiée par l'utilisateur à l'aide de son interface graphique et peut être identique à la fenêtre de visualisation du dispositif client.
Selon une caractéristique préférée, la requête de suivi contient un champ prédéfini spécifiant au moins l'indice de l'image de la séquence à laquelle appartient la zone à suivre.
L'ajout d'un tel champ permet de signifier au serveur de manière simple et compacte la demande de suivi d'une zone par l'utilisateur.
En outre, la requête de suivi spécifie la taille et la position d'une fenêtre de visualisation rectangulaire correspondant à la taille et position de la fenêtre de visualisation du dispositif client.
Selon un premier mode de mise en oeuvre, la zone spatiale à suivre est identique à la fenêtre de visualisation du dispositif client. Dans ce cas, les coordonnées de ces deux zones rectangulaires sont identiques et transmises une seule fois.
Selon un second mode de mise en oeuvre, la zone spatiale à suivre est incluse dans la fenêtre de visualisation. Dans ce cas, la taille et la position de la zone spatiale à suivre sont spécifiées dans le champ prédéfini de la requête de suivi.
Lorsque la zone à suivre est incluse dans la fenêtre de visualisation du dispositif client, l'étape d'envoi comporte en outre l'envoi au dispositif client de données d'image supplémentaires correspondant à au moins un voisinage de la zone spatiale déterminée dans ladite image suivante à envoyer. Ainsi, dans le cas où la zone suivie est strictement incluse dans la fenêtre de visualisation du client, mais pas exactement égale à celle-ci, le serveur envoie automatiquement des parties spatiales découvertes par le mouvement de la zone suivie et qui sont nécessaires pour compléter l'affichage.
En outre, la requête de suivi spécifie un intervalle d'images de la séquence pour lesquelles le suivi doit s'appliquer ou une durée temporelle de suivi.
Ainsi, le suivi et l'ensemble d'images sur lesquelles il doit s'appliquer sont indiqués au serveur de manière aisée sans un surcroît de communications.
Selon un premier mode de mise en oeuvre, le mouvement estimé dans la séquence d'images est représenté par des vecteurs de mouvement sur des blocs spatiaux de taille prédéterminée, calculés préalablement et stockés sur le dispositif serveur. Ce mode de mise en oeuvre s'applique dans le cas des vidéos préalablement enregistrées, appelé aussi mode vidéo à la demande .
Selon un second mode de mise en oeuvre, le mouvement estimé dans la séquence d'images est représenté par des vecteurs de mouvement sur des blocs spatiaux de taille dépendante de la zone spatiale spécifiée dans la requête de suivi, calculés lors de la capture de la séquence d'images. Ce mode de mise en oeuvre s'applique dans le cas d'une transmission temps réel , dans le cadre d'une application de vidéosurveillance par exemple.
Selon une caractéristique, une information de taille et/ou de position de la zone déterminée est transmise au dispositif client. Dans le mode de mise en oeuvre préféré, l'information de taille et/ou de position est transmise sous forme de méta-données.
Corrélativement, l'invention concerne également un dispositif de transmission d'images d'une séquence d'images numériques entre un dispositif serveur et un dispositif client reliés par un réseau de communication, les images étant codées selon un format permettant l'accès à des sous-parties spatiales. Ce dispositif comporte: - des moyens de réception d'une requête de suivi, spécifiant une zone spatiale appartenant à une image de la séquence préalablement reçue par le dispositif client, des moyens de détermination de l'image suivante à envoyer dans la 30 séquence d'images, - des moyens de détermination d'une zone dans l'image suivante à envoyer, correspondant à la zone spécifiée, en fonction du mouvement estimé dans la séquence d'images, et - des moyens d'envoi au dispositif client d'au moins une partie des données d'image de la nouvelle zone ainsi déterminée.
Le dispositif de transmission d'images selon l'invention comporte des moyens de mise en oeuvre des caractéristiques précédemment exposées. Ce dispositif présente des avantages analogues à ceux du procédé de transmission d'images d'une séquence d'images numériques associé.
Selon un autre aspect, l'invention concerne également un procédé de réception d'images d'une séquence d'images par un dispositif client en provenance d'un dispositif serveur, les images étant codées selon un format permettant l'accès à des sous-parties spatiales. Ce procédé de réception comporte une étape préalable de formulation d'une requête de suivi, spécifiant une zone spatiale à suivre appartenant à une image préalablement reçue de la séquence d'images et des étapes de: - obtention d'au moins une information de position d'une zone de l'image suivante à recevoir, ladite zone correspondant à la zone à suivre en fonction du mouvement estimé dans la séquence d'images, - réception d'au moins une partie des données d'image de ladite zone.
Ce procédé de réception permet ainsi de recevoir une zone d'image qui est suivie dans la séquence en fonction du mouvement des objets contenus dans cette zone. Ce procédé est particulièrement avantageux, car les coordonnées de positionnement de la nouvelle zone dans chaque image de la séquence sont transmises par le serveur, ainsi que les données qui la composent. Ainsi, le dispositif client peut mettre en oeuvre le suivi d'une zone en mouvement sans intervention de l'utilisateur.
Selon une caractéristique préférée, le procédé comporte également, après l'étape de réception, les étapes de: - mise à jour d'une fenêtre de visualisation en fonction de l'information de position - décodage des données d'image reçues et - affichage dans ladite fenêtre de visualisation des données d'images décodées.
Ainsi, l'utilisateur pourra suivre et visualiser la zone contenant un ou plusieurs objets en mouvement qu'il a défini dans la requête de suivi préalable dans la séquence d'images, sans avoir à effectuer d'autres requêtes.
Selon un mode de mise en oeuvre, l'étape de formulation comprend l'insertion d'un champ prédéfini dans ladite requête de suivi, le champ prédéfini spécifiant l'indice de l'image contenant la zone à suivre.
Ainsi, grâce à l'utilisation d'un champ prédéfini dans la requête, la 10 demande de suivi se fait de manière aisée et sans requérir d'autres ressources calculatoires ou de communication qu'une requête classique.
Selon un mode de mise en oeuvre particulièrement avantageux, l'obtention d'au moins une information de position de la nouvelle zone consiste en la réception de ladite information dans un champ de méta-données. Ainsi, cette information est transmise en rajoutant des informations dans un protocole de transmission déjà existant.
Corrélativement, l'invention concerne également un dispositif de réception d'images d'une séquence d'images par un dispositif client en provenance d'un dispositif serveur, les images étant codées selon un format permettant l'accès à des sous-parties spatiales. Ce dispositif comporte: des moyens de formulation d'une requête spécifiant une zone spatiale à suivre appartenant à une image préalablement reçue de la séquence d'images - des moyens d'obtention d'au moins une information de position d'une zone de l'image suivante à recevoir, ladite zone correspondant à la zone à suivre en fonction du mouvement estimé dans la séquence d'images - des moyens de réception d'au moins une partie des données d'image de ladite zone.
Le dispositif de réception d'images d'une séquence d'images selon l'invention comporte des moyens de mise en oeuvre des caractéristiques du procédé de réception précédemment exposées. Ce dispositif présente des avantages analogues à ceux du procédé de réception selon l'invention.
Les caractéristiques des procédés et dispositifs de transmission et de réception selon l'invention citées ci-dessus ont des avantages particuliers dans le cas où le format de codage de la séquence d'images est le format Motion-JPEG2000 et le protocole de transmission est JPIP (JPEG2000 Interactive Protocol, décrit dans la partie 9 du standard, Information technology - JPEG2000 image coding system Part 9: Interactivity tools, APIs and protocols Common Text Publication , UTI-T Rec. T.808 ISO/IEC 15444-9:2004, Juillet 2004.).
Un programme d'ordinateur lisible par un microprocesseur, comprend des portions de code logiciel adaptées à mettre en oeuvre le procédé de transmission et le procédé de réception conforme à l'invention, lorsqu'il est chargé et exécuté par le microprocesseur.
Un moyen de stockage d'informations, éventuellement totalement ou partiellement amovible, lisible par un système informatique, comprend des instructions pour un programme informatique adapté à mettre en oeuvre le procédé de transmission et le procédé de réception conforme à l'invention lorsque ce programme est chargé et exécuté par le système informatique.
Les moyen de stockage d'information et programme d'ordinateur présentent des caractéristiques et avantages analogues aux procédés qu'ils mettent en oeuvre.
D'autres particularités et avantages de l'invention apparaîtront encore dans la description ci-après, illustrée par les dessins ci-joints, dans lesquels: - la figure 1 représente schématiquement un réseau de 25 communication adapté à mettre en oeuvre l'invention; - la figure 2 représente schématiquement un dispositif adapté à mettre en oeuvre l'invention; -la figure 3 représente schématiquement une image visualisée sur le dispositif client; -la figure 4 représente schématiquement le suivi de zone en mouvement dans plusieurs images d'une séquence d'images; - la figure 5 représente un exemple d'algorithme de transmission selon l'invention mis en oeuvre par le dispositif serveur; - la figure 6 représente un exemple d'algorithme de réception selon l'invention mis en oeuvre par le dispositif client; -la figure 7 illustre les positions relatives de la zone suivie avant et après mise à jour par le serveur.
L'invention sera décrite, dans les exemples qui suivent, sur des séquences d'images qui sont codées dans le format de compression Motion- JPEG2000, et qui sont échangées entre le serveur et le client en utilisant le procotole JPIP. Selon le format Motion-JPEG2000, toutes les images d'une séquence d'images sont codées indépendamment en format JPEG2000. Le format JPEG2000 permet l'accès à différents niveaux de résolution et de qualité de sous-parties spatiales des images, notamment grâce au découpage des images en blocs spatio-fréquentiels appelés code- blocs et regroupés en ensembles de blocs, appelés precints, représentatifs d'une zone spatiale rectangulaire dans un niveau de résolution donné.
Notons cependant qu'il s'agit d'un exemple, et que tout autre format de codage vidéo permettant l'accès à des sous-parties spatiales d'une image quelconque de la séquence pourrait s'appliquer similairement, en utilisant un protocole de transmission approprié.
La figure 1 représente schématiquement un contexte applicatif typique de la présente invention. Une source d'acquisition vidéo, comme par exemple une caméra Webcam, est reliée à un dispositif serveur S. Le dispositif serveur effectue un codage, par exemple en format de compression MotionJPEG2000, de la séquence vidéo acquise, en utilisant un logiciel spécifique ou une carte dédiée à cet effet. Une application privilégiée envisagée est la vidéosurveillance. La vidéo est acquise en continu. Elle peut être compressée et stockée sur le dispositif serveur, ou alors compressée et transmise uniquement suite à une requête d'au moins un dispositif client connecté au réseau.
Le flux vidéo compressé ainsi obtenu peut être alors transmis à un ou plusieurs clients C, par l'intermédiaire du réseau de communication 10, par exemple le réseau Internet. Lorsque le format de compression utilisé est le format Motion-JPEG2000, le protocole JPIP peut être utilisé avantageusement pour effectuer la transmission progressive des données vidéo du serveur vers une machine client.
Dans le mode de mise en oeuvre privilégié de l'invention, chaque machine client C possède un logiciel de visualisation interactive des séquences vidéo Motion-JPEG2000.
En référence à la figure 2 nous allons décrire maintenant un dispositif apte à mettre en oeuvre les procédés de l'invention, qu'il s'agisse d'un dispositif serveur S ou d'un dispositif client C. Un tel appareil est par exemple un micro-ordinateur 200 connecté à différents périphériques, par exemple une caméra numérique 201 reliée à une carte graphique et fournissant des informations à traiter selon l'invention.
Le dispositif 200 comporte une interface de communication 218 reliée au réseau de communication 10 apte à transmettre des données numériques codées/décodées traitées par le dispositif. Le dispositif 200 comporte également un moyen de stockage 212 tel que par exemple un disque dur. Il comporte aussi un lecteur 214 de disque 216. Ce disque 216 peut être une disquette, un CD-ROM ou un DVD-ROM, par exemple. Le disque 216 comme le disque 212 peuvent contenir des données traitées selon l'invention ainsi que le ou les programmes mettant en oeuvre l'invention qui, une fois lu par le dispositif 200, sera stocké dans le disque dur 212. Selon une variante, le programme Progr permettant au dispositif de mettre en oeuvre l'invention, pourra être stocké en mémoire morte 204 (appelée ROM sur le dessin). En seconde variante, le programme pourra être reçu pour être stocké de façon identique à celle décrite précédemment par l'intermédiaire du réseau de communication 10.
Ce même dispositif possède un écran 208 permettant notamment de visualiser les données décompressées sur le dispositif client ou de servir d'interface avec l'utilisateur qui peut ainsi paramétrer la navigation interactive (par exemple sélection de zone spatiale, modes zoom avant, mode zoom arrière, mode suivi ), à l'aide du clavier 210 ou de tout autre moyen de pointage, comme par exemple une souris 211, un crayon optique ou encore un écran tactile.
L'unité centrale 203 (appelée CPU sur le dessin) exécute les instructions relatives à la mise en oeuvre de l'invention, instructions stockées dans la mémoire morte 204 ou dans les autres éléments de stockage. Lors de la mise sous tension, les programmes de traitement stockés dans une mémoire non volatile, par exemple la ROM 204, sont transférés dans la mémoire vive RAM 206 qui contiendra alors le code exécutable de l'invention ainsi que des registres pour mémoriser les variables nécessaires à la mise en oeuvre de l'invention.
De manière plus générale, un moyen de stockage d'information, lisible par un ordinateur ou par un microprocesseur, intégré ou non au dispositif, éventuellement amovible, mémorise un programme mettant en oeuvre le procédé selon l'invention.
Le bus de communication 202 permet la communication entre les différents éléments inclus dans le micro-ordinateur 200 ou reliés à lui. La représentation du bus 202 n'est pas limitative et notamment l'unité centrale 203 est susceptible de communiquer des instructions à tout élément du micro-ordinateur 200 directement ou par l'intermédiaire d'un autre élément du micro-ordinateur 200.
La figure 3 montre schématiquement la fonctionnalité proposée par l'invention. Cette figure donne l'exemple d'une image de la séquence d'images, notée In, de grande résolution, dont au moins une partie est visualisée à un instant donné sur l'écran 208 de la machine client. C'est une image de grande résolution, et la scène vidéo représente un objet en mouvement, noté O, évoluant, suivant la trajectoire schématisée par un trait pointillé, sur un fond fixe. Dans cet exemple, la fenêtre de visualisation de la machine client, notée F, est spatialement plus petite que la taille de l'image à pleine résolution. Dans ce cas, l'utilisateur qui visualise la séquence d'images peut souhaiter la visualisation de l'objet en mouvement avec une résolution maximale plutôt que la visualisation de la scène en son entier à résolution réduite. Pour ce faire il doit, dans les applications existantes de navigation interactive dans des vidéos en format Motion-JPEG2000, déplacer manuellement sa fenêtre de visualisation, en utilisant le clavier 210 ou la souris 211, afin de suivre l'objet en mouvement.
La présente invention propose d'automatiser ce processus, en offrant à l'utilisateur la possibilité de sélectionner une zone à suivre Z, englobant l'objet d'intérêt en mouvement et de spécifier un mode suivi , via un bouton de son interface graphique, activable par la souris 211 ou le clavier 210 par exemple.
La taille et la position de la zone rectangulaire à suivre dans l'image ln sont calculées automatiquement et envoyées au serveur, selon le procédé de l'invention.
Dans le mode de mise en oeuvre préféré, le serveur se charge de calculer et transmettre seulement les données correspondant à la zone sélectionnée par l'utilisateur, à afficher dans sa fenêtre de visualisation. Les coordonnées et éventuellement la taille de la zone suivie évoluent dans le temps, en fonction de la trajectoire de l'objet en mouvement dans la séquence d'images. Cette évolution est illustrée à la figure 4, où sont représentées 4 images successives de la séquence, ln à 1n+3, et la trajectoire T de l'objet O suivi qui est à l'intérieur de la zone Z spécifiée dans la requête client.
Le serveur met en oeuvre un procédé de suivi de zone en mouvement, en utilisant, dans le mode de mise en oeuvre préféré, un algorithme de mise en correspondance entre images basé sur une estimation de mouvement par blocs (connu sous le nom de block matching en terminologie anglosaxonne). De tels vecteurs de mouvement V, mettant en correspondance la zone Z de l'image ln et une nouvelle zone Zn+1 de l'image In+1 sont illustrés à la figure 4. Dans cet exemple, le mouvement moyen effectué par la zone Z à suivre est évalué en supposant que la taille de la zone reste inchangée, ce qui est adapté pour un mouvement de translation dans un plan perpendiculaire au plan de la caméra. Cependant, il existe des algorithmes permettant de prendre en compte d'autres types de mouvement, impliquant notamment le changement de taille de la zone d'intérêt.
Deux modes de mise en oeuvre seront distingués par la suite, décrits en détail ci-après: le mode de transmission temps réel , où le serveur dispose à l'avance des coordonnées de la zone à suivre au moment de la compression, et le mode de transmission du type vidéo à la demande , où l'acquisition, la compression et le stockage des séquences vidéos sont effectués préalablement à toute transmission. Dans le premier mode temps réel , la mise en correspondance est effectuée sur les images de la séquence après acquisition et avant compression, et éventuellement en fonction de la taille et de la position de la zone Z à suivre. Dans le mode vidéo à la demande, la mise en correspondance est de préférence effectuée au préalable, sur des blocs de taille prédéterminée, et l'ensemble des vecteurs de mouvement obtenus est stocké en mémoire, de préférence en même temps que la séquence compressée.
La figure 5 décrit une mise en oeuvre de l'algorithme de traitement executé par le serveur, lors de la réception d'une requête de type suivi, spécifiant une zone spatiale à suivre en fonction du mouvement de la séquence.
Dans le mode de mise en oeuvre vidéo à la demande , un ensemble de vecteurs de mouvement mettant en correspondance les images de la séquence est stocké dans un espace de stockage Mem du dispositif serveur, sur le disque dur 212 ou sur un disque externe 216. De nombreux algorithmes de mise en correspondance par blocs entre images sont connus.
Par exemple, on peut utiliser une mise en correspondance basée sur la minimisation de l'erreur quadratique moyenne, sur des blocs de taille 4x4 ou 8x8 afin d'avoir une estimation fine du mouvement permettant de s'adapter ultérieurement à la zone à suivre.
Par ailleurs, le serveur dispose également, dans le mode de mise en oeuvre vidéo à la demande , de l'ensemble des images de la séquence, chaque image étant individuellement codée en format JPEG2000, conformément au standard Motion-JPEG2000: chaque image est ainsi représentée par un ensemble de résolutions spatiales, un ensemble de niveaux ou couches de qualité et une partition spatiale de chaque niveau de résolution en zones rectangulaires indépendamment décodables appelées precincts. Dans l'exemple de mise en oeuvre décrit ici, ces images codées sont également stockées dans l'espace de stockage Mem.
La première étape de l'algorithme, E500, est la réception d'une requête de type suivi , notée Rs, en provenance du dispositif client. La requête Rs spécifie le mode suivi pour une zone Z définie, par exemple, par les coordonnées spatiales (x, y) de son coin supérieur gauche dans un référentiel prédéterminé, sa hauteur h et sa largeur w, ainsi que sa résolution res et son niveau de qualité Q. La requête spécifie l'indice n de l'image de la séquence dans laquelle la zone Z a été sélectionnée. En pratique, lorsque le protocole JPIP est utilisé pour la communication des données codées en format Motion-JPEG2000, le mode suivi est spécifié par un champ optionnel, rajouté à cet effet dans la requête, comme par exemple la mention tracking=n dans l'exemple ci-dessous, où n représente l'indice de l'image dans laquelle la zone Z est spécifiée. Enfin, si la zone suivie est strictement inclue dans la fenêtre de visualisation de l'utilisateur, c'est-à-dire ZcF et ZEF, le champs tracking spécifie également les coordonnées de la zone suivie Z. Un exemple de requête basée sur le protocole http (Hyper Text Transfer Protocol) sera donné ci-dessous en référence à la figure 6.
De manière optionnelle, la requête peut également spécifier l'intervalle d'image [n,n1] de la séquence pour lesquelles le mode suivi s'applique. En variante, la requête pourrait spécifier une durée temporelle pour laquelle le mode suivi doit s'appliquer. Enfin, dans une autre variante, la requête de suivi ne spécifie pas de limite, et alors le mode suivi n'est invalidé que par la réception d'une nouvelle requête qui ne spécifie pas un suivi de zone spatiale ou bien qui spécifie une autre zone à suivre.
Après réception d'une telle requête Rs, le serveur sélectionne l'indice 30 n' de la première image à transmettre au client (étape E502).
Dans le mode de transmission vidéo à la demande , l'indice n' peut être par exemple choisi comme étant l'indice de l'image suivant l'image spécifiée dans la requête n'=n+SF, où SF est le facteur de souséchantillonnage temporel spécifié dans les préférences du client. Ce facteur est déduit des champs de requêtes optionnels stream , srate , et drate , disponibles dans le protocole JPIP. Alternativement, dans le mode de transmission temps réel ,
l'acquisition et la transmission des images est continue, et donc l'indice n' doit correspondre à la prochaine image à envoyer par le serveur, qui peut être égal à n+D, où D correspond à un délai éventuel.
A l'étape suivante E504, l'algorithme vérifie que le mode suivi s'applique bien pour l'image d'indice n', donc par exemple que l'indice n' est inférieur à n1 dans le cas où un intervalle d'images [n,n1] est spécifié dans la requête.
Si la réponse est négative, l'étape E504 est suivie par l'étape E512 qui sera décrite ultérieurement. II s'agit alors d'un mode de fonctionnement connu qui ne fait pas l'objet de la présente invention.
Dans le cas où la réponse est positive, l'étape E504 est suivie de l'étape E506, qui détermine la nouvelle zone Z' de l'image In, correspondant à la zone Z de l'image ln en fonction du mouvement dans la vidéo. Comme expliqué ci-dessus en référence à la figure 4, on utilise les vecteurs de mouvement relatifs à la séquence.
Dans le mode de mise en oeuvre vidéo à la demande , on utilise les vecteurs préalablement calculés et stockés en mémoire. Alternativement, dans le mode temps réel , on recherche dans l'image In, la zone rectangulaire Z', par exemple de même taille que Z, présentant la plus grande corrélation avec la zone Z de l'image ln sans nécessairement définir un vecteur de mouvement associé.
Dans l'un ou l'autre des modes de mise en oeuvre, l'étape E506 consiste à déterminer une nouvelle zone Z' mise en correspondance avec la zone Z. Selon un mode de mise en oeuvre préféré, on affecte un vecteur de mouvement principal à la zone Z en effectuant une moyenne pondérée sur les coordonnées des vecteurs de mouvement associés aux blocs de taille prédéterminée inclus dans Z. Si l'on note {Vi(ai,b1), V2(a2,b2) VK(aK,bK)} l'ensemble des vecteurs inclus dans Z et mettant en correspondance un bloc de ZcIn et un autre bloc de In. on peut obtenir un vecteur principal V' avec les coordonnées: où les coefficients m, sont des coefficients de pondération dont la
K
somme est égale à 1: lm, = 1.
Alternativement, on peut affecter à la zone Z un vecteur composé des valeurs médianes des coordonnées des vecteurs V;, ce qui aurait l'avantage d'exclure les valeurs aberrantes (appelées outliers en terminologie anglo-saxonne).
Une fois ce vecteur principal obtenu, il suffit de calculer la projection de la zone Z dans In par le vecteur V' pour obtenir les coordonnées de la zone Z' dans In,.
Selon encore une autre alternative, on peut déterminer la zone Z' en utilisant l'algorithme de suivi d'une région d'intérêt décrit dans le brevet FR02.09275.
Notons que dans le mode de mise en oeuvre préféré, la mise en correspondance est effectuée entre deux images consécutives de la séquence d'images, comme illustré figure 3. Le dispositif serveur mémorise les coordonnées de la zone Z' déterminée et de l'indice d'image (n') associé, afin d'utiliser cette information pour l'image suivante à traiter (n'+SF).
Alternativement, il est envisageable que les vecteurs de mouvement utilisés pour la détermination de la zone Z' mettent en correspondance les images In et In', In étant l'image spécifiée dans la requête, dans laquelle l'utilisateur a choisi la zone à suivre. A l'issue de cette étape on dispose des nouvelles coordonnées (x',y') du coin supérieur gauche de la zone Z' dans l'image d'indice n', et éventuellement de sa nouvelle taille.
Selon une variante où l'algorithme de suivi est à même de mettre en correspondance des zones rectangulaires de taille différentes, il se peut que la taille de la zone suivie augmente ou baisse de façon significative au fil du temps, par exemple si l'objet suivi se rapproche ou s'éloigne du plan de prise de vue. Dans ces cas, selon un mode de réalisation particulier de l'invention, le serveur peut décider de changer le niveau de résolution de visualisation de l'image, et sélectionne alors le niveau de résolution qui donne une zone suivie de taille la plus proche de celle de la fenêtre de visualisation F dont la taille reste fixe.
Ensuite, le procédé prévoit de générer (étape E508) des messages binaires de réponse en format JPIP de type metadata-bin (méta-données) , qui encapsulent les nouvelles coordonnées (position et taille) de la zone suivie, permettant de signaler au client la taille et la position de la fenêtre de visualisation qu'il devra afficher. De nouvelles meta-données JPEG2000/JPIP propriétaires sont définies à cet effet.
Par exemple, une boîte de méta-données spécifiant les nouvelles 15 coordonnées de la zone suivie Z' peut contenir, dans cet ordre, les champs suivants: LBoX TBoX XLBoX x Y w'hIres: De façon conforme à la spécification des boîtes de méta-données JPEG2000, les champs LBoX et TB, X indiquent respectivement la longueur en octets et le type de la boîte considéré. Pour réaliser la présente invention, on définit un type propriétaire 'mobj' (moving object) indiquant que la boîte indique les coordonnées d'un objet en mouvement. Le champ optionnel XLBoX indique la longueur de la boîte si le champ LBoX est égal à 1. En pratique, il n'est pas utilisé pour ces boîtes de type 'mobj'. Enfin, les champs x, y, w et h, constituent la représentation non-signée sur 4 octets d'entiers respectivement égaux à l'abscisse, l'ordonnée, la largeur et la hauteur de la zone rectangulaire Z', constituant la zone suivie. Notons que les champs w et h sont optionnels. Si la valeur de LBoX est égale à 16 octets, alors w et h sont omis. Sinon, LBoX indique un nombre d'octets égal à 24 et les valeurs w et h apparaissent dans la boîte.
Le champ res, également optionnel, indique si nécessaire le nouveau niveau de résolution sélectionné par le serveur, comme expliqué ci-dessus.
Dans le mode de mise en oeuvre préféré illustré ici, ces métadonnées sont transmises au client à l'étape E510, c'est à dire préalablement aux données compressées représentant la portion de l'image ln. à transmettre, afin que le client puisse mettre à jour sa fenêtre d'affichage pour l'image courante d'indice n'. Selon une variante on pourrait envisager d'omettre la génération et l'émission de metadonnées contenant les caractéristiques de la nouvelle zone déterminée, en laissant le soin au dispositif client de déduire par le calcul les caractéristiques de la nouvelle zone en fonction des données reçues (notamment en fonction des indices des entités élementaires de JPEG2000, appelées precincts). Cette dernière variante est cependant sous-optimale, car elle implique des calculs et un éventuel délai pour le décodage et l'affichage des données sur le dispositif client. De plus, la détermination des coordonnées de la zone suivie par le client selon cette dernière approche serait approximative.
L'étape suivante E511 prévoit de tester si la zone suivie Z est identique à la fenêtre de visualisation de l'utilisateur F. Dans l'affirmative, l'étape suivante E512 est dédiée à la détermination des données vidéo compressées en format JPEG2000 qui manquent au client pour pouvoir décoder et afficher la nouvelle zone Z' qui constitue également la nouvelle fenêtre de visualisation de l'utilisateur. Dans la négative, l'étape E513 calcule les données compressées utiles à décoder la zone rectangulaire, notée Rect(Z,Z), englobant les zones Z(x,y,w,h) et Z'(x y', w;h'). Une telle zone rectangulaire englobante est illustrée à la figure 7. Les coordonnées et la taille de cette zone englobante sont données par: Rect(Z,Z') = [min(x,x),min(y,y),max(x+w,x'+w'),max(y+h,y'+h)] Dans ce cas, la fenêtre de visualisation du client affiche un fond fixe et la zone visualisée à l'intérieur (la zone requise Z de la figure 3 est strictement incluse dans la fenêtre de visualisation F). Dans ce cas, à l'étape E513 sont calculées d'une part les données vidéo à transmettre à l'intérieur de la zone Z', et d'autre part les données appartenant à la zone découverte , c'est-à-dire la partie de la fenêtre de visualisation préalablement occupée par la zone Z dans l'image préalablement affichée, et qu'il faut rafraîchir.
A l'étape suivante E514, les données déterminées préalablement sont transmises au client dans le format approprié (ici JPIP).
Cette étape est suivie de l'étape E516, où l'on vérifie si l'image précédemment traitée In. est la dernière image de la réponse à transmettre au client. Si ce n'est pas la dernière image, cette étape est suivie de l'étape E518, où l'indice de l'image courante à traiter est mis à jour en fonction du facteur d'échantillonnage de la séquence SF, pour retourner ensuite à l'étape E504 déjà décrite.
Si la réponse au test E516 est positive, alors l'étape E519 prévoit de transmettre un message de fin de réponse au client, terminant ainsi la réponse. Enfin, l'algorithme prend fin (E520).
La figure 6 décrit un mode de réalisation de l'algorithme mis en oeuvre par le dispositif client pour effectuer le suivi automatique d'une zone d'image, qui s'applique indifféremment au mode vidéo temps réel ou vidéo à la demande .
L'algorithme débute suite à une requête de l'utilisateur, obtenue par l'intermédiaire d'une interface graphique permettant à celui-ci de naviguer dans la séquence d'images, d'en sélectionner des sous-parties, de spécifier leur résolution, qualité et aussi, selon la présente invention, de demander le suivi d'une de ces sous-parties, par l'intermédiaire d'un bouton à cliquer ou d'une commande par l'intermédiaire de la souris 211 ou du clavier 210. On dispose alors en entrée de l'algorithme de l'indice de l'image courante n et d'une requête utilisateur, spécifiant une fenêtre de visualisation par ses coordonnées (x,y), sa taille (w,h), sa résolution res et son niveau de qualité Q. La première étape de l'algorithme selon un mode de mise en oeuvre préféré de l'invention est un test E600 évaluant si l'option suivi de zone a été activée. Si la réponse est négative, la suite se déroule de façon classique, par une étape E602 d'émission d'une requête selon le protocole JPIP pour demander des données d'image correspondant à la fenêtre de visualisation spécifiée par l'utilisateur. Cette requête est suivie par l'étape E603 de réception et stockage des données. L'étape E603 est suivie des étapes de décodage et affichage, décrites plus loin en référence aux étapes E612 et E615.
Si la réponse au test E600 est positive, l'étape suivante est l'étape E604, de formulation et émission d'une requête de type JPIP comprenant un champ optionnel tracking=n , destiné à signaler au serveur le mode suivi selon l'invention.
Une telle requête JPIP, basée sur le protocole http, peut par exemple prendre la forme suivante: GET/fcgi-bin/ Jpip5erver.exe ? target=sequence. mj2 &fsiz=2048,1876 &rsiz=512,512 &roff=113, 237&loyers=6&context=mj2t< 1+now>&tracking=69 Cette requête spécifie la référence de la séquence: sequence.mj2 . Le champ fsiz indique la résolution de l'image (représenté ici par la taille H=2048, W=1876), le champ rsiz indique la taille (hauteur h=512, largeur w=512) de la fenêtre de visualisation demandée et le champ roff indique les coordonnées (abscisse x=113, ordonnée y=237) de la fenêtre de visualisation demandée. Le champ loyers indique le nombre de couches de qualité demandé, égal à 6 dans l'exemple.
Le champ additionnel tracking=69 est ajouté par rapport au standard JPIP pour réaliser la fonctionnalité de l'invention. Ce champ indique qu'un suivi est requis par l'utilisateur et que les coordonnées initiales de la zone suivie sont définies dans l'image d'indice 69. Dans le cas de la requête ci-dessus, la zone à suivre (Z) est confondue avec la fenêtre de visualisation (F) de l'utilisateur. Dans le cas où la zone à suivre serait strictement incluse dans la fenêtre de visualisation alors des champs optionnels supplémentaires sont nécessaires pour spécifier ses coordonnées. Ils peuvent par exempleprendre la forme suivante: tracking=69<135,264:327,179> Les valeurs (135,264) indiquent l'abscisse et l'ordonnée de l'origine de la zone suivie dans l'image et le couple (327,179) sa largeur et sa taille. Notons que la zone à suivre doit être incluse dans la fenêtre de visualisation. Si tel n'est pas le cas, le serveur considère l'intersection entre la zone à suivre spécifiée et la fenêtre de visualisation. Si enfin cette intersection est nulle, alors le champ tracking est non valide et ignoré par le serveur.
La requête ainsi formulée est émise vers le serveur.
Ensuite, à l'étape E606, dans le mode de réalisation préféré de l'invention, le client reçoit du serveur le message envoyé par celui-ci à l'étape E510, contenant des méta-données signalant les nouvelles coordonnées de la zone suivie par le serveur: l'indice de l'image correspondante n', ses coordonnées (x,y), sa taille (h,w) et sa résolution res' et le niveau de qualité Q'.
Le client met alors à jour sa zone suivie Z avec les nouvelles 15 coordonnées reçues (étape E608).
Comme expliqué plus haut (en référence à la figure 3), on peut envisager deux cas de figure: soit la fenêtre de visualisation sur le dispositif client est confondue avec la zone suivie, soit la zone suivie est à l'intérieur de la fenêtre de visualisation. Dans les deux cas, il est nécessaire de mettre à jour la dimension et la position de la zone suivie, de manière à ce que le client sache quelle portion d'image il doit décoder et afficher.
Enfin, en variante, les métadonnées ne sont pas reçues (l'étape E606 est omise), et alors l'étape E608 est mise en oeuvre après calcul des nouvelles coordonnées (x',y') de la zone suivie Z à partir des indices des entités élémentaires de codage (precincts) reçues. A cette étape, la zone suivie Z se voie attribuer les mêmes coordonnées que la zone Z' spécifiée par la boîte de méta-données décodée à l'étape E606.
L'étape E608 est suivie de l'étape E609, de réception et stockage en mémoire ( caching en terminologie anglo-saxonne) des données d'image compressées appartenant à l'image In, qui sont nécessaires pour répondre à la requête formulée à l'étape E604. Ces données reçues sont les données compressées envoyées par le serveur à l'étape E514.
Ensuite, à l'étape E610, un test est mené afin de déterminer si on se trouve dans le mode où la zone suivie Z est confondue avec la fenêtre de visualisation F. Dans l'affirmative, on met à jour la fenêtre de visualisation F en lui attribuant les mêmes coordonnées que la zone suivie Z (E611).
Les données ainsi reçues sont ensuite décodées (étape E612) selon le format JPEG2000, pour pouvoir être ensuite affichées dans la fenêtre de visualisation (étape E615).
De retour au test E610, si le test est négatif, alors on passe à l'étape E613. Cette étape prévoit de mettre à jour la fenêtre de visualisation F si la nouvelle zone suivie ne se trouve plus à l'intérieur de la fenêtre de visualisation. Cette mise à jour consiste à calculer la nouvelle fenêtre de visualisation F' en ajoutant respectivement les déplacements (x'-x) et (y' y) à l'abscisse et l'ordonnée de l'ancienne fenêtre F. De plus, le déplacement de la fenêtre de visualisation entraîne l'apparition d'une zone découverte à l'écran. Cette zone découverte, notée F'IF, est décodée.
Ensuite, à l'étape E614, on décode la nouvelle zone suivie Z', ainsi que la portion d'image découverte issue du déplacement de la zone suivie. Pour cela, on calcule la zone rectangulaire englobant la zone suivie à son ancienne position Z et la zone suivie à sa nouvelle position Z'. Comme expliqué précédemment en référence à l'étape E513, la zone rectangulaire englobant l'ensemble de ces deux zones est notée Rect(Z,Z'), et ses coordonnées sont données par [min(x,x),min(y,y'),max(x+w,x'+w), max(y+h,y'+h) ] . La figure 7, décrite ultérieurement, illustre sur un exemple visuel les positions relatives des zones Z et Z', ainsi que le rectangle les englobant Rect(Z, Z').
L'étape suivante E615 consiste en l'affichage de la ou des zones décodées lors des étapes précédentes.
Ensuite, à l'étape E616 on effectue un test pour vérifier si le message reçu du serveur contient un champ indiquant que la réponse JPIP du serveur a été entièrement traitée. Si c'est le cas, l'algorithme passe à l'étape E620 en attente d'une prochaine requête utilisateur. Cette étape est suivie de l'étape E622, qui teste si l'utilisateur a demandé une sortie du logiciel de navigation dans une séquence d'images. Si la réponse est positive, l'algorithme prend fin à l'étape E624. Sinon, l'algorithme retourne à l'étape E600 qui traite la nouvelle requête de l'utilisateur.
De retour au test E616, si le test indique que la requête n'a pas été entièrement traitée, donc qu'il reste des données à recevoir et à afficher, le procédé passe à l'étape E618, qui teste si la fonctionnalité suivi est active pour la requête en cours de traitement. En cas de réponse positive, l'algorithme reprend à l'étape E606 pour recevoir les caractéristiques de la nouvelle zone à afficher. En cas de réponse négative, l'étape E603 et suivantes de réception et décodage sont à nouveau exécutées.
La figure 7 illustre sur un exemple les positions relatives de la zone suivie avant et après mise à jour par le serveur. Le rectangle désigné par In, représente dans sa globalité l'image d'indice n' transmise du serveur S vers le client C de la figure 1. La figure 7 illustre de plus la zone suivie Z avant modification de ses coordonnées par le serveur (étape E506), ainsi que la nouvelle zone Z' correspondant à la zone suivie après modification de ses coordonnées, en fonction du mouvement contenu dans la séquence, par le serveur. Enfin, le rectangle noté Rect(Z, Z'), introduit précédemment en référence aux étapes E513 et E614, correspond à la zone rectangulaire englobant exactement les deux rectangles Z et Z'. Comme expliqué en référence à l'étape E513, la transmission des données JPEG2000 contribuant à cette zone Rect(Z,Z') est nécessaire pour le client, dans le mode de réalisation où la zone suivie Z se situe à l'intérieur de la fenêtre de visualisation F de l'utilisateur, également illustrée sur la figure 7.
Claims (35)
1. Procédé de transmission d'images d'une séquence d'images numériques entre un dispositif serveur et un dispositif client reliés par un réseau de communication, les images étant codées selon un format permettant l'accès à des sous-parties spatiales, caractérisé en ce qu'il comporte: une étape préalable de réception (E500) d'une requête de suivi, spécifiant une zone spatiale à suivre appartenant à une image de la séquence préalablement reçue par le dispositif client, et des étapes de: détermination (E502,E518) de l'image suivante de la séquence d'images à envoyer au dispositif client - détermination (E506) d'une zone spatiale dans ladite image suivante, correspondant à la zone spécifiée, en fonction du mouvement estimé dans la séquence d'images, et - envoi (E514) au dispositif client d'au moins une partie des données d'image de la zone déterminée.
2. Procédé selon l'une des revendications 1, caractérisé en ce que la zone spatiale à suivre spécifiée dans la requête de suivi est une zone rectangulaire, définie par sa taille et sa position.
3. Procédé selon la revendication 2, caractérisé en ce que la requête de suivi contient un champ prédéfini spécifiant au moins l'indice de l'image de la séquence à laquelle appartient la zone à suivre.
4. Procédé selon la revendication 3, caractérisé en ce que la requête de suivi spécifie en outre la taille et la position d'une fenêtre de visualisation rectangulaire.
5. Procédé selon la revendication 4, caractérisé en ce que la zone spatiale est identique à ladite fenêtre de visualisation.
6. Procédé selon la revendication 4 caractérisé en ce que la taille et la position de la zone spatiale à suivre sont spécifiées dans le champ prédéfini de la requête de suivi, la zone spatiale étant incluse dans ladite fenêtre de visualisation.
7. Procédé selon la revendication 6, caractérisé en ce que l'étape d'envoi comporte en outre l'envoi (E513,E514) au dispositif client de données d'image supplémentaires correspondant à au moins un voisinage de la zone spatiale déterminée dans ladite image suivante à envoyer.
8. Procédé selon l'une des revendications 2 à 7, caractérisé en ce la requête de suivi spécifie en outre un intervalle d'images de la séquence pour lesquelles le suivi doit s'appliquer ou une durée temporelle de suivi.
9. Procédé selon l'une des revendications 1 à 8, caractérisé en ce que le mouvement estimé dans la séquence d'images est représenté par des vecteurs de mouvement mettant en correspondance des blocs spatiaux entre au moins une première et au moins une seconde images de la séquence, lesdits blocs étant de taille prédéterminée, lesdits vecteurs étant calculés préalablement et stockés sur le dispositif serveur.
10. Procédé selon l'une des revendications 1 à 8, caractérisé en ce que le mouvement estimé dans la séquence d'images est représenté par des vecteurs de mouvement mettant en correspondance des blocs spatiaux entre au moins une première et au moins une seconde images de la séquence, lesdits blocs étant de taille dépendante de la zone spatiale spécifiée dans la requête de suivi, lesdits vecteurs étant calculés lors de la capture de la séquence d'images.
11. Procédé selon l'une des revendications 1 à 10, caractérisé en ce qu'une information de taille et/ou de position de la zone déterminée est transmise (E510) au dispositif client, préalablement à l'étape d'envoi des données d'image.
12. Procédé selon la revendication précédente, caractérisé en ce que ladite information est transmise sous forme de méta-données.
13. Procédé selon l'une des revendications précédentes, caractérisé en ce que le format de codage des images de la séquence d'images est le format Motion-JPEG2000 et en ce que les données d'images sont transmises selon le protocole JPIP.
14. Procédé de réception d'images d'une séquence d'images par un dispositif client en provenance d'un dispositif serveur, les images étant codées selon un format permettant l'accès à des sous-parties spatiales, caractérisé en ce qu'il comporte: une étape préalable de formulation (E604) d'une requête de suivi spécifiant une zone spatiale à suivre appartenant à une image préalablement reçue de la 20 séquence d'images et des étapes de: - obtention (E606) d'au moins une information de position d'une zone de l'image suivante à recevoir, ladite zone correspondant à la zone à suivre en fonction du mouvement estimé dans la séquence d'images réception (E609) d'au moins une partie des données d'image de ladite zone.
15. Procédé selon la revendication 14, caractérisé en ce qu'il comporte, après l'étape de réception, les étapes de: -mise à jour (E611) d'une fenêtre de visualisation en fonction de l'information de 30 position décodage (E612,E614) des données d'image reçues, et - affichage (E615) dans ladite fenêtre de visualisation des données d'images décodées
16. Procédé selon l'une des revendications 14 à 15, caractérisé en ce que l'étape de formulation d'une requête (E604) comprend l'insertion d'un champ prédéfini dans ladite requête de suivi, le champ prédéfini spécifiant l'indice de l'image contenant la zone à suivre.
17. Procédé selon l'une des revendications 15 à 16, caractérisé en ce que l'obtention d'au moins une information de position de la nouvelle zone consiste en la réception (E606) de ladite information dans un champ de méta- données.
18. Procédé selon l'une quelconque des revendications 14 à 17, caractérisé en ce que le format de codage des images de la séquence d'images est Motion-JPEG2000 et en ce que les données sont transmises selon le protocole de communication JPIP.
19. Dispositif de transmission d'images d'une séquence d'images numériques entre un dispositif serveur et un dispositif client reliés par un réseau de communication, les images étant codées selon un format permettant l'accès à des sous-parties spatiales, caractérisé en ce qu'il comporte: -des moyens de réception d'une requête de suivi spécifiant une zone spatiale appartenant à une image de la séquence préalablement reçue par le dispositif client, -des moyens de détermination de l'image suivante à envoyer dans la séquence d'images -des moyens de détermination d'une zone dans l'image suivante à envoyer, correspondant à la zone spécifiée, en fonction du mouvement estimé dans la séquence d'images, et - des moyens d'envoi au dispositif client d'au moins une partie des données d'image de la nouvelle zone déterminée.
20. Dispositif selon la revendication 19, caractérisé en ce que les 5 moyens de réception de la requête de suivi sont aptes à extraire de la requête de suivi un champ prédéfini spécifiant l'indice de l'image de la séquence à laquelle appartient l'image à suivre.
21. Dispositif selon la revendication 20, caractérisé en ce que les moyens de réception de la requête de suivi sont aptes à extraire de la requête de suivi la taille et la position d'une fenêtre de visualisation rectangulaire du dispositif client.
22. Dispositif selon la revendication 20, caractérisé en ce que sont 15 aptes à extraire de la requête de suivi la taille et la position de la zone spatiale à suivre.
23. Dispositif selon la revendication 22, caractérisé en ce qu'il comporte en outre des moyens d'envoi au dispositif client de données d'image supplémentaires correspondant à au moins un voisinage de la nouvelle zone spatiale déterminée.
24. Dispositif selon la revendication 19 caractérisé en ce que les moyens de réception de la requête de suivi sont aptes à extraire de la requête de suivi en outre un intervalle d'images de la séquence pour lesquelles le mode de suivi doit s'appliquer ou une durée temporelle de suivi.
25. Dispositif selon l'une des revendications 19 à 24, caractérisé en ce qu'il comporte des moyens de calcul et de stockage de vecteurs de 30 mouvement sur des blocs spatiaux de taille prédéterminée.
26. Dispositif selon l'une des revendications 19 à 24, caractérisé en ce qu'il comporte des moyens de calcul lors de la capture de la séquence d'images de vecteurs de mouvement sur des blocs spatiaux de taille dépendante de la zone spatiale spécifiée dans la requête de suivi.
27. Dispositif selon l'une des revendications 19 à 26, caractérisé en ce qu'il comporte des moyens aptes à transmettre au dispositif client une information de position de la zone déterminée dans l'image suivante à envoyer.
28. Dispositif selon la revendication précédente, caractérisé en ce que ladite information de position est transmise sous forme de méta-données.
29. Dispositif de réception d'images d'une séquence d'images par un dispositif client en provenance d'un dispositif serveur, les images étant codées selon un format permettant l'accès à des sous-parties spatiales, caractérisé en ce qu'il comporte: - des moyens de formulation d'une requête spécifiant une zone spatiale à suivre appartenant à une image préalablement reçue de la séquence d'images - des moyens d'obtention d'au moins une information de position d'une zone de l'image suivante à recevoir, ladite zone correspondant à la zone à suivre en fonction du mouvement estimé dans la séquence d'images - des moyens de réception d'au moins une partie des données d'image de ladite 25 zone.
30. Dispositif selon la revendication 29, caractérisé en ce qu'il comporte, en outre: - des moyens de mise à jour d'une fenêtre de visualisation en fonction de 30 l'information de position -des moyens de décodage des données d'image reçues -des moyens d'affichage dans ladite fenêtre de visualisation des données d'images décodées.
31. Dispositif selon l'une des revendications 29 à 30, caractérisé en ce que les moyens de formulation sont aptes à insérer un champ prédéfini dans ladite requête de suivi spécifiant l'indice de l'image contenant la zone à suivre.
32. Dispositif selon l'une des revendications 29 à 21, caractérisé en ce que les moyens d'obtention d'au moins une information de position de ladite zone comprennent des moyens de réception de ladite information dans un champ de méta-données.
33. Support d'informations lisible par un système informatique, tel un disque dur ou une disquette, ou support transmissible, tel un signal électrique ou optique, caractérisé en ce qu'il comporte des instructions d'un programme d'ordinateur permettant la mise en oeuvre d'un procédé de transmission d'images d'une séquence d'images selon l'une des revendications 1 à 13 et/ou d'un procédé de réception d'images d'une séquence d'images selon l'une des revendications 14 à 18, lorsque ce programme est chargé et exécuté par un système informatique.
34. Support d'informations lisible par un système informatique amovible, totalement ou partiellement, notamment CD-ROM ou support magnétique, tel un disque dur ou une disquette, ou support transmissible, tel un signal électrique ou optique, caractérisé en ce qu'il comporte des instructions d'un programme d'ordinateur permettant la mise en oeuvre d'un procédé de transmission d'images d'une séquence d'images selon l'une des revendications 1 à 13 et/ou d'un procédé de réception d'images d'une séquence d'images selon l'une des revendications 14 à 18, lorsque ce programme est chargé et exécuté par un système informatique.
35. Programme d'ordinateur stocké sur un support d'informations, ledit programme comportant des instructions permettant la mise en oeuvre d'un procédé de transmission d'images d'une séquence d'images selon l'une des 5 revendications 1 à 13 et/ou d'un procédé de réception d'images d'une séquence d'images selon l'une des revendications 14 à 18, lorsque ce programme est chargé et exécuté par un système informatique.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0503298A FR2884027B1 (fr) | 2005-04-04 | 2005-04-04 | Procede et dispositif de transmission et de reception de sequences d'images entre un serveur et un client |
US11/398,101 US8009735B2 (en) | 2005-04-04 | 2006-04-04 | Method and device for transmitting and receiving image sequences between a server and client |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0503298A FR2884027B1 (fr) | 2005-04-04 | 2005-04-04 | Procede et dispositif de transmission et de reception de sequences d'images entre un serveur et un client |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2884027A1 true FR2884027A1 (fr) | 2006-10-06 |
FR2884027B1 FR2884027B1 (fr) | 2007-06-01 |
Family
ID=35589327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0503298A Expired - Fee Related FR2884027B1 (fr) | 2005-04-04 | 2005-04-04 | Procede et dispositif de transmission et de reception de sequences d'images entre un serveur et un client |
Country Status (2)
Country | Link |
---|---|
US (1) | US8009735B2 (fr) |
FR (1) | FR2884027B1 (fr) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2872972A1 (fr) * | 2004-07-08 | 2006-01-13 | Canon Kk | Procede et dispositif de transmission video entre un serveur et un client |
US8169495B2 (en) * | 2006-12-01 | 2012-05-01 | Broadcom Corporation | Method and apparatus for dynamic panoramic capturing |
FR2913163A1 (fr) * | 2007-02-27 | 2008-08-29 | Canon Kk | Procede et dispositif de transmission de donnees video |
FR2940491B1 (fr) * | 2008-12-23 | 2011-03-18 | Thales Sa | Systeme de procede interactif pour la transmission sur un reseau bas debit d'images clefs selectionnees dans un flux video |
US9258530B2 (en) | 2010-04-09 | 2016-02-09 | Canon Kabushiki Kaisha | Method for accessing a spatio-temporal part of a compressed video sequence using decomposed access request |
US8996688B2 (en) * | 2011-05-31 | 2015-03-31 | Nokia Corporation | Method and apparatus for monitoring and controlling data sharing |
CN105144768B (zh) | 2013-04-26 | 2019-05-21 | 英特尔Ip公司 | 频谱共享情境中的共享频谱重新分配 |
US10721530B2 (en) | 2013-07-29 | 2020-07-21 | Koninklijke Kpn N.V. | Providing tile video streams to a client |
CN103595965B (zh) * | 2013-11-18 | 2016-08-31 | 青岛大学 | 基于视频流量控制的移动视频监控方法 |
WO2015197818A1 (fr) | 2014-06-27 | 2015-12-30 | Koninklijke Kpn N.V. | Transmission en continu de vidéo à pavage hevc |
WO2015197815A1 (fr) | 2014-06-27 | 2015-12-30 | Koninklijke Kpn N.V. | Détermination d'une région d'intérêt sur la base d'un flux vidéo à pavé hevc |
EP3338454A1 (fr) | 2015-08-20 | 2018-06-27 | Koninklijke KPN N.V. | Formation d'un ou plusieurs flux de pavés sur la base d'un ou plusieurs flux vidéo |
WO2017060423A1 (fr) | 2015-10-08 | 2017-04-13 | Koninklijke Kpn N.V. | Amélioration d'une région digne d'intérêt dans des trames vidéo d'un flux vidéo |
US10539723B2 (en) | 2016-10-19 | 2020-01-21 | Finisar Corporation | Phase-transforming optical reflector formed by partial etching or by partial etching with reflow |
US20180262790A1 (en) * | 2017-03-13 | 2018-09-13 | Honeywell International Inc. | Systems and methods for adaptive streaming using jpeg 2000 |
US11523185B2 (en) | 2019-06-19 | 2022-12-06 | Koninklijke Kpn N.V. | Rendering video stream in sub-area of visible display area |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5684715A (en) * | 1995-06-07 | 1997-11-04 | Canon Information Systems, Inc. | Interactive video system with dynamic video object descriptors |
US20020021353A1 (en) * | 2000-06-09 | 2002-02-21 | Denies Mark | Streaming panoramic video |
EP1261210A2 (fr) * | 2001-05-15 | 2002-11-27 | Sony Corporation | Dispositif et méthode pour modifier l'affichage d'état |
US20030197720A1 (en) * | 2002-04-17 | 2003-10-23 | Samsung Electronics Co., Ltd. | System and method for providing object-based video service |
US20030229901A1 (en) * | 2002-06-06 | 2003-12-11 | International Business Machines Corporation | Audio/video speedup system and method in a server-client streaming architecture |
US20040136598A1 (en) * | 2002-10-16 | 2004-07-15 | Canon Kabushiki Kaisha | Method and device for selecting data in a communication network |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6212237B1 (en) * | 1997-06-17 | 2001-04-03 | Nippon Telegraph And Telephone Corporation | Motion vector search methods, motion vector search apparatus, and storage media storing a motion vector search program |
FR2842057B1 (fr) * | 2002-07-05 | 2005-10-28 | Canon Kk | Procede et dispositif de traitement de donnees dans un reseau de communication |
US7330596B2 (en) * | 2002-07-17 | 2008-02-12 | Ricoh Company, Ltd. | Image decoding technique for suppressing tile boundary distortion |
US7116833B2 (en) * | 2002-12-23 | 2006-10-03 | Eastman Kodak Company | Method of transmitting selected regions of interest of digital video data at selected resolutions |
US7095786B1 (en) * | 2003-01-11 | 2006-08-22 | Neo Magic Corp. | Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low |
FR2853797A1 (fr) * | 2003-04-09 | 2004-10-15 | Canon Kk | Procede et dispositif de pre-traitement de requetes liees a un signal numerique dans une architecture du type client-serveur |
JP4416611B2 (ja) * | 2003-10-01 | 2010-02-17 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
-
2005
- 2005-04-04 FR FR0503298A patent/FR2884027B1/fr not_active Expired - Fee Related
-
2006
- 2006-04-04 US US11/398,101 patent/US8009735B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5684715A (en) * | 1995-06-07 | 1997-11-04 | Canon Information Systems, Inc. | Interactive video system with dynamic video object descriptors |
US20020021353A1 (en) * | 2000-06-09 | 2002-02-21 | Denies Mark | Streaming panoramic video |
EP1261210A2 (fr) * | 2001-05-15 | 2002-11-27 | Sony Corporation | Dispositif et méthode pour modifier l'affichage d'état |
US20030197720A1 (en) * | 2002-04-17 | 2003-10-23 | Samsung Electronics Co., Ltd. | System and method for providing object-based video service |
US20030229901A1 (en) * | 2002-06-06 | 2003-12-11 | International Business Machines Corporation | Audio/video speedup system and method in a server-client streaming architecture |
US20040136598A1 (en) * | 2002-10-16 | 2004-07-15 | Canon Kabushiki Kaisha | Method and device for selecting data in a communication network |
Non-Patent Citations (3)
Title |
---|
DAVID TAUBMAN ET AL: "Architecture, Philosophy and Performance of JPIP : Internet Protocol Standard for JPEG2000", INTERNATIONAL SYMPOSIUM ON VISUAL COMMUNICATIONS AND IMAGE PROCESSING, XX, XX, July 2003 (2003-07-01), pages 1 - 15, XP002260546 * |
GONNISH M J ET AL: "JPEG 2000: overview, architecture, and applications", IMAGE PROCESSING, 2000. PROCEEDINGS. 2000 INTERNATIONAL CONFERENCE ON SEPTEMBER 10-13, 2000, PISCATAWAY, NJ, USA,IEEE, vol. 2, 10 September 2000 (2000-09-10), pages 29 - 32, XP010529915, ISBN: 0-7803-6297-7 * |
ISLAM A ET AL: "JPEG2000 for Wireless Applications", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 5203, 2003, pages 255 - 271, XP002316046, ISSN: 0277-786X * |
Also Published As
Publication number | Publication date |
---|---|
US8009735B2 (en) | 2011-08-30 |
US20060262345A1 (en) | 2006-11-23 |
FR2884027B1 (fr) | 2007-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2884027A1 (fr) | Procede et dispositif de transmission et de reception de sequences d'images entre un serveur et un client | |
EP2057632B1 (fr) | Procede de gestion d'un programme multimedia, serveur, terminaux, signal et programmes informatiques correspondants | |
US20170318324A1 (en) | Facilitating placeshifting using matrix codes | |
US9438936B1 (en) | Producing video data | |
FR2840495A1 (fr) | Procede et dispositif de selection d'une methode de transcodage parmi un ensemble de methodes de transcodage | |
EP3788789A2 (fr) | Procede et dispositif de traitement d'images et procede et dispositif de decodage d'une video multi-vue adaptés | |
EP3449634B1 (fr) | Procédé de composition contextuelle d'une représentation vidéo intermédiaire | |
FR2959636A1 (fr) | Procede d'acces a une partie spatio-temporelle d'une sequence video d'images | |
EP2947888A1 (fr) | Procédé de téléchargement adaptatif de contenus numériques pour plusieurs écrans | |
CN108632644B (zh) | 预览图的展示方法以及设备 | |
EP2022009B1 (fr) | Procede de codage et systeme d'affichage sur un ecran d'une maquette numerique d'un objet sous forme d'une image de synthese | |
FR2893470A1 (fr) | Procede et dispositif de creation d'une sequence video representative d'une sequence video numerique et procedes et dispositifs de transmission et reception de donnees video associes | |
EP2127384B1 (fr) | Procede de diffusion de sequences de donnees audio et video par un serveur | |
US20190114807A1 (en) | Method for compression of 360 degree content and electronic device thereof | |
EP1623578A1 (fr) | Procede et systeme pour securiser l embrouillage, le desembrouillage et la distribution de sequences visuelles vectorielles | |
WO2015193599A1 (fr) | Procédé de codage et de décodage d'images, dispositif de codage et de décodage d'images et programmes d'ordinateur correspondants | |
CN114302223A (zh) | 将视觉对象合并到视频材料中 | |
EP2536075B1 (fr) | Procédé de demande d'accès par un terminal à un contenu numérique apte à être téléchargé depuis un réseau. | |
FR2765982A1 (fr) | Signal de donnees d'animation d'une scene graphique, procede et dispositif correspondants | |
WO2021160955A1 (fr) | Procédé et dispositif de traitement de données de vidéo multi-vues | |
EP4360319A1 (fr) | Procédé de construction d'une image de profondeur d'une vidéo multi-vues, procédé de décodage d'un flux de données représentatif d'une vidéo multi-vues, procédé de codage, dispositifs, système, équipement terminal, signal et programmes d'ordinateur correspondants | |
WO2020234030A1 (fr) | Restitution d'un contenu en arrière-plan ou sous forme d'incrustation dans le cadre d'un téléchargement progressif adaptatif de type has | |
FR2842058A1 (fr) | Procede de restitution d'un flux de donnees multimedia sur un terminal client, dispositif, systeme et signal correspondants | |
CN116320596A (zh) | 进度内容预览处理方法、装置及系统 | |
CN116017059A (zh) | 视频处理方法、生成视频流的方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20131231 |