FR2959576A1 - Procede d’affichage d’un menu de reglage et dispositif correspondant - Google Patents

Procede d’affichage d’un menu de reglage et dispositif correspondant Download PDF

Info

Publication number
FR2959576A1
FR2959576A1 FR1053394A FR1053394A FR2959576A1 FR 2959576 A1 FR2959576 A1 FR 2959576A1 FR 1053394 A FR1053394 A FR 1053394A FR 1053394 A FR1053394 A FR 1053394A FR 2959576 A1 FR2959576 A1 FR 2959576A1
Authority
FR
France
Prior art keywords
image
depth
screen
adjustment
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1053394A
Other languages
English (en)
Inventor
Didier Doyen
Sylvain Thiebaud
Thierry Borel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR1053394A priority Critical patent/FR2959576A1/fr
Priority to US13/066,205 priority patent/US8694922B2/en
Priority to EP11161868.2A priority patent/EP2385454B1/fr
Priority to KR1020110039172A priority patent/KR20110122057A/ko
Priority to CN201110112639.5A priority patent/CN102238408B/zh
Priority to JP2011103632A priority patent/JP5933931B2/ja
Publication of FR2959576A1 publication Critical patent/FR2959576A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé d'affichage d'un menu de réglage. Afin d'optimiser la représentation graphique des réglages effectués par un spectateur, le procédé comprend les étapes de : - affichage dudit menu de réglage comprenant un élément graphique (20) à trois dimensions dont une des dimensions s'étend selon une direction de profondeur (z) ; - affichage, sur ledit élément graphique, d'au moins un réglage (203, 204, 205) représentatif d'au moins une information de profondeur.

Description

PROCEDE D'AFFICHAGE D'UN MENU DE REGLAGE ET DISPOSITIF CORRESPONDANT
1. Domaine de l'invention. L'invention se rapporte au domaine du traitement d'images ou de vidéo et plus particulièrement dans le traitement d'images et/ou de vidéo à 3 dimensions (3D). L'invention se rapporte également au domaine de l'interpolation d'images et au domaine du réglage de caractéristiques des images et/ou de la vidéo associées à la 3D.
2. Etat de l'art. Selon l'état de la technique, il existe plusieurs méthodes utilisées en traitement vidéo pour restituer une perception de relief, par exemple la stéréoscopie. En stéréoscopie, deux vues d'une même scène sont enregistrées, avec deux caméras vidéos différentes ou deux appareils photographiques différents, à partir de deux points de vue différents décalés latéralement l'un par rapport à l'autre. Ces deux vues de la même scène sont affichées sur un dispositif d'affichage (par exemple un écran de type PDP (de l'anglais « Plasma Display Panel » ou en français « Panneau d'affichage plasma », de type LCD (de l'anglais « Liquid Crystal Display » ou en français « Dispositif d'affichage à cristaux liquides ») ou au moyen d'un vidéoprojecteur) soit de manière séquentielle temporellement (image gauche puis image droite et ainsi de suite) ou de manière entrelacée spatialement (ligne de l'image gauche puis ligne de l'image droite et ainsi de suite) pour restituer la perception du relief, c'est-à-dire l'information de profondeur. L'ampleur d'un effet 3D ou la perception d'un relief dans une image 3D dépend directement de la disparité des images gauche et droite, c'est-à-dire de la distance (mesurable en nombre de pixels par exemple) séparant deux pixels, c'est-à-dire un pixel pour l'image gauche et un pixel de l'image droite, représentant une même information vidéo au niveau du dispositif d'affichage, c'est-à-dire représentant le même élément de la scène enregistrée. Généralement, la disparité des images gauche et droite d'un film ou d'une vidéo est fixe et décidée par le réalisateur et correspond à l'écartement des caméras gauche et droite filmant la scène, ces deux caméras étant le plus souvent écartées d'une distance égale à 6,5 cm, qui correspond à la distance moyenne séparant les yeux d'un individu.
L'écartement choisi des caméras correspondant à une moyenne, le besoin d'adapter la disparité, c'est-à-dire d'adapter l'ampleur des effets 3D, se fait sentir pour que chaque individu qui regarde un film ou une image 3D puisse adapter la disparité des images gauche et droite formant une image 3D stéréoscopique à sa vue pour éviter ou diminuer une fatigue visuelle. Par ailleurs, des effets 3D importants peuvent gêner certains spectateurs qui cherchent alors à régler l'ampleur des effets 3D, c'est-à-dire à régler la profondeur des images. Il est connu du document brevet US 6,727,924 B1 délivré le 27 avril 2004 une interface utilisateur graphique (de l'anglais GUI « Graphic User Interface ») permettant de régler la profondeur d'une image. Ce GUI ou ce menu de réglage comprend un bouton de réglage se déplaçant selon une direction verticale dans le plan de l'image se déplaçant de bas en haut ou de haut en bas pour régler la profondeur de l'image. Plus le réglage de profondeur est important, plus le menu de réglage s'enfonce dans l'image, donnant ainsi une indication au spectateur sur l'intensité du réglage de la profondeur choisi. L'information visuelle relative à la profondeur correspondant au réglage de la profondeur par le spectateur n'est cependant pas complète, notamment pour représenter l'amplitude globale des effets 3D, c'est-à-dire les valeurs de profondeurs minimale et maximale choisies.
3. Résumé de l'invention. L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur.
Plus particulièrement, l'invention a notamment pour objectif d'optimiser la représentation graphique des réglages d'un spectateur. L'invention concerne un procédé d'affichage d'un menu de réglage. Le procédé comprend les étapes de : - affichage du menu de réglage comprenant un élément graphique à trois dimensions dont une des dimensions s'étend selon une direction de profondeur ; - affichage, sur l'élément graphique, d'au moins un réglage représentatif d'au moins une information de profondeur. Selon une caractéristique particulière, le procédé comprend une étape de sélection d'au moins une partie de l'élément graphique, la au moins une partie sélectionnée étant associée à le au moins un réglage.
Avantageusement, le procédé comprend une étape d'affichage d'au moins une image à trois dimensions dont la profondeur dépend du au moins un réglage, l'affichage de la au moins une image étant simultané à l'affichage du au moins un réglage.
Selon une caractéristique spécifique, le au moins un réglage est représentatif d'une première information de profondeur correspondant à une profondeur minimale d'une image à afficher et d'une deuxième information de profondeur correspondant à une profondeur maximale de l'image à afficher.
De manière avantageuse, le procédé comprend une étape d'analyse d'un geste d'un utilisateur, le résultat de l'analyse étant interprété pour commander le au moins un réglage. Selon une autre caractéristique, l'analyse du geste comprend une étape de détermination de la distance séparant deux parties déterminées du corps de l'utilisateur, la distance déterminée étant associée à le au moins un réglage. 4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : - la figure 1 illustre la perception de profondeur et de parallaxe par un spectateur, selon un exemple particulier de l'art antérieur ; - la figure 2 illustre l'affichage d'un élément graphique 3D d'un menu de réglage dans une image 3D sur un dispositif d'affichage, selon un exemple de mise en oeuvre particulier de l'invention ; - la figure 3A illustre plusieurs niveaux de réglage affichés sur l'élément graphique 3D de la figure 2, selon des modes de réalisations particuliers de l'invention ; - la figure 3B illustre une représentation graphique d'un élément graphique 3D d'un menu de réglage différente de celle de la figure 3A, selon un exemple de mise en oeuvre particulier de l'invention ; - les figures 4A à 4C illustre une méthode d'interpolation d'une image en fonction d'une valeur de disparité choisie par un utilisateur, selon un exemple de réalisation particulier de l'invention ; - la figure 5 illustre schématiquement la structure d'un terminal multimédia pour la mise en oeuvre de l'invention, selon un mode de réalisation particulier de l'invention ; et - les figures 6 et 7 illustrent un procédé d'affichage d'un menu de réglage mis en oeuvre dans un terminal multimédia de la figure 5, selon deux modes de réalisation particuliers de l'invention.
5. Description détaillée de modes de réalisation de l'invention.
La figure 1 illustre la relation entre la profondeur perçue par un spectateur et l'effet de parallaxe entre les images gauche et droite vues par respectivement l'oeil gauche 10 et l'oeil droit 11 du spectateur regardant un dispositif ou écran d'affichage 100. Dans le cas d'un affichage séquentiel temporel d'images gauche et droite représentatives d'une même scène selon deux points de vue différent (par exemple saisies par deux caméras écartées latéralement l'une de l'autre d'une distance par exemple égale à 6,5 cm), le spectateur est équipé de lunettes actives dont les occultations de l'oeil gauche et de l'oeil droit sont synchronisées respectivement avec l'affichage des images droites et gauches sur un dispositif d'affichage du type écran LCD ou plasma par exemple. Grâce à ces lunettes, l'oeil droit du spectateur ne voit que les images droites affichées et l'oeil gauche ne voit que les images gauches. Dans le cas d'un affichage entrelacé spatialement des images gauche et droite, les lignes des images gauche et droite sont entrelacées sur le dispositif d'affichage de la manière suivante : une ligne de l'image gauche puis une ligne de l'image droite (chaque ligne comprenant des pixels représentatifs des mêmes éléments de la scène filmée par les deux caméras) puis une ligne de l'image gauche puis une ligne de l'image droite et ainsi de suite. Dans le cas d'un affichage entrelacé des lignes, le spectateur porte des lunettes passives qui permettent à l'oeil droit de ne voir que les lignes droites et à l'oeil gauche de ne voir que les lignes gauches. Dans ce cas de figure, les lignes droites selon polarisées selon une première direction et les lignes gauches selon une deuxième direction, les verres gauche et droite des lunettes passives étant polarisées en conséquence pour que le verre gauche laisse passer les informations affichées sur les lignes gauches et pour que le verre droit laisse passer les informations affichées sur les lignes droites. La figure 1 illustre un écran ou dispositif d'affichage 100 située à une distance ou profondeur Zs d'un spectateur, ou plus précisément du plan orthogonal à la direction de visualisation des yeux droit 11 et gauche 10 du spectateur et comprenant les yeux droit et gauche. La référence de la profondeur, c'est-à-dire Z=O, est formée par les yeux 10 et 11 du spectateur. Deux objets 101 et 102 sont visualisés par les yeux du spectateur, le premier objet 101 étant à une profondeur Zfront inférieure à celle de l'écran 100 (Zfront < Zs) et le deuxième objet 102 à une profondeur Zrear supérieur à celle de l'écran 100 (Zrear > Zs). En d'autres termes, l'objet
101 est vu en premier-plan par rapport à l'écran 100 par le spectateur et l'objet 102 est vu en arrière-plan par rapport à l'écran 100. Pour qu'un objet soit vu en arrière plan par rapport à l'écran, il faut que les pixels gauches de l'image gauche et les pixels droits de l'image droite représentant cet objet aient une disparité inférieure à la distance te 13 séparant les yeux gauche 10 et droit 11 du spectateur, c'est-à-dire que la différence de position en X de l'affichage de cet objet sur l'écran 100 entre les images gauche et droite est inférieure à la distance te 13. Cette différence de position en X sur l'écran des pixels gauches et droits représentant un même objet sur les images gauche et droite correspond au niveau de parallaxe entre les images gauche et droite. La relation entre la profondeur perçue par le spectateur des objets affichées sur l'écran 100, la parallaxe et la distance à l'écran du spectateur est exprimée par les équations suivantes : Equation 1 P = ws *d Equation 2 Ncol dans lesquelles
Zp est la profondeur perçue (en mètre, m),
P est la parallaxe entre les images gauche et droite,
d est l'information de disparité transmise, te est la distance interoculaire (m),
ZS est la distance entre le spectateur et l'écran (m),
WS est la largeur de l'écran (m),
Nu), est le nombre de colonne du dispositif d'affichage (en pixels). L'équation 2 permet de convertir une disparité (en pixels) en parallaxe (en mètre). Zs*te te ùP Zp = La figure 2 illustre l'affichage d'un menu de réglage 3D inséré dans une image 3D affichée sur un dispositif d'affichage 2, selon un exemple de mise en oeuvre particulier de l'invention. Un menu de réglage permet à un utilisateur ou un spectateur, via une interface utilisateur, de régler les paramètres d'un document multimédia de type film audio/vidéo par exemple, les paramètres réglables comprenant les paramètres d'affichages (tels que par exemple la brillance, la luminosité, le contraste, la profondeur de l'image, etc.) et/ou les paramètres relatifs au son (tels que le volume sonore, la balance, les aigus et les graves, etc.). Une image, par exemple de type stéréoscopique, représentant un contenu à 3 dimensions (3D) est affichée sur le dispositif d'affichage 2 (par exemple écran LCD ou plasma, ou un écran sur lequel est projetée l'image au moyen d'un vidéoprojecteur). L'image comprend des objets tridimensionnels 21 à 27, chacun de ces objets étant vu par un spectateur regardant l'image avec une profondeur donnée, c'est-à-dire à une distance donnée du spectateur regardant ces objets. Plus la distance séparant le spectateur du ou des objets qu'il voit est importante, plus la profondeur du ou des objets est importante. La profondeur des objets se juge ainsi par rapport au spectateur les regardant. Certains de ces objets 21, 22, 24 et 27 sont vus devant l'écran 2, c'est-à-dire avec une profondeur inférieure à celle de l'écran pour le spectateur placé devant l'écran 2 à une distance donnée de celui-ci. L'objet 26 représentant une maison est quant à lui vu derrière l'écran 2, c'est-à-dire en arrière plan, c'est-à-dire avec une profondeur supérieure à celle de l'écran 2. L'objet 23 représentant un sapin est vu dans le plan de l'écran, c'est-à-dire avec une profondeur égale à celle de l'écran 2 pour un spectateur regardant l'image à une distance donnée de l'écran 2. Enfin, l'objet 25 représentant un chemin est vu avec différentes profondeurs en fonction de la position spatiale des pixels qui le forment. L'objet 25 tel qu'il est vu par le spectateur commence au premier-plan de l'image pour finir en arrière-plan au niveau de l'objet 26, en passant par le plan de l'écran au niveau de l'objet 23. Un élément graphique 20 représenté en 3 dimensions est également inséré dans l'image. Cet élément graphique 20 fait partie d'un menu de réglage permettant de régler la profondeur de l'image, c'est-à-dire la profondeur des objets 21 à 27 de l'image. Cet élément graphique 20 est composé de plusieurs éléments graphiques unitaires, par exemple 8 éléments graphiques unitaires 201 à 208 correspondant chacun à une information de profondeur, par exemple à un niveau de réglage de la profondeur. Dans l'exemple de la figure 2, les éléments graphiques unitaires (c'est-à-dire individuellement sélectionnables, appelés échelons dans le reste de la demande) 203, 204 et 205 sont sélectionnés et mis graphiquement en évidence, par exemple grisés. Ces échelons 203 à 205 sont représentatifs du réglage de la profondeur de l'image et permettent à un spectateur d'avoir un aperçu réaliste du rendu de l'ampleur de la profondeur ainsi réglée. L'élément graphique 20 étant représenté en 3D dans la profondeur de l'image, il est aisé au spectateur de se rendre compte en un seul coup d'oeil de l'impression de profondeur correspondant au réglage qu'il paramètre par l'intermédiaire du menu de réglage, notamment par l'intermédiaire de l'élément graphique 20. Les 8 échelons 201 à 208 correspondent avantageusement à l'amplitude maximale de la profondeur qu'il est possible de régler pour l'image affichée sur l'écran 2. Sans paramétrage particulier de la profondeur réalisé par le spectateur, l'image 3D est affichée sur l'écran 2 avec un niveau de profondeur initial (aussi appelé réglage par défaut dans le reste de la demande), c'est-à-dire avec le niveau de profondeur tel que fourni à l'écran 2, c'est-à-dire tel que paramétré lors de l'enregistrement de l'image ou en post-production par un opérateur. Sans introduction d'une commande déterminée par le spectateur, le menu de réglage représenté par l'élément graphique 20 n'est pas affiché sur l'écran 2. L'élément graphique 20 s'affiche sur commande de l'utilisateur, par exemple par appui sur une touche spécifique d'un dispositif de commande à distance du dispositif d'affichage 2 (par exemple une télécommande), par appui sur une touche de réglage de la profondeur (par exemple de type + et ù ou encore de type T et 1, ou <ù et ù*), par la sélection d'un menu, par prononciation d'une commande vocale ou par détection d'un geste fait par le spectateur, le geste étant détecté par une caméra équipée par exemple d'un capteur de profondeur et disposée par exemple au dessus de l'écran 2 pour détecter tout geste du spectateur placé devant l'écran 2. A l'introduction de la commande d'affichage du menu de réglage de la profondeur par le spectateur, l'élément graphique 20 s'affiche. De manière avantageuse, l'élément graphique 20 s'affiche au niveau d'une partie de l'image dans laquelle aucun objet n'est présent. Selon une variante, l'élément graphique 20 s'affiche dans une partie de l'image déterminée par le spectateur et préréglée par lui. Selon une autre variante, l'élément graphique s'affiche en transparence sur l'image et ne masque pas complètement les objets compris dans l'image.
Au premier affichage du menu de réglage, c'est-à-dire lorsqu'aucun réglage de la profondeur n'a été effectué à l'initiative du spectateur pour la vidéo qu'il visionne sur l'écran 2, l'élément graphique 20 s'affiche avec le réglage par défaut de la profondeur mis en évidence, c'est- à-dire en faisant ressortir visuellement le ou les échelons 203 à 205 correspondant au réglage par défaut de la profondeur. Les échelons 203 à 205 graphiquement mis en évidence illustrent l'amplitude de l'effet 3D appliqué au contenu de l'image reçu et affiché. Les échelons non mis en évidence 201, 202, 206, 207 et 208 correspondent avantageusement aux réglages de la profondeur disponibles et possibles pour l'image que le spectateur peut sélectionner pour modifier la profondeur. Le premier échelon 201 correspond à la valeur minimale de profondeur (qui correspond à la distance minimale entre le spectateur et l'objet de l'image vu le plus en avant) qu'il est possible de paramétrer et l'échelon 208 à la valeur maximale de profondeur (qui correspond à la distance maximale entre le spectateur et l'objet de l'image vu le plus en arrière) qu'il est possible de paramétrer pour l'image. Selon une variante, le réglage par défaut n'est pas affiché par la mise en évidence des échelons correspondant mais il correspond aux valeurs minimale et maximale de la profondeur, c'est-à-dire à l'ensemble des échelons 201 à 208 de l'élément graphique 20. Selon cette variante, le spectateur ne peut que diminuer l'amplitude des effets 3D, c'est-à-dire diminuer l'amplitude de la profondeur de l'image, par exemple en resserrant la profondeur de l'image autour de la profondeur de l'écran ou en décalant la profondeur de l'image vers l'avant pour que tous les objets soient vus en premier plan (c'est-à-dire essentiellement devant l'écran 2) ou en décalant la profondeur de l'image vers l'arrière pour que tous les objets soient vus en arrière-plan (c'est-à-dire essentiellement derrière l'écran 2). Pour modifier le réglage de la profondeur, le spectateur affiche les échelons correspondant au réglage qu'il souhaite faire de la profondeur par mise en évidence de ces échelons, par exemple en modifiant leur couleur. Pour ce faire, le spectateur déplace par exemple un curseur mobile sur les échelons et sélectionne le ou les échelons qui correspondent au réglage voulu par introduction d'une commande spécifique (par exemple appui sur une touche particulière, par exemple une touche de type « OK », d'une télécommande ou exécution d'un geste déterminé ou prononciation d'un son ou mot déterminé, par exemple le mot « OK » ou le mot « SELECTION »). De manière avantageuse, le réglage de la profondeur de l'image modifie dynamiquement les paramètres de l'image relatifs à la profondeur et le spectateur voit instantanément les effets de ses réglages de profondeur sur l'image affichée sur l'écran 2. L'image est modifiée en fonction du réglage de profondeur par la génération d'une image interpolée à partir de l'information de disparité associée à l'image. La génération d'une nouvelle image interpolée est décrite plus en détail en regard des figures 4A à 4C. Le réglage de profondeur réalisé par le spectateur est gardé en mémoire et c'est ce réglage qui sera affiché lorsque le spectateur souhaitera modifier une nouvelle fois le réglage de profondeur.
La figure 3A illustre plusieurs niveaux de réglage affichés sur un élément graphique 20, selon trois modes particuliers de réalisation de l'invention. Dans les exemples illustrés par la figure 3A, l'élément graphique 3a, 3b et 3c (correspondant à l'élément graphique 20 de la figure 2) a la forme d'une échelle à trois dimensions constituée de parties élémentaires 31a à 39a, 31b à 39b et 31c à 39c respectivement, aussi appelées échelons dans le reste de la demande. Dans l'exemple illustré par l'élément graphique 3a, un seul échelon 38a est sélectionné. Le réglage de la profondeur associé correspond dans ce cas de figure à une amplitude limitée des effets 3D (faible différence de profondeur entre les objets les plus proches et ceux les plus éloignés d'un spectateur, avec des valeurs minimale et maximales de la profondeur proches l'une de l'autre, par exemple 1/9 de l'amplitude 3D initiale). En considérant que l'échelon 35a correspond au niveau de profondeur approchant la profondeur du plan de l'écran, un réglage correspondant à l'échelon 38a a pour effet de décaler les objets tels que vus par un spectateur en arrière de l'écran, c'est-à-dire que la valeur de la profondeur des objets est supérieure à celle de l'écran. Dans l'exemple illustré par l'élément graphique 3b, trois échelons 34b, 35b et 36b sont sélectionnés. Le réglage de la profondeur associé correspond dans ce cas de figure à une amplitude plus importante que celle correspondant au réglage illustré pour l'élément 3a car trois échelons sont sélectionnés. Selon cet exemple, les effets 3D sont répartis autour de la profondeur de l'écran (en supposant que celle-ci corresponde à l'échelon 35b), l'amplitude de la profondeur de l'image étant centrée autour de la profondeur du plan de l'écran. La valeur minimale de la profondeur correspond à l'échelon 34b et permet de voir des objets en avant de l'écran (c'est-à-dire avec une valeur de profondeur inférieure à celle de l'écran) et la valeur maximale de la profondeur correspond à l'échelon 36b et permet d'avoir des objets en arrière de l'écran (c'est-à-dire avec une valeur de profondeur supérieure à celle de l'écran). En considérant que l'élément graphique 3b dans sa globalité correspond au réglage par défaut de l'image, l'échelon 31 b correspondant à la valeur minimale de profondeur par défaut et l'échelon 39b correspondant à la valeur maximale de profondeur par défaut de l'image, un tel réglage correspond à une diminution de l'amplitude des effets 3D centrés autour du plan de l'écran. Dans l'exemple illustré par l'élément graphique 3c, six échelons 31 c à 36c sont sélectionnés. Le réglage de la profondeur associé correspond dans ce cas de figure à une amplitude plus importante que celle correspondant au réglage illustré pour les éléments 3a et 3b car six échelons sont sélectionnés. Selon cet exemple, les effets 3D sont globalement en avant de l'écran (en supposant toujours que la profondeur de l'écran corresponde à l'échelon 35c), l'amplitude de la profondeur de l'image étant essentiellement dirigée devant le plan de l'écran. La valeur minimale de la profondeur correspond à l'échelon 31c et permet de voir des objets en avant de l'écran (c'est-à-dire avec une valeur de profondeur inférieure à celle de l'écran) et la valeur maximale de la profondeur correspond à l'échelon 36c et permet d'avoir des objets légèrement en arrière de l'écran (c'est-à-dire avec une valeur de profondeur supérieure à celle de l'écran). En considérant que l'élément graphique 3c dans sa globalité correspond au réglage par défaut de l'image, l'échelon 31c correspondant à la valeur minimale de profondeur par défaut et l'échelon 39c correspondant à la valeur maximale de profondeur par défaut de l'image, un tel réglage correspond à une légère diminution de l'amplitude des effets 3D, les effets en arrière de l'écran étant moins important que le réglage par défaut (les échelons 37c à 39c n'étant pas sélectionnés) alors que les effets en avant de l'écran correspondent au réglage par défaut (l'ensemble des échelons 31c à 35c étant sélectionnés).
Si l'on considère que la profondeur de l'écran correspond au niveau de profondeur des échelons 31a, 31b et 31c de respectivement les éléments graphiques 3a, 3b et 3c, les réglages possibles ne permettent que de décaler les objets en arrière-plan de l'écran ou de les conserver dans le plan de l'écran. Inversement, si l'on considère que la profondeur de l'écran correspond au niveau de profondeur des échelons 39a, 39b et 39c de respectivement les éléments graphiques 3a, 3b et 3c, les réglages possibles ne permettent que de décaler les objets en premier plan de l'écran, c'est-à-dire dans le plan de l'écran ou devant l'écran.
La figure 3B illustre une représentation graphique d'un élémetn graphique d'un menu de réglage en trois dimensions 3D dont la forme générale est différente de celle de la figure 3A, selon un exemple de mise en oeuvre particulier de l'invention. Dans l'exemple de la figure 3B, l'élément graphique de réglage de la profondeur comprend 5 parallélépipèdes rectangulaires 31d à 35d en trois dimensions s'étendant dans le sens de la profondeur Z vers la gauche. Chaque parallélépipède 31d à 35d correspond à une partie de l'élément graphique 3d, chaque partie étant associée à un réglage donné de la profondeur. Bien entendu, la forme de l'élément graphique n'est pas limités à celles décrites en regard des figures 3A et 3B, c'est-à-dire à une forme d'échelle en 3D ou à une série de parallélépipèdes en 3D, mais s'étend également à toute forme géométrique à trois dimensions, par exemple un cylindre à trois dimensions divisés en parties élémentaires par exemple représentées par des disques à trois dimensions ou encore une sphère divisée en parties élémentaires par exemple représentées par des tranches de sphère à trois dimensions. De la même manière, l'affichage de la ou les parties élémentaires sélectionnées de l'élément graphique ne se limite pas à une coloration différente de celle des autres parties non sélectionnées mais s'étend à tous les moyens connus de mise en évidence, par exemple par modification de la texture des parties sélectionnées, par mise en transparence des parties non sélectionnées ou encore par mise en relief des parties sélectionnées.
Les figures 4A à 4C illustre une méthode d'interpolation d'une image en fonction d'une valeur de disparité choisie par un utilisateur, selon un exemple de réalisation particulier de l'invention. L'interpolation d'image avec des cartes de disparité consiste en l'interpolation d'une image intermédiaire à partir d'une ou plusieurs images de référence prenant en compte la disparité des pixels entre les images. En effet, tel que décrit en regard de la figure 1, une image stéréoscopique affichée sur un écran 2 est obtenue par combinaison d'une image gauche et d'une image droite, les images gauche et droite étant représentatives d'une même scène mais avec deux points de vue différents. Il en résulte qu'un même objet visualisé sur les images gauche et droite apparaît sur chacune de ces images mais avec une position spatiale différente sur chaque image. L'objet saisi apparaît ainsi sur l'image droite avec une position en x donnée et le même objet apparaît sur l'image gauche avec une position en x décalée de plusieurs pixels. Ce décalage spatial correspond à la disparité de l'image stéréoscopique résultant de la combinaison des images droite et gauche, combinaison faite par le cerveau humain et permettant de percevoir du relief. Ainsi, en partant d'une image gauche de référence (ou d'une image droite de référence) d'une paire d'images gauche et droite de référence, il est possible de générer une nouvelle image gauche (respectivement une nouvelle image droite) par interpolation avec une disparité modifiée. La combinaison de la nouvelle image gauche générée (ou respectivement la nouvelle image droite générée) avec l'image droite de référence (respectivement avec l'image gauche de référence) permet d'obtenir une image stéréoscopique résultante avec une information de profondeur (associée à la disparité) modifiée en conséquence. L'interpolation d'image requiert la projection de l'image de référence (gauche ou droite) sur l'image interpolée le long de vecteurs de disparité qui relient les images de références gauche et droite. La figure 4A illustre deux images de références J 40 et K 41, correspondant par exemple aux images gauche et droite d'une image stéréoscopique, et une image interpolée H 40i positionnée entre les deux images J 40 et K 41. Pour obtenir le pixel interpolé u' 401i de l'image H 40i par interpolation du pixel u 401 de l'image J 40, il est nécessaire de calculer la carte de disparité pour l'image interpolée H 40i en projetant la carte de disparité complète de l'image J 40 sur l'image H 40i et d'assigner les valeurs de disparité aux pixels de l'image H 40i. Le calcul de la carte de disparité est réalisé pour un nombre de pixels représentatifs de l'image J 40 inférieur ou égal au nombre total de pixels de l'image J 40. Le pixel u 401 de l'image J possède la valeur de disparité disp(u). Le pixel correspondant 411 dans l'image K est défini par u - disp(u) et est localisé sur la même ligne (il n'y a pas de déplacement vertical). Le pixel correspondant dans l'image H est défini par u û a.disp(u), où le facteur d'échelle a est le rapport entre les lignes de base JH et JK (obtenues lorsque les images J, HH et K sont alignées). Le facteur a est avantageusement compris entre 0 et 1. La figure 4B illustre de manière plus précise l'interpolation compensée en disparité de l'image J pour obtenir l'image interpolée H. u' et v' de l'image interpolée H sont estimés respectivement à partir des pixels u 401 et v de l'image J avec les valeurs de disparité de u et v, respectivement disp(u) et disp(v). Les points u' et v' de l'image H obtenus par projection des pixels u et v de l'image J le long des vecteurs de disparité sont respectivement localisés aux positions u'=u-a.disp(u) et v'=v-a.disp(v). Les valeurs de disparité sont alors assignées aux pixels les plus proches de u' et v' dans l'image H, c'est-à-dire u" 401i et v" respectivement. La projection de la carte de disparité de J sur H crée des trous. En effet, certains pixels de l'image interpolée H ne se voient assignée aucune valeur de disparité, comme c'est le cas du pixel 405 de la figure 4B, la projection des pixels de l'image J sur H suivant les vecteurs de disparité ne rencontrant pas ce pixel. Ce phénomène a lieu lorsque par exemple il y a des variations importantes de disparité d'un pixel à un autre de l'image J. Il est alors nécessaire de combler ces trous dans la carte de disparité reconstruite de l'image, par exemple par interpolation spatiale. Trois cas se présentent. Dans le premier cas, les trous ont une taille inférieure à 1 pixel et ces trous sont comblés en moyennant les valeurs de disparité des pixels qui l'entourent sur la même ligne. Selon une variante, les trous sont comblés en prenant la valeur de disparité du pixel le plus proche sur la ligne. Dans le deuxième cas, les pixels isolés, c'est-à-dire les pixels ayant une valeur de disparité entourés de pixels n'ayant pas de valeur de disparité, sont éliminés, c'est-à-dire qu'il n'est pas tenu compte de la valeur de disparité assignée à ces pixels particuliers. En effet, la disparité assignée à ces pixels est non cohérente par rapport aux valeurs de disparité des pixels voisins et pourraient générer des artéfacts visuels à l'affichage. Dans le troisième cas, les trous ont une taille supérieure à 1 pixel. Dans ce troisième cas, il est considéré que ces trous correspondent à une occlusion (c'est-à-dire le pixel de l'image H est caché par le pixel de l'image K auquel il correspond) et la disparité des pixels de ce trou et la valeur de disparité qui leur est assignée est la valeur de disparité du fond. Une fois la carte de disparité obtenue pour l'image interpolée H 40i, une interpolation inter-images (c'est à dire entre les images J et K) est réalisée le long des vecteurs de disparité pour obtenir les valeurs de niveau de gris à assigner aux pixels de l'image interpolée H 40i. Il est possible de distinguer deux types de vecteurs de disparité : - Les vecteurs qui ont été définis par la projection de la carte de disparité de l'image J : le niveau de gris assigné aux pixels de l'image interpolée est calculé à partir des niveaux de gris des deux points d'extrémité du vecteur, l'un appartenant à l'image J et l'autre appartenant à l'image K ; et - Les vecteurs qui ont été spatialement interpolés (c'est-à-dire pour les trous comblés tel que décrit ci-dessus) : les pixels correspondant de l'image interpolée H sont supposés être occlus dans l'image J. Ces pixels sont alors interpolés à partir des pixels de l'image K et le niveau de gris assignés à ces pixels est calculé à partir des niveaux de gris du point d'extrémité du vecteur appartenant à l'image K.
La figure 4C illustre un exemple l'interpolation de plusieurs images à partir de deux images de référence reçues. Selon l'exemple de la figure 4C, 6 images 4011 à 4016 sont obtenues par interpolation compensée en disparité à partir d'au moins une des images de référence 401 et 411. Selon cet exemple, le facteur d'échelle est compris entre 0 et 1, c'est-à-dire que toutes les images interpolées 4011 à 4016 sont comprises entre les images de référence 401 et 411. Selon cet exemple, l'amplitude maximale de l'effet 3D est obtenu en combinant les images de référence 401 et 411 et l'amplitude de l'effet 3D obtenu par combinaison d'une image de référence 401 ou 411 avec une image interpolée 4011 à 4016 est d'autant plus faible que l'image interpolée est proche de l'image de référence. L'effet 3D ayant l'amplitude la plus faible est obtenu en combinant les images 401 et 4011 ou en combinant les images 411 et 4016. Bien entendu, l'invention n'est pas limitée à l'interpolation de 6 images à partir de l'une au moins des images de référence mais s'étend également à l'interpolation d'un nombre x d'images, par exemple 7, 10, 20 ou 50, 100 ou plus images. Par ailleurs, l'invention ne se limite pas non plus à l'interpolation d'images pour réaliser un effet 3D d'amplitude inférieure à l'amplitude de l'effet 3D original (c'est-à-dire avec un facteur d'échelle inférieur à 1) mais s'étend également à l'interpolation d'images pour obtenir un effet 3D de plus grande amplitude que celle de l'effet 3D obtenu par combinaison des images de référence (c'est-à-dire avec un facteur d'échelle supérieur à 1).
La figure 5 illustre schématiquement la structure d'un terminal multimédia 5 pour la mise en oeuvre de l'invention, selon un mode de réalisation particulier de l'invention. Le terminal 5 est muni d'un dispositif d'affichage 501. Le terminal 5 comprend une unité 502 centrale reliée à une mémoire de programme, et une interface 508 pour la communication avec un réseau numérique à haut débit 510 permettant de transmettre des données audio/vidéo en temps réel. Ce réseau est par exemple un réseau conforme au standard IEEE 1394. Le terminal 5 comprend en outre un récepteur de signaux infrarouge 503 pour recevoir les signaux d'une télécommande 511, une mémoire 507 pour le stockage d'une base de données, et une logique de décodage audio/vidéo 509 pour la création des signaux audiovisuels envoyés au dispositif d'affichage 501. La télécommande 511 est dotée des touches de navigation et F, d'un pavé numérique et d'une touche « OK ». Des télécommandes de type Gyration, dotée de capteurs de mouvement sont également utilisables. Le terminal comprend également un circuit 506 d'affichage de données sur l'écran, appelé souvent circuit OSD (de l'anglais "On Screen Display" ou en français "affichage sur l'écran"). Le circuit OSD 506 est un générateur de texte et de graphisme qui permet d'afficher à l'écran des menus, des pictogrammes (par exemple, un numéro correspondant à la chaîne visualisée) et qui permet d'afficher les menus de navigation conformément à la présente invention. Le circuit OSD reçoit des informations de l'unité centrale 502 et d'un module conçu pour générer les signaux d'affichage de l'élément graphique 20. Les documents multimédia que le terminal 5 est apte à reproduire sont des documents audiovisuels, des documents sonores, ou des photos. Selon une variante, la télécommande 511 est remplacée par un dispositif apte à détecter les gestes du spectateur. Les gestes sont alors analysés par un module, dédié ou non, du terminal 5 pour être interprétés en commande de navigation sur l'élément graphique du menu de réglage. Selon une autre variante, la télécommande est remplacée par un dispositif de type micro apte à enregistrer une commande vocale. Les sons composant la commande vocale sont alors analysés par un module, dédié ou non, du terminal 5 pour être interprétés en commande de navigation sur l'élément graphique du menu de réglage.
La figure 6 illustre un procédé d'affichage d'un menu de réglage mis en oeuvre dans un terminal multimédia 5, selon un premier exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention. Au cours d'une étape d'initialisation 60, les différents paramètres du terminal sont mis à jour.
Ensuite, au cours d'une étape 61, un menu de réglage comprenant un élément graphique ayant trois dimensions spatiales s'affiche sur un dispositif d'affichage de type écran d'affichage (par exemple LCD ou plasma) ou de type écran de projection. Le menu de réglage s'insère dans un contenu vidéo 3D ou dans une image 3D affichée sur le dispositif d'affichage. Une des dimensions spatiales de l'élément graphique s'étend selon une direction de profondeur, avantageusement la direction de profondeur du contenu vidéo 3D ou de l'image 3D affiché sur le dispositif d'affichage. De manière avantageuse, le menu de réglage s'affiche sur première commande d'un utilisateur entrée au moyen d'un dispositif d'introduction de commande, par exemple une télécommande, un dispositif de reconnaissance vocale ou encore un dispositif de reconnaissance de gestes. A l'affichage de l'élément graphique, une première temporisation (de durée égale à par exemple à 1, 2, 3, 4 ou 5 secondes) est lancée au terme de laquelle, si aucune action utilisateur n'a été détectée, l'affichage de l'élément graphique est supprimé. Puis au cours d'une étape 62, un réglage représentatif d'au moins une information de profondeur est affiché sur l'élément graphique. De manière avantageuse, le réglage est représentatif de la valeur minimale et de la valeur maximale de profondeur des objets contenus dans l'image 3D affichée. Selon une variante, le réglage est représentatif de la profondeur moyenne des objets de l'image 3D. Avantageusement, l'affichage du réglage est initié par une deuxième commande de l'utilisateur entrée au moyen du dispositif d'introduction de commande. A l'affichage du réglage, une deuxième temporisation (de durée égale à par exemple à 1, 2, 3, 4 ou 5 secondes) est lancée au terme de laquelle, si aucune action utilisateur n'a été détectée, l'affichage de l'élément graphique est supprimé. Le réglage est avantageusement représentatif de l'amplitude de l'effet 3D du contenu vidéo 3D (ou de l'image 3D) tel que paramétré par défaut lorsque le réglage n'a pas été modifié par le spectateur (ou l'utilisateur). Par entrée d'une commande, le spectateur modifie le réglage de la profondeur de l'image 3D, la modification apportée au réglage de la profondeur s'affichant sur l'élément graphique du menu de réglage. A l'expiration de la deuxième temporisation, si aucune commande utilisateur n'a été détectée, le réglage et l'élément graphique du menu de réglage disparaissent de l'écran. Pour faire apparaître à nouveau le menu de réglage, le spectateur entre à nouveau la première commande. Selon une variante, l'affichage du menu de réglage est commandé par l'entrée de la deuxième commande utilisateur.
La figure 7 illustre un procédé d'affichage d'un menu de réglage mis en oeuvre dans un terminal multimédia 5, selon un deuxième exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention. Au cours d'une étape d'initialisation 70, les différents paramètres du terminal sont mis à jour. Ensuite, au cours d'une étape 71, un menu de réglage est affiché sur un dispositif d'affichage. L'étape 71 est identique à l'étape 61 décrite en regard de la figure 6 et ne sera pas reprise dans le détail ici. Puis au cours d'une étape 72, l'utilisateur (ou le spectateur) exécute un geste particulier pour commander le réglage de la profondeur du contenu vidéo 3D ou de l'image 3D qu'il regarde. Le geste est par exemple capturé par une caméra équipée d'un détecteur de profondeur et les informations enregistrées par la caméra sont analysées par un module spécialisé ou non du terminal multimédia pour être interprétées en vue de commander le réglage de la profondeur de l'image 3D visionnée. Le geste correspond par exemple à l'écartement des deux mains de l'utilisateur. La distance séparant les deux mains une fois le mouvement terminé est déterminé par la caméra et le module du terminal multimédia, la distance séparant les deux mains étant interprétées comme correspondant à l'amplitude de l'effet 3D souhaité par l'utilisateur. Selon une variante, le geste réalisée par l'utilisateur correspond à un balayage de la main de la gauche vers la droite (ou de la droite vers la gauche), ce geste étant interprété par le module multimédia comme une commande de déplacement d'un curseur pour que ce dernier passe d'un niveau de réglage de la profondeur à un autre sur l'élément graphique du menu de réglage. Puis au cours d'une étape 73, une commande est entrée par l'utilisateur pour sélectionner une ou plusieurs parties de l'élément graphique, chaque partie étant associée à un niveau de réglage particulier, c'est à dire correspondant à un niveau de réglage de la profondeur. Dans le cas de figure où les commandes utilisateurs correspondent à des gestes de l'utilisateur, la sélection d'une partie, c'est-à-dire d'un niveau de réglage, est commandée par un geste particulier, par exemple un mouvement de l'une des mains du haut vers le bas par exemple. Selon une variante, la sélection d'un ou plusieurs niveaux de réglage est commandée par tout autre moyen de commande, par exemple par appui sur une touche d'une télécommande (par exemple la touche « OK ») ou par prononciation d'un code vocal (par exemple le mot « SELECTION »). La sélection de plusieurs niveaux de réglage est avantageusement associée au réglage de l'amplitude de l'effet 3D souhaitée, c'est-à-dire à la différence de profondeur ou de distance entre les objets de premier-plan et les objets d'arrière-plan tels que vus par l'utilisateur. En d'autres termes, la sélection de plusieurs niveaux correspond à un premier réglage représentatif d'une première information de profondeur correspondant à la profondeur minimale de l'image 3D et à un deuxième réglage représentatif d'une deuxième information de profondeur correspondant à la profondeur maximale de l'image 3D, la différence entre la profondeur maximale et la profondeur minimale correspondant à l'amplitude de l'effet 3D de l'image 3D à afficher sur le dispositif d'affichage. Enfin, au cours d'une étape 74, le réglage de la ou les parties de l'élément graphique tel que commandé par l'utilisateur est affiché tel que cela a été décrit dans l'étape 62 en regard de la figure 6. De manière avantageuse, l'image 3D pour laquelle le réglage de la profondeur est réalisé par l'utilisateur voit son contenu modifié en fonction du réglage commandé par l'utilisateur. Une nouvelle image 3D, correspondant au contenu de l'image 3D originale à laquelle est appliqué le réglage de l'utilisateur, est alors affichée simultanément à l'affichage du réglage sur l'élément graphique. La génération de la nouvelle image 3D est avantageusement obtenue par interpolation compensée en disparité à partir de l'une au moins des images gauche et droite générant l'image 3D par stéréoscopie, l'image interpolée remplaçant l'une des images de référence pour la génération de la nouvelle image 3D par stéréoscopie.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment.
En particulier, l'invention n'est pas limitée à un procédé d'affichage d'un menu de réglage mais s'étend au terminal multimédia mettant en oeuvre un tel procédé et au dispositif d'affichage comprenant un terminal multimédia mettant en oeuvre le procédé d'affichage. L'invention concerne également un procédé de traitement d'image comprenant l'incrustation par affichage d'un menu de réglage dans un contenu multimédia 3D.

Claims (6)

  1. REVENDICATIONS1. Procédé d'affichage d'un menu de réglage, caractérisé en ce que ledit procédé comprend les étapes de : - affichage (61, 71) dudit menu de réglage comprenant un élément graphique (20) à trois dimensions dont une des dimensions s'étend selon une direction de profondeur (z) ; - affichage (62, 74), sur ledit élément graphique (20), d'au moins un 10 réglage (203, 204, 205) représentatif d'au moins une information de profondeur.
  2. 2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend une étape de sélection (73) d'au moins une partie dudit élément graphique 15 (20), ladite au moins une partie sélectionnée (203, 204, 205) étant associée audit au moins un réglage.
  3. 3. Procédé selon l'une des revendications 1 à 2, caractérisé en ce qu'il comprend une étape d'affichage d'au moins une image à trois dimensions 20 dont la profondeur dépend dudit au moins un réglage, l'affichage de ladite au moins une image étant simultané à l'affichage dudit au moins un réglage.
  4. 4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que ledit au moins un réglage est représentatif d'une première information de 25 profondeur correspondant à une profondeur minimale d'une image à afficher et d'une deuxième information de profondeur correspondant à une profondeur maximale de ladite image à afficher.
  5. 5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce qu'il 30 comprend une étape d'analyse (72) d'un geste d'un utilisateur, le résultat de l'analyse étant interprété pour commander ledit au moins un réglage.
  6. 6. Procédé selon la revendication 5, caractérisé en ce que l'analyse dudit geste comprend une étape de détermination de la distance séparant deux 35 parties déterminées du corps de l'utilisateur, la distance déterminée étant associée audit au moins un réglage.
FR1053394A 2010-05-03 2010-05-03 Procede d’affichage d’un menu de reglage et dispositif correspondant Withdrawn FR2959576A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR1053394A FR2959576A1 (fr) 2010-05-03 2010-05-03 Procede d’affichage d’un menu de reglage et dispositif correspondant
US13/066,205 US8694922B2 (en) 2010-05-03 2011-04-09 Method for displaying a setting menu and corresponding device
EP11161868.2A EP2385454B1 (fr) 2010-05-03 2011-04-11 Procédé d'affichage d'un menu de réglages 3D et dispositif correspondant
KR1020110039172A KR20110122057A (ko) 2010-05-03 2011-04-26 설정 메뉴를 디스플레이하기 위한 방법 및 대응하는 디바이스
CN201110112639.5A CN102238408B (zh) 2010-05-03 2011-05-03 显示设置菜单的方法以及相应装置
JP2011103632A JP5933931B2 (ja) 2010-05-03 2011-05-06 設定メニューを表示する方法及び対応するデバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1053394A FR2959576A1 (fr) 2010-05-03 2010-05-03 Procede d’affichage d’un menu de reglage et dispositif correspondant

Publications (1)

Publication Number Publication Date
FR2959576A1 true FR2959576A1 (fr) 2011-11-04

Family

ID=43300715

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1053394A Withdrawn FR2959576A1 (fr) 2010-05-03 2010-05-03 Procede d’affichage d’un menu de reglage et dispositif correspondant

Country Status (6)

Country Link
US (1) US8694922B2 (fr)
EP (1) EP2385454B1 (fr)
JP (1) JP5933931B2 (fr)
KR (1) KR20110122057A (fr)
CN (1) CN102238408B (fr)
FR (1) FR2959576A1 (fr)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
JP5926500B2 (ja) * 2011-06-07 2016-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
WO2013081304A1 (fr) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 Appareil et procédé de conversion d'image pour convertir une image bidimensionnelle en une image tridimensionnelle et support d'enregistrement correspondant
WO2013081281A1 (fr) * 2011-11-29 2013-06-06 에스케이플래닛 주식회사 Appareil et procédé de conversion d'image pour convertir une image bidimensionnelle en une image tridimensionnelle et support d'enregistrement correspondant
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법
US8918453B2 (en) 2012-01-03 2014-12-23 Qualcomm Incorporated Managing data representation for user equipments in a communication session
US9619926B2 (en) * 2012-01-09 2017-04-11 Audi Ag Method and device for generating a 3D representation of a user interface in a vehicle
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
JP5953916B2 (ja) * 2012-05-02 2016-07-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102710956B (zh) * 2012-06-04 2014-12-31 天马微电子股份有限公司 一种裸眼立体追踪显示方法及装置
CN103679127B (zh) * 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
US8890812B2 (en) 2012-10-25 2014-11-18 Jds Uniphase Corporation Graphical user interface adjusting to a change of user's disposition
KR20140061098A (ko) * 2012-11-13 2014-05-21 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN102970498A (zh) * 2012-11-30 2013-03-13 深圳Tcl新技术有限公司 菜单立体显示的显示方法及显示装置
CN104346136B (zh) * 2013-07-24 2019-09-13 腾讯科技(深圳)有限公司 一种图片处理的方法及装置
TWI556622B (zh) * 2013-10-14 2016-11-01 鈺立微電子股份有限公司 快速產生照相機的距離對視差關係表的系統及其相關方法
CN107783704B (zh) * 2017-09-27 2021-07-23 北京小米移动软件有限公司 图片效果的调整方法、装置及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020008906A1 (en) * 2000-05-12 2002-01-24 Seijiro Tomita Stereoscopic picture displaying apparatus
US20020126202A1 (en) * 2001-03-09 2002-09-12 Koninklijke Philips Electronics N.V. Apparatus
US6727924B1 (en) * 2000-10-17 2004-04-27 Novint Technologies, Inc. Human-computer interface including efficient three-dimensional controls
WO2008035284A2 (fr) * 2006-09-19 2008-03-27 Koninklijke Philips Electronics N.V. Visualisation d'image à l'aide de multiples réglages individuels
US20080240549A1 (en) * 2007-03-29 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
AU774086B2 (en) 2000-05-31 2004-06-17 Canon Kabushiki Kaisha A method for active user feedback
JP2002175139A (ja) * 2000-12-07 2002-06-21 Sony Corp 情報処理装置、メニュー表示方法及びプログラム格納媒体
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
JP2005010854A (ja) * 2003-06-16 2005-01-13 Sony Computer Entertainment Inc 情報提示方法および装置
JP2005049668A (ja) * 2003-07-30 2005-02-24 Sharp Corp データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体
US7480873B2 (en) * 2003-09-15 2009-01-20 Sun Microsystems, Inc. Method and apparatus for manipulating two-dimensional windows within a three-dimensional display model
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
US7441201B1 (en) * 2004-10-19 2008-10-21 Sun Microsystems, Inc. Method for placing graphical user interface components in three dimensions
US7562312B2 (en) * 2006-01-17 2009-07-14 Samsung Electronics Co., Ltd. 3-dimensional graphical user interface
US7712039B2 (en) 2006-03-31 2010-05-04 Microsoft Corporation Setting control using edges of a user interface
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
US7665033B2 (en) * 2006-08-31 2010-02-16 Sun Microsystems, Inc. Using a zooming effect to provide additional display space for managing applications
US9032336B2 (en) * 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program
US8037414B2 (en) * 2006-09-14 2011-10-11 Avaya Inc. Audible computer user interface method and apparatus
WO2008132724A1 (fr) * 2007-04-26 2008-11-06 Mantisvision Ltd. Procédé et dispositif pour une interaction tridimensionnelle avec des afficheurs autostéréoscopiques
US8381122B2 (en) * 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US8279241B2 (en) * 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
JP5067407B2 (ja) * 2009-09-10 2012-11-07 パナソニック株式会社 表示装置および表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020008906A1 (en) * 2000-05-12 2002-01-24 Seijiro Tomita Stereoscopic picture displaying apparatus
US6727924B1 (en) * 2000-10-17 2004-04-27 Novint Technologies, Inc. Human-computer interface including efficient three-dimensional controls
US20020126202A1 (en) * 2001-03-09 2002-09-12 Koninklijke Philips Electronics N.V. Apparatus
WO2008035284A2 (fr) * 2006-09-19 2008-03-27 Koninklijke Philips Electronics N.V. Visualisation d'image à l'aide de multiples réglages individuels
US20080240549A1 (en) * 2007-03-29 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images

Also Published As

Publication number Publication date
KR20110122057A (ko) 2011-11-09
US20110271235A1 (en) 2011-11-03
CN102238408B (zh) 2016-03-02
JP2011239398A (ja) 2011-11-24
JP5933931B2 (ja) 2016-06-15
US8694922B2 (en) 2014-04-08
CN102238408A (zh) 2011-11-09
EP2385454A1 (fr) 2011-11-09
EP2385454B1 (fr) 2018-03-07

Similar Documents

Publication Publication Date Title
FR2959576A1 (fr) Procede d’affichage d’un menu de reglage et dispositif correspondant
TWI444036B (zh) 2d至3d使用者介面內容資料轉換
CN101523924B (zh) 3d菜单显示
JP5933916B2 (ja) Gui提供方法及びこれを用いたディスプレイ装置と3d映像提供システム
US10225545B2 (en) Automated 3D photo booth
US20120050502A1 (en) Image-processing method for a display device which outputs three-dimensional content, and display device adopting the method
US10291907B2 (en) Multi-view display control for channel selection
US20100103318A1 (en) Picture-in-picture display apparatus having stereoscopic display functionality and picture-in-picture display method
TW201044315A (en) Combining 3D image and graphical data
KR20110129903A (ko) 3d 시청자 메타데이터의 전송
CN103563363A (zh) 立体视觉图像的自动转换以便允许同时进行图像的立体视觉和平面视觉显示
WO2015100490A1 (fr) Reconfiguration et distribution de contenu stereoscopique dans une configuration convenant pour un environnement de visualisation a distance
CN102340678B (zh) 一种景深可调的立体显示装置及其景深调整方法
FR2971603A1 (fr) Procede de traitement d’image stereoscopique comprenant une bande noire et dispositif correspondant
CN102970564A (zh) 视频处理装置以及视频处理方法
Chauvier et al. Does size matter? The impact of screen size on stereoscopic 3DTV
EP2831847A1 (fr) Procede et dispositif de creation d&#39;images
CN102970563A (zh) 视频处理装置以及视频处理方法
FR2968108A1 (fr) Procede de reduction de la taille d’une image stereoscopique
CN102970566A (zh) 视频处理装置以及视频处理方法
KR101728724B1 (ko) 영상 표시 방법 및 그에 따른 영상 표시 장치
TWI555400B (zh) 應用於顯示裝置的字幕控制方法與元件
Jeong et al. 11.3: Depth‐Image‐Based Rendering (DIBR) Using Disocclusion Area Restoration
FR2962291A1 (fr) Procede de traitement d&#39;images 3d, et systeme correspondant
FR2963470A1 (fr) Procede et dispositif de montage audiovisuel

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20120131