FR3006467A1 - Procede de modification dynamique d'interface - Google Patents

Procede de modification dynamique d'interface Download PDF

Info

Publication number
FR3006467A1
FR3006467A1 FR1354808A FR1354808A FR3006467A1 FR 3006467 A1 FR3006467 A1 FR 3006467A1 FR 1354808 A FR1354808 A FR 1354808A FR 1354808 A FR1354808 A FR 1354808A FR 3006467 A1 FR3006467 A1 FR 3006467A1
Authority
FR
France
Prior art keywords
user
image
interface elements
display device
dead zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1354808A
Other languages
English (en)
Inventor
Olivier Gachignard
De Lafforest Thibaut Poumeau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR1354808A priority Critical patent/FR3006467A1/fr
Publication of FR3006467A1 publication Critical patent/FR3006467A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

La présente invention concerne un procédé d'affichage interactif sur un dispositif d'affichage comprenant une surface capable de diffuser une image comportant au moins un élément d'interface avec lequel au moins un utilisateur interagit par ses mouvements, les mouvements d'interaction de l'utilisateur étant détectés par au moins un capteur de détection de mouvement observant une zone où l'utilisateur est destiné à être situé, des moyens de traitement mettant en œuvre les étapes suivantes : - détermination (E3), à partir de données relatives à l'utilisateur et à sa position, des éléments d'interface dont au moins une partie est susceptible d'être affichée dans une zone morte de l'image dans laquelle toute interaction de l'utilisateur avec des éléments d'interface est impossible ; - modification (E4) de l'image affichée de sorte à ce que les éléments d'interface ainsi déterminés soient affichés hors de ladite zone morte.

Description

3006467 DOMAINE TECHNIQUE GENERAL L'invention a pour objet l'optimisation d'affichage, et concerne plus précisément un procédé d'affichage interactif sur un dispositif d'affichage d'une image comportant au 5 moins un élément d'interface. Elle s'applique plus particulièrement aux nouvelles interfaces permettant à un utilisateur d'interagir par ses mouvements avec un dispositif d'affichage à distance et sans instrumentation de l'utilisateur. 10 ETAT DE LA TECHNIQUE Dans le domaine des interfaces gestuelles sans contact et sans medium d'interaction, un utilisateur peut commander une interface grâce, par exemple, au mouvement de ses bras ou de ses mains. Cette gestuelle se fait à distance sans toucher 15 l'écran où l'action va se produire, et de manière naturelle sans l'ajout d'intermédiaire entre l'utilisateur et l'interface. L'utilisateur n'a besoin ni d'utiliser un dispositif de commande tel qu'une souris ou une télécommande, ni d'être instrumenté par le port de capteurs. Dans ce contexte, un utilisateur souhaitant interagir avec des éléments d'interfaces affichés sur un dispositif d'affichage peut se trouver dans différentes 20 configurations, notamment celles illustrées en Figure 1 et Figure 2. Dans la configuration représentée en Figure 1, l'utilisateur 3 est positionné entre un dispositif d'affichage 1 et un vidéoprojecteur 6. L'utilisateur peut alors se trouver sur la trajectoire d'une partie des rayons lumineux émis par le vidéoprojecteur à destination du dispositif d'affichage, empêchant ces rayons lumineux d'atteindre ledit dispositif 25 d'affichage et créant sur celui-ci une zone d'ombre 5.1. Cette zone d'ombre peut alors masquer au moins en partie des éléments d'interface 2 inclus dans l'image à afficher sur le dispositif d'affichage 1 émise par le vidéoprojecteur 6. Dans cette zone d'ombre 5.1, tout affichage d'éléments d'interface est donc impossible. Un utilisateur est donc dans l'impossibilité d'interagir avec tout élément d'interface qui serait situé dans cette zone 30 d'ombre. 2 3006467 Par ailleurs, dans les configurations présentées en Figures 1 et 2, l'utilisateur 3 est positionné entre un dispositif d'affichage 1 et un capteur 4. Lorsque l'utilisateur fait face au dispositif d'affichage, le capteur ne peut détecter la position d'un moyen de pointage de l'utilisateur tel que les mains de celui-ci, celles-ci étant occultées vis-à-vis du capteur par le corps de l'utilisateur. Il existe donc sur le dispositif d'affichage une zone de non détection 5.2 avec laquelle l'utilisateur ne peut interagir. Il existe donc un besoin de disposer d'une solution d'affichage permettant à un utilisateur d'interagir avec des éléments d'interface dont l'affichage est commandé dans une zone morte d'un dispositif d'affichage, correspondant à une zone d'ombre projetée de l'utilisateur sur le dispositif d'affichage ou bien à une zone avec laquelle l'utilisateur ne peut interagir du fait de l'impossibilité de la détection d'un moyen de pointage de l'utilisateur. PRESENTATION DE L'INVENTION La présente invention se rapporte ainsi selon un premier aspect à un procédé d'affichage interactif sur un dispositif d'affichage comprenant une surface capable de diffuser une image comportant au moins un élément d'interface avec lequel au moins un utilisateur interagit par ses mouvements, les mouvements d'interaction de l'utilisateur étant détectés par au moins un capteur de détection de mouvement observant une zone où l'utilisateur est destiné à être situé, des moyens de traitement mettant en oeuvre les étapes suivantes : - détermination, à partir de données relatives à l'utilisateur et à sa position, des éléments d'interface dont au moins une partie est susceptible d'être affichée dans une zone morte de l'image dans laquelle toute interaction de l'utilisateur avec des éléments d'interface est impossible ; - modification de l'image affichée de sorte à ce que les éléments d'interface ainsi déterminés soient affichés hors de ladite zone morte. Par dispositif d'affichage comprenant une surface capable de diffuser une image, on entend un écran et/ou une surface de projection d'une image.
Tous les éléments d'interface sont ainsi entièrement affichés sur le dispositif d'affichage sans qu'aucun d'entre eux ne soit masqué par l'éventuelle ombre projetée générée par l'utilisateur placé dans le faisceau de lumière issu d'un vidéoprojecteur, et 3 3006467 sans que la détection par le ou les capteurs de détection de mouvement des moyens de pointage de l'utilisateur pour interagir avec les éléments d'interface ne soit gênée par le corps de l'utilisateur. Ceci permet à l'utilisateur d'interagir avec tous les éléments d'interface.
5 Selon des caractéristiques avantageuses et non limitatives : - lesdites données relatives à l'utilisateur et à sa position sont déterminées à partir de mesures télémétriques réalisées par au moins un capteur de détection de mouvement. Ainsi les données relatives à l'utilisateur et à sa position dans l'espace, utilisées pour la détermination des éléments d'interface dont au moins une partie est susceptible 10 d'être affichée dans la zone morte, sont déterminées précisément à partir de mesures réalisées en temps réel, améliorant ainsi la précision de la détermination des éléments d'interface. - lesdites données relatives à l'utilisateur et à sa position comprennent des données enregistrées dans des moyens de stockage externes connectés auxdits moyens 15 de traitement de données. Ainsi les données pouvant être prédéterminées n'ont pas à être recalculées à partir de nouvelles mesures, permettant de diminuer la durée de traitement. - les données relatives à l'utilisateur et à sa position sont des données parmi la hauteur et la largeur de l'utilisateur, les distances de l'utilisateur au dispositif d'affichage, 20 et de l'utilisateur audit au moins un capteur de détection de mouvement. - le procédé selon le premier aspect comprend : - selon un premier mode de réalisation, une étape de détermination d'un volume occupé par l'utilisateur et de la position de l'utilisateur dans l'espace à partir desdites données relatives à l'utilisateur et à 25 sa position, ladite zone morte étant déterminée à partir d'une projection dudit volume occupé sur le dispositif d'affichage. - selon un deuxième mode de réalisation, une étape de détermination d'une surface occupée par l'utilisateur dans un plan dans lequel il se situe et de la position de l'utilisateur dans l'espace à partir desdites 30 données relatives à l'utilisateur et à sa position, ladite zone morte étant déterminée à partir d'une projection de ladite surface occupée sur le dispositif d'affichage.
4 3006467 Ces deux modes de réalisation, calculant l'encombrement de l'utilisateur dans l'espace, permettent respectivement d'améliorer la précision de la détermination de l'encombrement de l'utilisateur et donc de la zone morte, et de diminuer la quantité de calcul nécessaire à la détermination de la zone morte. 5 - ladite étape de détermination d'une surface ou d'un volume occupés comprend, dans le cas où plusieurs utilisateurs interagissent avec lesdits éléments d'interface : - dans un premier mode de réalisation, la détermination d'une union de l'ensemble des surfaces ou volumes occupés par chaque utilisateur; 10 - dans un deuxième mode de réalisation, la détermination d'une surface ou d'un volume simplifié englobant l'ensemble des surfaces ou volumes occupés par chacun desdits utilisateurs; Ces deux modes de réalisation, calculant un encombrement total généré par plusieurs utilisateurs, permettent respectivement d'améliorer la précision du calcul de cet 15 encombrement et donc de la zone morte, et de diminuer la quantité de calcul nécessaire à la détermination de cet encombrement et de la zone morte. - ladite modification de l'image affichée comprend une translation hors de la zone morte desdits éléments d'interface déterminés ; - ladite modification de l'image affichée comprend un changement d'échelle 20 desdits éléments d'interface déterminés. De telles modifications d'affichage nécessitent peu de calcul et peuvent permettre de conserver la cohérence globale des éléments d'interface et donc l'ergonomie de l'interface. - le procédé selon le premier aspect comprend en outre une étape d'adaptation de 25 la sensibilité d'un curseur affiché dans l'image en fonction de la modification de l'image affichée. Une telle adaptation permet de conserver l'ergonomie de l'interface après modification en ne requérant pas d'augmentation de l'amplitude des mouvements de l'utilisateur pour interagir avec l'ensemble des éléments d'interface.
30 Selon un deuxième aspect, l'invention concerne un dispositif de modification dynamique d'affichage sur un dispositif d'affichage comprenant une surface capable de diffuser une 5 3006467 image comportant au moins un élément d'interface avec lequel au moins un utilisateur interagit par ses mouvements, comprenant des moyens de traitement configurés pour : - déterminer, à partir de données relatives à l'utilisateur et à sa position, des éléments d'interface dont au moins une partie est susceptible d'être affichée dans 5 une zone morte de l'image dans laquelle toute interaction de l'utilisateur avec des éléments d'interface est impossible ; - modifier l'image affichée de sorte à ce que les éléments d'interface ainsi déterminés soient affichés hors de ladite zone morte. Selon un troisième aspect, l'invention concerne un produit programme d'ordinateur 10 comprenant des instructions de code pour l'exécution d'un procédé d'affichage interactif d'une image comportant au moins un élément d'interface selon le premier aspect de l'invention lorsque ce programme est exécuté par un processeur ainsi que des moyens de stockage lisibles par un équipement informatique sur lesquels se trouve ledit produit programme d'ordinateur.
15 Selon un quatrième aspect, l'invention concerne un système de modification dynamique d'affichage d'une image comportant au moins un élément d'interface comprenant un dispositif de modification dynamique d'affichage selon le deuxième aspect, au moins un dispositif d'affichage comprenant une surface capable de diffuser une image et au moins un capteur de détection de mouvement.
20 Selon un premier mode de réalisation, un système de modification dynamique d'affichage selon le quatrième aspect comprend en outre un vidéoprojecteur, ledit vidéoprojecteur étant placé du côté opposé audit dispositif d'affichage par rapport à l'utilisateur. Selon un deuxième mode de réalisation, ledit au moins un capteur de détection de 25 mouvement d'un système de modification dynamique d'affichage selon le quatrième aspect est placé du côté opposé audit dispositif d'affichage par rapport à l'utilisateur. De tels dispositifs, systèmes et produit programme d'ordinateur présentent les mêmes avantages que ceux évoqués pour le procédé selon le premier aspect.
30 PRESENTATION DES FIGURES 6 3006467 D'autres caractéristiques et avantages apparaîtront à la lecture de la description qui va suivre d'un mode de réalisation. Cette description sera donnée en référence aux dessins annexés dans lesquels : - la figure 1 illustre schématiquement une mise en oeuvre possible pour l'invention ; 5 - la figure 2 illustre schématiquement une autre mise en oeuvre possible pour l'invention ; - la figure 3 illustre un exemple d'architecture pour la mise en oeuvre du procédé selon un mode de réalisation ; - la figure 4 est un diagramme schématisant un exemple de mise en oeuvre d'un 10 procédé d'affichage interactif d'une image comportant au moins un élément d'interface; - les figures 5a et 5b illustrent des exemples de modification de l'image affichée. DESCRIPTION DETAILLEE 15 En référence à la figure 3, une mise en oeuvre pour l'invention concerne un procédé d'affichage interactif sur un dispositif d'affichage 1 comprenant une surface capable de diffuser une image comportant au moins un élément d'interface 2 avec lequel au moins un utilisateur 3 interagit par ses mouvements, les mouvements d'interaction de 20 l'utilisateur étant détectés par au moins un capteur de détection de mouvement 4 observant une zone où l'utilisateur est destiné à être situé, mis en oeuvre par des moyens de traitement 8. Par dispositif d'affichage 1 comprenant une surface capable de diffuser une image, on entend un écran et/ou une surface de projection d'une image. Plus 25 précisément, selon un premier mode de réalisation, illustré par exemple en figure 1, une surface de projection est une surface apte à réfléchir les rayons lumineux émis par un autre dispositif tel qu'un vidéoprojecteur 6, par exemple de type à cristaux liquides (LCD) ou DLP. Une telle surface peut par exemple être un mur, un écran réfléchissant présentant un gain éventuellement supérieur à 1. Selon un autre mode de réalisation, 30 illustré par exemple en figure 2, un écran peut être un dispositif d'affichage comprenant 7 3006467 une source primaire de lumière, tel qu'un écran à cristaux liquides (LCD), un écran plasma, un écran à diodes électroluminescentes organiques (OLED). Par élément d'interface, on entend tout élément graphique avec lequel un utilisateur peut interagir, tel qu'un bouton, une icône, un curseur, une liste déroulante.
5 Dans un mode de réalisation tel que celui illustré en figure 1, un tel élément d'interface peut également être une fenêtre de visualisation permettant à un utilisateur 3 de visualiser un élément tel qu'un texte, une image ou une vidéo. Dans le cadre d'une interface gestuelle sans contact et sans medium d'interaction, l'utilisateur interagit avec de tels éléments d'interface à l'aide de moyens de pointage tels que ses mains ou ses bras.
10 Les moyens de traitements 8 calculent une image à afficher et commandent son affichage sur le dispositif d'affichage 1, éventuellement par le biais d'un vidéoprojecteur 6. Avantageusement, de tels moyens de traitement comprennent un processeur de traitement, une mémoire vive, une mémoire non volatile réinscriptible. Les moyens de traitement 8 peuvent être intégrés dans un ordinateur 9 doté d'au 15 moins une interface de communication telle qu'une interface filaire de type Ethernet, USB, FireVVire, série, parallèle ou une interface sans-fil de type VVifi ou Bluetooth. Une telle interface peut être utilisée pour connecter les moyens de traitement à des dispositifs externes tels qu'un ou plusieurs capteurs 4 ou un moyen de stockage externe 10. Alternativement lesdits moyens de traitement sont répartis entre un tel ordinateur 20 et de tels capteurs connectés à l'ordinateur. Un boitier d'interface 7 peut être intercalé entre l'ordinateur et le ou les capteurs. Les moyens de traitement peuvent alors être répartis entre chacun de ces dispositifs. Lesdits moyens de traitement sont par ailleurs reliés à l'écran 1 ou au vidéoprojecteur 6 par le biais d'une interface vidéo, par exemple de type HDMI, VGA ou 25 Displayport. Les capteurs 4 peuvent être des capteurs de type télémétrique utilisés pour mesurer des distances et en déduire la position d'un utilisateur et de ses membres ainsi que leur mouvement. Un tel capteur peut être un capteur infrarouge, laser ou à ultrasons, utilisé pour mettre en oeuvre un calcul de distance par la méthode des temps de vol. Ce 30 calcul de distance est basé sur une mesure d'un temps de propagation aller-et-retour d'une onde entre un capteur et l'utilisateur.
8 3006467 Pour permettre à un utilisateur d'interagir avec des éléments d'interface dont au moins une partie est susceptible d'être affichée dans une zone morte de l'image, lesdits moyens de traitement mettent en oeuvre le procédé décrit ci-dessous. Les moyens de traitement 8 déterminent, à partir de données relatives à 5 l'utilisateur 3 et à sa position, des éléments d'interface 2 dont au moins une partie est susceptible d'être affichée dans une zone morte de l'image dans laquelle toute interaction de l'utilisateur avec des éléments d'interface est impossible. Ces données relatives à l'utilisateur et à sa position peuvent être la hauteur et la largeur de l'utilisateur, les distances de l'utilisateur au dispositif d'affichage et audit au 10 moins un capteur, ainsi que la distance entre le capteur et le dispositif d'affichage. Dans une première configuration illustrée en figure 1, l'apparition d'une telle zone morte peut résulter de la présence d'un ou plusieurs utilisateurs 3 entre la surface de projection et un vidéoprojecteur 6. Une telle zone morte correspond alors à la zone d'ombre portée 5.1 dudit au moins un utilisateur sur ledit dispositif d'affichage. Aucun pixel 15 de cette zone morte de l'image ne peut être affiché sur la surface de projection. Ainsi, les éléments d'interface susceptibles d'être au moins en partie affichés dans cette zone morte de l'image ne peuvent pas être entièrement affichés sur la surface de projection, rendant ainsi impossible toute interaction d'un utilisateur avec ces éléments. Dans une seconde configuration illustrée en figures 1 et 2, l'apparition d'une telle 20 zone morte peut résulter de la présence d'au moins un utilisateur 3 entre au moins un capteur de détection de mouvement 4 et ledit dispositif d'affichage. Une telle configuration peut être envisagée pour éviter qu'un tel capteur ne soit aveuglé par la lumière émise par un vidéoprojecteur, ou bien pour qu'un tel capteur se trouve à une distance de l'utilisateur permettant de détecter correctement les mouvements de celui-ci. Une telle zone morte 25 correspond alors à une zone 5.2 de l'image avec laquelle ledit au moins un utilisateur ne peut interagir, la position du moyen de pointage de l'utilisateur permettant d'interagir avec les éléments d'interface susceptibles d'être affichés dans cette zone de l'image ne pouvant être détectée par ledit au moins un capteur 4. En effet, dans une telle configuration, le corps de l'utilisateur se trouve entre le capteur 4 et le moyen de pointage 30 de l'utilisateur, par exemple ses mains, empêchant ainsi le capteur 4 de détecter la position et le mouvement de ce moyen de pointage. Toute interaction de l'utilisateur avec les éléments d'interface dont au moins une partie est susceptible d'être affichée dans ladite zone morte de l'image est alors impossible.
9 3006467 Enfin, les moyens de traitement 8 modifient l'image affichée de sorte à ce que les éléments d'interface ainsi déterminés soient affichés hors de ladite zone morte. Le ou les utilisateurs peuvent ainsi à nouveau voir intégralement lesdits éléments d'interface et interagir sans difficulté avec ceux-ci.
5 Un exemple de mise en oeuvre d'un procédé d'affichage interactif d'une image comportant au moins un élément d'interface est représenté en Figure 4. Lors d'une étape préliminaire E0, les moyens de traitement récupèrent des 10 données relatives à l'utilisateur et à sa position. Ces données relatives à l'utilisateur et à sa position peuvent être la hauteur et la largeur de l'utilisateur, les distances de l'utilisateur au dispositif d'affichage et audit au moins un capteur, ainsi que la distance entre le capteur et le dispositif d'affichage. La distance entre l'utilisateur et le dispositif d'affichage peut être calculée par les moyens de traitement à partir de la distance entre le 15 capteur et le dispositif d'affichage et de la distance entre le capteur et l'utilisateur. Dans un premier mode de réalisation, ces données sont déterminées à partir de mesures télémétriques acquises par au moins un capteur 4 et transmises aux moyens de traitement. De telles mesures peuvent être acquises et transmises de manière répétée à une cadence prédéterminée, par exemple 25 Hz.
20 L'utilisation de plusieurs capteurs peut permettre d'acquérir des mesures télémétriques pour plusieurs utilisateurs, chaque capteur pouvant acquérir les mesures télémétriques associées à un utilisateur. Dans un second mode de réalisation, ces données sont enregistrées 25 préalablement dans des moyens de stockage externe 10 connectés aux moyens de traitement. Les données relatives à l'utilisateur telles que sa hauteur et sa largeur peuvent être associées à un profil utilisateur stocké sur lesdits moyens de stockage. De tels paramètres peuvent être enregistrés lors de la création du profil d'un utilisateur lors de sa première utilisation du système. Lors de l'initialisation d'une session d'utilisation du 30 système, l'utilisateur est alors invité à sélectionner son profil pour charger les données enregistrées dans les moyens de traitement.
10 3006467 Ces deux modes de réalisation peuvent être combinés de façon à préenregistrer certains paramètres tels que la hauteur et la largeur de l'utilisateur, pour n'acquérir en temps réel que les données variables relatives à la position de l'utilisateur par rapport au dispositif d'affichage et au capteur.
5 Lors d'une première étape El, afin de déterminer ultérieurement une zone morte de l'image, les moyens de traitement déterminent l'encombrement de l'utilisateur dans l'espace à partir des données relatives à l'utilisateur et à sa position récupérées. Dans un premier mode de réalisation, l'encombrement déterminé est un volume 10 occupé par ledit au moins un utilisateur et la position de l'utilisateur dans l'espace. Un tel volume correspond donc à la reconstruction en trois dimensions (3D) de l'utilisateur dans l'espace. Dans un second mode de réalisation l'encombrement déterminé est une surface occupée par l'utilisateur dans un plan et la position de l'utilisateur dans l'espace. Ce plan 15 peut par exemple être un plan dans lequel se situe l'utilisateur. Ce plan peut être sensiblement perpendiculaire au faisceau d'ondes émis par le vidéoprojecteur ou le capteur. Alternativement ce plan peut être sensiblement parallèle au plan contenant le dispositif d'affichage. La première étape de détermination de l'encombrement de l'utilisateur dans 20 l'espace El peut ne pas être réalisée si ledit au moins un utilisateur n'a sensiblement pas bougé, c'est-à-dire si les mesures télémétriques acquises sont identiques à celles acquises précédemment à une marge d'erreur près, par exemple dix pourcents. L'encombrement retenu est alors celui déterminé précédemment.
25 Lors d'une deuxième étape E2, l'encombrement de l'utilisateur déterminé à la première étape El est utilisé par les moyens de traitement pour déterminer une zone morte de l'image. Toutefois cette deuxième étape E2 peut ne pas être réalisée si ledit au moins un utilisateur n'a sensiblement pas bougé, c'est-à-dire si l'encombrement dudit au moins un utilisateur est identique à celui déterminé précédemment à une marge d'erreur 30 près, par exemple dix pourcents. La zone morte retenue est alors celle déterminée précédemment.
11 3006467 Dans un premier mode de réalisation, les moyens de traitement calculent une projection sur le dispositif d'affichage par rapport au capteur ou au vidéoprojecteur de la surface ou du volume occupé par l'utilisateur. La zone délimitée par cette projection sur le dispositif d'affichage correspond à ladite zone morte.
5 Selon un deuxième mode de réalisation, les moyens de traitement calculent une projection par rapport au vidéoprojecteur ou au capteur, dans un plan quelconque, de l'encombrement de l'utilisateur et de l'image. Ce plan peut être le plan dans lequel l'encombrement de l'utilisateur a été déterminé à la première étape El. La zone de superposition dans ce plan de l'image et de l'encombrement de l'utilisateur correspond à 10 ladite zone morte. Lorsque les moyens de traitement sont connectés à plusieurs capteurs, une zone morte peut être calculée à la deuxième étape E2 par rapport à chaque capteur. La zone morte de l'image relative à l'ensemble des capteurs correspond alors à l'intersection desdites zones mortes calculées pour chaque capteur. Une telle intersection peut être 15 nulle dans le cas où le positionnement des différents capteurs permet de détecter les mouvements des moyens de pointage de l'utilisateur dans l'ensemble de l'espace. Néanmoins de nombreux capteurs peuvent être nécessaires pour arriver à un tel résultat. Le procédé mis en oeuvre permet à l'utilisateur d'interagir avec tous les éléments d'interface malgré la présence d'une zone morte et limite donc la nécessité d'employer un 20 nombre élevé de capteurs. Dans le cas où plusieurs utilisateurs utilisent conjointement le système, les encombrements des utilisateurs peuvent être déterminés lors de la première étape El. Selon une première variante, les moyens de traitement en déduisent un 25 encombrement de l'ensemble des utilisateurs correspondant à l'union des encombrements de chacun des utilisateurs. Cet encombrement de l'ensemble des utilisateurs est ensuite utilisé à la deuxième étape E2 pour déterminer une zone morte générée par l'ensemble des utilisateurs. Selon une deuxième variante, une zone morte est calculée à la deuxième étape 30 E2 pour chaque utilisateur à partir de l'encombrement de cet utilisateur calculé à la première étape El. Les moyens de traitement déterminent alors à la deuxième étape E2 une zone morte totale, union des zones mortes calculées pour chaque utilisateur.
12 3006467 Selon une dernière variante, les moyens de traitement calculent respectivement lors de la première étape El ou lors de la deuxième étape E2, un encombrement ou une zone morte simplifié englobant les encombrements et/ou les zones mortes de l'ensemble des utilisateurs. Une telle variante permet de déterminer une forme géométrique plus 5 simple, allégeant la quantité de calcul nécessaire lors des étapes ultérieures. Dans une configuration dans laquelle sont placés du côté opposé au dispositif d'affichage par rapport à l'utilisateur à la fois un vidéoprojecteur et un capteur comme sur la figure 1, la détermination d'un encombrement ou d'une zone morte pour un utilisateur 10 peut être réalisée de façon à tenir compte à la fois de l'ombre portée 5.1 dudit utilisateur et de la zone de non détection 5.2 avec lesquelles l'utilisateur ne peut interagir. En effet, pour un fonctionnement optimal, le vidéoprojecteur et les capteurs peuvent être positionnés de manière à ce que ces zones soient les plus confondues possibles. Néanmoins, il peut arriver que ces zones soient significativement distinctes. Une zone 15 morte peut alors être calculée à la deuxième étape E2, par projection à la fois par rapport au vidéoprojecteur et par rapport au capteur, à partir de l'encombrement de cet utilisateur calculé à la première étape El. Les moyens de traitement déterminent alors à la deuxième étape E2 une zone morte totale, union de la zone d'ombre portée 5.1 et de la zone de non détection 5.2 avec laquelle l'utilisateur ne peut interagir, la position du moyen 20 de pointage ne pouvant être détectée par le ou les capteurs. Alternativement, les moyens de traitement peuvent calculer lors de la deuxième étape E2, une zone morte simplifiée englobant les différentes zones mortes de l'image. Une telle variante permet de déterminer une forme géométrique plus simple, allégeant la quantité de calcul nécessaire lors des étapes ultérieures.
25 Lors d'une troisième étape E3, les moyens de traitement déterminent ensuite le ou les éléments d'interface dont au moins une partie serait affichée dans la zone morte de l'image. Cette détermination est réalisée par les moyens de traitement à partir de la zone morte déterminée à la deuxième étape E2, et de la configuration de l'image à afficher, 30 notamment de la position dans celle-ci des différents éléments d'interface la composant.
13 3006467 Lors d'une quatrième étape E4, les moyens de traitement modifient l'image affichée de sorte à ce que les éléments d'interface ainsi déterminés soient affichés hors de ladite zone morte. Selon une première variante illustrée en figure 5a, ladite modification de l'image 5 affichée comprend une translation hors de la zone morte desdits éléments d'interface déterminés. Selon une deuxième variante, illustrée en figure 5b, ladite modification de l'image affichée comprend un changement d'échelle desdits éléments d'interface déterminés. Il est possible que seuls les éléments d'interface susceptibles d'être situés au 10 moins en partie dans la zone morte subissent une modification d'affichage. Alternativement, d'autres éléments d'interface peuvent également subir une modification d'affichage de manière à disposer de l'espace nécessaire pour afficher l'ensemble des éléments d'interface, par exemple en conservant la position relative des différents éléments d'interface les uns par rapport aux autres ou en respectant une 15 distance minimale entre les différents éléments d'interface. Selon la deuxième variante présentée ci-dessus, un changement d'échelle global de l'ensemble de l'interface peut être obtenu par un changement de la résolution d'affichage. La modification d'affichage réalisée peut prendre en compte une donnée de distance maximale de déplacement des moyens de pointage de l'utilisateur, par exemple 20 ses mains. En effet, les moyens de traitement peuvent ainsi déterminer la modification d'affichage à appliquer de façon à ce qu'aucun élément d'interface ne soit déplacé à une position sur le dispositif d'affichage nécessitant de l'utilisateur un déplacement de ses moyens de pointage supérieur à ladite donnée de distance maximale pour interagir avec cet élément d'interface. De cette manière l'interface reste ergonomique pour l'utilisateur et 25 adaptée à son gabarit. Une telle donnée peut être préenregistrée et commune à l'ensemble des utilisateurs du système ou être spécifique à chaque utilisateur. Elle peut alors soit être préenregistrée dans le profil associé à chaque utilisateur, soit être calculée pour chaque utilisateur à partir des données relatives à l'utilisateur telle que sa hauteur.
30 Dans un mode de réalisation particulier, lors d'une cinquième étape E5, les moyens de traitement peuvent adapter la sensibilité d'un curseur affiché dans l'image en 14 3006467 fonction de la modification d'affichage réalisée à la quatrième étape E4. Il s'agit d'ajuster dynamiquement le ratio entre le mouvement du curseur et le mouvement du moyen de pointage de l'utilisateur, par exemple ses mains, de façon à ce que l'utilisateur puisse continuer à déplacer le curseur de manière ergonomique, malgré une éventuelle 5 modification de la taille de l'affichage sur le dispositif d'affichage. L'utilisateur peut ainsi continuer à interagir sans difficulté avec l'ensemble de l'interface, y compris avec les éléments d'interface situés sur les bords de celle-ci. A titre d'exemple, l'utilisateur peut se trouver initialement face à une image dont les éléments d'interface sont tous accessibles à l'aide d'un débattement des mains peu 10 important, par exemple à l'aide d'un déplacement latéral du bras de 30 cm, traduit sur le dispositif d'affichage par un déplacement du curseur d'un mètre, ce qui correspond à un ratio d'environ trois. Suite à une modification d'affichage à la quatrième étape E4, certains éléments d'interface peuvent se trouver davantage excentrés. Les moyens de traitement peuvent alors adapter le ratio de façon à ce qu'un déplacement latéral de 30 cm du bras 15 de l'utilisateur corresponde dorénavant à un déplacement du curseur de 1,5 mètre sur le dispositif d'affichage, correspondant à un ratio adapté de cinq. Une telle adaptation dynamique permet ainsi à l'utilisateur de continuer à interagir avec ces éléments d'interface excentrés avec le même déplacement du bras. Le calcul du nouveau ratio de sensibilité peut utiliser une donnée de distance 20 maximale de déplacement des moyens de pointage de l'utilisateur, par exemple ses mains. Une telle donnée peut être préenregistrée et commune à l'ensemble des utilisateurs du système ou être spécifique à chaque utilisateur. Elle peut alors soit être préenregistrée dans le profil associé à chaque utilisateur, soit être calculée pour chaque utilisateur à partir des données relatives à l'utilisateur telle que sa hauteur.
25 Une telle adaptation de la sensibilité du curseur permet de ne pas contraindre les modifications d'affichage déterminées à la quatrième étape E4 en fonction de la donnée de distance maximale de déplacement des moyens de pointage de l'utilisateur, tout en gardant une interface ergonomique pour l'utilisateur. 30 15

Claims (15)

  1. REVENDICATIONS1. Procédé d'affichage interactif sur un dispositif d'affichage (1) comprenant une surface capable de diffuser une image comportant au moins un élément 5 d'interface (2) avec lequel au moins un utilisateur (3) interagit par ses mouvements, les mouvements d'interaction de l'utilisateur étant détectés par au moins un capteur de détection de mouvement (4) observant une zone où l'utilisateur est destiné à être situé, ledit procédé étant caractérisé en ce que des moyens de traitement (8) mettent en oeuvre les étapes suivantes : 10 - détermination (E3), à partir de données relatives à l'utilisateur (3) et à sa position, des éléments d'interface (2) dont au moins une partie est susceptible d'être affichée dans une zone morte de l'image dans laquelle toute interaction de l'utilisateur avec des éléments d'interface est impossible ; - modification (E4) de l'image affichée de sorte à ce que les éléments d'interface 15 ainsi déterminés soient affichés hors de ladite zone morte.
  2. 2. Procédé selon la revendication 1 dans lequel lesdites données relatives à l'utilisateur et à sa position sont déterminées à partir de mesures télémétriques réalisées par au moins un capteur de détection de mouvement (4).
  3. 3. Procédé selon l'une quelconque des revendications précédentes 20 dans lequel les données relatives à l'utilisateur et à sa position sont des données parmi la hauteur et la largeur de l'utilisateur, les distances de l'utilisateur au dispositif d'affichage, et de l'utilisateur audit au moins un capteur de détection de mouvement.
  4. 4. Procédé selon l'une quelconque des revendications précédentes comprenant une étape de détermination (El) d'un volume occupé par l'utilisateur et de la 25 position de l'utilisateur dans l'espace à partir desdites données relatives à l'utilisateur et à sa position, ladite zone morte étant déterminée à partir d'une projection dudit volume occupé sur le dispositif d'affichage.
  5. 5. Procédé selon l'une quelconque des revendications 1 à 3, comprenant une étape de détermination (El) d'une surface occupée par l'utilisateur dans 30 un plan dans lequel il se situe et de la position de l'utilisateur dans l'espace à partir desdites données relatives à l'utilisateur et à sa position, ladite zone morte étant déterminée à partir d'une projection de ladite surface occupée sur le dispositif d'affichage. 16 3006467
  6. 6. Procédé selon l'une quelconque des revendications 4 ou 5 dans lequel, dans le cas où plusieurs utilisateurs interagissent avec lesdits éléments d'interface, ladite étape de détermination (El) d'une surface ou d'un volume occupé comprend la détermination d'une union de l'ensemble des surfaces ou volumes occupés par chaque utilisateur.
  7. 7. Procédé selon l'une quelconque des revendications 4 ou 5 dans lequel, dans le cas où plusieurs utilisateurs interagissent avec lesdits éléments d'interface, ladite étape de détermination (El) d'une surface ou d'un volume occupé comprend la détermination d'une surface ou d'un volume simplifié englobant l'ensemble des surfaces ou volumes occupés par chacun desdits utilisateurs.
  8. 8. Procédé selon l'une quelconque des revendications précédentes dans lequel ladite modification (E4) de l'image affichée comprend une translation hors de la zone morte desdits éléments d'interface déterminés.
  9. 9. Procédé selon l'une quelconque des revendications précédentes dans lequel ladite modification (E4) de l'image affichée comprend un changement d'échelle desdits éléments d'interface déterminés.
  10. 10. Procédé selon l'une quelconque des revendications précédentes comprenant en outre une étape d'adaptation (E5) de la sensibilité d'un curseur affiché dans l'image en fonction de la modification de l'image affichée.
  11. 11. Dispositif de modification dynamique d'affichage sur un dispositif d'affichage (1) comprenant une surface capable de diffuser une image comportant au moins un élément d'interface avec lequel au moins un utilisateur (3) interagit par ses mouvements, comprenant des moyens de traitement (8) configurés pour : - déterminer, à partir de données relatives à l'utilisateur et à sa position, des éléments d'interface (2) dont au moins une partie est susceptible d'être affichée dans une zone morte de l'image dans laquelle toute interaction de l'utilisateur avec des éléments d'interface est impossible ; - modifier l'image affichée de sorte à ce que les éléments d'interface ainsi déterminés soient affichés hors de ladite zone morte.
  12. 12. Produit programme d'ordinateur comprenant des instructions de code pour l'exécution d'un procédé d'affichage interactif d'une image comportant au 17 3006467 moins un élément d'interface selon l'une quelconque des revendications 1 à 10 lorsque ce programme est exécuté par un processeur.
  13. 13. Système de modification dynamique d'affichage d'une image comportant au moins un élément d'interface, ledit système comprenant un dispositif de 5 modification dynamique d'affichage selon la revendication 11, au moins un dispositif d'affichage comprenant une surface capable de diffuser une image (1) et au moins un capteur de détection de mouvement (4).
  14. 14. Système de modification dynamique d'affichage selon la revendication 13, comprenant en outre un vidéoprojecteur (6), ledit vidéoprojecteur étant 10 placé du côté opposé audit dispositif d'affichage par rapport à l'utilisateur.
  15. 15. Système de modification dynamique d'affichage selon l'une quelconque des revendications 13 ou 14, dans lequel ledit au moins un capteur de détection de mouvement (4) est placé du côté opposé audit dispositif d'affichage par rapport à l'utilisateur. 15
FR1354808A 2013-05-28 2013-05-28 Procede de modification dynamique d'interface Withdrawn FR3006467A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1354808A FR3006467A1 (fr) 2013-05-28 2013-05-28 Procede de modification dynamique d'interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1354808A FR3006467A1 (fr) 2013-05-28 2013-05-28 Procede de modification dynamique d'interface

Publications (1)

Publication Number Publication Date
FR3006467A1 true FR3006467A1 (fr) 2014-12-05

Family

ID=49237288

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1354808A Withdrawn FR3006467A1 (fr) 2013-05-28 2013-05-28 Procede de modification dynamique d'interface

Country Status (1)

Country Link
FR (1) FR3006467A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020101418A1 (en) * 2000-08-29 2002-08-01 Frederic Vernier Circular graphical user interfaces
US20040036717A1 (en) * 2002-08-23 2004-02-26 International Business Machines Corporation Method and system for a user-following interface
US20080158144A1 (en) * 2004-03-18 2008-07-03 Koninklijke Philips Electronics, N.V. Scanning Display Apparatus
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US20120032979A1 (en) * 2010-08-08 2012-02-09 Blow Anthony T Method and system for adjusting display content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020101418A1 (en) * 2000-08-29 2002-08-01 Frederic Vernier Circular graphical user interfaces
US20040036717A1 (en) * 2002-08-23 2004-02-26 International Business Machines Corporation Method and system for a user-following interface
US20080158144A1 (en) * 2004-03-18 2008-07-03 Koninklijke Philips Electronics, N.V. Scanning Display Apparatus
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US20120032979A1 (en) * 2010-08-08 2012-02-09 Blow Anthony T Method and system for adjusting display content

Similar Documents

Publication Publication Date Title
US20130088726A1 (en) Method and Apparatus to Determine Depth Information For A Scene of Interest
EP2947628B1 (fr) Procédé de traitement d'informations locales
WO2016162538A1 (fr) Bracelet electronique pour l'affichage d'un contenu numerique interactif destine a etre projete sur une zone d'un bras
GB2572663A (en) Method and apparatus for determining permeability of reservoirs
US20170310950A1 (en) Method for estimating distance, and system and computer-readable medium for implementing the method
EP2469501A2 (fr) Procédé de détermination d'une erreur de localisation dans une image géoréférencée et dispositif associé
WO2017013068A1 (fr) Procédé et dispositif d'affichage de scène tridimensionnelle sur une surface d'affichage de forme arbitraire non plane
FR2966623A1 (fr) Procede d’estimation de l’occultation dans un environnement virtuel
FR3029642A1 (fr) Procede de localisation d'au moins un objet magnetique mobile, et systeme associe
US11785199B2 (en) SPAD array for intensity image capture and time of flight capture
WO2016162539A1 (fr) Dispositif electronique de projection interactif
TW201734956A (zh) 在結構化光系統中之深度映射產生
FR3006467A1 (fr) Procede de modification dynamique d'interface
EP2994813B1 (fr) Procede de commande d'une interface graphique pour afficher des images d'un objet tridimensionnel
WO2011058007A2 (fr) Procede d'estimation de diffusion de la lumiere
EP4024010B1 (fr) Correction des mesures en fonction de l'orientation du compteur
EP2577225B1 (fr) Dispositif et procede de determination d'une information de profondeur a partir d'un capteur optique susceptible d'etre en deplacement
US20170243022A1 (en) 3D Digital Content Interaction and Control
FR3104743A1 (fr) Dispositif d’affichage portatif de contenu 3D, système et procédé correspondants.
EP4024011B1 (fr) Adaptation de l'affichage en fonction de l'orientation du compteur
EP3048791A2 (fr) Procédé d'affichage d'au moins une fenêtre d'une scène tridimensionnelle, produit programme d'ordinateur et système d'affichage associés
EP3724749B1 (fr) Appareil pour application de réalité augmentée
EP2234003B1 (fr) Procédé d'identification d'un axe de rotation unique d'un mouvement de rotation
FR3013492A1 (fr) Procede utilisant des donnees de geometrie 3d pour une presentation et une commande d'image de realite virtuelle dans un espace 3d
EP3985490A1 (fr) Borne de commande interactive sans contact

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20160129