FR3048786A1 - Reglage dynamique de la nettete d'au moins une image projetee sur un objet - Google Patents

Reglage dynamique de la nettete d'au moins une image projetee sur un objet Download PDF

Info

Publication number
FR3048786A1
FR3048786A1 FR1652012A FR1652012A FR3048786A1 FR 3048786 A1 FR3048786 A1 FR 3048786A1 FR 1652012 A FR1652012 A FR 1652012A FR 1652012 A FR1652012 A FR 1652012A FR 3048786 A1 FR3048786 A1 FR 3048786A1
Authority
FR
France
Prior art keywords
projector
sharpness
distance
image
dzloin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1652012A
Other languages
English (en)
Other versions
FR3048786B1 (fr
Inventor
Julien Berta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smartpixels Fr
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR1652012A priority Critical patent/FR3048786B1/fr
Publication of FR3048786A1 publication Critical patent/FR3048786A1/fr
Application granted granted Critical
Publication of FR3048786B1 publication Critical patent/FR3048786B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects

Abstract

La présente invention concerne un système informatique (100) de réglage dynamique de la netteté d'au moins une image projetée sur un objet (O) par un projecteur vidéo (PV), ledit système (100) comprenant : - une module informatique de détermination (10) pour déterminer une première distance (DzProche) correspondant à la plus courte distance entre ledit objet (O) et ledit projecteur (PV) de manière à définir une bande de netteté dans laquelle on souhaite que ladite au moins une image projetée soit nette, - un module informatique de traitement (20) configuré pour déterminer une loi de commande du focus apte à maximiser la netteté de ladite au moins une image projetée sur l'objet (O) par ledit projecteur (PV) en cherchant un réglage (RegFocus) de la position de la lentille (LP) du projecteur (PV) par rapport à la source lumineuse, ou focus, permettant d'approximer la bande de netteté souhaitée de manière à maintenir nette ladite au moins une image projetée sur ledit objet (O).

Description

REGLAGE DYNAMIQUE DE LA NETTETE D’AU MOINS UNE IMAGE PROJETEE SUR UN OBJET
Domaine technique et art antérieur
La présente invention concerne le mapping vidéo (ou mappage vidéo), également connu sous le terme projection mapping.
Le mapping vidéo consiste principalement à projeter au moins une image ou un flux vidéo sur des objets (bidimensionnels ou tridimensionnels) avec un projecteur vidéo.
Ceci permet d’afficher de l’information digitale directement sur des objets tangibles notamment pour recréer des univers virtuels et réaliser de la réalité augmentée.
Le mapping vidéo se présente donc comme une technologie de projection permettant de transformer des objets, souvent de formes irrégulières, en surface d'affichage pour une projection d’images ou de vidéo.
Ces objets peuvent être aussi bien des paysages architecturaux complexes tels qu’un bâtiment (cathédrale, église, monument historique, etc.) que des objets de plus petites tailles comme par exemple des maquettes ou des prototypes.
La présente invention trouve ainsi de nombreuses applications avantageuses dans le domaine du marketing par exemple pour la conception d’un produit ou d’un packaging ou encore pour le choix et/ou la configuration d’un véhicule dans une concession automobile, mais aussi dans le domaine de la réalité virtuelle ou dans le jeu vidéo.
Bien évidemment, la présente invention trouve d’autres applications avantageuses dans d’autres domaines comme par exemple dans l’événementiel, les spectacles de sons et lumières ou encore les spectacles de rue pour projeter sur des objets de grandes dimensions (par exemple des façades de bâtiments) des images et/ou des vidéo.
Dans la grande majorité des situations, le projecteur vidéo et l’objet sur lequel on projette l’image (ou le flux vidéo) sont fixes l’un par rapport à l’autre.
Le réglage de la netteté de l’image projetée (ou du flux vidéo projeté) est réalisé manuellement et une seule fois.
On peut toutefois envisager des situations plus complexes dans lesquelles par exemple le projecteur vidéo se déplace autour de l’objet lors de la projection.
De la même façon, on peut aussi envisager des situations dans lesquelles l’objet sur lequel on projette l’image ou le flux vidéo est mobile par rapport au projecteur vidéo.
Dans un cas comme dans l’autre, il n’est plus possible en cas de déplacement de garantir la netteté de l’image projetée.
Il devient alors nécessaire de contrôler au cours de l’expérience le réglage du focus du projecteur pour garantir la netteté de l’image ou du flux vidéo pendant le déplacement.
La présente invention porte donc sur le réglage dynamique de la netteté d’au moins une image ou d’un flux vidéo projeté sur un objet par un projecteur vidéo.
Plus précisément, la présente invention s’intéresse aux situations de mapping vidéo, dites mobiles, aux cours desquelles le projecteur vidéo et l’objet sur lequel l’image ou le flux vidéo est projeté ne sont pas nécessairement fixes l’un par rapport à l’autre.
Un projecteur vidéo dispose généralement d’au moins une lentille dite de projection, notée LP.
On notera ici que la ou les lentilles de projection peuvent également être remplacées par un ou plusieurs miroirs. Ces miroirs ont la même fonction. De façon générale, on parlera de moyens optiques de projection.
De la même façon qu’une caméra, la lentille LP (ou le miroir) comporte des spécificités techniques telles que la longueur focale ou l’ouverture et des réglages (zoom, focus, shift) qui peuvent être réglés manuellement ou de façon automatique.
Lorsqu’un projecteur PV est placé face à un écran par exemple pour un usage classique du type projection d’une présentation lors d’une réunion, la netteté de l’image projetée sur l’écran de projection est réglée une fois pour toute ; ce réglage se fait en général manuellement.
Ce cas de figure est illustré ici en figures la et Ib.
Plus particulièrement, le réglage de la netteté de l’image est réalisé en fonction de la distance entre l’écran et la lentille de projection LP ; cette distance est mesurée le long de l’axe optique A.
On parle souvent du réglage du plan de netteté.
Ce plan de netteté correspond à un plan orthogonal à l’axe optique A du projecteur PV dans lequel l’image projetée est nette.
Si on fait coïncider le plan de netteté avec l’écran de projection, on obtient une image nette.
Cette coïncidence peut se faire : en déplaçant l’écran, en déplaçant le projecteur, ou encore en agissant sur le réglage de netteté de la lentille LP.
En réalité, le plan de netteté présente « une épaisseur ». Π existe en effet : un plan de netteté proche, noté ici PNP, et un plan de netteté lointain, noté ici PNL.
Comme illustré en figures la et Ib, ces deux plans PNP et PNL sont parallèles entre eux.
Toutes les images projetées sur un écran qui est positionné entre ces deux plans PNP et PNL sont nettes.
Ceci est lié à l’ouverture de la lentille, à la résolution oculaire de l’observateur, et à la taille des pixels sur le dispositif digital imageant.
On parle alors de profondeur de champ (terme également utilisé pour les caméras et les appareils photos). Ceci désigne la profondeur qui existe entre le plan net proche PNP et le plan net lointain PNL.
Dans le cadre de la présente invention, le projecteur vidéo et/ou l’objet sont mobiles l’un par rapport à l’autre.
Pour une position objet/projecteur donnée, il est donc requis de maintenir tout ou partie de l’objet O entre ces plans PNP et PNL (plan net proche et plan net lointain), sans quoi l’image obtenue est floue.
Ceci est illustré en figure 2 ; les zones de l’objet O hachurées dans cette figure 2 correspondent à des zones où la ou les images projetées sont en dehors de la zone de netteté : elles sont donc floues.
Si l’objet présente, vu du projecteur, une profondeur supérieure à la profondeur de champ, il n’est pas possible d’obtenir une image nette sur toute la surface de l’objet.
Dans pareil cas, il est tout à fait possible de ne rien faire : une image floue est alors projetée sur une partie de l’objet.
Alternativement, il est possible de masquer les parties floues de l’image par du « noir ».
Dans le cadre du mapping vidéo, la forme 3D de l’objet à augmenter est la plus souvent connue. En utilisant le rendu 3D qui est fait de cette forme pour générer l’image à projeter, on peut déterminer les zones qui seront floues en comparant leur profondeur avec les plans nets proches et lointains.
Les parties de l’objet en dehors de la zone de netteté (celles hachurées dans la figure 2) sont alors masquées par du noir dans l’image vidéo à projeter.
Une telle technique n’est toutefois pas satisfaisante pour l’expérience de l’utilisateur.
Objet et résumé de la présente invention
La présente invention vise à améliorer la situation décrite ci-dessus.
Un des objectifs de la présente invention est de remédier aux différents inconvénients mentionnés ci-dessus en proposant une solution, en temps réel, permettant dans les situations de mapping vidéo mobile le réglage dynamique de la netteté de l’image projetée sur un objet, le tout en limitant les temps de calcul et les ressources informatiques. A cet effet, l’objet de la présente invention concerne selon un premier aspect un procédé de réglage dynamique de la netteté d’au moins une image projetée (par exemple une image, un flux d’images ou un flux vidéo) sur un objet par un projecteur vidéo.
De préférence, le procédé selon l’invention est mis en œuvre par des moyens informatiques et comprend les étapes suivantes : une étape de détermination au cours de laquelle on détermine une première distance correspondant à la plus courte distance entre l’objet et le projecteur de manière à définir une bande de netteté dans laquelle on souhaite que ladite au moins une image projetée soit nette, et une étape de traitement au cours de laquelle on détermine une loi de commande du focus apte à maximiser la netteté de ladite au moins une image projetée sur l’objet par le projecteur en cherchant un réglage de la position des moyens optiques de projection (par exemple une ou plusieurs lentilles de projection ou un ou plusieurs miroirs) du projecteur par rapport à la source lumineuse, ou focus, permettant d’approximer la bande de netteté souhaitée de manière à maintenir nette ladite au moins une image projetée sur l’objet.
Ainsi, grâce à cette succession d’étapes techniques, caractéristique de la présente invention, il est possible d’avoir une image projetée nette en réglant dynamiquement le focus du projecteur.
Ce réglage permet de tenir compte des mouvements relatifs du projecteur par rapport à l’objet « augmenté » (ou inversement). Grâce à la présente invention, l’observateur vivra ainsi une expérience au cours de laquelle l’image restera nette.
Avantageusement, on détermine, lors de l’étape de détermination, une deuxième distance correspondant à la plus grande distance entre l’objet et le projecteur.
De préférence, cette deuxième distance correspond à la distance entre le projecteur et le point de l’objet le plus éloignée du projecteur sur lequel l’image est projetée ; on parle également de point de l’objet « visible » le plus éloigné.
Avantageusement, lors de l’étape de traitement, on calcule, en fonction de la première distance, la position la plus courte à laquelle les moyens optiques de projection du projecteur peuvent être réglés par rapport à la source lumineuse pour projeter sur l’objet une image nette.
De préférence, lors de l’étape de traitement, on calcule en fonction de la deuxième distance la position la plus lointaine à laquelle les moyens optiques de projection du projecteur peuvent être réglés par rapport à la source lumineuse pour projeter sur l’objet une image nette.
Dans un mode de réalisation particulier, le procédé comprend une étape de réglage au cours de laquelle on règle le focus par asservissement des moyens optiques en fonction de la loi de commande déterminée lors de l’étape de traitement.
De préférence, le réglage du focus est réalisé par une motorisation des moyens optiques.
Dans une variante, les première et/ou deuxième distances sont obtenues lors de l’étape de détermination à l’aide d’un capteur de profondeur apte à fournir une carte des distances de l’objet dans le repère 3D du projecteur.
Dans une autre variante alternative, on connaît un modèle 3D dudit objet.
Dans cette variante, on détermine lors d’une étape préalable la pose de l’objet dans le repère 3D du projecteur. La pose de l’objet est paramètre extrinsèque du projecteur qui correspond à la position et l’orientation de l’objet dans le repère du projecteur.
De préférence, dans cette variante, les première et deuxième distances sont calculées lors de l’étape de détermination en fonction du modèle 3D de l’objet et de la pose. On utilise dans cette variante la position et l’orientation de l’objet dans le repère du projecteur pour adapter le focus du projecteur lors de la projection.
Corrélativement, l’objet de la présente invention concerne selon un deuxième aspect un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé tel que décrit ci-dessus, ceci notamment lorsque ledit programme d’ordinateur est exécuté par au moins un processeur.
Un tel progranune d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
De même, l’objet de la présente invention concerne selon un troisième aspect un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un progranune d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé tel que décrit ci-dessus. D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, par exemple un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur. D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question. L’objet de la présente invention concerne selon un quatrième aspect un dispositif informatique de réglage dynamique de la netteté d’au moins une image projetée sur un objet par un projecteur vidéo.
Selon l’invention, le dispositif comprend des moyens informatiques configurés pour la mise en œuvre des étapes du procédé décrit ci-dessus.
Plus particulièrement, le dispositif selon la présente invention comprend : un module informatique de détermination configuré pour déterminer une première distance correspondant à la plus courte distance entre l’objet et le projecteur de manière à définir une bande de netteté dans laquelle on souhaite que l’image projetée soit nette, un module informatique de traitement configuré pour déterminer une loi de commande du focus apte à maximiser la netteté de l’image projetée sur l’objet par le projecteur en cherchant un réglage de la position des moyens optiques de projection du projecteur par rapport à la source lumineuse, ou focus, permettant d’approximer la bande de netteté souhaitée de manière à maintenir nette l’image projetée sur l’objet. L’objet de la présente invention concerne selon un cinquième aspect un système de mapping vidéo comprenant : un projecteur vidéo apte à projeter au moins une image sur un objet, et un dispositif informatique tel que celui décrit ci-dessus pour régler dynamiquement la netteté de ladite au moins une image projetée sur l’objet par le projecteur vidéo.
Ainsi, l’objet de la présente invention, par ses différents aspects fonctionnels et structurels décrits ci-dessus, permet de régler de façon dynamique la netteté de l’image dans les situations dites de mobilité au cours desquelles l’objet et le projecteur vidéo sont mobiles l’un par rapport à l’autre.
Brève description des figures annexées D’autres caractéristiques et avantages de la présente invention ressortiront de la description ci-dessous, en référence aux figures 3 à 10 annexées qui en illustrent un exemple de réalisation dépourvu de tout caractère limitatif et sur lesquelles : les figures 3, 4 et 5 représentent chacune de façon schématique les différents réglages du focus qui sont caractéristiques d’un projecteur vidéo selon un exemple de réalisation de l’invention ; les figures 6 et 7 représentent de façon schématique le réglage du focus d’un projecteur selon deux exemples ; la figure 8 représente un graphique représentant la distance de l’objet par rapport au projecteur en fonction du réglage du focus : la figure 9 représente un système de mapping vidéo conforme à un exemple de réalisation de l’invention ; et la figure 10 représente un ordinogramme représentant les différentes étapes du procédé selon un exemple de réalisation de la présente invention.
Description détaillée selon un exemple de réalisation avantaseux
Un procédé de réglage dynamique de la netteté de l’image projetée ainsi que le système qui lui est associé vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 3 à 10.
Pour mémoire, permettre un réglage dynamique de la netteté d’une image projetée sur un objet O par un projecteur vidéo PV est un des objectifs de la présente invention.
Dans cet exemple, la lentille de projection LP du projecteur vidéo PV comporte les caractéristiques suivantes : - RegFocus : ce paramètre de la lentille LP correspond au réglage de focus (qui se fait par exemple à l’aide d’une bague rotative sur la lentille LP) ; le focus RegFocus de la lentille présente un réglage minimum noté RegFocusMin et un réglage maximum noté
RegFocusMax ;
DistanceFocusMin : ce paramètre de la lentille LP correspond à la distance la plus courte à laquelle la lentille LP peut être réglée pour produire une image nette ; c’est la distance du projecteur PV au plan net proche PNP lorsque la lentille LP est réglée sur RegFocusMin ;
DistanceFocusMax : ce paramètre de la lentille LP correspond à la distance la plus longue à laquelle la lentille LP peut être réglée pour produire une image nette ; c’est la distance du projecteur PV au plan net lointain PNL lorsque la lentille LP est réglée sur RegFocusMax.
On sait que, pour un réglage de focus donné RegFocus, il existe une distance dite proche, nommée DistanceFocusProche, où l’image commence à être nette et une distance dite lointaine, nommée DistanceFocusLoin, où l’on perd la netteté de l’image.
Ces distances sont illustrées en figure 3.
On notera ici qu’un projecteur peut également comporter un ou plusieurs miroirs à la place de la lentille LP. Π s’agit donc ici d’un exemple parmi d’autres.
La profondeur de champ, nommée DoF (pour « Depth OfField »), est égale à :
DoF = DistanceFocusLoin - DistanceFocusProche Π est à noter que la relation entre la profondeur de champ DoF et le réglage de focus RegFocus est complexe ; il est généralement très difficile de déterminer cette relation à partir des données usuelles de lentilles communiquées par les fabricants de projecteurs.
Si les données techniques disponibles concernant la lentille LP sont complètes, on peut par calcul déterminer une loi qui relie RegFocus, DistanceFocusProche et DistanceFocusLoin.
Ceci est représenté par le graphique de la figure 8.
Si ces données ne sont pas disponibles (ce qui est généralement le cas), on procède comme suit : 1) On échantillonne les valeurs de RegFocus pour obtenir RegFocus’. Le nombre d’échantillons est choisi en fonction de la précision souhaitée et fait l’objet d’un paragraphe séparé. 2) Pour chaque valeur de RegFocus’ (c’est-à-dire en réglant le projecteur PV à cette valeur), on détermine DistanceFocusProche et DistanceFocusLoin. Cette détermination peut se faire de nombreuses manières.
Par exemple, on affiche une mire de netteté sur le projecteur PV, puis on déplace un écran le long de l’axe optique A du projecteur PV en démarrant très proche de la lentille LP. On note alors la distance de la lentille LP à l’écran lorsque la mire devient nette pour obtenir DistanceFocusProche puis celle où l’on perd la netteté pour obtenir DistanceFocusloin. 3) L’opération est ensuite répétée pour chaque valeur de RegFocus’. 4) La liste des valeurs obtenues DistanceFocusProche et
DistanceFocusloin peut être utilisée telle quelle (on a alors une table de recherche des valeurs) ou une loi d’interpolation peut être trouvée.
On dispose ainsi d’une loi ou d’une table qui relie RegFocus (ou RegFocus’), DistanceFocusProche et DistanceFocusLoin.
Plus précisément, on peut déterminer pour une valeur de réglage de focus RegFocus donnée les valeurs DistanceFocusProche et DistanceFocusLoin.
Inversement, étant donnée une valeur de DistanceFocusProche, on peut trouver RegFocus puis Distance Focus Loin.
Finalement, étant donnée une valeur de DistanceFocusLoin, on peut trouver RegFocus puis DistanceFocusProche.
On appelle ces lois :
RegFocus= TFProche(DistanceFocusProche )
DistanceFocusProche= TFProche'^ (RegFocus)
RegFocus= TFLoin(DistanceFocusLoin )
DistanceFocusLoin= TFLoin^ (RegFocus )
Selon 1), on sélectionne le nombre d’échantillons.
RegFocus est donc échantillonné sur une pluralité de valeurs d’échantillons NbEchantillons pour devenir RegFocus'.
Les grandeurs qui entrent en compte dans la sélection du nombre d’échantillons pour le passage de RegFocus à RegFocus’ sont :
La précision de la commande de réglage du focus. On notera ici que si la commande est numérique et n’offre que des valeurs discrètes du réglage de focus, on utilisera au maximum ce nombre d’échantillons.
La taille de l’objet à augmenter, notée ici TailleObjet (on peut considérer par exemple les dimensions de la boite englobante ou le diamètre de la sphère englobante). L’étendue des distances de netteté : la profondeur de champ totale du projecteur, c’est-à-dire :
DoFTotale = DistanceFocusLoin(RegFocusMax)-DistanceFocusProche(RefFocusMin )
La profondeur de champ ‘typique’ du projecteur : Dofldoyenne. On peut prendre par exemple la moyenne de DoF sur quelques valeurs de RegFocus.
On peut alors approximer le nombre de bandes de netteté distinctes dans l’étendue de la zone de projection en utilisant le rapport :
DoFTotale / DofMoyenne.
Une valeur pour le nombre d’échantillons NbEchantillons peut se calculer de la façon suivante : 2x DoFTotale / DofMoyenne
Cette approximation permet de garantir un recouvrement de 50% des bandes consécutives.
On peut également moduler ce choix par le rapport TailleObjet / DoFMoyenne : O » 1 : Si le rapport est très supérieur à 1, l’objet est beaucoup plus gros que la profondeur de champ moyenne. Il n’est en général pas possible dans ce cas de garantir la netteté, mais il est important d’optimiser fréquemment et donc de choisir un nombre d’échantillons élevé. O ~ 1 : L’objet et la profondeur de champ coïncident sensiblement l’un avec l’autre, le nombre d’échantillons peut rester moyen, c’est-à-dire proche du calcul précédent, à savoir IxDoFTotale/DoFMoyenne. O « 1 : L’objet est très petit en comparaison de la profondeur de champ. Dans ce cas, il n’est pas nécessaire de régler le focus fréquemment. On peut choisir un nombre d’échantillons NbEchantillons plus faible.
Dans l’exemple décrit ici, on normalise ensuite la commande de focus.
Par souci de simplification des écritures, on définit que RegFocus évolue entre : 0, qui correspond à un réglage minimal du focus et une distance de netteté de
DistanceFocusMin pour le plan net proche, et 100, qui correspond à un réglage maximal du focus et une distance de netteté de
DistanceFocusMax pour le plan net lointain PNL.
On définit enfin la loi DoF en fonction du réglage de focus RegFocus : DoF(RegFocus) = DistanceFocusLoin (RegFocus) - DistanceFocusProche(RegFocus)
Dans la suite, RegFocus et RegFocus’ sont compris dans l’intervalle [0,100] et les lois TFProche et TFLoin prennent en compte cette normalisation.
Ce sont ces lois et ces relations entre les différents paramètres qu’on cherche à déterminer dans le cadre de la présente invention.
Ainsi, sur le plan pratique, le système de projection mapping 200 selon la présente invention intègre un dispositif informatique 100 comprenant des moyens informatiques pour réaliser le réglage dynamique de la netteté de l’image projetée sur l’objet O.
Dans cet exemple, on détermine en temps réel la pose de l’objet O par rapport au projecteur PV. Cette pose de l’objet correspond ici à la position et l’orientation de l’objet dans le repère du projecteur.
Cette pose est déterminée lors d’une étape préalable SO.
De cette pose, on peut extraire la distance Dz qui correspond à la distance entre le projecteur PV et le centre de l’objet O le long de l’axe optique A.
Cette distance est illustrée en figure 4.
Dans l’exemple décrit ici, on détermine une bande de netteté souhaitée qui correspond aux distances minimale, ici DzProche, et maximales, DzLoin ou DzLoin’, entre lesquelles l’image projetée doit être nette.
On appelle DzProche la distance la plus faible entre l’objet O et le projecteur PV (c’est-à-dire la distance au plan orthogonal à l’axe optique A du projecteur PV qui contient le point le plus proche de l’objet O).
On parle également dans la présente demande de première distance.
On appelle :
DzLoin la distance au plan contenant le point le plus loin du projecteur, et DzLoin ’ la distance au plan contenant le point le plus loin du projecteur visible du projecteur (c’est-à-dire éclairé par lui).
On parle également dans la présente demande de deuxième distance.
Dans la suite, on utilise DzLoin ou DzLoin ’ indifféremment.
Il est en effet possible de calculer si un point de l’objet O est « visible » du projecteur PV, c’est-à-dire éclairé par lui. L’homme du métier comprendra qu’il n’est pas nécessairement utile d’optimiser le focus RegFocus pour des points de l’objet O non éclairés par le projecteur PV. D’autre part, on notera que DzProche correspond toujours à un point « visible » du projecteur PV, sauf en cas d’occlusion par un objet tiers, ce qui importe peu dans le cadre de cette invention.
Ces distances sont illustrées en figure 4 et 5.
La détermination de ces distances DzProche, DzLoin et DzLoin’ est réalisée lors d’une étape SI par un module informatique 10 intégré dans le dispositif 100.
Premier cas de figure : utilisation d’un modèle 3D de l’objet
Il est d’usage dans les situations de mapping vidéo de connaître le modèle 3D de l’objet O. On peut par exemple penser à des applications dans le domaine de l’architecture ou du marketing.
Lorsque l’objet ou le projecteur peuvent être mobiles l’un par rapport à l’autre, il est alors possible de déterminer la pose de l’objet O dans le repère du projecteur en utilisant un capteur de position (caméra, capteur ultrasons, magnétique, etc.).
Un tel capteur porte ici la référence 110.
Ensuite, par des moyens informatiques adaptés, il est possible de positionner le modèle 3D de l’objet O dans le repère du projecteur pour calculer DzProche ainsi que DzLoin (et/ou DzLoin’).
Le module informatique 10 est configuré pour réaliser ces calculs. L’homme du métier comprendra ici que les techniques de calcul utilisées ici sont similaires à celles de la synthèse d’image : on peut notamment créer un « z-buffer » ou carte de profondeur par rendu de l’objet, puis considérer ses valeurs minimum et maximum.
Deuxième cas défiguré : carte des distances
Alternativement, on peut utiliser un capteur, noté 120, de type profondeur : « temps de vol » (Kinect, télémètre, caméra de profondeur).
Un tel capteur 120 est intégré dans le système de mapping vidéo 200.
Ce capteur 120 fonctionne de façon similaire à une caméra mais fournit une carte de distances en chaque point du capteur.
Dans ce cas, le capteur 120 est positionné de façon connue et la carte des distances obtenue peut être transformée afin d’être exploitable dans le repère du projecteur. Par un procédé classique de reconnaissance de forme ou d’image, on peut filtrer les données du capteur 120 pour ne considérer que l’objet O, et ignorer ou inclure le reste de la scène, selon l’application souhaitée.
Le module 10 peut alors déterminer DzProche, DzLoin et DzLoin ’ en utilisant la carte des distances du capteur.
Dans un cas comme dans l’autre, on connaît les valeurs DzProche, DzLoin et DzLoin’.
Dans l’exemple décrit ici, l’objectif est de projeter sur l’objet O une image nette entre les distances DzProche et DzLoin’. L’objectif dans le cadre de la présente invention devient alors de faire coïncider les valeurs [DzProche, DzLoin’] et [DistanceFocusProche, DistanceFocusLoin] ; idéalement, on notera qu’il est préférable que le segment [DzProche, DzLoin’] est inclus dans le segment [DistanceFocusProche, DistanceFocusLoin] (voir figures 6 et 7).
On cherche donc ici à asservir la commande de focus RegFocus du projecteur PV pour maximiser cette zone de netteté de l’image sur l’objet O.
Le concept sous-jacent à la présente invention est ici de maximiser le recouvrement des bandes de netteté souhaitées et réelles.
Le Demandeur observe que différents algorithmes de maximisation pourront être envisagés dans le cadre de la présente invention.
Un exemple d’algorithme pourra être décrit ici :
Notons DoFObjet la profondeur de champ souhaitée sur l’objet O.
La loi de commande pour obtenir cette profondeur de champ se calcule de la façon suivante :
DoFObjet= DzLoin ’ - DzProche
Dans cet exemple, connaissant la valeur de DzProche, début de l’objet, on détermine la valeur correspondante de RegFocus pour ajuster la DistanceFocusMinimum à DzProche.
Puis, pour cette valeur de RegFocus, l’algorithme détermine DistanceFocusMax.
En fonction de cette valeur, on sait si la totalité de l’image projetée sur l’objet O est nette ou non.
En fonction du recouvrement, l’algorithme décide de conserver ou non cette valeur.
Cet ajustement peut être appliqué pendant le mouvement de l’objet O ou du projecteur PV pour assurer un focus continu pendant l’usage.
Dans un exemple particulier, il est également possible de prévoir un seuillage à appliquer lors de l’asservissement pour limiter les corrections de focus trop fréquentes.
Le traitement S2 au cours de laquelle on détermine la loi de commande du focus RegFocus est réalisé en temps réel par un module informatique 20, tel que par exemple un calculateur, qui est configuré pour mettre en œuvre l’algorithme de calcul ci-dessus.
Ensuite, en fonction de cette loi de commande, il est prévu des moyens de commande 30 configurés pour asservir lors d’une étape S3 la commande de la lentille LP et permettre son réglage en fonction de RegFocus.
Il peut s’agir de moyens mécanique tels que des moyens de motorisation. Bien évidemment, d’autres modes de réalisation sont envisageables.
Ainsi, la présente invention permet d’exploiter les informations de calibration et/ou de captation de la pose pour asservir le focus de la lentille du projecteur afin de maintenir l’image nette sur l’objet pendant le mouvement relatif de l’objet par rapport au projecteur vidéo.
Il devra être observé que cette description détaillée porte sur un exemple de réalisation particulier de la présente invention, mais qu’en aucun cas cette description ne revêt un quelconque caractère limitatif à l’objet de l’invention ; bien au contraire, elle a pour objectif d’ôter toute éventuelle imprécision ou toute mauvaise interprétation des revendications qui suivent.
Il devra également être observé que les signes de références mis entre parenthèses dans les revendications qui suivent ne présentent en aucun cas un caractère limitatif ; ces signes ont pour seul but d’améliorer l’intelligibilité et la compréhension des revendications qui suivent ainsi que la portée de la protection recherchée.

Claims (15)

  1. REVENDICATIONS
    1. Procédé de réglage dynamique de la netteté d’au moins une image projetée sur un objet (O) par un projecteur vidéo (PV), ledit procédé mis en œuvre par des moyens informatiques comprenant les étapes suivantes : une étape de détermination (SI) au cours de laquelle on détermine une première distance (DzProche) correspondant à la plus courte distance entre ledit objet (O) et le projecteur (PV) de manière à définir une bande de netteté dans laquelle on souhaite que ladite au moins une image projetée soit nette, une étape de traitement (S2) au cours de laquelle on détermine une loi de commande du focus apte à maximiser la netteté de ladite au moins une image projetée sur l’objet (O) par ledit projecteur (PV) en cherchant un réglage (RegFocus) de la position des moyens optiques de projection (LP) du projecteur (PV) par rapport à la source lumineuse, ou focus, permettant d’approximer la bande de netteté souhaitée de manière à maintenir nette ladite au moins une image projetée sur ledit objet (O).
  2. 2. Procédé selon la revendication 1, dans lequel, lors de l’étape de traitement (S2), on calcule, en fonction de la première distance {DzProche), la position la plus courte {Distance Focus P roche) à laquelle les moyens optiques de projection (LP) du projecteur (PV) peuvent être réglés par rapport à la source lumineuse pour projeter sur l’objet (O) une image nette.
  3. 3. Procédé selon la revendication 1 ou 2, dans lequel, lors de l’étape de détermination (SI), on détermine une deuxième distance {Dzloin, DzLoin’) correspondant à la plus grande distance entre ledit objet (O) et ledit projecteur (PV).
  4. 4. Procédé selon la revendication 3, dans lequel la deuxième distance {Dzloin, DzLoin’) correspond à la distance entre le projecteur (PV) et le point de l’objet (O) le plus éloigné du projecteur (PV) sur lequel ladite au moins une image est projetée.
  5. 5. Procédé selon l’une des revendications 3 ou 4, dans lequel, lors de l’étape de traitement (S2), on calcule en fonction de la deuxième distance (DzLoin) la position la plus lointaine {DistanceFocusLoin) à laquelle les moyens optiques de projection (LP) du projecteur (PV) peuvent être réglés par rapport à la source lumineuse pour projeter sur ledit objet (O) une image nette.
  6. 6. Procédé selon l’une quelconque des revendications précédentes, comprenant une étape de réglage (S3) au cours de laquelle on règle le focus (RegFocus) par asservissement des moyens optiques de projection(LP) en fonction de ladite loi de conunande déterminée lors de l’étape de traitement (S2).
  7. 7. Procédé selon la revendication 6, dans lequel le réglage du focus est réalisé par une motorisation des moyens optiques de projection(LP).
  8. 8. Procédé selon l’une quelconque des revendications précédentes, dans lequel, lors de l’étape de détermination (SI), les première et/ou deuxième distances (DzProche, DzLoin, DzLoin’) sont obtenues à l’aide d’un capteur de profondeur (120) apte à fournir une carte des distances de l’objet dans le repère 3D du projecteur.
  9. 9. Procédé selon l’une quelconque des revendications 1 à 7, dans lequel on connaît un modèle 3D dudit objet, et dans lequel lors d’une étape préalable (SO) on détermine à l’aide d’un capteur adapté (120) la pose de l’objet (O) dans le repère 3D du projecteur (PV).
  10. 10. Procédé selon la revendication 9, dans lequel, lors de l’étape de détermination (SI), les première et deuxième distances {DzProche, DzLoin, DzLoin’) sont calculées en fonction dudit modèle 3D de l’objet (O) et de ladite pose.
  11. 11. Programme d’ordinateur comportant des instructions adaptées pour l’exécution des étapes du procédé selon l’une quelconque des revendications 1 à 10 lorsque ledit programme d’ordinateur est exécuté par au moins un processeur.
  12. 12. Support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instmctions pour l’exécution des étapes du procédé selon l’une quelconque des revendications 1 à 10.
  13. 13. Dispositif informatique (100) de réglage dynamique de la netteté d’au moins une image projetée sur un objet (O) par un projecteur vidéo (PV), ledit dispositif (100) comprenant : une module informatique de détermination (10) configuré pour déterminer une première distance {DzProche) correspondant à la plus courte distance entre ledit objet (O) et ledit projecteur (PV) de manière à définir une bande de netteté dans laquelle on souhaite que ladite au moins une image projetée soit nette, un module informatique de traitement (20) configuré pour déterminer une loi de commande du focus apte à maximiser la netteté de ladite au moins une image projetée sur l’objet (O) par ledit projecteur (PV) en cherchant un réglage (RegFocus) de la position des moyens optiques de projection(LP) du projecteur (PV) par rapport à la source lumineuse, ou focus, permettant d’approximer la bande de netteté souhaitée de manière à maintenir nette ladite au moins une image projetée sur ledit objet (O).
  14. 14. Dispositif selon la revendication 13 comprenant des moyens informatiques configurés pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 2 à 10.
  15. 15. Système de mapping vidéo (200) comprenant : un projecteur vidéo (PV) apte à projeter au moins une image sur un objet (O), et un dispositif informatique (100) selon la revendication 13 ou 14 configuré pour régler dynamiquement la netteté de ladite au moins une image projetée sur ledit objet (O) par ledit projecteur vidéo (PV).
FR1652012A 2016-03-10 2016-03-10 Reglage dynamique de la nettete d'au moins une image projetee sur un objet Expired - Fee Related FR3048786B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1652012A FR3048786B1 (fr) 2016-03-10 2016-03-10 Reglage dynamique de la nettete d'au moins une image projetee sur un objet

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1652012 2016-03-10
FR1652012A FR3048786B1 (fr) 2016-03-10 2016-03-10 Reglage dynamique de la nettete d'au moins une image projetee sur un objet

Publications (2)

Publication Number Publication Date
FR3048786A1 true FR3048786A1 (fr) 2017-09-15
FR3048786B1 FR3048786B1 (fr) 2018-04-06

Family

ID=55759870

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1652012A Expired - Fee Related FR3048786B1 (fr) 2016-03-10 2016-03-10 Reglage dynamique de la nettete d'au moins une image projetee sur un objet

Country Status (1)

Country Link
FR (1) FR3048786B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3771595A1 (fr) * 2019-07-30 2021-02-03 Coretronic Corporation Dispositif de projection et son procédé de commande, véhicule le comprenant

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0615637A1 (fr) * 1991-10-11 1994-09-21 The Walt Disney Company Appareil et procede de projection sur un objet tridimensionnel
US20150042964A1 (en) * 2012-03-07 2015-02-12 Seiko Epson Corporation Projector and control method for the projector
WO2015137341A1 (fr) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 Dispositif de projection de lumière et procédé de projection de lumière

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0615637A1 (fr) * 1991-10-11 1994-09-21 The Walt Disney Company Appareil et procede de projection sur un objet tridimensionnel
US20150042964A1 (en) * 2012-03-07 2015-02-12 Seiko Epson Corporation Projector and control method for the projector
WO2015137341A1 (fr) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 Dispositif de projection de lumière et procédé de projection de lumière

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3771595A1 (fr) * 2019-07-30 2021-02-03 Coretronic Corporation Dispositif de projection et son procédé de commande, véhicule le comprenant
US11012669B2 (en) 2019-07-30 2021-05-18 Coretronic Corporation Projection device and control method thereof

Also Published As

Publication number Publication date
FR3048786B1 (fr) 2018-04-06

Similar Documents

Publication Publication Date Title
EP1386480B1 (fr) Procede de capture et d'affichage d'une image panoramique numerique a resolution variable
EP1421442B1 (fr) Procede de capture d'une image panoramique au moyen d'un capteur d'image de forme rectangulaire
JP5871862B2 (ja) 3d深度情報に基づいたイメージぼかし
EP2119223B1 (fr) Procede de commande a partir d'un signal oculaire volontaire, notamment pour une prise de vues
FR2984057A1 (fr) Systeme de tournage de film video
FR3027144A1 (fr) Procede et dispositif de determination de mouvement entre des images video successives
EP3473000B1 (fr) Procédé et système de prise de vues a l'aide d'un capteur virtuel
EP3008693A1 (fr) Systemes de reperage de la position de la camera de tournage pour le tournage de films video
FR3048786A1 (fr) Reglage dynamique de la nettete d'au moins une image projetee sur un objet
FR3005188A1 (fr) Suivi visuel d'objet
FR2989790A1 (fr) Dispositif de visualisation adapte a fournir un champ visuel etendu.
EP3070643A1 (fr) Procédé et système de reconnaissance d'objets par analyse de signaux d'image numérique d'une scène
WO2022140658A2 (fr) Lunettes de convergence des mondes réel et virtuel pour dispositifs de réalité augmentée et de réalité virtuelle
EP1702472B1 (fr) Procede et systeme de determination du deplacement d un pixe l, et support d enregistrement pour la mise en oeuvre du pro cede
CA2954908A1 (fr) Dispositif de detection de mouvement
FR3063409A1 (fr) Procede de pilotage d'une camera ptz, produit programme d'ordinateur et dispositif de pilotage associes
FR3055764A1 (fr) Procede de controle de la detection en temps reel d'une scene par un appareil de communication sans fil, par exemple un telephone mobile cellulaire, et appareil correspondant.
EP3070505A1 (fr) Procede et systeme de mise au point automatique d'une camera
CA3105372A1 (fr) Traitement d'un bruit impulsionnel dans une sequence video
CA2955368C (fr) Procede et dispositif de traitement de mouvements de hautes frequences dans un systeme optronique
EP3072110B1 (fr) Procédé d'estimation du mouvement d'un objet
US20220201273A1 (en) Reverse pass-through glasses for augmented reality and virtual reality devices
FR2909778A1 (fr) Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques.
FR2962871A3 (fr) Acquisition d'image par synthese progressive
FR2964203A1 (fr) Acquisition d'image par synthese progressive

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170915

TP Transmission of property

Owner name: SMARTPIXELS, FR

Effective date: 20171006

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 5

ST Notification of lapse

Effective date: 20211105