FR3067842A1 - Procede d'application de texture en realite augmentee, systeme et kits correspondants - Google Patents

Procede d'application de texture en realite augmentee, systeme et kits correspondants Download PDF

Info

Publication number
FR3067842A1
FR3067842A1 FR1755538A FR1755538A FR3067842A1 FR 3067842 A1 FR3067842 A1 FR 3067842A1 FR 1755538 A FR1755538 A FR 1755538A FR 1755538 A FR1755538 A FR 1755538A FR 3067842 A1 FR3067842 A1 FR 3067842A1
Authority
FR
France
Prior art keywords
marking
real
world
dimensional virtual
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1755538A
Other languages
English (en)
Other versions
FR3067842B1 (fr
Inventor
Franck Rolion
Etienne Roudaut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BIC SA
Original Assignee
BIC SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BIC SA filed Critical BIC SA
Priority to FR1755538A priority Critical patent/FR3067842B1/fr
Priority to US16/622,775 priority patent/US11727647B2/en
Priority to PCT/FR2018/051457 priority patent/WO2018234677A1/fr
Priority to EP18737955.7A priority patent/EP3642803A1/fr
Publication of FR3067842A1 publication Critical patent/FR3067842A1/fr
Application granted granted Critical
Publication of FR3067842B1 publication Critical patent/FR3067842B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Procédé d'application de texture en réalité augmentée comprenant une acquisition d'une image du monde réel sur laquelle un objet réel (62) et au moins une portion d'un marquage (63) lié à l'objet réel sont visibles, une détection du marquage, un recalage d'un monde virtuel par rapport au monde réel à partir de la détection du marquage, un placement d'un objet virtuel tridimensionnel de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel, une application d'une texture (67) sur l'objet virtuel tridimensionnel, et un affichage d'au moins la texture appliquée à l'objet virtuel tridimensionnel. L'invention concerne également un système pouvant mettre en oeuvre le procédé et un kit contenant notamment ledit marquage.

Description

Arrière-plan de l'invention
L'invention se rapporte au domaine général de la réalité augmentée, et plus précisément à l'application de textures en réalité augmentée.
La réalité augmentée est une technologie pouvant consister à superposer éventuellement en temps réel des images virtuelles, ou des informations complémentaires, à des images issues du monde réel.
Par exemple, la réalité augmentée permet l'affichage d'objets virtuels de sorte qu'ils semblent apparaître dans le monde réel. Cela résulte de l'utilisation d'un module d'affichage tel qu'un écran où l'on pourra superposer une image d'un objet virtuel sur une image du monde réel (acquise par exemple par une caméra). Alternativement, on peut utiliser un module d'affichage tel que des lunettes de réalité augmentée telles que des lunettes « Microsoft Hololens » (marque déposée) pour afficher un objet virtuel que l'utilisateur verra comme placé dans le monde réel.
Un exemple d'application de la réalité augmentée est la visualisation d'un meuble virtuel agencé de manière à être vu par un utilisateur à un emplacement dans une pièce.
Les techniques actuelles de réalité augmentée ne permettent que de visualiser des objets, et elles ne permettent pas de mettre en œuvre une prévisualisation qui facilitera suffisamment, pour un utilisateur, l'action sur un objet réel.
Il existe donc un besoin pour de nouvelles applications en réalité augmentée.
L'invention vise notamment à résoudre ces inconvénients.
Objet et résumé de l'invention
La présente invention répond à ce besoin en proposant un procédé d'application de texture en réalité augmentée comprenant :
- une acquisition, par un module d'acquisition d'image, d'une image du monde réel sur laquelle un objet réel et au moins une portion d'un marquage lié à l'objet réel sont visibles,
- une détection de ladite au moins une portion du marquage dans ladite image du monde réel,
- un recalage d'un monde virtuel par rapport au monde réel à partir de la détection de ladite au moins une portion du marquage,
- un placement, dans le monde virtuel recalé, d'un objet virtuel tridimensionnel de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel,
- une application d'une texture sur l'objet virtuel tridimensionnel,
- un affichage d'au moins la texture appliquée à l'objet virtuel tridimensionnel, l'affichage étant réalisé depuis un point de vue dans le monde virtuel correspondant à la position du module d'acquisition d'image dans le monde réel.
Le monde réel mentionné ci-dessus vise l'espace tridimensionnel des utilisateurs.
Le monde virtuel vise quant à lui un espace tridimensionnel qui n'existe que numériquement. Cet espace virtuel peut être associé à un repère, par exemple orthonormé tridimensionnel. Aussi, l'espace virtuel peut être affiché sur un module d'affichage (par exemple un écran ou des lunettes de réalité augmentée) depuis un point de vue choisi en utilisant les techniques conventionnelles de l'imagerie tridimensionnelle bien connues de l'homme du métier.
L'étape de recalage (ou « registration » en langue anglaise) d'un monde virtuel vise à aligner le monde virtuel et le monde réel, de sorte qu'un objet affiché apparaisse en un emplacement souhaité, voire avec une orientation et une taille souhaitée.
On peut noter que la portion de marquage visible permet de mettre en œuvre cette étape de recalage. La portion de marquage visible peut permettre de déterminer une orientation du marquage et également une dimension (par exemple une distance entre deux éléments du marquage). Dès lors, il est possible de considérer que la portion de marquage visible est associée à un repère du monde réel (par exemple un repère orthonormé), et un repère virtuel sera élaboré sur la base du repère du monde réel. Le repère virtuel ainsi élaboré permettra l'affichage d'un objet virtuel de sorte qu'il apparaisse en un emplacement souhaité (par exemple une fois superposé avec une image du monde réel.
Par exemple, si un point de la portion de marquage visible est choisi comme formant l'origine d'un repère du monde réel, alors un point d'un objet virtuel destiné à être placé à l'origine du repère du monde virtuel sera affiché comme s'il était présent à l'origine du repère du monde réel et donc sur le marquage.
L'application de texture utilise des techniques généralement désignées par l'homme du métier par l'expression anglo-saxonne « texture mapping ».
L'homme du métier sait notamment appliquer des textures sur des objets virtuels tridimensionnels tels que des maillages tridimensionnels (« mesh » en langue anglaise).
On notera que dès lors que l'objet virtuel tridimensionnel choisi a une forme analogue à celle de l'objet réel, la texture affichée sera affichée comme si elle était appliquée sur l'objet réel observé depuis le module d'acquisition d'image. Par exemple, l'objet virtuel tridimensionnel peut être choisi en tenant compte de l'objet réel.
Ceci peut notamment permettre de faciliter la prévisualisation d'un dessin correspondant à la texture à réaliser sur l'objet réel, et cela peut également permettre de faciliter une étape de réalisation d'un dessin correspondant à la texture sur l'objet réel.
En fait, le procédé peut comporter, postérieurement à ladite étape d'affichage, une étape de réalisation d'un dessin sur l'objet réel, ce dessin pouvant correspondre à la texture.
Par l'expression « en réalité augmentée », on entend « de sorte qu'un utilisateur voit une superposition d'un élément virtuel (ici au moins la texture) sur une image du monde réel (par exemple qui est soit vue directement par l'utilisateur soit affichée sur un module d'affichage avec la texture) ».
On peut noter que le procédé étant un procédé d'application de texture en réalité augmentée, il est implicite qu'au moyen de l'affichage de la texture, un observateur pourra observer la texture comme superposée sur l'objet réel.
A titre indicatif, si l'étape d'affichage est mise en œuvre au moyen d'un écran, l'image acquise pourra être affichée en même temps que la texture.
Par exemple, et selon un mode particulier de mise en œuvre, le procédé comprend en outre un affichage de ladite image du monde réel, ladite texture appliquée à l'objet virtuel tridimensionnel étant affichée en surimposition sur ladite image du monde réel affiché.
Ce mode particulier de mise en œuvre est particulièrement avantageux lorsque l'étape d'affichage est mise en œuvre au moyen d'un écran. La texture affichée apparaîtra comme si elle est présente sur l'objet réel, dans la mesure où l'objet virtuel tridimensionnel est choisi de manière à correspondre à l'objet réel.
L'invention n'est néanmoins nullement limitée à l'affichage de l'image acquise, et l'on peut également obtenir une application de texture en réalité augmentée sans afficher l'image acquise, par exemple en utilisant un affichage tel que des lunettes de réalité augmentée à travers lesquelles un utilisateur verra la texture et le monde réel directement.
Selon un mode particulier de mise en œuvre, l'objet virtuel tridimensionnel est choisi dans une bibliothèque d'objets virtuels tridimensionnels.
Ainsi, un utilisateur peut choisir un objet virtuel qui aura la forme la plus proche de celle de l'objet réel. Les objets virtuels tridimensionnels de la bibliothèque d'objets virtuels tridimensionnels peuvent être des maillages bien connus de l'homme du métier, ou encore des formes tridimensionnelles associées à des paramètres. A titre indicatif, une forme tridimensionnelle cylindrique à base circulaire peut être associée à un paramètre de diamètre et un paramètre de hauteur.
Selon un mode particulier de mise en œuvre, le procédé comprend une étape préalable d'ajustement de l'objet virtuel tridimensionnel.
L'étape préalable d'ajustement peut être mise en œuvre après une mise en œuvre préalable de certaines des étapes du procédé de manière à placer un objet virtuel dans le monde virtuel.
L'étape préalable d'ajustement peut comporter l'affichage de l'objet virtuel tridimensionnel, et, préférentiellement si l'on utilise un écran pour l'affichage, l'affichage d'une image du monde réel acquise. L'affichage de l'objet virtuel tridimensionnel peut être mis en œuvre en affichant un objet virtuel tridimensionnel partiellement opaque de sorte que l'on peut observer à la fois l'objet réel et l'objet virtuel tridimensionnel. Si l'objet virtuel tridimensionnel n'est pas parfaitement superposé à l'objet réel, l'utilisateur pourra aisément observer les écarts entre l'objet virtuel tridimensionnel et l'objet réel.
Cet ajustement peut comprendre un déplacement, dans le monde virtuel, de l'objet virtuel tridimensionnel, ou encore une déformation de l'objet virtuel tridimensionnel dans le monde virtuel.
Selon un mode particulier de mise en œuvre, l'étape d'ajustement est mise en œuvre au moyen d'une réception d'une commande d'un utilisateur.
A titre indicatif, cette étape peut être mise en œuvre au moyen d'une interface pour l'utilisateur.
Selon un mode particulier de mise en œuvre, la détection de ladite au moins une portion de marquage comprend la détection d'un nombre prédéfini de points particuliers du marquage.
Selon un mode particulier de mise en œuvre, le nombre prédéfini de points particuliers est 3, ou compris entre 3 et 20, ou compris entre 20 et 50, ou encore préférentiellement compris entre 50 et 100 voire supérieur à 50.
Les points particuliers peuvent être des nœuds visuels. Un nœud visuel est généralement, pour l'homme du métier, une cassure d'une ligne ou l'extrémité d'une ligne. Selon un mode particulier de mise en œuvre, le marquage est un motif non-répétitif présentant un taux de contraste élevé voire noir et blanc.
A titre indicatif, si le marquage est en niveaux de gris, et que l'on associe la couleur blanche à une intensité de noir de 0% et la couleur noir à une intensité de noir de 100%, alors on utilisera préférentiellement un marquage avec des éléments présentant une différence d'intensité de noir d'au moins 70 points, ce qui correspond à un taux de contraste élevé (par exemple on peut utiliser un gris à 15% de noir et un gris à 85 % de noir, ou un blanc à 0% de noir et un gris à 70% de noir).
On peut également utiliser un motif coloré avec des couleurs associés à des intensités de noir séparés de 70 points (par exemple un jaune clair à 10% de noir et un bleu foncé à 80% de noir).
Selon un mode particulier de mise en œuvre, on applique la texture sur l'objet virtuel tridimensionnel dans une zone distincte de celle comprenant le marquage dans le monde réel.
Ce mode particulier de mise en œuvre facilite la mise en œuvre d'une étape ultérieure de dessin puisque le marquage et ses éléments ne gênent pas cette étape.
On peut noter que par distinct, on entend une zone espacée du marquage par au moins une distance de l'ordre d'un centimètre.
Selon un mode particulier de mise en œuvre, dans lequel la texture est appliquée à une portion prédéfinie de l'objet virtuel tridimensionnel, par exemple en un emplacement choisi par l'utilisateur.
Selon un mode particulier de mise en œuvre, au moins une portion d'un marquage supplémentaire lié à l'objet réel est visible sur ladite image du monde réel, le procédé comprenant en outre :
- une détection de ladite au moins une portion du marquage supplémentaire dans ladite image du monde réel,
- un ajustement de l'objet virtuel tridimensionnel à partir de la détection de ladite au moins une portion du marquage supplémentaire.
L'utilisation de deux portions de marquage (par exemple appartenant à deux marquages distincts) permet d'ajuster encore plus la connaissance de la position de l'objet réel et de ses déformations.
La présente invention propose également un procédé dans lequel :
- on lie un marquage et un objet réel,
- on met en œuvre le procédé tel que défini ci-avant au moyen du marquage et de l'objet réel.
Selon un mode particulier de mise en œuvre, le marquage est pourvu sur un support mobile, et on lie le support mobile du marquage à l'objet réel.
Selon un mode particulier de mise en œuvre, le support est flexible et comporte des moyens d'attache du support sur lui-même ou sur un objet.
Un support attaché sur lui-même autorise la formation d'une boucle qui entoure un objet.
Selon un mode particulier de mise en œuvre, lorsque le support est attaché sur lui-même et sur un objet réel, le marquage est visible tout autour de l'objet réel.
Ici, la boucle qui a été formée permet de faire tourner l'objet tout en permettant la détection d'une portion de marquage.
Selon un mode particulier de mise en œuvre, le support est rigide et comporte des moyens d'attache des moyens d'attache du support sur lui-même ou sur un objet
La présente invention propose également un système de réalité augmentée comprenant :
- un module d'acquisition d'images du monde réel,
- un module d'affichage,
- un processeur,
- une mémoire comprenant des instructions exécutables par le processeur pour :
- acquérir, par le module d'acquisition d'image, une image du monde réel sur laquelle un objet réel et au moins une portion d'un marquage lié à l'objet réel sont visibles,
- détecter ladite au moins une portion du marquage dans ladite image du monde réel,
- recaler un monde virtuel par rapport au monde réel à partir de la détection de ladite au moins une portion du marquage,
- placer, dans le monde virtuel recalé, d'un objet virtuel tridimensionnel de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel,
- appliquer une texture sur l'objet virtuel tridimensionnel,
- afficher sur le module d'affichage au moins la texture appliquée à l'objet virtuel tridimensionnel, l'affichage étant réalisé depuis un point de vue dans le monde virtuel correspondant à la position du module d'acquisition d'image dans le monde réel.
Ce système peut être configuré pour la mise en œuvre de chaque mode de mise en œuvre du procédé tel que défini ci-avant.
La présente invention propose également un programme d'ordinateur comportant des instructions pour l'exécution des étapes d'un procédé tel que défini ci-avant lorsque ledit programme est exécuté par un ordinateur.
A noter que les programme d'ordinateur mentionnés dans le présent exposé peuvent utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.
L'invention propose également un support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes d'un procédé de test tel que défini ci-avant.
Les supports d'enregistrement (ou d'information) mentionnés dans le présent exposé peuvent être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une disquette (floppy dise) ou un disque dur.
D'autre part, les supports d'enregistrement peuvent correspondre à un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, les supports d'enregistrement peuvent correspondre à un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
La présente invention propose également un kit comprenant une information pour obtenir un programme d'ordinateur tel que défini ciavant, et un support sur lequel est pourvu un marquage utilisable pour la mise en œuvre du procédé tel que défini ci-avant.
A titre indicatif, l'information pour obtenir le programme d'ordinateur peut être un lien hypertexte (une adresse internet), ou encore un marquage permettant d'obtenir un lien hypertexte tel qu'un QRCode.
La présente invention propose également un kit comprenant une information pour obtenir un programme d'ordinateur tel que défini ci9 avant, et un objet réel pourvu d'un marquage utilisable pour la mise en œuvre du procédé tel que défini ci-avant.
La présente invention propose également un kit comprenant une information pour obtenir un programme d'ordinateur tel que défini ciavant et un réceptacle pour recevoir un objet réel sur lequel est pourvu un marquage utilisable pour la mise en œuvre du procédé tel que défini ciavant lorsqu'un objet réel est reçu dans le réceptacle.
Brève description des dessins
D'autres caractéristiques et avantages de la présente invention ressortiront de la description faite ci-dessous, en référence aux dessins annexés qui en illustrent un exemple dépourvu de tout caractère limitatif.
Sur les figures :
- la figure 1 représente de façon schématique les étapes d'un procédé d'affichage en réalité augmentée selon un mode de mise en œuvre de l'invention,
- la figure 2 représente de façon schématique les étapes d'un ajustement d'un objet virtuel tridimensionnel,
- la figure 3 représente de façon schématique un système de réalité augmentée selon un mode de réalisation particulier de l'invention,
- les figures 4A à 4F représentent des kits et des éléments de kits selon des modes de réalisation de l'invention,
- la figure 5 représente une alternative aux kits des figures 4A à AF,
- les figures 6A, 6B, 6C, 6D, 6E, 6F, et 6G représentent schématiquement les étapes d'ajustement et d'affichage de texture sur un écran,
- la figure 7 est une vue d'une mise en œuvre d'un exemple de l'invention avec l'utilisateur représenté,
- la figure 8 est une variante dans laquelle on affiche la texture sur des lunettes de réalité augmentée, et
- les figures 9A et 9B sont des exemples illustrant l'utilisation de deux marquages.
Description détaillée d'un mode de réalisation
Nous allons maintenant décrire un procédé et un système conformément à un mode particulier de réalisation de l'invention.
Sur la figure 1, on a représenté de manière schématique les étapes d'un procédé d'application de texture en réalité augmentée.
Ce procédé peut être mis en œuvre par un terminal tel qu'un ordiphone (ou « smartphone »), une tablette tactile, ou des lunettes de réalité augmentée (par exemple Hololens, marque déposée). En fait, ce procédé peut être mis en œuvre par tout système équipé d'un module d'acquisition d'image (par exemple une caméra au dos d'un ordiphone), d'un module d'affichage (par exemple un écran d'ordiphone), et d'un processeur.
Dans ce procédé, la texture est un dessin que l'on souhaite visualiser comme si ce dessin avait été appliqué sur un objet réel, par exemple mais non exclusivement un objet tridimensionnel qui est différent d'une surface plane.
Dans une première étape E01, on ajuste un objet virtuel tridimensionnel dans un monde virtuel. Cette étape préliminaire sera décrite plus en détail ci-après en référence à la figure 2.
Dans une deuxième étape E02, on acquiert une image du monde réel sur laquelle un objet réel et au moins une portion d'un marquage lié à l'objet réel sont visibles.
Par « lié », on entend que le marquage est soit fixé sur l'objet réel, soit qu'il fait partie de l'objet réel (par exemple s'il a été imprimé dessus).
Comme on le conçoit, ce mode de mise en œuvre de l'invention s'adresse préférentiellement à des objets réels de faible dimension, par exemple des objets ayant des dimensions de l'ordre du mètre ou du décimètre. Aussi, l'objet réel peut être un corps humain ou une portion de corps humain.
En ce qui concerne le marquage, ce dernier doit être choisi pour permettre un recalage d'un monde virtuel par rapport au monde réel. Il est donc préférable qu'une pluralité de points particuliers de ce marquage puisse être détectée sur l'image acquise. La détection d'au moins une portion du marquage est mise en œuvre à l'étape E03.
On peut noter que le marquage peut être désigné par le vocable anglo-saxon « target ». Ce terme est notamment utilisé dans le contexte du kit de développement (« SDK : Software Development Kit » en langue anglaise) appelé Vuforia (marque déposée) et commercialisé par la société américaine PTC. En fait, le marquage peut être un « target » accepté par le kit de développement Vuforia pour la réalité augmentée, par exemple la version 6 datée du mois d'août 2016. A l'étape E04, on met en œuvre un recalage (ou « registration » en langue anglaise) d'un monde virtuel par rapport au monde réel à partir de la détection de la portion de marquage. Cette étape permet notamment de déterminer le point de vue du module d'acquisition d'image utilisé.
Un objet virtuel tridimensionnel 1 est ensuite obtenu. Cet objet pouvant avoir été choisi de manière à avoir la même forme que l'objet réel, ou au moins une forme qui s'en approche. Par exemple, si l'objet réel est une tasse, on peut choisir comme objet virtuel tridimensionnel un cylindre à base circulaire. Si l'objet réel est un avant-bras, on peut choisir comme objet virtuel tridimensionnel un cône.
Bien entendu, l'invention n'est nullement limitée à des formes tridimensionnelles canoniques et s'applique à toute forme tridimensionnelle. A titre indicatif, l'objet virtuel tridimensionnel peut être un maillage quelconque. Par exemple si l'objet réel est une tasse, et pour plus de précision, on pourra utiliser un maillage représentant une tasse avec une anse.
Dans le mode de mise en œuvre de la figure 1, l'objet virtuel tridimensionnel 1 est choisi dans une bibliothèque d'objets virtuels tridimensionnels 2. A titre indicatif, la bibliothèque d'objets virtuels tridimensionnels 2 peut être enregistrée dans une mémoire du système qui met en œuvre le procédé, ou cette bibliothèque 2 peut être stockée sur un serveur distant accessible par un réseau tel qu'internet.
L'objet virtuel 1 est placé dans le monde virtuel recalé à l'étape E05. Ce placement est mis en œuvre de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel.
En d'autres termes, si l'on affiche l'objet virtuel sur un affichage en réalité augmentée l'objet virtuel sera visualisé en lieu et place de l'objet réel. A cet effet, la position respective de l'objet de l'objet virtuel tridimensionnel par rapport à la portion de marquage détectée doit être prédéfinie. Cette position respective peut être mémorisée avec l'objet virtuel tridimensionnel, par exemple dans la bibliothèque 2.
En fait, chaque objet virtuel tridimensionnel peut avoir une position, une taille, et une orientation qui sont liés à une portion de marquage.
Ensuite, au cours de l'étape E06, on applique une texture 3 à l'objet virtuel tridimensionnel. La texture peut être un dessin choisi par l'utilisateur, par exemple un dessin que l'utilisateur souhaite visualiser sur l'objet réel.
Enfin, dans une étape E7, on affiche au moins la texture appliquée à l'objet virtuel tridimensionnel, cet affichage étant réalisé depuis un point de vue dans le monde virtuel correspondant à la position du module d'acquisition d'image dans le monde réel.
On peut noter que si on met en œuvre l'étape E07 sur un dispositif équipé d'un écran (par exemple un ordiphone ou une tablette tactile), il est préférable d'afficher également l'image du monde réel qui a été acquise. Cela n'est toutefois pas nécessaire si des lunettes de réalité augmentée sont utilisées, car l'affichage de la seule texture permettra à l'utilisateur de la voir appliquée à l'objet réel.
On peut noter que les étapes E02 à E07 peuvent être répétées lorsqu'une nouvelle image du monde réelle est acquise. Le traitement de la nouvelle image permettra d'obtenir un suivi de la portion de marquage (ou « tracking » en langue anglaise). On obtient ainsi un affichage en temps réel qui peut supporter les mouvements de caméra ou les mouvements de l'objet.
La figure 2 détaille les étapes d'un ajustement d'un objet virtuel tridimensionnel tel que mis en œuvre au cours de l'étape E01 décrite en référence à la figure 1.
Dans une première étape Eli, on acquiert une image du monde réel, dans une étape E12, on détecte au moins une portion du marquage, dans une étape E13, puis on place l'objet virtuel tridimensionnel 1 dans l'étape E14. Les étapes Eli, E12, E13, et E14 sont respectivement analogues aux étapes E02, E03, E04, et E05 décrites en référence à la figure 1.
Ensuite, on affiche l'objet virtuel tridimensionnel au cours de l'étape E15 (cet affichage peut comporter celui de l'image du monde réel acquise). On peut afficher l'objet virtuel tridimensionnel avec une opacité faible, de sorte qu'un utilisateur pourra aisément visualiser si l'objet virtuel tridimensionnel est bien superposé dans le monde virtuel à l'objet réel dans le monde réel.
Cet affichage est mis en œuvre du point de vue du module d'acquisition d'image utilisé pour acquérir l'image du monde réel.
Au cours d'une étape E16, on reçoit une commande d'un utilisateur pour ajuster l'objet virtuel tridimensionnel. Cet ajustement peut comprendre un déplacement, dans le monde virtuel, de l'objet virtuel tridimensionnel, ou encore une déformation de l'objet virtuel tridimensionnel dans le monde virtuel.
A titre indicatif, si l'objet virtuel tridimensionnel est un cylindre à base circulaire, on peut ajuster le rayon de ce cylindre au cours de cette étape E16.
Il est ensuite possible de répéter les étapes Eli à E16 s'il est estimé par un utilisateur que l'objet virtuel tridimensionnel n'est pas encore ajusté à l'objet réel. En fait, l'ajustement peut lui-même comporter un suivi (ou « tracking ») de la portion de marquage.
Si l'ajustement est estimé par un utilisateur comme étant acceptable, l'étape suivante E02 décrite en référence à la figure 1 peut être mise en œuvre.
On peut noter que l'étape E01 d'ajustement et ses sous étapes Eli à E16 peuvent être mises en œuvre à tout moment, et qu'elles peuvent être répétée plusieurs fois, en particulier après une ou plusieurs mises en œuvre des étapes E02 à E07 décrites en référence à la figure 1.
Sur la figure 3, on a représenté un système de réalité augmentée 30 selon un mode de réalisation particulier de l'invention. Ce système peut notamment mettre en œuvre les étapes du procédé décrit en référence aux figures 1 et 2.
Le système 30 comporte un module d'acquisition d'images 31 (par exemple une caméra), un module d'affichage 32 du type écran, un processeur 33, et une mémoire 34 (préférentiellement du type nonvolatile).
La mémoire 34 comporte ici des instructions de programme d'ordinateur 35 qui peuvent être exécutées par le processeur 33 du système.
Les instructions comprennent ici :
- une instruction 36A pour acquérir, par le module d'acquisition d'image 31, une image du monde réel sur laquelle un objet réel et au moins une portion d'un marquage lié à l'objet réel sont visibles,
- une instruction 36B pour détecter ladite au moins une portion du marquage dans ladite image du monde réel,
- une instruction 36C pour recaler un monde virtuel par rapport au monde réel à partir de la détection de ladite au moins une portion du marquage,
- une instruction 36D pour placer, dans le monde virtuel recalé, d'un objet virtuel tridimensionnel de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel,
- une instruction 36E pour appliquer d'une texture sur l'objet virtuel tridimensionnel,
- une instruction 36F pour afficher sur le module d'affichage 32 au moins la texture appliquée à l'objet virtuel tridimensionnel, l'affichage étant réalisé depuis un point de vue dans le monde virtuel correspondant à la position du module d'acquisition d'image dans le monde réel.
Sur la figure 4A, on a représenté un kit 40 selon un mode de réalisation de l'invention.
Ce kit comporte un marquage 41 pourvu sur un support 42, et une information 43 pour obtenir un programme d'ordinateur permettant la mise en œuvre d'un procédé d'affichage de texture en réalité augmentée selon un exemple de l'invention.
Ici, le marquage 41 est un motif non-répétitif avec un taux de contraste élevé voire noir et blanc t qui peut être détecté en utilisant le kit de développement Vuforia (marque déposée). On peut noter que les coins des polygones noirs ou blancs du marquage peuvent être des points détectés par exemple au cours de l'étape E03 décrite ci-avant dans laquelle on détecte une portion du marquage. Ces points peuvent également être désignés par l'homme du métier comme étant des nœuds visuels.
On peut noter que pour détecter une portion de marquage on peut détecter un nombre de points égal à 3, ou compris entre 3 et 20, ou compris entre 20 et 50, ou compris entre 50 et 100 pour déterminer une position du marquage et pouvoir mettre en œuvre l'étape de recalage.
Le support 42 est ici un support flexible, qui peut être plié pour entourer un objet. Le support 42 comporte ici des moyens d'attaches du support sur lui-même et plus particulièrement des plots 44 et des orifices 45. Ici, les plots 44 peuvent être insérés dans deux paires d'orifices 45 de sorte qu'attaché sur lui-même, on peut entourer des objets réels ayant différents diamètres.
Bien entendu, l'invention n'est nullement limitée à l'utilisation de plots et d'orifices, d'autre moyens d'attache pouvant être utilisés tels que des adhésifs (de la colle), du velcro (marque déposée), une boucle, une sangle autoblocante, etc. On peut noter qu'un motif non-répétitif comporte un ensemble de portions uniques, et la détection d'un nombre suffisant de points d'une portion du marquage permet de repérer la portion dans le marquage.
L'information 43 est ici du type QR-Code et sa lecture peut permettre de retrouver un lien hypertexte vers un programme d'ordinateur à télécharger, ou encore un lien hypertexte vers un catalogue de programmes d'ordinateur ou d'applications pour ordiphones ou tablettes graphique.
Pour utiliser le kit, on peut lier le marquage à un objet réel (en attachant le support sur lui-même), puis par exemple mettre en œuvre les étapes du procédé tel que décrit en référence à la figure 1.
Sur la figure 4B, on a représenté un autre kit 400 comprenant une pluralité de supports 420 pourvus de marquages 410. Le kit 400 comprend également des informations 430 pour permettre d'obtenir un programme d'ordinateur à télécharger pour mettre en œuvre le procédé tel que décrit ci-avant.
Aussi, le kit 400 comporte un réceptacle 460 pour recevoir un objet réel pour lequel on va mettre en œuvre le procédé, par exemple celui décrit en référence à la figure 1. Le réceptacle 460 comporte une portion concave 461 pour recevoir un objet ayant une forme sphérique ou ovoïde, et un marquage 462.
On comprend que lorsqu'un objet réel est reçu par le réceptacle 460, il ne bougera plus et sa position et son orientation seront connus dès lors que le marquage 462 est détecté.
D'autres types de réceptacles peuvent être utilisés, en particulier des réceptacles non symétriques ou avec des détrompeurs dans lesquels les objets réels sont reçus avec une orientation choisie.
Sur la figure 4C, on a représenté un autre exemple de moyens d'attache d'un support 420 pourvu d'un marquage 410. Dans cet exemple, la face du support opposée à celle comportant le marquage est munie d'une portion collante 450.
Sur la figure 4D, on a représenté l'étape dans laquelle on colle sur une surface 470 d'un objet réel le marquage 410 et son support 420 qui ont été représentés à la figure 4C, en utilisant la portion collante 450.
Sur la figure 4E, on a représenté le réceptacle 460 de la figure 4B avec un objet réel 463 (qui peut être compris dans un kit selon un aspect de l'invention). L'objet réel 463 a une forme ovoïde. On peut noter qu'en plaçant un objet réel dans le réceptacle 460, on lie le marquage du réceptacle avec l'objet réel.
Sur la figure 4F, on a représenté une variante du support pourvu d'un marquage. Ici, le support 420 est rigide, et il peut être attaché au moyen d'une portion aimantée 450' qui coopère avec une portion aimantée non visible sur la figure disposée sur la face du support opposée à celle pourvue du marquage. Alternativement, un système de pince peut permettre la fixation d'un support rigide.
Sur la figure 5, on a représenté une variante du kit illustré à la figure 4A. Plus précisément, dans l'exemple de la figure 5, on a représenté un kit 50 comprenant un objet réel 51 (ici un cube). Directement sur l'objet réel, on a placé un marquage 52 et une information 53 permettant de retrouver un programme d'ordinateur capable de mettre en œuvre les étapes d'un procédé selon un mode de mise en œuvre de l'invention.
Les figures 6A à 6G illustrent les étapes d'un procédé d'affichage de texture en réalité augmentée telles qu'un utilisateur peut les observer.
Sur la figure 6A, on a représenté un système 60 de type tablette tactile et qui comporte un écran 61. Bien que tous ses éléments n'aient pas été représentés sur la figure, le système 60 peut être analogue au système 30 décrit en référence à la figure 3. En particulier, le système 60 comporte une caméra au dos de la face comportant l'écran.
Ici, la caméra filme une scène en faisant l'acquisition d'images visibles sur l'écran 61. La scène filmée comporte un objet réel 62 (ici un cylindre), une portion d'un marquage 63 qui entoure le cylindre, et un support 64 sur lequel le cylindre est posé.
On peut mettre en œuvre une étape d'ajustement, et cette étape comporte notamment l'affichage d'un objet virtuel superposé à l'objet réel (étape E15 de la figure 2). Ainsi, sur la figure 6B, on a affiché un objet virtuel 65 qui apparaît comme sensiblement superposé à l'objet réel 62 sur l'écran 61. L'affichage de cet objet virtuel est mis en œuvre après la détection d'une portion de marquage sur l'image acquise, comme décrit en référence à la figure 2.
Il est à noter que sur la figure 6B, le cylindre virtuel tridimensionnel a un diamètre qui apparaît comme étant supérieur à celui de l'objet réel, et une hauteur qui apparaît également comme étant supérieure à celle de l'objet réel. Un utilisateur peut donc souhaiter modifier le diamètre et la hauteur de l'objet virtuel tridimensionnel. Ces modifications sont représentées par des flèches sur la figure 6C.
Sur la figure 6D, on a représenté le résultat de l'étape d'ajustement, avec un objet virtuel tridimensionnel 65 qui est bien superposé à l'objet réel dans l'image affichée sur l'écran 61.
Sur la figure 6E, on a représenté une texture 66 à appliquer sur l'objet virtuel tridimensionnel 65.
On peut noter que la texture est dans cet exemple une image bidimensionnelle. Tous les exemples décrits dans la présente demande peuvent utiliser des textures bidimensionnelles.
Sur cette figure 6E, on a également représenté la texture 67 appliquée à l'objet virtuel tridimensionnel 65. L'objet virtuel tridimensionnel 65 étant un cylindre, la texture apparaît à l'écran comme ayant été déformée pour épouser la forme du cylindre. La texture est placée en un emplacement prédéfini de l'objet virtuel tridimensionnel.
Le procédé peut ensuite comporter une étape de dessin sur l'objet réel 62. A cet effet, il n'est plus nécessaire d'afficher l'objet virtuel 67, comme illustré sur la figure 6F.
Sur la figure 6F, un utilisateur qui observe l'écran 60 peut utiliser un outil d'écriture 69 (par exemple un feutre) pour reproduire la texture sur l'objet réel 62. Le début du tracé est représenté par le trait 68 sur la figure. Bien entendu, l'image acquise par la caméra étant continuellement rafraîchie, l'utilisateur voit son tracé et la texture se superposer.
Ultérieurement, pour dessiner de manière plus aisée d'autres parties 68 de la texture 67, l'utilisateur peut tourner le support 64 et entraîner la rotation de l'objet réel 62 et du marquage 63. Ainsi, et comme illustré sur la figure 6G, une autre portion du marquage peut être détectée.
La nouvelle portion du marquage visible par la caméra permet tenir compte de la rotation de l'objet réel pour ensuite afficher une texture appliquée à un objet virtuel tridimensionnel qui a subi la même rotation. On notera que cela résulte de l'utilisation d'un marquage non-répétitif. Chaque portion du marquage est associée à une position particulière de l'objet réel dans le monde réel qui permet de mettre en œuvre un nouveau recalage. Dans tous les modes de mise en œuvre et de réalisation décrits dans la présente demande, chaque portion (une portion comprend par exemple un nombre prédéfini de points particuliers) de marquage peut être associée à une position particulière de l'objet réel dans le monde réel.
En fait, en traitant de nouvelles images acquises par la caméra, le procédé peut supporter les mouvements de l'objet et/ou de la caméra dès lors qu'une portion de marquage reste visible par la caméra.
Sur la figure 7, on a représenté un utilisateur U tenant un système 70 de type ordiphone muni d'une caméra CAM. Simultanément, l'utilisateur manipule un outil d'écriture 79 pour dessiner sur un cylindre 72 tout en regardant l'écran de l'ordiphone 70 sur lequel la texture est affichée. Cet exemple d'agencement peut avoir été utilisé pour la mise en œuvre du procédé illustré sur les figures 6A à 6G décrites ci-avant.
Sur la figure 8, on a représenté un exemple d'un mode de réalisation dans lequel des lunettes de réalité augmentée 80 sont utilisées. Ici, on observe un objet 82 (une casquette) sur lequel est fixé un marquage 83. Seule une texture 87 est affichée sur les lunettes, et cette texture représente une fleur. La texture 87 est déformée car ayant été appliquée à un objet virtuel tridimensionnel en forme de casquette. Plus précisément, la fleur étant destinée à être affichée comme si elle était entre la visière et la partie supérieure de la casquette, sa tige est affichée comme cassée.
Pour faciliter la compréhension de cette figure 8, on a également représenté en trait discontinu la fleur 87' qui pourrait être dessinée sur l'objet 82.
On notera que dans cet exemple, il n'est pas nécessaire d'afficher également l'image acquise par une caméra (qui n'a pas été représentée ici).
Les figures 9A et 9B illustrent l'utilisation de deux marquages 91 et 92 (soit un marquage et un marquage supplémentaire) qui entourent un objet cylindrique à base circulaire 90. Les deux marquages sont placés aux deux extrémités du cylindre 90.
Sur ces figures, on a également représenté par un maillage l'objet virtuel tridimensionnel superposé à l'objet réel, et la texture 93 appliquée à l'objet virtuel tridimensionnel. Sur la figure 9A, le maillage 94 est sensiblement rectiligne et il est correspond aux deux portions de marquage qui seront visibles sur l'image acquise. Sur ia figure 9B, on a effectué une torsion sur l'objet réel, ce qui a entraîné la rotation des marquages. Deux portions différentes de marquage sont alors détectées sur l'image acquise, et il est possible de mettre en œuvre un ajustement de l'objet virtuel tridimensionnel pour tenir compte de la position respective des deux marquages. Cela est représenté sur la figure 9B par un maillage déformé 94 et une texture 93 déformée.
Les modes de mise en œuvre et de réalisation décrits ci-avant permettent d'obtenir une prévisualisation d'un dessin sur un objet réel d'une manière qui permet de faciliter la réalisation d'un dessin sur l'objet réel.

Claims (21)

  1. REVENDICATIONS
    1. Procédé d'application de texture en réalité augmentée comprenant :
    - une acquisition (E02), par un module d'acquisition d'image, d'une image du monde réel sur laquelle un objet réel et au moins une portion d'un marquage lié à l'objet réel sont visibles,
    - une détection (E03) de ladite au moins une portion du marquage dans ladite image du monde réel,
    - un recalage (E04) d'un monde virtuel par rapport au monde réel à partir de la détection de ladite au moins une portion du marquage,
    - un placement (E05), dans le monde virtuel recalé, d'un objet virtuel tridimensionnel (1) de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel,
    - une application (E06) d'une texture sur l'objet virtuel tridimensionnel,
    - un affichage (E07) d'au moins la texture appliquée à l'objet virtuel tridimensionnel, l'affichage étant réalisé depuis un point de vue dans le monde virtuel correspondant à la position du module d'acquisition d'image dans le monde réel.
  2. 2. Procédé selon la revendication 1, dans lequel l'objet virtuel tridimensionnel (1) est choisi dans une bibliothèque (2) d'objets virtuels tridimensionnels.
  3. 3. Procédé selon la revendication 1 ou 2, comprenant en outre un affichage de ladite image du monde réel, ladite texture appliquée à l'objet virtuel tridimensionnel étant affichée en surimposition sur ladite image du monde réel affiché.
  4. 4. Procédé selon l'une des revendications 1 à 3, comprenant une étape préalable d'ajustement (E01) de l'objet virtuel tridimensionnel.
  5. 5. Procédé selon la revendication 4, dans lequel l'étape d'ajustement est mise en œuvre au moyen d'une réception (E16) d'une commande d'un utilisateur.
  6. 6. Procédé selon l'une des revendications 1 à 5, dans lequel la détection (E03) de ladite au moins une portion de marquage comprend la détection d'un nombre prédéfini de points particuliers du marquage.
  7. 7. Procédé selon l'une quelconque des revendications 1 à 6, dans lequel le nombre prédéfini de points particuliers est 3, ou compris entre 3 et 20, ou compris entre 20 et 50, ou compris entre 50 et 100, ou supérieur à 50.
  8. 8. Procédé selon l'une quelconque des revendications 1 à 7, dans lequel le marquage est un motif non-répétitif présentant un taux de contraste élevé voire noir et blanc .
  9. 9. Procédé selon l'une quelconque des revendications 1 à 8, dans lequel on applique la texture sur l'objet virtuel tridimensionnel dans une zone distincte de celle comprenant le marquage dans le monde réel.
  10. 10. Procédé selon l'une quelconque des revendications 1 à 9, dans lequel la texture est appliquée à une portion prédéfinie de l'objet virtuel tridimensionnel.
  11. 11. Procédé selon l'une quelconque des revendications 1 à 10, dans lequel au moins une portion d'un marquage supplémentaire lié à l'objet réel est visible sur ladite image du monde réel, le procédé comprenant en outre :
    - une détection de ladite au moins une portion du marquage supplémentaire dans ladite image du monde réel,
    - un ajustement de l'objet virtuel tridimensionnel à partir de la détection de ladite au moins une portion du marquage supplémentaire.
  12. 12. Procédé dans lequel :
    - on lie un marquage et un objet réel,
    - on met en œuvre le procédé selon l'une quelconque des revendications 1 à 11 au moyen du marquage et de l'objet réel.
  13. 13. Procédé selon la revendication 12, dans lequel le marquage (41) est pourvu sur un support mobile (42), et dans lequel on lie le support mobile du marquage à l'objet réel.
  14. 14. Procédé selon la revendication 12 ou 13, dans lequel le support est flexible (42) et comporte des moyens d'attache du support sur lui-même (44, 45) ou sur un objet.
  15. 15. Procédé selon la revendication 14, dans lequel lorsque le support est attaché sur lui-même et sur un objet réel, le marquage est visible tout autour de l'objet réel.
  16. 16. Procédé selon la revendication 12 ou 13, dans lequel le support est rigide et comporte des moyens d'attache des moyens d'attache du support sur lui-même ou sur un objet
  17. 17. Système de réalité augmentée comprenant :
    - un module (31) d'acquisition d'images du monde réel,
    - un module d'affichage (32),
    - un processeur (33),
    - une mémoire (34) comprenant des instructions (35) exécutables par le processeur pour :
    - acquérir (36A), par le module d'acquisition d'image, une image du monde réel sur laquelle un objet réel et au moins une portion d'un marquage lié à l'objet réel sont visibles,
    - détecter (36B) ladite au moins une portion du marquage dans ladite image du monde réel,
    - recaler (36C) un monde virtuel par rapport au monde réel à partir de la détection de ladite au moins une portion du marquage,
    - placer (36D), dans le monde virtuel recalé, d'un objet virtuel tridimensionnel de sorte que l'objet virtuel soit sensiblement superposé dans le monde virtuel à l'objet réel dans le monde réel,
    - appliquer (36E) d'une texture sur l'objet virtuel tridimensionnel,
    - afficher (36F) sur le module d'affichage au moins la texture appliquée à l'objet virtuel tridimensionnel, l'affichage étant réalisé depuis un point de vue dans le monde virtuel correspondant à la position du module d'acquisition d'image dans le monde réel.
  18. 18. Programme d'ordinateur comportant des instructions pour l'exécution des étapes d'un procédé selon l'une quelconque des revendications 1 à 16 lorsque ledit programme est exécuté par un ordinateur.
  19. 19. Kit comprenant une information (43) pour obtenir un programme d'ordinateur selon la revendication 18, et un support (42) sur lequel est pourvu un marquage (41) utilisable pour la mise en œuvre du procédé selon l'une quelconque des revendications 1 à 16.
  20. 20. Kit comprenant une information (53) pour obtenir un programme d'ordinateur selon la revendication 18, et un objet réel (51) pourvu d'un marquage (52) utilisable pour la mise en œuvre du procédé selon l'une quelconque des revendications 1 à 16.
    5
  21. 21. Kit comprenant une information pour obtenir un programme d'ordinateur selon la revendication 18 et un réceptacle pour recevoir un objet réel sur lequel est pourvu un marquage utilisable pour la mise en œuvre du procédé selon l'une quelconque des revendications 1 à 16 lorsqu'un objet réel est reçu dans le réceptacle.
FR1755538A 2017-06-19 2017-06-19 Procede d'application de texture en realite augmentee, systeme et kits correspondants Active FR3067842B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1755538A FR3067842B1 (fr) 2017-06-19 2017-06-19 Procede d'application de texture en realite augmentee, systeme et kits correspondants
US16/622,775 US11727647B2 (en) 2017-06-19 2018-06-19 Method and kit for applying texture in augmented reality
PCT/FR2018/051457 WO2018234677A1 (fr) 2017-06-19 2018-06-19 Procédé d'application de texture en réalité augmentée, système et kits correspondants
EP18737955.7A EP3642803A1 (fr) 2017-06-19 2018-06-19 Procédé d'application de texture en réalité augmentée, système et kits correspondants

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1755538A FR3067842B1 (fr) 2017-06-19 2017-06-19 Procede d'application de texture en realite augmentee, systeme et kits correspondants
FR1755538 2017-06-19

Publications (2)

Publication Number Publication Date
FR3067842A1 true FR3067842A1 (fr) 2018-12-21
FR3067842B1 FR3067842B1 (fr) 2020-09-25

Family

ID=60182648

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1755538A Active FR3067842B1 (fr) 2017-06-19 2017-06-19 Procede d'application de texture en realite augmentee, systeme et kits correspondants

Country Status (4)

Country Link
US (1) US11727647B2 (fr)
EP (1) EP3642803A1 (fr)
FR (1) FR3067842B1 (fr)
WO (1) WO2018234677A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11645756B2 (en) * 2019-11-14 2023-05-09 Samsung Electronics Co., Ltd. Image processing apparatus and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10301849A1 (de) * 2003-01-20 2004-08-05 Augmented Solutions Gmbh System und Verfahren zur statischen Einblendung von virtuellen Objekten in reale Umgebungen
EP1720131A1 (fr) * 2005-05-03 2006-11-08 Seac02 S.r.l. Système de réalité augmentée avec identification du marqueur réel d'objet
EP2747034A2 (fr) * 2012-12-21 2014-06-25 Dassault Systemes Delmia Corp. Correction de localisation d'objets virtuels

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
US20130083008A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
US20130328925A1 (en) * 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
US9619911B2 (en) * 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
US9336629B2 (en) * 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9928652B2 (en) * 2013-03-01 2018-03-27 Apple Inc. Registration between actual mobile device position and environmental model
US9844324B2 (en) * 2013-03-14 2017-12-19 X-Nav Technologies, LLC Image guided navigation system
US9552674B1 (en) * 2014-03-26 2017-01-24 A9.Com, Inc. Advertisement relevance
US11257143B2 (en) * 2014-12-30 2022-02-22 Hand Held Products, Inc. Method and device for simulating a virtual out-of-box experience of a packaged product
US9685005B2 (en) * 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
US10835199B2 (en) * 2016-02-01 2020-11-17 The University Of North Carolina At Chapel Hill Optical geometry calibration devices, systems, and related methods for three dimensional x-ray imaging
US10169922B2 (en) * 2016-02-16 2019-01-01 Microsoft Technology Licensing, Llc Reality mixer for mixed reality
BR102018003125B1 (pt) * 2018-02-19 2022-05-10 Petróleo Brasileiro S.A. - Petrobras Método para reconhecimento ótico de marcadores em ambiente externo
US20210405654A1 (en) * 2018-03-22 2021-12-30 Infinium Robotics Pte Ltd Autonomous taking off, positioning and landing of unmanned aerial vehicles (uav) on a mobile platform
JP7462769B2 (ja) * 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
JP7405735B2 (ja) * 2020-12-21 2023-12-26 トヨタ自動車株式会社 表示システム、表示装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10301849A1 (de) * 2003-01-20 2004-08-05 Augmented Solutions Gmbh System und Verfahren zur statischen Einblendung von virtuellen Objekten in reale Umgebungen
EP1720131A1 (fr) * 2005-05-03 2006-11-08 Seac02 S.r.l. Système de réalité augmentée avec identification du marqueur réel d'objet
EP2747034A2 (fr) * 2012-12-21 2014-06-25 Dassault Systemes Delmia Corp. Correction de localisation d'objets virtuels

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HERVE J-Y ET AL: "Dynamic registration for augmented reality in telerobotics applications", SYSTEMS, MAN, AND CYBERNETICS, 2000 IEEE INTERNATIONAL CONFERENCE ON NASHVILLE, TN, USA 8-11 OCT. 2000, PISCATAWAY, NJ, USA,IEEE, US, vol. 2, 8 October 2000 (2000-10-08), pages 1348 - 1353, XP010524844, ISBN: 978-0-7803-6583-4, DOI: 10.1109/ICSMC.2000.886041 *

Also Published As

Publication number Publication date
WO2018234677A1 (fr) 2018-12-27
EP3642803A1 (fr) 2020-04-29
US20210248823A1 (en) 2021-08-12
US11727647B2 (en) 2023-08-15
FR3067842B1 (fr) 2020-09-25

Similar Documents

Publication Publication Date Title
EP3555559A1 (fr) Procede de mesure d'une partie du corps a partir de photographies numeriques, et mise en oeuvre d'un tel procede pour la fabrication de chaussures sur mesure
CA2929942C (fr) Methode de determination d'au moins un parametre de conception optique d'une lentille ophtalmique progressive
EP1733181A1 (fr) Palpeur mixte, optique et mecanique et procede de recalage y afferant
EP3273905B1 (fr) Procede de determination d'une cartographie des contacts et/ou des distances entre les arcades maxillaire et mandibulaire d'un individu
WO2016162538A1 (fr) Bracelet electronique pour l'affichage d'un contenu numerique interactif destine a etre projete sur une zone d'un bras
FR3067842A1 (fr) Procede d'application de texture en realite augmentee, systeme et kits correspondants
FR3027144A1 (fr) Procede et dispositif de determination de mouvement entre des images video successives
FR3043235A1 (fr) Calibration d'un systeme de mapping video
CA2949683C (fr) Procede de determination d'au moins un parametre comportemental
FR3039028A1 (fr) Procede et dispositif d'affichage de scene tridimensionnelle sur une surface d'affichage de forme arbitraire non plane
FR3075426A1 (fr) Procede et systeme de projection d'un motif en realite mixte
FR3034890A1 (fr) Dispositif electronique de projection interactif
WO2004083772A2 (fr) Procede de mesure d'objets tridimensionnels par ombroscopie optique a une seule vue
FR2988327A1 (fr) Procede et systeme de fabrication d'un document securise
FR2988962A1 (fr) Procede et dispositif de creation d'images
EP3482264B1 (fr) Procédé d'usinage de reliefs
EP3724749B1 (fr) Appareil pour application de réalité augmentée
EP3633625A1 (fr) Procede de texturation d'un modele 3d
WO2014174363A1 (fr) Système de présentation d'objets
WO2018083099A1 (fr) Procédé d'affichage d'une image de réalité mixte
EP2671376A1 (fr) Procédé et dispositif de traitement de séquences d'images d'une scène et système de surveillance d'une scène comportant un tel dispositif
FR3048786A1 (fr) Reglage dynamique de la nettete d'au moins une image projetee sur un objet
BE1028997A1 (fr) Procédé et système de détermination d'une taille normalisée d'une pupille d'un œil
FR2974435A1 (fr) Procede et dispositif de creation d'images stereoscopiques
FR3059863A1 (fr) Systeme de mapping video integrant un support mecanique servant de presentoir

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20181221

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7