CH712678A2 - Procédé d'affichage de données cartographiques. - Google Patents

Procédé d'affichage de données cartographiques. Download PDF

Info

Publication number
CH712678A2
CH712678A2 CH00873/17A CH8732017A CH712678A2 CH 712678 A2 CH712678 A2 CH 712678A2 CH 00873/17 A CH00873/17 A CH 00873/17A CH 8732017 A CH8732017 A CH 8732017A CH 712678 A2 CH712678 A2 CH 712678A2
Authority
CH
Switzerland
Prior art keywords
model
additional data
relief
image
points
Prior art date
Application number
CH00873/17A
Other languages
English (en)
Other versions
CH712678B1 (fr
Inventor
Marguet Eric
Pestalozzi Patrick
Original Assignee
Spitz & Tal Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spitz & Tal Sa filed Critical Spitz & Tal Sa
Publication of CH712678A2 publication Critical patent/CH712678A2/fr
Publication of CH712678B1 publication Critical patent/CH712678B1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/06Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes for surveying; for geography, e.g. relief models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • H04W4/185Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals by embedding added-value information into content, e.g. geo-tagging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Software Systems (AREA)
  • Educational Technology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

La présente invention concerne un procédé d’affichage de données cartographiques, comprenant les étapes suivantes: capture à l’aide d’un dispositif électronique multimédia (3) comprenant une caméra (5) de données d’image représentant une maquette d’un relief géographique; identification du relief, par comparaison avec au moins un modèle de référence de relief géographique; accès à des données additionnelles; affichage sur un dispositif d’affichage (7) dudit dispositif d’une image obtenue à partir desdites données d’image et desdites données additionnelles superposées.

Description

Description
Domaine technique [0001] La présente invention concerne le domaine des maquettes cartographiques, ainsi qu’un programme d’ordinateur pour fournir des informations additionnelles aux observateurs d’une telle maquette.
Etat de l’art [0002] On connaît dans l’état de la technique des maquettes de reliefs cartographiques qui représentent par exemple un pays, une chaîne de montagne, une ville etc. en miniature et en trois dimensions. Par relief cartographique, on entend un relief correspondant à une zone géographique étendue, comme un continent, un pays, une ville, un district, une région, un village, un parc, une montagne, une vallée, couvrant par exemple une zone de 5 kilomètres carrés au moins.
[0003] De telles maquettes sont souvent réalisées en bois ou en plastique et ornent par exemple des halls d’hôtels, des chalets, des réceptions d’office du tourisme, etc. Elles sont notamment utilisées par les voyageurs pour planifier ou relater une excursion ou une randonnée en se rendant beaucoup mieux compte du relief qu’à l’observation d’une simple carte papier ou électronique.
[0004] Les techniques de fabrication mises en œuvre pour la fabrication de telles maquettes de reliefs limitent cependant leur résolution ainsi que la quantité d’information qui peuvent y figurer. On connaît par exemple des maquettes en bois ou en plastique de la Suisse ou de l’art alpin dans lesquels la résolution minimale correspond à 1 kilomètre. Ces maquettes permettent de bien observer les principales montagnes, mais pas de planifier en détail une excursion.
[0005] MA NAN ET AL: «Virtual conservation and interaction with our cultural héritage: Framework for multi-dimension model based interface», 2013 DIGITAL HERITAGE INTERNATIONAL CONGRESS (DIGITALHERITAGE), IEEE, vol. 1,28 octobre 2013 (2013-10-28), pages 323-330 décrivent des maquettes muséographiques de ville, ainsi qu’un procédé pour les convertir en modèles virtuels en trois dimensions, sur laquelle des informations supplémentaires peuvent être ajoutées.
[0006] Ce procédé permet d’explorer un modèle virtuel de la ville même lorsque l’on se trouve à distance de la maquette. Le procédé de réalité virtuelle permet de récupérer le travail des maquettistes pour générer plus rapidement un environnement virtuel dans lequel on peut naviguer même en s’éloignant de la maquette. II ne permet cependant pas de fournir des informations supplémentaires au visiteur en train d’observer la maquette physique. II s’agit donc de réalité virtuelle (VR), mais pas de réalité augmentée. Le modèle 3D obtenu à partir de la maquette peut être visité, mais il n’est apparemment jamais aligné avec une image de la maquette physique.
[0007] La navigation dans un environnement entièrement virtuel est toujours moins intuitive que l’observation d’une maquette. De nombreux utilisateurs se perdent ou perdent le sens de l’orientation dans une simulation tridimensionnelle, alors que les maquettes sont plus faciles à appréhender. Cela provient notamment de la résolution limitée des écrans de smartphones et même d’ordinateurs, qui ne permettent pas d’afficher autant d’information qu’une maquette, et nécessite donc de défiler (scroller) ou de zoomer constamment pour passer d’une vue d’ensemble à une vue détaillée. A titre d’exemple, un écran d’ordinateur à ultra-haute résolution permet d’afficher environ 8 millions de pixels à trois dimensions, alors qu’une maquette cartographique peut être usinée à partir d’un nuage de 100 millions, voire d’un milliard de points, en trois dimensions.
[0008] Des projections d’informations supplémentaires directement sur la maquette sont aussi décrites dans ce document, mais il ne s’agit toujours pas de réalité augmentée.
[0009] Le contenu des maquettes est cependant statique et ne peut pas être personnalisé selon les informations qui intéressent l’utilisateur. Un but de la présente invention est de proposer un procédé pour augmenter l’utilité de telles maquettes, et de fournir des informations additionnelles aux utilisateurs en train de les admirer.
Exposé de l’invention [0010] Selon un aspect de l’invention, ce but est atteint grâce à un procédé d’affichage de données cartographiques, comprenant les étapes suivantes:
- capture à l’aide d’un dispositif électronique multimédia comprenant une caméra de données d’image vidéo représentant une maquette d’un relief géographique;
- identification du relief, par comparaison avec au moins un modèle de référence de relief géographique, de manière à déterminer si l’image capturée correspond à une maquette connue, et à quelle portion de cette maquette elle correspond;
- identification de features dans lesdites données d’images;
- accès à des données additionnelles relatives au relief identifié;
- alignement des données d’images capturées avec les données additionnelles, en se basant sur lesdites features;
- affichage sur un dispositif d’affichage dudit dispositif d’une image obtenue par superposition en temps réel desdites données additionnelles sur lesdites données d’image.
CH 712 678 A2 [0011] Selon un aspect, l’invention concerne donc un procédé d’application de la réalité augmentée au monde des maquettes de reliefs géographiques.
[0012] La réalité augmentée est naturellement connue en tant que telle. De manière générale, elle concerne la superposition d’informations additionnelles, par exemple de textes, d’images, de vidéos, de textures, etc., sur un flux d’image vidéo. On parle de réalité augmentée en temps réel lorsque le décalage introduit par le processus de calcul des informations à superposer est suffisamment faible pour être imperceptible, et que l’utilisateur a l’impression de voir sur l’écran de son dispositif électronique une réalité modifiée. La réalité augmentée se distingue donc de la réalité virtuelle, dans laquelle l’utilisateur se déplace dans un environnement entièrement virtuel, généralement modélisé à l’avance.
[0013] La réalité augmentée a déjà été employée dans le monde de la cartographie. A titre d’exemple, le document US 2011/199 479 décrit un système de cartographie à réalité augmentée et un procédé dans lequel un utilisateur filme et regarde une scène réelle au moyen d’une caméra et d’un écran d’affichage sur un dispositif portable de poche. La position géographique de l’utilisateur est déterminée par GPS, et les données de cartographie sont superposées sur l’image en mouvement de la scène capturée par la caméra, de manière à fournir des directions ou similaire à l’utilisateur, et pour mettre en évidence les points d’intérêt.
[0014] La réalité augmentée est également connue pour les applications cartographiques. Par exemple, l’application de carte à réalité augmentée UCLive (voir https://ucliveproject.wordpress.com/, archivé à https://web.archive.0rg/web/20140814030527/http://ucliveproject.wordpress.com/) fonctionne comme suit. Un utilisateur prend une image d’une carte standard de campus, et un modèle 3D pré-généré de la carte, comprenant d’autres couches d’informations, est affiché sur l’écran de l’appareil de poche. Le recadrage du modèle 3D et l’angle de vue correspondent à l’image capturée par la caméra, de telle sorte que l’utilisateur peut explorer la carte 2D en 3D via l’appareil de poche.
[0015] Toutefois, ces applications portent sur l’amélioration de l’information 2D avec la modélisation 3D, ou pour améliorer le monde réel avec une carte ou des informations de direction. En tant que tel, ils sont limités dans le niveau de détail qu’ils peuvent fournir.
[0016] L’application de la réalité augmentée à des maquettes de relief géographique n’a jamais été suggérée. Une des raisons vient probablement de la faible résolution et précision des maquettes conventionnelles. Ces défauts rendent l’alignement des données additionnelles sur l’image de la maquette extrêmement difficile. La résolution des cartes papiers et des autres sources de données additionnelles à disposition est en effet typiquement de plusieurs ordres de grandeur supérieure à celle des meilleures maquettes. Il est par conséquent difficile ou même impossible de superposer correctement des données additionnelles utiles sur l’image d’une maquette, rendant toute tentative de réalité augmentée dans ce domaine inutile. Récemment, des progrès à la fois dans la modélisation de reliefs géographiques et dans les techniques de fabrication de maquettes ont ouvert l’espoir à des maquettes de relief géographique d’une résolution et d’une précision jugée impossible il y a encore peu de temps. De telles maquettes à haute résolution ont permis pour la première fois, dans le cadre de l’invention, d’imaginer des applications de réalité augmentée extrêmement utiles, comme on le verra plus loin, est par exemple possible de fabriquer une maquette à partir d’un substrat (qui peut être la base de la maquette ou un moule pour la maquette) par un procédé incorporant une étape d’usinage dans lequel les mouvements d’un outil de coupe ayant une pointe sont exprimés comme une trajectoire de l’outil selon les axes perpendiculaires X, Y et Z dans une grille dans un plan XY calculé sur la base d’un nuage de points généré par la mesure du relief, ledit nuage de points comprenant une pluralité de points qui sont normalisés dans une grille de points normalisés à travers laquelle la pointe de l’outil de coupe doit passer, ladite trajectoire de l’outil étant générée en suivant séquentiellement ladite grille normalisée de points, c’est-à-dire en suivant les lignes de la grille une par une dans les mêmes directions ou dans des directions alternées.
[0017] Par conséquent, un rendu hautement détaillé de la maquette peut être virtuellement augmenté en fournissant des informations via le dispositif électronique multimédia. En raison du processus d’usinage de haute précision de la maquette ou de son moule, les éléments caractéristiques (c’est-à-dire les zones d’intérêt, plus communément désignées par le terme anglais de features), par exemple les bords dans le relief sont reproduits avec une extrême précision, ce qui n’est souvent pas le cas avec les techniques de calcul et d’usinage classiques. Comme c’est la détection de ces features qui est utilisés en tant que référence pour l’identification du relief reproduit par la maquette, puis pour l’alignement de l’image de cette maquette avec les données additionnelles à superposer, la précision de l’identification et de la superposition est fortement améliorée, ce qui ouvre la porte à des applications entièrement nouvelles et à la superposition de données additionnelles qu’il n’aurait pas été possible de superposer de manière précise sur une maquette conventionnelle.
[0018] En outre, les données additionnelles n’ont pas besoin d’être marquées directement sur la maquette, et une plus grande quantité et une plus grande variété d’informations peuvent être fournies par rapport aux procédés de l’art antérieur. En outre, comme la maquette est en trois dimensions, l’expérience de l’utilisateur est améliorée par rapport à une réalité augmentée «à plat» qui améliore par exemple une carte plane avec des informations virtuelles en 3D: dans le présent procédé, une structure 3D est augmentée avec une information virtuelle (que ce soit en 2D ou 3D), et l’expérience est donc beaucoup plus tactile et immédiate pour l’utilisateur.
[0019] Dans des variantes, la maquette peut représenter un animal ou une plante, ou un autre objet naturel qu’aucune maquette ne peut reproduire avec une résolution équivalente à l’original (par opposition à un objet industriel par exemple). [0020] Avantageusement, l’étape d’identification de la maquette est réalisée par au moins l’une des étapes suivantes:
CH 712 678 A2
- prise d’une image et d’identification d’un code fourni sur ou adjacente à la maquette;
- analyse des caractéristiques topographiques de la maquette;
- communication avec un dispositif d’identification sans fil fourni dans ou adjacent à la maquette, tel qu’une puce RFID, un transpondeur Bluetooth ou WiFi ou similaire;
- détermination de la localisation géographique du dispositif électronique multimédia et comparaison de cette position géographique avec une base de données comprenant un registre des localisations géographiques desdites maquettes.
[0021] Avantageusement, le procédé comprend en outre une étape consistant à déterminer si la maquette rend est autorisée au moyen d’au moins l’une des étapes suivantes:
- analyse de repères fournis sur ou adjacents à la maquette;
- communication avec un dispositif d’identification sans fil fourni dans ou adjacent à la maquette;
- détection et analyse d’une erreur intentionnelle fournie sur la maquette.
[0022] Cette étape peut être intégrée avec, ou séparée de, l’étape d’identification de la maquette, et permet la détection de «fausses» maquettes.
[0023] Avantageusement, la normalisation dudit nuage de points est réalisée par la mise à l’échelle dudit nuage de points à des dimensions prédéterminées, à savoir les dimensions du substrat à usiner ou à une partie de celui-ci. Dans le cas où le nuage de points n’est sont pas déjà sous la forme d’une grille, la normalisation dudit nuage de points comprend également une étape de transformation dudit nuage de points en une grille uniformément espacée ayant une résolution souhaitée en modifiant les coordonnées X et Y de chaque point afin de se conformer à ladite grille.
[0024] Avantageusement, la normalisation dudit nuage de points peut également comprendre le comblement des points manquants sur ladite grille et / ou l’élimination des points excédentaires. Avantageusement, les bords sont identifiés par l’analyse des ombres présentes dans ladite image, qui peuvent être accentuées en éclairant la maquette latéralement par une source de lumière artificielle. Avantageusement, les données additionnelles extraites de la base de données et projetées sur l’image de la maquette représentent au moins l’un des éléments suivants:
- des informations cartographiques en deux dimensions;
- des informations cartographiques en trois dimensions;
- des informations météorologiques;
- des itinéraires;
- des annotations;
- des points d’intérêt;
- des animations relatives à l’objet;
- des caractéristiques de l’objet;
- des liens directs vers des sites Web.
[0025] Ces données peuvent être en deux ou en trois dimensions.
[0026] Elles peuvent être disponibles sous forme d’image en deux ou en trois dimensions.
[0027] Elles peuvent être projetées sur un plan perpendiculaire à la direction de prise de vue.
[0028] Elles peuvent être projetées sur une surface correspond à la portion de relief capturée. II est possible de tenir compte des occlusions.
[0029] L’invention concerne également un produit comprenant un support lisible par ordinateur, et des instructions exécutables par ordinateur sur le support lisible par ordinateur pour amener un dispositif électronique multimédia comprenant un processeur, une caméra et un dispositif d’affichage pour mettre en œuvre le procédé ci-dessus.
Brève description des dessins [0030] D’autres détails de l’invention apparaîtront plus clairement dans la description qui suit en référence aux figures annexées, qui montrent:
Fig. 1: un système conforme à l’invention;
Fig. 2: un exemple d’utilisation du système du point de vue d’un utilisateur;
Fig. 3: un autre exemple de l’utilisation du système du point de vue d’un utilisateur;
Fig. 4: un organigramme illustrant le procédé de l’invention;
Fig. 5a et 5b: deux exemples d’information cartographique pour projeter sur une vue d’une maquette de relief géographique;
La fig. 6: un organigramme illustrant un procédé de fabrication d’une maquette destinée à être utilisé dans l’invention;
CH 712 678 A2
Fig. 7: une représentation d’un ensemble de données de nuages de points utilisé comme base pour la fabrication d’une maquette;
Fig. 8a et 8b: des représentations des limitations sur le diamètre de la pointe de l’outil d’usinage;
Fig. 9a et 9b: des illustrations bidimensionnelles d’un outil de finition et de la trajectoire de l’outil finition correspondant;
Fig. 10a: une vue d’un substrat, un outil d’ébauche et la trajectoire de l’outil d’ébauche correspondante;
Fig. 10b: une vue d’un substrat après dégrossissage;
Fig. 10c: une vue en trois dimensions d’une partie d’un substrat après l’usinage de finition, avec une trajectoire d’outil de finition;
Fig. 11: une vue d’une maquette munie de mesures anti-contrefaçon;
Fig. 12a-d: une représentation schématique du fonctionnement d’un post-processeur direct pour générer une trajectoire de l’outil à partir d’un nuage de points
Fig. 13: une représentation schématique illustrant le procédé de traitement d’un nuage de points avant une étape d’usinage selon l’invention,
Fig. 14: un mode de réalisation d’un système selon l’invention.
Mode de réalisation de l’invention [0031] La fig. 1 illustre un système 1 selon l’invention. Le système 1 comprend un dispositif électronique multimédia 3, par exemple un «smartphone», une tablette ou similaire, muni d’une caméra 5 (illustrée schématiquement sur la fig. 1 par des lignes en pointillés représentant son champ de vision) sur un premier côté de celui-ci, et un écran d’affichage 7 sur un deuxième côté de celui-ci.
[0032] Comme il est généralement connu, un tel dispositif électronique multimédia 3 comprend en outre un processeur et un support de stockage lisible par ordinateur, contenu à l’intérieur. Ces deux derniers éléments sont contenus comme cela est classique dans le dispositif 3 et ne sont donc pas illustrés. Le support de stockage lisible par ordinateur contient, stockée dessus, un produit programme d’ordinateur (familièrement appelé «application»), qui comprend des instructions exécutables par ordinateur pour mettre en oeuvre le procédé décrit ci-dessous. Dans une variante une partie ou la totalité de ce procédé est mise en oeuvre par un serveur à distance accessible par le dispositif électronique 3. Le dispositif électronique multimédia 3 serait typiquement fourni par un utilisateur lui-même, mais cela ne doit pas nécessairement être le cas.
[0033] Le système 1 comprend en outre une maquette 9 («rendu de relief») représentant un relief géographique caractérisé par nuage de points. Dans le cas de la fig. 1, le sujet de la maquette 9 est la topographie de la Suisse, et est donc une carte en relief. La maquette 9 est fabriquée par usinage au moyen d’une machine-outil à commande numérique de haute résolution (CNC) d’un substrat plastique, en métal, en bois ou similaire. Un procédé particulièrement approprié d’un tel usinage par CNC avec une résolution suffisante est décrit plus en détail ci-dessous.
[0034] Alternativement, l’usinage CNC d’un moulage par injection ou d’un moule de coulée sous pression est également possible, suivie par un moulage par injection, un moulage par coulée, un moulage par soufflage en plastique ou en matériaux légers (aluminium, céramique, etc.) ou lourds (béton,..) pour produire la maquette 9 est également possible, le substrat 45 étant alors la base pour le moule dans ce cas.
[0035] Comme mentionné ci-dessus, dans la fig. 1, la maquette 9 représente la topographie de la Suisse. Elle peut évidemment représenter une quelconque région géographique différente à une échelle appropriée (un pays, une région, un état, une municipalité, une rue, ou même un parc).
[0036] La maquette 9 peut être laissée incolore, ou peut être peinte, enduite, ou avoir des informations déjà fournies dessus. Typiquement, cependant, la maquette 9 ne devrait pas être munie de données directement dessus, de manière à encourager l’utilisation de l’ensemble du système. Il peut être avantageux, bien que non essentiel, d’installer la maquette 9 dans une enceinte 11 avec un éclairage contrôlé, tel qu’une source de lumière artificielle, comme une lampe 13 d’éclairage de la maquette 9 à partir d’un côté (par exemple à partir du dessus dans la présente figure), de manière à projeter des ombres et donc améliorer le contraste de l’image reçue par la caméra 5. Un tel contraste accru est utile pour simplifier le traitement requis lors de la manipulation numérique de l’image de la maquette 9 de manière à détecter le recadrage, la position, l’angle, l’orientation et ainsi de suite.
[0037] Le système 1 comprend également une base de données 15, qui peut être soit stockée localement dans le dispositif électronique 3 ou à distance et accessible via une connexion sans fil directe ou indirecte telles que WLAN, WiFi, Bluetooth, 3G, 4G ou similaire. La base de données 15 comprend des données additionnelles relatives à la portion de maquette 9
CH 712 678 A2 dont une image vient d’être capturée, comme des textures de surface, des informations cartographiques (par exemple des noms de lieux, des courbes de niveau, des altitudes), des points d’intérêt, des informations météorologiques, des informations didactiques, des itinéraires, par exemple des itinéraires de randonnée, de vélo, de cyclisme, recommandés ou préalablement parcourus par l’utilisateur et enregistrés via un récepteur de géolocalisation satellitaire, par exemple un récepteur GPS.
[0038] Les données additionnelles peuvent comporter des annotations, par exemple des textes, qui peuvent être placés plus ou moins librement sur l’image capturée en relation avec un élément de cet image. Elles peuvent comporter des textures (par exemple des portions de cartes géographiques) ou des images (par exemple des images satellitaires, des photos, des images de synthèse, des images météorologiques etc.) qui doivent être superposées précisément sur l’image capturée, en les projetant sur le relief. Les données peuvent comprendre des images fixes, par exemple des photographies ou des éléments graphiques. Elles peuvent comporter des images animées. Elles peuvent inclure des sons.
[0039] Les données additionnelles peuvent comprendre des images bidimensionnelles, par exemple des cartes, des images satellites, des relevés topographiques, des vidéos etc., destinées à être projetées sur l’image bidimensionnelle de la maquette capturée avec la caméra. Elles peuvent aussi inclure des images tridimensionnelles, par exemple un modèle de synthèse ou une image capturée avec une caméra tridimensionnelle ou une caméra stéréo ou à mesure de distance.
[0040] Les données additionnelles peuvent inclure des données génériques identiques qui sont identiques pour tous les utilisateurs du système ayant capturé une même image, et/ou des données personnelles, par exemple des données correspondant à un parcours de l’utilisateur.
[0041] L’utilisateur peut sélectionner le type de données additionnelles qu’il souhaite afficher si plusieurs types différents sont fournis. La base de données 15 peut comprendre des informations relatives à plusieurs maquettes 9, dont l’une est sélectionné automatiquement, par exemple en reconnaissant un relief sur l’image, ou à l’aide d’un code barre, d’un QR-code sur l’image, ou en sélectionnant manuellement une maquette 9. Ce point est discuté plus en détail ci-dessous dans le contexte du procédé de l’invention.
[0042] La fig. 2 illustre le système selon l’invention vu depuis le point de vue d’un utilisateur. Dans le cas présent, l’utilisateur visualise sur un dispositif d’affichage 7 de son appareil une image obtenue à partir des données d’image capturées et sur laquelle au moins une partie des données additionnelles sont superposées. Dans cet exemple, les données d’image correspondent à une prise de vue d’une maquette de la Suisse en relief, tandis que les données additionnelles incluent des informations cartographiques qui sont combinées sur l’image de ce relief, et correctement alignées par rapport à ce relief.
[0043] Les données d’image peuvent être par exemple l’image directement prise par le capteur d’image et affichée sur l’écran du dispositif. Un prétraitement est aussi possible, par exemple pour corriger la luminosité, la balance des blancs, le contraste, ou pour atténuer les ombres et les reflets par exemple. II est aussi possible de reconstituer une image différente de celles prises par la caméra, par exemple en combinant plusieurs trames successives pour générer un panorama, ou pour générer une image prise depuis un point de vue virtuel différent du point de vue réel.
[0044] La fig. 3 illustre l’affichage d’une maquette 9 d’une partie d’un modèle tridimensionnel de feuille végétale avec le dispositif électronique multimédia 3. Pour regarder les petits détails, un adaptateur optique 17 peut être prévu sur l’appareil photo 5 du dispositif électronique 3 de manière à augmenter le grossissement et de réaliser ainsi zoom suffisant et une résolution suffisantes pour le fonctionnement du procédé de l’invention dans le cas où la maquette et les données additionnelles correspondantes sont de très haute résolution.
[0045] La fig. 4 illustre le procédé de l’invention dans sa forme la plus simple, sous la forme d’un diagramme. A l’étape 21, les éléments du système 1 tels que décrits ci-dessus sont fournis. Typiquement, la maquette 9 serait fournie dans un lieu public ou dans un bâtiment public ou privé, sous la forme d’une maquette tridimensionelle en bois ou dans un autre matériau. Le dispositif électronique 3 peut être fourni par l’utilisateur lui-même, bien que cela n’a pas besoin d’être le cas. Le produit programme d’ordinateur peut être pré-chargé sur le dispositif électronique 3, fourni sur un support de données portable, ou peut être téléchargé à partir d’un réseau sans fil (Internet, Wi-Fi local, Bluetooth ou similaire). À cette fin, la maquette 9 ou ses environs peut indiquer comment télécharger le produit programme d’ordinateur, par exemple, en scannant un Q.R code (Quick Response Code) ou un code-barres, en se connectant avec un dispositif d’identification sans fil 53 (voir fig. 11) tel que, mais pas limité à, un une étiquette RFID (Radio Frequency Identification tag), un modem WiFi ou Bluetooth, ou en visitant une adresse Internet indiquée. Dans l’étape 22, l’utilisateur prend une image de la maquette 9, qui serait typiquement une image vidéo (c’est-à-dire un certain nombre de trames par seconde).
[0046] Le dispositif génère alors des données d’image correspondant à la portion de maquette capturée. Ces données d’image peuvent subir un prétraitement optionnel, par exemple pour changer la luminosité, le contraste, la balance des blancs, ou le point de vue.
[0047] Dans l’étape 23, la maquette 9 est identifiée. Cela peut être effectué par divers procédés. Le produit programme d’ordinateur peut contenir un algorithme qui identifie la maquette 9 directement à partir de l’image capturée, et en la comparant avec un ou plusieurs modèles de référence afin de déterminer si l’image capturée correspond à une maquette connue, et à quel portion de cette maquette elle correspond. Cette identification peut mettre en oeuvre un classificateur,
CH 712 678 A2 par exemple un classificateur basé sur un réseau neuronal ou analogue. Le modèle de référence peut être un modèle bidimensionnel ou avantageusement un modèle tridimensionnel du relief.
[0048] Cette identification peut en particulier se baser sur des zones d’intérêt (éléments caractéristiques, appelés «features» en reconnaissance d’image) de l’image capturée, par exemple des points caractéristiques de l’image capturée et du modèle de référence. Dans un mode de réalisation avantageux, le logiciel de reconnaissance d’image utilise des bords d’éléments (arêtes, coins, dépressions et ainsi de suite), notamment ceux accentués par des ombres. Dans le cas où la base de données 15 comprend des informations relatives à une seule maquette 9, celle-ci est identifiée, dans la mesure où le produit programme d’ordinateur détermine que l’image reçue est en effet celle de la maquette 9 et non celle d’un mur, d’un sol, ou d’un autre objet. En outre, la partie exacte de la maquette 9 imagée est identifiée, avec la détection du point de vue. Ce dernier peut être déterminé sur la seule base de l’image ou de trames successives capturées par la caméra 5; toutefois, elle peut aussi utiliser des informations relatives à l’orientation dans l’espace du dispositif électronique 3, déterminée par des capteurs appropriés incorporés dans le dispositif électronique 3, par exemple une boussole, un accéléromètre, un gyroscope, un inclinomètre, etc.
[0049] Dans le cas où la base de données comprend des informations relatives à de multiples maquettes 9, l’algorithme peut identifier quelle maquette 9 est capturée par la caméra 5, ainsi que la partie exacte de la maquette 9 imagée et le point de vue tel que décrit ci-dessus.
[0050] La maquette 9 peut également être identifiée au moyen de la prise d’image et de l’identification d’un logo, d’un ou plusieurs mots, de chiffres ou de symboles, d’un code-barres ou d’un QR code, se connectant avec un Bluetooth ou transducteur de WiFi. En outre, cette identification peut être effectuée par comparaison de la position GPS de l’appareil électronique 3, tel que déterminé par un transducteur GPS qui y est incorporé, avec une table des localisations connues des maquettes 9 intégrée dans la base de données 15. Dans ce cas, l’étape 23 peut être réalisée avant l’étape 22, comme indiqué par la double flèche sur la fig. 4.
[0051] La maquette 9 capturée peut aussi être identifiée au moyen d’une sélection manuelle par l’utilisateur, par exemple dans une liste.
[0052] L’identification de la maquette 9 peut également comprendre une étape de détermination de l’authenticité du relief, par exemple en vérifiant si les moyens d’identification mentionnés ci-dessus sont contenus dans une base de données des maquettes approuvées. La fig. 11 montre d’autres possibilités, à savoir:
- constitution d’une ou plusieurs erreurs délibérées 50 (par exemple des erreurs d’échelle dans une partie de la maquette, des erreurs de fait, comme un lac ou une montagne ou un autre élément géographique ajouté ou supprimé) et leur détection;
- incorporation de codes, adresses de site web 51 ou similaire aux alentours de la maquette 9;
- caractéristiques esthétiques inoffensives de l’entourage de la maquette 9, tels que les barres 52;
- un dispositif d’identification sans fil 53 comme une puce RFID, un transpondeur WiFi ou Bluetooth ou similaire.
[0053] Dans le cas où la maquette 9 est déterminée comme étant une contrefaçon sur la base de l’une des mesures mentionnées ci-dessus, le produit programme d’ordinateur peut arrêter le procédé et fournir une indication à l’utilisateur comme quoi la maquette 9 n’est pas authentique.
[0054] Dans l’étape 24, la base de données 15 est consultée de manière à extraire des données additionnelles relatives à la maquette 9 et/ou à une partie de celle-ci étant prise en image par la caméra 5. Cette information est pertinente pour la maquette 9 particulière. Dans le cas d’une maquette d’un relief géographique, les données additionnelles peuvent être des images cartographiques en deux dimensions ou en trois dimensions, peuvent comporter des annotations de points d’intérêt, des informations géologiques, des informations historiques, des rendus météorologiques (par exemple une superposition de nuages ou de la situation météorologique), un rendu jour-nuit, une superposition d’itinéraire planifié ou parcouru, ou similaires. Dans tous les cas, les données additionnelles extraites de la base de données 15 sont complémentaires à toute information fournie directement sur la maquette 9. En outre, des informations audio et vidéo peuvent également être fournies.
[0055] Dans l’étape 25, ces données additionnelles sont projetées sur l’image vidéo prise par la caméra 5 de manière à créer une image vidéo combinée intégrant à la fois les données d’image prises par l’appareil photo 5, fixes ou animées, brutes ou prétraitées, et aussi les données additionnelles, fixes ou animées, extraites de la base de données 15. Ce calcul est effectué en temps réel, c’est-à-dire sans retard perceptible pour l’utilisateur, afin de lui restituer en temps réel sur l’écran de son dispositif une image vidéo modifiée et enrichie par rapport à l’image capturée. L’utilisateur voit ainsi une image modifiée de la maquette, ou d’une portion de la maquette, qu’il a sous ses yeux. Il peut changer son point de vue, ou zoomer sur un détail, simplement en déplaçant son dispositif par rapport à la maquette.
[0056] La projection peut comporter une étape de transformation géométrique des données additionnelles dans un plan perpendiculaire à la direction de prise de vue. Par exemple, dans le cas de projections d’une carte géographique ou d’autres données cartographiques sur l’image d’une maquette topographique, la projection peut inclure une étape de calcul de l’image de cette carte depuis le point de vue de la caméra, afin de superposer des images prises depuis le même point de vue.
CH 712 678 A2 [0057] Dans le cas d’image correspondant à une maquette comportant un relief important, par exemple un relief de montagne, et/ou de données de référence correspondant à un modèle tridimensionnel, la projection peut inclure une étape de calcul de la valeur de couleur de plusieurs points dans un espace tridimensionnel, à partir des données d’image capturées dans une ou plusieurs trames et des données additionnelles en 2 ou 3 dimensions. Une image bidimensionnelle de cet espace depuis le point de vue de la caméra est ensuite calculée par projection, puis restituée.
[0058] La projection inclut un alignement des données d’images capturées avec les données additionnelles. Cet alignement peut se baser sur les features précédemment identifiées, notamment des bords (nets) du relief (arêtes, dépressions, coins et ainsi de suite, qui sont particulièrement accentués par des ombres), et sur une correspondance de ces features avec des features de référence dans les informations de référence dans la base de données 15.
[0059] Comme le montre la fig. 5a, la superposition peut donc avoir lieu en deux dimensions, c’est-à-dire en projetant «à plat» des informations en deux dimensions 19 sur l’image de la maquette en trois dimensions. De manière alternative, et comme le montre la fig. 5b, les données additionnelles 19 en deux ou en trois dimensions peuvent être «enveloppées» sur l’image de la maquette 9 en trois dimensions de telle sorte que les données superposées suivent le profil du relief, en tenant compte des occlusions, du point de vue, des ombres etc.. Cette dernière nécessite naturellement beaucoup plus de puissance de calcul, mais elle offre beaucoup plus de possibilités pour fournir des informations extrêmement détaillées, en particulier dans les applications cartographiques. En particulier, des informations 3D permettent la détection et la représentation de plus de sommets, plus d’ombres et ainsi de suite, et par exemple permettent de visualiser ou d’annoter une caractéristique cachée par des portions de la maquette 9 comme une route passant derrière une montagne dans la vue de la maquette 9. En déplaçant le point de vue on peut aussi rendre certaines données invisibles quand les éléments correspondants passent hors de la vue. En outre, les données additionnelles superposées peuvent être différentes en fonction du point de vue du dispositif électronique multimédia 3.
[0060] Dans l’étape 26, l’image combinée générée à l’étape 25 est affichée sur l’écran 7 du dispositif électronique 3 de sorte que l’utilisateur puisse l’afficher.
[0061] Afin que le dispositif électronique puisse discerner suffisamment de détails de la maquette 9 de manière à correctement analyser la position, l’angle et le recadrage de l’image de la maquette 9 de sorte que le procédé puisse être correctement réalisé, la maquette 9 (ou son moule dans le cas d’une maquette 9 moulée) doit être usinée à un degré de détail suffisant, comme cela sera décrit dans ce qui suit, en référence aux fig. 6-10 et 12a-d. En particulier, la manière d’usinage (et notamment de calculer les trajectoires de l’outil) assure une représentation exacte et précise des bords qui sont utilisés pour la reconnaissance de l’angle et de l’orientation de la maquette 9 tel que pris en image par le dispositif électronique 3. L’objet de la maquette 9 (c’est-à-dire la topographie de la région géographique illustrée) est modélisée ou échantillonnée par un nuage de points 40 représentant des points à la surface de l’objet. Ces nuages de points ne sont pas toujours fournis dans une grille normalisée, et sont classiquement d’abord convertis en un réseau de surfaces géométriquement définies en utilisant des fonctions splines cubiques ou toute autre méthode appropriée. A partir de ce réseau de surfaces, des instructions de mouvement de l’outil sont générées, en tenant compte de la forme de la pointe de l’outil. Toutefois, ces approches peuvent conduire à des artefacts tels que des transitions non naturelles entre les surfaces arbitrairement dérivées, et joindre ensemble des petits rendus partiels conduit également à des artefacts inacceptables à la jonction entre ces rendus partiels. En outre, de telles approches deviennent de plus en plus difficiles à calculer quand le degré de détail souhaité augmente, nécessitant de manière exponentielle plus de puissance de calcul. Le procédé tel que décrit ci-dessous élimine ces artefacts, et est infiniment évolutive, les seules limitations étant le temps machine disponible et l’usure des outils.
[0062] Un tel nuage de points 40 est fourni à l’étape 30, et un exemple de celui-ci est représenté dans la fig. 7, qui représente un nuage de points d’une carte topographique de la Suisse, à une résolution donnée. Chaque point 40a du nuage de points comprend des informations spatiales sur le point mesuré en trois axes perpendiculaires X, Y et Z, X et Y étant les axes dans le plan horizontal, et Z étant l’axe vertical. Dans le cas des cartes topographiques, elles sont généralement exprimées en longitude (X), latitude (Y) et altitude (Z) respectivement. Les points peuvent être triés dans le plan XY en triant d’abord selon la valeur ascendante X, puis selon la valeur ascendante ou descendante Y (ou vice-versa) de façon à les disposer en deux dimensions dans le plan XY.
[0063] Dans les étapes 31 et 32, le nuage de points 40 est converti directement en instructions de mouvement selon les mêmes axes X, Y et Z, X et Y étant à nouveau dans le plan horizontal et Z étant l’axe vertical. Ces instructions de mouvement sont tout simplement les coordonnées de points dans l’espace à travers lequel la pointe de l’outil de finition 42 doit passer.
[0064] Il est calculé par un post-processeur dit direct, qui est une partie de logiciel exécuté sur un ordinateur. Le fonctionnement de ce post-processeur direct est illustré dans les fig. 12a-12d. Ce post-processeur direct prend d’abord un nuage de points 40, comme illustré sur la fig. 12a, et qui peut être regroupés ensemble à partir d’une pluralité de fichiers plus petits représentant chacun une partie du sujet de la maquette 9, puis met à l’échelle les données à l’échelle requise dépendant de la taille de la maquette 9 à former, en tenant compte des impératifs liés aux technologies d’usinages (corrélations entre les quadrillages et les capacités liées à l’outils utilisé), et en référence à un point de référence approprié pour la machine-outil CNC. Toute conversion d’unités (par exemple longitude/latitude en millimètres ou micromètres) peut également avoir lieu à ce moment. Ceci est représenté sur la fig. 12b, qui montre les points de donnée individuelle 40a
CH 712 678 A2 superposée sur une grille 40b de la résolution désirée dans le plan XY. A l’étape 31, les points de données 40a sont normalisés par rapport à la grille 40b, en modifiant les valeurs X et Y de chaque point de données 40a de manière à correspondre à une intersection de la grille 40b. Tous les points excédentaires, tels que les points intermédiaires où toutes les intersections de la grille sont déjà occupées peuvent être supprimés (comme indiqué par un «x»), ou peuvent également être fusionnés avec un autre point ou des points à une intersection de la grille en faisant par exemple la moyenne de ces points. En outre, toutes les intersections inoccupées de la grille peuvent être soit remplies par exemple par interpolation des points voisins, soit simplement laissées vide. Les points maillées normalisés 40c résultants sont représentés dans la fig. 12c, avec des données de remplissage 40d représentées par des cercles vides plutôt que des points noirs.
[0065] Dans l’étape 32, en lisant chaque ligne des points maillés normalisés 40c selon un balayage avant-et-arrière comme illustré dans la fig. 12d, une série de passes d’usinage, d’abord dans un sens puis dans le sens inverse pour la ligne suivante, une trajectoire d’outil 43 peut être directement lue sur les points normalisés quadrillé 40c sans autre calcul. Alternativement, un motif de balayage tramé peut être généré en lisant les données de la grille, chaque ligne étant lue dans la même direction, même si cela est moins efficace en terme de temps machine en raison du temps nécessaire pour reculer l’outil 42 au début de la prochaine coupe. Dans le cas de points de données manquants, si le remplissage n’a pas été réalisé, les instructions avancent simplement à la prochaine intersection de la grille remplie dans la séquence. Un bloc d’en-tête 43a peut également être ajouté pour initialiser la machine-outil à commande numérique, et un bloc de bas de page 43b peut être ajouté pour terminer l’usinage, selon les besoins.
[0066] Dans le cas où le nuage de points 40 est déjà quadrillé, la normalisation effectuée par le post-processeur direct peut simplement mettre à l’échelle le nuage de points à la résolution souhaitée.
[0067] En raison de la grande quantité de données nécessaire pour être traitées, un traitement parallèle peut être utilisé. Le post-processeur peut également procéder à une sélection d’un sous-ensemble des points constituant le nuage de points 40, par exemple pour réduire la résolution de celui-ci à un niveau gérable, par exemple, prendre tous les 10èmes points de données afin de réduire la résolution d’un facteur 10. Par rapport à une approche conventionnelle de définition des surfaces et de calcul des mouvements de l’outil requis pour former ces surfaces avec une forme donnée de l’outil, l’approche post-processeur direct est mieux utilisée avec un outil dont la pointe est suffisamment petite pour que les erreurs d’usinage résultant de la forme de l’outil de finition 42 soient réduites au minimum, qui est retenu à l’étape 33. Ce principe est illustré sur les Fig. 8a et 8b. Ces figures illustrent des trajectoires d’usinage 43 formées par des points maillés de données normalisées 40c. La fig. 8a illustre le profil résultant 43c découpé avec un outil de finition 42 de trop grand diamètre.
[0068] Comme on peut clairement le voir, ce profil 43 diffère sensiblement de la trajectoire 43 déterminée par les points du premier ensemble. En particulier, le diamètre important de l’extrémité de l’outil 42 entraîne des collisions avec les flancs les plus raides du relief, et empêche l’usinage de trous étroits ou d’angles droits au pied de falaises verticales, par exemple.
[0069] La taille de l’outil de finition doit donc être suffisamment fine pour permettre un usinage en passant directement sur les points du premier ensemble, sans les décalages de rayon calculés habituellement par les programmes de FAO. La fig. 4b illustre un outil de finition 42 dont le diamètre de la pointe est suffisamment petit pour que le profil fini se situe dans une tolérance acceptable par rapport à la trajectoire d’usinage 43.
[0070] Un outil trop fin risque cependant de se casser fréquemment; d’autre part, la courbure de l’extrémité de l’outil est trop prononcée, entraînant l’usinage de sillons formant des stries et des nervures visibles sur la surface. Il est donc avantageux d’utiliser un outil de finition dont le diamètre à l’extrémité est supérieur au pas entre deux points du premier ensemble de points, afin que les sillons se chevauchent en évitant de laisser une nervure entre deux sillons. Des résultats optimaux ont été obtenus avec des diamètres d’outil de finition entre 2-10 fois le pas entre les points du premier ensemble de points.
[0071] Dans la pratique, pour une très grande maquette 9 de plusieurs mètres de largeur, un outil de finition dont la pointe présente un diamètre de 1 mm peut être suffisant. Pour les plus petits rendus, un diamètre de la pointe de l’outil de finition de 0.05mm maximum a été trouvé pour être le diamètre maximal pour fournir un niveau de détail suffisant dans la pratique pour la manipulation d’image requise dans le dispositif électronique multimédia 3 comme décrit plus haut. En outre, le niveau de résolution et donc de détails fournis par un outil de ces dimensions est suffisante pour qu’un degré utile de zoom puisse être utilisé sur la caméra de l’appareil électronique multimédia. En principe, plus la pointe de l’outil de finition est petite, plus la précision et la résolution de la maquette 9 est grande, mais plus le temps machine nécessaire est long, plus la gestion des usures d’outils est complexe et plus la résolution de la grille nécessaire est grande. A l’étape 32, un outil de finition approprié est choisi à cet effet.
[0072] La trajectoire 43 de l’outil de finition est également illustrée dans une vue en trois dimensions sur la fig. 10c. L’outil de finition 42 est illustré dans les figures 9a et 9b comme étant un outil conique. D’autres formes d’outils (cylindre, sphère, toriques...) sont également, bien sûr, possible.
[0073] Avantageusement, l’outil de finition 42 est monté sur un robot 6 axes afin d’améliorer la précision et la résolution de la maquette 9. De cette manière, l’angle de l’outil de finition 42 peut être adapté de telle sorte que l’axe de l’outil de finition 42 soit toujours perpendiculaire à la trajectoire d’usinage 43.
CH 712 678 A2 [0074] Par rapport à un usinage CNC conventionnel basé sur la combinaison de formes standard et de mouvements standard de l’outil (arcs, lignes droites, cannelures et ainsi de suite), la présente invention procure la possibilité d’avoir beaucoup plus de détails et par conséquent la reproduction plus précise de la forme sur laquelle se fonde la maquette 9.
[0075] Dans l’étape 34, un outil d’ébauche est choisi de manière à faire efficacement une première coupe dans le substrat, afin d’éviter que l’outil de finition ait à couper trop profond et enlève trop de matériau, ce qui provoquerait une usure excessive de l’outil, une formation excessive de copeaux et des contraintes élevées sur l’outil de finition 42 avec un risque aussi élevé de rupture de l’outil. Cependant, il n’est pas essentiel qu’une coupe d’ébauche soit faite.
[0076] Sur la base de la trajectoire de l’outil de finition 43 et la forme de l’outil de finition 42, une trajectoire d’outil d’ébauche 46 (voir fig. 10a) peut être calculée à l’étape 35. L’outil d’ébauche 44 présente un diamètre de coupe supérieur que celui de l’outil de finition 42, et sert à enlever suffisamment l’excès de matériau du substrat 45 dans lequel la maquette (ou son moule) 9 est usiné, de manière à laisser suffisamment de matière pour faire une coupe de finition de haute qualité, mais pas trop pour ne pas mettre à rude épreuve l’outil de finition 42.
[0077] Par la suite, un substrat 45 est fourni dans une machine-outil CNC à l’étape 36, qui est alors ébauché (étape 37 - en option) et soumis à des opérations de finition (étape 38) en utilisant les outils respectifs 42, 44 et les trajectoires d’outil respectives 43, 46.
[0078] La fig. 10b illustre un substrat 45 après ébauchage, et la fig. 10c illustre le substrat après les opérations de finition le long de la trajectoire de l’outil de finition 43 de manière à créer une maquette 9 (ou son moule dans le cas d’une maquette moulée 9).
[0079] Bien que l’utilisation du post-processeur direct décrit ci-dessus peut entraîner la production d’un grand nombre de points redondants. Par exemple, la surface d’un lac peut être décrite comme une surface plane et peut donc être définie de manière plus efficace avec des opérations conventionnelles CNC. Elle ne résulte en aucune surface irrégulière étant descriptible et étant ainsi usinée avec précision.
[0080] Avantageusement, en référence à la fig. 13, le nuage de points représentant des points sur la surface de l’objet, mesurée par laser 54, microscope électronique à balayage, confocal, ou tout dispositif approprié bien connu de l’homme de l’art, est envoyé en continu et traité par le post-processeur direct décrit ci-dessus et le nuage de points traité est envoyé en continu à la CNC 55 qui convertit en continu ledit nuage de points en instructions de déplacement de la pointe de l’outil de finition 42 selon les axes. Par conséquent, le système selon l’invention fonctionne d’une manière continue pour réduire le temps de traitement.
[0081] Accessoirement, en référence à la fig. 14, le système 1 selon l’invention comprend en outre une source de lumière 56, telle qu’un laser par exemple, éclairant la maquette 9 qui comprend des structures générant un effet holographique ou diffractif. Par exemple, la maquette 9 comprend des réseaux de diffraction de surface procurant au moins une image diffractée lorsque la maquette 9 est éclairée par la source laser 56. Les microstructures en grille de réflexion holographique et/ou les structures de génération d’effet diffractif sont bien connus de l’homme du métier. De tels microstructures sont notamment décrites dans les documents WO 93/18 419, WO 95/04 948, WO 95/02 200, US 4 761 253 et EP 0 105 099.
[0082] Il est bien entendu que la présente invention n’est en aucune façon limitée aux formes de réalisations décrites ci-dessus et que bien des modifications peuvent y être apportées sans sortir du cadre des revendications annexées.

Claims (14)

  1. Revendications
    1. Procédé d’affichage de données cartographiques, comprenant les étapes suivantes:
    - capture à l’aide d’un dispositif électronique multimédia (3) comprenant une caméra (5) de données d’image vidéo représentant une maquette d’un relief géographique;
    - identification du relief, par comparaison avec au moins un modèle de référence de relief géographique, de manière à déterminer si l’image capturée correspond à une maquette connue, et à quelle portion de cette maquette elle correspond;
    - identification de features dans lesdites données d’images;
    - accès à des données additionnelles relatives au relief identifié;
    - alignement des données d’images capturées avec les données additionnelles, en se basant sur lesdites features;
    - affichage sur un dispositif d’affichage (7) dudit dispositif d’une image obtenue par superposition en temps réel desdites données additionnelles sur lesdites données d’image.
  2. 2. Procédé selon la revendication 1, lesdites données additionnelles comportant une texture, le procédé comportant une étape de projection de ladite texture sur lesdites données d’image.
  3. 3. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant un itinéraire.
  4. 4. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des informations cartographiques et/ou des points d’intérêt.
  5. 5. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des informations météorologiques.
    CH 712 678 A2
  6. 6. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des images animées.
  7. 7. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des images bidimensionnelles.
  8. 8. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des images tridimensionnelles.
  9. 9. Procédé selon l’une des revendications précédentes, comportant une étape de projection desdites données additionnelles sur un plan perpendiculaire à la direction de prise de vue.
  10. 10. Procédé selon l’une des revendications précédentes, comportant une étape de projection desdites données additionnelles sur ledit relief vu depuis le point de vue de la caméra (5).
  11. 11. Procédé selon l’une des revendications précédentes, comportant en outre la fourniture d’une maquette (9), ladite maquette étant fabriquée à partir d’un substrat (45) par un procédé comportant une étape d’usinage dans laquelle les mouvements d’un outil de coupe (42) ayant une pointe sont exprimés sous forme d’un trajet d’outil ( 43) selon les axes perpendiculaires X, Y et Z dans une grille dans un plan XY calculée sur la base d’un nuage de points (40) générée par la mesure d’un objet en trois dimensions, ledit nuage de points (40) comprenant une pluralité de points (40a) qui sont normalisés dans une grille de points normalisés à travers lequel la pointe de l’outil de coupe (42) doit passer, ledit trajet d’outil (43) étant générée en suivant ladite grille de points normalisés (40c) de façon séquentielle.
  12. 12. Procédé selon l’une quelconque des revendications précédentes, dans lequel ladite étape d’identification du relief (9) est réalisée par au moins l’une des étapes suivantes de:
    - imagerie et identification d’un code fourni sur ou adjacent à la maquette (9);
    - communication avec un dispositif d’identification sans fil (53) prévu dans ou à proximité de la maquette;
    - détermination d’une localisation géographique du dispositif électronique multimédia (3) et comparaison de cette localisation géographique avec une base de données comprenant un registre des localisations géographiques desdites maquettes.
  13. 13. Procédé selon l’une quelconque des revendications précédentes, comprenant en outre une étape consistant à déterminer si ladite maquette (9) est autorisée au moyen d’au moins l’une des étapes suivantes:
    - analyse de repères (51,52) prévus sur ou adjacents à ladite maquette (9);
    - communication avec un dispositif d’identification sans fil (53) prévu dans ou à proximité de la maquette (9);
    - détection et analyse d’une erreur volontaire (50) prévue sur la maquette (9).
  14. 14. Produit comprenant un support lisible par ordinateur, et un produit programme d’ordinateur comprenant des instructions exécutables par ordinateur sur le support lisible par ordinateur pour amener un dispositif électronique multimédia (3) comportant un processeur, une caméra (5) et un affichage (7) à exécuter le procédé comprenant les étape de l’une des revendications précédentes.
    CH 712 678 A2 ^ei «Ο
    ........................... **..· ··<*.·>·.··*·« ..>«%/:>;'> Χ.·.«'··>^^,·κ1 >.·> ·\·ν···£ · ·< <‘ :·· <’· -s-»··^:
    -1:
    •\.vvfc<v· sj-Xs^· Λ· .
    s^’···>Ά·'^ ··;·.» ’ν\<Χ^·^>&!ί**<|·>^7ί·>'^·ν?*·χ: V? 1¾¾¾^¾¾^¾¾¾¾¾¾^¾¾¾¾
    .; · Λ»ν·Α·\ \ · ||ggg»g
    BilBilliil gilililì
    1111¾¾¾
    8¾¾¾ æsslsissslM j|g|ggg ιΒ||||!§88§
    8/8^887/8/8¾¾¾¾¾¾¾¾¾¾¾.¾¾^ 8//8/888888888/8/888/8^8:'; 8/88888888 -$. ^Jrigfrf^ y·· : ·
    Ϊβ8β8ββ88 ^SSf /88/811¾¾¾¾¾ *;»VÎ\.S. ,.\\ *<kj$* ,«.V»\.· ^^8888//:78808¾¾^¾¾¾¾ .· ,\\\ζ· ϊ·}. $Λ·\« 'i«··':?.2¾\ ·:·
    8¾¾¾¾¾¾¾¾¾^¾¾¾¾^.¾¾^.
    78.6/78788//7/:/::-:-:-:::::-::-:::::./:::/:::-888¾ :--*.··· ^912
    CH 712 678 A2
    CH 712 678 A2
    Mise à disposition d’un rendu de relief et d'un dispositif électronique portable muni d'un produit de programme d'ordinateur
    2.1
    Prise d'image du rendu de relief
    CH 712 678 A2
CH00873/17A 2016-07-05 2017-07-05 Procédé d'affichage de données cartographiques. CH712678B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1601054A FR3053778B1 (fr) 2016-07-05 2016-07-05 Procede d'affichage de donnees cartographiques

Publications (2)

Publication Number Publication Date
CH712678A2 true CH712678A2 (fr) 2018-01-15
CH712678B1 CH712678B1 (fr) 2022-06-15

Family

ID=57680294

Family Applications (1)

Application Number Title Priority Date Filing Date
CH00873/17A CH712678B1 (fr) 2016-07-05 2017-07-05 Procédé d'affichage de données cartographiques.

Country Status (2)

Country Link
CH (1) CH712678B1 (fr)
FR (1) FR3053778B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4358069A1 (fr) * 2022-10-20 2024-04-24 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2464793A (en) * 1942-08-08 1949-03-22 Lester Cooke Jr H Method and apparatus for photographic scanning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4358069A1 (fr) * 2022-10-20 2024-04-24 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation
FR3141263A1 (fr) * 2022-10-20 2024-04-26 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation

Also Published As

Publication number Publication date
FR3053778B1 (fr) 2019-12-13
CH712678B1 (fr) 2022-06-15
FR3053778A1 (fr) 2018-01-12

Similar Documents

Publication Publication Date Title
EP2715662B1 (fr) Procede de localisation d&#39;une camera et de reconstruction 3d dans un environnement partiellement connu
EP0661672B1 (fr) Procédé et dispositif de traitement d&#39;image pour construire à partir d&#39;une image source une image cible avec changement de perspective
EP0661671B1 (fr) Procédé et dispositif de traitement d&#39;image pour construire à partir d&#39;une image source une image cible avec changement de perspective
FR2998401A1 (fr) Procede de reconstruction 3d et de mosaiquage 3d panoramique d&#39;une scene
WO2013139814A2 (fr) Modèle et procédé de production de modèle 3d photo-réalistes
EP2111605B1 (fr) Procédé et dispositif de création d&#39;au moins deux images clés correspondant à un objet tridimensionnel
Skamantzari et al. 3D Visualization for virtual museum development
FR2984057A1 (fr) Systeme de tournage de film video
Dellepiane et al. Using digital 3D models for study and restoration of cultural heritage artifacts
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d&#39;objets d&#39;un espace, construction de contours et applications
Adami et al. The bust of Francesco II Gonzaga: from digital documentation to 3D printing
FR2920243A1 (fr) Procedes et dispositifs de generation en temps reel de fonds cartographiques
CH712678A2 (fr) Procédé d&#39;affichage de données cartographiques.
CA2965332C (fr) Methode pour collecter des donnees d&#39;images destinees a produire une video immersive et methode de visualisation d&#39;un espace sur base de ces donnees d&#39;images
EP3482264B1 (fr) Procédé d&#39;usinage de reliefs
Furferi et al. Enhancing traditional museum fruition: current state and emerging tendencies
Kersten 3D models and virtual tours for a museum exhibition of vietnamese cultural heritage exhibits and sites
Tucci et al. A Defined Process to Digitally Reproduce in 3 D a Wide Set of Archaeological Artifacts for Virtual Investigation and Display
FR2864878A1 (fr) Procede et systeme de determination du deplacement d&#39;un pixel, et support d&#39;enregistrement pour la mise en oeuvre du procede
Furferi Innovative technologies for Virtual Museums: an overview
WO2018229358A1 (fr) Procédé et dispositif de construction d&#39;une image tridimensionnelle
EP1864260B1 (fr) Procede de reconstruction d&#39;image dans un graphique vectoriel
Jeffrey The Missing Dimension: Future directions in digital recording of early medieval sculptured stone
Pitzalis 3D and semantic web: new tools to document artifacts and to explore cultural heritage collections
Guillaume et al. Photogrammetry of cast collection, technical and analytical methodology of a digital rebirth

Legal Events

Date Code Title Description
PFA Name/firm changed

Owner name: GRAVITY.SWISS SA, CH

Free format text: FORMER OWNER: SPITZ AND TAL SA, CH