FR3053778A1 - Procede d'affichage de donnees cartographiques - Google Patents

Procede d'affichage de donnees cartographiques Download PDF

Info

Publication number
FR3053778A1
FR3053778A1 FR1601054A FR1601054A FR3053778A1 FR 3053778 A1 FR3053778 A1 FR 3053778A1 FR 1601054 A FR1601054 A FR 1601054A FR 1601054 A FR1601054 A FR 1601054A FR 3053778 A1 FR3053778 A1 FR 3053778A1
Authority
FR
France
Prior art keywords
model
additional data
relief
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1601054A
Other languages
English (en)
Other versions
FR3053778B1 (fr
Inventor
Eric Marguet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spitz & Tal SA
Original Assignee
Spitz & Tal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spitz & Tal SA filed Critical Spitz & Tal SA
Priority to FR1601054A priority Critical patent/FR3053778B1/fr
Priority to CH00873/17A priority patent/CH712678B1/fr
Publication of FR3053778A1 publication Critical patent/FR3053778A1/fr
Application granted granted Critical
Publication of FR3053778B1 publication Critical patent/FR3053778B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/06Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes for surveying; for geography, e.g. relief models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • H04W4/185Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals by embedding added-value information into content, e.g. geo-tagging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Software Systems (AREA)
  • Educational Technology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

La présente invention concerne un procédé d'affichage de données cartographiques, comprenant les étapes suivantes : -capture à l'aide d'un dispositif électronique multimédia (3) comprenant une caméra (5) de données d'image représentant une maquette d'un relief géographique ; -identification du relief, par comparaison avec au moins un modèle de référence de relief géographique ; -accès à des données additionnelles ; -affichage sur un dispositif d'affichage (7) dudit dispositif d'une image obtenue à partir desdites données d'image et desdites données additionnelles superposées.

Description

PROCÉDÉ D'AFFICHAGE DE DONNÉES CARTOGRAPHIQUES
Domaine technique
La présente invention concerne le domaine des maquettes cartographiques, ainsi qu'un programme d'ordinateur pour fournir des informations additionnelles aux observateurs d'une telle maquette.
Etat de l'art
On connaît dans l'état de la technique des maquettes de reliefs cartographiques qui représentent par exemple un pays, une chaîne de montagne, une ville etc. en miniature et en trois dimensions. Par relief cartographique, on entend un relief correspondant à une zone géographique étendue, comme un continent, un pays, une ville, un district, une région, un village, un parc, une montagne, une vallée, couvrant par exemple une zone de 5 kilomètres carrés au moins.
De telles maquettes sont souvent réalisées en bois ou en plastique et ornent par exemple des halls d'hôtels, des chalets, des réceptions d'office du tourisme, etc. Elles sont notamment utilisées par les voyageurs pour planifier ou relater une excursion ou une randonnée en se rendant beaucoup mieux compte du relief qu'à l'observation d'une simple carte papier ou électronique.
Les techniques de fabrication mises en œuvre pour la fabrication de telles maquettes de reliefs limitent cependant leur résolution ainsi que la quantité d'information qui peuvent y figurer. On connait par exempie des maquettes en bois ou en piastique de ia Suisse ou de l'art alpin dans lesquels la résolution minimale correspond à 1 kilomètre. Ces maquettes permettent de bien observer les principales montagnes, mais pas de planifier en détail une excursion.
Un but de la présente invention est donc de proposer un procédé pour augmenter l'utilité de telles maquettes, et de fournir des informations additionnelles à leurs utilisateurs.
Exposé de l'invention
Selon un aspect de l'invention, ce but est atteint grâce à un procédé d'affichage de données cartographiques, comprenant les étapes suivantes ; -capture à l'aide d'un dispositif électronique multimédia comprenant une caméra de données d'image représentant une maquette d'un relief géographique ; -identification du relief, par comparaison avec au moins un modèle de référence de relief géographique ; -accès à des données additionnelles ; -affichage sur un dispositif d'affichage dudit dispositif d'une image obtenue à partir desdites données d'image et desdites données additionnelles superposées.
Selon un aspect, l'invention concerne donc un procédé d'application de la réalité augmentée au monde des maquettes de reliefs géographiques.
La réalité augmentée est naturellement connue en tant que telle. Elle a aussi été employée au monde de la cartographie. A titre d'exemple, le document US2011/199479 décrit un système de cartographie à réalité augmentée et un procédé dans lequel un utilisateur filme et regarde une scène réelle au moyen d'une caméra et d'un écran d'affichage sur un dispositif portable de poche. La position géographique de l'utilisateur est déterminée par GPS, et les données de cartographie sont superposées sur l'image en mouvement de la scène capturée par la caméra, de manière à fournir des directions ou similaire à l'utilisateur, et pour mettre en évidence les points d'intérêt.
La réalité augmentée est également connue pour les applications cartographiques. Par exemple, l'application de carte à réalité augmentée UCLive (voir https://ucliveproject.wordpress.com/, archivé à https://web.archive.Org/web/20140814030527/http://ucliveproJect.wordpress.com/) fonctionne comme suit. Un utilisateur prend une image d'une carte standard de campus, et un modèle 3D prégénéré de la carte, comprenant d'autres couches d'informations, est affiché sur l'écran de l'appareil de poche. Le recadrage du modèle 3D et l'angle de vue correspondent à l'image capturée par la caméra, de telle sorte que l'utilisateur peut explorer la carte 2D en 3D via l'appareil de poche.
Toutefois, ces applications portent sur l'amélioration de l'information 2D avec la modélisation 3D, ou pour améliorer le monde réel avec une carte ou des informations de direction. En tant que tel, ils sont limités dans le niveau de détail qu'ils peuvent fournir. L'application de la réalité augmentée à des maquettes de relief géographique n'a jamais été suggérée. Une des raisons vient probablement de la faible résolution et précision des maquettes conventionnelles. Ces défauts rendent l'alignement des données additionnelles sur l'image de la maquette extrêmement difficile. La résolution des cartes papiers et des autres sources de données additionnelles à disposition est en effet typiquement de plusieurs ordres de grandeur supérieure à celle des meilleures maquettes. Il est par conséquent difficile ou même impossible de superposer correctement des données additionnelles utiles sur l'image d'une maquette, rendant toute tentative de réalité augmentée dans ce domaine inutile. Récemment, des progrès à la fois dans la modélisation de reliefs géographiques et dans les techniques de fabrication de maquettes ont ouvert l'espoir à des maquettes de relief géographique d'une résolution et d'une précision jugée impossible il y a encore peu de temps. De telles maquettes à haute résolution ont permis pour la première fois, dans le cadre de l'invention, d'imaginer des applications de réalité augmentée extrêmement utiles, comme on le verra plus loin, est par exemple possible de fabriquer une maquette à partir d'un substrat (qui peut être la base de la maquette ou un moule pour la maquette) par un procédé incorporant une étape d'usinage dans lequel les mouvements d'un outil de coupe ayant une pointe sont exprimés comme une trajectoire de l'outil selon les axes perpendiculaires X, Y et Z dans une grille dans un plan XY calculé sur la base d'un nuage de points généré par la mesure du relief, ledit nuage de points comprenant une pluralité de points qui sont normalisés dans une grille de points normalisés à travers laquelle la pointe de l'outil de coupe doit passer, ladite trajectoire de l'outil étant générée en suivant séquentiellement ladite grille normalisée de points, c'est-à-dire en suivant les lignes de la grille une par une dans les mêmes directions ou dans des directions alternées.
Par conséquent, un rendu hautement détaillé de la maquette peut être virtuellement augmenté en fournissant des informations via le dispositif électronique multimédia. En raison du processus d'usinage de haute précision de la maquette ou de son moule, les éléments caractéristiques (features), par exemple les bords dans le relief sont reproduits avec une extrême précision, ce qui n'est souvent pas le cas avec les techniques de calcul et d'usinage classiques. Comme c'est la détection de ces features qui est utilisés en tant que référence pour l'identification du relief reproduit par la maquette, puis pour l'alignement de l'image de cette maquette avec les données additionnelles à superposer, la précision de l'identification et de la superposition est fortement améliorée, ce qui ouvre la porte à des applications entièrement nouvelles et à la superposition de données additionnelles qu'il n'aurait pas été possible de superposer de manière précise sur une maquette conventionnelle..
En outre, les données additionnelles n'ont pas besoin d'être marquées directement sur la maquette, et une plus grande quantité et une plus grande variété d'informations peuvent être fournies par rapport aux procédés de l'art antérieur. En outre, comme la maquette est en trois dimensions, l'expérience de l'utilisateur est améliorée par rapport à une réalité augmentée "à plat" qui améliore par exemple une carte plane avec des informations virtuelles en 3D : dans le présent procédé, une structure 3D est augmentée avec une information virtuelle (que ce soit en 2D ou 3D), et l'expérience est donc beaucoup plus tactile et immédiate pour l'utilisateur.
Dans des variantes, la maquette peut représenter un animal ou une plante, ou un autre objet naturel qu'aucune maquette ne peut reproduire avec une résolution équivalente à l'original (par opposition à un objet industriel par exemple).
Avantageusement, l'étape d'identification de la maquette est réalisée par au moins l'une des étapes suivantes: - prise d'une image et d'identification d'un code fourni sur ou adjacente à la maquette ; - analyse des caractéristiques topographiques de la maquette; - communication avec un dispositif d'identification sans fil fourni dans ou adjacent à la maquette, tel qu'une puce RFID, un transpondeur Bluetooth ou WiFi ou similaire; - détermination de la localisation géographique du dispositif électronique multimédia et comparaison de cette position géographique avec une base de données comprenant un registre des localisations géographiques desdites maquettes.
Avantageusement, le procédé comprend en outre une étape consistant à déterminer si la maquette rend est autorisée au moyen d'au moins l'une des étapes suivantes: - analyse de repères fournis sur ou adjacents à la maquette; - communication avec un dispositif d'identification sans fil fourni dans ou adjacent à la maquette; - détection et analyse d'une erreur intentionnelle fournie sur la maquette.
Cette étape peut être intégrée avec, ou séparée de, l'étape d'identification de la maquette, et permet la détection de "fausses" maquettes.
Avantageusement, la normalisation dudit nuage de points est réalisée par la mise à l'échelle dudit nuage de points à des dimensions prédéterminées, à savoir les dimensions du substrat à usiner ou à une partie de celui-ci. Dans le cas où le nuage de points n'est sont pas déjà sous la forme d'une grille, la normalisation dudit nuage de points comprend également une étape de transformation dudit nuage de points en une grille uniformément espacée ayant une résolution souhaitée en modifiant les coordonnées X et Y de chaque point afin de se conformer à ladite grille.
Avantageusement, la normalisation dudit nuage de points peut également comprendre le comblement des points manquants sur ladite grille et / ou l'élimination des points excédentaires.
Avantageusement, les bords sont identifiés par l'analyse des ombres présentes dans ladite image, qui peuvent être accentuées en éclairant la maquette latéralement par une source de lumière artificielle. Avantageusement, les données additionnelles extraites de la base de données et projetées sur l'image de la maquette représentent au moins l'un des éléments suivants: - des informations cartographiques en deux dimensions - des informations cartographiques en trois dimensions; - des informations météorologiques ; -des itinéraires; -des annotations ; - des points d'intérêt; - des animations relatives à l'objet; - des caractéristiques de l'objet; - des liens directs vers des sites Web.
Ces données peuvent être en deux ou en trois dimensions.
Elles peuvent être disponibles sous forme d'image en deux ou en trois dimensions.
Elles peuvent être projetées sur un plan perpendiculaire à la direction de prise de vue.
Elles peuvent être projetées sur une surface correspond à la portion de relief capturée. Il est possible de tenir compte des occlusions. L'invention concerne également un produit comprenant un support lisible par ordinateur, et des instructions exécutables par ordinateur sur le support lisible par ordinateur pour amener un dispositif électronique multimédia comprenant un processeur, une caméra et un dispositif d'affichage pour mettre en œuvre le procédé ci-dessus.
Brève description des dessins D'autres détails de l'invention apparaîtront plus clairement dans la description qui suit en référence aux figures annexées, qui montrent:
Fig. 1: un système conforme à l'invention;
Fig. 2: un exemple d'utilisation du système du point de vue d'un utilisateur;
Fig. 3: un autre exemple de l'utilisation du système du point de vue d'un utilisateur;
Fig. 4: un organigramme illustrant le procédé de l'invention;
Fig. 5a et 5b: deux exemples d'information cartographique pour projeter sur une vue d'une maquette de relief géographique; - La figure 6: un organigramme illustrant un procédé de fabrication d'une maquette destinée à être utilisé dans l'invention;
Fig. 7: une représentation d'un ensemble de données de nuages de points utilisé comme base pour la fabrication d'une maquette;
Fig. 8a et 8b: des représentations des limitations sur le diamètre de la pointe de l'outil d'usinage;
Fig. 9a et 9b: des illustrations bidimensionnelles d'un outil de finition et de la trajectoire de l'outil finition correspondant;
Fig. 10a: une vue d'un substrat, un outil d'ébauche et la trajectoire de l'outil d'ébauche correspondante;
Fig. 10b: une vue d'un substrat après dégrossissage;
Fig. 10c: une vue en trois dimensions d’une partie d'un substrat après l'usinage de finition, avec une trajectoire d'outil de finition;
Fig. 11: une vue d'une maquette munie de mesures anti-contrefaçon;
Fig. 12 a-d: une représentation schématique du fonctionnement d'un post-processeur direct pour générer une trajectoire de l'outil à partir d'un nuage de points
Fig. 13: une représentation schématique illustrant le procédé de traitement d'un nuage de points avant une étape d'usinage selon l'invention,
Fig. 14: un mode de réalisation d'un système selon l'invention.
Mode de réalisation de l'invention
La figure 1 illustre un système 1 selon l'invention. Le système 1 comprend un dispositif électronique multimédia 3, par exemple un « smartphone », une tablette ou similaire, muni d'une caméra 5 (illustrée schématiquement sur la figure 1 par des lignes en pointillés représentant son champ de vision) sur un premier côté de celui-ci, et un écran d'affichage 7 sur un deuxième côté de celui-ci.
Comme il est généralement connu, un tel dispositif électronique multimédia 3 comprend en outre un processeur et un support de stockage lisible par ordinateur, contenu à l'intérieur. Ces deux derniers éléments sont contenus comme cela est classique dans le dispositif 3 et ne sont donc pas illustrés. Le support de stockage lisible par ordinateur contient, stockée dessus, un produit programme d'ordinateur (familièrement appelé "application"), qui comprend des instructions exécutables par ordinateur pour mettre en oeuvre le procédé décrit ci-dessous. Dans une variante une partie ou la totalité de ce procédé est mise en œuvre par un serveur à distance accessible par le dispositif électronique 3. Le dispositif électronique multimédia 3 serait typiquement fourni par un utilisateur lui-même, mais cela ne doit pas nécessairement être le cas.
Le système 1 comprend en outre une maquette 9 (« rendu de relief ») représentant un relief géographique caractérisé par nuage de points. Dans le cas de la figure 1, le sujet de la maquette 9 est la topographie de la Suisse, et est donc une carte en relief. La maquette 9 est fabriquée par usinage au moyen d'une machine-outil à commande numérique de haute résolution (CNC) d'un substrat plastique, en métal, en bois ou similaire. Un procédé particulièrement approprié d'un tel usinage par CNC avec une résolution suffisante est décrit plus en détail ci-dessous.
Alternativement, l'usinage CNC d'un moulage par injection ou d'un moule de coulée sous pression est également possible, suivie par un moulage par injection, un moulage par coulée, un moulage par soufflage en plastique ou en matériaux légers (aluminium, céramique, etc) ou lourds (béton,..) pour produire la maquette 9 est également possible, le substrat 45 étant alors la base pour le moule dans ce cas.
Comme mentionné ci-dessus, dans la figure 1, la maquette 9 représente la topographie de la Suisse. Elle peut évidemment représenter une quelconque région géographique différente à une échelle appropriée (un pays, une région, un état, une municipalité, une rue, ou même un parc).
La maquette 9 peut être laissée incolore, ou peut être peinte, enduite, ou avoir des informations déjà fournies dessus. Typiquement, cependant, la maquette 9 ne devrait pas être munie de données directement dessus, de manière à encourager l'utilisation de l'ensemble du système.
Il peut être avantageux, bien que non essentiel, d'installer la maquette 9 dans une enceinte 11 avec un éclairage contrôlé, tel qu'une source de lumière artificielle, comme une lampe 13 d'éclairage de la maquette 9 9 à partir d'un côté (par exemple à partir du dessus dans la présente figure), de manière à projeter des ombres et donc améliorer le contraste de l'image reçue par la caméra 5. Un tel contraste accru est utile pour simplifier le traitement requis lors de la manipulation numérique de l'image de la maquette 9 de manière à détecter le recadrage, la position, l'angle, l'orientation et ainsi de suite.
Le système 1 comprend également une base de données 15, qui peut être soit stockée localement dans le dispositif électronique 3 ou à distance et accessible via une connexion sans fil directe ou indirecte telles que WLAN, WiFi, Bluetooth, 3G, 4G ou similaire. La base de données 15 comprend des données additionnelles relatives à la portion de maquette 9 dont une image vient d'être capturée, comme des textures de surface, des informations cartographiques (par exemple des noms de lieux, des courbes de niveau, des altitudes), des points d'intérêt, des informations météorologiques, des informations didactiques, des itinéraires, par exemple des itinéraires de randonnée, de vélo, de cyclisme, recommandés ou préalablement parcourus par l'utilisateur et enregistrés via un récepteur de géolocalisation satellitaire, par exemple un récepteur GPS.
Les données additionnelles peuvent comporter des annotations, par exemple des textes, qui peuvent être placés plus ou moins librement sur l'image en relation avec un élément de cet image. Elles peuvent comporter des textures (par exemple des portions de cartes géographiques) ou des images (par exemple des images satellitaires, des photos, des images de synthèse, des images météorologiques etc) qui doivent être superposées précisément sur l'image capturée, en les projetant sur le relief. Les données peuvent comprendre des images fixes, par exemple des photographies ou des éléments graphiques. Elles peuvent comporter des images animées. Elles peuvent inclure des sons.
Les données additionnelles peuvent comprendre des images bidimensionnelles, par exemple des cartes, des images satellites, des relevés topographiques, des vidéos etc, destinées à être projetées sur l'image bidimensionnelle de la maquette capturée avec la caméra. Elles peuvent aussi inclure des images tridimensionnelles, par exemple un modèle de synthèse ou une image capturée avec une caméra tridimensionnelle ou une caméra stéréo ou à mesure de distance.
Les données additionnelles peuvent inclure des données génériques identiques qui sont identiques pour tous les utilisateurs du système ayant capturé une même image, et/ou des données personnelles, par exemple des données correspondant à un parcours de l'utilisateur. L'utilisateur peut sélectionner le type de données additionnelles qu'il souhaite afficher si plusieurs types différents sont fournis. La base de données 15 peut comprendre des informations relatives à plusieurs maquettes 9, dont l'une est sélectionné automatiquement, par exemple en reconnaissant un relief sur l'image, ou à l'aide d'un code barre, d'un QR-code sur l'image, ou en sélectionnant manuellement une maquette 9. Ce point est discuté plus en détail ci-dessous dans le contexte du procédé de l'invention.
La figure 2 illustre le système selon l'invention vu depuis le point de vue d'un utilisateur. Dans le cas présent, l'utilisateur visualise sur un dispositif d'affichage 7 de son appareil une image obtenue à partir des données d'image capturées et sur laquelle au moins une partie des données additionnelles sont superposées. Dans cet exemple, les données d'image correspondent à une prise de vue d'une maquette de la Suisse en relief, tandis que les données additionnelles incluent des informations cartographiques qui sont combinées sur l'image de ce relief, et correctement alignées par rapport à ce relief.
Les données d'image peuvent être par exemple l'image directement prise par le capteur d'image et affichée sur i'écran du dispositif. Un prétraitement est aussi possible, par exemple pour corriger la luminosité, ia baiance des blancs, le contraste, ou pour atténuer les ombres et les reflets par exemple. Il est aussi possibie de reconstituer une image différente de celles prises par la caméra, par exemple en combinant piusieurs trames successives pour générer un panorama, ou pour générer une image prise depuis un point de vue virtuei différent du point de vue réei.
La figure 3 iiiustre i'affichage d'une maquette 9 d'une partie d'un modèie tridimensionnel de feuille végétale avec le dispositif électronique multimédia 3. Pour regarder ies petits détails, un adaptateur optique 17 peut être prévu sur i'appareii photo 5 du dispositif éiectronique 3 de manière à augmenter ie grossissement et de réaiiser ainsi zoom suffisant et une résoiution suffisantes pour ie fonctionnement du procédé de i'invention dans ie cas où ia maquette et ies données additionneiies correspondantes sont de très haute résoiution.
La figure 4 iiiustre le procédé de l'invention dans sa forme ia plus simple, sous la forme d'un diagramme. A l'étape 21, les éléments du système 1 tels que décrits ci-dessus sont fournis. Typiquement, la maquette 9 serait fournie dans un lieu public ou dans un bâtiment public ou privé, sous la forme d'une maquette tridimensionelle en bois ou dans un autre matériau. Le dispositif électronique 3 peut être fourni par l'utilisateur lui-même, bien que cela n'a pas besoin d'être le cas. Le produit programme d'ordinateur peut être pré-chargé sur le dispositif électronique 3, fourni sur un support de données portable, ou peut être téléchargé à partir d'un réseau sans fil (Internet, Wi-Fi local. Bluetooth ou similaire). À cette fin, la maquette 9 ou ses environs peut indiquer comment télécharger le produit programme d'ordinateur, par exemple, en scannant un QR code (Quick Response Code) ou un code barres, en se connectant avec un dispositif d'identification sans fil 53 (voir fig. 11) tel que, mais pas limité à, un une étiquette RFID (Radio Frequency Identification tag), un modem WiFi ou Bluetooth, ou en visitant une adresse Internet indiquée.
Dans l'étape 22, l'utilisateur prend une image de la maquette 9, qui serait typiquement une image vidéo (c'est-à-dire un certain nombre de trames par seconde).
Le dispositif génère alors des données d'image correspondant à la portion de maquette capturée. Ces données d'image peuvent subir un prétraitement optionnel, par exemple pour changer la luminosité, le contraste, la balance des blancs, ou le point de vue.
Dans l'étape 23, la maquette 9 est identifiée. Cela peut être effectué par divers procédés.
Le produit programme d'ordinateur peut contenir un algorithme qui identifie la maquette 9 directement à partir de l'image capturée, et en la comparant avec un ou plusieurs modèles de référence afin de déterminer si l'image capturée correspond à une maquette connue, et à quel portion de cette maquette elle correspond. Cette identification peut mettre en œuvre un classificateur, par exemple un classificateur basé sur un réseau neuronal ou analogue. Le modèle de référence peut être un modèle bidimensionnel ou avantageusement un modèle tridimensionnel du relief.
Cette identification peut en particulier se baser sur des éléments caractéristiques (appelés « features » en reconnaissance d'image) de l'image capturée, par exemple des points caractéristiques de l'image capturée et du modèle de référence. Dans un mode de réalisation avantageux, le logiciel de reconnaissance d'image utilise des bords d'éléments (arêtes, coins, dépressions et ainsi de suite, notamment ceux accentués par des ombres. Dans le cas où la base de données 15 comprend des informations relatives à une seule maquette 9, celle-ci est identifiée, dans la mesure où le produit programme d'ordinateur détermine que l'image reçue est en effet celle de la maquette 9 et non celle d'un mur, d'un sol, ou d'un autre objet. En outre, la partie exacte de la maquette 9 imagée est identifiée, avec la détection du point de vue. Ce dernier peut être déterminé sur la seule base de l'image ou de trames successives capturées par la caméra 5 ; toutefois, elle peut aussi utiliser des informations relatives à l'orientation dans l'espace du dispositif électronique 3, déterminée par des capteurs appropriés incorporés dans le dispositif électronique 3, par exemple une boussole, un accéléromètre, un gyroscope, un inclinomètre, etc.
Dans le cas où la base de données comprend des informations relatives à de multiples maquettes 9, l'algorithme peut identifier quelle maquette 9 est capturée par la caméra 5, ainsi que la partie exacte de la maquette 9 imagée et le point de vue tel que décrit ci-dessus.
La maquette 9 peut également être identifiée au moyen de la prise d'image et de l'identification d'un logo, d'un ou plusieurs mots, de chiffres ou de symboles, d'un code barres ou d'un QR code, se connectant avec un Bluetooth ou transducteur de WiFi. En outre, cette identification peut être effectuée par comparaison de la position GPS de l'appareil électronique 3, tel que déterminé par un transducteur GPS qui y est incorporé, avec une table des localisations connues des maquettes 9 intégrée dans la base de données 15. Dans ce cas, l'étape 23 peut être réalisée avant l'étape 22, comme indiqué par la double flèche sur la figure 4.
La maquette 9 capturée peut aussi être identifiée au moyen d'une sélection manuelle par l'utilisateur, par exemple dans une liste. L'identification de la maquette 9 peut également comprendre une étape de détermination de l'authenticité du relief, par exemple en vérifiant si les moyens d'identification mentionnés ci-dessus sont contenus dans une base de données des maquettes approuvées. La figure 11 montre d'autres possibilités, à savoir: - constitution d'une ou plusieurs erreurs délibérées 50 (par exemple des erreurs d'échelle dans une partie de la maquette, des erreurs de fait, comme un lac ou une montagne ou un autre élément géographique ajouté ou supprimé) et leur détection; - incorporation de codes, adresses de site web 51 ou similaire aux alentours de la maquette 9; - caractéristiques esthétiques inoffensives de l'entourage de la maquette 9, tels que les barres 52; - un dispositif d'identification sans fil 53 comme une puce RFID, un transpondeur WiFi ou Bluetooth ou similaire.
Dans le cas où la maquette 9 est déterminée comme étant une contrefaçon sur la base de l'une des mesures mentionnées ci-dessus, le produit programme d'ordinateur peut arrêter le procédé et fournir une indication à l'utilisateur comme quoi la maquette 9 n'est pas authentique. Dans l'étape 24, la base de données 15 est consultée de manière à extraire des données additionnelles relatives à la maquette 9 et/ou à une partie de celle-ci étant prise en image par la caméra 5. Cette information est pertinente pour la maquette 9 particulière. Dans le cas d'une maquette d'un relief géographique, les données additionnelles peuvent être des images cartographiques en deux dimensions ou en trois dimensions, peuvent comporter des annotations de points d'intérêt, des informations géologiques, des informations historiques, des rendus météorologiques (par exemple une superposition de nuages ou de la situation météorologique), un rendu Jour-nuit, une superposition d'itinéraire planifié ou parcouru, ou similaires. Dans tous les cas, les données additionnelles extraites de la base de données 15 sont complémentaires à toute information fournie directement sur la maquette 9. En outre, des informations audio et vidéo peuvent également être fournies.
Dans l'étape 25, ces données additionnelles sont projetées sur l'image prise par la caméra 5 de manière à créer une image combinée intégrant à la fois les données d'image prises par l'appareil photo 5, fixes ou animées, brutes ou prétraitées, et aussi les données additionnelles extraites de la base de données 15. La projection peut comporter une étape de transformation géométrique des données additionnelles dans un plan perpendiculaire à la direction de prise de vue. Par exemple, dans le cas de projections d'une carte géographique ou d'autres données cartographiques sur l'image d'une maquette topographique, la projection peut inclure une étape de calcul de l'image de cette carte depuis le point de vue de la caméra, afin de superposer des images prises depuis le même point de vue.
Dans le cas d'image correspondant à une maquette comportant un relief important, par exemple un relief de montagne, et/ou de données de référence correspondant à un modèle tridimensionnel, la projection peut inclure une étape de calcul de la valeur de couleur de plusieurs points dans un espace tridimensionnel, à partir des données d'image capturées dans une ou plusieurs trames et des données additionnelles en 2 ou 3 dimensions. Une image bidimensionnelle de cet espace depuis le point de vue de la caméra est ensuite calculée par projection, puis restituée.
La projection peut inclure un alignement des données d'images capturées avec les données additionnelles. Cet alignement peut se baser sur les features précédemment identifiées, notamment des bords (nets) du relief (arêtes, dépressions, coins et ainsi de suite, qui sont particulièrement accentués par des ombres), et correspondance de ces features avec des features de référence dans les informations de référence dans la base de données 15.
Comme le montre la figure 5a, la superposition peut donc avoir lieu en deux dimensions, c'est-à-dire en projetant "à plat" des informations en deux dimensions 19 sur l'image de la maquette en trois dimensions. De manière alternative, et comme le montre la figure 5b, les données additionnelles 19 en deux ou en trois dimensions peuvent être "enveloppées" sur l'image de la maquette 9 en trois dimensions de telle sorte que les données superposées suivent le profil du relief, en tenant compte des occlusions, du point de vue, des ombres etc.. Cette dernière nécessite naturellement beaucoup plus de puissance de calcul, mais elle offre beaucoup plus de possibilités pour fournir des informations extrêmement détaillées, en particulier dans les applications cartographiques. En particulier, des informations 3D permettent la détection et la représentation de plus de sommets, plus d'ombres et ainsi de suite, et par exemple permettent de visualiser ou d'annoter une caractéristique cachée par des portions de la maquette 9 comme une route passant derrière une montagne dans la vue de la maquette 9. En déplaçant le point de vue on peut aussi rendre certaines données invisibles quand les éléments correspondants passent hors de la vue. En outre, les données additionnelles superposées peuvent être différentes en fonction du point de vue du dispositif électronique multimédia 3.
Dans l'étape 26, l'image combinée générée à l'étape 25 est affichée sur l'écran 7 du dispositif électronique 3 de sorte que l'utilisateur puisse l'afficher.
Afin que le dispositif électronique puisse discerner suffisamment de détails de la maquette 9 de manière à correctement analyser la position, l'angle et le recadrage de l'image de la maquette 9 de sorte que le procédé puisse être correctement réalisé, la maquette 9 (ou son moule dans le cas d'une maquette 9 moulée) doit être usinée à un degré de détail suffisant, comme cela sera décrit dans ce qui suit, en référence aux figures 6-10 et 12a-d. En particulier, la manière d'usinage (et notamment de calculer les trajectoires de l'outil) assure une représentation exacte et précise des bords qui sont utilisés pour la reconnaissance de l'angle et de l'orientation de la maquette 9 tel que pris en image par le dispositif électronique 3. L'objet de la maquette 9 (c'est-à-dire la topographie de la région géographique illustrée) est modélisée ou échantillonnée par un nuage de points 40 représentant des points à la surface de l'objet. Ces nuages de points ne sont pas toujours fournis dans une grille normalisée, et sont classiquement d'abord convertis en un réseau de surfaces géométriquement définies en utilisant des fonctions splines cubiques ou toute autre méthode appropriée. A partir de ce réseau de surfaces, des instructions de mouvement de l'outil sont générées, en tenant compte de la forme de la pointe de l'outil. Toutefois, ces approches peuvent conduire à des artéfacts tels que des transitions non naturelles entre les surfaces arbitrairement dérivées, et joindre ensemble des petits rendus partiels conduit également à des artefacts inacceptables à la jonction entre ces rendus partiels. En outre, de telles approches deviennent de plus en plus difficiles à calculer quand le degré de détail souhaité augmente, nécessitant de manière exponentielle plus de puissance de calcul. Le procédé tel que décrit ci-dessous élimine ces artefacts, et est infiniment évolutive, les seules limitations étant le temps machine disponible et l'usure des outils.
Un tel nuage de points 40 est fourni à l'étape 30, et un exemple de celui-ci est représenté dans la figure 7, qui représente un nuage de points d'une carte topographique de la Suisse, à une résolution donnée. Chaque point 40a du nuage de points comprend des informations spatiales sur le point mesuré en trois axes perpendiculaires X, Y et Z, X et Y étant les axes dans le plan horizontal, et Z étant l'axe vertical. Dans le cas des cartes topographiques, elles sont généralement exprimées en longitude (X), latitude (Y) et altitude (Z) respectivement. Les points peuvent être triés dans le plan XY en triant d'abord selon la valeur ascendante X, puis selon la valeur ascendante ou descendante Y (ou vice-versa) de façon à les disposer en deux dimensions dans le plan XY.
Dans les étapes 31 et 32, le nuage de points 40 est converti directement en instructions de mouvement selon les mêmes axes X, Y et Z, X et Y étant à nouveau dans le plan horizontal et Z étant l'axe vertical. Ces instructions de mouvement sont tout simplement les coordonnées de points dans l'espace à travers lequel la pointe de l'outil de finition 42 doit passer.
Il est calculé par un post-processeur dit direct, qui est une partie de logiciel exécuté sur un ordinateur. Le fonctionnement de ce post-processeur direct est illustré dans les figures 12a-12d. Ce post-processeur direct prend d'abord un nuage de points 40, comme illustré sur la figure 12a, et qui peut être regroupés ensemble à partir d'une pluralité de fichiers plus petits représentant chacun une partie du sujet de la maquette 9, puis met à l'échelle les données à l'échelle requise dépendant de la taille de la maquette 9 à former, en tenant compte des impératifs liés aux technologies d'usinages (corrélations entre les quadrillages et les capacités liées à l'outils utilisé), et en référence à un point de référence approprié pour la machine-outil CNC. Toute conversion d'unités (par exemple longitude/latitude en millimètres ou micromètres) peut également avoir lieu à ce moment. Ceci est représenté sur la figure 12b, qui montre les points de donnée individuelle 40a superposée sur une grille 40b de la résolution désirée dans le plan XY. A l'étape 31, les points de données 40a sont normalisés par rapport à la grille 40b, en modifiant les valeurs X et Y de chaque point de données 40a de manière à correspondre à une intersection de la grille 40b. Tous les points excédentaires, tels que les points intermédiaires où toutes les intersections de la grille sont déjà occupées peuvent être supprimés (comme indiqué par un "x"), ou peuvent également être fusionnés avec un autre point ou des points à une intersection de la grille en faisant par exemple la moyenne de ces points. En outre, toutes les intersections inoccupées de la grille peuvent être soit remplies par exemple par interpolation des points voisins, soit simplement laissées vide. Les points maillées normalisés 40c résultants sont représentés dans la figure 12c, avec des données de remplissage 40d représentées par des cercles vides plutôt que des points noirs.
Dans l'étape 32, en lisant chaque ligne des points maillés normalisés 40c selon un balayage avant-et-arrière comme illustré dans la figure 12d, une série de passes d'usinage, d'abord dans un sens puis dans le sens inverse pour la ligne suivante, une trajectoire d'outil 43 peut être directement lue sur les points normalisés quadrillé 40c sans autre calcul. Alternativement, un motif de balayage tramé peut être généré en lisant les données de la grille, chaque ligne étant lue dans la même direction, même si cela est moins efficace en terme de temps machine en raison du temps nécessaire pour reculer l'outil 42 au début de la prochaine coupe. Dans le cas de points de données manquants, si le remplissage n'a pas été réalisé, les instructions avancent simplement à la prochaine intersection de la grille remplie dans la séquence. Un bloc d'en-tête 43a peut également être ajouté pour initialiser la machine-outil à commande numérique, et un bloc de bas de page 43b peut être ajouté pour terminer l'usinage, selon les besoins.
Dans le cas où le nuage de points 40 est déjà quadrillé, la normalisation effectuée par le post-processeur direct peut simplement mettre à l'échelle le nuage de points à la résolution souhaitée.
En raison de la grande quantité de données nécessaire pour être traitées, un traitement parallèle peut être utilisé. Le post-processeur peut également procéder à une sélection d'un sous-ensemble des points constituant le nuage de points 40, par exemple pour réduire la résolution de celui-ci à un niveau gérable, par exemple, prendre tous les lOèmes points de données afin de réduire la résolution d'un facteur 10. Par rapport à une approche conventionnelle de définition des surfaces et de calcul des mouvements de l'outil requis pour former ces surfaces avec une forme donnée de l'outil, l'approche post-processeur direct est mieux utilisée avec un outil dont la pointe est suffisamment petite pour que les erreurs d'usinage résultant de la forme de l'outil de finition 42 soient réduites au minimum, qui est retenu à l'étape 33. Ce principe est illustré sur les Fig. 8a et 8b. Ces figures illustrent des trajectoires d'usinage 43 formées par des points maillés de données normalisées 40c. La figure 8a illustre le profil résultant 43c découpé avec un outil de finition 42 de trop grand diamètre.
Comme on peut clairement le voir, ce profil 43 diffère sensiblement de la trajectoire 43 déterminée par les points du premier ensemble. En particulier, le diamètre important de l'extrémité de l'outil 42 entraîne des collisions avec les flancs les plus raides du relief, et empêche l'usinage de trous étroits ou d'angles droits au pied de falaises verticales, par exemple.
La taille de l'outil de finition doit donc être suffisamment fine pour permettre un usinage en passant directement sur les points du premier ensemble, sans les décalages de rayon calculés habituellement par les programmes de FAO. La figure 4b illustre un outil de finition 42 dont le diamètre de la pointe est suffisamment petit pour que le profil fini se situe dans une tolérance acceptable par rapport à la trajectoire d'usinage 43.
Un outil trop fin risque cependant de se casser fréquemment ; d'autre part, la courbure de l'extrémité de l'outil est trop prononcée, entraînant l'usinage de sillons formant des stries et des nervures visibles sur la surface. Il est donc avantageux d'utiliser un outil de finition dont le diamètre à l'extrémité est supérieur au pas entre deux points du premier ensemble de points, afin que les sillons se chevauchent en évitant de laisser une nervure entre deux sillons. Des résultats optimaux ont été obtenus avec des diamètres d'outil de finition entre 2-10 fois le pas entre les points du premier ensemble de points.
Dans la pratique, pour une très grande maquette 9 de plusieurs mètres de largeur, un outil de finition dont la pointe présente un diamètre de 1 mm peut être suffisant. Pour les plus petits rendus, un diamètre de la pointe de l'outil de finition de 0.05mm maximum a été trouvé pour être le diamètre maximal pour fournir un niveau de détail suffisant dans la pratique pour la manipulation d'image requise dans le dispositif électronique multimédia 3 comme décrit plus haut. En outre, le niveau de résolution et donc de détails fournis par un outil de ces dimensions est suffisante pour qu'un degré utile de zoom puisse être utilisé sur la caméra de l'appareil électronique multimédia. En principe, plus la pointe de l'outil de finition est petite, plus la précision et la résolution de la maquette 9 est grande, mais plus le temps machine nécessaire est long, plus la gestion des usures d'outils est complexe et plus la résolution de la grille nécessaire est grande. A l'étape 32, un outil de finition approprié est choisi à cet effet.
La trajectoire 43 de l'outil de finition est également illustrée dans une vue en trois dimensions sur la figure 10c. L'outil de finition 42 est illustré dans les figures 9a et 9b comme étant un outil conique. D'autres formes d'outils (cylindre, sphère, toriques ...) sont également, bien sûr, possible. Avantageusement, l'outil de finition 42 est monté sur un robot 6 axes afin d'améliorer la précision et la résolution de la maquette 9. De cette manière, l'angle de l'outil de finition 42 peut être adapté de telle sorte que l'axe de l'outil de finition 42 soit toujours perpendiculaire à la trajectoire d'usinage 43.
Par rapport à un usinage CNC conventionnel basé sur la combinaison de formes standard et de mouvements standard de l'outil (arcs, lignes droites, cannelures et ainsi de suite), la présente invention procure la possibilité d'avoir beaucoup plus de détails et par conséquent la reproduction plus précise de la forme sur laquelle se fonde la maquette 9.
Dans l'étape 34, un outil d'ébauche est choisi de manière à faire efficacement une première coupe dans le substrat, afin d'éviter que l'outil de finition ait à couper trop profond et enlève trop de matériau, ce qui provoquerait une usure excessive de l'outil, une formation excessive de copeaux et des contraintes élevées sur l'outil de finition 42 avec un risque aussi élevé de rupture de l'outil. Cependant, il n'est pas essentiel qu'une coupe d'ébauche soit faite.
Sur la base de la trajectoire de l'outil de finition 43 et la forme de l'outil de finition 42, une trajectoire d'outil d'ébauche 46 (voir figure 10a) peut être calculée à l'étape 35. L'outil d'ébauche 44 présente un diamètre de coupe supérieur que celui de l'outil de finition 42, et sert à enlever suffisamment l'excès de matériau du substrat 45 dans lequel la maquette (ou son moule) 9 est usiné, de manière à laisser suffisamment de matière pour faire une coupe de finition de haute qualité, mais pas trop pour ne pas mettre à rude épreuve l'outil de finition 42.
Par la suite, un substrat 45 est fourni dans une machine-outil CNC à l'étape 36, qui est alors ébauché (étape 37 - en option) et soumis à des opérations de finition (étape 38) en utilisant les outils respectifs 42, 44 et les trajectoires d'outil respectives 43, 46.
La figure 10b illustre un substrat 45 après ébauchage, et la figure 10c illustre le substrat après les opérations de finition le long de la trajectoire de l'outil de finition 43 de manière à créer une maquette 9 (ou son moule dans le cas d'une maquette moulée 9).
Bien que l'utilisation du post-processeur direct décrit ci-dessus peut entraîner la production d'un grand nombre de points redondants. Par exemple, la surface d'un lac peut être décrite comme une surface plane et peut donc être définie de manière plus efficace avec des opérations conventionnelles CNC. Elle ne résulte en aucune surface irrégulière étant descriptible et étant ainsi usinée avec précision. Avantageusement, en référence à la figure 13, le nuage de points représentant des points sur la surface de l'objet, mesurée par laser 54, microscope électronique à balayage, confocal, ou tout dispositif approprié bien connu de l'homme de l'art, est envoyé en continu et traité par le post-processeur direct décrit ci-dessus et le nuage de points traité est envoyé en continu à la CNC 55 qui convertit en continu ledit nuage de points en instructions de déplacement de la pointe de l'outil de finition 42 selon les axes. Par conséquent, le système selon l'invention fonctionne d'une manière continue pour réduire le temps de traitement.
Accessoirement, en référence à la figure 14, le système 1 selon l'invention comprend en outre une source de lumière 56, telle qu'un laser par exemple, éclairant la maquette 9 qui comprend des structures générant un effet holographique ou diffractif. Par exemple, la maquette 9 comprend des réseaux de diffraction de surface procurant au moins une image diffractée lorsque la maquette 9 est éclairée par la source laser 56. Les microstructures en grille de réflexion holographique et/ou les structures de génération d'effet diffractif sont bien connus de l'homme du métier. De tels microstructures sont notamment décrites dans les documents W093/18419, WO95/04948, W095/02200, US4,761,253 et EP0105099.
Il est bien entendu que la présente invention n'est en aucune façon limitée aux formes de réalisations décrites ci-dessus et que bien des modifications peuvent y être apportées sans sortir du cadre des revendications annexées.

Claims (15)

1. Procédé d'affichage de données cartographiques, comprenant les étapes suivantes : -capture à l’aide d’un dispositif électronique multimédia (3) comprenant une caméra (5) de données d’image représentant une maquette d’un relief géographique ; -identification du relief, par comparaison avec au moins un modèle de référence de relief géographique ; -accès à des données additionnelles relatives au relief identifié ; -affichage sur un dispositif d’affichage (7) dudit dispositif d’une image obtenue à partir desdites données d’image et desdites données additionnelles superposées.
2. Procédé selon la revendication 1, lesdites données additionnelles comportant une texture, le procédé comportant une étape de projection de ladite texture sur lesdites données d’image.
3. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant un itinéraire.
4. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des informations cartographiques et/ou des points d’intérêt.
5. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des informations météorologiques.
6. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des images animées.
7. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des images bidimensionnelles.
8. Procédé selon l’une des revendications précédentes, lesdites données additionnelles comportant des images tridimensionnelles.
9. Procédé selon l’une des revendications précédentes, comportant une étape de projection desdites données additionnelles sur un plan perpendiculaire à la direction de prise de vue.
10. Procédé selon l’une des revendications précédentes, comportant une étape de projection desdites données additionnelles sur ledit relief vu depuis le point de vue de la caméra (5].
11. Procédé selon l’une des revendications précédentes, comportant en outre la fourniture d’une maquette (9), ladite maquette étant fabriquée à partir d'un substrat (45) par un procédé comportant une étape d'usinage dans laquelle les mouvements d'un outil de coupe (42) ayant une pointe sont exprimés sous forme d'un trajet d'outil ( 43] selon les axes perpendiculaires X, Y et Z dans une grille dans un plan XY calculée sur la base d'un nuage de points (40) générée par la mesure d'un objet en trois dimensions, ledit nuage de points (40) comprenant une pluralité de points (40a) qui sont normalisés dans une grille de points normalisés à travers lequel la pointe de l'outil de coupe (42) doit passer, ledit trajet d'outil (43) étant générée en suivant ladite grille de points normalisés (40c) de façon séquentielle.
12. Procédé selon l'une quelconque des revendications précédentes, dans lequel ladite étape d'identification du relief (9) est réalisée par au moins l'une des étapes suivantes de: - imagerie et identification d'un code fourni sur ou adjacent à la maquette (9); - communication avec un dispositif d'identification sans fil [53) prévu dans ou à proximité de la maquette; - détermination d'une localisation géographique du dispositif électronique multimédia (3) et comparaison de cette localisation géographique avec une hase de données comprenant un registre des localisations géographiques desdites maquettes.
13. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre une étape consistant à déterminer si ladite maquette [9) est autorisée au moyen d’au moins l’une des étapes suivantes: - analyse de repères [51, 52) prévus sur ou adjacents à ladite maquette [9); - communication avec un dispositif d'identification sans fil [53) prévu dans ou à proximité de la maquette (9); - détection et analyse d'une erreur volontaire [50) prévue sur la maquette [9).
14. Produit comprenant un support lisible par ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions exécutables par l’ordinateur, pour amener un dispositif électronique multimédia [3) comportant un processeur, une caméra [5) et un affichage [7) à exécuter le procédé comprenant les étapes de l'une des revendications précédentes.
15. Système [1) comprenant: - un dispositif électronique multimédia [3) comportant un processeur, une caméra [5) et un affichage (7); - une maquette d’un relief géographique [9); le produit de la revendication 14 comprenant lesdites instructions exécutables par ordinateur.
FR1601054A 2016-07-05 2016-07-05 Procede d'affichage de donnees cartographiques Active FR3053778B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1601054A FR3053778B1 (fr) 2016-07-05 2016-07-05 Procede d'affichage de donnees cartographiques
CH00873/17A CH712678B1 (fr) 2016-07-05 2017-07-05 Procédé d'affichage de données cartographiques.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1601054A FR3053778B1 (fr) 2016-07-05 2016-07-05 Procede d'affichage de donnees cartographiques
FR1601054 2016-07-05

Publications (2)

Publication Number Publication Date
FR3053778A1 true FR3053778A1 (fr) 2018-01-12
FR3053778B1 FR3053778B1 (fr) 2019-12-13

Family

ID=57680294

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1601054A Active FR3053778B1 (fr) 2016-07-05 2016-07-05 Procede d'affichage de donnees cartographiques

Country Status (2)

Country Link
CH (1) CH712678B1 (fr)
FR (1) FR3053778B1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3141263A1 (fr) * 2022-10-20 2024-04-26 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2464793A (en) * 1942-08-08 1949-03-22 Lester Cooke Jr H Method and apparatus for photographic scanning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2464793A (en) * 1942-08-08 1949-03-22 Lester Cooke Jr H Method and apparatus for photographic scanning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HU Y N ET AL: "Implementation of a Robot System for Sculptured Surface Cutting. Part 1. Rough Machining", THE INTERNATIONAL JOURNAL OF ADVANCED MANUFACTURING TECHNOLOGY,, vol. 15, no. 9, 1 January 1999 (1999-01-01), pages 624 - 629, XP002768685, DOI: 10.1007/S001700050111 *
HU Y N ET AL: "Implementation of a Robot System for Sculptured Surface Cutting. Part 2. Finish Machining", THE INTERNATIONAL JOURNAL OF ADVANCED MANUFACTURING TECHNOLOGY,, vol. 15, no. 9, 1 January 1999 (1999-01-01), pages 630 - 639, XP002768686 *
MA NAN ET AL: "Virtual conservation and interaction with our cultural heritage: Framework for multi-dimension model based interface", 2013 DIGITAL HERITAGE INTERNATIONAL CONGRESS (DIGITALHERITAGE), IEEE, vol. 1, 28 October 2013 (2013-10-28), pages 323 - 330, XP032568066, ISBN: 978-1-4799-3168-2, [retrieved on 20140218], DOI: 10.1109/DIGITALHERITAGE.2013.6743756 *

Also Published As

Publication number Publication date
CH712678B1 (fr) 2022-06-15
CH712678A2 (fr) 2018-01-15
FR3053778B1 (fr) 2019-12-13

Similar Documents

Publication Publication Date Title
EP2923330B1 (fr) Procede de reconstruction 3d et de mosaïquage 3d panoramique d'une scene
EP0661671B1 (fr) Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective
EP0661672B1 (fr) Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective
EP3401879A1 (fr) Procédé de modélisation d'un objet tridimensionnel à partir d'images bidimensionnelles de cet objet prises sous différents angles
EP2111605B1 (fr) Procédé et dispositif de création d'au moins deux images clés correspondant à un objet tridimensionnel
CA2856464A1 (fr) Systeme de tournage de film video
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications
Adami et al. The bust of Francesco II Gonzaga: from digital documentation to 3D printing
FR3053778A1 (fr) Procede d'affichage de donnees cartographiques
CA2965332C (fr) Methode pour collecter des donnees d'images destinees a produire une video immersive et methode de visualisation d'un espace sur base de ces donnees d'images
EP3482264B1 (fr) Procédé d'usinage de reliefs
EP3633625B1 (fr) Procede de texturation d'un modele 3d
EP1702472B1 (fr) Procede et systeme de determination du deplacement d un pixe l, et support d enregistrement pour la mise en oeuvre du pro cede
Tucci et al. A Defined Process to Digitally Reproduce in 3 D a Wide Set of Archaeological Artifacts for Virtual Investigation and Display
WO2018229358A1 (fr) Procédé et dispositif de construction d'une image tridimensionnelle
EP2192501B1 (fr) Procédé d'acquisition de données et procédé de construction d'un produit multimédia de visite virtuelle
FR3052287B1 (fr) Construction d'une image tridimensionnelle
Pitzalis 3D and semantic web: new tools to document artifacts and to explore cultural heritage collections
Cini Optical sensing technologies for the generation of reality-based 3D models of Cultural Heritage artifacts
Deschaud et al. Colorisation et texturation temps r\'eel d'environnements urbains par syst\eme mobile avec scanner laser et cam\'era fish-eye
WO2021239805A1 (fr) Construction d'images vues du dessus d'un tronçon de route
FR3141550A1 (fr) Procédé de positionnement de points d’intérêts sur une carte géographique vectorielle
FR2889640A1 (fr) Procede et outil de configuration d'au moins un systeme de videosurveillance intelligente
EP1864260A2 (fr) Procede de reconstruction d'image dans un graphique vectoriel
Friberg Observering Digitally-The use of Image-Based 3D Modelling Techniques for the documentation and study of Rune Stones

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180112

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8