CH712678B1 - Method of displaying cartographic data. - Google Patents
Method of displaying cartographic data. Download PDFInfo
- Publication number
- CH712678B1 CH712678B1 CH00873/17A CH8732017A CH712678B1 CH 712678 B1 CH712678 B1 CH 712678B1 CH 00873/17 A CH00873/17 A CH 00873/17A CH 8732017 A CH8732017 A CH 8732017A CH 712678 B1 CH712678 B1 CH 712678B1
- Authority
- CH
- Switzerland
- Prior art keywords
- model
- relief
- image
- additional data
- data
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B25/00—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
- G09B25/06—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes for surveying; for geography, e.g. relief models
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/18—Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
- H04W4/185—Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals by embedding added-value information into content, e.g. geo-tagging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Software Systems (AREA)
- Educational Technology (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
La présente invention concerne un procédé d'affichage de données cartographiques, comprenant les étapes suivantes : -capture à l'aide d'un dispositif électronique multimédia (3) comprenant une caméra (5) de données d'image représentant une maquette d'un relief géographique ; -identification du relief, par comparaison avec au moins un modèle de référence de relief géographique ; -accès à des données additionnelles ; -affichage sur un dispositif d'affichage (7) dudit dispositif d'une image obtenue à partir desdites données d'image et desdites données additionnelles superposées.The present invention relates to a method for displaying cartographic data, comprising the following steps: -capture using a multimedia electronic device (3) comprising a camera (5) of image data representing a model of a geographical relief; - relief identification, by comparison with at least one geographic relief reference model; -access to additional data; -display on a display device (7) of said device of an image obtained from said image data and said superimposed additional data.
Description
Domaine techniqueTechnical area
[0001] La présente invention concerne le domaine des maquettes cartographiques, ainsi qu'un programme d'ordinateur pour fournir des informations additionnelles aux observateurs d'une telle maquette. The present invention relates to the field of cartographic models, as well as a computer program to provide additional information to observers of such a model.
Etat de l'artState of the art
[0002] On connait dans l'état de la technique des maquettes de reliefs cartographiques qui représentent par exemple un pays, une chaîne de montagne, une ville etc. en miniature et en trois dimensions. Par relief cartographique, on entend un relief correspondant à une zone géographique étendue, comme un continent, un pays, une ville, un district, une région, un village, un parc, une montagne, une vallée, couvrant par exemple une zone de 5 kilomètres carrés au moins. [0002] In the state of the art, models of cartographic relief are known which represent, for example, a country, a mountain range, a town, etc. in miniature and in three dimensions. By cartographic relief, we mean a relief corresponding to an extended geographical area, such as a continent, a country, a city, a district, a region, a village, a park, a mountain, a valley, covering for example an area of 5 square kilometers at least.
[0003] De telles maquettes sont souvent réalisées en bois ou en plastique et ornent par exemple des halls d'hôtels, des chalets, des réceptions d'office du tourisme, etc. Elles sont notamment utilisées par les voyageurs pour planifier ou relater une excursion ou une randonnée en se rendant beaucoup mieux compte du relief qu'à l'observation d'une simple carte papier ou électronique. [0003] Such models are often made of wood or plastic and adorn, for example, hotel lobbies, chalets, tourist office receptions, and the like. They are used in particular by travelers to plan or relate an excursion or a hike by being much more aware of the relief than by observing a simple paper or electronic map.
[0004] Les techniques de fabrication mises en oeuvre pour la fabrication de telles maquettes de reliefs limitent cependant leur résolution ainsi que la quantité d'information qui peuvent y figurer. On connait par exemple des maquettes en bois ou en plastique de la Suisse ou de l'art alpin dans lesquels la résolution minimale correspond à 1 kilomètre. Ces maquettes permettent de bien observer les principales montagnes, mais pas de planifier en détail une excursion. [0004] The manufacturing techniques used for the manufacture of such relief models, however, limit their resolution as well as the quantity of information which may appear therein. We know, for example, wooden or plastic models of Switzerland or alpine art in which the minimum resolution corresponds to 1 kilometer. These models allow you to observe the main mountains well, but not to plan an excursion in detail.
[0005] MA NAN ET AL: „Virtual conservation and interaction with our cultural héritage: Framework for multidimension model based interface“, 2013 DIGITAL HERITAGE INTERNATIONAL CONGRESS (DIGITALHERITAGE), IEEE, vol. 1, 28 octobre 2013 (2013-10-28), pages 323-330 décrivent des maquettes muséographiques de ville, ainsi qu'un procédé pour les convertir en modèles virtuels en trois dimensions, sur laquelle des informations supplémentaires peuvent être ajoutées. [0005] MA NAN ET AL: „Virtual conservation and interaction with our cultural heritage: Framework for multidimensional model based interface“, 2013 DIGITAL HERITAGE INTERNATIONAL CONGRESS (DIGITALHERITAGE), IEEE, vol. 1, October 28, 2013 (2013-10-28), pages 323-330 describe museographic city models, as well as a process for converting them into three-dimensional virtual models, on which additional information can be added.
[0006] Ce procédé permet d'explorer un modèle virtuel de la ville même lorsque l'on se trouve à distance de la maquette. Le procédé de réalité virtuelle permet de récupérer le travail des maquettistes pour générer plus rapidement un environnement virtuel dans lequel on peut naviguer même en s'éloignant de la maquette. Il ne permet cependant pas de fournir des informations supplémentaires au visiteur en train d'observer la maquette physique. Il s'agit donc de réalité virtuelle (VR), mais pas de réalité augmentée. Le modèle 3D obtenu à partir de la maquette peut être visité, mais il n'est apparemment jamais aligné avec une image de la maquette physique. [0006] This process makes it possible to explore a virtual model of the city even when one is at a distance from the model. The virtual reality process makes it possible to recover the work of the model makers to more quickly generate a virtual environment in which one can navigate even when moving away from the model. However, it does not provide additional information to the visitor observing the physical model. It is therefore virtual reality (VR), but not augmented reality. The 3D model obtained from the mockup can be visited, but it is apparently never aligned with an image of the physical mockup.
[0007] La navigation dans un environnement entièrement virtuel est toujours moins intuitive que l'observation d'une maquette. De nombreux utilisateurs se perdent ou perdent le sens de l'orientation dans une simulation tridimensionnelle, alors que les maquettes sont plus faciles à appréhender. Cela provient notamment de la résolution limitée des écrans de smartphones et même d'ordinateurs, qui ne permettent pas d'afficher autant d'information qu'une maquette, et nécessite donc de défiler (scroller) ou de zoomer constamment pour passer d'une vue d'ensemble à une vue détaillée. A titre d'exemple, un écran d'ordinateur à ultra-haute résolution permet d'afficher environ 8 millions de pixels à trois dimensions, alors qu'une maquette cartographique peut être usinée à partir d'un nuage de 100 millions, voire d'un milliard de points, en trois dimensions. [0007] Navigating in an entirely virtual environment is always less intuitive than observing a model. Many users get lost or lose their sense of direction in a three-dimensional simulation, whereas mock-ups are easier to grasp. This is due in particular to the limited resolution of smartphone and even computer screens, which do not display as much information as a model, and therefore require constant scrolling or zooming to go from one overview to a detailed view. For example, an ultra-high resolution computer screen can display about 8 million three-dimensional pixels, while a cartographic model can be machined from a cloud of 100 million or even a billion points, in three dimensions.
[0008] Des projections d'informations supplémentaires directement sur la maquette sont aussi décrites dans ce document, mais il ne s'agit toujours pas de réalité augmentée. [0008] Projections of additional information directly on the model are also described in this document, but it is still not augmented reality.
[0009] Le contenu des maquettes est cependant statique et ne peut pas être personnalisé selon les informations qui intéressent l'utilisateur. Un but de la présente invention est de proposer un procédé pour augmenter l'utilité de telles maquettes, et de fournir des informations additionnelles aux utilisateurs en train de les admirer. [0009] The content of the models is however static and cannot be personalized according to the information that interests the user. An object of the present invention is to provide a method to increase the usefulness of such models, and to provide additional information to users admiring them.
Exposé de l'inventionDisclosure of Invention
[0010] Selon un aspect de l'invention, ce but est atteint grâce à un procédé d'affichage de données additionnelles sur une maquette d'un relief géographique, comprenant les étapes suivantes : -capture à l'aide d'un dispositif électronique multimédia comprenant une caméra de données d'image vidéo représentant la maquette d'un relief géographique ; -identification du relief, par comparaison avec au moins un modèle de référence de relief géographique, de manière à déterminer si l'image capturée correspond à une maquette connue, et à quelle portion de cette maquette elle correspond ; -identification de features dans lesdites données d'images ; -accès à des données additionnelles relatives au relief identifié ; -alignement des données d'images capturées avec les données additionnelles , en se basant sur lesdites features; -affichage sur un dispositif d'affichage dudit dispositif d'une image obtenue par superposition en temps réel desdites données additionnelles sur lesdites données d'image.[0010] According to one aspect of the invention, this object is achieved by means of a method for displaying additional data on a model of a geographical relief, comprising the following steps: -capture using an electronic device multimedia comprising a video image data camera representing the model of a geographical relief; -identification of the relief, by comparison with at least one reference model of geographical relief, so as to determine whether the captured image corresponds to a known model, and to which portion of this model it corresponds; - identification of features in said image data; - access to additional data relating to the identified relief; - alignment of captured image data with additional data, based on said features; -display on a display device of said device of an image obtained by superposition in real time of said additional data on said image data.
[0011] Selon un aspect, l'invention concerne donc un procédé d'application de la réalité augmentée au monde des maquettes de reliefs géographiques. According to one aspect, the invention therefore relates to a method for applying augmented reality to the world of geographical relief models.
[0012] La réalité augmentée est naturellement connue en tant que telle. De manière générale, elle concerne la superposition d'informations additionnelles, par exemple de textes, d'images, de vidéos, de textures, etc, sur un flux d'image vidéo. On parle de réalité augmentée en temps réel lorsque le décalage introduit par le processus de calcul des informations à superposer est suffisamment faible pour être imperceptible, et que l'utilisateur a l'impression de voir sur l'écran de son dispositif électronique une réalité modifiée. La réalité augmentée se distingue donc de la réalité virtuelle, dans laquelle l'utilisateur se déplace dans un environnement entièrement virtuel, généralement modélisé à l'avance. [0012] Augmented reality is naturally known as such. In general, it relates to the superposition of additional information, for example texts, images, videos, textures, etc., on a video image stream. We speak of augmented reality in real time when the shift introduced by the process of calculating the information to be superimposed is sufficiently small to be imperceptible, and the user has the impression of seeing on the screen of his electronic device a modified reality. . Augmented reality therefore differs from virtual reality, in which the user moves through an entirely virtual environment, generally modeled in advance.
[0013] La réalité augmentée a déjà été employée dans le monde de la cartographie. A titre d'exemple, le document US2011/199479 décrit un système de cartographie à réalité augmentée et un procédé dans lequel un utilisateur filme et regarde une scène réelle au moyen d'une caméra et d'un écran d'affichage sur un dispositif portable de poche. La position géographique de l'utilisateur est déterminée par GPS, et les données de cartographie sont superposées sur l'image en mouvement de la scène capturée par la caméra, de manière à fournir des directions ou similaire à l'utilisateur, et pour mettre en évidence les points d'intérêt. [0013] Augmented reality has already been used in the world of cartography. By way of example, document US2011/199479 describes an augmented reality mapping system and a method in which a user films and watches a real scene using a camera and a display screen on a portable device. of pocket. The geographical position of the user is determined by GPS, and the mapping data is overlaid on the moving image of the scene captured by the camera, so as to provide directions or the like to the user, and to highlight highlights points of interest.
[0014] La réalité augmentée est également connue pour les applications cartographiques. Par exemple, l'application de carte à réalité augmentée UCLive (voir https://ucliveproject.wordpress.com/, archivé à https://web.archive.org/web/2.014081403052.7/http://ucliveproject.wordpress.com/) fonctionne comme suit. Un utilisateur prend une image d'une carte standard de campus, et un modèle 3D pré-généré de la carte, comprenant d'autres couches d'informations, est affiché sur l'écran de l'appareil de poche. Le recadrage du modèle 3D et l'angle de vue correspondent à l'image capturée par la caméra, de telle sorte que l'utilisateur peut explorer la carte 2D en 3D via l'appareil de poche. [0014] Augmented reality is also known for cartographic applications. For example, the augmented reality map application UCLive (see https://ucliveproject.wordpress.com/, archived at https://web.archive.org/web/2.014081403052.7/http://ucliveproject.wordpress .com/) works as follows. A user takes an image of a standard campus map, and a pre-generated 3D model of the map, including other information layers, is displayed on the handheld device screen. The cropping of the 3D model and the angle of view correspond to the image captured by the camera, so that the user can explore the 2D map in 3D through the handheld device.
[0015] Toutefois, ces applications portent sur l'amélioration de l'information 2D avec la modélisation 3D, ou pour améliorer le monde réel avec une carte ou des informations de direction. En tant que tel, ils sont limités dans le niveau de détail qu'ils peuvent fournir. [0015] However, these applications focus on enhancing 2D information with 3D modeling, or enhancing the real world with a map or direction information. As such, they are limited in the level of detail they can provide.
[0016] L'application de la réalité augmentée à des maquettes de relief géographique n'a jamais été suggérée. Une des raisons vient probablement de la faible résolution et précision des maquettes conventionnelles. Ces défauts rendent l'alignement des données additionnelles sur l'image de la maquette extrêmement difficile. La résolution des cartes papiers et des autres sources de données additionnelles à disposition est en effet typiquement de plusieurs ordres de grandeur supérieure à celle des meilleures maquettes. Il est par conséquent difficile ou même impossible de superposer correctement des données additionnelles utiles sur l'image d'une maquette, rendant toute tentative de réalité augmentée dans ce domaine inutile. Récemment, des progrès à la fois dans la modélisation de reliefs géographiques et dans les techniques de fabrication de maquettes ont ouvert l'espoir à des maquettes de relief géographique d'une résolution et d'une précision jugée impossible il y a encore peu de temps. De telles maquettes à haute résolution ont permis pour la première fois, dans le cadre de l'invention, d'imaginer des applications de réalité augmentée extrêmement utiles, comme on le verra plus loin. est par exemple possible de fabriquer une maquette à partir d'un substrat (qui peut être la base de la maquette ou un moule pour la maquette) par un procédé incorporant une étape d'usinage dans lequel les mouvements d'un outil de coupe ayant une pointe sont exprimés comme une trajectoire de l'outil selon les axes perpendiculaires X, Y et Z dans une grille dans un plan XY calculé sur la base d'un nuage de points généré par la mesure du relief, ledit nuage de points comprenant une pluralité de points qui sont normalisés dans une grille de points normalisés à travers laquelle la pointe de l'outil de coupe doit passer, ladite trajectoire de l'outil étant générée en suivant séquentiellement ladite grille normalisée de points, c'est-à-dire en suivant les lignes de la grille une par une dans les mêmes directions ou dans des directions alternées. [0016] The application of augmented reality to geographical relief models has never been suggested. One of the reasons probably comes from the low resolution and precision of conventional models. These defects make the alignment of additional data on the mock-up image extremely difficult. The resolution of the paper maps and other sources of additional data available is indeed typically several orders of magnitude higher than that of the best models. It is therefore difficult or even impossible to correctly superimpose useful additional data on the image of a model, rendering any attempt at augmented reality in this field useless. Recently, advances in both geographic relief modeling and model-making techniques have opened up hope for geographic relief models of a resolution and accuracy deemed impossible until recently. . Such high-resolution models made it possible for the first time, within the framework of the invention, to imagine extremely useful augmented reality applications, as will be seen later. It is for example possible to manufacture a model from a substrate (which can be the base of the model or a mold for the model) by a process incorporating a machining step in which the movements of a cutting tool having a point are expressed as a path of the tool along the perpendicular axes X, Y and Z in a grid in an XY plane calculated on the basis of a cloud of points generated by the measurement of the relief, said cloud of points comprising a plurality of points which are normalized in a grid of normalized points through which the cutting tool tip is to pass, said tool path being generated by sequentially following said normalized grid of points, i.e. following the grid lines one by one in the same directions or in alternating directions.
[0017] Par conséquent, un rendu hautement détaillé de la maquette peut être virtuellement augmenté en fournissant des informations via le dispositif électronique multimédia. En raison du processus d'usinage de haute précision de la maquette ou de son moule, les éléments caractéristiques (c'est-à-dire les zones d'intérêt, plus communément désignées par le terme anglais de features), par exemple les bords dans le relief sont reproduits avec une extrême précision, ce qui n'est souvent pas le cas avec les techniques de calcul et d'usinage classiques. Comme c'est la détection de ces features qui est utilisés en tant que référence pour l'identification du relief reproduit par la maquette, puis pour l'alignement de l'image de cette maquette avec les données additionnelles à superposer, la précision de l'identification et de la superposition est fortement améliorée, ce qui ouvre la porte à des applications entièrement nouvelles et à la superposition de données additionnelles qu'il n'aurait pas été possible de superposer de manière précise sur une maquette conventionnelle.. [0017] Therefore, a highly detailed rendering of the model can be virtually augmented by providing information via the multimedia electronic device. Due to the high-precision machining process of the model or its mould, the characteristic elements (i.e. the areas of interest, more commonly referred to by the English term of features), for example the edges in relief are reproduced with extreme precision, which is often not the case with conventional calculation and machining techniques. As it is the detection of these features which is used as a reference for the identification of the relief reproduced by the model, then for the alignment of the image of this model with the additional data to be superimposed, the precision of the identification and overlay is greatly improved, which opens the door to entirely new applications and the overlay of additional data that would not have been possible to overlay accurately on a conventional mock-up.
[0018] En outre, les données additionnelles n'ont pas besoin d'être marquées directement sur la maquette, et une plus grande quantité et une plus grande variété d'informations peuvent être fournies par rapport aux procédés de l'art antérieur. En outre, comme la maquette est en trois dimensions, l'expérience de l'utilisateur est améliorée par rapport à une réalité augmentée „à plat“ qui améliore par exemple une carte plane avec des informations virtuelles en 3D : dans le présent procédé, une structure 3D est augmentée avec une information virtuelle (que ce soit en 2D ou 3D), et l'expérience est donc beaucoup plus tactile et immédiate pour l'utilisateur. [0018] Further, the additional data does not need to be marked directly on the artwork, and a greater amount and variety of information can be provided compared to prior art methods. Furthermore, as the model is in three dimensions, the user experience is improved compared to a "flat" augmented reality which improves for example a flat map with 3D virtual information: in the present method, a 3D structure is augmented with virtual information (whether 2D or 3D), and the experience is therefore much more tactile and immediate for the user.
[0019] Dans des variantes, la maquette peut représenter un animal ou une plante, ou un autre objet naturel qu'aucune maquette ne peut reproduire avec une résolution équivalente à l'original (par opposition à un objet industriel par exemple). In variants, the model can represent an animal or a plant, or another natural object that no model can reproduce with a resolution equivalent to the original (as opposed to an industrial object for example).
[0020] Avantageusement, l'étape d'identification de la maquette est réalisée par au moins l'une des étapes suivantes: prise d'une image et d'identification d'un code fourni sur ou adjacente à la maquette ; analyse des caractéristiques topographiques de la maquette; communication avec un dispositif d'identification sans fil fourni dans ou adjacent à la maquette, tel qu'une puce RFID, un transpondeur Bluetooth ou WiFi ou similaire; détermination de la localisation géographique du dispositif électronique multimédia et comparaison de cette position géographique avec une base de données comprenant un registre des localisations géographiques desdites maquettes.[0020] Advantageously, the model identification step is carried out by at least one of the following steps: capturing an image and identifying a code provided on or adjacent to the artwork; analysis of the topographic characteristics of the model; communication with a wireless identification device provided in or adjacent to the breadboard, such as an RFID chip, Bluetooth or WiFi transponder or the like; determination of the geographical location of the multimedia electronic device and comparison of this geographical position with a database comprising a register of the geographical locations of said models.
[0021] Avantageusement, le procédé comprend en outre une étape consistant à déterminer si la maquette rend est autorisée au moyen d'au moins l'une des étapes suivantes: analyse de repères fournis sur ou adjacents à la maquette; communication avec un dispositif d'identification sans fil fourni dans ou adjacent à la maquette; détection et analyse d'une erreur intentionnelle fournie sur la maquette.[0021] Advantageously, the method further comprises a step consisting in determining whether the rendering model is authorized by means of at least one of the following steps: analysis of markers provided on or adjacent to the model; communication with a wireless identification device provided in or adjacent to the model; detection and analysis of an intentional error provided on the model.
[0022] Cette étape peut être intégrée avec, ou séparée de, l'étape d'identification de la maquette, et permet la détection de „fausses“ maquettes. [0022] This step can be integrated with, or separated from, the model identification step, and allows the detection of “false” models.
[0023] Avantageusement, la normalisation dudit nuage de points est réalisée par la mise à l'échelle dudit nuage de points à des dimensions prédéterminées, à savoir les dimensions du substrat à usiner ou à une partie de celui-ci. Dans le cas où le nuage de points n'est sont pas déjà sous la forme d'une grille, la normalisation dudit nuage de points comprend également une étape de transformation dudit nuage de points en une grille uniformément espacée ayant une résolution souhaitée en modifiant les coordonnées X et Y de chaque point afin de se conformer à ladite grille. [0023] Advantageously, said point cloud is normalized by scaling said point cloud to predetermined dimensions, namely the dimensions of the substrate to be machined or a part thereof. In the event that the point cloud is not already in the form of a grid, normalizing said point cloud also comprises a step of transforming said point cloud into a uniformly spaced grid having a desired resolution by modifying the X and Y coordinates of each point in order to conform to said grid.
[0024] Avantageusement, la normalisation dudit nuage de points peut également comprendre le comblement des points manquants sur ladite grille et/ou l'élimination des points excédentaires. [0024] Advantageously, the normalization of said cloud of points can also comprise the filling of the missing points on the said grid and/or the elimination of the excess points.
[0025] Avantageusement, les bords sont identifiés par l'analyse des ombres présentes dans ladite image, qui peuvent être accentuées en éclairant la maquette latéralement par une source de lumière artificielle. [0025] Advantageously, the edges are identified by analyzing the shadows present in said image, which can be accentuated by illuminating the model laterally with a source of artificial light.
[0026] Avantageusement, les données additionnelles extraites de la base de données et projetées sur l'image de la maquette représentent au moins l'un des éléments suivants: des informations cartographiques en deux dimensions; des informations cartographiques en trois dimensions; des informations météorologiques ; des itinéraires; des annotations ; des points d'intérêt; des animations relatives à l'objet; des caractéristiques de l'objet; des liens directs vers des sites Web.[0026] Advantageously, the additional data extracted from the database and projected onto the image of the model represent at least one of the following elements: two-dimensional map information; three-dimensional map information; weather information; routes; annotations; points of interest; animations relating to the object; characteristics of the object; direct links to websites.
[0027] Ces données peuvent être en deux ou en trois dimensions. These data can be in two or three dimensions.
[0028] Elles peuvent être disponibles sous forme d'image en deux ou en trois dimensions. [0028] They may be available in the form of a two- or three-dimensional image.
[0029] Elles peuvent être projetées sur un plan perpendiculaire à la direction de prise de vue. [0029] They can be projected onto a plane perpendicular to the shooting direction.
[0030] Elles peuvent être projetées sur une surface correspond à la portion de relief capturée. Il est possible de tenir compte des occlusions. [0030] They can be projected onto a surface corresponding to the portion of relief captured. It is possible to take occlusions into account.
[0031] L'invention concerne également un produit comprenant un support lisible par ordinateur, et des instructions exécutables par ordinateur sur le support lisible par ordinateur pour amener un dispositif électronique multimédia comprenant un processeur, une caméra et un dispositif d'affichage pour mettre en œuvre le procédé ci-dessus. The invention also relates to a product comprising a computer-readable medium, and computer-executable instructions on the computer-readable medium for bringing a multimedia electronic device comprising a processor, a camera and a display device to perform the above process.
Brève description des dessinsBrief description of the drawings
[0032] D'autres détails de l'invention apparaîtront plus clairement dans la description qui suit en référence aux figures annexées, qui montrent: Fig. 1: un système conforme à l'invention; Fig. 2: un exemple d'utilisation du système du point de vue d'un utilisateur; Fig. 3: un autre exemple de l'utilisation du système du point de vue d'un utilisateur; Fig. 4: un organigramme illustrant le procédé de l'invention; Fig. 5a et 5b: deux exemples d'information cartographique pour projeter sur une vue d'une maquette de relief géographique; La figure 6: un organigramme illustrant un procédé de fabrication d'une maquette destinée à être utilisé dans l'invention; Fig. 7: une représentation d'un ensemble de données de nuages de points utilisé comme base pour la fabrication d'une maquette; Fig. 8a et 8b: des représentations des limitations sur le diamètre de la pointe de l'outil d'usinage; Fig. 9a et 9b: des illustrations bidimensionnelles d'un outil de finition et de la trajectoire de l'outil finition correspondant; Fig. 10a: une vue d'un substrat, un outil d'ébauche et la trajectoire de l'outil d'ébauche correspondante; Fig. 10b: une vue d'un substrat après dégrossissage; Fig. 10c: une vue en trois dimensions d'une partie d'un substrat après l'usinage de finition, avec une trajectoire d'outil de finition; Fig. 11: une vue d'une maquette munie de mesures anti-contrefaçon; Fig. 12 a-d: une représentation schématique du fonctionnement d'un post-processeur direct pour générer une trajectoire de l'outil à partir d'un nuage de points Fig. 13: une représentation schématique illustrant le procédé de traitement d'un nuage de points avant une étape d'usinage selon l'invention, Fig. 14: un mode de réalisation d'un système selon l'invention.Other details of the invention will appear more clearly in the following description with reference to the appended figures, which show: Fig. 1: a system according to the invention; Fig. 2: an example of using the system from a user's point of view; Fig. 3: another example of using the system from a user's perspective; Fig. 4: a flowchart illustrating the method of the invention; Fig. 5a and 5b: two examples of cartographic information to project onto a view of a geographical relief model; Figure 6: a flowchart illustrating a method of manufacturing a model for use in the invention; Fig. 7: a representation of a point cloud dataset used as the basis for making a model; Fig. 8a and 8b: representations of the limitations on the diameter of the point of the machining tool; Fig. 9a and 9b: two-dimensional illustrations of a finishing tool and the corresponding finishing tool path; Fig. 10a: a view of a substrate, a roughing tool and the corresponding roughing tool path; Fig. 10b: a view of a substrate after roughing; Fig. 10c: a three-dimensional view of part of a substrate after finish machining, with a finish toolpath; Fig. 11: a view of a model equipped with anti-counterfeiting measures; Fig. 12 a-d: a schematic representation of how a direct post processor works to generate a tool path from a point cloud Fig. 13: a schematic representation illustrating the process for processing a cloud of points before a machining step according to the invention, Fig. 14: an embodiment of a system according to the invention.
Mode de réalisation de l'inventionEmbodiment of the invention
[0033] La figure 1 illustre un système 1 selon l'invention. Le système 1 comprend un dispositif électronique multimédia 3, par exemple un „smartphone“, une tablette ou similaire, muni d'une caméra 5 (illustrée schématiquement sur la figure 1 par des lignes en pointillés représentant son champ de vision) sur un premier côté de celui-ci, et un écran d'affichage 7 sur un deuxième côté de celui-ci. Figure 1 illustrates a system 1 according to the invention. The system 1 comprises a multimedia electronic device 3, for example a "smartphone", a tablet or the like, provided with a camera 5 (shown schematically in FIG. 1 by dotted lines representing its field of vision) on a first side thereof, and a display screen 7 on a second side thereof.
[0034] Comme il est généralement connu, un tel dispositif électronique multimédia 3 comprend en outre un processeur et un support de stockage lisible par ordinateur, contenu à l'intérieur. Ces deux derniers éléments sont contenus comme cela est classique dans le dispositif 3 et ne sont donc pas illustrés. Le support de stockage lisible par ordinateur contient, stockée dessus, un produit programme d'ordinateur (familièrement appelé „application“), qui comprend des instructions exécutables par ordinateur pour mettre en oeuvre le procédé décrit ci-dessous. Dans une variante une partie ou la totalité de ce procédé est mise en oeuvre par un serveur à distance accessible par le dispositif électronique 3. Le dispositif électronique multimédia 3 serait typiquement fourni par un utilisateur lui-même, mais cela ne doit pas nécessairement être le cas. As is generally known, such a multimedia electronic device 3 further comprises a processor and a computer-readable storage medium contained therein. These last two elements are contained as is conventional in the device 3 and are therefore not illustrated. The computer-readable storage medium contains, stored thereon, a computer program product (colloquially referred to as an "application"), which includes computer-executable instructions for performing the method described below. In a variant, part or all of this method is implemented by a remote server accessible by the electronic device 3. The multimedia electronic device 3 would typically be provided by a user himself, but this does not necessarily have to be the case.
[0035] Le système 1 comprend en outre une maquette 9 („rendu de relief“) représentant un relief géographique caractérisé par nuage de points. Dans le cas de la figure 1, le sujet de la maquette 9 est la topographie de la Suisse, et est donc une carte en relief. La maquette 9 est fabriquée par usinage au moyen d'une machine-outil à commande numérique de haute résolution (CNC) d'un substrat plastique, en métal, en bois ou similaire. Un procédé particulièrement approprié d'un tel usinage par CNC avec une résolution suffisante est décrit plus en détail ci-dessous. The system 1 further comprises a model 9 (“relief rendering”) representing a geographical relief characterized by a cloud of points. In the case of FIG. 1, the subject of model 9 is the topography of Switzerland, and is therefore a relief map. The model 9 is manufactured by machining by means of a high-resolution digital control (CNC) machine tool of a plastic, metal, wood or similar substrate. A particularly suitable method of such CNC machining with sufficient resolution is described in more detail below.
[0036] Alternativement, l'usinage CNC d'un moulage par injection ou d'un moule de coulée sous pression est également possible, suivie par un moulage par injection, un moulage par coulée, un moulage par soufflage en plastique ou en matériaux légers (aluminium, céramique, etc) ou lourds (béton,..) pour produire la maquette 9 est également possible, le substrat 45 étant alors la base pour le moule dans ce cas. [0036] Alternatively, CNC machining of an injection molding or die casting mold is also possible, followed by injection molding, casting molding, blow molding in plastic or lightweight materials (aluminum, ceramic, etc.) or heavy (concrete, etc.) to produce the model 9 is also possible, the substrate 45 then being the base for the mold in this case.
[0037] Comme mentionné ci-dessus, dans la figure 1, la maquette 9 représente la topographie de la Suisse. Elle peut évidemment représenter une quelconque région géographique différente à une échelle appropriée (un pays, une région, un état, une municipalité, une rue, ou même un parc). As mentioned above, in Figure 1, the model 9 represents the topography of Switzerland. It can of course represent any different geographical region at an appropriate scale (a country, a region, a state, a municipality, a street, or even a park).
[0038] La maquette 9 peut être laissée incolore, ou peut être peinte, enduite, ou avoir des informations déjà fournies dessus. Typiquement, cependant, la maquette 9 ne devrait pas être munie de données directement dessus, de manière à encourager l'utilisation de l'ensemble du système. The model 9 can be left colorless, or can be painted, coated, or have information already provided on it. Typically, however, the model 9 should not have data directly on it, so as to encourage the use of the whole system.
[0039] Il peut être avantageux, bien que non essentiel, d'installer la maquette 9 dans une enceinte 11 avec un éclairage contrôlé, tel qu'une source de lumière artificielle, comme une lampe 13 d'éclairage de la maquette 9 à partir d'un côté (par exemple à partir du dessus dans la présente figure), de manière à projeter des ombres et donc améliorer le contraste de l'image reçue par la caméra 5. Un tel contraste accru est utile pour simplifier le traitement requis lors de la manipulation numérique de l'image de la maquette 9 de manière à détecter le recadrage, la position, l'angle, l'orientation et ainsi de suite. It may be advantageous, although not essential, to install the model 9 in an enclosure 11 with controlled lighting, such as an artificial light source, such as a lamp 13 for illuminating the model 9 from on one side (for example from the top in the present figure), so as to cast shadows and therefore improve the contrast of the image received by the camera 5. Such increased contrast is useful for simplifying the processing required during digital manipulation of the image of the model 9 so as to detect the cropping, the position, the angle, the orientation and so on.
[0040] Le système 1 comprend également une base de données 15, qui peut être soit stockée localement dans le dispositif électronique 3 ou à distance et accessible via une connexion sans fil directe ou indirecte telles que WLAN, WiFi, Bluetooth, 3G, 4G ou similaire. La base de données 15 comprend des données additionnelles relatives à la portion de maquette 9 dont une image vient d'être capturée, comme des textures de surface, des informations cartographiques (par exemple des noms de lieux, des courbes de niveau, des altitudes), des points d'intérêt, des informations météorologiques, des informations didactiques, des itinéraires, par exemple des itinéraires de randonnée, de vélo, de cyclisme, recommandés ou préalablement parcourus par l'utilisateur et enregistrés via un récepteur de géolocalisation satellitaire, par exemple un récepteur GPS. The system 1 also includes a database 15, which can either be stored locally in the electronic device 3 or remotely and accessible via a direct or indirect wireless connection such as WLAN, WiFi, Bluetooth, 3G, 4G or similar. The database 15 includes additional data relating to the model portion 9 of which an image has just been captured, such as surface textures, cartographic information (for example place names, level curves, altitudes) , points of interest, weather information, didactic information, routes, for example hiking, biking, cycling routes, recommended or previously traveled by the user and recorded via a satellite geolocation receiver, for example a GPS receiver.
[0041] Les données additionnelles peuvent comporter des annotations, par exemple des textes, qui peuvent être placés plus ou moins librement sur l'image capturée en relation avec un élément de cet image. Elles peuvent comporter des textures (par exemple des portions de cartes géographiques) ou des images (par exemple des images satellitaires, des photos, des images de synthèse, des images météorologiques etc) qui doivent être superposées précisément sur l'image capturée, en les projetant sur le relief. Les données peuvent comprendre des images fixes, par exemple des photographies ou des éléments graphiques. Elles peuvent comporter des images animées. Elles peuvent inclure des sons. The additional data can include annotations, for example texts, which can be placed more or less freely on the captured image in relation to an element of this image. They may include textures (for example portions of geographical maps) or images (for example satellite images, photos, synthetic images, meteorological images, etc.) which must be superimposed precisely on the captured image, by projecting onto the relief. The data may include still images, for example photographs or graphics. They may include animated images. They may include sounds.
[0042] Les données additionnelles peuvent comprendre des images tridimensionnelles, par exemple des cartes, des images satellites, des relevés topographiques, des vidéos etc, destinées à être projetées sur l'image bidimensionnelle de la maquette capturée avec la caméra. Elles peuvent aussi inclure des images tridimensionnelles, par exemple un modèle de synthèse ou une image capturée avec une caméra tridimensionnelle ou une caméra stéréo ou à mesure de distance. The additional data may include three-dimensional images, for example maps, satellite images, topographic surveys, videos, etc., intended to be projected onto the two-dimensional image of the model captured with the camera. They can also include three-dimensional images, for example a synthetic model or an image captured with a three-dimensional camera or a stereo or distance measurement camera.
[0043] Les données additionnelles peuvent inclure des données génériques identiques qui sont identiques pour tous les utilisateurs du système ayant capturé une même image, et/ou des données personnelles, par exemple des données correspondant à un parcours de l'utilisateur. [0043] The additional data may include identical generic data which is identical for all the users of the system having captured the same image, and/or personal data, for example data corresponding to a user path.
[0044] L'utilisateur peut sélectionner le type de données additionnelles qu'il souhaite afficher si plusieurs types différents sont fournis. La base de données 15 peut comprendre des informations relatives à plusieurs maquettes 9, dont l'une est sélectionné automatiquement, par exemple en reconnaissant un relief sur l'image, ou à l'aide d'un code barre, d'un QR-code sur l'image, ou en sélectionnant manuellement une maquette 9. Ce point est discuté plus en détail ci-dessous dans le contexte du procédé de l'invention. The user can select the type of additional data that he wishes to display if several different types are provided. The database 15 can include information relating to several models 9, one of which is selected automatically, for example by recognizing a relief on the image, or using a bar code, a QR- code on the image, or by manually selecting a model 9. This point is discussed in more detail below in the context of the method of the invention.
[0045] La figure 2 illustre le système selon l'invention vu depuis le point de vue d'un utilisateur. Dans le cas présent, l'utilisateur visualise sur un dispositif d'affichage 7 de son appareil une image obtenue à partir des données d'image capturées et sur laquelle au moins une partie des données additionnelles sont superposées. Dans cet exemple, les données d'image correspondent à une prise de vue d'une maquette de la Suisse en relief, tandis que les données additionnelles incluent des informations cartographiques qui sont combinées sur l'image de ce relief, et correctement alignées par rapport à ce relief. [0045] Figure 2 illustrates the system according to the invention seen from the point of view of a user. In the present case, the user visualizes on a display device 7 of his apparatus an image obtained from the captured image data and on which at least part of the additional data is superimposed. In this example, the image data corresponds to a shot of a model of Switzerland in relief, while the additional data includes cartographic information which is combined on the image of this relief, and correctly aligned with respect to to this relief.
[0046] Les données d'image peuvent être par exemple l'image directement prise par le capteur d'image et affichée sur l'écran du dispositif. Un prétraitement est aussi possible, par exemple pour corriger la luminosité, la balance des blancs, le contraste, ou pour atténuer les ombres et les reflets par exemple. Il est aussi possible de reconstituer une image différente de celles prises par la caméra, par exemple en combinant plusieurs trames successives pour générer un panorama, ou pour générer une image prise depuis un point de vue virtuel différent du point de vue réel. The image data can for example be the image directly taken by the image sensor and displayed on the screen of the device. Pre-processing is also possible, for example to correct brightness, white balance, contrast, or to reduce shadows and reflections, for example. It is also possible to reconstruct an image different from those taken by the camera, for example by combining several successive frames to generate a panorama, or to generate an image taken from a virtual point of view different from the real point of view.
[0047] La figure 3 illustre l'affichage d'une maquette 9 d'une partie d'un modèle tridimensionnel de feuille végétale avec le dispositif électronique multimédia 3. Pour regarder les petits détails, un adaptateur optique 17 peut être prévu sur l'appareil photo 5 du dispositif électronique 3 de manière à augmenter le grossissement et de réaliser ainsi zoom suffisant et une résolution suffisantes pour le fonctionnement du procédé de l'invention dans le cas où la maquette et les données additionnelles correspondantes sont de très haute résolution. [0047] Figure 3 illustrates the display of a model 9 of part of a three-dimensional model of plant leaf with the multimedia electronic device 3. To look at the small details, an optical adapter 17 can be provided on the camera 5 of the electronic device 3 so as to increase the magnification and thus achieve sufficient zoom and sufficient resolution for the operation of the method of the invention in the case where the model and the corresponding additional data are of very high resolution.
[0048] La figure 4 illustre le procédé de l'invention dans sa forme la plus simple, sous la forme d'un diagramme. A l'étape 21, les éléments du système 1 tels que décrits ci-dessus sont fournis. Typiquement, la maquette 9 serait fournie dans un lieu public ou dans un bâtiment public ou privé, sous la forme d'une maquette tridimensionelle en bois ou dans un autre matériau. Le dispositif électronique 3 peut être fourni par l'utilisateur lui-même, bien que cela n'a pas besoin d'être le cas. Le produit programme d'ordinateur peut être pré-chargé sur le dispositif électronique 3, fourni sur un support de données portable, ou peut être téléchargé à partir d'un réseau sans fil (Internet, Wi-Fi local, Bluetooth ou similaire). À cette fin, la maquette 9 ou ses environs peut indiquer comment télécharger le produit programme d'ordinateur, par exemple, en scannant un QR code (Quick Response Code) ou un code barres, en se connectant avec un dispositif d'identification sans fil 53 (voir fig. 11) tel que, mais pas limité à, un une étiquette RFID (Radio Frequency Identification tag), un modem WiFi ou Bluetooth, ou en visitant une adresse Internet indiquée. Dans l'étape 22, l'utilisateur prend une image de la maquette 9, qui serait typiquement une image vidéo (c'est-à-dire un certain nombre de trames par seconde). Figure 4 illustrates the method of the invention in its simplest form, in the form of a diagram. At step 21, the elements of system 1 as described above are provided. Typically, the model 9 would be provided in a public place or in a public or private building, in the form of a three-dimensional model in wood or in another material. The electronic device 3 can be supplied by the user himself, although this need not be the case. The computer program product can be pre-loaded on the electronic device 3, provided on a portable data medium, or can be downloaded from a wireless network (Internet, local Wi-Fi, Bluetooth or similar). To this end, the model 9 or its surroundings may indicate how to download the computer program product, for example, by scanning a QR code (Quick Response Code) or a bar code, by connecting with a wireless identification device 53 (see fig. 11) such as, but not limited to, a Radio Frequency Identification tag (RFID), WiFi or Bluetooth modem, or by visiting a listed Internet address. In step 22, the user takes an image of the model 9, which would typically be a video image (that is to say a certain number of frames per second).
[0049] Le dispositif génère alors des données d'image correspondant à la portion de maquette capturée. Ces données d'image peuvent subir un prétraitement optionnel, par exemple pour changer la luminosité, le contraste, la balance des blancs, ou le point de vue. The device then generates image data corresponding to the captured model portion. This image data may undergo optional pre-processing, for example to change brightness, contrast, white balance, or viewpoint.
[0050] Dans l'étape 23, la maquette 9 est identifiée. Cela peut être effectué par divers procédés. [0050] In step 23, the model 9 is identified. This can be done by various methods.
[0051] Le produit programme d'ordinateur peut contenir un algorithme qui identifie la maquette 9 directement à partir de l'image capturée, et en la comparant avec un ou plusieurs modèles de référence afin de déterminer si l'image capturée correspond à une maquette connue, et à quelle portion de cette maquette elle correspond. Cette identification peut mettre en oeuvre un classificateur, par exemple un classificateur basé sur un réseau neuronal ou analogue. Le modèle de référence peut être un modèle bidimensionnel ou avantageusement un modèle tridimensionnel du relief. [0051] The computer program product may contain an algorithm which identifies the model 9 directly from the captured image, and by comparing it with one or more reference models in order to determine whether the captured image corresponds to a model known, and to which portion of this model it corresponds. This identification can implement a classifier, for example a classifier based on a neural network or the like. The reference model can be a two-dimensional model or advantageously a three-dimensional model of the relief.
[0052] Cette identification peut en particulier se baser sur des zones d'intérêt (éléments caractéristiques, appelés „features“ en reconnaissance d'image) de l'image capturée, par exemple des points caractéristiques de l'image capturée et du modèle de référence. Dans un mode de réalisation avantageux, le logiciel de reconnaissance d'image utilise des bords d'éléments (arêtes, coins, dépressions et ainsi de suite), notamment ceux accentués par des ombres. Dans le cas où la base de données 15 comprend des informations relatives à une seule maquette 9, celle-ci est identifiée, dans la mesure où le produit programme d'ordinateur détermine que l'image reçue est en effet celle de la maquette 9 et non celle d'un mur, d'un sol, ou d'un autre objet. En outre, la partie exacte de la maquette 9 imagée est identifiée, avec la détection du point de vue. Ce dernier peut être déterminé sur la seule base de l'image ou de trames successives capturées par la caméra 5 ; toutefois, elle peut aussi utiliser des informations relatives à l'orientation dans l'espace du dispositif électronique 3, déterminée par des capteurs appropriés incorporés dans le dispositif électronique 3, par exemple une boussole, un accéléromètre, un gyroscope, un inclinomètre, etc. This identification can in particular be based on areas of interest (characteristic elements, called “features” in image recognition) of the captured image, for example characteristic points of the captured image and of the model of reference. In an advantageous embodiment, the image recognition software uses element edges (edges, corners, depressions and so on), in particular those accentuated by shadows. In the case where the database 15 includes information relating to a single model 9, the latter is identified, insofar as the computer program product determines that the image received is indeed that of the model 9 and not that of a wall, floor, or other object. In addition, the exact part of the imaged model 9 is identified, with the detection of the point of view. The latter can be determined solely on the basis of the image or of successive frames captured by the camera 5; however, it can also use information relating to the orientation in space of the electronic device 3, determined by suitable sensors incorporated in the electronic device 3, for example a compass, an accelerometer, a gyroscope, an inclinometer, etc.
[0053] Dans le cas où la base de données comprend des informations relatives à de multiples maquettes 9, l'algorithme peut identifier quelle maquette 9 est capturée par la caméra 5, ainsi que la partie exacte de la maquette 9 imagée et le point de vue tel que décrit ci-dessus. [0053] In the case where the database includes information relating to multiple models 9, the algorithm can identify which model 9 is captured by the camera 5, as well as the exact part of the model 9 imaged and the point of view as described above.
[0054] La maquette 9 peut également être identifiée au moyen de la prise d'image et de l'identification d'un logo, d'un ou plusieurs mots, de chiffres ou de symboles, d'un code barres ou d'un QR code, se connectant avec un Bluetooth ou transducteur de WiFi. En outre, cette identification peut être effectuée par comparaison de la position GPS de l'appareil électronique 3, tel que déterminé par un transducteur GPS qui y est incorporé, avec une table des localisations connues des maquettes 9 intégrée dans la base de données 15. Dans ce cas, l'étape 23 peut être réalisée avant l'étape 22, comme indiqué par la double flèche sur la figure 4. The model 9 can also be identified by taking an image and identifying a logo, one or more words, numbers or symbols, a bar code or a QR code, connecting with a Bluetooth or WiFi transducer. In addition, this identification can be performed by comparing the GPS position of the electronic device 3, as determined by a GPS transducer incorporated therein, with a table of known locations of the models 9 integrated into the database 15. In this case, step 23 can be performed before step 22, as indicated by the double arrow in Figure 4.
[0055] La maquette 9 capturée peut aussi être identifiée au moyen d'une sélection manuelle par l'utilisateur, par exemple dans une liste. The model 9 captured can also be identified by means of a manual selection by the user, for example from a list.
[0056] L'identification de la maquette 9 peut également comprendre une étape de détermination de l'authenticité du relief, par exemple en vérifiant si les moyens d'identification mentionnés ci-dessus sont contenus dans une base de données des maquettes approuvées. La figure 11 montre d'autres possibilités, à savoir: constitution d'une ou plusieurs erreurs délibérées 50 (par exemple des erreurs d'échelle dans une partie de la maquette, des erreurs de fait, comme un lac ou une montagne ou un autre élément géographique ajouté ou supprimé) et leur détection; incorporation de codes, adresses de site web 51 ou similaire aux alentours de la maquette 9; caractéristiques esthétiques inoffensives de l'entourage de la maquette 9, tels que les barres 52; un dispositif d'identification sans fil 53 comme une puce RFID, un transpondeur WiFi ou Bluetooth ou similaire.The identification of the model 9 can also include a step of determining the authenticity of the relief, for example by checking whether the means of identification mentioned above are contained in a database of approved models. Figure 11 shows other possibilities, namely: constitution of one or more deliberate errors 50 (for example errors of scale in a part of the model, errors of fact, such as a lake or a mountain or another geographical element added or deleted) and their detection; incorporation of codes, website addresses 51 or similar around the model 9; innocuous aesthetic features of the surrounding of the model 9, such as the bars 52; a wireless identification device 53 such as an RFID chip, a WiFi or Bluetooth transponder or the like.
[0057] Dans le cas où la maquette 9 est déterminée comme étant une contrefaçon sur la base de l'une des mesures mentionnées ci-dessus, le produit programme d'ordinateur peut arrêter le procédé et fournir une indication à l'utilisateur comme quoi la maquette 9 n'est pas authentique. [0057] In the event that the model 9 is determined to be a counterfeit on the basis of one of the measurements mentioned above, the computer program product can stop the process and provide an indication to the user that model 9 is not authentic.
[0058] Dans l'étape 24, la base de données 15 est consultée de manière à extraire des données additionnelles relatives à la maquette 9 et/ou à une partie de celle-ci étant prise en image par la caméra 5. Cette information est pertinente pour la maquette 9 particulière. Dans le cas d'une maquette d'un relief géographique, les données additionnelles peuvent être des images cartographiques en deux dimensions ou en trois dimensions, peuvent comporter des annotations de points d'intérêt, des informations géologiques, des informations historiques, des rendus météorologiques (par exemple une superposition de nuages ou de la situation météorologique), un rendu jour-nuit, une superposition d'itinéraire planifié ou parcouru, ou similaires. Dans tous les cas, les données additionnelles extraites de la base de données 15 sont complémentaires à toute information fournie directement sur la maquette 9. En outre, des informations audio et vidéo peuvent également être fournies. In step 24, the database 15 is consulted so as to extract additional data relating to the model 9 and/or to a part of the latter being imaged by the camera 5. This information is relevant to the particular model 9. In the case of a model of a geographical relief, the additional data may be two-dimensional or three-dimensional cartographic images, may include annotations of points of interest, geological information, historical information, meteorological renderings (e.g., cloud or weather overlay), day-night rendering, planned or traveled route overlay, or the like. In all cases, the additional data extracted from the database 15 is complementary to any information provided directly on the model 9. In addition, audio and video information can also be provided.
[0059] Dans l'étape 25, ces données additionnelles sont projetées sur l'image vidéo prise par la caméra 5 de manière à créer une image vidéo combinée intégrant à la fois les données d'image prises par l'appareil photo 5, fixes ou animées, brutes ou prétraitées, et aussi les données additionnelles, fixes ou animées, extraites de la base de données 15. Ce calcul est effectué en temps réel, c'est-à-dire sans retard perceptible pour l'utilisateur, afin de lui restituer en temps réel sur l'écran de son dispositif une image vidéo modifiée et enrichie par rapport à l'image capturée. L'utilisateur voit ainsi une image modifiée de la maquette, ou d'une portion de la maquette, qu'il a sous ses yeux. Il peut changer son point de vue, ou zoomer sur un détail, simplement en déplaçant son dispositif par rapport à la maquette. In step 25, these additional data are projected onto the video image taken by the camera 5 so as to create a combined video image integrating both the image data taken by the camera 5, fixed or animated, raw or preprocessed, and also the additional data, fixed or animated, extracted from the database 15. This calculation is carried out in real time, that is to say without any noticeable delay for the user, in order to restore to him in real time on the screen of his device a video image modified and enriched with respect to the captured image. The user thus sees a modified image of the model, or of a portion of the model, which he has before his eyes. He can change his point of view, or zoom in on a detail, simply by moving his device in relation to the model.
[0060] La projection peut comporter une étape de transformation géométrique des données additionnelles dans un plan perpendiculaire à la direction de prise de vue. Par exemple, dans le cas de projections d'une carte géographique ou d'autres données cartographiques sur l'image d'une maquette topographique, la projection peut inclure une étape de calcul de l'image de cette carte depuis le point de vue de la caméra, afin de superposer des images prises depuis le même point de vue. [0060] The projection may comprise a step of geometric transformation of the additional data in a plane perpendicular to the shooting direction. For example, in the case of projections of a geographical map or other cartographic data onto the image of a topographical model, the projection may include a step of calculating the image of this map from the point of view of the camera, in order to superimpose images taken from the same point of view.
[0061] Dans le cas d'image correspondant à une maquette comportant un relief important, par exemple un relief de montagne, et/ou de données de référence correspondant à un modèle tridimensionnel, la projection peut inclure une étape de calcul de la valeur de couleur de plusieurs points dans un espace tridimensionnel, à partir des données d'image capturées dans une ou plusieurs trames et des données additionnelles en 2 ou 3 dimensions. Une image bidimensionnelle de cet espace depuis le point de vue de la caméra est ensuite calculée par projection, puis restituée. [0061] In the case of an image corresponding to a model comprising significant relief, for example mountain relief, and/or reference data corresponding to a three-dimensional model, the projection may include a step of calculating the value of color of several points in a three-dimensional space, from image data captured in one or more frames and additional data in 2 or 3 dimensions. A two-dimensional image of this space from the point of view of the camera is then calculated by projection, then returned.
[0062] La projection inclut un alignement des données d'images capturées avec les données additionnelles. Cet alignement peut se baser sur les features précédemment identifiées, notamment des bords (nets) du relief (arêtes, dépressions, coins et ainsi de suite, qui sont particulièrement accentués par des ombres), et sur une correspondance de ces features avec des features de référence dans les informations de référence dans la base de données 15. [0062] The projection includes an alignment of the captured image data with the additional data. This alignment can be based on the previously identified features, in particular the (sharp) edges of the relief (ridges, depressions, corners and so on, which are particularly accentuated by shadows), and on a correspondence of these features with features of reference in the reference information in the database 15.
[0063] Comme le montre la figure 5a, la superposition peut donc avoir lieu en deux dimensions, c'est-à-dire en projetant „à plat“ des informations en deux dimensions 19 sur l'image de la maquette en trois dimensions. De manière alternative, et comme le montre la figure 5b, les données additionnelles 19 en deux ou en trois dimensions peuvent être „enveloppées“ sur l'image de la maquette 9 en trois dimensions de telle sorte que les données superposées suivent le profil du relief, en tenant compte des occlusions, du point de vue, des ombres etc.. Cette dernière nécessite naturellement beaucoup plus de puissance de calcul, mais elle offre beaucoup plus de possibilités pour fournir des informations extrêmement détaillées, en particulier dans les applications cartographiques. En particulier, des informations 3D permettent la détection et la représentation de plus de sommets, plus d'ombres et ainsi de suite, et par exemple permettent de visualiser ou d'annoter une caractéristique cachée par des portions de la maquette 9 comme une route passant derrière une montagne dans la vue de la maquette 9. En déplaçant le point de vue on peut aussi rendre certaines données invisibles quand les éléments correspondants passent hors de la vue. En outre, les données additionnelles superposées peuvent être différentes en fonction du point de vue du dispositif électronique multimédia 3. As shown in Figure 5a, the superposition can therefore take place in two dimensions, that is to say by projecting "flat" information in two dimensions 19 on the image of the model in three dimensions. Alternatively, and as shown in Figure 5b, the additional data 19 in two or three dimensions can be "wrapped" on the image of the model 9 in three dimensions in such a way that the superimposed data follow the profile of the relief. , taking into account occlusions, viewpoint, shadows etc. The latter naturally requires much more computing power, but it offers many more possibilities to provide extremely detailed information, especially in cartographic applications. In particular, 3D information allows the detection and representation of more vertices, more shadows and so on, and for example makes it possible to visualize or annotate a characteristic hidden by portions of the model 9 such as a road passing behind a mountain in the view of the model 9. By moving the point of view you can also make certain data invisible when the corresponding elements pass out of view. Furthermore, the additional data superimposed may be different depending on the point of view of the multimedia electronic device 3.
[0064] Dans l'étape 26, l'image combinée générée à l'étape 25 est affichée sur l'écran 7 du dispositif électronique 3 de sorte que l'utilisateur puisse l'afficher. [0064] In step 26, the combined image generated in step 25 is displayed on the screen 7 of the electronic device 3 so that the user can display it.
[0065] Afin que le dispositif électronique puisse discerner suffisamment de détails de la maquette 9 de manière à correctement analyser la position, l'angle et le recadrage de l'image de la maquette 9 de sorte que le procédé puisse être correctement réalisé, la maquette 9 (ou son moule dans le cas d'une maquette 9 moulée) doit être usinée à un degré de détail suffisant, comme cela sera décrit dans ce qui suit, en référence aux figures 6-10 et 12a-d. En particulier, la manière d'usinage (et notamment de calculer les trajectoires de l'outil) assure une représentation exacte et précise des bords qui sont utilisés pour la reconnaissance de l'angle et de l'orientation de la maquette 9 tel que pris en image par le dispositif électronique 3. L'objet de la maquette 9 (c'est-à-dire la topographie de la région géographique illustrée) est modélisée ou échantillonnée par un nuage de points 40 représentant des points à la surface de l'objet. Ces nuages de points ne sont pas toujours fournis dans une grille normalisée, et sont classiquement d'abord convertis en un réseau de surfaces géométriquement définies en utilisant des fonctions splines cubiques ou toute autre méthode appropriée. A partir de ce réseau de surfaces, des instructions de mouvement de l'outil sont générées, en tenant compte de la forme de la pointe de l'outil. Toutefois, ces approches peuvent conduire à des artéfacts tels que des transitions non naturelles entre les surfaces arbitrairement dérivées, et joindre ensemble des petits rendus partiels conduit également à des artefacts inacceptables à la jonction entre ces rendus partiels. En outre, de telles approches deviennent de plus en plus difficiles à calculer quand le degré de détail souhaité augmente, nécessitant de manière exponentielle plus de puissance de calcul. Le procédé tel que décrit ci-dessous élimine ces artefacts, et est infiniment évolutive, les seules limitations étant le temps machine disponible et l'usure des outils. In order for the electronic device to be able to discern sufficient details of the model 9 so as to correctly analyze the position, the angle and the cropping of the image of the model 9 so that the method can be correctly carried out, the model 9 (or its mold in the case of a molded model 9) must be machined to a sufficient degree of detail, as will be described below, with reference to Figures 6-10 and 12a-d. In particular, the way of machining (and in particular of calculating the trajectories of the tool) ensures an exact and precise representation of the edges which are used for the recognition of the angle and the orientation of the model 9 as taken in image by the electronic device 3. The object of the model 9 (that is to say the topography of the illustrated geographical region) is modeled or sampled by a cloud of points 40 representing points on the surface of the object. These point clouds are not always provided in a normalized grid, and are typically first converted into a network of geometrically defined surfaces using cubic spline functions or any other suitable method. From this network of surfaces, tool movement instructions are generated, taking into account the shape of the tool tip. However, these approaches can lead to artifacts such as unnatural transitions between arbitrarily derived surfaces, and joining small partial renders together also leads to unacceptable artifacts at the junction between these partial renders. Furthermore, such approaches become increasingly difficult to compute as the desired degree of detail increases, requiring exponentially more computational power. The process as described below eliminates these artifacts, and is infinitely scalable, the only limitations being available machine time and tool wear.
[0066] Un tel nuage de points 40 est fourni à l'étape 30, et un exemple de celui-ci est représenté dans la figure 7, qui représente un nuage de points d'une carte topographique de la Suisse, à une résolution donnée. Chaque point 40a du nuage de points comprend des informations spatiales sur le point mesuré en trois axes perpendiculaires X, Y et Z, X et Y étant les axes dans le plan horizontal, et Z étant l'axe vertical. Dans le cas des cartes topographiques, elles sont généralement exprimées en longitude (X), latitude (Y) et altitude (Z) respectivement. Les points peuvent être triés dans le plan XY en triant d'abord selon la valeur ascendante X, puis selon la valeur ascendante ou descendante Y (ou vice-versa) de façon à les disposer en deux dimensions dans le plan XY. [0066] Such a cloud of points 40 is provided at step 30, and an example of it is shown in Figure 7, which shows a cloud of points of a topographic map of Switzerland, at a given resolution. . Each point 40a of the cloud of points comprises spatial information on the point measured in three perpendicular axes X, Y and Z, X and Y being the axes in the horizontal plane, and Z being the vertical axis. In the case of topographic maps, they are usually expressed in longitude (X), latitude (Y) and altitude (Z) respectively. Points can be sorted in the XY plane by sorting first by ascending X value, then by ascending or descending Y value (or vice versa) so as to arrange them in two dimensions in the XY plane.
[0067] Dans les étapes 31 et 32, le nuage de points 40 est converti directement en instructions de mouvement selon les mêmes axes X, Y et Z, X et Y étant à nouveau dans le plan horizontal et Z étant l'axe vertical. Ces instructions de mouvement sont tout simplement les coordonnées de points dans l'espace à travers lequel la pointe de l'outil de finition 42 doit passer. In steps 31 and 32, the cloud of points 40 is converted directly into movement instructions along the same axes X, Y and Z, X and Y being again in the horizontal plane and Z being the vertical axis. These movement instructions are simply the coordinates of points in space through which the tip of the finishing tool 42 is to pass.
[0068] Il est calculé par un post-processeur dit direct, qui est une partie de logiciel exécuté sur un ordinateur. Le fonctionnement de ce post-processeur direct est illustré dans les figures 12a-12d. Ce post-processeur direct prend d'abord un nuage de points 40, comme illustré sur la figure 12a, et qui peut être regroupés ensemble à partir d'une pluralité de fichiers plus petits représentant chacun une partie du sujet de la maquette 9, puis met à l'échelle les données à l'échelle requise dépendant de la taille de la maquette 9 à former, en tenant compte des impératifs liés aux technologies d'usinages (corrélations entre les quadrillages et les capacités liées à l'outils utilisé), et en référence à un point de référence approprié pour la machine-outil CNC. Toute conversion d'unités (par exemple longitude/latitude en millimètres ou micromètres) peut également avoir lieu à ce moment. Ceci est représenté sur la figure 12b, qui montre les points de donnée individuelle 40a superposée sur une grille 40b de la résolution désirée dans le plan XY. A l'étape 31, les points de données 40a sont normalisés par rapport à la grille 40b, en modifiant les valeurs X et Y de chaque point de données 40a de manière à correspondre à une intersection de la grille 40b. Tous les points excédentaires, tels que les points intermédiaires où toutes les intersections de la grille sont déjà occupées peuvent être supprimés (comme indiqué par un „x“), ou peuvent également être fusionnés avec un autre point ou des points à une intersection de la grille en faisant par exemple la moyenne de ces points. En outre, toutes les intersections inoccupées de la grille peuvent être soit remplies par exemple par interpolation des points voisins, soit simplement laissées vide. Les points maillées normalisés 40c résultants sont représentés dans la figure 12c, avec des données de remplissage 40d représentées par des cercles vides plutôt que des points noirs. It is calculated by a so-called direct post-processor, which is part of the software executed on a computer. The operation of this direct post-processor is illustrated in Figures 12a-12d. This direct post-processor first takes a cloud of points 40, as shown in Figure 12a, and which can be grouped together from a plurality of smaller files each representing a part of the subject of the model 9, then scales the data to the required scale depending on the size of the model 9 to be formed, taking into account the imperatives linked to the machining technologies (correlations between the grids and the capacities linked to the tools used), and with reference to a suitable reference point for the CNC machine tool. Any conversion of units (eg longitude/latitude to millimeters or micrometers) can also take place at this time. This is shown in Figure 12b, which shows individual data points 40a superimposed on a grid 40b of the desired resolution in the XY plane. In step 31, data points 40a are normalized to grid 40b, modifying the X and Y values of each data point 40a to correspond to an intersection of grid 40b. Any excess points, such as intermediate points where all grid intersections are already occupied can be deleted (as indicated by an „x“), or can also be merged with another point or points at an intersection of the grid. grid by taking the average of these points, for example. Furthermore, all the unoccupied intersections of the grid can either be filled, for example by interpolation of neighboring points, or simply left empty. The resulting normalized mesh points 40c are shown in Figure 12c, with fill data 40d represented by open circles rather than black dots.
[0069] Dans l'étape 32, en lisant chaque ligne des points maillés normalisés 40c selon un balayage avant-etarrière comme illustré dans la figure 12d, une série de passes d'usinage, d'abord dans un sens puis dans le sens inverse pour la ligne suivante, une trajectoire d'outil 43 peut être directement lue sur les points normalisés quadrillé 40c sans autre calcul. Alternativement, un motif de balayage tramé peut être généré en lisant les données de la grille, chaque ligne étant lue dans la même direction, même si cela est moins efficace en terme de temps machine en raison du temps nécessaire pour reculer l'outil 42 au début de la prochaine coupe. Dans le cas de points de données manquants, si le remplissage n'a pas été réalisé, les instructions avancent simplement à la prochaine intersection de la grille remplie dans la séquence. Un bloc d'en-tête 43a peut également être ajouté pour initialiser la machine-outil à commande numérique, et un bloc de bas de page 43b peut être ajouté pour terminer l'usinage, selon les besoins. [0069] In step 32, by reading each line of the normalized mesh points 40c according to a forward-backward scan as illustrated in FIG. 12d, a series of machining passes, first in one direction then in the opposite direction for the next line, a tool path 43 can be read directly from the standard grid points 40c without further calculation. Alternatively, a raster scan pattern can be generated by reading data from the grid, with each line being read in the same direction, although this is less machine-time efficient due to the time required to retract the tool 42 at the start of the next cut. In the case of missing data points, if the fill has not been completed, the instructions simply advance to the next filled grid intersection in the sequence. A header block 43a can also be added to initialize the CNC machine tool, and a footer block 43b can be added to terminate machining, as needed.
[0070] Dans le cas où le nuage de points 40 est déjà quadrillé, la normalisation effectuée par le post-processeur direct peut simplement mettre à l'échelle le nuage de points à la résolution souhaitée. [0070] In the case where the cloud of points 40 is already squared, the normalization carried out by the direct post-processor can simply scale the cloud of points to the desired resolution.
[0071] En raison de la grande quantité de données nécessaire pour être traitées, un traitement parallèle peut être utilisé. Le post-processeur peut également procéder à une sélection d'un sous-ensemble des points constituant le nuage de points 40, par exemple pour réduire la résolution de celui-ci à un niveau gérable, par exemple, prendre tous les 10èmes points de données afin de réduire la résolution d'un facteur 10. Par rapport à une approche conventionnelle de définition des surfaces et de calcul des mouvements de l'outil requis pour former ces surfaces avec une forme donnée de l'outil, l'approche post-processeur direct est mieux utilisée avec un outil dont la pointe est suffisamment petite pour que les erreurs d'usinage résultant de la forme de l'outil de finition 42 soient réduites au minimum, qui est retenu à l'étape 33. Ce principe est illustré sur les Fig. 8a et 8b. Ces figures illustrent des trajectoires d'usinage 43 formées par des points maillés de données normalisées 40c. La figure 8a illustre le profil résultant 43c découpé avec un outil de finition 42 de trop grand diamètre. [0071] Due to the large amount of data required to be processed, parallel processing may be used. The post-processor can also carry out a selection of a subset of the points constituting the point cloud 40, for example to reduce the resolution of the latter to a manageable level, for example, taking every 10th data point in order to reduce the resolution by a factor of 10. Compared to a conventional approach of defining surfaces and calculating the tool movements required to form these surfaces with a given shape of the tool, the post-processor approach direct is best used with a tool whose tip is small enough that machining errors resulting from the shape of the finishing tool 42 are minimized, which is retained at step 33. This principle is illustrated in Figs. 8a and 8b. These figures illustrate machining paths 43 formed by grid points of standardized data 40c. Figure 8a illustrates the resulting profile 43c cut with a finishing tool 42 of too large a diameter.
[0072] Comme on peut clairement le voir, ce profil 43 diffère sensiblement de la trajectoire 43 déterminée par les points du premier ensemble. En particulier, le diamètre important de l'extrémité de l'outil 42 entraîne des collisions avec les flancs les plus raides du relief, et empêche l'usinage de trous étroits ou d'angles droits au pied de falaises verticales, par exemple. As can clearly be seen, this profile 43 differs significantly from the trajectory 43 determined by the points of the first set. In particular, the large diameter of the end of the tool 42 causes collisions with the steepest sides of the relief, and prevents the machining of narrow holes or right angles at the foot of vertical cliffs, for example.
[0073] La taille de l'outil de finition doit donc être suffisamment fine pour permettre un usinage en passant directement sur les points du premier ensemble, sans les décalages de rayon calculés habituellement par les programmes de FAO. La figure 4b illustre un outil de finition 42 dont le diamètre de la pointe est suffisamment petit pour que le profil fini se situe dans une tolérance acceptable par rapport à la trajectoire d'usinage 43. The size of the finishing tool must therefore be sufficiently fine to allow machining by passing directly over the points of the first set, without the radius offsets usually calculated by CAM programs. Figure 4b illustrates a finishing tool 42 whose tip diameter is small enough that the finished profile is within an acceptable tolerance relative to the machining path 43.
[0074] Un outil trop fin risque cependant de se casser fréquemment ; d'autre part, la courbure de l'extrémité de l'outil est trop prononcée, entraînant l'usinage de sillons formant des stries et des nervures visibles sur la surface. Il est donc avantageux d'utiliser un outil de finition dont le diamètre à l'extrémité est supérieur au pas entre deux points du premier ensemble de points, afin que les sillons se chevauchent en évitant de laisser une nervure entre deux sillons. Des résultats optimaux ont été obtenus avec des diamètres d'outil de finition entre 2-10 fois le pas entre les points du premier ensemble de points. However, a tool that is too thin risks breaking frequently; on the other hand, the curvature of the end of the tool is too pronounced, leading to the machining of grooves forming ridges and ribs visible on the surface. It is therefore advantageous to use a finishing tool whose diameter at the end is greater than the pitch between two points of the first set of points, so that the grooves overlap while avoiding leaving a rib between two grooves. Optimal results have been obtained with finishing tool diameters between 2-10 times the pitch between the points of the first set of points.
[0075] Dans la pratique, pour une très grande maquette 9 de plusieurs mètres de largeur, un outil de finition dont la pointe présente un diamètre de 1 mm peut être suffisant. Pour les plus petits rendus, un diamètre de la pointe de l'outil de finition de 0.05mm maximum a été trouvé pour être le diamètre maximal pour fournir un niveau de détail suffisant dans la pratique pour la manipulation d'image requise dans le dispositif électronique multimédia 3 comme décrit plus haut. En outre, le niveau de résolution et donc de détails fournis par un outil de ces dimensions est suffisante pour qu'un degré utile de zoom puisse être utilisé sur la caméra de l'appareil électronique multimédia. En principe, plus la pointe de l'outil de finition est petite, plus la précision et la résolution de la maquette 9 est grande, mais plus le temps machine nécessaire est long, plus la gestion des usures d'outils est complexe et plus la résolution de la grille nécessaire est grande. A l'étape 32, un outil de finition approprié est choisi à cet effet. In practice, for a very large model 9 several meters wide, a finishing tool whose tip has a diameter of 1 mm may be sufficient. For smaller renders, a finishing tool tip diameter of 0.05mm maximum has been found to be the maximum diameter to provide a level of detail sufficient in practice for the image manipulation required in the electronic device. multimedia 3 as described above. Furthermore, the level of resolution and therefore of detail provided by a tool of these dimensions is sufficient for a useful degree of zoom to be able to be used on the camera of the multimedia electronic device. In principle, the smaller the tip of the finishing tool, the greater the precision and resolution of the model 9, but the longer the machine time required, the more complex the management of tool wear and the greater the Grid resolution needed is large. At step 32, an appropriate finishing tool is chosen for this purpose.
[0076] La trajectoire 43 de l'outil de finition est également illustrée dans une vue en trois dimensions sur la figure 10c. L'outil de finition 42 est illustré dans les figures 9a et 9b comme étant un outil conique. D'autres formes d'outils (cylindre, sphère, toriques ...) sont également, bien sûr, possible. [0076] The trajectory 43 of the finishing tool is also illustrated in a three-dimensional view in FIG. 10c. Finishing tool 42 is illustrated in Figures 9a and 9b as being a tapered tool. Other tool shapes (cylinder, sphere, toroids...) are of course also possible.
[0077] Avantageusement, l'outil de finition 42 est monté sur un robot 6 axes afin d'améliorer la précision et la résolution de la maquette 9. De cette manière, l'angle de l'outil de finition 42 peut être adapté de telle sorte que l'axe de l'outil de finition 42 soit toujours perpendiculaire à la trajectoire d'usinage 43. Advantageously, the finishing tool 42 is mounted on a 6-axis robot in order to improve the precision and the resolution of the model 9. In this way, the angle of the finishing tool 42 can be adapted from such that the axis of the finishing tool 42 is always perpendicular to the machining path 43.
[0078] Par rapport à un usinage CNC conventionnel basé sur la combinaison de formes standard et de mouvements standard de l'outil (arcs, lignes droites, cannelures et ainsi de suite), la présente invention procure la possibilité d'avoir beaucoup plus de détails et par conséquent la reproduction plus précise de la forme sur laquelle se fonde la maquette 9. [0078] Compared to conventional CNC machining based on the combination of standard shapes and standard movements of the tool (arcs, straight lines, splines and so on), the present invention provides the possibility of having much more details and therefore the more precise reproduction of the form on which the model is based 9.
[0079] Dans l'étape 34, un outil d'ébauche est choisi de manière à faire efficacement une première coupe dans le substrat, afin d'éviter que l'outil de finition ait à couper trop profond et enlève trop de matériau, ce qui provoquerait une usure excessive de l'outil, une formation excessive de copeaux et des contraintes élevées sur l'outil de finition 42 avec un risque aussi élevé de rupture de l'outil. Cependant, il n'est pas essentiel qu'une coupe d'ébauche soit faite. [0079] In step 34, a roughing tool is chosen so as to effectively make a first cut in the substrate, in order to prevent the finishing tool from having to cut too deep and remove too much material, which which would cause excessive tool wear, excessive chip formation and high stresses on the finishing tool 42 with an equally high risk of tool breakage. However, it is not essential that a rough cut be made.
[0080] Sur la base de la trajectoire de l'outil de finition 43 et la forme de l'outil de finition 42, une trajectoire d'outil d'ébauche 46 (voir figure 10a) peut être calculée à l'étape 35. L'outil d'ébauche 44 présente un diamètre de coupe supérieur que celui de l'outil de finition 42, et sert à enlever suffisamment l'excès de matériau du substrat 45 dans lequel la maquette (ou son moule) 9 est usiné, de manière à laisser suffisamment de matière pour faire une coupe de finition de haute qualité, mais pas trop pour ne pas mettre à rude épreuve l'outil de finition 42. [0080] Based on the path of the finishing tool 43 and the shape of the finishing tool 42, a roughing tool path 46 (see Figure 10a) can be calculated at step 35. The roughing tool 44 has a larger cutting diameter than that of the finishing tool 42, and serves to sufficiently remove the excess material from the substrate 45 in which the model (or its mold) 9 is machined, to so as to leave enough material to make a high quality finish cut, but not so much as to strain the 42 Finishing Tool.
[0081] Par la suite, un substrat 45 est fourni dans une machine-outil CNC à l'étape 36, qui est alors ébauché (étape 37 - en option) et soumis à des opérations de finition (étape 38) en utilisant les outils respectifs 42, 44 et les trajectoires d'outil respectives 43, 46. Subsequently, a substrate 45 is provided in a CNC machine tool at step 36, which is then roughed (step 37 - optional) and subjected to finishing operations (step 38) using the tools respective 42, 44 and the respective tool paths 43, 46.
[0082] La figure 10b illustre un substrat 45 après ébauchage, et la figure 10c illustre le substrat après les opérations de finition le long de la trajectoire de l'outil de finition 43 de manière à créer une maquette 9 (ou son moule dans le cas d'une maquette moulée 9). FIG. 10b illustrates a substrate 45 after roughing, and FIG. 10c illustrates the substrate after the finishing operations along the path of the finishing tool 43 so as to create a model 9 (or its mold in the case of a molded model 9).
[0083] Bien que l'utilisation du post-processeur direct décrit ci-dessus peut entraîner la production d'un grand nombre de points redondants. Par exemple, la surface d'un lac peut être décrite comme une surface plane et peut donc être définie de manière plus efficace avec des opérations conventionnelles CNC. Elle ne résulte en aucune surface irrégulière étant descriptible et étant ainsi usinée avec précision. [0083] Although the use of the direct post-processor described above can lead to the production of a large number of redundant points. For example, the surface of a lake can be described as a flat surface and can therefore be defined more efficiently with conventional CNC operations. It results in no uneven surface being describable and thus being precision machined.
[0084] Avantageusement, en référence à la figure 13, le nuage de points représentant des points sur la surface de l'objet, mesurée par laser 54, microscope électronique à balayage, confocal, ou tout dispositif approprié bien connu de l'homme de l'art, est envoyé en continu et traité par le post-processeur direct décrit ci-dessus et le nuage de points traité est envoyé en continu à la CNC 55 qui convertit en continu ledit nuage de points en instructions de déplacement de la pointe de l'outil de finition 42 selon les axes. Par conséquent, le système selon l'invention fonctionne d'une manière continue pour réduire le temps de traitement. [0084] Advantageously, with reference to FIG. 13, the cloud of points representing points on the surface of the object, measured by laser 54, scanning electron microscope, confocal, or any appropriate device well known to those skilled in the art. art, is continuously sent and processed by the direct post-processor described above and the processed point cloud is continuously sent to the CNC 55 which continuously converts said point cloud into cutting tip movement instructions. the finishing tool 42 along the axes. Therefore, the system according to the invention operates in a continuous manner to reduce processing time.
[0085] Accessoirement en référence à la figure 14, le système 1 selon l'invention comprend en outre une source de lumière 56, telle qu'un laser par exemple, éclairant la maquette 9 qui comprend des structures générant un effet holographique ou diffractif. Par exemple, la maquette 9 comprend des réseaux de diffraction de surface procurant au moins une image diffractée lorsque la maquette 9 est éclairée par la source laser 56. Les microstructures en grille de réflexion holographique et/ou les structures de génération d'effet diffractif sont bien connus de l'homme du métier. De tels microstructures sont notamment décrites dans les documents WO93/18419, WO95/04948, WO95/02200, US4,761,253 et EP0105099. Incidentally with reference to Figure 14, the system 1 according to the invention further comprises a light source 56, such as a laser for example, illuminating the model 9 which includes structures generating a holographic or diffractive effect. For example, the model 9 comprises surface diffraction gratings providing at least one diffracted image when the model 9 is illuminated by the laser source 56. The holographic reflection grid microstructures and/or the diffractive effect generation structures are well known to those skilled in the art. Such microstructures are in particular described in documents WO93/18419, WO95/04948, WO95/02200, US4,761,253 and EP0105099.
[0086] Il est bien entendu que la présente invention n'est en aucune façon limitée aux formes de réalisations décrites ci-dessus et que bien des modifications peuvent y être apportées sans sortir du cadre des revendications annexées. It is understood that the present invention is in no way limited to the embodiments described above and that many modifications can be made thereto without departing from the scope of the appended claims.
Claims (5)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1601054A FR3053778B1 (en) | 2016-07-05 | 2016-07-05 | METHOD FOR DISPLAYING MAP DATA |
Publications (2)
Publication Number | Publication Date |
---|---|
CH712678A2 CH712678A2 (en) | 2018-01-15 |
CH712678B1 true CH712678B1 (en) | 2022-06-15 |
Family
ID=57680294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH00873/17A CH712678B1 (en) | 2016-07-05 | 2017-07-05 | Method of displaying cartographic data. |
Country Status (2)
Country | Link |
---|---|
CH (1) | CH712678B1 (en) |
FR (1) | FR3053778B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3141263A1 (en) * | 2022-10-20 | 2024-04-26 | Thales | System for representing a geographical area comprising a relief and assembly comprising such a representation system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2464793A (en) * | 1942-08-08 | 1949-03-22 | Lester Cooke Jr H | Method and apparatus for photographic scanning |
-
2016
- 2016-07-05 FR FR1601054A patent/FR3053778B1/en active Active
-
2017
- 2017-07-05 CH CH00873/17A patent/CH712678B1/en unknown
Also Published As
Publication number | Publication date |
---|---|
CH712678A2 (en) | 2018-01-15 |
FR3053778A1 (en) | 2018-01-12 |
FR3053778B1 (en) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2715662B1 (en) | Method for localisation of a camera and 3d reconstruction in a partially known environment | |
EP3144881B1 (en) | Method creating a 3-d panoramic mosaic of a scene | |
WO2013139814A2 (en) | Model and method for producing photorealistic 3d models | |
EP2111605B1 (en) | Method and device for creating at least two key images corresponding to a three-dimensional object | |
CA2856464A1 (en) | System for filming a video movie | |
Dellepiane et al. | Using digital 3D models for study and restoration of cultural heritage artifacts | |
KR20150106879A (en) | Method and apparatus for adding annotations to a plenoptic light field | |
WO2005010820A2 (en) | Automated method and device for perception associated with determination and characterisation of borders and boundaries of an object of a space, contouring and applications | |
Adami et al. | The bust of Francesco II Gonzaga: from digital documentation to 3D printing | |
CH712678B1 (en) | Method of displaying cartographic data. | |
EP3482264B1 (en) | Method for machining reliefs | |
EP3633625B1 (en) | Method for texturing a 3d model | |
Tucci et al. | A Defined Process to Digitally Reproduce in 3 D a Wide Set of Archaeological Artifacts for Virtual Investigation and Display | |
FR2864878A1 (en) | Digital image pixels` movement determining process, involves defining colors of shooting points of object in scene based on points` positions in another scene so that pixels` colors of image indicate pixels` positions in another image | |
WO2018229358A1 (en) | Method and device for constructing a three-dimensional image | |
EP2192501B1 (en) | Method for the data acquisition and method of providing a multimedia product for virtual visit | |
Pitzalis | 3D and semantic web: new tools to document artifacts and to explore cultural heritage collections | |
Cini | Optical sensing technologies for the generation of reality-based 3D models of Cultural Heritage artifacts | |
Guillaume et al. | Photogrammetry of cast collection, technical and analytical methodology of a digital rebirth | |
Donadio | 3D photogrammetric data modeling and optimization for multipurpose analysis and representation of Cultural Heritage assets | |
FR2889640A1 (en) | Intelligent video surveillance system configuring method for use during e.g. installation of system, involves superposing lines with plane realistic element of image of scene to generate scene calibration model | |
FR3052287A1 (en) | CONSTRUCTION OF A THREE-DIMENSIONAL IMAGE | |
FR3141550A1 (en) | Method for positioning points of interest on a vector geographic map | |
Deschaud et al. | Colorisation et texturation temps r\'eel d'environnements urbains par syst\eme mobile avec scanner laser et cam\'era fish-eye | |
EP1864260A2 (en) | Method for image reconstruction in a vector graphic |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PFA | Name/firm changed |
Owner name: GRAVITY.SWISS SA, CH Free format text: FORMER OWNER: SPITZ AND TAL SA, CH |