FR3011369A1 - 3D SCENE RECONSTITUTION SYSTEM - Google Patents
3D SCENE RECONSTITUTION SYSTEM Download PDFInfo
- Publication number
- FR3011369A1 FR3011369A1 FR1302270A FR1302270A FR3011369A1 FR 3011369 A1 FR3011369 A1 FR 3011369A1 FR 1302270 A FR1302270 A FR 1302270A FR 1302270 A FR1302270 A FR 1302270A FR 3011369 A1 FR3011369 A1 FR 3011369A1
- Authority
- FR
- France
- Prior art keywords
- scene
- images
- accident
- camera
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
La présente invention concerne un système de reconstitution de scène en 3D composé d'un smartphone, une tablette ou un PDA munis d'une caméra, d'un logiciel, de points de repérages et d'une plate-forme cloud.The present invention relates to a 3D scene reconstruction system consisting of a smartphone, a tablet or a PDA equipped with a camera, software, tracking points and a cloud platform.
Description
-1- La présente invention concerne le domaine technique de la reconstitution en 3D de scènes du trafic routier. Actuellement dans l'état de la technique, les agents de la circulation doivent systématiquement se déplacer lors d'un accident afin de réaliser le constat. s Le laps de temps entre l'accident et l'arrivée des agents peut être long (plusieurs heures) en raison notamment des embouteillages occasionnés par l'accident. De plus, ces embouteillages persistent le temps que les autorités réalisent le constat de l'accident. En arrivant sur place, les agents de la circulation doivent prendre des mesures: 10 témoignages, traces et mesures au sol, photos de la scène. En cas d'accident grave (dommages matériaux et/ou physiques), les moyens à mettre en place sont d'autant plus coûteux et laborieux à transporter jusqu'à la scène de l'accident. Un de ces moyens consiste par exemple en un véhicule de police équipé de radios de transmission, de scanners, de trackers, de mètres, 15 d'appareils photo numériques et de cônes de signalisation. Ces nombreux outils, nécessaires à la bonne réalisation du constat, présentent le désavantage d'être encombrants. Afin de remédier à ce problème et de proposer une solution plus pratique, un système composé de dispositifs d'utilisation facile, portatifs et légers, peut 20 faciliter l'accès à l'endroit voulu. L'accès au lieu de l'accident peut être facilité par l'utilisation d'un véhicule deux-roues, par exemple. Le système selon l'invention permet donc une reconstitution rapide en 3D de la scène de l'accident, modélisable sur place ou à distance. Pour ce faire, il s'agit de mettre en place le dispositif unique, léger et facile à utiliser du système selon 25 l'invention, qui comporte des points de repérage (par exemple un damier en sol). Les points de repérage établissent des échelles et permettent ainsi de prendre des mesures. Sur le lieu de l'accident, les agents de la circulation peuvent travailler plus efficacement, et ainsi dégager plus rapidement la route. - 2 - La présente invention a donc pour but de résoudre ce problème technique, en enregistrant via un smartphone, une tablette ou un PDA doté d'une caméra les images de l'accident, pour ensuite recréer la scène en 3D et récupérer des informations nécessaires à l'élaboration du constat telles que la date, l'heure, l'adresse et la position géographique des véhicules. Description de l'invention: La présente invention concerne un système de reconstitution de scène en 3D composé d'un smartphone, une tablette ou un PDA munis d'une caméra, d'un logiciel, de points de repérages et d'une plate-forme cloud.The present invention relates to the technical field of 3D reconstitution of scenes of road traffic. Currently in the state of the art, traffic police must systematically move during an accident to make the finding. s The time between the accident and the arrival of the agents can be long (several hours) due in particular to traffic jams caused by the accident. Moreover, these traffic jams persist the time that the authorities realize the report of the accident. Arriving at the scene, the traffic police must take measurements: 10 testimonials, traces and measurements on the ground, pictures of the scene. In case of a serious accident (material and / or physical damage), the means to put in place are all the more expensive and laborious to transport to the scene of the accident. One of these means consists for example of a police vehicle equipped with transmission radios, scanners, trackers, meters, digital cameras and traffic cones. These numerous tools, necessary for the good realization of the report, have the disadvantage of being bulky. In order to remedy this problem and to provide a more practical solution, a system of easy-to-use, portable and lightweight devices can facilitate access to the desired location. Access to the accident site can be facilitated by the use of a two-wheeled vehicle, for example. The system according to the invention therefore allows rapid reconstruction in 3D of the scene of the accident, modelable on site or remotely. To do this, it is a question of setting up the unique, light and easy-to-use device of the system according to the invention, which has registration points (for example a checkerboard in ground). The locating points establish scales and thus make it possible to take measurements. At the scene of the accident, traffic officers can work more efficiently, and thus clear the road more quickly. The object of the present invention is therefore to solve this technical problem by recording the images of the accident via a smartphone, a tablet or a PDA equipped with a camera, and then recreate the scene in 3D and retrieve information. necessary to draw up the statement, such as the date, time, address and geographical position of the vehicles. Description of the Invention: The present invention relates to a 3D scene reconstruction system consisting of a smartphone, a tablet or a PDA equipped with a camera, software, tracking points and a platform. cloud form.
Les dessins annexés illustrent l'invention: La figure 1 représente l'enregistrement (1) de la scène d'un accident entre deux véhicules par le dispositif de smartphone, tablette ou PDA doté d'une caméra (2). Elle représente également les points de repérage mesurables en disposant un tapis en damier ou une carte à côté de la scène pour établir les échelles et distances (4), ainsi que la synchronisation de ce même dispositif avec la plate-forme cloud (3). La figure 2 illustre le diagramme d'action qui représente le processus de reconstitution en 3D: l'utilisateur enregistre les images (5). S'il décide de conserver ces prises de vue (6), le dispositif extrait une série d'images (7) à partir de laquelle est générée la carte de disparité (8) qui permet la reconstitution tridimensionnelle de la scène (9). Le système selon l'invention fonctionne de la façon suivante: le dispositif utilisant un smartphone, une tablette ou un PDA doté d'une caméra (2) enregistre (1) un certain nombre d'images de la forme des véhicules à partir de différentes prises de vue de la scène. Il est nécessaire de capturer un grand nombre d'images, c'est pourquoi la quantité d'images capturées n'est pas limitée. La scène enregistrée doit également contenir des points de repérage (4). Les points de repérage (4) permettent de déterminer la position des véhicules 30 accidentés. Ils sont importants pour valider visuellement l'emplacement. Les -3- points de repérage (4) sont facilement mesurables en disposant un tapis en damier ou une carte à côté de la scène. A partir de l'enregistrement de la scène (1), des nombreuses images sont obtenues et sont traitées par les algorithmes du logiciel installé sur le dispositif.The accompanying drawings illustrate the invention: FIG. 1 represents the recording (1) of the scene of an accident between two vehicles by the device of smartphone, tablet or PDA equipped with a camera (2). It also represents measurable locator points by having a checkerboard mat or map next to the scene to establish scales and distances (4), as well as the synchronization of that same device with the cloud platform (3). Figure 2 illustrates the action diagram that represents the process of reconstruction in 3D: the user saves the images (5). If it decides to keep these shots (6), the device extracts a series of images (7) from which is generated the disparity map (8) which allows the three-dimensional reconstruction of the scene (9). The system according to the invention operates as follows: the device using a smartphone, a tablet or a PDA equipped with a camera (2) records (1) a number of images of the shape of the vehicles from different shots of the scene. It is necessary to capture a large number of images, which is why the amount of captured images is not limited. The recorded scene must also contain cue points (4). The registration points (4) make it possible to determine the position of the accidented vehicles. They are important to validate the location visually. The locating points (4) are easily measurable by having a checkerboard mat or a map next to the scene. From the recording of the scene (1), numerous images are obtained and are processed by the algorithms of the software installed on the device.
Les images de la scène prises sous différents angles (5) sont traitées par les algorithmes de segmentation qui permettent de réaliser la carte de disparité (8). La carte de disparité (8) désigne une image numérique contenant uniquement la profondeur des objets présents sur la scène, selon le principe du nuage de points. Plus la distance entre les points est grande, plus l'objet apparaît proche, et plus il est facile de reconstituer la scène en 3D. Ensuite, les algorithmes de transformation du logiciel installé sur le dispositif affichent les images sur la carte de disparité. Ils permettent de transformer une image bidimensionnelle en une image tridimensionnelle.The images of the scene taken from different angles (5) are processed by the segmentation algorithms that make it possible to produce the disparity map (8). The disparity map (8) designates a digital image containing only the depth of the objects present on the stage, according to the principle of the point cloud. The greater the distance between points, the closer the object appears, and the easier it is to reconstruct the scene in 3D. Then, the transformation algorithms of the software installed on the device display the images on the disparity map. They make it possible to transform a two-dimensional image into a three-dimensional image.
15 Les images traitées et transformées en 3D sont envoyées et sauvegardées sur la plate-forme cloud (3) via la synchronisation par Wi-Fi, 3G ou 4G du smartphone, tablette ou du PDA (2). Ensuite sur la plate-forme cloud (3), les informations nécessaires à l'élaboration du constat (notamment la date, l'heure, l'adresse et la position géographique des véhicules) sont ajoutées aux images.The images processed and transformed into 3D are sent and saved on the cloud platform (3) via synchronization via Wi-Fi, 3G or 4G of the smartphone, tablet or PDA (2). Then on the cloud platform (3), the information needed to prepare the report (including the date, time, address and geographical position of vehicles) are added to the images.
20 Le cloud permet également l'accès aux images de la scène en 3D sur d'autres dispositifs tels les consoles de supervision, qui permettent aux agents de la circulation routière de visualiser et de traiter les images, de réaliser les mesures et de disposer de toutes les informations sur le viseur. L'utilisateur a également la possibilité de visualiser la scène en 3D depuis le 25 dispositif smartphone, tablette ou du PDA (2). En outre, le traitement informatique de la reconstruction et de la modélisation en 3D n'empêche pas l'usage des autres fonctions du dispositif de smartphone, tablette ou PDA (2). Bien entendu, la reconstitution est réalisée en parallèle, ce qui permet à l'utilisateur de saisir les informations relatives au constat. -4- Ainsi, le système selon l'invention permet une reconstitution rapide en 3D de la scène de l'accident et une modélisation sur place ou à distance, tout en utilisant un dispositif léger et facile à utiliser, ce qui augmente l'efficacité des agents de la circulation et permet le dégagement rapide de la route.20 The cloud also provides access to 3D scene images on other devices such as supervisory consoles, which allow traffic officers to visualize and process images, perform measurements, and have access to 3D video. all the information on the viewfinder. The user also has the ability to view the scene in 3D from the smartphone, tablet or PDA device (2). In addition, the computer processing of 3D reconstruction and modeling does not prevent the use of the other functions of the smartphone device, tablet or PDA (2). Of course, the reconstitution is performed in parallel, which allows the user to enter the information relating to the report. Thus, the system according to the invention allows rapid reconstruction in 3D of the scene of the accident and modeling on site or remotely, while using a lightweight and easy to use device, which increases the efficiency traffic officers and allows quick clearance of the road.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1302270A FR3011369B1 (en) | 2013-09-30 | 2013-09-30 | 3D SCENE RECONSTITUTION SYSTEM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1302270A FR3011369B1 (en) | 2013-09-30 | 2013-09-30 | 3D SCENE RECONSTITUTION SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3011369A1 true FR3011369A1 (en) | 2015-04-03 |
FR3011369B1 FR3011369B1 (en) | 2016-12-16 |
Family
ID=50231211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1302270A Expired - Fee Related FR3011369B1 (en) | 2013-09-30 | 2013-09-30 | 3D SCENE RECONSTITUTION SYSTEM |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3011369B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2563332A (en) * | 2017-04-26 | 2018-12-12 | Ford Global Tech Llc | Event reconstruct through image reporting |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040037459A1 (en) * | 2000-10-27 | 2004-02-26 | Dodge Alexandre Percival | Image processing apparatus |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US20070288135A1 (en) * | 2006-06-08 | 2007-12-13 | Kidd Scott D | Method and apparatus for obtaining photogrammetric data to estimate impact severity |
-
2013
- 2013-09-30 FR FR1302270A patent/FR3011369B1/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040037459A1 (en) * | 2000-10-27 | 2004-02-26 | Dodge Alexandre Percival | Image processing apparatus |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US20070288135A1 (en) * | 2006-06-08 | 2007-12-13 | Kidd Scott D | Method and apparatus for obtaining photogrammetric data to estimate impact severity |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2563332A (en) * | 2017-04-26 | 2018-12-12 | Ford Global Tech Llc | Event reconstruct through image reporting |
Also Published As
Publication number | Publication date |
---|---|
FR3011369B1 (en) | 2016-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11860923B2 (en) | Providing a thumbnail image that follows a main image | |
US8213743B2 (en) | Methods and apparatus for generating a continuum of image data | |
US8666657B2 (en) | Methods for and apparatus for generating a continuum of three-dimensional image data | |
US8078396B2 (en) | Methods for and apparatus for generating a continuum of three dimensional image data | |
US9972121B2 (en) | Selecting time-distributed panoramic images for display | |
US20150243073A1 (en) | Systems and Methods for Refining an Aerial Image | |
JP2011524571A5 (en) | ||
CN104641399A (en) | System and method for creating an environment and for sharing a location based experience in an environment | |
US9529803B2 (en) | Image modification | |
RU2638638C1 (en) | Method and system of automatic constructing three-dimensional models of cities | |
FR3011369A1 (en) | 3D SCENE RECONSTITUTION SYSTEM | |
JP6996047B2 (en) | Two-time change estimation device and two-time change estimation method | |
US20160337636A1 (en) | System and method for event reconstruction | |
RU2602389C2 (en) | Method and device for video image controlling by coordinates of terrain | |
Gkeli et al. | The potential use of VGI data for 3D cadastre surveys | |
FR3015082A1 (en) | ENHANCED REALITY GOGGLE DEVICE USING A METHOD FOR RECOGNIZING PEOPLE SHEET IN A DETERMINED DATABASE | |
CN105096264B (en) | Processing equipment and processing method | |
Rekittke et al. | Brawn and technology under the urban canopy | |
Cyganek et al. | Evaluation of an embedded computer vision system for outdoor media audience analysis | |
RU107856U1 (en) | MOBILE AUTOMATED SYSTEM OF AEROVISUAL SURVEY OF TERRITORIES | |
Bender | Three-Dimensional Modelling and Photogrammetry in Cultural Heritage Preservation and Public Engagement: An Experiment with Two Petroform Archaeological Features at Cotnam Island, Ontario | |
Wilson et al. | Re-creating Lost Heritage: Automated photogrammetry on archived images | |
Durand et al. | Catchment-scale snow depth monitoring with balloon photogrammetry | |
Cariveau | Crowd size estimation | |
Reich | The Application of Structure from Motion Photogrammetry to the Ontario Rockfall Hazard Rating System (RHRON) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
CA | Change of address |
Effective date: 20170307 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
ST | Notification of lapse |
Effective date: 20220505 |