WO2015072217A1 - 移動体位置推定装置および移動体位置推定方法 - Google Patents

移動体位置推定装置および移動体位置推定方法 Download PDF

Info

Publication number
WO2015072217A1
WO2015072217A1 PCT/JP2014/073432 JP2014073432W WO2015072217A1 WO 2015072217 A1 WO2015072217 A1 WO 2015072217A1 JP 2014073432 W JP2014073432 W JP 2014073432W WO 2015072217 A1 WO2015072217 A1 WO 2015072217A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
evaluation value
image
distance
edges
Prior art date
Application number
PCT/JP2014/073432
Other languages
English (en)
French (fr)
Inventor
田中 慎也
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to RU2016123022A priority Critical patent/RU2621480C1/ru
Priority to BR112016010089-1A priority patent/BR112016010089B1/pt
Priority to US15/031,295 priority patent/US9424649B1/en
Priority to MX2016005904A priority patent/MX355313B/es
Priority to EP14861295.5A priority patent/EP3070430B1/en
Priority to CN201480058813.4A priority patent/CN105723180B/zh
Priority to JP2015547675A priority patent/JP6112221B2/ja
Publication of WO2015072217A1 publication Critical patent/WO2015072217A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Definitions

  • the present invention relates to a mobile object position estimation device and a mobile object position estimation method.
  • Patent Document 1 edge matching between an edge image generated from a captured image of a camera and a virtual image generated from a known three-dimensional map using a particle filter is performed for each particle, and the likelihood increases as the number of overlapping edges increases. And the likelihood is lowered as the overlap of the edges decreases, so that the position of the moving object is estimated probabilistically from the likelihood distribution.
  • An object of the present invention is to provide a mobile object position estimation apparatus and a mobile object position estimation method that can stably estimate the position of a mobile object.
  • the edge image and the virtual image are compared for each particle, and a higher evaluation value is given as the number of overlapping edges increases, and the non-overlapping edges in the edge image and the virtual image are given.
  • a higher evaluation value is given as there are more edges whose distance between edges, which is the distance to the edge, is less than or equal to a predetermined distance.
  • the position of the moving body can be estimated stably.
  • FIG. 6 is a control block diagram of self-position estimation in the computer 3 according to the first embodiment. It is explanatory drawing which shows the dispersion method of the particle
  • FIG. 6 is an explanatory diagram illustrating a method for calculating an evaluation correction value according to the number of pixels according to the first exemplary embodiment. It is explanatory drawing which shows the calculation method of the evaluation correction value according to the actual distance of Example 1.
  • FIG. 3 is a flowchart showing the flow of overall processing of the computer 3 of the first embodiment. 3 is a flowchart illustrating a flow of self-position estimation processing according to the first embodiment. It is a figure which shows the self-position estimation effect
  • FIG. It is explanatory drawing which shows the calculation method of the evaluation correction value according to the edge density of Example 2.
  • FIG. 6 is a control block diagram of self-position estimation in the computer 3 according to the first embodiment. It is explanatory drawing which shows the dispersion method of the particle
  • FIG. 1 is a configuration diagram of a mobile object position estimation apparatus according to the first embodiment.
  • the vehicle 1 includes a camera (imaging means) 2, a computer 3, and a storage unit (storage means) 4.
  • the camera 2 is a front end portion of the vehicle 1 and is attached at a height h and from the horizontal to the angle ⁇ at an angle ⁇ , and images a front area of the vehicle 1.
  • the computer 3 performs a matching process between the map data stored in the storage unit 4 and the image captured by the camera 2 to estimate the position / posture of the vehicle 1.
  • the storage unit 4 stores three-dimensional map data having edge information and position information of structures existing around the vehicle 1.
  • FIG. 2 is a control block diagram of self-position estimation in the computer 3 according to the first embodiment.
  • the lens of the camera 2 is a general lens having no distortion, but may be a fish-eye lens, for example, for photographing a wide range.
  • the camera model in the virtual image generation unit 14 to be described later is a fish-eye model
  • the self-position of the vehicle can be estimated in the same framework.
  • a plurality of cameras may be mounted on the vehicle when a fisheye lens is mounted in order to capture a wider area around the vehicle.
  • the feature extraction unit (edge image generation means) 11 extracts an edge from an image captured by the camera 2 and generates an edge image.
  • an existing edge detection method such as the Canny method may be used.
  • the edge can be detected by a method such as a Sobel filter according to the problem.
  • sufficient accuracy is required to match a given position / posture parameter from the map data with the virtual image generated from the camera 2 model. It is only necessary to observe the edge of the image from the image.
  • the initialization processing unit 12 performs initialization processing of the particle filter used for estimating the position / posture of the vehicle.
  • the (position / posture) parameters of the particle group are initialized within the range of the assumed position / posture of the vehicle. This time it is a problem of estimating the position and orientation of the vehicle in a limited section, so 3 degrees of freedom (x, y, z) representing the vehicle position and 3 degrees of freedom (yaw, pitch, roll) for a total of 6 degrees of freedom (see Fig. 3).
  • a rough position range may be set using GPS in order to set the initialization range. At this time, the number of particles needs to be set, but an appropriate number may be set according to the problem. Since the particle filter itself is a known method, the details are omitted.
  • the position / posture candidate generation unit 13 sets the parameter of the particle group at the current time from the position / posture parameter of the particle group one hour ago using a preset system model of the vehicle (exit the initialization processing unit). Immediately after that, the current time parameter is set from the initialized value).
  • the system model is a random walk (a vehicle motion is assumed randomly within a predetermined range).
  • a model such as constant velocity linear motion may be used as a system model according to the problem. For example, as shown in FIG.
  • the particle P of the position and attitude angle of the vehicle V (t1) estimated before one loop and the surrounding particles P1 to P5 are moved by odometry, and the particle distribution range is set. Set and correct. Then, particles P10 to P15 are set in order to estimate the position and attitude angle of the new vehicle V (t2).
  • the virtual image generation unit (virtual image generation means) 14 refers to the storage unit 4 and uses the position / posture parameters set for the particles and the camera model of the camera 2 described above as the position / posture candidate generation unit 13. To generate a virtual image.
  • the position / orientation of the vehicle is given as a parameter
  • the camera model of the camera 2 is known (measured in advance or may be a design value)
  • the three-dimensional data in the storage unit 4 is known
  • the three-dimensional map data can be converted into a two-dimensional image (referred to as a virtual image).
  • an evaluation value calculation unit 15 described later includes an edge of a virtual image generated by the virtual image generation unit 14 and an edge in an image extracted by the feature extraction unit 11 from an image captured by the camera 2. Perform matching. Therefore, the virtual image generation unit 14 may project only the edge information of the three-dimensional map data corresponding to the component extracted as an edge from the image captured by the feature extraction unit 11 onto the virtual image. Specifically, it suffices to project only the edge portion of the building in the map and the white line on the road surface, and it is not necessary to project information such as the texture and color of the building and the road surface. Although it has been described that the number of particles may be set according to the problem in the position / posture candidate generation unit 13 described above, if 100 particles are to be generated, this process is repeated 100 times.
  • the evaluation value calculation unit (evaluation value calculation means) 15 performs matching between the edge image output from the feature extraction unit 11 and the edge component of the virtual image output from the virtual image generation unit 14 to overlap the edges of the two. The degree is evaluated, and the higher evaluation value (likelihood) e is calculated as it overlaps.
  • position / posture estimation using a particle filter is used. Aiming to improve accuracy and stabilization of the method, when calculating the evaluation value, even if the edges do not overlap, if the distance between the closest edges (distance between edges) is close (below the predetermined distance), An evaluation correction value according to the proximity of both edges was added.
  • the evaluation correction value is calculated by the evaluation correction value calculation unit 15a in the evaluation value calculation unit 15.
  • the width of the edge in the virtual image is virtually set as shown in FIG. 4 (b).
  • the evaluation correction value ep (xi, yi) is given according to the distance between the edges.
  • the evaluation correction value may be calculated not using the number of pixels but using a three-dimensional distance in real space.
  • the distance in the real space corresponding to one pixel differs depending on the distance of the depth from the vehicle, i.e., at the position of the front and back three-dimensional objects. This is because the vertical and horizontal resolutions per pixel are different.
  • the three-dimensional object surrounded by the broken line has the same size on the front surface and the back surface in the real space, but is projected on the virtual image according to the depth. Changes.
  • an evaluation correction value ed (xi, yi) corresponding to the actual distance is obtained.
  • alpha is the adjustment parameter
  • d (x i , y i ) is the shortest distance from the edge when the coordinates (x i , y i ) are three-dimensionally projected.
  • the evaluation correction value calculation unit 15a repeats the above process for the number of particles set by the position / posture candidate generation unit 13.
  • the evaluation value calculation unit 15 calculates the evaluation value of each pixel from the following formula.
  • the evaluation correction value ep (x i , y i ) is set according to the number of pixels, if the number of pixels from the edge in the virtual image to the edge in the edge image is up to 2 pixels, the original score Add 1/2, and if it is up to 4 pixels, add 1/4 of the original score.
  • the evaluation correction value ed (x i , y i ) is set according to the actual distance, the distance from the edge in the virtual image to the edge in the edge image is close if the reciprocal of the distance is added during the addition The higher the value is added.
  • the evaluation value calculation unit 15 may repeat this process for the number of particles set by the position / posture candidate generation unit 13.
  • the evaluation correction value is calculated according to the number of pixels or the actual distance from the edge in the virtual image to the edge in the edge image with the edge in the virtual image as a reference.
  • the same result can be obtained by calculating the evaluation correction value according to the number of pixels or the actual distance from the edge in the edge image to the edge in the virtual image with reference to.
  • the position / posture estimation unit (position estimation means) 16 estimates the position / posture of the vehicle based on the evaluation value of each particle set by the evaluation value calculation unit 15. Although this process itself is a framework of the particle filter, a larger weight is set for a particle having a larger evaluation value. For example, the predicted position and posture angle candidate with the highest likelihood is calculated as the actual position and posture angle of the vehicle. Further, the weighted average of the predicted position and posture angle may be obtained using the likelihood of each predicted position and posture angle candidate, and the value may be used as the final position and posture angle of the vehicle.
  • the position / orientation estimation unit 16 estimates the position / orientation using the particle filter framework, and calculates an evaluation value using the estimated parameters (position / orientation) (processing includes the position / orientation candidate generation unit 13 and the evaluation value).
  • the calculation unit 15 is executed.In the processing described so far, this series of flows needs to be executed for the number of particles, but here, only one parameter for the estimation result is executed).
  • This evaluation value is output to the initialization determination unit 17 at the subsequent stage, and is used for initialization processing when the estimation is incorrect.
  • the initialization determination unit 17 determines whether or not the estimated position / posture is erroneous detection. If an erroneous detection determination is made, an initialization command is issued to the initialization processing unit 12, and the process is executed again. As a determination method, when the evaluation value in the estimation result output from the position / posture estimation unit 16 is lower than a preset threshold value, it is determined as a false detection.
  • FIG. 6 is a flowchart illustrating the flow of overall processing of the computer 3 according to the first embodiment.
  • the initialization processing unit 12 performs a particle filter initialization process. This process may be executed once when the system is started. However, in step S5, when the initialization determining unit 17 determines that the initialization is necessary again, the particle group is initialized again.
  • the camera 2 captures an image ahead of the vehicle.
  • the feature extraction unit 11 extracts edges from the image acquired by the camera 2.
  • step S4 a self-position estimation process is performed. Details will be described later.
  • the initialization determination unit 17 determines whether or not the estimated position / posture is erroneously detected and reinitialization is necessary. If YES, the process proceeds to step S1, and if NO, the process proceeds to step S6. In step S6, it is determined whether or not system-off is input by the user's hand. If YES, the process ends. If NO, the process proceeds to step S2.
  • FIG. 7 is a flowchart illustrating a flow of self-position estimation processing according to the first embodiment.
  • the position / posture candidate generation unit 13 uses the preset system model of the vehicle to determine the particle group parameters (position / posture 6) at the current time from the position / posture parameters of the particle group one hour ago. Set degrees of freedom.
  • the virtual image generation unit 14 generates a virtual image based on the position / orientation parameters set for the particles.
  • the evaluation correction value ep or ed
  • the evaluation correction value ep or ed
  • step S44 the evaluation value calculation unit 15 evaluates the degree of edge overlap between the edge image and the virtual image. At this time, the evaluation value is calculated in consideration of the evaluation correction value (ep or ed).
  • step S45 the evaluation value calculation unit 15 determines whether or not evaluation value calculation has been completed for all particles generated by the initialization processing unit 12. If YES, the process proceeds to step S46, and if NO Advances to step S41.
  • step S46 the position / orientation estimation unit 16 calculates a weight for the evaluation value of each particle, and estimates the position / orientation at the current time.
  • Example 1 the likelihood (evaluation value) is increased as the number of pixels in which the distance between edges, which is the distance between the edge in the edge image and the edge in the virtual image, is equal to or less than the predetermined distance.
  • FIG. 8 (b) it is possible to suppress the likelihood from being extremely lowered for particles having a small position / posture parameter deviation from the true position / posture of the host vehicle.
  • the likelihood is given even when the position / posture parameters of the particle group are slightly deviated from the true position / posture of the host vehicle, the position / posture close to the true position / posture of the host vehicle is estimated. become able to. Therefore, it is possible to stably estimate the position / posture of the host vehicle.
  • Example 1 when the distance between edges is less than or equal to a predetermined distance, the likelihood is increased as the distance between edges is closer.
  • the smaller the deviation of the position / orientation parameter from the true position / orientation of the host vehicle the higher the likelihood. Therefore, the area close to the true position / orientation is made dense in the parameter space likelihood distribution. be able to. Therefore, a more appropriate likelihood can be obtained, and the accuracy and stability of position / posture estimation can be improved.
  • the predetermined distance is the predetermined number of pixels.
  • the range which makes an evaluation value high can be made into the pixel number which the designer defined beforehand. Therefore, it is possible to set the range of the number of pixels from the edge where the likelihood of particles is highly evaluated according to the problem.
  • the predetermined distance is a three-dimensional distance in real space.
  • the range which makes an evaluation value high can be made into the distance of the real space which the designer defined beforehand. Therefore, it is possible to set the range of the distance in the real space from the edge where the likelihood of the particle is highly evaluated according to the problem.
  • Example 1 has the following effects. (1) A camera 2 that captures the front of the host vehicle and obtains a captured image, a feature extraction unit 11 that generates an edge image obtained by extracting an edge from the captured image, and edge information and position information of structures around the host vehicle A plurality of particles that are assumed positions and orientations of the host vehicle, and the virtual information is taken from the assumed positions and orientations of the map data for each particle. The virtual image generation unit 14 that converts to an image and the edge image and the virtual image are compared for each particle. The higher the number of overlapping edges, the higher the evaluation value is.
  • An evaluation value calculation unit 15 that gives a higher evaluation value as the number of edges whose edge-to-edge distance, which is the distance between the edge in the virtual image and the edge in the virtual image is less than a predetermined distance, And a position and orientation estimation unit 16 for estimating the position of the vehicle based on the value. Therefore, it is possible to stably estimate the position / posture of the host vehicle.
  • the evaluation value calculation unit 15 increases the evaluation value as the distance between the edges is shorter. Therefore, a more appropriate likelihood can be obtained, and the accuracy and stability of estimation of the position / posture of the host vehicle can be improved.
  • the predetermined distance is the predetermined number of pixels. Therefore, it is possible to set the range of the number of pixels from the edge where the likelihood of particles is highly evaluated according to the problem.
  • the predetermined distance is a three-dimensional distance in real space. Therefore, it is possible to set the range of the distance in the real space from the edge where the likelihood of the particle is highly evaluated according to the problem.
  • Capture the front of the host vehicle acquire the captured image, generate an edge image obtained by extracting edges from the captured image, set a plurality of particles that are assumed positions and orientations of the host vehicle, and set the host vehicle for each particle.
  • the higher the value, the higher the evaluation value, and the position of the host vehicle is estimated based on the evaluation value of each particle. Therefore, it is possible to stably estimate the position / posture of the host vehicle.
  • FIG. 9 is an explanatory diagram illustrating a method of calculating an evaluation correction value according to the edge density. Since other configurations are the same as those of the first embodiment, the same reference numerals are given and detailed descriptions thereof are omitted.
  • FIG. 9A shows an edge image generated by extracting the edge from the image photographed by the camera 2 by the feature extraction unit (edge image generation means) 11.
  • the road shoulder 9b is present in the vicinity in parallel with the lane 9a. Therefore, depending on the position and orientation of the particles, the edge of the lane of the virtual image and the road shoulder 9b in the edge image As a result, the evaluation value is partially increased. Therefore, in the second embodiment, when the distance between the closest edges (distance between edges) is short (below the predetermined distance), the predetermined distance to be determined is reduced in an area where the edge density of the edge image is high.
  • the evaluation correction value ep () according to the number of pixels (x i , y i ) where the edge in the edge image is shifted by one pixel with respect to the edge in the virtual image x i , y i ) 0.5
  • FIG. 9 (a) by providing an edge vicinity region for two pixels on both sides of the edge of the lane 9a, which is a region where the edge density of the edge image is high, FIG. 9 (b) As shown, the edge vicinity region can be narrowed compared to other regions, and the evaluation correction value can be prevented from being increased by the edge of the road shoulder 9b.
  • the evaluation value calculation unit 15 decreases the predetermined distance as the edge density of the edge image is higher. Therefore, it is possible to prevent the evaluation correction value in the region where the edge density is high from being erroneously increased, and it is possible to improve the accuracy and stability of the position / posture estimation of the host vehicle.
  • the evaluation function is set so that the evaluation value increases as the edge of the edge image and the virtual image overlap (maximization problem), but the evaluation is performed so that the error decreases as the edges overlap.
  • a function may be set (minimization problem).
  • the present invention can also be applied to the estimation of the relative position (lateral position) of the vehicle with respect to the left and right white lines on the road.
  • the position / posture parameters have a total of three degrees of freedom, with one degree of freedom in the horizontal position as the position parameter and two degrees of freedom as pitch and yaw as the posture parameters. Since the width of the white line varies depending on the location, the width of the white line may be added as an estimation parameter.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

 評価値算出部15は、パーティクル毎にエッジ画像と仮想画像とを比較し、エッジが重なっている数が多いほど高い評価値を与え、かつ、重なっていないエッジであってエッジ画像中のエッジと仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下であるエッジが多いほど高い評価値を与える。位置・姿勢推定部16は、各パーティクルの評価値に基づいて自車両の位置を推定する。

Description

移動体位置推定装置および移動体位置推定方法
 本発明は、移動体位置推定装置および移動体位置推定方法に関する。
 特許文献1には、カメラの撮像画像から生成したエッジ画像とパーティクルフィルタを用いて既知の三次元地図から生成した仮想画像とのエッジのマッチングをパーティクル毎に行い、エッジの重なりが多いほど尤度を高くし、エッジの重なりが少ないほど尤度を低くすることで、尤度分布から確率的に移動体の位置を推定している。
特開2010-60451号公報
 しかしながら、上記従来技術にあっては、エッジの重なり度合いから尤度を算出しているため、パーティクルのパラメータが移動体の真の位置に近い場合であっても、パーティクルの位置のパラメータが真の位置から僅かでもずれているときには、当該パーティクルの尤度が極端に低下することで、推定が不安定になるという問題があった。
  本発明の目的は、移動体の位置を安定して推定できる移動体位置推定装置および移動体位置推定方法を提供することにある。
 本発明では、パーティクル毎にエッジ画像と仮想画像とを比較し、エッジが重なっている数が多いほど高い評価値を与え、かつ、重なっていないエッジであってエッジ画像中のエッジと仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下であるエッジが多いほど高い評価値を与える。
 よって、移動体の位置を安定して推定できる。
実施例1の移動体位置推定装置の構成図である。 実施例1の計算機3における自己位置推定の制御ブロック図である。 実施例1の移動体位置推定装置によるパーティクルの散布方法を示す説明図である。 実施例1の画素数に応じた評価補正値の算出方法を示す説明図である。 実施例1の実距離に応じた評価補正値の算出方法を示す説明図である。 実施例1の計算機3の全体処理の流れを示すフローチャートである。 実施例1の自己位置推定処理の流れを示すフローチャートである。 実施例1の自己位置推定作用を示す図である。 実施例2のエッジ密度に応じた評価補正値の算出方法を示す説明図である。
1 車両
2 カメラ(撮像手段)
3 計算機
4 記憶部(記憶手段)
11 特徴抽出部(エッジ画像生成手段)
12 初期化処理部
13 位置・姿勢候補生成部
14 仮想画像生成部(仮想画像生成手段)
15 評価値算出部(評価値算出手段)
15a 評価補正値算出部
16 位置・姿勢推定部(位置推定手段)
17 初期化判定部
 〔実施例1〕
  図1は、実施例1の移動体位置推定装置の構成図である。
  車両1は、カメラ(撮像手段)2と、計算機3と、記憶部(記憶手段)4とを備える。
  カメラ2は、車両1の前端部であって、高さh、水平から下向きに角度θで取り付けられ、車両1の前方領域を撮像する。
  計算機3は、記憶部4に格納された地図データとカメラ2で撮影された画像とのマッチング処理を実施し、車両1の位置・姿勢を推定する。
  記憶部4は、車両1の周囲に存在する構造物のエッジ情報と位置情報とを有する三次元の地図データが記録されている。
 図2は、実施例1の計算機3における自己位置推定の制御ブロック図である。
  カメラ2のレンズは、一般的な歪みの無いレンズとするが、例えば広範囲を撮影するために魚眼レンズとしてもよい。この場合、後述する仮想画像生成部14でのカメラモデルを魚眼のものとすれば同じ枠組みで車両の自己位置を推定することができる。また、車両周辺をより広範囲に撮影するために魚眼レンズを装着した場合カメラを複数車載してもよい。
 特徴抽出部(エッジ画像生成手段)11は、カメラ2で撮影した画像からエッジを抽出してエッジ画像を生成する。このエッジを抽出するためにはCanny法など既存のエッジ検出手法を用いればよい。もちろん問題に合わせて、Sobelフィルタなどの方法でエッジを検出できればよく、要は地図データから、ある与えられた位置・姿勢のパラメータとカメラ2のモデルから生成する仮想画像とのマッチングに十分な精度のエッジを画像中から観測できればよい。
 初期化処理部12は、車両の位置・姿勢を推定するために利用するパーティクルフィルタの初期化処理を行う。実施例1では、車両の想定される位置・姿勢の範囲でパーティクル群の(位置・姿勢)パラメータの初期化を行う。今回は限られた区間の中で車両の位置・姿勢を推定する問題であるので、車両位置を表す3自由度(x,y,z)、および車両姿勢を表す3自由度(yaw,pitch,roll)の計6自由度とする(図3参照)。地図データを用いて自己位置を推定する実施例1の場合、初期化の範囲を設定するためにGPSを用いてラフな位置範囲を設定してもよい。また、このときパーティクルの数を設定する必要があるが、問題に合わせて適切な数を設定すればよい。パーティクルフィルタ自身は既知の手法であるので詳細は割愛する。
 位置・姿勢候補生成部13は、あらかじめ設定された車両のシステムモデルを用いて、一時刻前のパーティクル群の位置・姿勢パラメータから現時刻のパーティクル群のパラメータを設定する(初期化処理部を抜けた直後は、その初期化された値から現時刻のパラメータを設定する)。この枠組みもパーティクルフィルタの範疇であり、詳細は割愛するが、実施例1では、システムモデルをランダムウォーク(車両運動を所定範囲内でランダムに想定する。)とする。もちろん、問題に合わせて等速直線運動などのモデルをシステムモデルとしてもよい。例えば、図3に示すように、1ループ前に推定されていた車両V(t1)の位置および姿勢角のパーティクルPと周囲のパーティクルP1~P5をオドメトリ分だけ移動させ、パーティクルの存在分布範囲を設定して補正する。そして、新たな車両V(t2)の位置および姿勢角を推定するためにパーティクルP10~P15を設定する。
 仮想画像生成部(仮想画像生成手段)14は、記憶部4を参照して、前述した位置・姿勢候補生成部13であるパーティクルに設定された位置・姿勢のパラメータとカメラ2のカメラモデルを用いて仮想画像を生成する。一般に車両の位置・姿勢がパラメータとして与えられ、かつカメラ2のカメラモデルが既知であり(事前に計測すればよい。あるいは設計値でもよい)、さらに記憶部4の三次元データが既知であれば、三次元の地図データを二次元の画像(これを仮想画像と呼ぶ)に変換できる。
 実施例1では、後述する評価値算出部15に仮想画像生成部14で生成される仮想画像のエッジと、カメラ2で撮影された画像から特徴抽出部11で抽出された画像中のエッジとのマッチングを行う。したがって、仮想画像生成部14では、特徴抽出部11で撮影した画像からエッジとして抽出される成分に対応した、三次元の地図データのエッジ情報のみを、仮想画像に投影すればよい。具体的には、地図中の建物のエッジ部分や、路面上の白線などさえ投影すればよく、建物や路面のテクスチャ・色などの情報の投影は不要である。
  前述した位置・姿勢候補生成部13でパーティクルの数は問題に合わせて設定すればよいと記載したが、仮に100個のパーティクルを生成する場合、この処理を100回繰り返すことになる。
 評価値算出部(評価値算出手段)15は、特徴抽出部11から出力されたエッジ画像と、仮想画像生成部14から出力された仮想画像のエッジ成分とのマッチングを行って両者のエッジの重なり度合を評価し、重なっているほど高い評価値(尤度)eを算出する。従来の評価値算出方法では、二つの画像を走査して注目画素(xi,yi)に共にエッジがあれば、評価値を加算し(Eval(xi,yi)=1)、そうでない場合は加算しないで(Eval(xi,yi)=0)、重なっているほど評価値が高くなるように設定するのに対し、実施例1では、パーティクルフィルタを用いた位置・姿勢推定手法の精度および安定化の向上を狙いとし、評価値を算出する際、エッジが重なっていなくても、最も近接するエッジ同士の距離(エッジ間距離)が近い(所定距離以下)場合には、両エッジの近さに応じた評価補正値を加算するようにした。評価補正値の算出は、評価値算出部15内の評価補正値算出部15aにより行なわれる。
 評価補正値は、仮想画像中のエッジからエッジ画像中のエッジまでの画素数(ピクセル数)に応じて設定することができる。例えば、仮想画像中のエッジに対し、エッジ画像中のエッジが1または2画素ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.5とし、3または4画素ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.25とし、5画素以上ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.0とする。すなわち、図4(a)のような仮想画像において、エッジの両側に4画素分のエッジ近傍領域を設けることで、図4(b)に示すように、仮想画像中のエッジの幅を仮想的に太くし、このエッジ近傍領域にエッジ画像中のエッジが重なる場合には、エッジ間距離に応じて評価補正値ep(xi,yi)を付与する。
 別の例として、単に画素数ではなく、実空間の三次元の距離を利用して評価補正値を算出してもよい。上記のように画素数から所定距離を定義した場合、車両からの奥行きの距離に応じて、1画素に対応する実空間の距離が異なる、すなわち、手前の立体物と奥の立体物の位置では1画素当たりの縦、横の分解能が異なるからである。例えば、図5(a)に示す仮想画像において、破線で囲んだ立体物は、実空間では手前の面と奥の面で同じ大きさであるが、奥行きに応じて仮想画像に投影される大きさが変化する。よって、実空間を反映させる場合、仮想画像生成部14での方法と同様に、三次元情報が既知の地図データを用いて、図5(b)に示すように、実距離を考慮したエッジ近傍領域を設け、実距離に応じた評価補正値ed(xi,yi)を求める。
  実距離に応じた評価補正値ed(xi,yi)は、以下の式から求める。
  ed(xi,yi) = 1/(1 + alpha × d(xi,yi))
  ここで、alphaは調整パラメータ、d(xi,yi)は座標(xi,yi)を三次元投影したときのエッジとの最短距離である。この距離が所定値以上である(エッジまで遠い)場合はed(xi,yi)全体をゼロとしてよい。
  評価補正値算出部15aでは、上記の処理を位置・姿勢候補生成部13で設定したパーティクルの数だけ繰り返す。
 評価値算出部15は、各画素の評価値を、以下の式から算出する。
(i) 画素数に応じた評価補正値ep(xi,yi)を設定した場合
  e = Σ(Eval(xi,yi) +ep(xi,yi))
  Eval(xi,yi) = 1 (エッジが重なっている)
  Eval(xi,yi) = 0 (エッジが重なっていない(otherwise))
(ii) 実距離に応じた評価補正値ed(xi,yi)を設定した場合
  e = Σ(Eval(xi,yi) +ed(xi,yi))
  Eval(xi,yi) = 1 (エッジが重なっている)
  Eval(xi,yi) = 0 (エッジが重なっていない(otherwise))
 これにより、画素数に応じた評価補正値ep(xi,yi)を設定した場合、仮想画像中のエッジからエッジ画像中のエッジまでの画素数が2画素までの部分なら元の点数の1/2を加算し、4画素までの部分なら元の点数の1/4を加算する。一方、実距離に応じた評価補正値ed(xi,yi)を設定した場合、加算の際に距離の逆数を加算すれば仮想画像中のエッジからエッジ画像中のエッジまでの距離が近いほど高い値が加算されるようになる。
  評価値算出部15でも同様に、この処理を位置・姿勢候補生成部13で設定したパーティクルの数だけ、繰り返せばよい。
  なお、上記の例では、仮想画像中のエッジを基準とし、仮想画像中のエッジからエッジ画像中のエッジまでの画素数または実距離に応じて評価補正値を算出したが、エッジ画像中のエッジを基準とし、エッジ画像中のエッジから仮想画像中のエッジまでの画素数または実距離に応じて評価補正値を算出しても同じ結果が得られる。
 位置・姿勢推定部(位置推定手段)16は、評価値算出部15で設定された各パーティクルの評価値に基づいて、車両の位置・姿勢を推定する。この処理自体はパーティクルフィルタの枠組みであるが、評価値が大きいパーティクルほど大きな重みが設定される。例えば、尤度が最も高い予測位置および姿勢角候補を、車両の実際の位置および姿勢角として算出する。また、各予測位置および姿勢角候補の尤度を用いて、予測位置および姿勢角の重み付き平均を求め、その値を最終的な車両の位置および姿勢角としてもよい。
  位置・姿勢推定部16では、パーティクルフィルタの枠組みで位置・姿勢を推定し、その推定したパラメータ(位置・姿勢)での評価値を計算する(処理としては位置・姿勢候補生成部13および評価値算出部15を実行する。これまで述べた処理ではこの一連の流れをパーティクルの個数分実行する必要があるが、ここでは推定結果の一パラメータ分だけ実行する)。この評価値を後段の初期化判定部17に出力し、推定が誤っている場合の初期化処理に利用する。
 初期化判定部17は、推定した位置・姿勢が誤検出であるか否かの判定を行う。誤検出判定された場合は初期化処理部12に初期化の指令をだし、処理を再度実行する。判定の方法として、位置・姿勢推定部16より出力された推定結果での評価値が事前に設定された閾値よりも低い場合は、誤検出と判定する。
 [全体処理]
  図6は、実施例1の計算機3の全体処理の流れを示すフローチャートである。
  ステップS1では、初期化処理部12において、パーティクルフィルタの初期化処理を行う。この処理はシステム起動時に一回実行すればよい。ただし、ステップS5において、初期化判定部17で再度の初期化が必要であると判定された場合には、再度パーティクル群を初期化する。
  ステップS2では、カメラ2により車両前方の画像を撮影する。
  ステップS3では、特徴抽出部11において、カメラ2により取得した画像からエッジを抽出する。
 ステップS4では、自己位置推定処理を実施する。詳細は後述する。
  ステップS5では、初期化判定部17において、推定した位置・姿勢が誤検出であり、再度の初期化が必要であるか否かを判定する。YESの場合はステップS1へ進み、NOの場合はステップS6へ進む。
  ステップS6では、ユーザーの手でシステムオフが入力されたか否かを判定し、YESの場合は処理を終了し、NOの場合はステップS2へ進む。
 [自己位置推定処理]
  図7は、実施例1の自己位置推定処理の流れを示すフローチャートである。
  ステップS41では、位置・姿勢候補生成部13において、あらかじめ設定された車両のシステムモデルを用いて、一時刻前のパーティクル群の位置・姿勢パラメータから現時刻のパーティクル群のパラメータ(位置・姿勢の6自由度)を設定する。
  ステップS42では、仮想画像生成部14において、パーティクルに設定された位置・姿勢のパラメータに基づき、仮想画像を生成する。
  ステップS43では、評価値算出部15の評価補正値算出部15aにおいて、エッジ画像中のエッジと仮想画像中のエッジとのずれ量(画素または実距離)に応じて評価補正値(epまたはed)を算出する。
 ステップS44では、評価値算出部15において、エッジ画像と仮想画像とのエッジの重なり度合いを評価する。このとき、評価補正値(epまたはed)を加味して評価値を算出する。
  ステップS45では、評価値算出部15において、初期化処理部12で生成したすべてのパーティクルに対して評価値算出が終了したか否かを判定し、YESの場合はステップS46へ進み、NOの場合はステップS41へ進む。
  ステップS46では、位置・姿勢推定部16において、各パーティクルの評価値に対して重みを算出し、現時刻での位置・姿勢を推定する。
 次に、作用を説明する。
  従来の移動体位置推定装置では、パーティクルのパラメータが自車両の真の位置・姿勢に近い場合であっても、位置のパラメータが真の位置・姿勢から僅かでもずれているときには、そのパーティクルの尤度が極端に低下するため、図8(a)に示すように、自車両の位置・姿勢の推定が不安定になるという問題があった。
 これに対し、実施例1では、エッジ画像中のエッジと仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下となる画素が多いほど尤度(評価値)を高くする。これにより、図8(b)に示すように、自車両の真の位置・姿勢に対する位置・姿勢のパラメータのずれが小さなパーティクルについて、尤度が極端に低下するのを抑制できる。換言すると、パーティクル群の位置・姿勢パラメータが自車両の真の位置・姿勢から小さなずれが生じた場合でも、尤度が与えられるので、自車両の真の位置・姿勢に近い位置・姿勢が推定できるようになる。よって、自車両の位置・姿勢を安定して推定できる。
 実施例1では、エッジ間距離が所定距離以下である場合、エッジ間距離が近いほど尤度を高くする。これにより、自車両の真の位置・姿勢に対する位置・姿勢のパラメータのずれがより小さいパーティクルほど尤度が高くなるため、パラメータ空間の尤度分布において真の位置・姿勢に近い領域を密にすることができる。よって、より適正な尤度を求めることができ、位置・姿勢推定の精度および安定性を向上できる。
 実施例1では、所定距離を所定画素数とした。これにより、評価値を高くする範囲をあらかじめ設計者が定めた画素数とすることができる。よって、問題に応じてパーティクルの尤度が高く評価されるエッジからの画素数の範囲を設定することができる。
 実施例1では、所定距離を実空間上の三次元の距離とした。これにより、評価値を高くする範囲をあらかじめ設計者が定めた実空間の距離とすることができる。よって、問題に応じてパーティクルの尤度が高く評価されるエッジからの実空間上の距離の範囲を設定することができる。
 実施例1にあっては以下に列挙する効果を奏する。
  (1) 自車両前方を撮像し撮像画像を取得するカメラ2と、撮像画像からエッジを抽出したエッジ画像を生成する特徴抽出部11と、自車両周囲に存在する構造物のエッジ情報と位置情報とを有する地図データを記憶する記憶部4と、自車両の想定される位置および姿勢であるパーティクルを複数設定し、パーティクル毎に地図データのエッジ情報を想定される位置および姿勢から撮影された仮想画像に変換する仮想画像生成部14と、パーティクル毎にエッジ画像と仮想画像とを比較し、エッジが重なっている数が多いほど高い評価値を与え、かつ、重なっていないエッジであってエッジ画像中のエッジと仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下であるエッジが多いほど高い評価値を与える評価値算出部15と、各パーティクルの評価値に基づいて自車両の位置を推定する位置・姿勢推定部16とを備えた。
  よって、自車両の位置・姿勢を安定して推定できる。
 (2) 評価値算出部15は、エッジ間距離が所定距離以下である場合、当該エッジ間距離が近いほど評価値を高くする。
  よって、より適正な尤度を求めることができ、自車両の位置・姿勢の推定の精度および安定性を向上できる。
 (3) 所定距離を所定画素数とした。
  よって、問題に応じてパーティクルの尤度が高く評価されるエッジからの画素数の範囲を設定することができる。
 (4) 所定距離を実空間上の三次元の距離とした。
  よって、問題に応じてパーティクルの尤度が高く評価されるエッジからの実空間上の距離の範囲を設定することができる。
 (5) 自車両前方を撮像し撮像画像を取得し、撮像画像からエッジを抽出したエッジ画像を生成し、自車両の想定される位置および姿勢であるパーティクルを複数設定し、パーティクル毎に自車両周囲に存在する構造物のエッジ情報と位置情報とを有する地図データのエッジ情報を想定される位置および姿勢から撮影された仮想画像に変換し、パーティクル毎にエッジ画像と仮想画像とを比較し、エッジが重なっている数が多いほど高い評価値を与え、かつ、重なっていないエッジであってエッジ画像中のエッジと仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下であるエッジが多いほど高い評価値を与え、各パーティクルの評価値に基づいて自車両の位置を推定する。
  よって、自車両の位置・姿勢を安定して推定できる。
 〔実施例2〕
  次に、実施例2に係る移動体位置推定装置について図面を参照して説明する。
  図9は、エッジ密度に応じた評価補正値の算出方法を示す説明図である。
  なお、その他の構成は、実施例1と同一であるため、同一の符号を付して詳細な説明は省略する。
 図9(a)は、特徴抽出部(エッジ画像生成手段)11で、カメラ2で撮影した画像からエッジを抽出して生成したエッジ画像である。図9(a)に示すエッジ画像では、レーン9aに並行して、路肩9bが近傍に存在しているため、パーティクルの位置・姿勢によって、仮想画像のレーンのエッジと、エッジ画像中の路肩9bのエッジとが近い状態(エッジ密度が高い状態)となり、部分的に評価値が高くなってしまう。
  そこで、実施例2では、最も近接するエッジ同士の距離(エッジ間距離)が近い(所定距離以下)場合で、エッジ画像のエッジ密度が高い領域では、判定する所定距離を小さくする。
 例えば、エッジ画像のエッジ密度が低い領域では、実施例1のように、仮想画像中のエッジに対し、エッジ画像中のエッジが1または2画素ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.5とし、3または4画素ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.25とし、5画素以上ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.0とする。
  一方、エッジ画像のエッジ密度が高い領域では、仮想画像中のエッジに対し、エッジ画像中のエッジが1画素ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.5とし、2画素ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.25とし、3画素以上ずれている画素(xi,yi)の画素数に応じた評価補正値ep(xi,yi)=0.0とする。
  すなわち、図9(a)のようなエッジ画像において、エッジ画像のエッジ密度が高い領域であるレーン9aのエッジの両側では、2画素分のエッジ近傍領域を設けることで、図9(b)に示すように、他の領域に比較して、エッジ近傍領域を狭くし、路肩9bのエッジによって評価補正値が高くなるのを抑制できる。
 実施例2にあっては、実施例1の効果(1)~(5)に加え、以下の効果を奏する。
  (6) 評価値算出部15は、エッジ画像のエッジ密度が高いほど、所定距離を小さくする。
  よって、エッジ密度が高い領域の評価補正値が誤って高くなるのを抑制でき、自車両の位置・姿勢の推定の精度および安定性を向上できる。
 (他の実施例)
  以上、本発明を実施するための形態を、実施例に基づいて説明したが、本発明の具体的な構成は、実施例に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
  例えば、実施例では、エッジ画像と仮想画像のエッジが重なっているほど評価値が高くなるように評価関数を設定した(最大化問題)が、エッジが重なっているほど誤差が少なるように評価関数を設定してもよい(最小化問題)。
 本発明は、走行路の左右白線に対する車両の相対位置(横位置)の推定にも適用可能である。この場合、位置・姿勢パラメータは、位置パラメータとして横位置の1自由度、姿勢パラメータとしてpitch,yawの2自由度の計3自由度となる。なお、白線の幅も場所によって異なるため、白線の幅も推定パラメータとして追加してもよい。

Claims (6)

  1.  移動体周囲を撮像し撮像画像を取得する撮像手段と、
     前記撮像画像からエッジを抽出したエッジ画像を生成するエッジ画像生成手段と、
     前記移動体周囲に存在する構造物のエッジ情報と位置情報とを有する地図データを記憶する記憶手段と、
     前記移動体の想定される位置および姿勢であるパーティクルを複数設定し、パーティクル毎に前記地図データのエッジ情報を前記想定される位置および姿勢から撮影された仮想画像に変換する仮想画像生成手段と、
     前記パーティクル毎に前記エッジ画像と前記仮想画像とを比較し、エッジが重なっている数が多いほど高い評価値を与え、かつ、重なっていないエッジであって前記エッジ画像中のエッジと前記仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下であるエッジが多いほど高い評価値を与える評価値算出手段と、
     前記各パーティクルの評価値に基づいて前記移動体の位置を推定する位置推定手段と、
     を備えたことを特徴とする移動体位置推定装置。
  2.  請求項1に記載の移動体位置推定装置において、
     前記評価値算出手段は、前記エッジ間距離が所定距離以下である場合、当該エッジ間距離が近いほど前記評価値を高くすることを特徴とする移動体位置推定装置。
  3.  請求項1または2に記載の移動体位置推定装置において、
     前記評価値算出手段は、前記エッジ画像のエッジ密度が高いほど、前記所定距離を小さくすることを特徴とする移動体位置推定装置。
  4.  請求項2または3に記載の移動体位置推定装置において、
     前記所定距離を所定画素数としたことを特徴とする移動体位置推定装置。
  5.  請求項2または3に記載の移動体位置推定装置において、
     前記所定距離を実空間上の三次元の距離としたことを特徴とする移動体位置推定装置。
  6.  移動体周囲を撮像し撮像画像を取得し、
     前記撮像画像からエッジを抽出したエッジ画像を生成し、
     前記移動体の想定される位置および姿勢であるパーティクルを複数設定し、パーティクル毎に前記移動体周囲に存在する構造物のエッジ情報と位置情報とを有する地図データのエッジ情報を前記記憶される位置および姿勢から撮影された仮想画像に変換し、
     前記パーティクル毎に前記エッジ画像と前記仮想画像とを比較し、エッジが重なっている数が多いほど高い評価値を与え、かつ、重なっていないエッジであって前記エッジ画像中のエッジと前記仮想画像中のエッジとの距離であるエッジ間距離が所定距離以下であるエッジが多いほど高い評価値を与え、
     前記各パーティクルの評価値に基づいて前記移動体の位置を推定することを特徴とする移動体位置推定方法。
PCT/JP2014/073432 2013-11-13 2014-09-05 移動体位置推定装置および移動体位置推定方法 WO2015072217A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
RU2016123022A RU2621480C1 (ru) 2013-11-13 2014-09-05 Устройство оценки положения движущегося тела и способ оценки положения движущегося тела
BR112016010089-1A BR112016010089B1 (pt) 2013-11-13 2014-09-05 dispositivo de estimação de posição de corpo em movimento e método de estimação de posição de corpo em movimento
US15/031,295 US9424649B1 (en) 2013-11-13 2014-09-05 Moving body position estimation device and moving body position estimation method
MX2016005904A MX355313B (es) 2013-11-13 2014-09-05 Dispositivo de estimación de posición de cuerpo en movimiento y método de estimación de posición de cuerpo en movimiento.
EP14861295.5A EP3070430B1 (en) 2013-11-13 2014-09-05 Moving body position estimation device and moving body position estimation method
CN201480058813.4A CN105723180B (zh) 2013-11-13 2014-09-05 移动体位置估计装置以及移动体位置估计方法
JP2015547675A JP6112221B2 (ja) 2013-11-13 2014-09-05 移動体位置推定装置および移動体位置推定方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013234516 2013-11-13
JP2013-234516 2013-11-13

Publications (1)

Publication Number Publication Date
WO2015072217A1 true WO2015072217A1 (ja) 2015-05-21

Family

ID=53057162

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073432 WO2015072217A1 (ja) 2013-11-13 2014-09-05 移動体位置推定装置および移動体位置推定方法

Country Status (8)

Country Link
US (1) US9424649B1 (ja)
EP (1) EP3070430B1 (ja)
JP (1) JP6112221B2 (ja)
CN (1) CN105723180B (ja)
BR (1) BR112016010089B1 (ja)
MX (1) MX355313B (ja)
RU (1) RU2621480C1 (ja)
WO (1) WO2015072217A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117386A (ja) * 2015-12-25 2017-06-29 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2017159884A (ja) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム
JP2017181476A (ja) * 2016-03-31 2017-10-05 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP2019500602A (ja) * 2015-12-15 2019-01-10 本田技研工業株式会社 画像ベースの車両位置特定のためのシステム及び方法
JP2019066280A (ja) * 2017-09-29 2019-04-25 株式会社デンソーテン レーダ装置および物標検出方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9849591B2 (en) * 2015-10-02 2017-12-26 X Development Llc Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment
JP2018504652A (ja) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 顕著特徴ベースの移動体測位
US10013617B2 (en) * 2015-12-03 2018-07-03 Gm Global Technology Operations Snow covered path of travel surface condition detection
GB2568286B (en) 2017-11-10 2020-06-10 Horiba Mira Ltd Method of computer vision based localisation and navigation and system for performing the same
WO2019111702A1 (ja) * 2017-12-05 2019-06-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN109935108A (zh) * 2017-12-18 2019-06-25 姜鹏飞 一种基于准确位置的交通安全预警方法及装置
US20200311455A1 (en) * 2019-03-27 2020-10-01 GM Global Technology Operations LLC Methods and systems for correcting sensor information
RU2769918C1 (ru) 2021-05-18 2022-04-08 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009252112A (ja) * 2008-04-09 2009-10-29 Canon Inc 画像処理装置、画像処理方法
JP2010060451A (ja) 2008-09-04 2010-03-18 Toyota Motor Corp ロボット装置及び物体の位置姿勢推定方法
JP2013186551A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
JP2014056535A (ja) * 2012-09-14 2014-03-27 Oki Electric Ind Co Ltd 物体追跡装置及び物体追跡方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8350850B2 (en) * 2008-03-31 2013-01-08 Microsoft Corporation Using photo collections for three dimensional modeling
US8385591B1 (en) * 2009-04-28 2013-02-26 Google Inc. System and method of using images to determine correspondence between locations
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
JP5512258B2 (ja) * 2009-12-25 2014-06-04 本田技研工業株式会社 向き計測装置、向き計測システム、向き計測方法、及び向き計測プログラム
US20130202197A1 (en) * 2010-06-11 2013-08-08 Edmund Cochrane Reeler System and Method for Manipulating Data Having Spatial Co-ordinates
JP5703801B2 (ja) * 2011-02-04 2015-04-22 富士通株式会社 ロボット、位置推定方法及びプログラム
JP2012243051A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
CN103154666B (zh) * 2011-06-14 2015-03-18 日产自动车株式会社 距离测量装置以及环境地图生成装置
US8704882B2 (en) * 2011-11-18 2014-04-22 L-3 Communications Corporation Simulated head mounted display system and method
US9797981B2 (en) * 2012-03-06 2017-10-24 Nissan Motor Co., Ltd. Moving-object position/attitude estimation apparatus and moving-object position/attitude estimation method
EP2662828B1 (en) * 2012-05-11 2020-05-06 Veoneer Sweden AB A vision system and method for a motor vehicle
JP6197388B2 (ja) * 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
WO2015159547A1 (ja) * 2014-04-18 2015-10-22 日本電気株式会社 情報処理システム、制御方法、及びプログラム記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009252112A (ja) * 2008-04-09 2009-10-29 Canon Inc 画像処理装置、画像処理方法
JP2010060451A (ja) 2008-09-04 2010-03-18 Toyota Motor Corp ロボット装置及び物体の位置姿勢推定方法
JP2013186551A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
JP2014056535A (ja) * 2012-09-14 2014-03-27 Oki Electric Ind Co Ltd 物体追跡装置及び物体追跡方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3070430A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500602A (ja) * 2015-12-15 2019-01-10 本田技研工業株式会社 画像ベースの車両位置特定のためのシステム及び方法
JP2017117386A (ja) * 2015-12-25 2017-06-29 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2017159884A (ja) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム
JP2017181476A (ja) * 2016-03-31 2017-10-05 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP2019066280A (ja) * 2017-09-29 2019-04-25 株式会社デンソーテン レーダ装置および物標検出方法

Also Published As

Publication number Publication date
RU2621480C1 (ru) 2017-06-06
US20160239973A1 (en) 2016-08-18
CN105723180A (zh) 2016-06-29
EP3070430A1 (en) 2016-09-21
MX355313B (es) 2018-04-16
EP3070430A4 (en) 2017-01-11
CN105723180B (zh) 2017-08-15
MX2016005904A (es) 2016-07-13
BR112016010089B1 (pt) 2021-06-08
EP3070430B1 (en) 2019-08-14
JP6112221B2 (ja) 2017-04-12
US9424649B1 (en) 2016-08-23
BR112016010089A2 (pt) 2020-11-10
JPWO2015072217A1 (ja) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6112221B2 (ja) 移動体位置推定装置および移動体位置推定方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP2018522348A (ja) センサーの3次元姿勢を推定する方法及びシステム
CN107843251B (zh) 移动机器人的位姿估计方法
JP4341564B2 (ja) 対象物判定装置
KR102206108B1 (ko) 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법
WO2020228694A1 (zh) 一种相机姿态信息检测方法、装置以及相应的智能驾驶设备
US20180182113A1 (en) Image processing device and image processing method
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
Cerri et al. Free space detection on highways using time correlation between stabilized sub-pixel precision IPM images
JP2021085855A (ja) 補正距離算出装置、補正距離算出用プログラムおよび補正距離算出方法
CN115494856A (zh) 避障方法、装置、无人机及电子设备
CN111260709B (zh) 一种面向动态环境的地面辅助的视觉里程计方法
KR101531313B1 (ko) 차량 하부의 물체 탐지장치 및 방법
KR101980899B1 (ko) 직교 소실점을 이용한 단일 영상의 내벽 구조 검출 장치 및 방법
Brunken et al. Incorporating Plane-Sweep in Convolutional Neural Network Stereo Imaging for Road Surface Reconstruction.
US9818180B2 (en) Image processing device, method, and program
KR102025696B1 (ko) 스테레오 이미지를 이용한 비주얼 오도메트리 장치 및 그 방법
JP4555635B2 (ja) 画像処理装置および画像処理方法
CN116934980A (zh) 单体建筑模型的构建方法、设备及计算机可读存储介质
CN118043856A (zh) 区域检测程序、装置以及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14861295

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015547675

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15031295

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: MX/A/2016/005904

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016010089

Country of ref document: BR

REEP Request for entry into the european phase

Ref document number: 2014861295

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014861295

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016123022

Country of ref document: RU

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112016010089

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160504

ENPC Correction to former announcement of entry into national phase, pct application did not enter into the national phase

Ref country code: BR

Free format text: ANULADA A PUBLICACAO CODIGO 1.3 NA RPI NO 2430 DE 01/08/2017 POR TER SIDO INDEVIDA.

REG Reference to national code

Ref country code: BR

Ref legal event code: B01E

Ref document number: 112016010089

Country of ref document: BR

Kind code of ref document: A2

Free format text: APRESENTE A TRADUCAO SIMPLES DA FOLHA DE ROSTO DA CERTIDAO DE DEPOSITO DA PRIORIDADE JP 2013-234516 ; OU DECLARACAO DE QUE OS DADOS DO PEDIDO INTERNACIONAL ESTAO FIELMENTE CONTIDOS NA PRIORIDADE REIVINDICADA, CONTENDO TODOS OS DADOS IDENTIFICADORES DESTA (TITULARES, NUMERO DE REGISTRO, DATA E TITULO), CONFORME O PARAGRAFO UNICO DO ART. 25 DA RESOLUCAO 77/2013. CABE SALIENTAR QUE NAO FOI POSSIVEL IDENTIFICAR OS TITULARES DO PEDIDO NOS DOCUMENTOS JUNTADOS AO PROCESSO, TAMPOUCO NOS APRESENTADOS NA OMPI, POIS SE ENCONTRAM EM JAPONES.

ENP Entry into the national phase

Ref document number: 112016010089

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160504