WO2021250848A1 - 位置推定方法、位置推定装置、および位置推定プログラム - Google Patents

位置推定方法、位置推定装置、および位置推定プログラム Download PDF

Info

Publication number
WO2021250848A1
WO2021250848A1 PCT/JP2020/023011 JP2020023011W WO2021250848A1 WO 2021250848 A1 WO2021250848 A1 WO 2021250848A1 JP 2020023011 W JP2020023011 W JP 2020023011W WO 2021250848 A1 WO2021250848 A1 WO 2021250848A1
Authority
WO
WIPO (PCT)
Prior art keywords
position estimation
predetermined section
estimation target
estimated
value
Prior art date
Application number
PCT/JP2020/023011
Other languages
English (en)
French (fr)
Inventor
亜紀 林
夕貴 横畑
崇洋 秦
皓平 森
和昭 尾花
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2022530456A priority Critical patent/JP7343054B2/ja
Priority to US18/008,571 priority patent/US20230236038A1/en
Priority to PCT/JP2020/023011 priority patent/WO2021250848A1/ja
Publication of WO2021250848A1 publication Critical patent/WO2021250848A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/31Acquisition or tracking of other signals for positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the technique of the present disclosure relates to a position estimation method, a position estimation device, and a position estimation program.
  • SLAM Simultaneus Localization
  • LIDAR Light Detection and Ringing
  • a threshold should be set for the value of HDOP (Horizontal division of precision, horizontal accuracy reduction rate), which indicates the reliability of the GPS trajectory in the horizontal direction, and estimation using GPS with a bad HDOP value should not be performed. Removes the effect of random error.
  • HDOP Harmonic division of precision, horizontal accuracy reduction rate
  • the LIDAR method can achieve high accuracy, but the cost is also high, so it is updated daily after covering a wide range. It's difficult to continue.
  • the position coordinates are estimated using the information measured by the inexpensive sensor without using the expensive sensor. Further, as a problem when an inexpensive sensor is used, in Non-Patent Document 1, time-series sensor data is processed by a statistical method. However, since the relationship between the moving body and the surrounding environment when the sensor data included in the time-series sensor data is acquired is not taken into consideration, there is still room for improvement in the estimation of the position coordinates using the sensor data. ..
  • the disclosed technique has been made in view of the above points, and is a position estimation method, a position estimation device, which can accurately estimate the position of a position estimation target existing in or around a section where a moving body moves. And to provide a position estimation program.
  • the first aspect of the present disclosure is a position estimation method, which uses sensor information obtained by moving a predetermined section a plurality of times while sensing the moving body and position information obtained from the sensor information.
  • a position estimation method for estimating the position of a position estimation target existing in the vicinity of the moving body and is a position candidate of the position estimation target based on the position information and the sensor information for each movement of the predetermined section. It was used when estimating the position candidate based on the estimation step for estimating a plurality of positions and the plurality of position candidates of the position estimation target obtained by the movement of the predetermined section for each movement of the predetermined section.
  • the position information has an error due to the position of the GPS satellite used for obtaining the position information, the position in the real space of the moving body when the position information is obtained, or the moving body.
  • the error is present from the evaluation step for evaluating whether or not there is an error due to, and the plurality of position candidates of the estimated position estimation target in the plurality of movements of the predetermined section. Then, it has a determination step of determining the final output value of the position of the position estimation target based on the result of excluding the position candidate of the position estimation target estimated in the movement of the predetermined section.
  • the second aspect of the present disclosure is a position estimation device, which uses sensor information obtained by moving a predetermined section a plurality of times while sensing the moving body and position information obtained from the sensor information.
  • a position estimation device that estimates the position of a position estimation target existing in the vicinity of the moving body, and is a position candidate of the position estimation target based on the position information and the sensor information for each movement of the predetermined section. It is used when estimating the position candidate based on the position estimation unit that estimates a plurality of positions and the plurality of position candidates of the position estimation target obtained by the movement of the predetermined section for each movement of the predetermined section.
  • the position information has an error due to any of the position of the GPS satellite used for obtaining the position information, the position in the real space of the moving body when the position information is obtained, and the moving body. It is evaluated whether or not there is an error due to which, and it is evaluated that the error is present from the plurality of position candidates of the estimated position estimation target in the plurality of movements of the predetermined section. It is configured to include a position determination unit that determines the final output value of the position of the position estimation target based on the result of excluding the position candidate of the position estimation target estimated in the movement of the predetermined section. To.
  • the third aspect of the present disclosure is a position estimation program, which uses sensor information obtained by moving a predetermined section a plurality of times while sensing the moving body and position information obtained from the sensor information.
  • a position estimation program for estimating the position of a position estimation target existing around the moving body, and for each movement of the predetermined section, the position estimation target is based on the position information and the sensor information. The above-mentioned used when estimating a plurality of position candidates and estimating the position candidate based on the plurality of position candidates of the position estimation target obtained by the movement of the predetermined section for each movement of the predetermined section.
  • the position information has an error due to the position of the GPS satellite used for obtaining the position information, the position in the real space of the moving body when the position information is obtained, or the moving body.
  • This is a program for causing a computer to determine the final output value of the position of the position estimation target based on the result of excluding the position candidate of the position estimation target estimated in the movement of the predetermined section.
  • the first method of Patent Document 1 is used for sorting based on the HDOP value
  • the second method is used for simple statistical processing to output the median or average value.
  • the position is estimated by a method such as triangulation based on the dynamic information acquired from the moving object using an inexpensive sensor, the estimation accuracy is lowered, and the following (a) to (j) There are challenges.
  • the above-mentioned problems (a) to (j) are problems caused by the position of the GPS satellite used when estimating the position information, and the title change due to the position of the moving body in the real space when the position information is obtained. And the problems caused by the moving body itself.
  • the value of HDOP is referred to.
  • the value of HDOP is calculated based on the preference of the arrangement of GPS satellites in the sky, and even if the problem (b) above can be solved, the problem (a) cannot be solved.
  • the average value or the median value obtained from a plurality of estimation points is used as the final result, so that the GPS accuracy is instantaneous due to the factors (a) to (e) and the like. If the estimation accuracy of a small part of the triangulation results is reduced, the effect can be statistically eliminated. However, as mentioned in (f), there is a problem that the GPS accuracy continues to decrease for a certain period of time, and when most of the triangulation results are incorrect, the influence of the unreliable triangulation results cannot be removed. rice field.
  • the problem that arises when estimating the position of a peripheral object by using the sensor information and the position information acquired by using the inexpensive sensor mounted on the moving body as described above is triangulated. It is sometimes solved by adding some ingenuity or giving reliability to the estimation result by statistical processing.
  • This predetermined section is a period divided by a fixed period.
  • the predetermined section may be a region on the map divided by a certain mesh, or may be a region divided by a road unit.
  • each object around the vehicle is called an object, and the object is an example of a position estimation target.
  • a stationary object corresponds to an object.
  • the stationary object may include a fixed object such as a road sign, a traffic signal, a utility pole, a post, a vending machine, a building, a sign, and an object such as a parked vehicle or a road cone, which is in the same position for at least a certain period of time.
  • the stationary object can also include other vehicles that are paused or people waiting for a traffic light. For example, even if the same "parking prohibition sign" is installed, if two or more are installed in different places, they are regarded as different objects.
  • the triangulation result estimated as the position coordinates of the object by a method such as triangulation is called a coordinate candidate point. Since one coordinate candidate point of the object that can be matched by the image pair is calculated from one image pair, a plurality of coordinate candidate points are output from one run.
  • the position coordinates of the object that is finally uniquely determined are called the final output values of the position coordinates.
  • the final output value is calculated by using not only one trip but also the coordinate candidate points estimated in multiple trips with overlapping movement ranges. ..
  • FIG. 1 shows an example of an in-vehicle system including the position estimation device 1 of the present embodiment.
  • a vehicle 4 is shown as an example of a moving body.
  • the vehicle 4 is not limited to a specific vehicle, and may be a vehicle of various individuals, vehicle types, and manufacturers.
  • moving objects can include vehicles, two-wheeled vehicles, bicycles, personal mobility, robots, pedestrians, ships, airplanes, drones, and any other movement that can be equipped with sensors. Therefore, the in-vehicle system shown in FIG. 1 is only an example, and can be replaced with a smartphone or the like possessed by a pedestrian.
  • the vehicle 4 as a mobile body is equipped with the position estimation device 1 of the present embodiment, the camera 2, and the GPS sensor 3.
  • the camera 2 uses a solid-state imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Sensor) sensor, and includes a road region in an arbitrary direction such as the traveling direction of the vehicle 4 in the imaging range. The installation location, orientation and angle are set so as to. The camera 2 acquires the captured image and outputs the acquired image to the position estimation device 1.
  • a solid-state imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Sensor) sensor
  • the image acquired by the camera 2 may be a moving image or a still image captured at regular time intervals.
  • the GPS sensor 3 calculates the latitude and longitude of the vehicle 4 by receiving GPS signals transmitted by a plurality of GPS satellites and performing a ranging calculation, and positions the position information including the calculated longitude and latitude. Output to the estimation device 1.
  • the position information can include information indicating the certainty of GPS measurement in addition to the longitude and latitude. In the following, longitude and latitude are also referred to as "position coordinates".
  • the certainty of GPS measurement is, for example, an index determined according to the arrangement status of GPS satellites.
  • the acquisition of position coordinates is not limited to the GPS sensor 3, and if the same function is exhibited, the position information of a wireless base station or a Wi-Fi (registered trademark) access point may be used. , Other means may be used.
  • FIG. 2 is a block diagram showing a hardware configuration of the position estimation device 1 of the present embodiment.
  • the position estimation device 1 has an input / output interface unit 10, a processor 20A such as a CPU (Central Processing Unit), a program memory 20B, and a data memory 30. Each configuration is communicably connected to each other via the bus 40.
  • the input / output interface unit 10 includes, for example, one or more wired or wireless communication interface units.
  • the input / output interface unit 10 receives information from an external device including the camera 2 and the GPS sensor 3, and outputs the information generated by the position estimation device 1 to the outside.
  • the processor 20A is a central processing unit that executes various programs and controls each part. That is, the processor 20A reads the program from the data memory 30 and executes the program using the program memory 20B as a work area. The processor 20A controls each of the above configurations and performs various arithmetic processes according to the program stored in the data memory 30.
  • the position estimation program is stored in the data memory 30.
  • the position estimation program may be one program, or may be a program group composed of a plurality of programs or modules.
  • the program memory 20B stores various programs and various data.
  • the program memory 20B temporarily stores a program or data as a work area.
  • the data memory 30 is composed of an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various programs including an operating system and various data.
  • FIG. 3 is a block diagram showing an example of the functional configuration of the position estimation device 1.
  • the input / output interface unit 10 receives an image recorded by a camera 2 such as a drive recorder mounted on the vehicle 4 and a position information from a GPS sensor 3 mounted on the vehicle 4 and outputs the position information to the control unit 20.
  • the input / output interface unit 10 receives the image and the position information obtained when the vehicle 4 moves while sensing. Further, the input / output interface unit 10 causes the data output from the control unit 20 to be output to the outside.
  • the estimated position coordinates are output as an output result to the visualization means for mapping the position information with respect to the map via the input / output interface unit 10.
  • the input / output interface unit 10 can output the display data generated for displaying the estimation result of the position coordinates to the display unit of the car navigation device (not shown) of the vehicle 4 for display.
  • the storage area of the data memory 30 includes an observation data storage unit 31, an object data storage unit 32, an object-specific data storage unit 33, a coordinate data storage unit 34, and a final data storage unit 35.
  • the observation data storage unit 31 is used to store the image obtained by the camera 2 and the position information obtained by the GPS sensor 3.
  • the image and the position information are collectively referred to as "observation data”.
  • the object data storage unit 32 is used to store information for identifying an object detected in an image together with position information associated with the image.
  • the object-specific data storage unit 33 is used to store images and position information divided for each detected object.
  • the coordinate data storage unit 34 is used to store the position coordinate data of the object together with the image of the object or the identification information of the object.
  • the final data storage unit 35 is used to store the final output value of the position coordinates of the object.
  • observation data storage unit 31 to the final data storage unit 35 are not indispensable configurations, and may be provided in an external storage device such as a database server located in the cloud, for example.
  • the position estimation device 1 acquires necessary data by accessing the database server in the cloud via a communication network or the like.
  • the control unit 20 is composed of the processor 20A and the program memory 20B, and is functionally an observation data acquisition unit 21, an object detection unit 22, an object matching unit 23, an observation pair generation unit 24, and a position estimation unit 25. , A position determining unit 26, and an output control unit 27.
  • the observation data acquisition unit 21 takes in the image output from the camera 2 and the position information output from the GPS sensor 3 via the input / output interface unit 10 and stores them in the observation data storage unit 31.
  • the object detection unit 22 reads an image from the observation data storage unit 31, performs a process of detecting whether an object whose position coordinates are to be estimated are captured, and stores the detection result in the object data storage unit 32.
  • the object detection unit 22 can add box information indicating the detected object to the image and store it in the object data storage unit 32.
  • the object matching unit 23 detects whether or not a desired object is captured in the image detected when the object is captured, and detects the name of the object transferred to the image.
  • a trained model trained using the name of the object and the image in which the object is captured may be used, or pattern matching or the like may be used.
  • the matching rate will decrease unless learning in advance or considering the distortion and size difference between the template image prepared for pattern matching and the object reflected in the input image. Therefore, in this embodiment, lens distortion correction and template are used. Perform enlargement correction. In the image of the in-vehicle camera, distortion is more likely to occur on the outside than in the center of the image. Therefore, in the lens distortion correction, the distortion is removed from the edge of the subject deformed by the distortion, and then matching is performed. In the template enlargement correction, matching with the input image is performed while enlarging / reducing the template to prevent the matching rate from decreasing due to the difference in size.
  • the observation pair generation unit 24 generates a pair of images showing the same object as an observation pair based on the name of the object detected from each image for each trip that is a movement in a predetermined section.
  • Patent Document 1 only the observation pair having a high HDOP value was excluded, but in the present embodiment, the observation pair in which the intersection angle of the line-of-sight vector is an acute angle during the triangulation shown in FIG. It also removes. This is because when the intersection angle is an acute angle, there is a high possibility that triangulation will not be possible, such as when there is a traffic jam, when the vehicle is stopped, or when the object is imaged in the center of the image. Further, as shown in FIG.
  • the position estimation unit 25 estimates the coordinate candidate points representing the position of the object from each observation pair by using the triangulation based on the position information and the detection result of the object for each trip which is the movement of the predetermined section.
  • the configuration of the present disclosure is not limited to this method. Any method may be used as long as it is a method of estimating the coordinate candidate points of the object using the image of the vehicle-mounted camera and the position information of the vehicle 4 when the image is captured.
  • the position determination unit 26 maps coordinate candidate points representing the positions of objects obtained for each trip to a predetermined space in order to exclude trips with incorrect position information.
  • the position information used for estimating the coordinate candidate points based on the mapped coordinate candidate points for each trip is the position and position information of the GPS satellite used for obtaining the position information.
  • the position in the real space of the vehicle 4 when the above is obtained, and which of the vehicles 4 itself has an error or which has no error is evaluated.
  • the position determination unit 26 determines the final output value of the position of the object based on the coordinate candidate points excluding the coordinate candidate points belonging to the trip evaluated to have an error, and stores the final output value in the final data storage unit 35.
  • the predetermined space for example, a three-dimensional space including an X-axis, a Y-axis, and a Z-axis can be used.
  • the position determining unit 26 can also calculate the reliability of the final output value of the calculated position of the object.
  • the output control unit 27 reads out the final output value indicating the position of the object stored in the final data storage unit 35, and performs a process of outputting to the outside via the input / output interface unit 10.
  • FIG. 4 to 6 are diagrams showing an outline of processing in the position-determining unit 26.
  • the position determination unit 26 first removes the coordinate candidate points estimated in the trip in which the estimation result or the position information is evaluated to have an error in trip units from the coordinate candidate point group estimated by the position estimation unit 25. (See Fig. 4).
  • the coordinate candidate point cloud estimated from the position information acquired in the trip and the image is collectively removed, and is excluded when the final output value is calculated.
  • the position determination unit 26 is a combination of the trip and the object in which the estimation result or the position information is evaluated to have an error in a point cloud unit consisting of coordinate candidate points considered to estimate the same object in the trip. Remove the coordinate candidate points estimated in.
  • a point cloud unit consisting of coordinate candidate points that are considered to estimate the same object in the trip is also referred to as a “trip and object combination unit”.
  • the combination of the trip and the object estimated in the trip is also referred to as "trip and object combination”.
  • the coordinate candidate point cloud estimated for the object is collectively removed and excluded when the final output value is calculated. ..
  • the position-determining unit 26 performs a clustering process on the coordinate candidate points that were not excluded from the coordinate candidate point group estimated from the plurality of trips (see FIG. 5).
  • this clustering process outliers are excluded after determining the coordinate candidate points estimated for the same object in the coordinate candidate point cloud.
  • the average value or median value of the coordinate candidate points of each object not excluded by the clustering process is used as the final output value for each object.
  • the position-fixing unit 26 calculates the reliability of the final output value and calculates the reliability to be output together with the final result (see FIG. 6).
  • FIG. 4 shows an example in which an evaluation value having a negative correlation with an error with the correct coordinate is selected from a plurality of evaluation values described later. Further, an example is shown in which the coordinate candidate points estimated in the trip trip3 having a small evaluation value are removed by the distribution of the coordinate candidate points indicated by the crosses displayed in different colors for each of the three trips trip1 to trip3. There is.
  • FIG. 6 shows an example in which an evaluation value having a positive correlation with an error with the correct coordinate is selected from a plurality of evaluation values described later. Further, among the coordinate candidate point groups estimated in the plurality of trips, the object3 having a large evaluation value was estimated by the distribution of the coordinate candidate points surrounded by the circles estimated for each of the three objects obj1 to obj3. An example in which a low reliability is calculated for a coordinate candidate point is shown. Further, an example is shown in which high reliability is calculated for the coordinate candidate points estimated for objects 1 and 2 having a small evaluation value.
  • FIG. 5 shows an example of the clustering result when hard clustering is selected from the two types of clustering methods described later.
  • FIG. 7 is a flowchart showing the flow of the position estimation process by the position estimation device 1.
  • the position estimation process is performed by the processor 20A reading the position estimation program from the data memory 30, expanding it into the program memory 20B, and executing the position estimation program. Further, the image and the position information obtained by the vehicle 4 moving a predetermined section a plurality of times while sensing are input to the position estimation device 1.
  • step S10 the processor 20A acquires the image and the position information as observation data as observation data via the input / output interface unit 10 as the observation data acquisition unit 21, and stores them in the observation data storage unit 31.
  • the processor 20A acquires the image and the position information as observation data as observation data via the input / output interface unit 10 as the observation data acquisition unit 21, and stores them in the observation data storage unit 31.
  • an image of the front while traveling which is captured by the camera 2 of the vehicle 4, is acquired as an image.
  • the position information can include information on the time when the GPS measurement is performed, the measured position information, and information indicating the certainty of the GPS measurement.
  • the position information is acquired as a numerical value of latitude and longitude.
  • the image and the position information are measured at a time interval of at least about 1 second, and the time is synchronized with a particle size of about 1 second.
  • Each image is associated with the corresponding position information and stored in the observation data storage unit 31.
  • the input image is a moving image
  • the still image taken out for each frame is stored in the observation data storage unit 31.
  • step S20 the processor 20A performs the object detection process as the object detection unit 22.
  • FIG. 8 is a flowchart showing an example of the processing procedure and the processing content by the object detection unit 22.
  • the object detection unit 22 first reads each image from the observation data storage unit 31 in step S201. It is assumed that the captured time is held in seconds in this image.
  • step S203 the object detection unit 22 performs a process of detecting an object from within each image.
  • This process can be performed, for example, using a method such as Yolov2 (object detection algorithm) (see, for example, https://arxiv.org/abs/1612.08422). If there are a plurality of objects in one image, the plurality of objects are detected.
  • Yolov2 object detection algorithm
  • step S204 the object detection unit 22 performs a process of storing the detection result in the object data storage unit 32.
  • the object detection unit 22 can add box information indicating the detected object to the image and store it in the object data storage unit 32.
  • the image detected as an object is associated with the position information and stored in the object data storage unit 32.
  • the object detection unit 22 detects the sign by object detection and records it as rectangular information for the detected sign.
  • the target object may be a signboard, a vehicle parked on the street, a vending machine, or the like, and is not limited to a sign.
  • step S30 the processor 20A, as the object matching unit 23, performs object matching processing for each trip that is a movement in a predetermined section, based on the position information obtained in the trip and the image after object detection.
  • FIG. 9 is a flowchart showing an example of the processing procedure and the processing content by the object matching unit 23. The object matching process of FIG. 9 is executed for each trip.
  • step S301 the object matching unit 23 reads out the image after object detection obtained for the trip to be processed from the object data storage unit 32 in the data memory 30.
  • the object matching unit 23 performs a determination process for determining whether the objects detected in each image are the same for the trip to be processed.
  • the determination process for example, it is detected whether or not a desired object is captured in the image detected when the object is captured, the name of each object is detected, and the detection is performed in each image based on the name of the object. Determine if the objects are the same.
  • step S303 the object matching unit 23 divides each observation data including an image determined to be the same object as an observation data group related to the same object for the trip to be processed.
  • each observation data including an image determined to be the same object As an example, after detecting a sign in the city, for example, it is searched whether the same sign is detected in another frame in the same vehicle 4, or whether the same sign is detected in an image captured by another vehicle 4.
  • the observation data group is divided into observation data including images determined to be the same sign.
  • step S304 the object matching unit 23 stores the divided result of the trip to be processed in the object-specific data storage unit 33 in the data memory 30. For example, the same sign is detected in a plurality of images, and rectangular information is added. Each of the images divided by object is associated with the position information and stored in the object-specific data storage unit 33.
  • step S40 the processor 20A performs the observation pair generation process for each trip as the observation pair generation unit 24.
  • FIG. 10 is a flowchart showing an example of the processing procedure and the processing content by the observation pair generation unit 24, and is repeated for each trip.
  • step S401 the observation pair generation unit 24 reads out the observation data group divided for each object stored in the object-specific data storage unit 33 in the data memory 30 for the trip to be processed.
  • the observation data group for all the detected objects may be read out, or the observation data group for a specific object may be read out.
  • the observation pair generation unit 24 performs a process of discriminating observation data having more accurate position information before generating an observation pair from at least two images in which the same object is captured.
  • the observation pair is generated between the observation data with high certainty. For example, among the GPS information at each time of the observation data group, the value of the column indicating the certainty of GPS measurement is referred to, the observation data with low certainty is discarded, and the observation pair from the observation data with high certainty is discarded. To be generated.
  • an index showing the certainty for example, there is an index considering the influence of the GPS satellite arrangement. It is known that the position calculation error of the GPS receiver differs depending on the relative relationship between the arrangement of the GPS satellites and the location of the GPS receiver. In this way, the degree to which the accuracy is reduced by the placement of the GPS satellite with respect to the measurement point is called GDOP (Geometric Distribution Of Precision), and of these, the horizontal DOP is taken out and HDOP (Horizontal Distribution) is taken out. Of Precision: Horizontal accuracy reduction rate). The larger the HDOP value, the worse the horizontal position measurement accuracy. For example, when HDOP is adopted as an index showing the certainty, it is applicable because it indicates that the measured latitude and longitude are likely to be inaccurate for observation data whose HDOP value is higher than a certain threshold value. Observation data can be deleted.
  • GDOP Global Distribution Of Precision
  • the observation pair generation unit 24 generates an observation pair for calculating the position coordinates from the remaining observation data.
  • the remaining observation data all combinations of the observation data may be generated as an observation pair.
  • a threshold value may be set for the HDOP value, or the accuracy may be included in the higher accuracy (low HDOP value) as a percentage of all the observation data. ..
  • step S404 the observation pair generation unit 24 calculates the intersection of straight lines obtained by extending the line-of-sight vector for the same object from the position of the vehicle 4 for each of the generated observation pairs, and the intersection angle becomes an acute angle. Remove the observed pair.
  • step S405 the observation pair generation unit 24 removes the observation pair from which the intersection of the line-of-sight vectors when performing triangulation is formed on the rear side from the remaining observation pair (see FIG. 12).
  • step S50 the processor 20A performs the position estimation process for each trip as the position estimation unit 25.
  • FIG. 13 is a flowchart showing an example of the processing procedure and the processing content by the position estimation unit 25, and is repeated for each trip.
  • step S501 the position estimation unit 25 acquires the observation pair generated by the observation pair generation unit 24 for the trip to be processed.
  • step S502 the position estimation unit 25 calculates the position coordinates of the object using each observation pair. Specifically, for each image of the observation pair, the line-of-sight vector from the position of the vehicle 4 obtained from the position information toward the object is calculated, and the intersection of straight lines obtained by extending the line-of-sight vector obtained for each image. Is calculated and used as the position coordinates of the object.
  • step S504 the position estimation unit 25 stores the calculated position coordinates of the object in the coordinate data storage unit 34.
  • the position coordinates are stored in association with the image including the corresponding object.
  • step S60 the processor 20A performs the final output determination process as the position determination unit 26.
  • FIG. 14 is a flowchart showing an example of the processing procedure and the processing content by the position determining unit 26.
  • the position determination unit 26 reads the coordinate candidate point cloud, which is the position coordinates of the object estimated in the plurality of trips, from the coordinate data storage unit 34.
  • the position determination unit 26 divides the read coordinate candidate point group into the coordinate candidate point group estimated in the same trip in trip units based on which trip's position information and the image are estimated.
  • the position determination unit 26 describes the read coordinate candidate point cloud for the object in the trip in units of combinations of trips and objects based on the position information of which trip and the image, and the name of the object. Divide into the estimated coordinate candidate point cloud.
  • the next steps S602 and S603 are executed for the coordinate candidate points belonging to the area on the map for which the correct answer data of the position coordinates of each object is obtained by the high-precision measuring device. Further, an example in which the coordinate candidate point cloud is divided into trip units will be described below. When the coordinate candidate point cloud is divided into trip and object combination units, "trip" may be read as “trip and object combination”.
  • step S602 the position-determining unit 26 calculates six evaluation values for each trip for the coordinate candidate point group in the region where the correct answer data is located among the coordinate candidate point group of the trip.
  • the first evaluation value the value of the coordinate covariance of the coordinate candidate point cloud in the area where the correct answer data is located is calculated.
  • the second evaluation value the absolute value of the covariance of the coordinates for the coordinate candidate point cloud in the region where the correct answer data is located is calculated.
  • the third evaluation value the number of times that the estimation failure condition that defines the situation in which the estimation of the position of the position estimation target fails is specified is calculated.
  • the distance between the position information when the image of the observation pair is acquired and the position information when the image after one frame acquired for the movement vector calculation is acquired is closer than 0.01 m.
  • the Euclidean distance of the position information when each image of the observation pair is acquired is larger than 999 m, the distance between the estimated position of the position estimation target and the own vehicle position is more than 20 m, in the image.
  • the parameter becomes negative and may not be converted well.
  • the distance between the two farthest coordinates in the coordinate candidate point cloud in the area where the correct answer data is located is calculated.
  • the value of the coefficient of determination when the multiple regression analysis is applied to the coordinate candidate point cloud in the region where the correct answer data is located is calculated.
  • the larger value of the eigenvalues of the covariance matrix created for the coordinate candidate point cloud in the region where the correct answer data is located is calculated.
  • the evaluation value is calculated for each trip has been described as an example, but the evaluation value is not limited to this, and the evaluation value is calculated for each combination of trip and object, and the evaluation value is calculated between the objects in the same trip. You may try to take the average of.
  • the position-determining unit 26 calculates, for each trip, the error average between the coordinate candidate point group of the trip and the coordinate candidate point group in the region where the correct answer data is located. do.
  • the error from the correct coordinate is calculated for the coordinate candidate point having the same correct coordinate and the object name.
  • the position-fixing unit 26 evaluates the correlation between the error average between the correct answer coordinates and the value of the evaluation value obtained above for the coordinate candidate point cloud in the region where the correct answer data is located. Calculate the value. This calculation of the evaluation value is repeated for each type of evaluation value.
  • the correct coordinate may be the one having the shortest distance to the coordinate candidate point among the plurality of correct coordinates.
  • the evaluation values are calculated for each trip, and an array of evaluation values is created.
  • the error average between the coordinate candidate points calculated for each trip and the correct coordinates is calculated, and an array of error averages is also created. Using these two arrays as inputs, the value of the correlation coefficient and the positive / negative are examined.
  • FIG. 15 shows an example in which the evaluation value is 20 and the error average is 3 [m] in trip Trip 1, and the evaluation value is 50 and the error average is 5 [m] in trip Trip 2.
  • step S604 the position-fixing unit 26 selects the evaluation value having the largest absolute value of the correlation coefficient as the evaluation value to be adopted in the subsequent final output determination processing.
  • the position-fixing unit 26 calculates the selected evaluation value for all the coordinate candidate points regardless of the presence or absence of correct answer data for each trip, and the minimum value is 0 and the maximum value is 1 in all trips. Create an array normalized to be. Instead of taking the maximum evaluation value of the absolute value of the correlation coefficient, it may be selected that the absolute value of the correlation coefficient is equal to or larger than a predetermined threshold value. In this case, among the plurality of selected evaluation values, the one with the highest accuracy in the area where the correct answer data is located may be finally selected.
  • step S601 When the coordinate candidate point group is divided into trip and object combination units in step S601, the selected evaluation is performed for all the coordinate candidate points regardless of the presence or absence of correct answer data for each trip and object combination. Calculate the values and create an array normalized so that the minimum value is 0 and the maximum value is 1 among all combinations of trips and objects.
  • step S605 the position determining unit 26 sets a threshold value for the normalized evaluation value, and if there is a positive correlation between the error average between the correct coordinate and the evaluation value, the position determining unit 26 sets a threshold value. Trips whose evaluation value is larger than the threshold value are excluded in the subsequent clustering process for calculating the final output value of the position coordinates. Alternatively, if there is a negative correlation, the position determining unit 26 excludes trips whose evaluation value is smaller than the threshold value in the subsequent clustering process for calculating the final output value of the position coordinates.
  • step S601 when the coordinate candidate point cloud is divided into trip and object combination units, if there is a positive correlation, the trip and object combination whose evaluation value is larger than the threshold value is the final output value of the position coordinates. Exclude during subsequent clustering processing for the calculation of. Alternatively, if there is a negative correlation, the position determining unit 26 excludes trips and object combinations having an evaluation value smaller than the threshold value in the subsequent clustering process for calculating the final output value of the position coordinates. ..
  • the evaluation reflects the characteristics that the types of objects that can be estimated and the number of estimated coordinate candidate points are small. I assumed that the value was selected. Specifically, an example is assumed in which the larger of the eigenvalues of the covariance matrix is selected as the evaluation value.
  • this evaluation value evaluates that the variation of the coordinate candidate points is small, that is, the number of objects that can be estimated is small.
  • step S606 the position-fixing unit 26 performs a clustering process.
  • FIG. 16 is a flowchart showing an example of a processing procedure and processing contents of a clustering process using hard clustering by the position determining unit 26.
  • the position determining unit 26 hard clusters the coordinate candidate point cloud estimated in the plurality of trips by using a conventionally known method. For example, after sorting the coordinate candidate points in the order of latitude and longitude, the center of gravity of the cluster is set in order from the one with the smallest latitude and longitude. Then, after looking at the other coordinate candidate points in ascending order of latitude and longitude, if they are closer to the center of gravity than a certain distance, they are regarded as belonging to the same cluster, and if they are farther, they are regarded as the center of gravity of the next cluster and the same processing is performed. I will repeat it.
  • the position of the center of gravity of each cluster is updated to the average value of the coordinate candidate points belonging to the cluster.
  • step S612 the position-fixing unit 26 calculates the distance between the centers of gravity of each cluster, and if the distance is closer than a certain value, it is considered that the same object is estimated. At this time, not only the method of setting the threshold value for the distance between the centers of gravity, but also if the number of coordinate candidate points belonging to the cluster is too small, it may be considered that the same object as the nearby large cluster is estimated.
  • step S613 the position-fixing unit 26 compares the clusters considered to be estimating the same object, and accumulates the number of coordinate candidate points in order from the one with the largest number of coordinate candidate points to which the object belongs. go.
  • step S614 the position-fixing unit 26 calculates the occupancy rate of the total number of coordinate candidate points that the number of cumulative coordinate candidate points considers to be estimating the same object for each increase in the cumulative cluster, and the cumulative occupancy. When the rate exceeds the threshold value, the cumulative processing is stopped. Coordinate candidate points belonging to the clusters up to the first cluster that exceeds the threshold are set as the calculation target of the final output value of the position coordinates.
  • step S615 the position determination unit 26 sets the average value or the median value of all the coordinate candidate points for which the final output value of the position coordinates is calculated as the final output value of the position coordinates for each object.
  • Figure 17 shows an image of outlier removal by hard clustering. It is assumed that the clusters 1, 2 and 3 in FIG. 17 are all close enough to the center of gravity and are considered to be estimating the same object. Among clusters 1, 2 and 3, the number of affiliation candidate points is accumulated in the order of cluster 1 ⁇ cluster 2 ⁇ cluster 3, which has the largest number of affiliation candidate points, and the cumulative occupancy rate for all coordinate candidate points is obtained. As shown in FIG. 18, since the number of coordinate candidate points belonging to cluster 1 is 80 and the total number of candidate coordinate points is 100, the cumulative occupancy rate up to cluster 1 is 0.8. Since 15 coordinate candidate points belong to the cluster 2 having the next largest number of coordinate candidate points, the cumulative occupancy rate up to the cluster 2 is 95/100, which is 0.95.
  • the cumulative occupancy rate up to the cluster 3 is 1.0. Assuming that the threshold value of the cumulative occupancy rate used for calculating the final output value of the position coordinates is 0.7 without excluding it as an outlier value, the cumulative occupancy rate is already 0.8> the threshold value 0 at the time of cluster 1. Therefore, since only the coordinate candidate points belonging to the cluster 1 are adopted in the calculation of the final output value of the position coordinates, all the coordinate candidate points belonging to the clusters 2 and 3 are excluded.
  • the black star in the figure will be the final output value of the position coordinates, but the coordinates belonging to cluster 1 excluding clusters 2 and 3 Assuming that the average of the candidate points is the final output value of the position coordinates, the final output value of the position coordinates is a white star mark.
  • the parking prohibition sign in the figure is the correct position, it can be seen that the final output value of the output position coordinates is closer to the correct answer by excluding the outliers by clustering.
  • the method used for hard clustering is not limited to that described above. However, it is preferable to use a method that does not require the number of clustering to be determined in advance.
  • FIG. 19 is a flowchart showing an example of a processing procedure and processing contents of a clustering process using kernel density estimation by the position determining unit 26.
  • step S621 the position-determining unit 26 cuts out a road area on a map using a road database (not shown), and divides the cut-out road area into a certain size (see FIG. 20).
  • FIG. 20 shows an example in which an area near a road on a map is divided into a fixed size area surrounded by a dotted line.
  • step S622 the position-fixing unit 26 obtains a Gaussian function for each coordinate candidate point in the region delimited by step S621, and creates a Gaussian kernel (see FIG. 21).
  • the magnitude of the spread of the Gaussian kernel is set as a hyperparameter.
  • FIG. 21 shows an example in which a Gaussian function representing the density of coordinate candidate points is obtained for one of a plurality of coordinate candidate points distributed on the x-axis in the divided region.
  • step S623 the position-determining unit 26 obtains the sum of the Gaussian functions of each coordinate candidate point obtained in step S622 (FIG. 22). Since the z value of the sum of the Gaussian functions is the magnitude of the density at the coordinate candidate point x, the density is estimated.
  • FIG. 22 shows an example of obtaining the sum of the Gaussian functions obtained for each of the plurality of coordinate candidate points distributed on the x-axis in the separated region.
  • step S624 the position-determining unit 26 searches for each of the extrema in the sum of the Gaussian functions obtained in step S623 (FIG. 23).
  • the extremum indicated by the gray circle is searched for by moving each of the coordinate candidate points indicated by the white circles with a predetermined step width on the curve showing the sum of the Gaussian functions. An example is shown.
  • step S625 the position-determining unit 26 calculates the distance between the searched extreme values, and if this distance is smaller than the threshold value, the pair of coordinate candidate points is considered to belong to the same cluster (FIG. 24). ).
  • FIG. 24 is an extremum indicated by a gray circle, which is searched by moving a predetermined step width for a pair of coordinate candidate points indicated by a white circle on a curve showing the sum of Gaussian functions. An example is shown in which a pair of coordinate candidate points is considered to belong to the same cluster if the distance between them in the x-axis direction is smaller than the threshold value.
  • step S626 if the z-coordinate of the extremum in the cluster is smaller than the threshold value, the cluster is excluded as an outlier because the density of the coordinate candidate points belonging to the cluster is low (FIG. 25).
  • FIG. 25 shows an example in which, among the three clusters, the cluster in which the z-coordinate of the extremum is smaller than the threshold value is excluded.
  • the threshold value is preferably a value proportional to the number of trips.
  • step S627 the positioning unit 26 determines that the valley that appears between the extreme values is shallow when the distance between the extreme values is sufficiently close and the clusters are large. If the z-coordinate of this valley is greater than the threshold, these clusters are considered to be the same cluster (FIG. 26).
  • FIG. 26 shows an example in which when the z-coordinate of the valley appearing between the extreme values of two clusters is larger than the threshold value, the two clusters are regarded as the same cluster.
  • step S628 the position determination unit 26 sets the average value of the coordinate candidate points to which each cluster belongs or the coordinates of the point where the density is maximum as the final output value of the position coordinates.
  • the maximum density point of the clusters identified in step S627 the maximum density point of the cluster having a large number of candidate points before identification is adopted.
  • the value obtained by averaging the maximum density points among the clusters regarded as the same cluster may be adopted as the final output value of the position coordinates.
  • step S607 the position determining unit 26 performs the reliability calculation process.
  • the accuracy of a specific object becomes extremely low in common among multiple trips, that is, the error from the correct position becomes large.
  • the accuracy is low because the position information of the vehicle itself cannot be accurately obtained due to circumstances such as obstacles, the object to be estimated is hidden behind the preceding vehicle, etc. and cannot be estimated, and the speed is too high for pairing. There are things that don't work.
  • whether or not the reliability of the final output value of the position coordinates of each object is high is determined by the timing after the final output value of the position coordinates is output by performing statistical processing such as clustering. Performs reliability calculation processing that calculates without referring to the position.
  • FIG. 27 is a flowchart showing an example of the processing procedure and processing content of the reliability calculation processing by the position determining unit 26.
  • the evaluation value is selected and the correlation positive / negative judgment is made using the area on the map where the correct position of the object is obtained.
  • step S631 the position-fixing unit 26 cuts out the coordinate candidate points considered to be estimating the same object at the time of clustering for each object.
  • step S632 the position-fixing unit 26 calculates six evaluation values for the coordinate candidate point cloud of the object in the area where the correct answer data is located, in the same manner as in step S602. At this time, the evaluation value selected in step S604 is also included.
  • step S633 the position-fixing unit 26 calculates, for each object, the error average between the coordinate candidate point cloud of the object and the coordinate candidate point cloud in the region where the correct answer data is located. ..
  • the position-fixing unit 26 calculates, for each object, the correlation between the error average between the correct coordinate and the value of the evaluation value obtained above for the coordinate candidate point cloud in the region where the correct data is located. ..
  • the position-fixing unit 26 repeats the calculation of this correlation for each type of evaluation value.
  • the error average between the coordinate candidate points calculated for each object and the correct coordinates is calculated, and an array of error averages is also created. Using these two arrays as inputs, the value of the correlation coefficient and the positive / negative are examined.
  • step S634 the position-fixing unit 26 selects the evaluation value having the largest absolute value of the correlation coefficient as the evaluation value to be adopted in the subsequent reliability calculation processing.
  • the position-fixing unit 26 calculates the selected evaluation value for each of the coordinate candidate points of the object for each of the objects regardless of the presence or absence of correct answer data, and the minimum value is 0 among all the objects. , Normalize the evaluation value calculated for each object so that the maximum value is 1. Instead of taking the maximum evaluation value of the absolute value of the correlation coefficient, it may be selected that the absolute value of the correlation coefficient is equal to or larger than a predetermined threshold value. In this case, among the plurality of selected evaluation values, the one with the highest accuracy in the area where the correct answer data is located may be finally selected.
  • step S635 when the position determination unit 26 has a positive correlation between the error average between the correct coordinates and the value of the evaluation value, the larger the value of the evaluation value, the lower the reliability. If there is a negative correlation, the reliability is calculated so that the higher the evaluation value is, the higher the reliability is, and the final data storage unit 35 is associated with the final output value of the position coordinates. Store in.
  • Figure 6 above shows an image that outputs the reliability calculated for each object.
  • the example of FIG. 6 shows a case where the evaluation value of the reliability calculation process has a positive correlation with the error from the correct coordinate. Therefore, a high reliability is calculated for the objects obj1 and obj2 having a small evaluation value, a low reliability is calculated for the object obj3 having a large evaluation value, and the reliability is output together with the final output value of the position coordinates.
  • the output control unit 27 reads the final output value and reliability of the determined position coordinates from the final data storage unit 35, for example, triggered by the operation of the operator, and outputs them to an external device or the like via the input / output interface unit 10. can do.
  • the position estimation device estimates a plurality of object position candidates based on the position information and the image for each trip, which is a movement in a predetermined section, and obtains each trip as a trip. It is evaluated whether the estimation result or the position information has an error based on the plurality of position candidates of the obtained object, and the estimation result or the position information has an error from the multiple position candidates of the object estimated in the multiple trips. Then, the final output value of the object position is determined based on the result of excluding the estimated object position candidates in the trip to be evaluated. This makes it possible to accurately estimate the positions of objects existing around the vehicle.
  • the reliability is high due to the deviation of the acquired position information of the vehicle and the inadequacy of the observation pair due to overspeed. After automatically selecting low trips, outliers are excluded by statistical processing such as clustering to improve estimation accuracy. Furthermore, the reliability is output together with the final output value of the estimated position coordinates of the object. At this time, not only the reliability of the final output value of the position coordinates of the object is output together, but also the output is conceivable by excluding the final output value having a low reliability depending on the usage scene.
  • the position estimation device when estimating the position coordinates of an object which is a peripheral object by triangulation or the like, the coordinate candidates obtained from the image and the position information acquired in the trip which is the movement of a predetermined section.
  • the coordinate candidate points that may adversely affect the accuracy of the final output value are automatically selected and excluded from consideration when calculating the final output value.
  • a clustering process for excluding outliers is performed when calculating the final output value from the adopted coordinate candidate points. Further, the reliability of each final output value can be automatically calculated and output without referring to the correct coordinates of all the objects for the final output value calculated after the clustering process.
  • the present invention is not limited to this.
  • the type of evaluation value to be selected and the positive / negative of the correlation are generalized, and the above method is applied even when correct answer data is not available. You may.
  • various processors other than the CPU may execute various processes executed by the CPU reading software (program) in the above embodiment.
  • a processor in this case a PLD (Programmable Logic Device) whose circuit configuration can be changed after manufacturing an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), or the like for specifying an ASIC.
  • An example is a dedicated electric circuit or the like, which is a processor having a circuit configuration designed exclusively for the purpose.
  • the position estimation process may be performed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs and a combination of a CPU and an FPGA). Etc.).
  • the hardware-like structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the mode in which the position estimation program is stored (installed) in the data memory 30 in advance has been described, but the present invention is not limited to this.
  • the program is stored in a non-temporary medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versaille Disk Online Memory), and a USB (Universal Serial Bus) memory. It may be provided in the form. Further, the program may be downloaded from an external device via a network.
  • the position of the position estimation target existing in the vicinity of the moving body is determined by using the sensor information obtained by moving the moving body a plurality of times in a predetermined section while sensing the moving body and the position information obtained from the sensor information. It is a position estimation device for estimation, With memory With at least one processor connected to the memory Including The processor For each movement in the predetermined section, a plurality of position candidates for the position estimation target are estimated based on the position information and the sensor information, and a plurality of position candidates are estimated.
  • the position information used when estimating the position candidate is the position information based on the plurality of position candidates of the position estimation target obtained by the movement of the predetermined section for each movement of the predetermined section.
  • a position estimation device that determines the final output value of the position of the position estimation target based on the result of excluding the position candidate.
  • a non-temporary storage medium that stores a program that can be executed by a computer to perform position estimation processing for estimation.
  • the position estimation process is For each movement in the predetermined section, a plurality of position candidates for the position estimation target are estimated based on the position information and the sensor information, and a plurality of position candidates are estimated.
  • the position information used when estimating the position candidate is the position information based on the plurality of position candidates of the position estimation target obtained by the movement of the predetermined section for each movement of the predetermined section.
  • a non-temporary storage medium that determines the final output value of the position of the position estimation target based on the result excluding the position candidate.
  • Position estimation device 2 Camera 3 GPS sensor 4 Vehicle 10 Input / output interface unit 20 Control unit 20A Processor 20B Program memory 21 Observation data acquisition unit 22 Object detection unit 23 Object matching unit 24 Observation pair generation unit 25 Position estimation unit 26 Output control unit 27 Output control unit 30 Data memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

位置推定部25は、所定の区間の移動ごとに、位置情報とセンサ情報に基づき、位置推定対象の位置候補を複数推定する。位置決定部26は、所定の区間の移動ごとに、所定の区間の移動で得られた位置推定対象の複数の位置候補に基づき、位置候補を推定する際に用いられた位置情報が、GPS衛星の位置、移動体の現実空間の位置、及び移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価する。位置決定部26は、複数回の所定の区間の移動において推定された位置推定対象の複数の位置候補から、誤差を有すると評価された、所定の区間の移動において推定された位置推定対象の位置候補を除いた結果に基づき、位置推定対象の位置の最終出力値を決定する。

Description

位置推定方法、位置推定装置、および位置推定プログラム
 本開示の技術は、位置推定方法、位置推定装置、および位置推定プログラムに関する。
 車両や船舶、ロボットなどの移動体にセンサを搭載し、センサにより得られた情報から周辺地図を作成する取り組みの重要性は広く認識されている。特に自動運転に向け、移動体周辺のどの位置にどのような交通標識や看板などの周辺物体が設置されているかを推定して周辺地図に反映させる必要がある。頻繁にアップデートされる交通標識や看板の位置を網羅したデータベースが存在しないためである。
 高精度に周辺物体の位置を推定する方法として、LIDAR(Light Detection and RangingまたはLaser Imaging Detection and Ranging)方式と呼ばれる自己位置推定と環境地図の作成とを同時に行うSLAM(Simultaneous Localization and Mapping)と呼ばれる技術が知られている(非特許文献1)。
 しかし、頻繁に地図をアップデートする必要がある上に、全世界の広域な範囲を網羅するにはLIDAR方式は高価なため、安価なセンサにより得られた情報から周辺地図を作成する取り組みが注目されている。安価なセンサを用いて、周辺物体の位置推定を行う方式として、移動体から撮像されたカメラ映像から切り出した、共通する被写体(この場合は周辺物体)が撮影されている画像間のペアを作成し、三角測量を行う技術が知られている(特許文献1)。
 移動体から撮像されたカメラの映像または画像とGPS軌跡を用いて周辺物体の位置座標を一意に推定する場合、各画像ペアによる三角測量結果の中にはGPSの精度低下の影響などにより、信頼性の低いものが混在している。上記特許文献1に記載の位置座標推定装置では以下の2つの方法で信頼性の低い三角測量結果による影響を取り除いている。
(第1の方法) GPS軌跡の水平方向の信頼性を示すHDOP(Horizontal dilution of precision、水平精度低下率)の値に閾値を設けて、HDOPの値が悪いGPSを用いた推定を行わないことにより、偶然誤差の影響を取り除く。
(第2の方法) 最終的な推定位置座標の出力時に、三角測量で推定した座標分布の平均値または中央値を採用する単純な統計処理を行うことにより、座標分布の中で限定的な系統誤差の影響を取り除く。
「SIP自動走行システムAutomated driving system for everyone a smile」、2018年5月11日第1期SIP記者勉強会(第3回)、インターネット< URL: https://www8.cao.go.jp/cstp/gaiyo/sip/press/jidosoko.pdf>
WO2020/039937
 移動体の周辺物体の位置を推定して、自動運転を見据えた周辺地図に反映するにあたり、LIDAR方式は高い精度が実現できるが、コストも高くなるため、広い範囲を網羅した上で日々アップデートし続けることは困難である。
 上記特許文献1の手法では、高価なセンサを用いずに安価なセンサで測位した情報を用いて位置座標の推定を行う。また、安価なセンサを用いた場合の課題として、非特許文献1では、時系列センサデータを統計的な手法で加工している。しかしながら、時系列センサデータに含まれるセンサデータが取得されたときの移動体と周辺環境との関係を考慮していないため、当該センサデータを用いた位置座標の推定にはなお改善の余地を残す。
 開示の技術は、上記の点に鑑みてなされたものであり、移動体が移動する区間またはその周辺に存在する位置推定対象の位置を精度よく推定することができる位置推定方法、位置推定装置、および位置推定プログラムを提供することを目的とする。
 本開示の第1態様は、位置推定方法であって、移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定する位置推定方法であって、前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定する推定ステップと、前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価する評価ステップと、前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する決定ステップと、を有する。
 本開示の第2態様は、位置推定装置であって、移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定する位置推定装置であって、前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定する位置推定部と、前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し、前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する位置決定部と、を含んで構成される。
 本開示の第3態様は、位置推定プログラムであって、移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定するための位置推定プログラムであって、前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定し、前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し、前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定することをコンピュータに実行させるためのプログラムである。
 開示の技術によれば、移動体の周辺に存在する位置推定対象の位置を精度よく推定することができる。
本実施形態の位置推定装置を備えた車載システムの概略構成図である。 本実施形態の位置推定装置のハードウェア構成を示すブロック図である。 本実施形態の位置推定装置の機能構成を表すブロック図である。 トリップごとの位置候補点の分布を示す図である。 位置候補点のクラスタリング結果の一例を示す図である。 オブジェクトごとの位置候補点の分布を示す図である。 本実施形態の位置推定処理の流れを表すフローチャートである。 本実施形態のオブジェクト検知処理の流れを表すフローチャートである。 本実施形態のオブジェクトマッチング処理の流れを表すフローチャートである。 本実施形態の観測ペア生成処理の流れを表すフローチャートである。 観測ペアにおける視線ベクトルの交点角度を説明するための図である。 観測ペアにおける視線ベクトルの交点が後ろ側にできる場合を説明するための図である。 本実施形態の位置座標推定処理の流れを表すフローチャートである。 本実施形態の最終出力決定処理の流れを表すフローチャートである。 トリップごとの評価値と誤差平均の配列の一例を示す図である。 本実施形態のクラスタリング処理の流れを表すフローチャートである。 クラスタごとの位置候補点の一例を示す図である。 クラスタごとの所属座標候補点数と、累積占有率の一例を示す図である。 本実施形態の他の例におけるクラスタリング処理の流れを表すフローチャートである。 地図上の道路付近の領域を、一定サイズの領域に区切った例を示す図である。 区切られた領域内の、x軸上に分布した複数の座標候補点のうちの一つについて、座標候補点の密度を表すガウス関数を求めた例を示す図である。 区切られた領域内の、x軸上に分布した複数の座標候補点の各々について求めたガウス関数の和を求めた例を示す図である。 ガウス関数の和を示す曲線上で、丸印で示される3つの極値が探索された例を示す図である。 ガウス関数の和を示す曲線上で、座標候補点のペアについて探索された極値同士の距離が閾値よりも小さい座標候補点のペアが同じクラスタに属する例を示す図である。 クラスタにおける極値のz座標が閾値よりも小さいクラスタが除外される例を示す図である。 2つのクラスタの極値と極値の間に出現する谷のz座標が閾値よりも大きい例を示す図である。 本実施形態の信頼度算出処理の流れを表すフローチャートである。
 以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一または等価な構成要素および部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
<本実施形態の概要>
 上記特許文献1の第1の方法でHDOPの値による選別を実施し、第2の方法で中央値又は平均値を出力する単純な統計処理を実施している。しかしながら、移動体から安価なセンサを用いて取得された動的な情報を元に三角測量などの方法で位置推定を行う場合に、推定精度低下を引き起こす、以下の(a)~(j)の課題がある。
(a)高架やビル、前方を走行する移動体などの遮蔽物による位置や状況に依存した一時的なGPS精度の低下が起きる。
(b)天空におけるGPS衛星の配置が好ましくないことによる一時的なGPS精度の低下が起きる。
(c)車両速度が速すぎることによる三角測量を行うことができるペア数が減少する。
(d)GPSなどの自車位置情報取得装置とカメラの位置のずれが起きる。
(e)カメラの処理性能不足によるフレーム飛びによるカメラ画像と位置情報との間の時刻のずれが起きる。
(f)上記(a)~(e)などの要因により一定期間連続して正しい位置から外れた推定が行われてしまい、系統誤差が発生する。
(g)三角測量を行う交点角度が鋭角になった場合、渋滞、停車中、オブジェクトが画像の中心部に撮像されている場合など、三角測量が不可となる事象が発生する。
(h)自車位置からマッチングした周辺物体への視線ベクトルの符号が、三角測量のために作成したペア間で負となった場合、ペア画像マッチング時のミスにより、進行方向の後ろ側にペアの視線ベクトルの交点ができてしまい、正常に位置推定が行えない事象が発生する。
(i)周辺物体が事前に学習されたどの物体であるかを映像から検出する際に、事前に学習したテンプレート画像と入力画像に写る対象物のサイズが異なることによるマッチング率の低下が起きる。
(j)推定したい物体が先行車両や周辺の植物などの他の物体に隠れてしまうことによるマッチング率の低下が起きる。
 上記(a)~(j)の課題は、位置情報を推定する際に用いられたGPS衛星の位置に起因する課題、位置情報を求めたときの移動体の現実空間の位置に起因する改題、及び移動体自体に起因する課題、に大別される。
 上記特許文献1の第1の方法ではHDOPの値を参照する。しかしながら、HDOPの値は天空におけるGPS衛星の配置の好ましさを元に算出しており、上記(b)の課題は解決できても、(a)の課題を解決することはできない。
 また、上記特許文献1の第2の方法では複数の推定点から求められた平均値や中央値を最終結果とすることで、上記(a)~(e)などの要因によりGPS精度が瞬間的に低下して、ごく一部の三角測量結果の推定精度が低下している場合には統計的にその影響を排除することができる。しかし、(f)に挙げたように、GPS精度が一定期間低下し続けて、三角測量結果の大部分が誤っていた時に信頼性の低い三角測量結果の影響を取り除くことができないという問題があった。
 本発明の実施形態では、上記に挙げたような移動体に搭載された安価なセンサを用いて取得したセンサ情報や位置情報を用いて周辺物体の位置を推定する際に生じる課題を、三角測量時に工夫を加えたり、統計処理により推定結果に信頼度を付与したりすることにより解決する。
 以下では、車両が車載カメラで動画ないし静止画を撮像しながら所定の区間を移動することをトリップと呼ぶ。この所定の区間は、一定期間ごとに区切った期間である。なお、所定の区間を、地図上を一定のメッシュで区切った領域としてもよいし、道路単位で区切った領域としてもよい。
 また、車両の周辺物体1つ1つをオブジェクトと呼び、オブジェクトは、位置推定対象の一例である。静止物体がオブジェクトに対応する。静止物体とは、道路標識、交通信号機、電柱、ポスト、自動販売機、建物、看板などの固定物に加えて、駐車車両やロードコーンなど、少なくとも一定時間同じ位置にある物体を含み得る。また、静止物体には、一時停止中の他の車両や信号待ちをしている人を含めることも可能である。なお、例えば同じ「駐車禁止標識」であったとしても、異なる場所に2つ以上設置されていた場合、それらは別オブジェクトとみなす。
 三角測量などの方法でオブジェクトの位置座標と推定された三角測量結果を座標候補点と呼ぶ。1つの画像ペアからは、当該画像ペアでマッチングされえたオブジェクトの1つの座標候補点が算出されるため、一度の走行から複数の座標候補点が出力される。
 座標候補点の分布を参照しながら、最終的に一意に定めたオブジェクトの位置座標を位置座標の最終出力値と呼ぶ。なお、位置座標の最終出力値の算出にあたっては、一つのトリップだけでなく、移動範囲が重複している複数回のトリップにおいて推定された座標候補点をあわせて利用して最終出力値を算出する。
<本実施形態に係る位置推定装置の構成>
 図1は、本実施形態の位置推定装置1を備えた車載システムの一例を示す。図1では、移動体の一例として車両4が示されている。車両4は、特定の車両に限定されるものではなく、様々な個人、車種、メーカーの車両であってもよい。ただし、移動体には、車両、二輪車、自転車、パーソナルモビリティ、ロボット、歩行者、船舶、飛行機、ドローンなど、センサを搭載することが可能なあらゆる移動が含まれ得る。したがって、図1に示した車載システムは一例にすぎず、歩行者が所持するスマートフォンなどに置き換えることも可能である。
 図1において、移動体としての車両4には、本実施形態の位置推定装置1と、カメラ2と、GPSセンサ3とが搭載されている。
 カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の固体撮像デバイスを用いたもので、車両4の進行方向など、任意の方向の道路領域を撮像範囲に含むように、設置場所、向きおよび角度が設定されている。カメラ2は、撮像した画像を取得し、取得した画像を位置推定装置1へ出力する。
 なお、カメラ2によって取得される画像は、動画像であってもよく、一定の時間間隔で撮像される静止画像であってもよい。
 GPSセンサ3は、複数のGPS衛星が送信するGPS信号を受信して測距演算を行うことにより車両4の緯度・経度を算出するもので、この算出された経度および緯度を含む位置情報を位置推定装置1へ出力する。位置情報は、経度および緯度に加えて、GPS計測の確からしさを表す情報を含むことができる。なお、以下では、経度および緯度を、「位置座標」とも言う。GPS計測の確からしさとは、例えば、GPS衛星の配置状況に応じて決定される指標である。なお、位置座標の取得は、GPSセンサ3に限定されるものではなく、同等の機能が発揮されるのであれば、無線基地局やWi-Fi(登録商標)アクセスポイントの位置情報を利用するなど、他の手段を使用してもよい。
 図2は、本実施形態の位置推定装置1のハードウェア構成を示すブロック図である。
 図2に示すように、位置推定装置1は、入出力インタフェースユニット10、CPU(Central Processing Unit)等のプロセッサ20A、プログラムメモリ20B、およびデータメモリ30を有する。各構成は、バス40を介して相互に通信可能に接続されている。
 入出力インタフェースユニット10は、例えば1つ以上の有線または無線の通信インタフェースユニットを含んでいる。入出力インタフェースユニット10は、上記カメラ2およびGPSセンサ3を含む外部機器から情報を受け取るとともに、位置推定装置1により生成された情報を外部へと出力する。
 プロセッサ20Aは、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、プロセッサ20Aは、データメモリ30からプログラムを読み出し、プログラムメモリ20Bを作業領域としてプログラムを実行する。プロセッサ20Aは、データメモリ30に記憶されているプログラムに従って、上記各構成の制御および各種の演算処理を行う。本実施形態では、データメモリ30には、位置推定プログラムが格納されている。位置推定プログラムは、1つのプログラムであっても良いし、複数のプログラムまたはモジュールで構成されるプログラム群であっても良い。
 プログラムメモリ20Bは、各種プログラムおよび各種データを格納する。プログラムメモリ20Bは、作業領域として一時的にプログラムまたはデータを記憶する。データメモリ30は、HDD(Hard Disk Drive)またはSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、および各種データを格納する。
 次に、位置推定装置1の機能構成について説明する。図3は、位置推定装置1の機能構成の例を示すブロック図である。
 入出力インタフェースユニット10は、車両4に搭載されたドライブレコーダ等のカメラ2で記録された画像や、車両4に搭載されたGPSセンサ3からの位置情報を受け取って制御ユニット20に出力する。本実施形態では、入出力インタフェースユニット10は、車両4がセンシングしながら移動するときに得られた画像および位置情報を受け取る。さらに、入出力インタフェースユニット10は、制御ユニット20から出力されたデータを外部へと出力させる。例えば、推定された位置座標が、出力結果として、入出力インタフェースユニット10を介して、地図に対して位置情報をマッピングする可視化手段へと出力される。あるいは、入出力インタフェースユニット10は、位置座標の推定結果を表示するために生成された表示データを、例えば車両4のカーナビゲーション装置(図示省略)の表示部へ出力して表示させることもできる。
 データメモリ30の記憶領域は、観測データ記憶部31と、オブジェクトデータ記憶部32と、オブジェクト別データ記憶部33と、座標データ記憶部34と、最終データ記憶部35とを備えている。
 観測データ記憶部31は、カメラ2により得られた画像と、GPSセンサ3により得られた位置情報を記憶するために使用される。以下、画像と位置情報を合わせて「観測データ」とも言う。
 オブジェクトデータ記憶部32は、画像中で検知されたオブジェクトを識別する情報を、当該画像に紐付けられた位置情報とともに記憶するために使用される。
 オブジェクト別データ記憶部33は、検知されたオブジェクトごとに分割された画像および位置情報を記憶するために使用される。
 座標データ記憶部34は、オブジェクトの画像またはオブジェクトの識別情報とともに、該オブジェクトの位置座標データを記憶するために使用される。
 最終データ記憶部35は、オブジェクトの位置座標の最終出力値を記憶するために使用される。
 ただし、上記観測データ記憶部31~最終データ記憶部35は必須の構成ではなく、例えば、クラウドに配置されたデータベースサーバ等の外部の記憶装置に設けられたものであってもよい。この場合、位置推定装置1は、通信ネットワーク等を介して上記クラウドのデータベースサーバにアクセスすることにより、必要なデータを取得する。
 制御ユニット20は、上記プロセッサ20Aと、上記プログラムメモリ20Bとから構成され、機能的には、観測データ取得部21、オブジェクト検知部22、オブジェクトマッチング部23、観測ペア生成部24、位置推定部25、位置決定部26、および出力制御部27を備えている。
 観測データ取得部21は、入出力インタフェースユニット10を介して、カメラ2から出力された画像、およびGPSセンサ3から出力された位置情報を取り込み、観測データ記憶部31に格納する。
 オブジェクト検知部22は、観測データ記憶部31から画像を読み出し、位置座標を推定したいオブジェクトが写っているか検知する処理を行い、検知結果をオブジェクトデータ記憶部32に格納する。例えば、オブジェクト検知部22は、検知されたオブジェクトを示すボックス情報を画像に付与してオブジェクトデータ記憶部32に格納することができる。
 オブジェクトマッチング部23は、オブジェクトが写っていると検知された画像に所望のオブジェクトが撮像されているか検出を行い、当該画像に移っているオブジェクトの名称を検出する。この検出では、例えばオブジェクトの名称と当該オブジェクトが撮像されている画像を用いて学習された学習済みモデルを用いてもよいし、パターンマッチングなどを用いてもよい。
 また、事前に学習したり、パターンマッチのために用意したテンプレート画像と入力画像に写るオブジェクトの歪みやサイズの違いを考慮しないとマッチング率が低下するため、本実施形態では、レンズ歪み補正とテンプレート拡大補正を実施する。車載カメラの画像では画像の中心部に比べて、外側で歪みが生じやすいため、レンズ歪み補正では、歪みによって変形した被写体のエッジから歪みを除去した上でマッチングを行う。テンプレート拡大補正では、テンプレートを拡大縮小しながら入力画像とのマッチングをかけ、サイズの違いによりマッチング率が低下することを防ぐ。
 観測ペア生成部24は、所定の区間の移動であるトリップごとに、各画像から検出されたオブジェクトの名称に基づいて、同じオブジェクトが映っている画像のペアを観測ペアとして生成する。このとき、上記特許文献1ではHDOPの値が高い観測ペアのみを除外していたが、本実施形態では、図11に示した三角測量時に視線ベクトルの交点角度が鋭角となっている観測ペアの除去も行う。これは、交点角度が鋭角の場合、渋滞、停車中、オブジェクトが画像の中心部に撮像されている場合など、三角測量による測量が不可となる可能性が高いためである。また、図12に示すように車両4の位置からマッチングしたオブジェクトに対する視線ベクトルを求めた際に、観測ペア間でその視線ベクトル同士の符号が負となる、すなわち車両4の位置から進行方向に対して道路を挟んで左と右の方向にあるオブジェクトに対して成立してしまった観測ペアを除去する。このような観測ペアは画像マッチング時のミスにより生成されてしまうが、三角測量を行う際に進行方向の後ろ側に観測ペアのベクトル交点ができてしまい、正常に位置推定が行えないためである。
 位置推定部25は、所定の区間の移動であるトリップごとに、各観測ペアから、位置情報とオブジェクトの検知結果に基づく三角測量を用いてオブジェクトの位置を表す座標候補点を推定する。
 なお、座標候補点の推定までの方法を、上記特許文献1に記載の方法と同様のものとして説明したが、本開示の構成はこの方法に限ったものではない。車載カメラの画像と当該画像を撮像したときの車両4の位置情報とを用いてオブジェクトの座標候補点を推定する方法であれば、他の方法であってもよい。
 位置決定部26は、位置情報に誤りがあるトリップを除くために、トリップごとに得られたオブジェクトの位置を表す座標候補点を所定の空間にマッピングする。位置決定部26は、トリップごとに、マッピングされた座標候補点に基づいて、座標候補点を推定する際に用いられた位置情報が、位置情報を求めるために用いたGPS衛星の位置、位置情報を求めたときの車両4の現実空間の位置、及び車両4自体のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価する。位置決定部26は、誤差を有すると評価されたトリップに属する座標候補点を除いた、座標候補点に基づき、オブジェクトの位置の最終出力値を決定し、最終データ記憶部35に格納する。所定の空間としては、例えば、X軸、Y軸、Z軸からなる三次元空間を用いることができる。
 これにより、座標候補点の分布を見ながら信頼性の低い座標候補点を除外した上で、残った座標候補点の密集度合を考慮しながら最終的に出力するオブジェクトの位置の最終出力値を決定することができる。この際、位置決定部26は、算出したオブジェクトの位置の最終出力値の信頼度も計算することができる。
 出力制御部27は、最終データ記憶部35に記憶されたオブジェクトの位置を示す最終出力値を読み出し、入出力インタフェースユニット10を介して外部に出力する処理を行う。
 次に、位置決定部26における詳細な処理について説明する。図4~図6は、位置決定部26における処理の概要を示す図である。
 位置決定部26は、まず位置推定部25で推定された座標候補点群の中から、トリップ単位で、推定結果又は位置情報が誤差を有すると評価されるトリップにおいて推定された座標候補点を除去する(図4参照)。ここでは、当該トリップにおいて取得された位置情報および画像から推定された座標候補点群をまとめて除去し、最終出力値の算出時に除外対象とする。
 あるいは、位置決定部26は、トリップ内で同じオブジェクトを推定していると考えられる座標候補点からなる点群単位で、推定結果又は位置情報が誤差を有すると評価される、トリップとオブジェクトの組み合わせにおいて推定された座標候補点を除去する。以下、トリップ内で同じオブジェクトを推定していると考えられる座標候補点からなる点群単位を、「トリップとオブジェクトの組み合わせ単位」とも言う。また、トリップと、当該トリップ内で推定されたオブジェクトとの組み合わせを、「トリップとオブジェクトの組み合わせ」とも言う。ここでは、当該トリップにおいて取得された位置情報および画像から推定された座標候補点群のうち、当該オブジェクトについて推定された座標候補点群をまとめて除去し、最終出力値の算出時に除外対象とする。
 その後、位置決定部26は、複数のトリップから推定された座標候補点群のうち、除外対象とならなかった座標候補点に対して、クラスタリング処理を行う(図5参照)。このクラスタリング処理の中で座標候補点群のうち同じオブジェクトについて推定している座標候補点を判別した上で、外れ値の除外を行う。クラスタリング処理で除外されなかった各オブジェクトの座標候補点の平均値または中央値を、オブジェクトごとの最終出力値とする。
 最後に、位置決定部26は、最終出力値に対して信頼度を計算して最終結果と合わせて出力する信頼度算出を行う(図6参照)。
 図4では、後述する複数の評価値のうち、正解座標との誤差と負の相関がある評価値を選択した場合を例に示している。また、3つのトリップtrip1~trip3の各々に対して色分けして表示した×印で示される座標候補点の分布により、評価値が小さいトリップtrip3において推定された座標候補点を除去する例を示している。
 図6では、後述する複数の評価値のうち、正解座標との誤差と正の相関がある評価値を選択した場合を例に示している。また、複数のトリップにおいて推定された座標候補点群のうち、3つのオブジェクトobj1~obj3の各々について推定された、丸で囲まれた座標候補点の分布により、評価値が大きいobject3について推定された座標候補点について、低い信頼度が算出される例を示している。また、評価値が小さいobject1,2について推定された座標候補点について、高い信頼度が算出される例を示している。
 また、図5では、後述する2種類のクラスタリング手法のうち、ハードクラスタリングを選択した場合のクラスタリング結果の例を示している。
<本実施形態に係る位置推定装置の作用>
 次に、位置推定装置1の作用について説明する。図7は、位置推定装置1による位置推定処理の流れを示すフローチャートである。プロセッサ20Aがデータメモリ30から位置推定プログラムを読み出して、プログラムメモリ20Bに展開して実行することにより、位置推定処理が行なわれる。また、位置推定装置1に、車両4がセンシングしながら所定の区間の移動を複数回することで得られた画像および位置情報が入力される。
 ステップS10において、プロセッサ20Aは、観測データ取得部21として、入出力インタフェースユニット10を介して、観測データとして画像と位置情報とを取得し、観測データ記憶部31に格納する。ここでは、画像として、車両4のカメラ2により撮像された走行中の前方の画像が取得されているものとする。
 例えば、画像に、車両4が走行している道路や、道路に描かれた白線、歩道、周囲の建物、前方の走行車両、駐車車両などに加え、オブジェクトの一例として看板や標識が撮像されている。また、位置情報は、GPS計測を行った時刻の情報と、計測された位置情報と、GPS計測の確からしさを表す情報とを含むことができる。位置情報は、緯度・経度の数値として取得される。
 ここでは、画像と位置情報は少なくとも1秒程度の時間間隔で計測されており、かつ1秒程度の粒度で時刻が同期されているものとする。画像は、それぞれ、対応する位置情報に紐付けられて観測データ記憶部31に蓄積される。なお、入力された画像が動画像である場合には、フレーム毎に取り出した静止画が、観測データ記憶部31に蓄積される。
 ステップS20において、プロセッサ20Aは、オブジェクト検知部22として、オブジェクト検知処理を行う。図8は、上記オブジェクト検知部22による処理手順と処理内容の一例を示すフローチャートである。
 オブジェクト検知部22は、まずステップS201において、観測データ記憶部31から各画像を読み出す。この画像には撮像された時刻が秒単位で保持されているものとする。
 ステップS203において、オブジェクト検知部22は、各画像内からオブジェクトを検知する処理を行う。この処理は、例えば、Yolov2(物体検出アルゴリズム)等の方法を用いて行うことができる(例えば、https://arxiv.org/abs/1612.08242参照)。なお、1つの画像に複数のオブジェクトがある場合は、複数のオブジェクトが検知される。
 ステップS204において、オブジェクト検知部22は、検知結果をオブジェクトデータ記憶部32に格納する処理を行う。例えば、オブジェクト検知部22は、検知されたオブジェクトを示すボックス情報を画像に付与して、オブジェクトデータ記憶部32に格納することができる。なお、オブジェクト検知された画像は、位置情報に紐づけられてオブジェクトデータ記憶部32に格納される。
 一例として、街中にある標識の位置座標を推定する場合を考えると、オブジェクト検知部22が、オブジェクト検知によって標識を検知し、検知した標識に対して矩形情報として記録される。対象とするオブジェクトは、看板や、路上駐車車両、自動販売機などでもよく、標識に限定されない。
 ステップS30において、プロセッサ20Aは、オブジェクトマッチング部23として、所定の区間の移動であるトリップごとに、当該トリップにおいて得られた位置情報、およびオブジェクト検知後の画像に基づいて、オブジェクトマッチング処理を行う。図9は、上記オブジェクトマッチング部23による処理手順と処理内容の一例を示すフローチャートである。図9のオブジェクトマッチング処理が、トリップごとに実行される。
 まずステップS301において、オブジェクトマッチング部23は、データメモリ30にあるオブジェクトデータ記憶部32から、処理対象のトリップについて得られた、オブジェクト検知後の画像を読み出す。
 次いで、ステップS302において、オブジェクトマッチング部23は、処理対象のトリップについて、各画像において検知されたオブジェクトが同一のものであるかの判定処理を行う。判定処理は、例えば、オブジェクトが写っていると検知された画像に所望のオブジェクトが撮像されているか検出を行い、各オブジェクトの名称を検知し、オブジェクトの名称に基づいて、各画像において検知されたオブジェクトが同一のものであるかを判定する。
 ステップS303において、オブジェクトマッチング部23は、処理対象のトリップについて、同一のオブジェクトと判定された画像を含む各観測データを同一のオブジェクトに関する観測データ群として分割する。一例として、街中にある標識を検知した後に、例えば同じ車両4における別フレームにおいて同一の標識が検知されているか、ないしは別の車両4によって撮像された画像に同一の標識が検知されているかを検索する処理を行い、同一の標識であると判定された画像を含む観測データごとに観測データ群が分割される。
 ステップS304において、オブジェクトマッチング部23は、処理対象のトリップについて、分割した結果をデータメモリ30にあるオブジェクト別データ記憶部33に格納する。例えば、複数の画像において同一の標識が検知され、矩形情報が付与されている。オブジェクト別に分割された画像は、それぞれ、位置情報に紐づけられてオブジェクト別データ記憶部33に格納される。
 ステップS40において、プロセッサ20Aは、観測ペア生成部24として、トリップごとに、観測ペア生成処理を行う。図10は、上記観測ペア生成部24による処理手順と処理内容の一例を示すフローチャートであり、トリップごとに繰り返される。
 まずステップS401において、観測ペア生成部24は、処理対象のトリップについて、データメモリ30にあるオブジェクト別データ記憶部33に格納された、オブジェクトごとに分割された観測データ群を読み出す。ここでは、検知できているすべてのオブジェクトに関する観測データ群を読み出してもよいし、特定のオブジェクトに関する観測データ群を読み出してもよい。
 次いでステップS402において、観測ペア生成部24は、同一オブジェクトが撮像された少なくとも2つの画像から観測ペアを生成する前に、より精度の高い位置情報を有する観測データを判別する処理を行う。この際、GPS計測の確からしさを表す指標も同時に計測されていることを利用し、確からしさが高い観測データどうしで観測ペアが生成されるようにする。例えば、観測データ群の各時刻におけるGPS情報のうち、GPS計測の確からしさを表すカラムの値を参照し、確からしさの低い観測データを破棄して、確からしさの高い観測データの中から観測ペアが生成されるようにする。
 ここで、確からしさを表す指標として、例えばGPS衛星配置の影響を考慮した指標がある。GPS衛星の配置とGPS受信機の場所の相対関係に応じて、GPS受信機の位置計算誤差が異なることが知られている。このように、測定点に対するGPS衛星の配置によって精度が低下する度合いは、GDOP(Geometric Dilution Of Precision:幾何学的精度低下率)と呼ばれ、このうち水平方向のDOPを取り出してHDOP(Horizontal Dilution Of Precision:水平精度低下率)と呼ぶ。HDOPの数値が大きいほど水平方向の位置測定精度が悪くなっていることを意味する。例えば、確からしさを表す指標としてHDOPを採用した場合、HDOPの値がある閾値よりも高い観測データに関しては、計測した緯度および経度の精度が悪い可能性が高いことを示しているため、該当する観測データを削除することができる。
 次いでステップS403において、観測ペア生成部24は、残った観測データの中から、位置座標を計算するための観測ペアを生成する。残った観測データに関しては各観測データどうしの全組み合わせを観測ペアとして生成してよい。ここで、観測ペアを作る対象の観測データとしては、HDOPの値に閾値を設けてもよいし、全観測データのうち割合として精度が上位(HDOPの値が低い)に含まれるものとしてもよい。
 次いでステップS404において、観測ペア生成部24は、生成した観測ペアの各々に対し、車両4の位置から同じオブジェクトに対する視線ベクトルを延長して得られる直線の交点を算出し、交点角度が鋭角となっている観測ペアの除去を行う。図11では、時刻t=0における画像と、時刻t=1における画像との観測ペアにおける視線ベクトルの交点角度を求める例を示している。オブジェクトの位置座標を(x,y,z)とし、時刻t=0における車両4の位置(x0、y0、z0)から、画像上のオブジェクトの画像座標から求められるオブジェクトの位置(x0’、y0’、z0’)へ向かう視線ベクトル(vx0、vy0、vz0)を延長して得られる直線を示している。また、時刻t=1における車両4の位置(x1、y1、z1)から、画像上のオブジェクトの画像座標から求められるオブジェクトの位置(x1’、y1’、z1’)へ向かう視線ベクトル(vx1、vy1、vz1)を延長して得られる直線を示している。また、これらの直線の交点角度をΘとしている。
 次いでステップS405において、観測ペア生成部24は、残った観測ペアから、三角測量を行う際の視線ベクトルの交点が後ろ側にできる観測ペアの除去を行う(図12参照)。図12では、時刻t=t0における画像と、時刻t=t1における画像との観測ペアにおける視線ベクトルの交点が、時刻t=t1における自車位置より後ろ側にできた例を示している。
 ステップS50において、プロセッサ20Aは、位置推定部25として、トリップごとに、位置推定処理を行う。図13は、上記位置推定部25による処理手順と処理内容の一例を示すフローチャートであり、トリップごとに繰り返される。
 まずステップS501において、位置推定部25は、処理対象のトリップについて、観測ペア生成部24によって生成された観測ペアを取得する。
 次いで、ステップS502において、位置推定部25は、各観測ペアを用いて、オブジェクトの位置座標を算出する。具体的には、観測ペアの各画像について、位置情報から得られる車両4の位置からオブジェクトの方向への視線ベクトルを算出し、各画像について得られた視線ベクトルを延長して得られる直線の交点を算出し、オブジェクトの位置座標とする。
 次いで、ステップS504において、位置推定部25は、算出されたオブジェクトの位置座標を座標データ記憶部34に格納する。ここでは、位置座標は、対応するオブジェクトを含む画像と関連付けて格納されるものとする。
 ステップS60において、プロセッサ20Aは、位置決定部26として、最終出力決定処理を行う。図14は、上記位置決定部26による処理手順と処理内容の一例を示すフローチャートである。
 まずステップS601において、位置決定部26は、複数回のトリップにおいて推定されたオブジェクトの位置座標である座標候補点群を座標データ記憶部34から読み込む。位置決定部26は、読み込んだ座標候補点群を、どのトリップの位置情報および画像から推定されたかを元に、トリップ単位に、同じトリップにおいて推定された座標候補点群に分割する。あるいは、位置決定部26は、読み込んだ座標候補点群を、どのトリップの位置情報および画像から推定されたか、およびオブジェクトの名称を元に、トリップおよびオブジェクトの組み合わせ単位に、当該トリップにおいて当該オブジェクトについて推定された座標候補点群に分割する。なお、トリップ内に駐車禁止の標識が複数あるような同種類のオブジェクトが複数存在する場合、クラスタリングを行った後に画像毎にどのオブジェクトを撮影したものであるかを特定してもよい。
 次のステップS602、S603は、高精度な測定装置により各オブジェクトの位置座標の正解データが求められている地図上の領域に属する座標候補点について実行される。また、以下では、座標候補点群をトリップ単位に分割した場合の例について説明する。座標候補点群をトリップおよびオブジェクトの組み合わせ単位に分割した場合に、「トリップ」を「トリップおよびオブジェクトの組み合わせ」に読み替えればよい。
 ステップS602において、位置決定部26は、トリップごとに、当該トリップの座標候補点群のうち、正解データがある領域内の座標候補点群について、6つの評価値を計算する。
 例えば、1つ目の評価値として、正解データがある領域内の座標候補点群についての座標の共分散の値を計算する。2つ目の評価値として、正解データがある領域内の座標候補点群についての座標の共分散の絶対値を計算する。3つ目の評価値として、予め定められた、位置推定対象の位置の推定に失敗する状況を規定した推定失敗条件に該当した回数を計算する。推定失敗条件としては、観測ペアの画像を取得したときの位置情報と、移動ベクトル算出のために取得した1フレーム後の画像を取得したときの位置情報との距離が0.01mよりも近いこと、観測ペアの各画像を取得したときの位置情報のユークリッド距離が999mよりも大きいこと、推定された位置推定対象の位置と自車位置との間の距離が20mよりも遠いこと、画像内のベクトルを地上座標系に座標変換した際の媒介変数が負になり、うまく変換できないことがある。なお、上記の各数字は一例であり適宜設計の変更が可能である。
 4つ目の評価値として、正解データがある領域内の座標候補点群の中で最も離れている2つの座標間の距離を計算する。5つ目の評価値として、正解データがある領域内の座標候補点群に対して重回帰分析をかけた際の決定係数の値を計算する。6つ目の評価値として、正解データがある領域内の座標候補点群に対して作成した共分散行列の固有値のうち大きい方の値を計算する。
 上記では、トリップ単位で評価値を計算する場合を例に説明したが、これに限定されるものではなく、トリップおよびオブジェクトの組み合わせ単位で評価値を計算し、同じトリップ内のオブジェクト間で評価値の平均を取るようにしてもよい。
 続いて、ステップS603において、位置決定部26は、トリップごとに、当該トリップの座標候補点群のうち、正解データがある領域内の座標候補点群について、正解座標との間の誤差平均を計算する。ここで、誤差を計算する際には、正解座標とオブジェクトの名称が同じ座標候補点について、正解座標との誤差を計算する。位置決定部26は、トリップごとに、正解データがある領域内の座標候補点群についての、正解座標との間の誤差平均と、上記で求めた評価値の値との間の相関を、評価値を計算する。この評価値の計算を、評価値の種類ごとに繰り返す。なお、1つのトリップ内に2つ以上の同種のオブジェクトがある場合、複数ある正解座標のうち、座標候補点との距離が最も短いものを正解座標としてもよい。
 例えば、図15に示すように、トリップごとに評価値を計算し、評価値の配列を作る。また、各トリップで算出された座標候補点と正解座標との間の誤差平均を計算し、誤差平均の配列も作る。この2つの配列を入力として相関係数の値と正負を調べる。図15では、トリップTrip1では、評価値が20で、誤差平均が3[m]であり、トリップTrip2では、評価値が50で、誤差平均が5[m]である例を示している。
 続いて、ステップS604において、位置決定部26は、相関係数の絶対値が一番大きかった評価値をこれ以降の最終出力決定処理で採用する評価値として選択する。位置決定部26は、トリップごとに、正解データの有無にかかわらず全ての座標候補点に対して、選択した評価値を計算し、全てのトリップの中で最小値が0、最大値が1になるように正規化した配列を作成する。なお、相関係数の絶対値が最大の評価値を取ることに代えて、相関係数の絶対値が所定の閾値以上となるものを選択してもよい。この場合選択された複数の評価値のうち、正解データがある領域内でもっとも精度が向上したものを最終的に選択すればよい。
 上記ステップS601で、座標候補点群をトリップおよびオブジェクトの組み合わせ単位に分割した場合には、トリップおよびオブジェクトの組み合わせごとに、正解データの有無にかかわらず全ての座標候補点に対して、選択した評価値を計算し、トリップおよびオブジェクトの全組み合わせの中で最小値が0、最大値が1になるように正規化した配列を作成する。
 続いて、ステップS605において、位置決定部26は、正規化した評価値に対して閾値を設け、正解座標との間の誤差平均と、評価値との間に正の相関がある場合には、評価値が閾値よりも大きいトリップを、位置座標の最終出力値の算出のための以降のクラスタリングの処理の際に除外する。あるいは、位置決定部26は、負の相関があった場合、評価値が閾値よりも小さいトリップを、位置座標の最終出力値の算出のための以降のクラスタリングの処理の際に除外する。
 上記ステップS601で、座標候補点群をトリップおよびオブジェクトの組み合わせ単位に分割した場合には、正の相関があれば、評価値が閾値よりも大きいトリップおよびオブジェクトの組み合わせを、位置座標の最終出力値の算出のための以降のクラスタリングの処理の際に除外する。あるいは、位置決定部26は、負の相関があれば、評価値が閾値よりも小さいトリップおよびオブジェクトの組み合わせを、位置座標の最終出力値の算出のための以降のクラスタリングの処理の際に除外する。
 上記図4の例では、誤差との間に負の相関がある評価値が大きいトリップtrip1、trip2は、後続のクラスタリング処理に進み、評価値が小さいトリップtrip3は後続のクラスタリング処理には進まず除外される。ここではGPSエラーや車両走行速度超過などの理由によりうまく座標候補点の推定ができない問題が頻発したトリップでは、推定できるオブジェクトの種類や推定される座標候補点の数が少ないという特色を反映した評価値が選択されていることを想定した。具体的には、共分散行列の固有値のうち大きい方の値を評価値として選択した例を想定している。ここで、固有値はばらつきを反映しているため、この評価値は、座標候補点のばらつきが少ない、すなわち、推定できたオブジェクト数が少ないことを評価する。
 ステップS606において、位置決定部26は、クラスタリング処理を行う。
 ここで、複数のトリップから算出された座標候補点をすべて考慮した上でオブジェクトごとに位置座標の最終出力値を算出する際に、単に座標候補点の平均値や中央値を算出すると、GPSエラーなどによる外れ値の影響を受けてしまうため、統計処理により外れ値の除外を行う。本実施形態では、この統計処理の方法として、ハードクラスタリングを用いる方法とカーネル密度推定を用いる方法の2種類について説明する。
 まず、ハードクラスタリングを用いる方法について示す。図16は、上記位置決定部26によるハードクラスタリングを用いたクラスタリング処理の処理手順と処理内容の一例を示すフローチャートである。
 まずステップS611において、位置決定部26は、複数のトリップにおいて推定された座標候補点群を、従来既知の手法を使ってハードクラスタリングする。例えば、座標候補点を緯度経度順にソートした上で、緯度経度が小さいものから順にクラスタ重心とする。そして、緯度経度が小さい順に他の座標候補点を見ていった上で一定距離よりも重心から近ければ同じクラスタに属しているとみなし、遠ければ次のクラスタの重心とみなして同様の処理を繰り返していく。
 最終的に各クラスタの重心の位置を、クラスタに属する座標候補点の平均値に更新する。
 次に、ステップS612において、位置決定部26は、各クラスタの重心間の距離を算出し、距離が一定以上近いものは同じオブジェクトを推定しているとみなす。このとき、重心間距離に閾値を設ける方法だけでなく、クラスタに属する座標候補点の数が少なすぎる場合は近くの大きなクラスタと同じオブジェクトを推定しているとみなすようにしてもよい。
 続いて、ステップS613において、位置決定部26は、同じオブジェクトを推定しているとみなされたクラスタ同士を比較し、属している座標候補点が多いものから順に座標候補点の数を累積していく。
 ステップS614において、位置決定部26は、累積座標候補点の数が同じオブジェクトを推定しているとみなした全座標候補点数に対して占める占有率を、累積クラスタが増えるごとに算出し、累積占有率が閾値を超えたら累積処理を中止する。閾値を超えた最初のクラスタまでのクラスタに属する座標候補点を位置座標の最終出力値の算出対象とする。
 最後に、ステップS615において、位置決定部26は、オブジェクト毎に、位置座標の最終出力値の算出対象となった全座標候補点の平均値あるいは中央値を、位置座標の最終出力値とする。
 ハードクラスタリングによる外れ値除去のイメージを図17に示す。図17中のクラスタ1、2、3はすべて重心間の距離が十分に近く、同じオブジェクトを推定しているとみなされたと想定する。クラスタ1、2、3のうち、所属候補点数が多い、クラスタ1→クラスタ2→クラスタ3の順に所属座標候補点数を累積して、全座標候補点に対する累積占有率を求める。図18に示すように、クラスタ1の所属座標候補点数は80、全座標候補点数は100なので、クラスタ1までの累積占有率は0.8である。次に所属座標候補点数が多いクラスタ2には15個の座標候補点が所属しているので、クラスタ2までの累積占有率は95/100で0.95である。最後にクラスタ3には5個の座標候補点が所属しているので、クラスタ3までの累積占有率は1.0となる。ここで外れ値として除外せずに位置座標の最終出力値の算出に採用する累積占有率の閾値が0.7だったと想定すると、クラスタ1の時点ですでに累積占有率0.8>閾値0.7なので、ここではクラスタ1に属する座標候補点のみが、位置座標の最終出力値の算出に採用され、クラスタ2、3に属する座標候補点はすべて除外対象となる。クラスタ1、2、3すべての平均を位置座標の最終出力値とすると図中の黒色の星印が位置座標の最終出力値となるが、クラスタ2、3を除外し、クラスタ1に所属する座標候補点の平均を位置座標の最終出力値とすると、位置座標の最終出力値は白色の星印となる。図中の駐車禁止標識が正解位置の場合、クラスタリングで外れ値を除外することにより、出力する位置座標の最終出力値がより正解に近づいていることが分かる。
 なお、ハードクラスタリングに用いる手法は、上記で説明したがものに限定されるものではない。ただし、クラスタリング数を事前に決定する必要がない手法を用いることが好ましい。
 次に、カーネル密度推定を用いる方法について示す。図19は、上記位置決定部26によるカーネル密度推定を用いたクラスタリング処理の処理手順と処理内容の一例を示すフローチャートである。
 まず、ステップS621において、位置決定部26は、道路データベース(図示省略)を用い、地図上の道路領域を切り出し、切り出した道路領域を一定のサイズに区切る(図20参照)。図20は、地図上の道路付近の領域を、点線で囲まれた一定サイズの領域に区切った例を示している。
 次に、ステップS622において、位置決定部26は、上記ステップS621で区切った領域内にある座標候補点1つ1つについてガウス関数を求め、ガウスカーネルを作成する(図21参照)。このとき、ガウスカーネルの広がりの大きさはハイパーパラメータとして設定する。以降、説明を簡単にするため、座標候補点の座標のx軸のみとカーネルの密度zを用いて記載するが、実際は緯度、経度x,yと密度を示すz軸が存在する。図21では、区切られた領域内の、x軸上に分布した複数の座標候補点のうちの一つについて、座標候補点の密度を表すガウス関数を求めた例を示している。
 次に、ステップS623において、位置決定部26は、上記ステップS622で求めた各座標候補点のガウス関数の和を求める(図22)。このガウス関数の和のz値が座標候補点xにおける密度の大きさとなるため、密度を推定していることになる。図22は、区切られた領域内の、x軸上に分布した複数の座標候補点の各々について求めたガウス関数の和を求めた例を示している。
 次に、ステップS624において、位置決定部26は、上記ステップS623で求められたガウス関数の和における極値の各々を探索する(図23)。図23では、ガウス関数の和を示す曲線上で、白色の丸印で示される座標候補点の各々について、所定のステップ幅で移動することにより、灰色の丸印で示される極値が探索された例を示している。
 次に、ステップS625において、位置決定部26は、探索された極値同士の距離を算出し、この距離が閾値よりも小さければ、その座標候補点のペアは同じクラスタに属するとみなす(図24)。図24は、ガウス関数の和を示す曲線上で、白色の丸印で示される座標候補点のペアについて、所定のステップ幅で移動することにより探索された、灰色の丸印で示される極値同士のx軸方向の距離が閾値よりも小さければ、座標候補点のペアは同じクラスタに属するとみなす例を示している。
 次に、ステップS626において、位置決定部26は、クラスタにおける極値のz座標が閾値よりも小さければ、当該クラスタは所属座標候補点の密度が低いため、外れ値として除外する(図25)。図25は、3つのクラスタのうち、クラスタにおける極値のz座標が閾値よりも小さいクラスタが除外される例を示している。なお、閾値はトリップ数に比例する値とするのが望ましい。
 次に、ステップS627において、位置決定部26は、極値と極値の距離が十分に近く、かつ大きいクラスタ同士だった場合は、極値と極値の間に出現する谷が浅いと判断し、この谷のz座標が閾値よりも大きい場合には、これらのクラスタは同一クラスタとみなす(図26)。図26は、2つのクラスタの極値と極値の間に出現する谷のz座標が閾値よりも大きい場合には、この2つのクラスタは同一クラスタとみなす例を示している。
 次に、ステップS628において、位置決定部26は、各クラスタの所属座標候補点平均値または密度が最大となる点の座標を位置座標の最終出力値とする。上記ステップS627で同一視したクラスタの密度最大点としては、同一視する前の所属候補点数が多いクラスタの密度最大点を採用する。なお、同一クラスタとみなしたクラスタ間で密度最大点を平均した値を位置座標の最終出力値として採用してもよい。
 ステップS607において、位置決定部26は、信頼度算出処理を行う。
 車両や船舶から周辺物体であるオブジェクトの位置を推定する場合、所定の事情により、複数のトリップ間で共通して特定のオブジェクトだけ極端に精度が低くなること、すなわち正解位置との誤差が大きくなることがある。上記のように精度が低くなる事情として、車両自体の位置情報が、遮蔽物などの事情により正確に取れないこと、推定したい物体が先行車両等に隠れて推定できないこと、速度が出過ぎてペアリングがうまくいかないこと、などがある。
 そこで本実施形態においては、クラスタリングなどの統計処理を施して位置座標の最終出力値を出した後のタイミングで、各オブジェクトの位置座標の最終出力値の信頼度が高いかどうかを、正解座標の位置を参照することなく算出する信頼度算出処理を行う。
 図27は、上記位置決定部26による信頼度算出処理の処理手順と処理内容の一例を示すフローチャートである。
 信頼度算出処理においても、オブジェクトの正解位置が求められている地図上の領域を使用して評価値の選択と相関正負の判断を行う。
 まず、ステップS631において、位置決定部26は、クラスタリング時に同じオブジェクトを推定しているとみなされた座標候補点をオブジェクトごとに切り出す。
 次に、ステップS632において、位置決定部26は、正解データがある領域内のオブジェクトの座標候補点群について、上記ステップS602と同様に6つの評価値を計算する。このとき、上記ステップS604で選択された評価値も含める。
 そして、ステップS633において、位置決定部26は、オブジェクトごとに、当該オブジェクトの座標候補点群のうち、正解データがある領域内の座標候補点群について、正解座標との間の誤差平均を計算する。位置決定部26は、オブジェクトごとに、正解データがある領域内の座標候補点群についての、正解座標との間の誤差平均と、上記で求めた評価値の値との間の相関を計算する。位置決定部26は、この相関の計算を、評価値の種類ごとに繰り返す。
 例えば、オブジェクトごとに評価値を計算し、評価値の配列を作る。また、各オブジェクトで算出された座標候補点と正解座標との間の誤差平均を計算し、誤差平均の配列も作る。この2つの配列を入力として相関係数の値と正負を調べる。
 続いて、ステップS634において、位置決定部26は、相関係数の絶対値が一番大きかった評価値をこれ以降の信頼度算出処理で採用する評価値として選択する。位置決定部26は、正解データの有無にかかわらず、全てのオブジェクトの各々について、当該オブジェクトの座標候補点群に対して、選択した評価値を計算し、全てのオブジェクトの中で最小値が0、最大値が1になるように、各オブジェクトについて計算した評価値を正規化する。なお、相関係数の絶対値が最大の評価値を取ることに代えて、相関係数の絶対値が所定の閾値以上となるものを選択してもよい。この場合、選択された複数の評価値のうち、正解データがある領域内でもっとも精度が向上したものを最終的に選択すればよい。
 次に、ステップS635において、位置決定部26は、正解座標との間の誤差平均と、評価値の値との間に正の相関がある場合、評価値の値が大きいほど信頼度が低くなるように信頼度を算出し、負の相関がある場合、評価値の値が大きいほど信頼度が高くなるように信頼度を算出し、位置座標の最終出力値と対応付けて最終データ記憶部35に格納する。
 上記図6にオブジェクトごとに算出した信頼度を出力するイメージを示す。上記図6の例では、信頼度算出処理の評価値が、正解座標との誤差との間で正の相関がある場合を示している。したがって、評価値が小さいオブジェクトobj1、obj2では高い信頼度が算出され、評価値が大きいオブジェクトobj3では低い信頼度が算出され、位置座標の最終出力値と合わせて信頼度が出力される。
 その後、出力制御部27は、例えばオペレータの操作をトリガとして、決定された位置座標の最終出力値および信頼度を最終データ記憶部35から読み出し、入出力インタフェースユニット10を介して外部装置などに出力することができる。
 以上説明したように、本実施形態に係る位置推定装置は、所定の区間の移動であるトリップごとに、位置情報と画像に基づき、オブジェクトの位置候補を複数推定し、トリップごとに、トリップで得られたオブジェクトの複数の位置候補に基づき、推定結果又は位置情報が誤差を有するかを評価し、複数回のトリップにおいて推定されたオブジェクトの複数の位置候補から、推定結果又は位置情報が誤差を有すると評価されるトリップにおいて推定されたオブジェクトの位置候補を除いた結果に基づき、オブジェクトの位置の最終出力値を決定する。これにより、車両の周辺に存在するオブジェクトの位置を精度よく推定することができる。
 また、車載カメラにより撮像された画像に基づいて、周辺の物体の位置座標を推定する際に、取得された車両の位置情報のずれや、速度超過による観測ペアの不備などの理由で信頼度が低いトリップを自動的に選別した上で、クラスタリングなどの統計処理により外れ値を除外することにより、推定精度を高める。さらに、推定されたオブジェクトの位置座標の最終出力値とあわせて、信頼度を出力する。この際、オブジェクトの位置座標の最終出力値の信頼度をあわせて出力するだけでなく、利用シーンによっては信頼度が低い最終出力値を除外して出力を行うなどの応用も考えられる。また、算出したオブジェクトの位置座標の活用シーンに応じて、自動運転への活用で人命が関わるなど、数は少なくても信頼度が高い結果を使いたい場合は出力する最終出力値を限定することが考えられる。また、人が参照する地図を作成する場合などでは、信頼性が低くてもその旨を明示すれば記載されていた方が良いため、信頼度を併記して最終出力値を記載するなどの活用が考えらえる。
 また、推定結果又は位置情報が誤差を有するかを評価する評価値やクラスタリングの方法を複数用意することにより、移動体の種類や地形によって誤差の出方にばらつきがある周辺物体の位置推定において、それぞれふさわしい評価値やクラスタリング方法を選択することができる。ただし、評価値の選択はある程度一般化が可能と考えられるため、すべての領域で周辺物体の正解座標を用意する必要はない。
 本実施形態に係る位置推定装置では、三角測量などにより周辺物体であるオブジェクトの位置座標を推定する際に、所定の区間の移動であるトリップにおいて取得された画像や位置情報から得られた座標候補点のうち、最終出力値の精度に悪影響を与える可能性がある座標候補点を自動的に選別し、最終出力値の算出時の考慮対象から除外する。また、採用された座標候補点から最終出力値を算出する際にも、外れ値を除外するためのクラスタリング処理を実施する。さらに、クラスタリング処理を終えて算出された最終出力値についても、全てのオブジェクトの正解座標を参照することなく各最終出力値の信頼度を自動的に計算して出力することができる。
 なお、本発明は、上述した実施形態の装置構成および作用に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
 例えば、車両が移動しながら車載カメラによって画像を撮像する場合を例に説明したが、これに限定されるものではなく、車両が移動しながら、画像以外のセンサ情報をセンシングするようにしてもよい。
 また、正解データがある領域内の正解座標を用いて評価値を選択する場合を例に説明したが、これに限定されるものではない。例えば、複数の領域についての正解データを入手することにより、選択する評価値の種類や相関の正負を一般化しておき、正解データが入手できない場合であっても、上記の手法を適用するようにしてもよい。
 また、上記実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、およびASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、位置推定処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、およびCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、位置推定プログラムがデータメモリ30に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、およびUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記項1)
 移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定するための位置推定装置であって、
 メモリと、
 前記メモリに接続された少なくとも1つのプロセッサと、
 を含み、
 前記プロセッサは、
 前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定し、
 前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し、
 前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する
 位置推定装置。
 (付記項2)
 移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定するための位置推定処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時的記憶媒体であって、
 前記位置推定処理は、
 前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定し、
 前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し、
 前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する
 非一時的記憶媒体。
1     位置推定装置
2     カメラ
3     GPSセンサ
4     車両
10   入出力インタフェースユニット
20   制御ユニット
20A プロセッサ
20B プログラムメモリ
21   観測データ取得部
22   オブジェクト検知部
23   オブジェクトマッチング部
24   観測ペア生成部
25   位置推定部
26   出力制御部
27   出力制御部
30   データメモリ

Claims (8)

  1.  移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定する位置推定方法であって、
     前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定する推定ステップと、
     前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価する評価ステップと、
     前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する決定ステップと、
    を有する位置推定方法。
  2.  前記評価ステップは、前記所定の区間の移動および前記位置推定対象の組み合わせごとに、前記所定の区間の移動で得られた前記位置推定対象の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し
     前記決定ステップは、前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動および前記位置推定対象の組み合わせにおいて推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する請求項1記載の位置推定方法。
  3.  前記評価ステップは複数種類の評価値で評価し、
     前記決定ステップは、
     前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、
     前記複数種類の評価値のうち、予め用意された正解値との誤差との相関の絶対値が所定の閾値よりも大きい評価値で前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、
     前記最終出力値を決定する
     請求項1記載の位置推定方法。
  4.  前記複数種類の評価値は、
     前記推定された位置推定対象の位置候補の共分散の値、
     前記推定された位置推定対象の位置候補の共分散の絶対値、
     予め定められた、前記位置推定対象の位置候補の推定に失敗する状況を規定した推定失敗条件に該当した回数、
     前記推定された前記位置推定対象の複数の位置候補の中で最も離れている2つの前記位置候補間の距離、
     前記推定された位置推定対象の複数の位置候補に対して重回帰分析をかけた際の決定係数の値、または
     前記推定された位置推定対象の複数の位置候補に対して作成した共分散行列の固有値のうち大きい方の値
     を含む請求項3記載の位置推定方法。
  5.  前記決定ステップは、
     前記複数種類の評価値のうち、予め用意された正解値との誤差との相関の絶対値が所定の閾値よりも大きい評価値について正の相関があった場合、前記評価値が閾値よりも大きい、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除き、
     予め用意された正解値との誤差との相関の絶対値が所定の閾値よりも大きい評価値について負の相関があった場合、前記評価値が閾値よりも小さい、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いて、前記最終出力値を決定する請求項3または4記載の位置推定方法。
  6.  前記決定ステップは、前記複数回の前記所定の区間の移動について前記推定された位置推定対象の複数の位置候補に基づき、前記位置推定対象ごとに最終出力値を決定する際に、
     前記複数回の前記所定の区間の移動について前記推定された位置推定対象の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の複数の位置候補を除いた結果に対して、クラスタリングを行った結果、または密度を表すガウス関数の推定を行った結果から、前記位置推定対象ごとに前記最終出力値を決定する請求項1~請求項5の何れか1項記載の位置推定方法。
  7.  移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定する位置推定装置であって、
     前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定する位置推定部と、
     前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し、
     前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する位置決定部と、
     を含む位置推定装置。
  8.  移動体がセンシングしながら所定の区間の移動を複数回することで得られたセンサ情報および前記センサ情報が取得された位置情報を用いて、前記移動体の周辺に存在する位置推定対象の位置を推定するための位置推定プログラムであって、
     前記所定の区間の移動ごとに、前記位置情報と前記センサ情報に基づき、前記位置推定対象の位置候補を複数推定し、
     前記所定の区間の移動ごとに、前記所定の区間の移動で得られた前記位置推定対象の複数の位置候補に基づき、前記位置候補を推定する際に用いられた前記位置情報が、前記位置情報を求めるために用いたGPS衛星の位置、前記位置情報を求めたときの前記移動体の現実空間の位置、及び前記移動体、のいずれに起因する誤差を有するか、若しくはいずれに起因する誤差を有さないか、を評価し、
     前記複数回の前記所定の区間の移動において前記推定された前記位置推定対象の複数の位置候補から、前記誤差を有すると評価された、前記所定の区間の移動において推定された前記位置推定対象の位置候補を除いた結果に基づき、前記位置推定対象の位置の最終出力値を決定する
     ことをコンピュータに実行させるための位置推定プログラム。
PCT/JP2020/023011 2020-06-11 2020-06-11 位置推定方法、位置推定装置、および位置推定プログラム WO2021250848A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022530456A JP7343054B2 (ja) 2020-06-11 2020-06-11 位置推定方法、位置推定装置、および位置推定プログラム
US18/008,571 US20230236038A1 (en) 2020-06-11 2020-06-11 Position estimation method, position estimation device, and position estimation program
PCT/JP2020/023011 WO2021250848A1 (ja) 2020-06-11 2020-06-11 位置推定方法、位置推定装置、および位置推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023011 WO2021250848A1 (ja) 2020-06-11 2020-06-11 位置推定方法、位置推定装置、および位置推定プログラム

Publications (1)

Publication Number Publication Date
WO2021250848A1 true WO2021250848A1 (ja) 2021-12-16

Family

ID=78847128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023011 WO2021250848A1 (ja) 2020-06-11 2020-06-11 位置推定方法、位置推定装置、および位置推定プログラム

Country Status (3)

Country Link
US (1) US20230236038A1 (ja)
JP (1) JP7343054B2 (ja)
WO (1) WO2021250848A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220058401A1 (en) * 2020-08-24 2022-02-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating position
JP7468396B2 (ja) 2021-02-17 2024-04-16 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230232183A1 (en) * 2022-01-19 2023-07-20 Qualcomm Incorporated Determining communication nodes for radio frequency (rf) sensing
US20240003705A1 (en) * 2022-07-01 2024-01-04 Here Global B.V. Method and apparatus for providing a path-based map matcher

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007303842A (ja) * 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置及び地図情報作成装置
JP2008002906A (ja) * 2006-06-21 2008-01-10 Toyota Motor Corp 測位装置
JP2008065088A (ja) * 2006-09-07 2008-03-21 Toyota Central R&D Labs Inc 静止物地図生成装置
WO2018181974A1 (ja) * 2017-03-30 2018-10-04 パイオニア株式会社 判定装置、判定方法、及び、プログラム
WO2020039937A1 (ja) * 2018-08-23 2020-02-27 日本電信電話株式会社 位置座標推定装置、位置座標推定方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007303842A (ja) * 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置及び地図情報作成装置
JP2008002906A (ja) * 2006-06-21 2008-01-10 Toyota Motor Corp 測位装置
JP2008065088A (ja) * 2006-09-07 2008-03-21 Toyota Central R&D Labs Inc 静止物地図生成装置
WO2018181974A1 (ja) * 2017-03-30 2018-10-04 パイオニア株式会社 判定装置、判定方法、及び、プログラム
WO2020039937A1 (ja) * 2018-08-23 2020-02-27 日本電信電話株式会社 位置座標推定装置、位置座標推定方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220058401A1 (en) * 2020-08-24 2022-02-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating position
US11488391B2 (en) * 2020-08-24 2022-11-01 Samsung Electronics Co., Ltd. Method and apparatus for estimating position
JP7468396B2 (ja) 2021-02-17 2024-04-16 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム

Also Published As

Publication number Publication date
JPWO2021250848A1 (ja) 2021-12-16
JP7343054B2 (ja) 2023-09-12
US20230236038A1 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
WO2021250848A1 (ja) 位置推定方法、位置推定装置、および位置推定プログラム
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、系统、装置
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US8467612B2 (en) System and methods for navigation using corresponding line features
JP6950832B2 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
JP6759175B2 (ja) 情報処理装置および情報処理システム
CN112455502B (zh) 基于激光雷达的列车定位方法及装置
CN114248778B (zh) 移动设备的定位方法和定位装置
CN114694111A (zh) 车辆定位
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
EP3798665A1 (en) Method and system for aligning radar detection data
JP2015028696A (ja) 車両後側方警報装置、車両後側方警報方法および他車両距離検出装置
US20220404170A1 (en) Apparatus, method, and computer program for updating map
JP5604893B2 (ja) 目標物管理装置および目標物管理方法
KR20220062709A (ko) 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법
CN112405526A (zh) 一种机器人的定位方法及装置、设备、存储介质
US20190188599A1 (en) Information processing method, information processing apparatus, and program
US20230100412A1 (en) A system, a method and a computer program for generating a digital map of an environment
JP7117408B1 (ja) 位置算出装置、プログラム及び位置算出方法
US20240068837A1 (en) Map update device, method, and computer program for updating map
JP7075090B1 (ja) 情報処理システム、及び、情報処理方法
CN115523929B (zh) 一种基于slam的车载组合导航方法、装置、设备及介质
WO2023286217A1 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20939862

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022530456

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20939862

Country of ref document: EP

Kind code of ref document: A1