WO2007148546A1 - 測位装置 - Google Patents

測位装置 Download PDF

Info

Publication number
WO2007148546A1
WO2007148546A1 PCT/JP2007/061607 JP2007061607W WO2007148546A1 WO 2007148546 A1 WO2007148546 A1 WO 2007148546A1 JP 2007061607 W JP2007061607 W JP 2007061607W WO 2007148546 A1 WO2007148546 A1 WO 2007148546A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
estimated
positioning
positioning device
traffic light
Prior art date
Application number
PCT/JP2007/061607
Other languages
English (en)
French (fr)
Inventor
Norimasa Kobori
Kazunori Kagawa
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Jidosha Kabushiki Kaisha filed Critical Toyota Jidosha Kabushiki Kaisha
Priority to EP07744927.0A priority Critical patent/EP2034271B1/en
Priority to CN200780023050XA priority patent/CN101473195B/zh
Priority to US12/305,397 priority patent/US8725412B2/en
Publication of WO2007148546A1 publication Critical patent/WO2007148546A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Definitions

  • the present invention relates to a positioning device that detects the position of a moving body, and more particularly to a positioning device that accurately corrects the position of a moving body that has been positioned by autonomous navigation.
  • the position of the vehicle is measured based on radio waves from a GPS (Grobal Positioning System) satellite, and the current distance of the vehicle is accumulated while accumulating the travel distance and travel direction using a vehicle speed sensor and a gyro sensor. Estimate the position accurately.
  • GPS Global Positioning System
  • map data of the navigation systems that are generally available on the market is not so accurate, and the road network is represented by a straight link that connects the intersections (nodes). It may not match the shape of the road. For this reason, map matching is not enough to correct the position of the vehicle.
  • Patent Document 2 Japanese Patent Laid-Open No. 2002-213979
  • Patent Document 2 JP-A-9 243389
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a positioning device that corrects a positioning result by autonomous navigation and measures the position of a moving body with higher accuracy.
  • the positioning device of the present invention includes a map data storage means (for example, the map database 5) that stores map data, and an autonomous sensor that detects the behavior information of the moving object (for example, , Vehicle speed sensor 2, correct sensor 3) and inertial positioning means (such as INS positioning means 82) that detect the estimated position of the moving object by accumulating the detection information of the autonomous sensor in the positioning results of radio navigation positioning means such as GPS.
  • a map data storage means for example, the map database 5
  • an autonomous sensor that detects the behavior information of the moving object
  • inertial positioning means such as INS positioning means 82
  • Feature detection means for detecting features around the road (for example, traffic light detection means 84), feature position identification means for identifying the position of the feature (for example, traffic signal position identification means 83),
  • the feature reference positioning means for estimating the position of the moving object based on the position of the object and the position estimating means for estimating the position of the moving object by applying the estimated position and the estimated position of the feature to the Kalman filter are provided. It is characterized by
  • FIG. 1 is a schematic configuration diagram of a navigation system to which a positioning device is applied.
  • FIG. 2A is a functional block diagram of a positioning device.
  • FIG. 2B is a diagram for explaining the operation of the position estimating means in the positioning device of FIG. 2A.
  • FIG. 3A is a diagram showing a relationship between a traffic light and the position of the own vehicle.
  • FIG. 3B is a diagram showing the position of a traffic light identified by the least square method.
  • FIG. 3C is a diagram showing a final estimated position estimated based on the estimated position of the vehicle and the estimated position of the feature.
  • FIG. 4A is a diagram showing an example of a line of sight.
  • FIG. 4B is a diagram showing an example of identifying the position of a traffic light using the least square method.
  • FIG. 5A is a diagram showing the relationship between the evaluation function and the position of the traffic light when the number of samples is sufficiently large.
  • FIG. 5B is a diagram showing the relationship between the evaluation function and the position of the traffic light when the number of Sampu Nore is small.
  • FIG. 6 is a flowchart showing a procedure for the positioning device to estimate the position of the host vehicle using autonomous navigation and positioning based on the position of a traffic light.
  • FIG. 7 is a diagram illustrating an example of correcting an estimated position measured by autonomous navigation to a final estimated position.
  • FIG. 8A is a diagram showing a positioning result of the positioning device in a situation where GPS radio waves are blocked on a general road.
  • FIG. 8B is a diagram showing an example of plotting the estimated position by autonomous navigation and the final estimated position on a plan view of an actual road.
  • FIG. 9 is a diagram showing an example of a map in which the position of a traffic signal is registered in a road network obtained from map data.
  • FIG. 1 shows a schematic configuration diagram of a navigation system 10 to which the positioning device 9 of the present embodiment is applied.
  • the navigation system 10 is controlled by a navigation ECU (Electrical Control Unit) 8 (navigator ECU 8) that controls the navigation system.
  • the navigation ECU8 is a CPU that executes a program, a storage device that stores the program (hard disk drive, ROM), a RAM that temporarily stores data and programs, an input / output device that inputs and outputs data, and an NV (Nonvolatile )-It is configured as a computer with RAM etc. connected via a bus.
  • the navigation ECU 8 includes a GPS receiver 1 that receives radio waves from a GPS (Grobal Positioning System) satellite, a vehicle speed sensor 2 that detects the vehicle speed, and a high-speed sensor 3 that detects the rotational angular velocity around the center of gravity of the vehicle (or Gyro sensor), rudder angle sensor 4 that detects the rudder angle of the steered wheels, map database (map DB) 5 that stores map data, input device 6 for operating the navigation system 10 and the current position on the map Yes Display device 7 such as liquid crystal or HUD (Head Up Display) is connected.
  • the map database 5 corresponds to nodes (for example, points where roads and roads intersect, points separated from intersections at predetermined intervals, etc.) and links (roads connecting nodes and nodes). It is configured as a table-like database.
  • a route search is performed from the detected current position to the destination by a known route search method such as the Dijkstra method.
  • the route is displayed superimposed on the map, and the route is guided to the driver in front of the intersection that turns right and left.
  • the camera 11 is attached to the rear surface of the room mirror or above the windshield so as to photograph a predetermined range in front of the vehicle, more preferably in front of the vehicle.
  • the camera 11 has a photoelectric conversion element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), for example, photoelectrically converts incident light by the photoelectric conversion element, and uses the accumulated charge as a voltage. After reading and amplification and A / D conversion, it is converted into a digital image with a predetermined luminance gradation (for example, 256 gradations).
  • a predetermined luminance gradation for example, 256 gradations.
  • FIG. 2A shows a functional block diagram of the positioning device 9.
  • Positioning device 9 uses GPS positioning method 81, which measures the position of the vehicle by radio navigation positioning, and autonomous sensors (vehicle speed sensor 2 and rudder angle sensor 4).
  • INS positioning means 82 for positioning the position
  • signal detection means 84 for detecting features such as traffic lights from the image data taken by the camera 11
  • signal position identification means 83 for identifying the position of the detected traffic light
  • position of the traffic light The feature reference positioning means 85 for determining the position of the own vehicle based on the position of the vehicle, the position estimation means 86 for outputting the maximum likelihood value of the position of the own vehicle by the Kalman filter, and the position of the feature such as the traffic light identified by the traffic signal position identification means 83
  • It has map data registration means 87 for registering information in the map database 5 in association with features.
  • map data registration means 87 for registering information in the map database 5 in association with features.
  • FIG. 2B is a diagram for explaining the operation of the position estimating means 86 in the positioning device of FIG. 2A.
  • the positioning device 9 uses the Kalman filter to determine the position determined by autonomous navigation and the position determined based on the line-of-sight vector for a feature such as a traffic light.
  • the position Y is estimated with high accuracy.
  • the GPS positioning means 81 measures the position of the host vehicle based on radio waves from GPS satellites by a known method.
  • the GPS positioning means 81 selects four or more GPS satellites that enter a predetermined elevation angle from the current vehicle position among a plurality of GPS satellites orbiting a predetermined orbit, and receives radio waves transmitted from those GPS satellites. .
  • the GPS positioning means 81 calculates the arrival time of the radio wave, and calculates the distance to the captured GPS satellite from the arrival time and the speed of light c. Then, one point where the distance between the three GPS satellites and the vehicle intersects is measured as the position of the vehicle.
  • the positioning device 9 measures the position of the host vehicle every predetermined time while receiving GPS radio waves.
  • the position determined by the autonomous navigation that accumulates the travel distance and direction is started with the last position as the initial position and the travel direction at that time as the initial direction.
  • FIG. 3A is a diagram showing a position detected by autonomous navigation.
  • the host vehicle is traveling in the direction of the intersection, and GPS signals are blocked at the initial position 23. Further, since the node 22 at the intersection is extracted from the map data base 5, the position of the node 22 is known.
  • the INS (Inertial Navigation Sensor) positioning means 82 detects the vehicle speed from the vehicle speed sensor 2 and the steering angle from the rudder angle sensor 4, and accumulates the travel distance and direction at the initial position 23 and the initial direction for autonomous navigation. The position and direction are estimated (hereinafter referred to as estimated position and estimated direction).
  • the autonomous sensor that detects the traveling direction of the host vehicle may be a gyro sensor or a rate sensor.
  • the traffic light detection means 84 detects the image data force traffic signal captured by the camera 11. This is because the position of the own vehicle is estimated using the detected position of the traffic light.
  • the traffic light 21 may be any feature that can be used from the vehicle. In addition to the traffic light 21, a sign or a telephone pole may be detected.
  • the traffic light detection means 84 calculates the visual line margin between the detected traffic light and the host vehicle.
  • the direction ⁇ of the line-of-sight vector is obtained from the shooting position and distance L of the traffic light in the photoelectric conversion element with the camera 11 mounting direction (the front direction of the camera 11) being zero.
  • FIG. 4A is a diagram showing an example of a line-of-sight vector.
  • the map database 5 may store the presence / absence of traffic signals and the installation coordinates of traffic signals (hereinafter referred to as traffic light coordinates) in addition to the coordinates of nodes, the presence / absence and type of intersections.
  • traffic light coordinates the installation coordinates of traffic signals
  • the traffic light coordinates of the detected traffic light can be obtained because the absolute position of the traffic light is determined in advance.
  • the position of the traffic signal is determined from the detected image data. Need to be identified.
  • the signal position identifying means 83 of the present embodiment uses any one of i) traffic light coordinates, ii) least squares method, and iii) least squares method applying the steepest gradient method. Identify.
  • ⁇ 2 (k, k, k) (1 / N) ⁇ ⁇ ai— (k + k L + k ⁇ ) ⁇
  • ⁇ 2 (m, m, m) (l / N) ⁇ (bi— (m + m L + m ⁇ ) ⁇
  • “a” in a ⁇ / ak represents partial differentiation.
  • FIG. 3B is a diagram showing the position of the traffic light 21 identified by the least square method.
  • the position of the traffic light 21 is identified by the distance L to the traffic light detected up to the estimated position 24 at time t and the direction ⁇ of the line-of-sight vector.
  • the number of samples N needs to be 4 or more.
  • the signal position identification means 83 does not identify the position of the signal when the Sampnore number N is less than 4, that is, when the number of times the traffic signal is detected and the line-of-sight margin is calculated is less than 4. .
  • the positioning device 9 outputs the estimated position 24 and the estimated direction.
  • the idea of the least square method is that a signal device that sets "the sum of square errors of the distance between the vehicle position at each time and the signal device position" as an evaluation function and minimizes it. Is to find the position of. Therefore, a method for obtaining the position of the traffic signal with the smallest evaluation function based on the slope of the evaluation function using the steepest gradient method will be described.
  • FIG. 5A is a diagram showing the relationship between the evaluation function and the position of the traffic light. It can be seen that the value of the evaluation function fluctuates depending on the calculated traffic signal position, and that there is a minimum value in the evaluation function.
  • the steepest gradient method starts with an appropriate initial value, gradually changes the parameter value in the opposite direction to the differential value, and gradually approaches the optimal parameter.
  • the partial derivative at each parameter is calculated. For example, for the parameters k, k, and k,
  • k a + 1) k (i) + 2- (l / N) ⁇ ⁇ (a- (k + k L + k ⁇ ) ⁇
  • k a + 1) k (i) + 2- (l / N) ⁇ ⁇ (a- (k + k L + k ⁇ ) ⁇ L
  • k a + 1) k (i) + 2- (l / N) ⁇ ⁇ (a- (k + k L + k ⁇ ) ⁇ ⁇
  • Figure 5B shows an example of the relationship between the evaluation function and the traffic light position. This example shows a case where there are a plurality of minimum values. As shown in Fig. 5B, the global min indicates the position of the traffic signal corresponding to the right local minimum. Depending on the initial value, there may be a local min that indicates the position of the traffic signal corresponding to the left minimum. Also, when the Saint-Honoré number N is small, the value of the evaluation function tends to diverge.
  • the value obtained from the node position of the intersection is set as the initial value of the steepest gradient method. This is equivalent to setting the initial value as the node position.
  • the feature reference positioning means 85 is obtained using either i) traffic light coordinates, ii) least squares method, or iii) least squares method using the steepest gradient method. Based on the position of the traffic light 21, the position of the host vehicle is measured (hereinafter referred to as a feature estimated position and a feature estimated direction). The feature estimation direction is detected by accumulating several feature estimation positions.
  • the error variance of the estimated feature position 26 is obtained from the error AL of the distance L and the error ⁇ of the line-of-sight vector ⁇ in the case of i) traffic light coordinates, and ii) and iii In the case of), when the position of the traffic light is identified by the method of least squares, it is obtained by the error obtained in the process of calculating the parameters in addition to i).
  • the error variance at the estimated feature position 26 is shown as an ellipse surrounded by a dotted line.
  • the position estimation means 86 performs force coupling on the estimated position 24 and the estimated feature position 26 using a Kalman filter, and outputs the final estimated position and direction of the own vehicle that is the most probabilistic.
  • FIG. 3C shows the final estimated position 27 estimated based on the estimated position 24 and the feature estimated position 26.
  • each error variance is shown as a variance having convex portions at the estimated position 24 and the feature estimated position 26, but the variance actually has a three-dimensional extent.
  • Figure 2B shows how the maximum likelihood position Y is estimated using the variance and the Kalman filter.
  • the Kalman filter estimates the state with the highest probability (the state in which the product of the distribution is the maximum) based on the probability density distribution of the states. Therefore, by coupling the two pieces of positioning information with the Kalman filter, it is possible to estimate the final estimated position 27 having the highest probability of existing.
  • K (i) is a Kalman gain matrix and can be expressed as follows.
  • K (i) A (i) 'HfRi— 1
  • the position estimating means 86 Since the error variance of the estimated position 24 and the error variance of the feature estimated position 26 have already been obtained, the position estimating means 86 outputs the final estimated position 27 from these equations.
  • the direction of the host vehicle can be obtained in the same way.
  • FIG. 6 shows that the positioning device 9 uses its own navigation and positioning based on the position of the traffic light. It is a flowchart figure which shows the procedure which estimates the position of.
  • the positioning device 9 determines, for example, whether or not the GPS radio wave is interrupted at every positioning interval of the GPS positioning means 81 (Sl). If the GPS signal is not interrupted (No in SI), the vehicle position is determined using the GPS signal (S 2).
  • the GPS positioning means 81 stores the initial position and the initial direction in the storage device of the navigation ECU 8, and the INS positioning means 82 stores the vehicle speed and rudder. Based on the angle, the travel distance and travel direction are accumulated in the initial position 23 and initial direction to estimate the estimated position 24 and estimated direction by autonomous navigation (S3).
  • the INS positioning means 82 calculates the accumulated estimated position 24 and the variance of the estimated direction based on the error of the vehicle speed sensor 2 and the steering angle sensor 4 and the like.
  • the traffic light detection means 84 repeats the detection of the traffic light 21 in parallel with the positioning by the autonomous navigation (S4). When a traffic light is detected, the traffic light detection means 84 extracts distance information from the pair of image data. Further, the traffic light detection means 84 calculates the line-of-sight vector between the detected traffic light and the host vehicle (S5).
  • N the accuracy of the position of the traffic signal identified by the least squares method is lowered, so the traffic signal position identifying means 83 determines whether N is 4 or more (S7). If four or more distances and line-of-sight vectors have not been acquired (No in S7), the positioning device 9 outputs a positioning result by autonomous navigation.
  • the traffic signal position identifying means 83 extracts the position information of the node at the intersection in the traveling direction from the map database 5. (S8).
  • the traffic signal position identifying means 83 calculates the traffic signal position by the least square method (S 9).
  • the least squares method the steepest gradient method is used, and the node position information is used as the initial value. Thereby, the position of the traffic light can be identified.
  • the feature reference positioning means 85 calculates the distance L and the direction of the line-of-sight vector ⁇ force, the feature estimated position 26 and the feature estimated direction from the identified signal position as the origin (S 10).
  • the position estimating means 86 couples the estimated position 24 and the feature estimated position 26 with the Kalman filter, and outputs the final estimated position 27 (Sl l).
  • FIG. 7 is a diagram illustrating an example of correcting the estimated position 24 measured by autonomous navigation to the final estimated position 27.
  • Figure 7 shows how the position estimated by autonomous navigation is corrected each time the final estimated position 27 is output.
  • the position of the host vehicle is measured based on the position of the traffic light in the traveling direction, and the position measured by autonomous navigation is corrected, so that the position in the traveling path direction can be particularly accurately corrected.
  • FIG. 8 shows a positioning result of the positioning device 9 in a situation where GPS radio waves are blocked on a general road.
  • FIG. 8A shows image data photographed by the camera 11. In FIG. 8A, the traffic light 21 is detected above the image data.
  • FIG. 8B is a diagram in which the estimated position 24 and the final estimated position 27 by autonomous navigation are plotted on a plan view of an actual road.
  • the host vehicle traveled upward from the bottom of the plan view.
  • the estimated position 24 gradually increases from the actual road as you travel, but by correcting with the feature estimated position 26, the deviation from the road can be greatly reduced. .
  • the position of a landmark such as a traffic light is detected in the process of correcting the position of the host vehicle measured by autonomous navigation.
  • the map database 5 of the general navigation system does not store the position information of the road infrastructure (traffic lights, signs, etc.).
  • Road infrastructure location information is indispensable for providing driving assistance (vehicle control, alerting, etc.) at intersections and the like at appropriate timing.
  • driving assistance vehicle control, alerting, etc.
  • it takes a great deal of labor and cost to determine the road infrastructure nationwide and create a database.
  • Another problem is that new road infrastructure cannot be immediately addressed.
  • the positioning device 9 detects the position of the traffic light and the like detected in the process of correcting the position of the host vehicle, and the position of the traffic light and the like even when the GPS radio wave is not interrupted. If it is registered in, the database of road infrastructure location information can be created.
  • FIG. 9 shows an example of a map in which the position of a traffic signal is registered in a road network obtained from map data.
  • the white circle indicates the registered traffic signal position.
  • the detection of the position of the road infrastructure by the on-board camera can be realized in a short time and at a low cost, and even if the road infrastructure is newly installed, it can be reflected in the database if the vehicle travels. .
  • the positioning device 9 identifies the position of a feature such as a traffic light and determines the position of the own vehicle measured based on the position of the feature, and the position measured by autonomous navigation, as karma.
  • a feature such as a traffic light
  • the position measured by autonomous navigation as karma.

Abstract

 測位装置9は、地図データを記憶した地図データ記憶手段5と、移動体の挙動情報を検出する自律センサ2、3と、GPS等の電波航法測位手段による測位結果に自律センサによる検出情報を累積して移動体の推定位置を検出する慣性測位手段82と、道路周辺の地物を検出する地物検出手段84と、地物の位置を同定する地物位置同定手段83と、地物の位置を基準に移動体の地物推定位置を推定する地物基準測位手段85と、推定位置及び地物推定位置をカルマンフィルタに適用して移動体の位置を推定する位置推定手段86とを備える。

Description

明 細 書
測位装置
技術分野
[0001] 本発明は、移動体の位置を検出する測位装置に関し、特に、 自律航法により測位 された移動体の位置を精度よく補正する測位装置に関する。
背景技術
[0002] ナビゲーシヨンシステムでは、 GPS (Grobal Positioning System)衛星からの 電波に基づき自車両の位置を測位して、車速センサ及びジャイロセンサ等を用いて 走行距離及び走行方向を累積しながら車両の現在位置を精度よく推定する。
[0003] し力 ながら、 GPS衛星からの電波を受信できない状態では、自律航法による測位 に含まれる誤差が時間と共に増幅されるため徐々に位置の精度が低下する。
[0004] このため、 自律航法により測位した自車両の位置を補正する種々の方法が提案さ れている。例えば、マップマッチングでは、ナビゲーシヨンシステムの地図データを利 用して自律航法により測位した位置を補正する (例えば、特許文献 1参照)。特許文 献 1では、 自律航法により測位された位置'方向に最も整合する位置及び方位を有 する道路を地図データから選択して、該道路に対応づけて位置 ·方向を補正する方 法が提案されている。
[0005] し力 ながら、一般に市販されているナビゲーシヨンシステムの地図データはそれほ ど精度が高いものではなぐまた、道路網を交差点(ノード)を結ぶ直線状のリンクに より表現するため実際の道路の形状と一致しない場合がある。このため、マップマツ チングでは自車両の位置の修正を十分に修正できなレ、こと力ある。
[0006] また、カメラにより撮影された画像力 信号機や横断歩道などの交差点シンボルが 検出された場合に、 自車両と交差点までの距離を算出して、算出された距離に応じ て自車両の位置を補正するナビゲーシヨン装置が提案されている(例えば、特許文 献 2参照)。特許文献 2では、交差点との距離を算出することで、長い直線道路を走 行している場合であっても進行方向に対する自車両の位置を修正することができると している。 特許文献 1 :特開 2002— 213979号公報
特許文献 2:特開平 9 243389号公報
発明の開示
発明が解決しょうとする課題
[0007] し力しながら、特許文献 2に記載されたように、撮影された画像データから交差点と の距離を算出しそのまま自車両の位置を補正すると、画像データから算出される距 離にも誤差が含まれるため、補正後の位置が正しいものとは限らないという問題があ る。例えば、 自車両がピッチ運動する場合、算出される距離に大きな誤差が含まれる ことになる。
[0008] 本発明は上記の問題に鑑みてなされたものであり、 自律航法による測位結果を修 正してより精度よく移動体の位置を測位する測位装置を提供することを目的とする。 課題を解決するための手段
[0009] 上記の課題を解決するために、本発明の測位装置は、地図データを記憶した地図 データ記憶手段 (例えば、地図データベース 5)と、移動体の挙動情報を検出する自 律センサ(例えば、車速センサ 2、ョーレートセンサ 3)と、 GPS等の電波航法測位手 段による測位結果に自律センサによる検出情報を累積して移動体の推定位置を検 出する慣性測位手段 (例えば、 INS測位手段 82)と、道路周辺の地物を検出する地 物検出手段 (例えば、信号機検出手段 84)と、地物の位置を同定する地物位置同定 手段 (例えば、信号機位置同定手段 83)と、地物の位置を基準に移動体の地物推定 位置を推定する地物基準測位手段と、推定位置及び地物推定位置をカルマンフィ ルタに適用して移動体の位置を推定する位置推定手段と、を備えることを特徴とする
発明の効果
[0010] 本発明によれば、自律航法による測位結果を修正してより精度よく移動体の位置を 測位する測位装置を提供することができる。
図面の簡単な説明
[0011] [図 1]測位装置を適用したナビゲーシヨンシステムの概略構成図である。 [図 2A]測位装置の機能ブロック図である。
[図 2B]図 2Aの測位装置における位置推定手段の動作を説明するための図である。
[図 3A]信号機と自車両の位置との関係を示す図である。
[図 3B]最小 2乗法により同定される信号機の位置を示す図である。
[図 3C]自車両の推定位置と地物推定位置とに基づき推定される最終推定位置を示 す図である。
[図 4A]視線べタトノレの一例を示す図である。
[図 4B]信号機の位置を最小 2乗法を利用して同定する場合の一例を示す図である。
[図 5A]サンプル数が十分大きい場合の評価関数と信号機の位置の関係を示す図で ある。
[図 5B]サンプノレ数が小さい場合の評価関数と信号機の位置の関係を示す図である。
[図 6]測位装置が自律航法及び信号機の位置に基づく測位を利用して自車両の位 置を推定する手順を示すフローチャート図である。
[図 7]自律航法により測位された推定位置を最終推定位置に修正する場合の一例を 示す図である。
[図 8A]—般道路において GPS電波が遮断された状況における測位装置の測位結 果を示す図である。
[図 8B]実際の道路の平面写真に自律航法による推定位置と最終推定位置とをプロッ トした一例を示す図である。
[図 9]地図データから得られる道路網に信号機の位置を登録した地図の一例を示す 図である。
符号の説明
1 GPS受信装置
2 車速センサ
3 ョーレートセンサ
4 舵角センサ
5 地図データベース
6 入力装置 7 表示装置
8 ナビゲーシヨン ECU
9 測位装置
10 ナビゲーシヨンシステ
11 カメラ
21 信号機
22 交差点のノード
23 初期位置
24 推定位置
25 実際の自車位置
26 地物推定位置
27 最終推定位置
発明を実施するための最良の形態
[0013] 以下、本発明を実施するための最良の形態について、図面を参照しながら説明す る。
[0014] 図 1は、本実施の形態の測位装置 9を適用したナビゲーシヨンシステム 10の概略構 成図を示す。ナビゲーシヨンシステム 10は、ナビゲーシヨンシステムを制御するナビ ゲーシヨン ECU (Electrical Control Unit) 8 (ナビ ECU8)により制御される。ナ ビグーシヨン ECU8は、プログラムを実行する CPU、プログラムを記憶した記憶装置( ハードディスクドライブ、 ROM)、データやプログラムを一時的に記憶する RAM、デ ータを入力及び出力する入出力装置、 NV (Nonvolatile)—RAM等がバスを介し て接続されたコンピュータとして構成される。
[0015] ナビゲーシヨン ECU8には GPS (Grobal Positioning System)衛星からの電波 を受信する GPS受信装置 1、車両の速度を検出する車速センサ 2、車両の重心回り の回転角速度を検出するョーレートセンサ 3 (又はジャイロセンサ)、操舵輪の舵角を 検出する舵角センサ 4、地図データを記憶した地図データベース(地図 DB) 5、ナビ ゲーシヨンシステム 10を操作するための入力装置 6及び地図に現在位置を表示する 液晶や HUD (Head Up Display)等の表示装置 7が接続されている。 [0016] 地図データベース 5は、実際の道路網をノード (例えば、道路と道路が交差する点、 交差点から所定間隔毎に区切った点、等)及びリンク (ノードとノードを接続する道路) に対応づけて、テーブル状のデータベースとして構成される。
[0017] ナビゲーシヨン ECU8は、車室内に設けられた表示装置 7に、検出した現在位置周 辺の地図を地図データベース 5から抽出し、指定された縮尺に合わせて表示する。 ナビゲーシヨン ECU8は、必要に応じて地図に重畳して車両の現在位置を表示する
[0018] また、押下式のキーボードやリモコン等の入力装置 6から目的地が入力されると、検 出した現在位置から目的地まで、例えばダイクストラ法など周知のルート検索方法で ルート検索を行い、ルートを地図に重畳して表示すると共に、右左折する交差点の手 前で運転者にルートを案内する。
[0019] カメラ 11は車両前方、より好ましくは車両前方の所定範囲を撮影するようにルームミ ラーの背面やフロントガラスの上方に取り付けられている。
[0020] カメラ 11は、例えば CCD (Charge Coupled Device) , CMOS (Complementary M etal Oxide Semiconductor)等の光電変換素子を有し、入射した光を光電変換素子 により光電変換し、蓄積した電荷を電圧として読み出し増幅して A/D変換した後、 所定の輝度階調 (例えば、 256階調)のデジタル画像に変換する。
[0021] カメラ 11は交差点などの道路に沿って設置された人工の地物 (信号機、標識、横 断歩道などのペイント、電柱等)と自車両との位置を検出するため、距離情報が得ら れるカメラであることが好ましい。このため、例えばカメラ 11は 2台のカメラからなるス テレオカメラ、移動体に搭載した 1台のカメラの時系列画像からステレオ視を行うモー シヨンステレオカメラである。また、 LED (発光ダイオード)力も所定の時間間隔で近 赤外光を照射し、反射光を光電変換素子が受光するまでの時間を計測することで距 離を求めることが可能なカメラであってもよい。
[0022] ナビゲーシヨン ECU8の CPUは、記憶装置に記憶されたプログラムを実行すること で、本実施の形態で説明する測位を実現する。図 2Aは、測位装置 9の機能ブロック 図を示す。測位装置 9は、電波航法測位により自車両の位置を測位する GPS測位手 段 81、自律センサ(車速センサ 2,舵角センサ 4)を用いて自律航法により自車両の 位置を測位する INS測位手段 82、カメラ 11により撮影された画像データから信号機 等の地物を検出する信号機検出手段 84,検出された信号機の位置を同定する信号 機位置同定手段 83、信号機の位置に基づき自車両の位置を測位する地物基準測 位手段 85、カルマンフィルタにより自車両の位置の最尤値を出力する位置推定手段 86、及び信号機位置同定手段 83が同定した信号機など地物の位置情報を地物に 対応づけて地図データベース 5に登録する地図データ登録手段 87を有する。以下、 図 2Aに示した測位装置 9について説明する。
[0023] 本実施の形態の測位装置 9は、 GPS衛星の捕捉が困難な状況や GPS測位の信頼 性が低下した状況下で、 自律航法による車両の位置を補正して精度よい測位を可能 にする。図 2Bは、図 2Aの測位装置における位置推定手段 86の動作を説明するた めの図である。
[0024] 図 2Bにより概略を説明すれば、 GPS電波が遮断された場合、測位装置 9は自律航 法により測位された位置及び信号機など地物に対する視線ベクトルに基づき測位さ れた位置を、カルマンフィルタによりカップリングして、位置 Yを精度よく推定する。
[0025] まず、 GPS測位手段 81は、周知の方法で GPS衛星からの電波に基づき自車両の 位置を測位する。 GPS測位手段 81は所定の軌道を周回する複数の GPS衛星のうち 現在の車両の位置から所定の仰角に入る GPS衛星を 4つ以上選択し、それらの GP S衛星から発信される電波を受信する。 GPS測位手段 81は電波の到達時間を計算 し、到達時間と光速 cから捕捉した GPS衛星までの距離を算出する。そして、 3つの G PS衛星と自車両の距離が交差する 1点を自車両の位置として測位する。
[0026] 測位装置 9は、 GPS電波を受信している間は所定の時間毎に自車両の位置を測 位する。そして、 GPS電波が遮断されると、最後に測位した位置を初期位置、その時 の走行方向を初期方向として、これらに走行距離及び方向を累積する自律航法によ る測位を開始する。
[0027] 図 3Aは自律航法により検出される位置を示す図である。 自車両は交差点の方向に 向かって走行しており初期位置 23で GPS電波が遮断される。また、地図データべ一 ス 5から交差点のノード 22が抽出されているため、ノード 22の位置は既知となってい る。 [0028] INS (Inertial Navigation Sensor)測位手段 82は車速センサ 2から車速、舵角セン サ 4から舵角を検出して、初期位置 23及び初期方向に走行距離及び方向を累積し て、自律航法による位置及び方向を推定する(以下、推定位置、推定方向という)。な お、自車両の走行方向を検出する自律センサは、ジャイロセンサゃョーレートセンサ でもよい。
[0029] また、カルマンフィルタを適用するためには推定位置の誤差分散を必要とするが、 車速センサ 2及び舵角センサ 4の誤差は速度や GPS電波遮断時間等に応じて既知 である。したがって、これらに基づき累積した推定位置 24の誤差分散も既知である。 図 3Aでは推定位置 24の誤差分散を点線で囲まれた楕円で示した。なお、この時( 時刻 t)、自車両は実際の位置 25に存在する。
[0030] 自律航法により位置を検出している間、信号機検出手段 84はカメラ 11が撮影した 画像データ力 信号機を検出する。検出した信号機の位置を利用して、 自車両の位 置を推定するためである。なお、信号機 21は車両から利用できる地物であればよぐ 信号機 21の他に標識や電信柱を検出してもよい。
[0031] 信号機検出手段 84は、予め記憶してある信号機の標準パターンを用いてパターン マッチングにより信号機を検出する。信号機検出手段 84は、画像データの画素値( 輝度)を水平方向及び垂直方向に走査し、勾配が所定以上のエッジ部を抽出する。 そして隣接するエッジ部を接続して撮影対象物の輪郭を抽出し、これに標準パター ンをパターンマッチングする。なお、信号機の場合その輪郭は長方形であるので、所 定の縦横比の輪郭となるエッジ部のみにパターンマッチングを施してもよい。信号機 検出手段 84は、輪郭に区切られる領域と標準パターンとを画素毎に輝度を比較し、 所定以上に相関する場合に信号機が撮影されているとして信号機を検出する。
[0032] 信号機が検出された場合、信号機検出手段 84は画像データから距離情報を抽出 する。上記のように、距離情報は例えば 2つの画像データの視差から抽出する。カメ ラ 11により撮影された 1対のステレオ画像力 同一の撮像対象物 (信号機)が写って レ、る部分を抽出し、 1対のステレオ画像同士で信号機の同一点を対応づけ、対応づ けられた点(対応点)のずれ量 (視差)を求めることによって信号機までの距離を算出 する。すなわち、 1対の画像データを重ね合わせると、視差により信号機が左右横方 向にずれる。一方の画像を 1画素ずつシフトしながら最も重なり合う位置を、画素値の 相関に基づいて求める。このときシフトした画素数を n、レンズの焦点距離を f、光軸 間の距離を m、画素ピッチを dとすると、撮像対象物までの距離 Lは、関係式 L= (f · m) Z (n' d)に従って算出される。ここで、 (n' d)は視差を表す。
[0033] また、信号機検出手段 84は、検出された信号機と自車両との視線べ外ルを算出 する。視線ベクトルの方向 Θは、カメラ 11の取付方向(カメラ 11の正面方向)をゼロに して、光電変換素子における信号機の撮影位置と距離 Lにより求められる。図 4Aは 視線ベクトルの一例を示す図である。
[0034] ところで、地図データベース 5にはノードの座標、交差点の有無及び種類に加え、 信号機の設置有無や信号機の設置座標 (以下、信号機座標という)が記憶されてい る場合がある。信号機座標が記憶されている場合には、信号機の絶対位置が予め確 定しているので検出された信号機の信号機座標を取得することができる。
[0035] し力 ながら、 1つの画像データに複数の信号機が撮影されている場合や地図デ ータベース 5に信号機座標が記憶されていない場合には、信号機が検出された画像 データから信号機の位置を同定する必要がある。
[0036] 本実施形態の信号位置同定手段 83は、 i)信号機座標、 ii)最小 2乗法、 iii)最急勾 配法を適用した最小 2乗法、のいずれかを利用して信号機の位置を同定する。
[0037] 図 4Bは信号機の位置を最小 2乗法を利用して同定する場合の一例を示す図であ る。信号機が検出される度に、距離 Ll、 L2、•••Ln,同様に視線ベクトルの方向 Θ 1、 Θ 2· · · θ η、が得られるので、自車両からの距離と視線べタトノレの方向の組(L、 Θ )に より点の集合(a、 b)が得られる。なお、信号機(灯)の高さ方向の位置はおおよそ一 定であるので、(a、 b)は道路に平行な平面の座標である。
[0038] 例えば、 a≡k +k L +k Θ b≡m +m L +m Θ と線型モデルを立てれば、
i 0 1 i 2 i i 0 1 i 2 i
2乗誤差 ε 2 (k 、 k , k )、 ε 2 (m 、 m , m )は次のようになる。但し、サンプリング
k 0 1 2 m 0 1 2
数を Nとし、 iは 1〜Nまでの値を取る。
ε 2 (k 、 k , k ) = (1/N)∑ { ai— (k +k L +k θ ) Ϋ
k 0 1 2 0 1 i 2 i
ε 2 (m 、 m , m ) = (l/N)∑ {bi— (m +m L +m θ ) Ϋ
m 0 1 2 0 1 i 2 i
ε 2を k 、 k , k ίこつレヽて偏微分し、 a ε 2 /ak = 0、 a ε 2 /ak = 0、 a ε 2 /ak =0、力 (k、 k , k )を求めることができる。 a ε /akの「a」は偏微分を表す。 bにつ
0 1 2 i いても同様に求められる。
[0039] なお、上記の線型モデルは一例であり、(a、 b)と(L、 θ )の関係は非線形であって もよレ、。例えば、 ai≡f(L) +g( Θ )である。
[0040] 図 3Bは最小 2乗法により同定される信号機 21の位置を示す図である。時刻 tにお ける推定位置 24に至るまでに検出される信号機までの距離 L、視線ベクトルの方向 Θにより、信号機 21の位置が同定される。
[0041] ところで、最小 2乗法により好適な演算結果を得るためには、サンプル数 Nが 4以上 である必要がある。このため、信号位置同定手段 83は、サンプノレ数 Nが 4未満の場 合、すなわち信号機が検出され視線べ外ルが算出された回数が 4未満の場合、信 号機の位置を同定しなレ、。これにより、カルマンフィルタを適用することで自車両の測 位位置の精度が低下することを防止できる。この場合、測位装置 9は推定位置 24と 推定方向を出力する。
[0042] また、このような最小 2乗法の考え方は、「各時刻の自車位置と信号機の位置との距 離の 2乗誤差の総和」を評価関数として設定し、それを最小にする信号機の位置を 求めるものである。そこで、最急勾配法を使用して評価関数の傾きに基づき評価関 数が最小となる信号機の位置を求める方法について説明する。
[0043] 図 5Aは評価関数と信号機の位置の関係を示す図である。算出された信号機の位 置に応じて評価関数の値は変動し、評価関数に最小値が存在することが分かる。最 急勾配法は、適当な初期値からはじめて、パラメータの値を微分値と逆の方向に少し ずつ変化させて徐々に最適なパラメータに近づけて行く。
[0044] 最小 2乗法を用いた場合、評価関数は最小 2乗誤差であるので各パラメータでの偏 微分を計算する。例えば、ノ ラメータ k、 k , kについてはそれぞれ次式が更新式と
0 1 2
なる。
k a+1)=k (i) + 2-(l/N)∑{(a-(k +k L+k Θ )}
0 0 i 0 1 i 2 i
k a+1)=k (i) + 2-(l/N)∑{(a-(k +k L+k Θ )}L
1 1 i 0 1 i 2 i i
k a+1)=k (i) + 2-(l/N)∑{(a-(k +k L+k θ )}θ
2 2 i 0 1 i 2 i i
添字の「 は 0から始まり、 k が最小となったら、そのパラメータ力 評価関数が 最小となるパラメータであるので計算を打ち切る。評価関数が最小となったか否かは 微分値 (傾き)がほぼゼロになったか否かで判定される。このようにして、ノ ラメータ k
0
、 k , kが得られる。図 5Aでは、評価関数が最小となる信号機の位置をグローバル
1 2
minとして示している。
[0045] 最急勾配法では、 j = 0の時の k (Q)等が各パラメータの初期値となる力 この初期値
0
に最小値の精度が依存することが知られている。図 5Bは、評価関数と信号機の位置 の関係図の一例を示す。この例では、極小値が複数ある場合を示している。図 5Bに 示すように、グローバル minは右側の極小値に対応する信号機の位置を示す。初期 値によっては左側の極小値に対応する信号機の位置を示すローカル minに陥る場 合がある。また、サンプノレ数 Nが小さい場合、評価関数の値は発散しやすい。
[0046] しかしながら、信号機は交差点付近に存在すると推定してよい。そこで、最急勾配 法の初期値に交差点のノード位置から求めた値を設定する。これは初期値をノード 位置とすることと等価である。このような処理により、サンプル数 Nが小さい場合でもグ ローバル minの信号機の位置を検出することができる。
[0047] 以上のようにして、図 3Bの信号機 21の位置を同定することができる。
[0048] 図 2Aに戻り、地物基準測位手段 85は、 i)信号機座標、 ii)最小 2乗法、又は、 iii) 最急勾配法を適用した最小 2乗法、のいずれかを用いて取得した信号機 21の位置 に基づき、自車両の位置を測位する(以下、地物推定位置、地物推定方向という)。 地物推定方向は、地物推定位置を数点蓄積することで検出される。
[0049] 図 3Cは、信号機の位置から距離 L、視線ベクトルの方向 Θにより測位された自車両 の地物推定位置 26を示す図である。地物基準測位手段 85は、信号機の位置を原 点に、時刻 tの距離 L及び視線ベクトルの方向 Θから地物推定位置 26及び地物推定 方向を算出する。
[0050] また、地物推定位置 26の誤差分散は、 i)信号機座標を用いた場合、信号機座標 の場合は距離 Lの誤差 A Lや視線ベクトル Θの誤差 Δ Θから求められ、 ii)及び iii)で は最小 2乗法により信号機の位置を同定した場合には i)に加えパラメータを算出する 過程で得られる誤差により求められる。図 3Cでは地物推定位置 26の誤差分散を点 線で囲まれた楕円で示した。 [0051] 位置推定手段 86は、推定位置 24と地物推定位置 26とをカルマンフィルタにより力 ップリングして、確率的に最も高い自車両の最終推定位置及びその方向を出力する
[0052] 図 3Cには、推定位置 24と地物推定位置 26に基づき推定される最終推定位置 27 を示した。図 3Cでは、それぞれの誤差分散を推定位置 24と地物推定位置 26に凸部 を有する分散で示したが、分散は実際には 3次元の広がりを有する。図 2Bはその分 散及びカルマンフィルタにより最尤位置 Yを推定する様子を示す。
[0053] カルマンフィルタは、 1つの系の状態がそれぞれ独立に推定される場合、状態の確 率密度の分布に基づき最も確率の高い状態 (分布の積が最大になる状態)を推定す る。したがって、 2つの測位情報をカルマンフィルタでカップリングすることで、存在す る確率が最も高い最終推定位置 27を推定することができる。
[0054] カルマンフィルタでは、推定位置 24を Zベクトル、地物推定位置 26を Xベクトルとし た場合、既知の観測方程式 Hを用いて Zと Xの間には次の関係があるものとする。
[0055] Z-HX = 0
Zの誤差分散を R、 Xの誤差分散を Mとすると、最終推定位置 27に相当する最尤値 Yの誤差分散は、解析的に Α= (Μ_1 + Η _1Η)_1になる。また、カルマンフィルタ では、最尤値 Υが次式により求められる。
[0056] Y(i) =X(i— 1) +K(i) · {Z(i)— H(i) -X(i-l) }
ここで、添字の iは自車両の位置を観測した番号、 tは転置行列、 1は逆行列を表 す。 K(i)はカルマンゲイン行列であり、次のように表せる。
[0057] K(i)=A(i) 'HfRi— 1
A(i) = (M—丄+ — )— 1
Figure imgf000013_0001
R(i)}_1H(i)M(i)
推定位置 24の誤差分散、地物推定位置 26の誤差分散はすでに求めているので、 位置推定手段 86はこれらの式から最終推定位置 27を出力する。なお、 自車両の方 向についても同様にして求めることができる。
[0058] 図 6は、測位装置 9が自律航法及び信号機の位置に基づく測位を利用して自車両 の位置を推定する手順を示すフローチャート図である。
[0059] 測位装置 9は例えば GPS測位手段 81の測位間隔毎に GPS電波が遮断されたか 否かを判定する(S l)。 GPS電波が遮断されていなければ(S Iの No)、 GPS電波を 利用して自車両の位置を測位する(S 2)。
[0060] GPS電波が遮断された場合(S 1の Yes)、 GPS測位手段 81は初期位置、初期方 向をナビゲーシヨン ECU8の記憶装置に記憶しておき、 INS測位手段 82は車速及 び舵角に基づき、初期位置 23及び初期方向に走行距離及び走行方向を累積して 自律航法による推定位置 24及び推定方向を推定する(S3)。なお、 INS測位手段 8 2は、車速センサ 2及び舵角センサ 4の誤差等に応じて、これらに基づき累積した推 定位置 24、推定方向の分散を算出する。
[0061] また、信号機検出手段 84は、 自律航法による測位に並行して信号機 21の検出を 繰り返す (S4)。そして、信号機が検出された場合、信号機検出手段 84は 1対の画像 データから距離情報を抽出する。また、信号機検出手段 84は、検出された信号機と 自車両との視線べクトノレを算出する(S5)。
[0062] ついで、信号機位置同定手段 83は過去 N回分の信号機との距離、視線ベクトルを 参照する(S6)。
[0063] 上述したように、この Nが小さいと最小 2乗法により同定した信号機の位置の精度が 低下するので、信号機位置同定手段 83は Nが 4以上か否かを判定する(S7)。 4つ 以上の距離及び視線ベクトルが取得されていない場合(S7の No)、測位装置 9は自 律航法による測位結果を出力する。
[0064] 4つ以上の距離及び視線ベクトルが取得されてレ、る場合(S7の Yes)、信号機位置 同定手段 83は、進行方向にある交差点のノードの位置情報を地図データベース 5か ら抽出する(S8)。
[0065] ついで、信号機位置同定手段 83は、最小 2乗法により信号機の位置を算出する(S 9)。最小 2乗法を適用する場合、最急勾配法を利用して更にその初期値にノードの 位置情報を使用する。これにより信号機の位置を同定することができる。
[0066] ついで、地物基準測位手段 85は、同定された信号機の位置を原点に、距離 L及び 視線ベクトルの方向 Θ力 地物推定位置 26及び地物推定方向を算出する(S 10)。 [0067] ついで、位置推定手段 86は、推定位置 24及び地物推定位置 26をカルマンフィル タによりカップリングして、最終推定位置 27を出力する(Sl l)。
[0068] 図 7は、 自律航法により測位された推定位置 24を最終推定位置 27に修正する場 合の一例を示す図である。図 7では、最終推定位置 27が出力されるたびに自律航法 による推定位置を補正する様子を示す。本実施の形態では、走行方向にある信号機 の位置を基準に自車両の位置を測位し、 自律航法により測位された位置を補正する ので、特に走路方向の位置を精度よく補正することができる。
[0069] 図 8は、一般道路において GPS電波が遮断された状況における測位装置 9の測位 結果を示す。図 8Aはカメラ 11に撮影された画像データを示す。図 8Aでは画像デー タの上側に信号機 21が検出されている。
[0070] 図 8Bは実際の道路の平面写真に、 自律航法による推定位置 24と最終推定位置 2 7とをプロットした図である。 自車両は平面写真の下方から上方向に走行した。図 8B に示すように、走行するにつれて推定位置 24は実際の道路とのズレが徐々に大きく なるが、地物推定位置 26で補正することにより、道路とのズレを大幅に低減すること ができる。
[0071] ところで、本実施形態では GPS電波が遮断された後、 自律航法により測位された自 車両の位置を補正する過程で信号機等のランドマークの位置を検出する。これは、 上述のように、一般的なナビゲーシヨンシステムの地図データベース 5には道路イン フラ (信号機 ·標識等)の位置情報が記憶されていないためである。
[0072] 運転者に適切なタイミングで交差点等における運転支援(車両制御、注意喚起等) を提供するためには、道路インフラの位置情報が不可欠といえる。しかし、全国の道 路インフラを測位し、データベース化するには多大な労力とコスト必要である。また、 道路インフラが新たに設置された場合、すぐには対応できないという問題もある。
[0073] そこで、測位装置 9は、 自車両の位置を補正する過程で検出した信号機等の位置 、また、 GPS電波が遮断されていない状態においても信号機等の位置を検出し、地 図データベース 5に登録することとすれば、道路インフラの位置情報のデータベース を作成できる。
[0074] 図 9は地図データから得られる道路網に信号機の位置を登録した地図の一例を示 す。 白丸が登録した信号機の位置を示す。
[0075] 車載したカメラによる道路インフラの位置の検出は、短時間かつ低コストに実現でき 、道路インフラが新たに設置されても車両が走行すればデータベースに反映できる ため、優れた冗長性を兼ね備える。
[0076] 以上のように、本実施形態の測位装置 9は、信号機などの地物の位置を同定し地 物の位置を基準に測位した自車両の位置と、 自律航法により測位した位置をカルマ ンフィルタに適用することで、 GPS電波が遮断されても自律航法による測位結果を精 度よく補正することができる。特に、進行方向に対する位置を精度よく補正することが できる。また、同定した地物の位置を地図データベースに登録することで、道路インフ ラの位置情報が登録された地図データベースを、更新しながら利用することができる
[0077] 本発明は具体的に開示された上述の実施形態に限定されるものではなぐ特許請 求の範囲から逸脱することなく種々の変形や変更が可能である。
[0078] 本出願は、 2006年 6月 21日出願の優先権主張日本特許出願第 2006— 171755 号に基づいており、その全内容がここに援用されている。

Claims

請求の範囲
[1] 地図データを記憶した地図データ記憶手段と、
移動体の挙動情報を検出する自律センサと、
GPS等の電波航法測位手段による測位結果に前記自律センサによる検出情報を 累積して前記移動体の推定位置を検出する慣性測位手段と、
道路周辺の地物を検出する地物検出手段と、
前記地物検出手段により検出された前記地物の位置を同定する地物位置同定手 段と、
前記地物の位置を基準に前記移動体の地物推定位置を推定する地物基準測位 手段と、
前記推定位置及び前記地物推定位置をカルマンフィルタに適用して前記移動体 の前記位置を推定する位置推定手段と、
を備えることを特徴とする測位装置。
[2] 前記地物検出手段は、撮影手段により撮影された画像データから前記地物を検出 し、該地物までの視線ベクトルを取得する視線ベクトル検出手段を備え、前記地物位 置同定手段は、複数の前記視線ベクトルの長さ及び方向を使用して最小 2乗法によ り前記地物の地物位置情報を算出する地物位置算出手段を備えることを特徴とする 請求項 1に記載の測位装置。
[3] 前記地物位置算出手段は、前記地図データ記憶手段から、前記地物から所定距 離内にある交差点の交差点位置情報を抽出し、最小 2乗法により前記地物位置情報 を算出する際の初期値に前記交差点位置情報を設定することを特徴とする請求項 2 に記載の測位装置。
[4] 前記地物位置同定手段が取得した前記地物の前記地物位置情報を、該地物及び リンク又はノードと対応づけて前記地図データ記憶手段に登録する地図データ登録 手段を備えることを特徴とする請求項 1に記載の測位装置。
[5] 前記視線ベクトル検出手段により検出された前記視線べクトルが所定数以下の場 合、前記地物検出手段は、最小 2乗法による前記地物位置情報を算出せず、前記 位置推定手段は前記推定位置を出力することを特徴とする請求項 1記載の測位装
L09l90/L00Zd /lDd 91 91^8 /·00Ζ OAV
PCT/JP2007/061607 2006-06-21 2007-06-08 測位装置 WO2007148546A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP07744927.0A EP2034271B1 (en) 2006-06-21 2007-06-08 Positioning device
CN200780023050XA CN101473195B (zh) 2006-06-21 2007-06-08 定位装置
US12/305,397 US8725412B2 (en) 2006-06-21 2007-06-08 Positioning device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006171755A JP4600357B2 (ja) 2006-06-21 2006-06-21 測位装置
JP2006-171755 2006-06-21

Publications (1)

Publication Number Publication Date
WO2007148546A1 true WO2007148546A1 (ja) 2007-12-27

Family

ID=38833288

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/061607 WO2007148546A1 (ja) 2006-06-21 2007-06-08 測位装置

Country Status (5)

Country Link
US (1) US8725412B2 (ja)
EP (1) EP2034271B1 (ja)
JP (1) JP4600357B2 (ja)
CN (1) CN101473195B (ja)
WO (1) WO2007148546A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098154A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
CN102928860A (zh) * 2012-10-18 2013-02-13 无锡清华信息科学与技术国家实验室物联网技术中心 基于局部定位信息提高gps定位精度的方法
EP2189758A3 (en) * 2008-11-19 2013-11-27 Fujitsu Limited Apparatus, method and program for calculating absolute movement path
KR101534056B1 (ko) * 2010-01-22 2015-07-06 구글 인코포레이티드 교통 신호 맵핑 및 검출
JP2016503488A (ja) * 2012-10-12 2016-02-04 クアルコム,インコーポレイテッド ジャイロスコープの調整およびジャイロカメラのアライメント
JP2018022105A (ja) * 2016-08-05 2018-02-08 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置、表示制御方法及び制御プログラム
US10240934B2 (en) 2014-04-30 2019-03-26 Tomtom Global Content B.V. Method and system for determining a position relative to a digital map
WO2020039937A1 (ja) * 2018-08-23 2020-02-27 日本電信電話株式会社 位置座標推定装置、位置座標推定方法およびプログラム
US10948302B2 (en) 2015-08-03 2021-03-16 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009192406A (ja) * 2008-02-15 2009-08-27 Xanavi Informatics Corp ナビゲーション装置
JP5386850B2 (ja) * 2008-04-25 2014-01-15 トヨタ自動車株式会社 物体情報取得装置
JP5342556B2 (ja) * 2008-07-10 2013-11-13 三菱電機株式会社 隊列走行支援装置
KR101573289B1 (ko) 2008-11-27 2015-12-01 삼성전자주식회사 위치 측정 방법 및 이를 이용한 휴대 단말기
JP5169804B2 (ja) * 2008-12-25 2013-03-27 株式会社エクォス・リサーチ 制御装置
JP2011080845A (ja) * 2009-10-06 2011-04-21 Topcon Corp 3次元データ作成方法及び3次元データ作成装置
US8296046B2 (en) * 2009-12-08 2012-10-23 At&T Intellectual Property I, L.P. Cellular-based live traffic service
US8823585B2 (en) * 2010-02-12 2014-09-02 Broadcom Corporation Sensor-assisted location-aware mobile device
KR101078769B1 (ko) * 2010-11-08 2011-11-02 최승열 위치 기반 에이브이 휴대용 조명장치 및 동영상 관련 지도 표시방법
JP5663352B2 (ja) * 2011-03-03 2015-02-04 日本電産エレシス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP5602070B2 (ja) * 2011-03-15 2014-10-08 三菱電機株式会社 位置標定装置、位置標定装置の位置標定方法および位置標定プログラム
US9648107B1 (en) * 2011-04-22 2017-05-09 Angel A. Penilla Methods and cloud systems for using connected object state data for informing and alerting connected vehicle drivers of state changes
US9182235B2 (en) 2011-05-20 2015-11-10 Hitachi, Ltd. Locus correcting method, locus correcting apparatus, and mobile object equipment
US9140792B2 (en) * 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction
CN104011563B (zh) * 2011-10-24 2016-08-17 大陆-特韦斯贸易合伙股份公司及两合公司 用于独立评价其数据精度的传感器系统
CN102426799B (zh) * 2011-11-11 2014-01-22 中国联合网络通信集团有限公司 路况信息提示方法和系统、信息控制平台和车载前端设备
KR101919366B1 (ko) * 2011-12-22 2019-02-11 한국전자통신연구원 차량 내부 네트워크 및 영상 센서를 이용한 차량 위치 인식 장치 및 그 방법
US9145140B2 (en) 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
US8712624B1 (en) * 2012-04-06 2014-04-29 Google Inc. Positioning vehicles to improve quality of observations at intersections
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US9008694B2 (en) 2012-06-29 2015-04-14 Broadcom Corporation Indoor/outdoor differentiation using radio frequency (RF) transmitters
US9482739B2 (en) 2012-06-29 2016-11-01 Broadcom Corporation Indoor/outdoor transition determination
US9798011B2 (en) * 2012-08-31 2017-10-24 Apple Inc. Fast GPS recovery using map vector data
WO2014038041A1 (ja) * 2012-09-06 2014-03-13 株式会社東芝 位置検出装置、位置検出方法及び位置検出プログラム
DE102012221159A1 (de) * 2012-11-20 2014-05-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen von Wechselverkehrszeichen
US8825371B2 (en) 2012-12-19 2014-09-02 Toyota Motor Engineering & Manufacturing North America, Inc. Navigation of on-road vehicle based on vertical elements
DE102012224107A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren zum Bestimmen einer Referenzposition als Startposition für ein Trägheitsnavigationssystem
US9196040B2 (en) 2013-03-12 2015-11-24 Qualcomm Incorporated Method and apparatus for movement estimation
KR101629691B1 (ko) * 2013-05-24 2016-06-13 회명정보통신(주) 관성 센서를 이용한 실내 측위 시스템
DE102013217060B4 (de) * 2013-08-27 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Spurgenaue Positionierung eines Fahrzeugs
CN107533801A (zh) 2013-11-01 2018-01-02 国际智能技术公司 使用测绘车辆的地图测绘技术
US20150149085A1 (en) * 2013-11-27 2015-05-28 Invensense, Inc. Method and system for automatically generating location signatures for positioning using inertial sensors
EP3761223A1 (en) 2013-12-04 2021-01-06 Mobileye Vision Technologies Ltd. Adjusting lane offset autonomously
US10422649B2 (en) * 2014-02-24 2019-09-24 Ford Global Technologies, Llc Autonomous driving sensing system and method
CN104007460B (zh) * 2014-05-30 2017-02-08 北京中电华远科技有限公司 一种消防员单兵定位导航装置
US9707960B2 (en) 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
JP6441616B2 (ja) * 2014-08-29 2018-12-19 株式会社ゼンリン 位置特定装置、運転支援装置および制御プログラム
KR102622571B1 (ko) * 2015-02-10 2024-01-09 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
US20160283789A1 (en) * 2015-03-25 2016-09-29 Motorola Mobility Llc Power-saving illumination for iris authentication
CN104992567A (zh) * 2015-07-03 2015-10-21 赵洪海 道路信号灯同步智能提示装置
JP2017072422A (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
JP6323439B2 (ja) * 2015-12-17 2018-05-16 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
CN105489035B (zh) * 2015-12-29 2018-03-30 大连楼兰科技股份有限公司 应用在主动驾驶技术中检测交通信号灯的方法
JP6751280B2 (ja) * 2016-02-22 2020-09-02 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
CN107764254A (zh) * 2016-08-23 2018-03-06 上海闻通信息科技有限公司 一种基于单目摄像头的平面导航系统及方法
US10330479B2 (en) * 2016-09-20 2019-06-25 Trimble Inc. Vehicle navigation by dead reckoning and GNSS-aided map-matching
US10515390B2 (en) 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
KR102463702B1 (ko) 2016-12-15 2022-11-07 현대자동차주식회사 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법
EP3339807B1 (en) * 2016-12-20 2024-03-13 HERE Global B.V. An apparatus and associated methods for determining the location of a vehicle
CN107037467B (zh) * 2017-03-24 2021-06-29 奇瑞汽车股份有限公司 一种定位系统及方法、智能汽车
JP6980010B2 (ja) * 2017-05-19 2021-12-15 パイオニア株式会社 自己位置推定装置、制御方法、プログラム及び記憶媒体
JP6968877B2 (ja) * 2017-05-19 2021-11-17 パイオニア株式会社 自己位置推定装置、制御方法、プログラム及び記憶媒体
EP3428577A1 (en) 2017-07-12 2019-01-16 Veoneer Sweden AB A driver assistance system and method
JP6747405B2 (ja) * 2017-08-25 2020-08-26 トヨタ自動車株式会社 自車位置自信度演算装置
JP7257737B2 (ja) * 2017-09-05 2023-04-14 ソニーグループ株式会社 情報処理装置、自己位置推定方法、及び、プログラム
CN109520495B (zh) 2017-09-18 2022-05-13 财团法人工业技术研究院 导航定位装置及应用其的导航定位方法
TWI657230B (zh) * 2017-09-18 2019-04-21 財團法人工業技術研究院 導航定位裝置及應用其之導航定位方法
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10935978B2 (en) * 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10921133B2 (en) * 2017-12-07 2021-02-16 International Business Machines Corporation Location calibration based on movement path and map objects
JP7189691B2 (ja) * 2018-07-02 2022-12-14 株式会社Subaru 車両の走行制御システム
CN111480131B (zh) * 2018-08-23 2024-01-12 日本精工株式会社 自行装置、自行装置的行进控制方法以及行进控制程序
US11874117B2 (en) 2019-04-04 2024-01-16 Mitsubishi Electric Corporation Vehicle positioning device
WO2020223974A1 (zh) * 2019-05-09 2020-11-12 珊口(深圳)智能科技有限公司 更新地图的方法及移动机器人
JP7298882B2 (ja) * 2019-06-17 2023-06-27 国立大学法人金沢大学 車両の自己位置推定装置、及び車両
CN114041069A (zh) * 2019-06-24 2022-02-11 松下知识产权经营株式会社 影像控制装置、影像控制方法以及程序
JP7343054B2 (ja) * 2020-06-11 2023-09-12 日本電信電話株式会社 位置推定方法、位置推定装置、および位置推定プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63302317A (ja) * 1987-06-03 1988-12-09 Mitsubishi Heavy Ind Ltd 移動体の位置速度測定装置
JPH01306560A (ja) * 1988-06-01 1989-12-11 Shin Meiwa Ind Co Ltd 蒸着膜厚制御方法
JPH0735560A (ja) * 1993-07-23 1995-02-07 Nippondenso Co Ltd ナビゲーション装置
JPH07239236A (ja) * 1994-02-28 1995-09-12 Hitachi Ltd 移動体の状態量計測方法と装置および移動体の姿勢角演算装置
JPH09243389A (ja) 1996-03-08 1997-09-19 Alpine Electron Inc 車載用ナビゲーション装置
JPH10300493A (ja) * 1997-04-28 1998-11-13 Honda Motor Co Ltd 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
JP2001336941A (ja) * 2000-05-25 2001-12-07 Sony Corp カーナビゲーション装置
JP2002213979A (ja) 2001-01-12 2002-07-31 Clarion Co Ltd 測位位置/方位の修正が可能なdr機能付きgpsレシーバ
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
WO2005043081A1 (ja) * 2003-10-31 2005-05-12 Fujitsu Limited 距離算出装置および算出プログラム
US20050137786A1 (en) 1997-10-22 2005-06-23 Intelligent Technologies International Inc. Communication method and arrangement
US20060106533A1 (en) 2004-11-12 2006-05-18 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246960B1 (en) * 1998-11-06 2001-06-12 Ching-Fang Lin Enhanced integrated positioning method and system thereof for vehicle
US7774158B2 (en) * 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
US8521411B2 (en) * 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
CN100356139C (zh) * 2005-01-21 2007-12-19 清华大学 用于微小卫星的微型组合姿态测量系统
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63302317A (ja) * 1987-06-03 1988-12-09 Mitsubishi Heavy Ind Ltd 移動体の位置速度測定装置
JPH01306560A (ja) * 1988-06-01 1989-12-11 Shin Meiwa Ind Co Ltd 蒸着膜厚制御方法
JPH0735560A (ja) * 1993-07-23 1995-02-07 Nippondenso Co Ltd ナビゲーション装置
JPH07239236A (ja) * 1994-02-28 1995-09-12 Hitachi Ltd 移動体の状態量計測方法と装置および移動体の姿勢角演算装置
JPH09243389A (ja) 1996-03-08 1997-09-19 Alpine Electron Inc 車載用ナビゲーション装置
JPH10300493A (ja) * 1997-04-28 1998-11-13 Honda Motor Co Ltd 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
US20050137786A1 (en) 1997-10-22 2005-06-23 Intelligent Technologies International Inc. Communication method and arrangement
JP2001336941A (ja) * 2000-05-25 2001-12-07 Sony Corp カーナビゲーション装置
JP2002213979A (ja) 2001-01-12 2002-07-31 Clarion Co Ltd 測位位置/方位の修正が可能なdr機能付きgpsレシーバ
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
WO2005043081A1 (ja) * 2003-10-31 2005-05-12 Fujitsu Limited 距離算出装置および算出プログラム
US20060106533A1 (en) 2004-11-12 2006-05-18 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2034271A4

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098154A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
EP2189758A3 (en) * 2008-11-19 2013-11-27 Fujitsu Limited Apparatus, method and program for calculating absolute movement path
KR101534056B1 (ko) * 2010-01-22 2015-07-06 구글 인코포레이티드 교통 신호 맵핑 및 검출
JP2016503488A (ja) * 2012-10-12 2016-02-04 クアルコム,インコーポレイテッド ジャイロスコープの調整およびジャイロカメラのアライメント
CN102928860A (zh) * 2012-10-18 2013-02-13 无锡清华信息科学与技术国家实验室物联网技术中心 基于局部定位信息提高gps定位精度的方法
US10240934B2 (en) 2014-04-30 2019-03-26 Tomtom Global Content B.V. Method and system for determining a position relative to a digital map
US10948302B2 (en) 2015-08-03 2021-03-16 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
US11287264B2 (en) 2015-08-03 2022-03-29 Tomtom International B.V. Methods and systems for generating and using localization reference data
US11274928B2 (en) 2015-08-03 2022-03-15 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
US11137255B2 (en) 2015-08-03 2021-10-05 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
WO2018025624A1 (ja) * 2016-08-05 2018-02-08 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置、表示制御方法及び制御プログラム
US11181737B2 (en) 2016-08-05 2021-11-23 Panasonic Intellectual Property Management Co., Ltd. Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
JP2018022105A (ja) * 2016-08-05 2018-02-08 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置、表示制御方法及び制御プログラム
JPWO2020039937A1 (ja) * 2018-08-23 2021-02-15 日本電信電話株式会社 位置座標推定装置、位置座標推定方法およびプログラム
WO2020039937A1 (ja) * 2018-08-23 2020-02-27 日本電信電話株式会社 位置座標推定装置、位置座標推定方法およびプログラム

Also Published As

Publication number Publication date
EP2034271A4 (en) 2010-08-11
US20100004856A1 (en) 2010-01-07
EP2034271A1 (en) 2009-03-11
JP2008002906A (ja) 2008-01-10
JP4600357B2 (ja) 2010-12-15
CN101473195A (zh) 2009-07-01
US8725412B2 (en) 2014-05-13
EP2034271B1 (en) 2014-04-16
CN101473195B (zh) 2013-01-09

Similar Documents

Publication Publication Date Title
JP4600357B2 (ja) 測位装置
JP7301909B2 (ja) 地図データ、レーザ、およびカメラからのヨー誤差の確定
US11433880B2 (en) In-vehicle processing apparatus
US9948853B2 (en) Camera parameter calculation device, navigation system and camera parameter calculation method
EP1991973B1 (en) Image processing system and method
JP3436074B2 (ja) 車載ステレオカメラ
JP4847090B2 (ja) 位置測位装置、および位置測位方法
JP2012127896A (ja) 移動体位置測定装置
KR101704405B1 (ko) 차선 인식 시스템 및 방법
CN110530372B (zh) 定位方法、路径确定方法、装置、机器人及存储介质
EP3842751B1 (en) System and method of generating high-definition map based on camera
WO2016093028A1 (ja) 自車位置推定装置
JP4596566B2 (ja) 自車情報認識装置及び自車情報認識方法
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN113847930A (zh) 多传感器校准系统
US20210394782A1 (en) In-vehicle processing apparatus
AU2020257038A1 (en) Camera orientation estimation
CN112528719A (zh) 推定装置、推定方法以及存储介质
US10249056B2 (en) Vehicle position estimation system
JP6932018B2 (ja) 車両位置検出装置
JP7468075B2 (ja) 管制制御システム
JP6842335B2 (ja) 車両位置検出装置
CN113341942A (zh) 车辆用装置和加速度的校正方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780023050.X

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07744927

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12305397

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007744927

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)