JP2008249639A - Own position locating device, own position locating method, and own position locating program - Google Patents

Own position locating device, own position locating method, and own position locating program Download PDF

Info

Publication number
JP2008249639A
JP2008249639A JP2007094134A JP2007094134A JP2008249639A JP 2008249639 A JP2008249639 A JP 2008249639A JP 2007094134 A JP2007094134 A JP 2007094134A JP 2007094134 A JP2007094134 A JP 2007094134A JP 2008249639 A JP2008249639 A JP 2008249639A
Authority
JP
Japan
Prior art keywords
azimuth
self
feature
positioning
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007094134A
Other languages
Japanese (ja)
Other versions
JP4897542B2 (en
Inventor
Kenji Nakakuki
健司 中久喜
Junichi Takiguchi
純一 瀧口
Koichi Sato
幸一 佐藤
Rui Hirokawa
類 廣川
Ryujiro Kurosaki
隆二郎 黒崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007094134A priority Critical patent/JP4897542B2/en
Publication of JP2008249639A publication Critical patent/JP2008249639A/en
Application granted granted Critical
Publication of JP4897542B2 publication Critical patent/JP4897542B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance locating precision of an own position locating device, using an existing road infrastructure such as a white line on a road and a road sign. <P>SOLUTION: A DR computing part 3 calculates a vehicle position by dead reckoning, in this own position locating device 100 mounted on a vehicle of the present invention. A pseudo-distance residual calculating part 22 calculates a pseudo-distance residual, from a pseudo-distance, and a satellite-vehicle distance based on a satellite orbit parameter. A camera 7 images the road in front of the vehicle, an image processing part 8 calculates an azimuth angle of the white line photographed in an image, a white line azimuth angle acquiring part 23 acquires the azimuth angle from white line database 9, and a white line azimuth angle residual calculating part 24 calculates an azimuth angle residual, based on the azimuth angle of the white line calculated by the image processing part 8, and the azimuth angle of the white line acquired by the white line azimuth angle acquiring part 23. An extended Kalman filter 6 inputs the pseudo-distance residual and the azimuth angle residual as observed amounts, and estimates an error of a positioning result in the DR computing part 3. The DR computing part 3 corrects the positioning result, based on the estimated error estimated by the expanded Kalman filter 6. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えば、GIS(Geographic Information System)データベースを作成するために地理データ収集車両に搭載したり、一般車両に搭載してナビゲーションシステムに利用したりする自己位置標定装置、自己位置標定方法および自己位置標定プログラムに関するものである。   The present invention provides, for example, a self-positioning device, a self-positioning method, and a self-positioning method that are mounted on a geographic data collection vehicle to create a GIS (Geographic Information System) database, or are mounted on a general vehicle and used in a navigation system. It relates to the self-location program.

GPS(Global Positioning System)の受信機の価格が低下すると共にカーナビゲーションシステム(以下、カーナビ、カーナビゲーションともいう)が普及し、カーナビゲーションシステムの自己位置標定精度を向上するための技術やドライバーの運転補助のための技術などさまざまな技術が開発されてきた。例えば、自己位置標定精度を向上させる技術として、GPSの観測情報の一つである擬似距離に対して補正情報を反映して測位精度を向上させるディッファレンシャルGPS(DGPS)や、地図情報を使って自己位置を補正するマップマッチング技術や、白線を認識して認識した白線を基準にして行うレーンキーピングなどの技術が挙げられる。   GPS (Global Positioning System) receiver prices decrease and car navigation systems (hereinafter also referred to as car navigation systems and car navigation systems) become widespread, and technology and driver driving to improve the self-localization accuracy of car navigation systems Various technologies have been developed, including assistive technologies. For example, as a technique for improving the self-localization accuracy, differential GPS (DGPS) for improving the positioning accuracy by reflecting the correction information to the pseudo distance which is one of GPS observation information, or map information is used. Examples include map matching technology that corrects the self-position and technology such as lane keeping that is performed based on the recognized white line.

国土交通省は、1991年からASV(Advanced Safety Vehicle:先進安全自動車)の開発を主導し、現在は第3期の計画を進行中であり、車車間通信を使った事故回避システムの実用化を目指している。そのような高度なシステムには、現在よりも精度の高い自己位置標定装置が必要とされているが、一般の乗用車に搭載可能な装置ではGPSのアベイラビリティ(Availability,可用性)が悪い状況などにおいて十分な位置標定精度が保てないのが現状である。   The Ministry of Land, Infrastructure, Transport and Tourism has led the development of ASV (Advanced Safety Vehicle) since 1991, and is currently in the third phase of the plan to commercialize an accident avoidance system using inter-vehicle communication. want to be. Such an advanced system requires a self-localization device with higher accuracy than the present system, but a device that can be mounted on a general passenger car is sufficient in a situation where GPS availability (Availability) is poor. At present, it is difficult to maintain accurate positioning accuracy.

従来のカーナビ用途などの車両用自己位置標定装置では、GPS、慣性装置、車速パルスなどを利用するものが開発されている。この自己位置標定装置の標定精度を高めるため、道路上の通行区分帯表示用の断続線あるいは連続線(通常“白線”であるので、以下便宜上“白線”と呼ぶ)や道路標識、信号機、建物などのランドマークを利用して自己位置標定精度を高める手法が提案されてきた。   2. Description of the Related Art Conventional vehicle self-positioning devices such as car navigation applications have been developed that use GPS, inertial devices, vehicle speed pulses, and the like. In order to improve the positioning accuracy of this self-localization device, it is a discontinuous line or continuous line for displaying traffic division zones on the road (usually “white line”, so it is called “white line” for the sake of convenience below), road signs, traffic lights, buildings A method for improving the self-localization accuracy using landmarks such as these has been proposed.

例えば、白線を利用する方法として、車両に搭載したビデオカメラで白線を撮影し、その画像を処理した観測値から車両と白線との間の距離を計算し、車両と白線との距離を自己位置補正に利用する方式(特許文献1)がある。
また、建物などのランドマークを利用する方式として、車両に搭載したレーザレーダ等の測距型センサによる観測値と建造物データベースに登録されている値との照合結果に基づく位置補正方式(特許文献2)などが提案されている。さらには、車両の周囲にある建物などのランドマークの並び方や位置関係から自己位置を同定する方式も考案されている(特許文献3)。
また、道路標識や信号を利用する方式として、車両に搭載したカメラによって標識を認識し、二つのカメラまたはレーダを用いて標識までの距離を検出し、データベースから得たその標識の座標と、検出した距離とを使って自己位置を補正する手法(特許文献4)がある。さらには、信号機認識装置と、信号機への方向の仰角を計算する手段を備え、信号機までの水平方向距離を計算し、信号機までの水平方向距離を自己位置補正に利用する方式(特許文献5)などが提案されている。
For example, as a method of using the white line, the white line is photographed with a video camera mounted on the vehicle, the distance between the vehicle and the white line is calculated from the observation value obtained by processing the image, and the distance between the vehicle and the white line is self-positioned. There is a method (Patent Document 1) used for correction.
In addition, as a method of using landmarks such as buildings, a position correction method based on a result of collation between an observation value by a distance measuring sensor such as a laser radar mounted on a vehicle and a value registered in a building database (Patent Document) 2) etc. are proposed. Furthermore, a method has been devised for identifying the self position from the arrangement and positional relationship of landmarks such as buildings around the vehicle (Patent Document 3).
In addition, as a method of using road signs and signals, the sign is recognized by a camera mounted on the vehicle, the distance to the sign is detected using two cameras or radar, the coordinates of the sign obtained from the database, and detection There is a method (Patent Document 4) for correcting the self-position using the measured distance. Furthermore, a signal recognition device and means for calculating the elevation angle in the direction to the signal are calculated, the horizontal distance to the signal is calculated, and the horizontal distance to the signal is used for self-position correction (Patent Document 5). Etc. have been proposed.

ところが、車載カメラによって認識した白線までの距離を自己位置補正に使う従来方式は、カーナビゲーションシステム等の自己位置標定装置用の地図データベースの精度が十分なものとはいえないため、補正による効果は非常に限定的である。現状、カーナビゲーションに使われているような地図データベースの精度は、車両が道路上に位置する程度の位置補正を行うレーンキーピングに対しては有効であるが、従来方式によりサブメートル級の標定精度を達成するには十分な精度ではない。地図データベースの精度は今後向上すると考えられるが、地球の地殻変動によって1年に数センチメートル程度の絶対座標変動が起きるのが普通であり、地図データベースにおいて確保できる位置座標精度には限界がある。
また、従来方式のうち特許文献2には、専用の建物データベース構築が必要となり、また、高速で高精度なレーザレーダが必要となるといった課題がある。
However, the conventional method that uses the distance to the white line recognized by the in-vehicle camera for self-position correction does not have sufficient accuracy of the map database for self-positioning devices such as car navigation systems. Very limited. At present, the accuracy of the map database used for car navigation is effective for lane keeping that corrects the position of the vehicle on the road. Is not accurate enough to achieve. Although the accuracy of the map database is expected to improve in the future, the absolute coordinate fluctuation of about several centimeters per year is usually caused by the earth's crustal movement, and the position coordinate accuracy that can be secured in the map database is limited.
Further, among the conventional methods, Patent Document 2 has a problem that a dedicated building database needs to be constructed and a high-speed and high-precision laser radar is required.

一方、このような状況において、簡便な方法で道路や建造物等のGISデータを作成する方法が開発されつつある。例えば、白線のデータベースを構築する方法(特許文献6)などは、すでに実用化段階に入っている。
第2687645号公報 特開2006−138834号公報 特開平8−247775号公報 特開2000−97714号公報 特開平7−35560号公報 特開2006−47291号公報 藤本、“カーナビ用地図データフォーマット KIWI”、デンソーテクニカルレビュー VOL.6 No.1、2001
On the other hand, in such a situation, a method for creating GIS data of roads, buildings and the like by a simple method is being developed. For example, a method of constructing a white line database (Patent Document 6) has already entered the practical application stage.
No. 2687645 JP 2006-138834 A JP-A-8-247775 JP 2000-97714 A Japanese Unexamined Patent Publication No. 7-35560 JP 2006-47291 A Fujimoto, “Map data format for car navigation KIWI”, Denso Technical Review VOL. 6 No. 1, 2001

カーナビなどに代表される車両用の自己位置標定装置は、GPS、慣性装置、車速パルスなどを利用するものが標準的である。このような自己位置標定装置では、都市部やトンネル内などのGPS測位信号のアベイラビリティが悪い環境では標定精度が劣化するという課題があった。そのため、GPS測位信号のアベイラビリティが悪い環境でも一定の測位精度を維持するためには、他に何らかの補助手段等が必要である。   As a vehicle self-localization device represented by a car navigation system or the like, a standard one using a GPS, an inertial device, a vehicle speed pulse, or the like is standard. Such a self-positioning device has a problem that the positioning accuracy deteriorates in an environment where the availability of GPS positioning signals is poor such as in urban areas and tunnels. Therefore, in order to maintain a certain positioning accuracy even in an environment where GPS positioning signal availability is poor, some other auxiliary means is required.

そこで、本発明は、道路上の白線や、道路標識といった既存の道路インフラを利用して、自己位置標定装置の標定精度を向上させることを目的とする。   In view of the above, an object of the present invention is to improve the positioning accuracy of the self-positioning device using existing road infrastructure such as a white line on a road or a road sign.

本発明の自己位置標定装置は、自己位置を測位する測位部と、前記測位部が測位した際の特定の方向を撮像するカメラと、前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の長さ方向が基準方向に対して成す前記特定の地物の方位角をCPU(Central Proccessing Unit)を用いて算出する画像方位角部と、地物の長さ方向が基準方向に対して成す当該地物の方位角を記憶する方位角データベースと、前記測位部が測位した自己位置に基づいて前記方位角データベースから前記特定の地物に対応する地物の方位角を取得するデータベース方位角部と、前記画像方位角部が算出した地物の方位角と前記データベース方位角部が取得した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出部と、前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定するカルマンフィルタとを備え、前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とすることを特徴とする。   The self-positioning device of the present invention is reflected in the image based on a positioning unit that measures the self-position, a camera that captures a specific direction when the positioning unit performs positioning, and an image captured by the camera. An image azimuth portion for calculating the azimuth angle of the specific feature with respect to the reference direction by using a CPU (Central Processing Unit), and the length direction of the feature is the reference direction. An azimuth angle database that stores the azimuth angle of the feature formed with respect to, and an azimuth angle of the feature corresponding to the specific feature from the azimuth angle database based on the self-position measured by the positioning unit The difference between the azimuth angle of the database, the azimuth angle of the feature calculated by the image azimuth angle portion, and the azimuth angle of the feature acquired by the database azimuth angle portion is used as a feature azimuth angle residual using the CPU. An azimuth residual calculation unit for calculating, and a Kalman filter for estimating an error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculation unit using a CPU. The positioning unit corrects the measured self-position based on the error estimated by the Kalman filter, and uses the corrected self-position as a positioning result.

本発明によれば、例えば、画像方位角部が画像に映った白線の方位角を算出し、カルマンフィルタが方位角データベースに記憶されている白線の方位角と画像から算出した白線の方位角との方位角残差を観測量として誤差推定を行うことにより、自己位置標定精度を向上させることができる。   According to the present invention, for example, the azimuth angle of the white line reflected in the image is calculated by the image azimuth portion, and the azimuth angle of the white line stored in the azimuth database by the Kalman filter and the azimuth angle of the white line calculated from the image. By performing error estimation using the azimuth residual as an observation amount, it is possible to improve self-localization accuracy.

従来方式は、白線の方位角データを自己位置補正に利用していなかったり(特許文献1)、道路標識が存在する位置の(車両から見た)方位角データを自己位置補正に利用していなかったり(特許文献4)、自己位置標定装置としては改良の余地があった。
そこで、本発明は、方位角が地球の地殻変動による変化が少なく、方位角が絶対位置座標よりも比較的精度良く検出可能であるという点に着目し、白線の方位角や道路標識の方位角を自己位置補正に利用することにより自己位置標定精度を向上させる。
The conventional method does not use the white line azimuth data for self-position correction (Patent Document 1), or does not use the azimuth data (as viewed from the vehicle) where the road sign exists for self-position correction. (Patent Document 4), there was room for improvement as a self-positioning device.
Therefore, the present invention pays attention to the fact that the azimuth angle is less likely to change due to the earth's crustal movement, and the azimuth angle can be detected with higher accuracy than the absolute position coordinates. Is used for self-position correction to improve the self-positioning accuracy.

実施の形態1.
図1は、実施の形態1における自己位置標定装置100の構成図である。
図2は、実施の形態1における自己位置標定装置100の自己位置標定方法を示すフローチャートである。
実施の形態1における自己位置標定装置100の構成の概要および自己位置標定装置100の実行する自己位置標定方法の概要について、図1および図2に基づいて以下に説明する。
自己位置標定装置100の各部は図2に基づいて説明する各処理をCPUを用いて実行する。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a self-positioning apparatus 100 according to the first embodiment.
FIG. 2 is a flowchart showing a self-positioning method of self-positioning apparatus 100 in the first embodiment.
The outline of the configuration of the self-positioning apparatus 100 according to the first embodiment and the outline of the self-positioning method executed by the self-positioning apparatus 100 will be described below with reference to FIGS. 1 and 2.
Each part of the self-positioning device 100 executes each process described based on FIG. 2 using the CPU.

図1において、自己位置標定装置100は車両(移動体の一例)に搭載され、任意の測位方式によって測位した測位部110の測位結果に含まれる誤差を誤差推定部140を用いて推定し、推定した誤差により測位部110の測位結果を補正して車両の位置や姿勢角を高精度に標定する。   In FIG. 1, a self-positioning device 100 is mounted on a vehicle (an example of a moving body), and an error included in a positioning result of a positioning unit 110 measured by an arbitrary positioning method is estimated using an error estimating unit 140. The positioning result of the positioning unit 110 is corrected by the error, and the position and posture angle of the vehicle are determined with high accuracy.

<S110:測位処理>
図2において、測位部110は車両の方位角データと速度データを用いたデッドレコニング計算や、3軸の加速度計および3軸のジャイロを利用するストラップダウン演算によって、車両の位置および姿勢角を算出する。デッドレコニング計算に使われる方位角データはジャイロから、速度データは車速パルスから取得することが多い。
<S110: Positioning process>
In FIG. 2, the positioning unit 110 calculates the vehicle position and attitude angle by dead reckoning calculation using azimuth angle data and velocity data of the vehicle and strapdown calculation using a three-axis accelerometer and a three-axis gyro. To do. In many cases, azimuth angle data used for dead reckoning calculation is obtained from a gyro, and speed data is obtained from a vehicle speed pulse.

<S120:GPS観測残差算出処理>
次に、GPS観測残差算出部120は、擬似距離や位相差やドップラー量などのGPS観測量について、GPS観測部121の観測値とGPS観測量演算部122の演算値との差分をGPS観測残差として算出する。
このとき、GPS観測部121はGPS受信機を用いて測位信号を受信してGPS観測量を取得し、GPS観測量演算部122はGPS観測部121のGPS観測量に相当する量を演算により算出する。そして、GPS観測残差算出部120はGPS観測部121の観測値とGPS観測量演算部122の演算値との差分をGPS観測残差として誤差推定部140の入力にする。GPS観測部121によるGPS観測量には、例えば、GPS衛星が測位信号を発信してからGPS受信機が測位信号を受信するまでの時間に光速を乗じることにより算出されるGPS衛星とGPS受信機との間の擬似距離がある。また例えば、特定のGPS衛星からの測位信号(搬送波)を複数のGPS受信機で受信した際のGPS受信機間での受信測位信号の位相差(一重位相差)やGPS受信機間の一重位相差を複数のGPS衛星について得た際の一重位相差同士の差を示す二重位相差もGPS観測量の一例である。また例えば、受信した測位信号の周波数と測位信号の基準周波数との差に基づいて算出されるGPS衛星とGPS受信機との相対速度を示すドップラー量もGPS観測量の一例である。GPS観測量演算部122は、例えば、測位部110が測位した車両の位置と測位信号に含まれる衛星軌道パラメータが示すGPS衛星の位置とに基づいて擬似距離に相当する距離を算出する。また例えば、GPS観測量演算部122は各GPS受信機から各GPS衛星への方向を示すLOS(Line Of Sight)ベクトルとあるGPS受信機から別のGPS受信機への方向を示す基線ベクトルとに基づいて位相差や二重位相差を算出する。また例えば、GPS観測量演算部122はGPS衛星の位置・速度と車両の位置・速度とに基づいてドップラー量を算出する。そして、GPS観測残差算出部120はGPS観測部121のGPS観測値とGPS観測量演算部122のGPS観測値に相当する演算値との差分をGPS観測残差として算出する。
<S120: GPS observation residual calculation processing>
Next, the GPS observation residual calculation unit 120 performs GPS observation on the difference between the observation value of the GPS observation unit 121 and the calculation value of the GPS observation amount calculation unit 122 for the GPS observation amount such as the pseudorange, the phase difference, and the Doppler amount. Calculate as residual.
At this time, the GPS observation unit 121 receives a positioning signal using a GPS receiver to acquire a GPS observation amount, and the GPS observation amount calculation unit 122 calculates an amount corresponding to the GPS observation amount of the GPS observation unit 121 by calculation. To do. Then, the GPS observation residual calculation unit 120 inputs the difference between the observation value of the GPS observation unit 121 and the calculation value of the GPS observation amount calculation unit 122 to the error estimation unit 140 as a GPS observation residual. The GPS observation amount obtained by the GPS observation unit 121 includes, for example, a GPS satellite and a GPS receiver calculated by multiplying the time from when the GPS satellite transmits a positioning signal until the GPS receiver receives the positioning signal by the speed of light. There is a pseudo-range between In addition, for example, when a positioning signal (carrier wave) from a specific GPS satellite is received by a plurality of GPS receivers, a phase difference (single phase difference) of received positioning signals between GPS receivers or a single position between GPS receivers. The double phase difference indicating the difference between the single phase differences when the phase difference is obtained for a plurality of GPS satellites is also an example of the GPS observation amount. Further, for example, a Doppler amount indicating a relative speed between a GPS satellite and a GPS receiver calculated based on a difference between the frequency of the received positioning signal and the reference frequency of the positioning signal is an example of the GPS observation amount. For example, the GPS observation amount calculation unit 122 calculates a distance corresponding to the pseudorange based on the position of the vehicle measured by the positioning unit 110 and the position of the GPS satellite indicated by the satellite orbit parameter included in the positioning signal. In addition, for example, the GPS observation amount calculation unit 122 generates a LOS (Line Of Light) vector indicating the direction from each GPS receiver to each GPS satellite and a baseline vector indicating the direction from one GPS receiver to another GPS receiver. Based on this, a phase difference and a double phase difference are calculated. Further, for example, the GPS observation amount calculation unit 122 calculates the Doppler amount based on the position / velocity of the GPS satellite and the position / velocity of the vehicle. Then, the GPS observation residual calculation unit 120 calculates the difference between the GPS observation value of the GPS observation unit 121 and the calculation value corresponding to the GPS observation value of the GPS observation amount calculation unit 122 as the GPS observation residual.

<S130:方位角残差算出処理>
次に、方位角残差算出部130は、車両が走行している道路における白線の直線部分の方位角や車両から見た標識の方位角について、方位角観測部131の観測値と方位角演算部132の演算値との差分を方位角残差として算出する。
このとき、方位角観測部131はカメラを用いて車両の進行方向を撮像して白線の直線部分の方位角や車両から見た標識の方位角の観測値を取得し、方位角演算部132はデータベースに登録されているデータに基づいて白線の方位角や標識の方位角の演算値を取得する。そして、方位角残差算出部130は方位角観測部131の観測値と方位角演算部132の演算値との差分を方位角残差として誤差推定部140の入力にする。
<S130: Azimuth residual calculation processing>
Next, the azimuth residual calculation unit 130 calculates the azimuth and observation values of the azimuth observation unit 131 for the azimuth of the straight line portion of the white line on the road on which the vehicle is traveling and the azimuth of the sign viewed from the vehicle. The difference from the calculated value of the unit 132 is calculated as the azimuth residual.
At this time, the azimuth angle observation unit 131 captures the traveling direction of the vehicle using a camera and acquires the observation value of the azimuth angle of the straight line portion of the white line and the azimuth angle of the sign viewed from the vehicle. Based on the data registered in the database, the calculated values of the white line azimuth and the sign azimuth are obtained. Then, the azimuth residual calculation unit 130 inputs the difference between the observation value of the azimuth observation unit 131 and the calculation value of the azimuth calculation unit 132 to the error estimation unit 140 as an azimuth residual.

<S140:誤差推定処理・補正処理>
そして、誤差推定部140は、GPS観測残差と方位角残差とに基づいて、測位部110の測位結果に含まれる誤差を推定する。
測位部110は誤差推定部140が推定した誤差に基づいて位置および姿勢角を補正する。
このとき、誤差推定部140はカルマンフィルタを用いて位置および姿勢角の誤差推定を行う。
このカルマンフィルタは、状態量のダイナミクスをモデル化した状態方程式と、観測量と状態量との関係を定式化した観測方程式とに基づいて状態量の誤差推定を行う。自己位置を標定するような場合、カルマンフィルタは、GPS受信機による特定の観測量の観測値と特定の観測値に相当する演算値(理論値)との差分(観測残差という)を観測量として、自己位置の座標や姿勢角(方位角、仰角、回転角)などの状態量について誤差推定を行う。カルマンフィルタは自己位置の座標や姿勢角の誤差を状態量として算出する。
<S140: Error Estimation Processing / Correction Processing>
Then, the error estimation unit 140 estimates an error included in the positioning result of the positioning unit 110 based on the GPS observation residual and the azimuth residual.
The positioning unit 110 corrects the position and the posture angle based on the error estimated by the error estimation unit 140.
At this time, the error estimator 140 performs position and orientation angle error estimation using a Kalman filter.
The Kalman filter performs state quantity error estimation based on a state equation modeling the state quantity dynamics and an observation equation that formulates the relationship between the observed quantity and the state quantity. When locating the self-location, the Kalman filter uses the difference between the observed value of the specific observed value by the GPS receiver and the calculated value (theoretical value) corresponding to the specific observed value (observed residual) as the observed value. Then, error estimation is performed for state quantities such as the coordinates of the self position and the posture angle (azimuth angle, elevation angle, rotation angle). The Kalman filter calculates the coordinates of the self position and the error of the posture angle as a state quantity.

しかし、自己位置標定装置100を搭載した車両がトンネル内やビルの間を移動する際にGPS衛星から測位信号を受信できないというような場合、誤差推定部140(カルマンフィルタ)が誤差推定を行うことができず自己位置標定装置100の標定精度は悪化する。
そこで、実施の形態1における誤差推定部140(カルマンフィルタ)は、測位信号が受信できない場合でも画像に基づいて観測可能な白線や標識に関する方位角残差を観測量として、測位部110の測位結果について誤差推定を行う。
However, when a vehicle equipped with the self-positioning device 100 cannot receive a positioning signal from a GPS satellite when moving in a tunnel or between buildings, the error estimation unit 140 (Kalman filter) may perform error estimation. The positioning accuracy of the self-positioning device 100 is deteriorated.
Therefore, the error estimation unit 140 (Kalman filter) according to the first embodiment uses the azimuth residual relating to the white line and the sign that can be observed based on the image even when the positioning signal cannot be received as the observation amount, and the positioning result of the positioning unit 110. Perform error estimation.

ここで、GPS観測量以外の観測量として車両と白線との距離や車両と標識との距離を用いる方法も考えられるが、距離を観測量として用いる方法は、距離の観測値を得るためにステレオカメラやレーザレーダが必要になったり、地殻変動によるデータベースの精度の低下によりデータベースに登録された白線や標識の位置に基づいて算出する距離の演算値の精度が低くなったりするという課題がある。   Here, a method using the distance between the vehicle and the white line or the distance between the vehicle and the sign as an observation amount other than the GPS observation amount is also conceivable, but the method using the distance as the observation amount is a stereo in order to obtain an observation value of the distance. There is a problem that a camera or a laser radar is required, or that the accuracy of the distance calculation value calculated based on the position of the white line or the sign registered in the database is lowered due to a decrease in the accuracy of the database due to crustal movement.

一方、実施の形態1のようにGPS観測量以外の観測量として方位角を用いた場合、単眼カメラが一台あればそのカメラで撮像した画像から方位角の観測値を得ることができ、方位角は地殻変動による変化が少ないためデータベースに記憶された白線や標識の位置に基づく方位角の演算値の精度が比較的高いという利点がある。   On the other hand, when the azimuth angle is used as the observation amount other than the GPS observation amount as in the first embodiment, if there is one monocular camera, the observation value of the azimuth angle can be obtained from the image captured by the camera. There is an advantage that the accuracy of the calculated value of the azimuth based on the position of the white line and the sign stored in the database is relatively high because the angle is less changed due to crustal movement.

また、誤差推定部140(カルマンフィルタ)は測位部110の測位結果の誤差以外に、測位部110が用いるジャイロについてのレート誤差やGPS観測残差算出部120が用いるGPS受信機についてのクロック誤差や方位角残差算出部130が用いるカメラについてのアライメント誤差などについても誤差推定を行い、推定した誤差を補正用に出力する。   In addition to the error in the positioning result of the positioning unit 110, the error estimation unit 140 (Kalman filter) also includes a rate error for the gyro used by the positioning unit 110 and a clock error and direction for the GPS receiver used by the GPS observation residual calculation unit 120. Error estimation is also performed for the alignment error of the camera used by the angular residual calculation unit 130, and the estimated error is output for correction.

図3は、実施の形態1における自己位置標定装置100のハードウェア資源の一例を示す図である。
図3において、自己位置標定装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、GPS受信機1、ジャイロ4、オドメータ5、カメラ7、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。また、入力データが記憶されている記憶機器は入力機器、入力装置あるいは入力部の一例であり、出力データが記憶される記憶機器は出力機器、出力装置あるいは出力部の一例である。
通信ボード915は入出力機器、入出力装置あるいは入出力部の一例である。
FIG. 3 is a diagram illustrating an example of hardware resources of the self-positioning apparatus 100 according to the first embodiment.
In FIG. 3, the self-positioning apparatus 100 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, and a processor) that executes a program. The CPU 911 is connected to the ROM 913, the RAM 914, the communication board 915, the display device 901, the GPS receiver 1, the gyro 4, the odometer 5, the camera 7, and the magnetic disk device 920 via the bus 912, and controls these hardware devices. . Instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card read / write device may be used.
The RAM 914 is an example of a volatile memory. The storage medium of the ROM 913 and the magnetic disk device 920 is an example of a nonvolatile memory. These are examples of a storage device, a storage device, or a storage unit. A storage device in which input data is stored is an example of an input device, an input device, or an input unit, and a storage device in which output data is stored is an example of an output device, an output device, or an output unit.
The communication board 915 is an example of an input / output device, an input / output device, or an input / output unit.

通信ボード915は、無線または有線により、LAN(ローカルエリアネットワーク)、インターネット、WAN(ワイドエリアネットワーク)、電話回線などの通信網に接続されている。   The communication board 915 is connected to a communication network such as a LAN (local area network), the Internet, a WAN (wide area network), and a telephone line by wireless or wired.

ジャイロ4は自己位置標定装置100の搭載された車両の方位角、仰角、回転角の角加速度(以下、レートとする)を計測するセンサである。また、ジャイロ4は後述するように方位角のレートのみ計測する1軸ジャイロであってもよい。
オドメータ5は自己位置標定装置100の搭載された車両の車速に応じてパルス(以下、車速または車速パルスとする)を出力する車速センサである。
カメラ7は自己位置標定装置100の搭載された車両の前方に向けて設置され、車両の進行方向に位置する白線や道路標識を撮像する。カメラ7は単眼カメラで構わない。但し、ステレオカメラであっても構わない。また、カメラ7以外に、白線や標識などの地物との距離を計測するためにレーザレーダを備えても構わない。
GPS受信機1はGPS衛星から測位信号を受信し、GPS衛星が測位信号を発信してから測位信号を受信するまでの時間に基づいて擬似距離を算出したり、擬似距離や受信した測位信号の位相に基づいて自己位置を算出したりする。GPS受信機1は車両には1台備える。GPS観測量として二重位相差を観測する場合、位置座標が既知である車両外の地点にもう一台のGPS受信機を備えておき、そのGPS受信機の観測データを車両に送信して利用する場合もある。
The gyro 4 is a sensor that measures angular acceleration (hereinafter referred to as a rate) of an azimuth angle, an elevation angle, and a rotation angle of a vehicle on which the self-positioning device 100 is mounted. The gyro 4 may be a single-axis gyro that measures only the azimuth rate as will be described later.
The odometer 5 is a vehicle speed sensor that outputs a pulse (hereinafter referred to as a vehicle speed or a vehicle speed pulse) in accordance with the vehicle speed of the vehicle on which the self-positioning device 100 is mounted.
The camera 7 is installed toward the front of the vehicle on which the self-positioning device 100 is mounted, and images white lines and road signs positioned in the traveling direction of the vehicle. The camera 7 may be a monocular camera. However, a stereo camera may be used. In addition to the camera 7, a laser radar may be provided to measure the distance to a feature such as a white line or a sign.
The GPS receiver 1 receives a positioning signal from a GPS satellite, calculates a pseudo distance based on a time from when the GPS satellite transmits a positioning signal to receiving the positioning signal, or calculates the pseudo distance or the received positioning signal. The self-position is calculated based on the phase. One GPS receiver 1 is provided in the vehicle. When observing a double phase difference as a GPS observation amount, another GPS receiver is provided at a point outside the vehicle where the position coordinates are known, and the observation data of the GPS receiver is transmitted to the vehicle for use. There is also a case.

磁気ディスク装置920には、OS921(オペレーティングシステム)、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921により実行される。   The magnetic disk device 920 stores an OS 921 (operating system), a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911 and the OS 921.

上記プログラム群923には、実施の形態において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。   The program group 923 stores a program for executing a function described as “˜unit” in the embodiment. The program is read and executed by the CPU 911.

ファイル群924には、実施の形態において、「〜部」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。測位部110が測位した自己位置・姿勢角、カメラ7が撮像した画像、方位角残差算出部130が方位角の取得に用いる白線情報や標識情報、GPS観測残差算出部120が観測したGPS観測量やGPS観測残差算出部120が算出したGPS観測残差、方位角残差算出部130が画像から得た白線・標識の方位角や方位角残差算出部130が算出した方位角残差などはファイル群924に含まれるものの一例である。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the file group 924, in the embodiment, result data such as “determination result”, “calculation result of”, “processing result of” when executing the function of “to part”, “to part” The data to be passed between programs that execute the function “,” other information, data, signal values, variable values, and parameters are stored as items “˜file” and “˜database”. Self-position / attitude angle measured by positioning unit 110, image captured by camera 7, white line information and sign information used for obtaining azimuth by azimuth residual calculation unit 130, GPS observed by GPS observation residual calculation unit 120 Amount of observation, GPS observation residual calculated by the GPS observation residual calculation unit 120, azimuth residual of the white line / signs obtained from the image by the azimuth residual calculation unit 130, and azimuth residual calculated by the azimuth residual calculation unit 130 The difference is an example of what is included in the file group 924.
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for CPU operations such as calculation, processing, output, printing, and display. Information, data, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory during the CPU operations of extraction, search, reference, comparison, operation, calculation, processing, output, printing, and display. Is remembered.
In addition, arrows in the flowcharts described in the embodiments mainly indicate input / output of data and signals. The data and signal values are the RAM 914 memory, the FDD 904 flexible disk, the CDD 905 compact disk, and the magnetic disk device 920 magnetic field. It is recorded on a recording medium such as a disc, other optical discs, mini discs, DVD (Digital Versatile Disc). Data and signal values are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、実施の形態において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、自己位置標定プログラムは、「〜部」としてコンピュータを機能させるものである。あるいは、「〜部」の手順や方法をコンピュータに実行させるものである。   In addition, what is described as “˜unit” in the embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜procedure”, “˜”. Processing ". That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. In other words, the self-location determination program causes the computer to function as “to part”. Alternatively, the procedure or method of “to part” is executed by a computer.

図4は、実施の形態1における自己位置標定装置100の構成図である。
図1に基づいて説明した自己位置標定装置100の具体例として、測位部110がジャイロ4やオドメータ5を用いたデッドレコニング(Dead Reckoning、推測航法)により測位を行い、GPS観測残差算出部120がGPS観測量として擬似距離を用いて擬似距離残差を算出し、方位角残差算出部130が白線の方位角残差を算出し、誤差推定部140が擬似距離残差と白線方位角残差とを観測量として入力し、測位部110の測位結果に含まれる航法誤差と方位角残差算出部130が白線の撮像に用いたカメラ7のアライメント誤差とを状態量として計算して補正量として出力する構成について、図4に基づいて以下に説明する。
FIG. 4 is a configuration diagram of the self-positioning apparatus 100 according to the first embodiment.
As a specific example of the self-positioning apparatus 100 described with reference to FIG. 1, the positioning unit 110 performs positioning by dead reckoning (dead reckoning) using the gyro 4 and the odometer 5, and the GPS observation residual calculation unit 120. Calculates the pseudorange residual using the pseudorange as the GPS observation amount, the azimuth residual calculation unit 130 calculates the azimuth residual of the white line, and the error estimation unit 140 calculates the pseudorange residual and the white line azimuth residual. The difference is input as an observation amount, and the navigation error included in the positioning result of the positioning unit 110 and the alignment error of the camera 7 used by the azimuth residual calculation unit 130 for imaging the white line are calculated as state quantities, and the correction amount Will be described below with reference to FIG.

図4において、自己位置標定装置100はDR演算部3、ジャイロ4およびオドメータ5を測位部110として備える。
ジャイロ4は、自己位置標定装置100が搭載された車両の方位角のレートを計測する1軸ジャイロである。
オドメータ5は、自己位置標定装置100が搭載された車両の車速を出力する。
DR演算部3は、ジャイロ4が出力した方位角レートとオドメータ5が出力した車速とに基づいて車両の移動量を推測し、推測した移動量を前回の測位結果に反映して車両の位置や方位角を算出するデッドレコニングをCPUを用いて実行する。
In FIG. 4, the self-positioning device 100 includes a DR calculation unit 3, a gyro 4, and an odometer 5 as a positioning unit 110.
The gyro 4 is a uniaxial gyro that measures the rate of the azimuth angle of a vehicle on which the self-positioning device 100 is mounted.
The odometer 5 outputs the vehicle speed of the vehicle on which the self-positioning device 100 is mounted.
The DR calculation unit 3 estimates the amount of movement of the vehicle based on the azimuth rate output from the gyro 4 and the vehicle speed output from the odometer 5, and reflects the estimated amount of movement in the previous positioning result to reflect the position of the vehicle. The dead reckoning for calculating the azimuth angle is executed using the CPU.

また、自己位置標定装置100はGPS受信機1、衛星軌道演算部2、衛星距離計算部21および擬似距離残差計算部22をGPS観測残差算出部120として備え、GPS受信機1および衛星軌道演算部2はGPS観測部121を構成し、衛星距離計算部21はGPS観測量演算部122を構成する。
GPS受信機1は、GPS衛星が発信した測位信号を受信し、GPS衛星が測位信号を発信してから測位信号を受信するまでの時間に基づいて車両とGPS衛星との擬似距離を算出する。また、GPS受信機1は受信した測位信号に含まれるGPS衛星の軌道を示す衛星軌道パラメータを出力する。
衛星軌道演算部2は、GPS受信機1が出力した衛星軌道パラメータに基づいてGPS衛星の位置をCPUを用いて算出する。
衛星距離計算部21は、DR演算部3が算出した車両の位置と衛星軌道演算部2が算出したGPS衛星の位置とに基づいて車両とGPS衛星との距離を衛星距離としてCPUを用いて算出する。
擬似距離残差計算部22は、GPS受信機1が算出した擬似距離と衛星距離計算部21が算出した衛星距離との差分を擬似距離残差としてCPUを用いて算出する。
The self-localization device 100 includes a GPS receiver 1, a satellite orbit calculation unit 2, a satellite distance calculation unit 21, and a pseudorange residual calculation unit 22 as a GPS observation residual calculation unit 120. The calculation unit 2 constitutes a GPS observation unit 121, and the satellite distance calculation unit 21 constitutes a GPS observation amount calculation unit 122.
The GPS receiver 1 receives a positioning signal transmitted from a GPS satellite, and calculates a pseudo distance between the vehicle and the GPS satellite based on a time from when the GPS satellite transmits a positioning signal until the positioning signal is received. Further, the GPS receiver 1 outputs a satellite orbit parameter indicating the orbit of the GPS satellite included in the received positioning signal.
The satellite orbit calculation unit 2 calculates the position of the GPS satellite based on the satellite orbit parameters output from the GPS receiver 1 using the CPU.
The satellite distance calculation unit 21 calculates the distance between the vehicle and the GPS satellite using the CPU as the satellite distance based on the position of the vehicle calculated by the DR calculation unit 3 and the position of the GPS satellite calculated by the satellite orbit calculation unit 2. To do.
The pseudorange residual calculation unit 22 calculates the difference between the pseudorange calculated by the GPS receiver 1 and the satellite distance calculated by the satellite distance calculation unit 21 using the CPU as a pseudorange residual.

また、自己位置標定装置100はカメラ7、画像処理部8、白線情報データベース9、白線方位角取得部23および白線方位角残差計算部24を方位角残差算出部130として備え、カメラ7および画像処理部8は方位角観測部131を構成し、白線情報データベース9および白線方位角取得部23は方位角演算部132を構成する。
カメラ7は車両に対して前方に向けて設置された単眼カメラであり、車両が走行している道路の進行方向を撮像する。
画像処理部8(画像方位角部の一例)は、カメラ7が撮像した画像に映っている白線が成す角度とDR演算部3が算出した車両の方位角とに基づいて画像に映っている白線の方位角を算出する。
白線情報データベース9(方位角データベース、位置データベースの一例)には各白線について位置(座標、レーンなど)や形状(直線、カーブなど)や方位角などの情報が予め記憶されている。例えば、方位角の情報は白線が位置するレーンの通行方向に応じて白線の上流側を基点として白線の下流側(進行先)が向いている方位を示す。図10に、白線と白線(の直線部分)の方位角とレーンの通行方向との関係を示す。白線情報データベース9は、例えば、特許文献6を利用することにより構築できる。特許文献6によって作成されるデータベースは、平面線形については直線/円曲線/クロソイドの3種類、縦断曲線については直線/2次曲線の2種類によって構成される。
白線方位角取得部23(データベース方位角部)は、DR演算部3が算出した車両の位置と方位角とに基づいて白線情報データベース9から車両の進行方向に位置する白線の方位角を取得する。
白線方位角残差計算部24は、画像処理部8が出力した画像に基づく白線の方位角と白線方位角取得部23が出力した白線情報データベース9に基づく白線の方位角との差分を白線方位角残差としてCPUを用いて算出する。
The self-localization device 100 includes a camera 7, an image processing unit 8, a white line information database 9, a white line azimuth angle acquisition unit 23, and a white line azimuth angle residual calculation unit 24 as an azimuth residual calculation unit 130. The image processing unit 8 constitutes an azimuth angle observation unit 131, and the white line information database 9 and the white line azimuth angle acquisition unit 23 constitute an azimuth angle calculation unit 132.
The camera 7 is a monocular camera installed forward with respect to the vehicle, and images the traveling direction of the road on which the vehicle is traveling.
The image processing unit 8 (an example of an image azimuth angle unit) is a white line reflected in the image based on the angle formed by the white line reflected in the image captured by the camera 7 and the azimuth angle of the vehicle calculated by the DR calculation unit 3. The azimuth angle of is calculated.
The white line information database 9 (an example of an azimuth angle database and a position database) stores in advance information such as position (coordinates, lanes, etc.), shape (straight lines, curves, etc.), azimuth, etc., for each white line. For example, the azimuth angle information indicates the azimuth in which the downstream side (travel destination) of the white line is directed from the upstream side of the white line as a base point according to the direction of travel of the lane where the white line is located. FIG. 10 shows the relationship between the azimuth angle of the white line and the white line (the straight line portion thereof) and the lane traffic direction. The white line information database 9 can be constructed by using, for example, Patent Document 6. The database created according to Patent Document 6 is composed of three types of straight line / circular curve / clothoid for plane alignment and two types of straight line / quadratic curve for longitudinal curves.
The white line azimuth angle acquisition unit 23 (database azimuth angle unit) acquires the azimuth angle of the white line located in the traveling direction of the vehicle from the white line information database 9 based on the vehicle position and azimuth angle calculated by the DR calculation unit 3. .
The white line azimuth residual calculation unit 24 calculates the difference between the white line azimuth based on the image output from the image processing unit 8 and the white line azimuth based on the white line information database 9 output from the white line azimuth acquisition unit 23. The angle residual is calculated using the CPU.

また、自己位置標定装置100は拡張カルマンフィルタ6を誤差推定部140として備える。
拡張カルマンフィルタ6は、擬似距離残差計算部22が算出した擬似距離残差と白線方位角残差計算部24が算出した白線方位角残差とを観測量として入力し、DR演算部3のデッドレコニングによる測位結果に含まれる航法誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
In addition, the self-location determining apparatus 100 includes the extended Kalman filter 6 as the error estimation unit 140.
The extended Kalman filter 6 inputs the pseudorange residual calculated by the pseudorange residual calculation unit 22 and the white line azimuth residual calculated by the white line azimuth residual calculation unit 24 as an observation amount, and the deadline of the DR calculation unit 3 The navigation error included in the positioning result by reconning and the alignment error of the camera 7 are calculated as state quantities and output as correction quantities.

図5は、実施の形態1における自己位置標定装置100の自己位置標定方法1を示すフローチャートである。
図4に示した自己位置標定装置100の自己位置標定方法1について、図5に基づいて以下に説明する。
図5において、S210は図2の測位処理(S110)に対応し、S221〜S224は図2のGPS残差算出処理(S120)に対応し、S231〜S234は図2の方位角残差算出処理(S130)に対応し、S240は図2の誤差推定処理(S140)に対応する。
自己位置標定装置100の各部は以下に説明する各処理をCPUを用いて実行する。
FIG. 5 is a flowchart showing the self-positioning method 1 of the self-positioning device 100 according to the first embodiment.
The self-positioning method 1 of the self-positioning device 100 shown in FIG. 4 will be described below based on FIG.
5, S210 corresponds to the positioning process (S110) of FIG. 2, S221 to S224 correspond to the GPS residual calculation process (S120) of FIG. 2, and S231 to S234 are the azimuth residual calculation process of FIG. Corresponding to (S130), S240 corresponds to the error estimation processing (S140) of FIG.
Each unit of the self-positioning apparatus 100 executes each process described below using a CPU.

<S210:測位処理の一例>
まず、DR演算部3はジャイロ4から車両の方位角のレートを、オドメータ5から車両の速度を随時入力する。そして、DR演算部3は方位角のレートと車両の速度とを積分して前回測位時からの移動量を算出し、前回測位した車両の位置および方位角に前回測位時からの移動量を加算して現在の車両の位置および方位角を算出するデッドレコニング処理(または、慣性航法処理)を行う。例えば、DR演算部3は東西南北を基準方位として車両の方位角を算出する。
また、DR演算部3は算出した車両の位置および方位角を拡張カルマンフィルタ6が推定した航法誤差に基づいて補正し、補正した値を車両の位置および方位角として出力する。
<S210: Example of positioning process>
First, the DR calculation unit 3 inputs the vehicle azimuth rate from the gyro 4 and the vehicle speed from the odometer 5 as needed. Then, the DR operation unit 3 integrates the azimuth rate and the vehicle speed to calculate the amount of movement from the previous positioning, and adds the amount of movement from the previous positioning to the position and azimuth of the vehicle measured last time. Then, dead reckoning processing (or inertial navigation processing) for calculating the current position and azimuth of the vehicle is performed. For example, the DR calculation unit 3 calculates the azimuth angle of the vehicle with east, west, south, and north as the reference direction.
The DR operation unit 3 corrects the calculated vehicle position and azimuth based on the navigation error estimated by the extended Kalman filter 6, and outputs the corrected values as the vehicle position and azimuth.

<S221>
また、GPS受信機1は、DR演算部3が測位を行った際にGPS衛星から受信した測位信号に基づいて、DR演算部3が測位を行った際のGPS受信機1(車両)からGPS衛星までの擬似距離と、測位信号が示す衛星軌道パラメータとを出力する。
<S222>
次に、衛星軌道演算部2はGPS受信機1の出力した衛星軌道パラメータに基づいてGPS衛星の位置を算出する。
<S223>
次に、衛星距離計算部21はDR演算部3が測位した車両の位置と衛星軌道演算部2が算出したGPS衛星の位置とに基づいて車両からGPS衛星までの距離を衛星距離として算出する。
<S224>
次に、擬似距離残差計算部22はGPS受信機1が算出した擬似距離と衛星距離計算部21が算出した衛星距離との差分を擬似距離残差として算出する。
<S221>
Further, the GPS receiver 1 receives GPS signals from the GPS receiver 1 (vehicle) when the DR calculation unit 3 performs positioning based on the positioning signal received from the GPS satellite when the DR calculation unit 3 performs positioning. The pseudo distance to the satellite and the satellite orbit parameters indicated by the positioning signal are output.
<S222>
Next, the satellite orbit calculation unit 2 calculates the position of the GPS satellite based on the satellite orbit parameters output from the GPS receiver 1.
<S223>
Next, the satellite distance calculation unit 21 calculates the distance from the vehicle to the GPS satellite as the satellite distance based on the position of the vehicle measured by the DR calculation unit 3 and the position of the GPS satellite calculated by the satellite orbit calculation unit 2.
<S224>
Next, the pseudorange residual calculation unit 22 calculates a difference between the pseudorange calculated by the GPS receiver 1 and the satellite distance calculated by the satellite distance calculation unit 21 as a pseudorange residual.

<S231:撮像処理の一例>
また、DR演算部3が測位を行った際、カメラ7は車両の走行している道路の進行方向を撮像する。
<S232:画像方位角算出処理の一例>
次に、画像処理部8はカメラ7が撮像した画像から画像に映っている道路上の白線を検出する。例えば、画像処理部8は画像を二値化してエッジ部分などの特徴点を抽出し、各特徴点が成す形状や特徴点の位置(路面上か否か)に基づいて画像上の白線を検出する。また例えば、画像処理部8は画像の色情報に基づいて白線を検出する。
そして、画像処理部8は画像上の白線の長さ方向(直線部分)が成す角度(車両に対する白線の相対角度)を算出し、DR演算部3が算出した車両の方位角に画像上の白線の角度を加算して白線の方位角を算出する。もしくは、白線の絶対方位角を直接計算する方法もある。
画像処理部8は、カメラ7の特性に応じて2次元の撮像面に画像として投影された白線について、画像上での白線の角度をカメラ7の特性に応じて実世界の3次元上の角度に変換することにより、実際の白線の相対角、方位角を算出する。
例えば、白線の画像から得られる白線上の複数の点の目視線角の情報と、カメラの道路面からの高さ情報と、道路の形状の情報と、DR演算部3が算出した車両位置および方位角から計算されるカメラの位置座標と向きの情報を用いて、白線上の複数の点の位置座標を計算することで白線の方位角を計算できる。
ここで、カメラ7は撮像方向を車両の進行方向と同じにするように取り付けられているものとする。但し、カメラ7が車両に設置された際に車両に対してカメラ7の設置角に多少のずれが生じることが考えられるため、画像処理部8は拡張カルマンフィルタ6が推定したカメラアライメント誤差を加算して白線の方位角を算出することも可能である。その場合は、カメラアライメント誤差を推定する場合には車両の左右両方の白線を検出して角度を算出する必要がある。
<S233:データベース方位角取得処理の一例>
次に、白線方位角取得部23は、DR演算部3が測位した車両の位置および方位角に基づいて、車両の進行方向に位置する白線の方位角を白線情報データベース9から取得する。つまり、白線方位角取得部23はカメラ7が撮像した画像に映っている白線について白線情報データベース9から方位角を取得する。例えば、白線情報データベース9は東西南北を基準方位として白線の方位角を示している。
<S234:方位角残差算出処理の一例>
次に、白線方位角残差計算部24は画像処理部8が画像に基づいて算出した白線の方位角と白線方位角取得部23が白線情報データベース9から取得した白線の方位角との差分を白線方位角残差として算出する。
<S231: Example of Imaging Process>
Further, when the DR calculation unit 3 performs positioning, the camera 7 images the traveling direction of the road on which the vehicle is traveling.
<S232: Example of Image Azimuth Calculation Processing>
Next, the image processing unit 8 detects a white line on the road shown in the image from the image captured by the camera 7. For example, the image processing unit 8 binarizes the image and extracts feature points such as edge portions, and detects a white line on the image based on the shape formed by each feature point and the position of the feature point (whether or not it is on the road surface) To do. For example, the image processing unit 8 detects a white line based on the color information of the image.
Then, the image processing unit 8 calculates the angle formed by the length direction (straight line portion) of the white line on the image (the relative angle of the white line with respect to the vehicle), and the white line on the image is set at the azimuth angle of the vehicle calculated by the DR calculation unit 3. Are added to calculate the azimuth angle of the white line. Alternatively, there is a method of directly calculating the absolute azimuth angle of the white line.
For the white line projected as an image on the two-dimensional imaging surface according to the characteristics of the camera 7, the image processing unit 8 determines the angle of the white line on the image according to the characteristics of the camera 7 and the three-dimensional angle in the real world. The relative angle and azimuth angle of the actual white line are calculated by converting to.
For example, the information on the visual line angle of a plurality of points on the white line obtained from the image of the white line, the height information from the road surface of the camera, the information on the shape of the road, the vehicle position calculated by the DR calculation unit 3, and The azimuth angle of the white line can be calculated by calculating the position coordinates of a plurality of points on the white line using the camera position coordinates and orientation information calculated from the azimuth angle.
Here, it is assumed that the camera 7 is attached so that the imaging direction is the same as the traveling direction of the vehicle. However, when the camera 7 is installed in the vehicle, it may be possible that the installation angle of the camera 7 is slightly deviated from the vehicle. Therefore, the image processing unit 8 adds the camera alignment error estimated by the extended Kalman filter 6. It is also possible to calculate the azimuth angle of the white line. In that case, when estimating the camera alignment error, it is necessary to calculate the angle by detecting both the left and right white lines of the vehicle.
<S233: Example of database azimuth angle acquisition process>
Next, the white line azimuth angle acquisition unit 23 acquires from the white line information database 9 the azimuth angle of the white line located in the traveling direction of the vehicle based on the vehicle position and azimuth angle measured by the DR calculation unit 3. That is, the white line azimuth angle acquisition unit 23 acquires the azimuth angle from the white line information database 9 for the white line reflected in the image captured by the camera 7. For example, the white line information database 9 indicates the azimuth angle of the white line with east, west, south, and north as reference orientations.
<S234: Example of azimuth residual calculation process>
Next, the white line azimuth residual calculation unit 24 calculates the difference between the white line azimuth calculated by the image processing unit 8 based on the image and the white line azimuth obtained by the white line azimuth acquisition unit 23 from the white line information database 9. Calculated as white line azimuth residual.

<S240:誤差推定処理の一例>
そして、拡張カルマンフィルタ6は擬似距離残差計算部22が算出した擬似距離残差と白線方位角残差計算部24が算出した白線方位角残差とを観測量として入力し、DR演算部3の測位結果に含まれる航法誤差とDR計算に用いられるジャイロ4の誤差とDR計算に用いられるオドメータ5の誤差とGPS受信機1のGPSクロック誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
<S240: Example of Error Estimation Process>
Then, the extended Kalman filter 6 receives the pseudorange residual calculated by the pseudorange residual calculation unit 22 and the white line azimuth residual calculated by the white line azimuth residual calculation unit 24 as observation amounts. The navigation error included in the positioning result, the error of the gyro 4 used for the DR calculation, the error of the odometer 5 used for the DR calculation, the GPS clock error of the GPS receiver 1, and the alignment error of the camera 7 are calculated as state quantities. Output as correction amount.

DR演算部3は拡張カルマンフィルタ6が出力した航法誤差に基づいて測位した車両の位置および方位角を補正し、補正した車両の位置および方位角を出力する。
また、画像処理部8は拡張カルマンフィルタ6が出力したカメラアライメント誤差に基づいてカメラ7の車両に対する設置角を算出し、次回、算出したカメラ7の設置角に基づいて画像に映る白線の方位角を算出する。
The DR calculation unit 3 corrects the position and azimuth of the vehicle measured based on the navigation error output from the extended Kalman filter 6 and outputs the corrected position and azimuth of the vehicle.
Further, the image processing unit 8 calculates the installation angle of the camera 7 with respect to the vehicle based on the camera alignment error output by the extended Kalman filter 6, and next time, calculates the azimuth angle of the white line reflected in the image based on the calculated installation angle of the camera 7. calculate.

カルマンフィルタは1960年にKalmanが提唱したアルゴリズムで、計算により求める物理量(状態量と呼ぶ)のダイナミクス(時間発展、時間変化)を線形モデルで与え、状態量の誤差の確率分布関数をガウス分布であるとした場合に、推定誤差を最小とする解を与えるものである。ここで推定誤差を最小にするとは、状態量に選んだ変数(例えば、航法誤差、カメラアライメント誤差、自己位置・姿勢角)のダイナミクスも考慮して残差の二乗和が最小になるように解を推定することを意味する。
一般的なカルマンフィルタの基本方程式は、離散時間系(discrete time system)の場合、以下の状態方程式(式1)と観測方程式(式2)とで表される。
The Kalman filter is an algorithm proposed by Kalman in 1960. It gives the dynamics (time evolution, time change) of the physical quantity (called state quantity) calculated by a linear model, and the probability distribution function of the state quantity error is a Gaussian distribution. In this case, a solution that minimizes the estimation error is given. Here, minimizing the estimation error means that the residual sum of squares is minimized by taking into account the dynamics of the variables selected for the state variables (for example, navigation error, camera alignment error, self-position / attitude angle). Is estimated.
In the case of a discrete time system, a basic equation of a general Kalman filter is expressed by the following state equation (Equation 1) and observation equation (Equation 2).

Figure 2008249639
Figure 2008249639

特に、拡張カルマンフィルタ6(Extended Kalman Filter,EKF)は、系の方程式が非線形の場合に、現在の推定量のまわりで線形化した方程式を作り、それをもとに上記基本方程式を構成したカルマンフィルタである。
すなわち、xとzが、以下の式3、式4のように、それぞれxk−1,u,wの関数fおよびx,vの関数hとして表される場合、Jacobianを使って式5、式6のように線形化する。
In particular, the extended Kalman filter 6 (Extended Kalman Filter, EKF) is a Kalman filter that creates an equation linearized around the current estimator when the system equation is nonlinear and constructs the above basic equation based on the equation. is there.
That is, when x and z are expressed as a function f of x k−1 , u k , and w k and a function h of x k , v k , respectively, as shown in the following expressions 3 and 4, the Jacobian is used. Then, linearization is performed as shown in Equation 5 and Equation 6.

Figure 2008249639
Figure 2008249639

そして、状態方程式(式7)と観測方程式(式8)とは、式5、式6に示す線形化によって得られたFとHとを用いて次のように表される。   The equation of state (Equation 7) and the observation equation (Equation 8) are expressed as follows using F and H obtained by linearization shown in Equations 5 and 6.

Figure 2008249639
Figure 2008249639

また、カルマンフィルタの演算は時間伝播(Time Update)と観測更新(Measurement Update)とからなる。   In addition, the Kalman filter operation includes time propagation and observation update.

まず、状態量xの誤差共分散行列Pの時間伝播は、システムのダイナミクスを表す行列Fを用いて以下の式9および式10で表される。
式9については、例えば、第二項あるいは第三項までを使って近似計算する。
First, the time propagation of the error covariance matrix P of the state quantity x is expressed by the following equations 9 and 10 using the matrix F representing the dynamics of the system.
For Equation 9, for example, approximate calculation is performed using the second term or up to the third term.

Figure 2008249639
Figure 2008249639

また、観測更新は以下の式11〜式13で計算される。   In addition, the observation update is calculated by the following equations 11 to 13.

Figure 2008249639
Figure 2008249639

以上の各式において、実施の形態1では、DR演算部3の測位した自己位置や方位角に含まれる航法誤差と航法計算に利用するセンサ(ジャイロ4、オドメータ5、GPSクロックなど)の誤差とカメラ7のアライメント誤差とが状態量xに対応し、擬似距離残差と白線方位角残差とが観測残差Δzに対応する。
拡張カルマンフィルタ6は、以上の各式および理論に基づいて、航法誤差およびカメラアライメント誤差を推定する。
In each of the above equations, in the first embodiment, the navigation error included in the self-position and azimuth angle measured by the DR calculation unit 3 and the error of the sensor (gyro 4, odometer 5, GPS clock, etc.) used for the navigation calculation The alignment error of the camera 7 corresponds to the state quantity x, and the pseudorange residual and the white line azimuth angle residual correspond to the observation residual Δz.
The extended Kalman filter 6 estimates the navigation error and the camera alignment error based on the above equations and theories.

実施の形態1では、以下のような自己位置標定装置100について説明した。
実施の形態1における自己位置標定装置100は、ハードウェアとして、既存のカーナビレベルのハードウェア構成(GPS受信機1+1軸ジャイロ4+車速パルス[オドメータ5])以外に、単眼カメラ7を備える。
また、実施の形態1における自己位置標定装置100は、カメラ7の画像から白線の方位角を得る画像処理部8と、道路線形データベース(白線情報データベース9)と、そのデータから白線の直線部分の方位角を計算する方位角算出部(白線方位角取得部23)と、自己位置・姿勢角を算出するためのDR演算部3と拡張カルマンフィルタ6とを備える。
道路線形データベースは一から構築する必要はなく、すでに実用化段階に入っている特許文献6により構築されたデータベースに対して、白線の直線部分を示すデータに新たに方位角を加えるだけでよいところが特徴である。また、自己位置標定装置100が使用するカメラ7も単眼でよく低価格のものを利用できる点が特徴である。
DR演算部3は、慣性装置(1軸ジャイロ4(方位角方向))と、車速パルスデータを利用してデッドレコニング計算を行う。そして、拡張カルマンフィルタ6は、GPS観測データと上記白線方位角データとを観測量として自己位置・姿勢角の誤差推定を行ってDR演算部3の自己位置標定精度を向上させる。
つまり、実施の形態1で説明した白線の方位角を自己位置補正に利用する方式では、ハードウェアの構成として単眼のカメラ7を1台追加するだけでよい利点がある。つまり、実施の形態1における自己位置標定装置100は自己位置から白線までの距離を観測するためのステレオカメラやレーザレーダなどが不要である。また、白線の直線部分の角度(白線の方位角)が単眼カメラ7で撮像した画像から比較的正確に検出でき、一度計測され道路線形データベースに記録された方位角は地球の地殻変動による劣化がほとんどないことも白線の方位角を自己位置補正に利用する利点の一つである。言い換えると、道路の座標のデータベースを正確に作るのは難しく、現在使われているカーナビゲーション用のデジタル地図データの座標精度を考慮すると、座標または座標に基づいて算出される距離を自己位置補正に利用する方式ではデシメートル級の座標精度を達成するのは困難である。
このような事情を考慮すると、白線の方位角データを利用する実施の形態1における方式は有望な自己位置標定手法であると言える。
In the first embodiment, the following self-positioning apparatus 100 has been described.
The self-positioning device 100 according to the first embodiment includes a monocular camera 7 as hardware, in addition to the existing hardware configuration at the car navigation level (GPS receiver 1 + 1 axis gyro 4 + vehicle speed pulse [odometer 5]).
In addition, the self-localization device 100 according to the first embodiment includes an image processing unit 8 that obtains the azimuth angle of the white line from the image of the camera 7, a road linear database (white line information database 9), and a straight line portion of the white line from the data. An azimuth angle calculation unit (white line azimuth angle acquisition unit 23) that calculates an azimuth angle, a DR operation unit 3 for calculating a self-position / attitude angle, and an extended Kalman filter 6 are provided.
The road alignment database does not need to be constructed from scratch, but it is only necessary to add a new azimuth to the data indicating the straight line portion of the white line, compared to the database constructed according to Patent Document 6 which has already entered the practical use stage. It is a feature. Further, the camera 7 used by the self-positioning apparatus 100 is also characterized in that it can be monocular and can be used at a low price.
The DR calculation unit 3 performs dead reckoning calculation using an inertial device (one-axis gyro 4 (azimuth angle direction)) and vehicle speed pulse data. Then, the extended Kalman filter 6 performs self-position / attitude angle error estimation using the GPS observation data and the white line azimuth angle data as observation amounts, and improves the self-positioning accuracy of the DR operation unit 3.
In other words, the method of using the white line azimuth described in the first embodiment for self-position correction has an advantage that only one monocular camera 7 needs to be added as a hardware configuration. That is, the self-positioning apparatus 100 according to Embodiment 1 does not require a stereo camera or a laser radar for observing the distance from the self-position to the white line. In addition, the angle of the straight line portion of the white line (the azimuth angle of the white line) can be detected relatively accurately from the image captured by the monocular camera 7, and the azimuth angle once measured and recorded in the road linear database is deteriorated due to the earth's crustal movement. It is one of the advantages that the white line azimuth is used for self-position correction. In other words, it is difficult to accurately create a database of road coordinates, and taking into account the coordinate accuracy of digital map data for car navigation currently used, the coordinates or distances calculated based on the coordinates can be used for self-position correction. It is difficult to achieve decimeter-level coordinate accuracy with the method used.
Considering such circumstances, it can be said that the method in the first embodiment using the azimuth angle data of the white line is a promising self-positioning method.

また、実施の形態1の自己位置標定手法は、白線の直線部のような車両移動方向に対して画像エッジ位置の変化率が小さい特徴量をランドマークとしているため、低価格単眼カメラ+低価格画像処理器で十分に精度が出せる点が特徴である。
また、実施の形態1では、車載カメラ7の取り付け角誤差(アライメント誤差)も拡張カルマンフィルタ6で推定し、その誤差を補正できる。このため、アライメントの厳しいステレオカメラが用いられる場合でも自己位置標定精度を高めることができる。
In addition, the self-positioning method according to the first embodiment uses a feature amount having a small change rate of the image edge position in the vehicle movement direction as a straight line portion of a white line as a landmark, and therefore, a low price monocular camera + low price The feature is that the image processor can provide sufficient accuracy.
In the first embodiment, the mounting angle error (alignment error) of the in-vehicle camera 7 can be estimated by the extended Kalman filter 6 and the error can be corrected. For this reason, even when a stereo camera with strict alignment is used, the self-positioning accuracy can be increased.

実施の形態1に示した自己位置標定方法により、既存のカーナビレベルのハードウェア構成に単眼カメラ7を加え、道路線形データベースとGPS/DR/画像複合アルゴリズムを適用するだけで、都市部やトンネル内等における自己位置標定精度を向上させることができる。   By adding the monocular camera 7 to the existing car navigation level hardware configuration and applying the road alignment database and GPS / DR / image composite algorithm by the self-localization method shown in the first embodiment, It is possible to improve the self-localization accuracy in such as.

実施の形態2.
実施の形態2では、前記実施の形態1において図1に基づいて説明した自己位置標定装置100の具体例として、方位角残差算出部130が、白線の方位角の代わりに、車両から見た道路標識の位置する方向(以下、標識の方位角という)についての残差(以下、標識方位角残差という)を算出する形態について説明する。
また、実施の形態2において、方位角残差算出部130は車両から道路標識までの距離(以下、標識距離という)についての残差(以下、標識距離残差という)を算出する。そして、誤差推定部140は擬似距離残差と標識方位角残差と標識距離残差とを観測量として入力して航法誤差とカメラアライメント誤差とを算出する。
以下、前記実施の形態1と異なる事項について説明し、説明を省略した事項については前記実施の形態1と同様とする。
Embodiment 2. FIG.
In the second embodiment, as a specific example of the self-positioning device 100 described with reference to FIG. 1 in the first embodiment, the azimuth residual calculation unit 130 is viewed from the vehicle instead of the white line azimuth. A mode for calculating a residual (hereinafter referred to as a sign azimuth residual) in a direction in which the road sign is located (hereinafter referred to as a sign azimuth) will be described.
In the second embodiment, the azimuth residual calculation unit 130 calculates a residual (hereinafter referred to as a sign distance residual) for a distance from the vehicle to the road sign (hereinafter referred to as a sign distance). Then, the error estimating unit 140 calculates the navigation error and the camera alignment error by inputting the pseudorange residual, the sign azimuth residual, and the sign distance residual as observation quantities.
Hereinafter, matters different from those of the first embodiment will be described, and items omitted from the description will be the same as those of the first embodiment.

図6は、実施の形態2における自己位置標定装置100の構成図である。
図6において、実施の形態2における自己位置標定装置100は、前記実施の形態1における自己位置標定装置100に対して、白線情報データベース9、白線方位角取得部23および白線方位角残差計算部24の代わりに標識情報データベース11、標識方位角・距離算出部31および標識方位角・距離残差計算部32を備える点を特徴とする。
また、実施の形態2における自己位置標定装置100は、画像処理部8が、白線の方位角の代わりに、カメラ7の撮像した画像に映っている道路標識について、車両に対する道路標識の位置する方向を示す標識の方位角と、車両から道路標識までの距離を示す標識距離とを算出することを特徴とする。
FIG. 6 is a configuration diagram of the self-positioning apparatus 100 according to the second embodiment.
In FIG. 6, the self-localization device 100 according to the second embodiment is different from the self-localization device 100 according to the first embodiment in the white line information database 9, the white line azimuth angle obtaining unit 23, and the white line azimuth angle residual calculation unit. 24, a sign information database 11, a sign azimuth / distance calculator 31, and a sign azimuth / distance residual calculator 32 are provided.
In the self-localization device 100 according to the second embodiment, the image processing unit 8 uses the direction of the road sign relative to the vehicle for the road sign reflected in the image captured by the camera 7 instead of the azimuth angle of the white line. An azimuth angle of the sign indicating, and a sign distance indicating a distance from the vehicle to the road sign are calculated.

標識情報データベース11(位置データベースの一例)には各道路標識の位置情報が予め記憶されている。例えば、道路標識を含む各種ランドマークの位置情報が登録されカーナビゲーションシステムに一般的に用いられている道路情報データベースを標識情報データベース11として利用することができる。   In the sign information database 11 (an example of a position database), position information of each road sign is stored in advance. For example, a road information database in which position information of various landmarks including road signs is registered and generally used in a car navigation system can be used as the sign information database 11.

標識方位角・距離算出部31(データベース距離部の一例)は、DR演算部3が算出した車両の位置および方位角に基づいて、標識情報データベース11から車両の進行方向に位置する道路標識の位置情報を取得し、車両の進行方向に位置する道路標識について方位角と距離とをCPUを用いて算出する。   The sign azimuth / distance calculation unit 31 (an example of the database distance unit) is based on the position and azimuth of the vehicle calculated by the DR calculation unit 3 and the position of the road sign located in the traveling direction of the vehicle from the sign information database 11. Information is acquired, and the azimuth and distance of the road sign located in the traveling direction of the vehicle are calculated using the CPU.

標識方位角・距離残差計算部32(距離残差算出部の一例)は、画像処理部8(画像距離部の一例)が算出した画像に基づく標識の方位角と標識方位角・距離算出部31が算出した標識情報データベース11に基づく標識の方位角との差分を標識方位角残差としてCPUを用いて算出する。また、標識方位角・距離残差計算部32は画像処理部8が算出した画像に基づく標識距離と標識方位角・距離算出部31が算出した標識情報データベース11に基づく標識距離との差分を標識距離残差としてCPUを用いて算出する。   The sign azimuth / distance residual calculation unit 32 (an example of the distance residual calculation unit) is a sign azimuth and a sign azimuth / distance calculation unit based on the image calculated by the image processing unit 8 (an example of the image distance unit). The difference with the azimuth angle of the sign based on the sign information database 11 calculated by 31 is calculated as the sign azimuth residual using the CPU. Also, the sign azimuth / distance residual calculation unit 32 signs the difference between the sign distance based on the image calculated by the image processing unit 8 and the sign distance based on the sign information database 11 calculated by the sign azimuth / distance calculation unit 31. The distance residual is calculated using the CPU.

図7は、実施の形態2における自己位置標定装置100の自己位置標定方法2を示すフローチャートである。
図7において、S310は図2の測位処理(S110)に対応し、S321〜S324は図2のGPS残差算出処理(S120)に対応し、S331〜S334bは図2の方位角残差算出処理(S130)に対応し、S340は図2の誤差推定処理(S140)に対応する。
自己位置標定装置100の各部は以下に説明する各処理をCPUを用いて実行する。
FIG. 7 is a flowchart showing the self-positioning method 2 of the self-positioning device 100 according to the second embodiment.
7, S310 corresponds to the positioning process (S110) of FIG. 2, S321 to S324 correspond to the GPS residual calculation process (S120) of FIG. 2, and S331 to S334b are the azimuth residual calculation process of FIG. Corresponding to (S130), S340 corresponds to the error estimation processing (S140) of FIG.
Each unit of the self-positioning apparatus 100 executes each process described below using a CPU.

<S310〜S324>
測位処理(S110)およびGPS残差算出処理(S120)に関するS310〜S324は、前記実施の形態1における自己位置標定方法1(図5参照)のS210〜S224と同じである。
<S310 to S324>
S310 to S324 related to the positioning process (S110) and the GPS residual calculation process (S120) are the same as S210 to S224 of the self-positioning method 1 (see FIG. 5) in the first embodiment.

<S331:撮像処理の一例>
DR演算部3が測位を行った際、カメラ7は車両が走行している道路の進行方向を撮像する。
<S331: Example of Imaging Process>
When the DR calculation unit 3 performs positioning, the camera 7 images the traveling direction of the road on which the vehicle is traveling.

<S332a:画像方位角算出処理の一例>
次に、画像処理部8はカメラ7が撮像した画像から画像に映っている道路標識を検出する。例えば、画像処理部8は、画像を二値化して抽出した特徴点が成す形状に基づいて特定形状のマークを表示する道路標識を検出する。また例えば、画像処理部8は画像に対して文字認識処理を行い、認識した文字情報に基づいて特定文字列を表示する道路標識を検出する。
そして、画像処理部8は画像上の道路標識の位置(道路標識の画素位置)に基づいて車両から見た道路標識の位置する方向を示す相対角を算出し、DR演算部3が算出した車両の方位角に画像上の道路標識の相対角を加算して車両を基点として道路標識が位置する方向を示す標識の方位角を算出する。例えば、画像処理部8は画像の中心から道路標識が位置する画素位置までの水平方向の画素数に1画素が成す角度を乗じて画像に映っている道路標識の車両に対する実際の相対角を算出する。各画素に相当する角度はカメラのパラメータ(例えば、焦点距離)に依存し、カメラのパラメータに基づいて算出される。画像処理部8は、カメラ7の特性に応じて2次元の撮像面に画像として投影された標識について、画像上での標識の位置をカメラ7の特性に応じて実世界の3次元上の位置に変換することにより、実際の標識の方位角および距離を算出する。
<S332b:画像距離算出処理の一例>
また、画像処理部8は画像上の道路標識の位置に基づいて車両から道路標識までの標識距離を算出する。
例えば、画像処理部8はカメラ7が連続する異なる時刻に撮像した2枚の画像を用いてモーションステレオ視処理を行い車両から道路標識までの標識距離を算出する。
<S332a: Example of Image Azimuth Calculation Processing>
Next, the image processing unit 8 detects a road sign reflected in the image from the image captured by the camera 7. For example, the image processing unit 8 detects a road sign that displays a mark of a specific shape based on the shape formed by the feature points extracted by binarizing the image. Further, for example, the image processing unit 8 performs a character recognition process on the image, and detects a road sign displaying a specific character string based on the recognized character information.
Then, the image processing unit 8 calculates a relative angle indicating the direction in which the road sign is viewed from the vehicle based on the position of the road sign on the image (pixel position of the road sign), and the vehicle calculated by the DR calculation unit 3 The relative angle of the road sign on the image is added to the azimuth angle to calculate the azimuth angle of the sign indicating the direction in which the road sign is located from the vehicle. For example, the image processing unit 8 calculates the actual relative angle of the road sign shown in the image with respect to the vehicle by multiplying the number of pixels in the horizontal direction from the center of the image to the pixel position where the road sign is located by an angle formed by one pixel. To do. The angle corresponding to each pixel depends on a camera parameter (for example, focal length) and is calculated based on the camera parameter. For the sign projected as an image on the two-dimensional imaging surface according to the characteristics of the camera 7, the image processing unit 8 determines the position of the sign on the image in the three-dimensional position in the real world according to the characteristics of the camera 7. The actual azimuth angle and distance of the sign are calculated by converting to.
<S332b: Example of Image Distance Calculation Processing>
Further, the image processing unit 8 calculates a sign distance from the vehicle to the road sign based on the position of the road sign on the image.
For example, the image processing unit 8 performs motion stereo vision processing using two images taken by the camera 7 at different successive times, and calculates the sign distance from the vehicle to the road sign.

<S333a>
次に、標識方位角・距離算出部31は、DR演算部3が測位した車両の位置および方位角に基づいて、車両の進行方向に位置する道路標識の位置情報を標識情報データベース11から取得する。つまり、標識方位角・距離算出部31はカメラ7が撮像した画像に映っている道路標識について標識情報データベース11から位置情報を取得する。
<S333b>
次に、標識方位角・距離算出部31は、標識情報データベース11から取得した道路標識の位置とDR演算部3が算出した車両の位置とに基づいて車両から見て道路標識が位置する相対角を算出し、DR演算部3が算出した車両の方位角に車両から見た道路標識の相対角を加算して車両を基点とした道路標識の方位角を算出する。
<S333c>
また、標識方位角・距離算出部31は、標識情報データベース11から取得した道路標識の位置とDR演算部3が算出した車両の位置とに基づいて、車両から道路標識までの標識距離を算出する。
<S333a>
Next, the sign azimuth / distance calculation unit 31 acquires the position information of the road sign located in the traveling direction of the vehicle from the sign information database 11 based on the position and azimuth of the vehicle measured by the DR calculation unit 3. . That is, the sign azimuth / distance calculation unit 31 acquires position information from the sign information database 11 for the road sign reflected in the image captured by the camera 7.
<S333b>
Next, the sign azimuth / distance calculation unit 31 is based on the position of the road sign acquired from the sign information database 11 and the position of the vehicle calculated by the DR calculation unit 3. And the relative angle of the road sign seen from the vehicle is added to the azimuth of the vehicle calculated by the DR calculation unit 3 to calculate the azimuth of the road sign with the vehicle as the base point.
<S333c>
Further, the sign azimuth / distance calculation unit 31 calculates the sign distance from the vehicle to the road sign based on the position of the road sign acquired from the sign information database 11 and the position of the vehicle calculated by the DR calculation unit 3. .

<S334a>
次に、標識方位角・距離残差計算部32は画像処理部8が画像に基づいて算出した標識の方位角と標識方位角・距離算出部31が標識情報データベース11に基づいて算出した標識の方位角との差分を標識方位角残差として算出する。
<S334b>
また、標識方位角・距離残差計算部32は画像処理部8が画像に基づいて算出した標識距離と標識方位角・距離算出部31が標識情報データベース11に基づいて算出した標識距離との差分を標識距離残差として算出する。
<S334a>
Next, the sign azimuth / distance residual calculation unit 32 calculates the sign azimuth calculated by the image processing unit 8 based on the image and the sign azimuth / distance calculation unit 31 calculated based on the sign information database 11. The difference from the azimuth is calculated as the sign azimuth residual.
<S334b>
Also, the sign azimuth / distance residual calculation unit 32 calculates the difference between the sign distance calculated by the image processing unit 8 based on the image and the sign distance calculated by the sign azimuth / distance calculation unit 31 based on the sign information database 11. Is calculated as the marker distance residual.

<S340>
そして、拡張カルマンフィルタ6は擬似距離残差計算部22が算出した擬似距離残差と標識方位角・距離残差計算部32が算出した標識方位角残差および標識距離残差とを観測量として入力し、DR演算部3の測位結果に含まれる航法誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
<S340>
The extended Kalman filter 6 inputs the pseudorange residual calculated by the pseudorange residual calculation unit 22, the sign azimuth residual and the sign distance residual calculated by the sign azimuth / distance residual calculation unit 32 as observation quantities. Then, the navigation error included in the positioning result of the DR calculation unit 3 and the alignment error of the camera 7 are calculated as state quantities and output as correction amounts.

実施の形態2では、以下のような自己位置標定装置100について説明した。
実施の形態2における自己位置標定装置100は、ハードウェアとして、既存のカーナビレベルのハードウェア構成(GPS受信機1+1軸ジャイロ4+車速パルス[オドメータ5])以外に、単眼カメラ7を備える。
また、実施の形態2における自己位置標定装置100は、カメラ7の画像から「車両−標識間の距離」および「車両から見た標識の相対方位角」を得る画像処理部8と、標識座標のデータベース(標識情報データベース11)と、自己位置・姿勢角を算出するためのDR演算部3と拡張カルマンフィルタ6とを備える。
DR演算部3は、慣性装置(1軸ジャイロ4(方位角方向))と、車速パルスデータを利用してデッドレコニング計算を行う。そして、拡張カルマンフィルタ6は、GPS観測データと上記標識データとを観測量として自己位置・姿勢角の誤差推定を行ってDR演算部3の自己位置標定精度を向上させる。
In the second embodiment, the following self-positioning device 100 has been described.
The self-positioning device 100 according to the second embodiment includes a monocular camera 7 as hardware, in addition to the existing hardware configuration of a car navigation level (GPS receiver 1 + 1 axis gyro 4 + vehicle speed pulse [odometer 5]).
In addition, the self-positioning device 100 according to the second embodiment includes an image processing unit 8 that obtains “the distance between the vehicle and the sign” and “the relative azimuth angle of the sign as seen from the vehicle” from the image of the camera 7, and the sign coordinates. A database (sign information database 11), a DR operation unit 3 for calculating a self-position / attitude angle, and an extended Kalman filter 6 are provided.
The DR calculation unit 3 performs dead reckoning calculation using an inertial device (one-axis gyro 4 (azimuth angle direction)) and vehicle speed pulse data. Then, the extended Kalman filter 6 estimates the self-position / attitude angle error using the GPS observation data and the marker data as observation quantities, and improves the self-positioning accuracy of the DR calculation unit 3.

実施の形態3.
実施の形態3では、前記実施の形態1において図1に基づいて説明した自己位置標定装置100の具体例として、方位角残差算出部130が前記実施の形態1で説明した白線方位角残差と前記実施の形態2で説明した標識方位角残差および標識距離残差とを算出する形態について説明する。
また、実施の形態3において、測位部110はデッドレコニングにより算出した自己位置を道路データベース49のデータを利用したマップマッチングにより補正して自己位置を算出する。
また、実施の形態3において、誤差推定部140は擬似距離残差と白線方位角残差と標識方位角残差と標識距離残差とを観測量として入力して航法誤差とカメラアライメント誤差とを算出する。
以下、前記実施の形態1および前記実施の形態2と異なる事項について説明し、説明を省略した事項については前記実施の形態1または前記実施の形態2と同様とする。
Embodiment 3 FIG.
In the third embodiment, as a specific example of the self-positioning apparatus 100 described with reference to FIG. 1 in the first embodiment, the azimuth residual calculation unit 130 performs the white line azimuth residual described in the first embodiment. A mode for calculating the sign azimuth residual and the sign distance residual described in the second embodiment will be described.
In the third embodiment, the positioning unit 110 calculates the self position by correcting the self position calculated by dead reckoning by map matching using data in the road database 49.
In the third embodiment, the error estimation unit 140 inputs the pseudorange residual, the white line azimuth residual, the sign azimuth residual, and the sign distance residual as observation amounts, and calculates a navigation error and a camera alignment error. calculate.
Hereinafter, matters different from those in the first embodiment and the second embodiment will be described, and items that are not described here are the same as those in the first embodiment or the second embodiment.

図8は、実施の形態3における自己位置標定装置100の構成図である。
図8において、実施の形態3における自己位置標定装置100は、前記実施の形態1における自己位置標定装置100に対して、白線情報データベース9、白線方位角取得部23および白線方位角残差計算部24の代わりに道路データベース49、方位角・距離算出部41および方位角・距離残差算出部42を備える点を特徴とする。
また、実施の形態3における自己位置標定装置100は、DR演算部3が車両の位置する周辺の道路情報を道路データベース49から取得してマップマッチングにより車両の位置を補正することを特徴とする。
FIG. 8 is a configuration diagram of the self-positioning apparatus 100 according to the third embodiment.
In FIG. 8, the self-positioning device 100 according to the third embodiment is different from the self-positioning device 100 according to the first embodiment in that the white line information database 9, the white line azimuth angle obtaining unit 23, and the white line azimuth angle residual calculating unit. 24, a road database 49, an azimuth / distance calculation unit 41, and an azimuth / distance residual calculation unit 42 are provided.
Further, the self-location locating apparatus 100 according to Embodiment 3 is characterized in that the DR calculation unit 3 acquires road information around the vehicle from the road database 49 and corrects the position of the vehicle by map matching.

道路データベース49には前記実施の形態1で説明した白線情報データベース9の白線情報や前記実施の形態2で説明した道路標識情報や道路のレーン情報(例えば、位置、幅、上り下り)などの各種道路情報が予め記憶されている。   The road database 49 includes various information such as white line information in the white line information database 9 described in the first embodiment, road sign information described in the second embodiment, and road lane information (for example, position, width, up and down). Road information is stored in advance.

方位角・距離算出部41は、DR演算部3が算出した車両の位置および方位角に基づいて、道路データベース49から車両の進行方向に位置する白線の方位角と車両の進行方向に位置する道路標識の位置情報とを取得し、車両の進行方向に位置する道路標識の方位角と車両から道路標識までの標識距離とをCPUを用いて算出する。   The azimuth / distance calculation unit 41 is based on the position and azimuth of the vehicle calculated by the DR calculation unit 3, and the road located in the azimuth angle of the white line located in the traveling direction of the vehicle and the traveling direction of the vehicle from the road database 49. The sign position information is acquired, and the azimuth angle of the road sign located in the traveling direction of the vehicle and the sign distance from the vehicle to the road sign are calculated using the CPU.

方位角・距離残差算出部42は、画像処理部8が算出した画像に基づく白線の方位角と方位角・距離算出部41が取得した道路データベース49に基づく白線の方位角との差分を白線方位角残差としてCPUを用いて算出する。また、方位角・距離残差算出部42は、画像処理部8が算出した画像に基づく標識の方位角と方位角・距離算出部41が算出した道路データベース49に基づく標識の方位角との差分を標識方位角残差としてCPUを用いて算出する。また、方位角・距離残差算出部42は画像処理部8が算出した画像に基づく標識距離と方位角・距離算出部41が算出した道路データベース49に基づく標識距離との差分を標識距離残差としてCPUを用いて算出する。   The azimuth / distance residual calculation unit 42 calculates the difference between the azimuth angle of the white line based on the image calculated by the image processing unit 8 and the azimuth angle of the white line based on the road database 49 acquired by the azimuth / distance calculation unit 41. An azimuth residual is calculated using a CPU. Further, the azimuth / distance residual calculation unit 42 is a difference between the azimuth angle of the sign based on the image calculated by the image processing unit 8 and the azimuth angle of the sign based on the road database 49 calculated by the azimuth / distance calculation unit 41. Is calculated using the CPU as the sign azimuth residual. The azimuth / distance residual calculation unit 42 calculates the difference between the sign distance based on the image calculated by the image processing unit 8 and the sign distance based on the road database 49 calculated by the azimuth / distance calculation unit 41. It calculates using CPU.

図9は、実施の形態3における自己位置標定装置100の自己位置標定方法3を示すフローチャートである。
図9において、S410a〜S410cは図2の測位処理(S110)に対応し、S421〜S424は図2のGPS残差算出処理(S120)に対応し、S431〜S434cは図2の方位角残差算出処理(S130)に対応し、S440は図2の誤差推定処理(S140)に対応する。
自己位置標定装置100の各部は以下に説明する各処理をCPUを用いて実行する。
FIG. 9 is a flowchart showing the self-positioning method 3 of the self-positioning device 100 according to the third embodiment.
9, S410a to S410c correspond to the positioning process (S110) of FIG. 2, S421 to S424 correspond to the GPS residual calculation process (S120) of FIG. 2, and S431 to S434c represent the azimuth residual of FIG. Corresponding to the calculation process (S130), S440 corresponds to the error estimation process (S140) of FIG.
Each unit of the self-positioning apparatus 100 executes each process described below using a CPU.

<S410a>
まず、DR演算部3はデッドレコニングにより車両の位置および方位角を算出する。
<S410b>
次に、DR演算部3は算出した車両の位置に基づいて周辺の道路情報を道路データベース49から取得する。
<S410c:測位処理の一例>
次に、DR演算部3は、道路データベース49から取得した道路情報が示すレーン情報に基づいて、車両の進行方向(方位角)と通行方向が対応するレーン上に車両が位置するように車両の位置を補正するマップマッチング(または、レーンキーピング)を行う。また、DR演算部3はマップマッチングを行った車両の位置および方位角を拡張カルマンフィルタ6が算出した航法誤差に基づいて補正して車両の位置および方位角を算出する。DR演算部3はマップマッチング処理としてカーナビゲーションシステムで一般的に行われている処理を用いる。ただし、マップマッチング処理は、走行中の道路が1レーンしかないなど走行レーンが明らかな場合や、拡張カルマンフィルタの状態量誤差標準偏差が適切に設定した閾値を超えた場合などの自己位置標定精度が悪化していると推定される場合のみ行うものとする。
<S410a>
First, the DR calculation unit 3 calculates the position and azimuth of the vehicle by dead reckoning.
<S410b>
Next, the DR calculation unit 3 acquires peripheral road information from the road database 49 based on the calculated vehicle position.
<S410c: Example of positioning process>
Next, based on the lane information indicated by the road information acquired from the road database 49, the DR calculation unit 3 sets the vehicle so that the vehicle is positioned on the lane corresponding to the traveling direction (azimuth angle) and the traveling direction of the vehicle. Map matching (or lane keeping) is performed to correct the position. The DR calculation unit 3 calculates the vehicle position and azimuth by correcting the position and azimuth of the vehicle for which map matching has been performed based on the navigation error calculated by the extended Kalman filter 6. The DR calculation unit 3 uses a process generally performed in a car navigation system as a map matching process. However, the map matching process has a self-localization accuracy when the driving lane is clear, such as when there is only one lane on the road, or when the state quantity error standard deviation of the extended Kalman filter exceeds an appropriately set threshold. It shall be performed only when it is estimated that the condition has deteriorated.

<S421〜S424>
GPS残差算出処理(S120)に関するS421〜S424は、前記実施の形態1における自己位置標定方法1(図5参照)のS221〜S224と同じである。
<S421 to S424>
S421 to S424 related to the GPS residual calculation process (S120) are the same as S221 to S224 of the self-positioning method 1 (see FIG. 5) in the first embodiment.

<S431〜S434c>
白線の方位角残差算出処理に関するS431、S432a、S433aおよびS434aは、前記実施の形態1における自己位置標定方法1(図5参照)のS231〜S234と同じである。
また、道路標識の方位角残差算出処理および標識距離残差算出処理に関するS432b、S433bおよびS434bは、前記実施の形態2における自己位置標定方法2(図7参照)のS332a〜S334bと同じである。
<S431 to S434c>
S431, S432a, S433a, and S434a related to the white line azimuth residual calculation processing are the same as S231 to S234 of the self-positioning method 1 (see FIG. 5) in the first embodiment.
Further, S432b, S433b and S434b relating to the azimuth residual calculation process and the sign distance residual calculation process of the road sign are the same as S332a to S334b of the self-localization method 2 (see FIG. 7) in the second embodiment. .

そして、拡張カルマンフィルタ6は擬似距離残差計算部22が算出した擬似距離残差と方位角・距離残差算出部42が算出した白線方位角残差、標識方位角残差および標識距離残差とを観測量として入力し、DR演算部3のデッドレコニングによる測位結果に含まれる航法誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。   The extended Kalman filter 6 calculates the pseudorange residual calculated by the pseudorange residual calculation unit 22, the white line azimuth residual, the sign azimuth residual, and the sign distance residual calculated by the azimuth / distance residual calculation unit 42. Is input as an observation amount, and the navigation error and the alignment error of the camera 7 included in the positioning result by dead reckoning of the DR operation unit 3 are calculated as state amounts and output as correction amounts.

上記では、白線について方位角のみを対象としたが、標識と同様に車両から白線までの距離の残差を拡張カルマンフィルタ6の観測量としてもよいし、画像に基づいて算出した白線の長さとデータベースから取得した白線の長さとの残差を拡張カルマンフィルタ6の観測量としてもよい。   In the above description, only the azimuth angle is targeted for the white line, but the residual of the distance from the vehicle to the white line may be used as the observation amount of the extended Kalman filter 6 as in the case of the sign, and the length of the white line calculated based on the image and the database The residual with the length of the white line acquired from the above may be used as the observation amount of the extended Kalman filter 6.

実施の形態3では、以下のような自己位置標定装置100について説明した。
実施の形態3における自己位置標定装置100は、前記実施の形態1に記載した自己位置標定装置100に、前記実施の形態2に記載した「車両−標識間の距離」と「車両からみた標識の相対方位角」を得る画像処理部8の機能と、標識座標のデータベースとを加え、拡張カルマンフィルタ6は白線と標識との両方を観測量として自己位置・姿勢角の誤差推定を行ってDR演算部3の自己位置標定精度を向上させる。
In the third embodiment, the following self-positioning apparatus 100 has been described.
The self-positioning device 100 according to the third embodiment is different from the self-positioning device 100 described in the first embodiment in the “distance between the vehicle and the sign” described in the second embodiment and the sign of the sign viewed from the vehicle. The function of the image processing unit 8 for obtaining the “relative azimuth” and the database of the marker coordinates are added, and the extended Kalman filter 6 performs error estimation of the self-position / attitude angle using both the white line and the marker as observation amounts, and the DR calculation unit The self-localization accuracy of 3 is improved.

実施の形態4.
上記実施の形態1では、各白線について位置や形状や方位角などの情報が予め記憶されている白線情報データベース9を利用する形態について説明した。但し、各白線の情報を用意することがコスト的に難しい場合も考えられる。
そこで、実施の形態4では、上記実施の形態1で示した白線情報データベース9の代わりに道路の方位角を示す道路情報(道路線形情報)を記憶するデータベースを用い、道路の方位角を白線の方位角として用いる形態について説明する。
Embodiment 4 FIG.
In the first embodiment, the form using the white line information database 9 in which information such as position, shape, and azimuth angle is stored in advance for each white line has been described. However, it may be difficult to prepare information for each white line in terms of cost.
Therefore, in the fourth embodiment, instead of the white line information database 9 shown in the first embodiment, a database that stores road information (road alignment information) indicating the azimuth angle of the road is used, and the azimuth angle of the road is set to the white line information. The form used as the azimuth will be described.

(1)KIWIデータベースを用いる方法
道路情報を記憶するデータベースとして、カーナビゲーションシステムに使用されているデータベースを使用することができる。カーナビゲーションシステムのデータベースにはKIWIフォーマットが使用されている。以下、道路情報をKIWIフォーマット(日本工業規格 JIS−D0810)で示すデータベースをKIWIデータベースとする。非特許文献1にKIWIフォーマットに関する文献を示す。
KIWIデータベースのデータ構造には、交差点に関する情報を示すノード情報、道路が接続する交差点を示すリンク情報、新たに情報を追加することが可能な拡張部などが含まれる。ノード情報には各交差点をノードとしてノード名と交差点の座標(例えば、交差点中央の2次元座標)とが対応付けて記憶されている。リンク情報には“ノードA(交差点A)とノードB(交差点B)が接続されている(A、B)”というような道路が接続している交差点を示す情報が記憶されている。そして、実施の形態4では、KIWIデータベースの拡張部に、リンク情報(接続情報)と方位角とを対応付けて、リンク情報が表す道路について方位角を示す方位角情報を記憶する。例えば、ノード情報とリンク情報とが図11のような関係を示す場合、拡張部には「接続情報」として(A、B)、「方位角」としてθ1が記憶され、また、「接続情報」として(B、C)、「方位角」としてθ2が記憶される。
(1) Method using KIWI database As a database for storing road information, a database used in a car navigation system can be used. The car navigation system database uses the KIWI format. Hereinafter, a database indicating road information in the KIWI format (Japanese Industrial Standard JIS-D0810) is referred to as a KIWI database. Non-Patent Document 1 shows documents related to the KIWI format.
The data structure of the KIWI database includes node information indicating information about intersections, link information indicating intersections to which roads connect, and an extension unit that can newly add information. In the node information, node names and intersection coordinates (for example, two-dimensional coordinates at the center of the intersection) are stored in association with each intersection as a node. The link information stores information indicating an intersection where roads are connected, such as “node A (intersection A) and node B (intersection B) are connected (A, B)”. In the fourth embodiment, the link information (connection information) and the azimuth are associated with the extension unit of the KIWI database, and the azimuth information indicating the azimuth is stored for the road represented by the link information. For example, when the node information and the link information show the relationship as shown in FIG. 11, (A, B) is stored as “connection information”, θ1 is stored as “azimuth angle”, and “connection information”. (B, C), and θ2 is stored as the “azimuth angle”.

そして、上記実施の形態1における白線方位角取得部23は、図12に示すようにして、KIWIデータベースから道路情報を取得し、道路の方位角を白線の方位角として算出する。   Then, as shown in FIG. 12, the white line azimuth obtaining unit 23 in the first embodiment obtains road information from the KIWI database, and calculates the road azimuth as the white line azimuth.

<S510>
白線方位角取得部23は、DR演算部3から自己位置N、自己方位角φNを取得する。
<S520>
次に、白線方位角取得部23はKIWIデータベースにおいてノード情報が示す各交差点の座標と自己位置Nとを比較して車両が位置する道路を示すリンク情報を検索する。
<S530>
次に、白線方位角取得部23は検索したリンク情報に対応する道路の方位角θnを拡張部から抽出する。
<S540>
次に、白線方位角取得部23は自己方位角φNが示す進行方向における道路の方位角θnを取得する。ただし、白線を見る向きによって方位角の表現は180度異なるため、自己方位角φNに応じて、θnに180度だけ加算することがある。
<S550>
そして、白線方位角取得部23は取得した道路の方位角θnを白線方位角として出力する。
<S510>
The white line azimuth angle obtaining unit 23 obtains the self position N and the self azimuth angle φN from the DR calculation unit 3.
<S520>
Next, the white line azimuth obtaining unit 23 searches the link information indicating the road on which the vehicle is located by comparing the coordinates of each intersection indicated by the node information with the self position N in the KIWI database.
<S530>
Next, the white line azimuth angle obtaining unit 23 extracts the road azimuth angle θn corresponding to the searched link information from the expansion unit.
<S540>
Next, the white line azimuth angle acquisition unit 23 acquires the azimuth angle θn of the road in the traveling direction indicated by the self azimuth angle φN. However, since the expression of the azimuth angle differs by 180 degrees depending on the direction of viewing the white line, 180 degrees may be added to θn depending on the self-azimuth angle φN.
<S550>
Then, the white line azimuth angle obtaining unit 23 outputs the acquired road azimuth angle θn as a white line azimuth angle.

(2)道路線形データベースを用いる方法
道路の幾何構造は横断面と平面線形とで表すことができるが、実施の形態4で用いる道路線形データベースは道路の平面線形について直線や円曲線や緩和曲線(クロソイド)などの線形要素で表した道路情報を記憶する。道路の直線は例えば始点の座標と終点の座標とで表される。
そして、実施の形態4における白線方位角取得部23は、図13に示すようにして、道路線形データベースに記憶された道路の直線部分のデータに基づいて、道路の方位角を白線方位角として算出する。
(2) Method Using Road Alignment Database Although the geometric structure of a road can be expressed by a cross section and a plane alignment, the road alignment database used in Embodiment 4 is a straight line, a circular curve, a relaxation curve ( Road information expressed by linear elements such as clothoid) is stored. The straight line of the road is expressed by, for example, the coordinates of the start point and the coordinates of the end point.
Then, the white line azimuth acquisition unit 23 according to the fourth embodiment calculates the road azimuth as the white line azimuth based on the straight line data of the road stored in the road alignment database as shown in FIG. To do.

<S610>
白線方位角取得部23は、DR演算部3から自己位置Nを取得する。
<S620>
次に、白線方位角取得部23は道路線形データベースにおいて自己位置Nが位置する道路の直線部分のデータを検索する。
<S630>
次に、白線方位角取得部23は検索した道路の直線部分のデータが示す始点と終点の座標に基づいて道路の方位角を算出する。但し、道路の方位角を予め道路線形データベースに記憶しておいても構わない。
<S640>
そして、白線方位角取得部23は算出した道路の方位角を白線方位角として出力する。
<S610>
The white line azimuth acquisition unit 23 acquires the self position N from the DR calculation unit 3.
<S620>
Next, the white line azimuth obtaining unit 23 searches the road linear database for data on the straight line portion of the road where the self position N is located.
<S630>
Next, the white line azimuth obtaining unit 23 calculates the azimuth angle of the road based on the coordinates of the start point and the end point indicated by the data of the searched straight portion of the road. However, the azimuth angle of the road may be stored in advance in the road alignment database.
<S640>
Then, the white line azimuth obtaining unit 23 outputs the calculated road azimuth as the white line azimuth.

各実施の形態において、GPS受信機1がMSAS(MTSAT Satellite−based Augmentation System)からのGPS補正情報やFM多重放送を受信することなどで得られるGPS補正情報を用いて擬似距離の補正をする方式も考えられる。また、将来的には準天頂衛星からの放送データの中にGPS補正情報が含まれる予定であり、GPS受信機1がこれを利用してGPSの擬似距離補正を行う方法も考えられる。
また、GPS受信機1が擬似距離を搬送波位相観測データを使ってスムージングする方法(キャリアスムージング)や、DR演算部3がGPS基準局の搬送波位相データとGPS受信機1で観測するGPS搬送波位相データとを用いてCPDGPS(Carrier Phase Differential GPS)計算を行い測位する方法なども考えられる。
さらに、拡張カルマンフィルタ6の構成方法には、前記実施の形態1で説明したGPSの観測生データ(擬似距離、位相差など)をGPS観測量として利用するタイトカプリング(Tightly Coupled、密結合)方式の他に、GPS観測値から得た測位解をGPS観測量として利用するルーズカプリング(Loosely Coupled、粗結合)方式も考えられる。
In each embodiment, the GPS receiver 1 corrects pseudo distances using GPS correction information from MSSAT (MTSAT Satellite-based Augmentation System) or GPS correction information obtained by receiving FM multiplex broadcasting. Is also possible. In the future, the GPS correction information is scheduled to be included in the broadcast data from the quasi-zenith satellite, and a method in which the GPS receiver 1 uses this to perform GPS pseudo-range correction is also conceivable.
In addition, a method in which the GPS receiver 1 smooths the pseudorange using carrier phase observation data (carrier smoothing), a carrier wave phase data of the GPS reference station and a GPS carrier phase data that the DR receiver 3 observes with the GPS receiver 1 A method of performing positioning by performing CPDGPS (Carrier Phase Differential GPS) calculation using the GPS is also conceivable.
Furthermore, the configuration method of the extended Kalman filter 6 is a tight coupling (tightly coupled) method using the GPS observation raw data (pseudorange, phase difference, etc.) described in the first embodiment as a GPS observation amount. In addition, a loose coupling (coarse coupling) method that uses a positioning solution obtained from a GPS observation value as a GPS observation amount is also conceivable.

実施の形態1における自己位置標定装置100の構成図。1 is a configuration diagram of a self-positioning device 100 according to Embodiment 1. FIG. 実施の形態1における自己位置標定装置100の自己位置標定方法を示すフローチャート。3 is a flowchart showing a self-positioning method of self-positioning device 100 in the first embodiment. 実施の形態1における自己位置標定装置100のハードウェア資源の一例を示す図。FIG. 3 is a diagram illustrating an example of hardware resources of the self-location apparatus 100 according to the first embodiment. 実施の形態1における自己位置標定装置100の構成図。1 is a configuration diagram of a self-positioning device 100 according to Embodiment 1. FIG. 実施の形態1における自己位置標定装置100の自己位置標定方法GPS受信機1を示すフローチャート。3 is a flowchart showing a self-positioning method GPS receiver 1 of the self-positioning device 100 according to the first embodiment. 実施の形態2における自己位置標定装置100の構成図。The block diagram of the self-positioning apparatus 100 in Embodiment 2. FIG. 実施の形態2における自己位置標定装置100の自己位置標定方法2を示すフローチャート。10 is a flowchart showing a self-positioning method 2 of the self-positioning device 100 according to the second embodiment. 実施の形態3における自己位置標定装置100の構成図。The block diagram of the self-positioning apparatus 100 in Embodiment 3. FIG. 実施の形態3における自己位置標定装置100の自己位置標定方法を示すフローチャート。10 is a flowchart showing a self-positioning method of self-positioning apparatus 100 according to Embodiment 3. 実施の形態1における白線と白線(の直線部分)の方位角とレーンの通行方向との関係図。FIG. 3 is a relationship diagram between the azimuth angle of a white line and a white line (a straight line portion thereof) and the lane direction in the first embodiment. 実施の形態4におけるKIWIデータの関係図。FIG. 10 is a relationship diagram of KIWI data in the fourth embodiment. 実施の形態4における方位角取得処理のフローチャート。10 is a flowchart of azimuth angle acquisition processing in the fourth embodiment. 実施の形態4における方位角取得処理のフローチャート。10 is a flowchart of azimuth angle acquisition processing in the fourth embodiment.

符号の説明Explanation of symbols

1 GPS受信機、2 衛星軌道演算部、3 DR演算部、4 ジャイロ、5 オドメータ、6 拡張カルマンフィルタ、7 カメラ、8 画像処理部、9 白線情報データベース、11 標識情報データベース、21 衛星距離計算部、22 擬似距離残差計算部、23 白線方位角取得部、24 白線方位角残差計算部、31 標識方位角・距離算出部、32 標識方位角・距離残差計算部、41 方位角・距離算出部、42 方位角・距離残差算出部、49 道路データベース、100 自己位置標定装置、110 測位部、120 GPS観測残差算出部、121 GPS観測部、122 GPS観測量演算部、130 方位角残差算出部、131 方位角観測部、132 方位角演算部、140 誤差推定部、901 表示装置、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、923 プログラム群、924 ファイル群。   1 GPS receiver, 2 satellite orbit calculation unit, 3 DR calculation unit, 4 gyro, 5 odometer, 6 extended Kalman filter, 7 camera, 8 image processing unit, 9 white line information database, 11 sign information database, 21 satellite distance calculation unit, 22 pseudorange residual calculation unit, 23 white line azimuth acquisition unit, 24 white line azimuth residual calculation unit, 31 sign azimuth / distance calculation unit, 32 sign azimuth / distance residual calculation unit, 41 azimuth / distance calculation , 42 azimuth / distance residual calculation unit, 49 road database, 100 self-localization device, 110 positioning unit, 120 GPS observation residual calculation unit, 121 GPS observation unit, 122 GPS observation amount calculation unit, 130 azimuth residual Difference calculation unit, 131 Azimuth angle observation unit, 132 Azimuth angle calculation unit, 140 Error estimation unit, 901 Display device, 911 CPU, 91 Bus, 913 ROM, 914 RAM, 915 communication board, 920 a magnetic disk device, 921 OS, 923 programs, 924 files.

Claims (9)

自己位置を測位する測位部と、
前記測位部が測位した際の特定の方向を撮像するカメラと、
前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の長さ方向が基準方向に対して成す前記特定の地物の方位角をCPU(Central Proccessing Unit)を用いて算出する画像方位角部と、
地物の長さ方向が基準方向に対して成す当該地物の方位角を記憶する方位角データベースと、
前記測位部が測位した自己位置に基づいて前記方位角データベースから前記特定の地物に対応する地物の方位角を取得するデータベース方位角部と、
前記画像方位角部が算出した地物の方位角と前記データベース方位角部が取得した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出部と、
前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定するカルマンフィルタと
を備え、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする
ことを特徴とする自己位置標定装置。
A positioning unit for positioning the self-position;
A camera that captures a specific direction when the positioning unit performs positioning;
Based on the image captured by the camera, the azimuth angle of the specific feature formed by the length direction of the specific feature shown in the image with respect to the reference direction is calculated using a CPU (Central Processing Unit). Image azimuth,
An azimuth angle database that stores the azimuth angle of the feature that the length direction of the feature forms with respect to the reference direction;
A database azimuth section for obtaining an azimuth angle of the feature corresponding to the specific feature from the azimuth database based on the self-position measured by the positioning section;
An azimuth residual calculation unit that calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature acquired by the database azimuth using the CPU as a feature azimuth residual. When,
A Kalman filter that uses a CPU to estimate the error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculating unit;
The positioning unit corrects the measured self-position based on the error estimated by the Kalman filter, and uses the corrected self-position as a positioning result.
自己位置を測位する測位部と、
前記測位部が測位した際の特定の方向を撮像するカメラと、
前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の方位角を自己位置を基点としてCPU(Central Proccessing Unit)を用いて算出する画像方位角部と、
地物の位置を記憶する位置データベースと、
前記測位部が測位した自己位置に基づいて前記位置データベースから前記特定の地物に対応する地物の位置を取得し、取得した地物の位置に基づいて地物の方位角を前記測位部が測位した自己位置を基点としてCPUを用いて算出するデータベース方位角部と、
前記画像方位角部が算出した地物の方位角と前記データベース方位角部が算出した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出部と、
前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定するカルマンフィルタと
を備え、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする
ことを特徴とする自己位置標定装置。
A positioning unit for positioning the self-position;
A camera that captures a specific direction when the positioning unit performs positioning;
An image azimuth section that calculates a azimuth angle of a specific feature reflected in the image based on an image captured by the camera using a CPU (Central Processing Unit) based on the self-position;
A location database that stores the location of features;
The positioning unit acquires the position of the feature corresponding to the specific feature from the position database based on the self-position measured by the positioning unit, and the positioning unit calculates the azimuth angle of the feature based on the acquired feature position. A database azimuth angle portion calculated using a CPU with the measured self-position as a base point;
An azimuth residual calculation unit that calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature calculated by the database azimuth using the CPU as a feature azimuth residual. When,
A Kalman filter that uses a CPU to estimate the error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculating unit;
The positioning unit corrects the measured self-position based on the error estimated by the Kalman filter, and uses the corrected self-position as a positioning result.
前記カルマンフィルタは、
自己位置の誤差を含む状態量について状態量のダイナミクスをモデル化した状態方程式と、地物方位角残差を含む観測量と自己位置の誤差を含む状態量とについて観測量と状態量との関係を定式化した観測方程式とに基づいて状態量の誤差推定を行う
ことを特徴とする請求項1〜請求項2いずれかに記載の自己位置標定装置。
The Kalman filter is
Relationship between the observed quantity and the state quantity for the state equation that modeled the dynamics of the state quantity for the state quantity that includes the self-position error, and the observed quantity that contains the feature azimuth residual and the state quantity that contained the self-position error 3. The self-positioning apparatus according to claim 1, wherein error estimation of a state quantity is performed based on an observation equation formulated.
前記自己位置標定装置は、さらに、
前記カメラが撮像した画像に基づいて前記特定の地物までの距離をCPUを用いて算出する画像距離部と、
地物の位置を記憶する位置データベースと、
前記測位部が測位した自己位置に基づいて前記位置データベースから前記特定の地物に対応する地物の位置を取得し、前記測位部が測位した自己位置と前記位置データベースから取得した地物の位置とに基づいて地物までの距離を算出するデータベース距離部と、
前記画像距離部が算出した地物までの距離と前記データベース距離部が算出した地物までの距離との差分を地物距離残差としてCPUを用いて算出する距離残差算出部と
を備え、
前記カルマンフィルタは前記距離残差算出部が算出した地物距離残差を観測量に含めて自己位置の誤差を含む状態量の誤差推定を行う
ことを特徴とする請求項3記載の自己位置標定装置。
The self-positioning device further includes:
An image distance unit for calculating a distance to the specific feature using a CPU based on an image captured by the camera;
A location database that stores the location of features;
The position of the feature corresponding to the specific feature is acquired from the position database based on the self-position measured by the positioning unit, and the position of the feature acquired from the self-position measured by the positioning unit and the position database. A database distance part that calculates the distance to the feature based on
A distance residual calculation unit that calculates the difference between the distance to the feature calculated by the image distance unit and the distance to the feature calculated by the database distance unit using the CPU as a feature distance residual;
4. The self-localization device according to claim 3, wherein the Kalman filter includes a feature distance residual calculated by the distance residual calculation unit in an observation amount and performs error estimation of a state quantity including a self-position error. .
測位部が自己位置を測位する測位処理を行い、
カメラが前記測位部が測位した際の特定の方向を撮像する撮像処理を行い、
画像方位角部が前記カメラの撮像した画像に基づいて前記画像に映っている特定の地物の長さ方向が基準方向に対して成す前記特定の地物の方位角をCPU(Central Proccessing Unit)を用いて算出する画像方位角算出処理を行い、
データベース方位角部が前記測位部が測位した自己位置に基づいて地物の長さ方向が基準方向に対して成す当該地物の方位角を記憶する方位角データベースから前記特定の地物に対応する地物の方位角を取得するデータベース方位角取得処理を行い、
方位角残差算出部が前記画像方位角部が算出した地物の方位角と前記データベース方位角部が取得した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出処理を行い、
カルマンフィルタが前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定する誤差推定処理を行い、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする測位結果補正処理を行う
ことを特徴とする自己位置標定方法。
The positioning unit performs a positioning process to measure its own position,
The camera performs an imaging process for imaging a specific direction when the positioning unit performs positioning,
The azimuth angle of the specific feature that the length direction of the specific feature shown in the image is based on the image captured by the camera with respect to the reference direction is the CPU (Central Processing Unit). Perform the image azimuth calculation process to calculate using
The database azimuth portion corresponds to the specific feature from the azimuth angle database that stores the azimuth angle of the feature that the length direction of the feature forms with respect to the reference direction based on the self-position measured by the positioning unit. Perform database azimuth acquisition processing to acquire the azimuth of features,
The azimuth residual calculation unit calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature acquired by the database azimuth using the CPU as the feature azimuth residual. Azimuth residual calculation process to
An error estimation process is performed in which the Kalman filter estimates an error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculating unit using a CPU,
The positioning unit corrects a measured self-position based on an error estimated by the Kalman filter, and performs a positioning result correction process using the corrected self-position as a positioning result.
測位部が自己位置を測位する測位処理を行い、
カメラが前記測位部が測位した際の特定の方向を撮像する撮像処理を行い、
画像方位角部が前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の方位角を自己位置を基点としてCPU(Central Proccessing Unit)を用いて算出する画像方位角算出処理を行い、
データベース方位角部が前記測位部が測位した自己位置に基づいて地物の位置を記憶する位置データベースから前記特定の地物に対応する地物の位置を取得し、取得した地物の位置に基づいて地物の方位角を前記測位部が測位した自己位置を基点としてCPUを用いて算出するデータベース方位角算出処理を行い、
方位角残差算出部が前記画像方位角部が算出した地物の方位角と前記データベース方位角部が算出した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出処理を行い、
カルマンフィルタが前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定する誤差推定処理を行い、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする測位結果補正処理を行う
ことを特徴とする自己位置標定方法。
The positioning unit performs a positioning process to measure its own position,
The camera performs an imaging process for imaging a specific direction when the positioning unit performs positioning,
An image azimuth calculation process in which an image azimuth is calculated by using a CPU (Central Processing Unit) based on an image captured by the camera, based on an azimuth angle of a specific feature reflected in the image. Done
The database azimuth section acquires the position of the feature corresponding to the specific feature from the position database that stores the position of the feature based on the self-position measured by the positioning unit, and based on the acquired position of the feature Database azimuth calculation processing is performed to calculate the azimuth of the feature using the CPU with the self-position determined by the positioning unit as a base point,
The azimuth residual calculation unit calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature calculated by the database azimuth using the CPU as the feature azimuth residual. Azimuth residual calculation process to
An error estimation process is performed in which the Kalman filter estimates an error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculation unit using a CPU,
The positioning unit corrects a measured self-position based on an error estimated by the Kalman filter, and performs a positioning result correction process using the corrected self-position as a positioning result.
請求項5〜請求項6いずれかに記載の自己位置標定方法をコンピュータに実行させる自己位置標定プログラム。   A self-positioning program that causes a computer to execute the self-positioning method according to claim 5. 前記画像方位角部は、前記画像に映っている白線の方位角を算出し、
前記方位角データベースは、道路の直線部分が基準方向に対して成す当該道路の方位角を示す道路情報をKIWIフォーマットで記憶し、
前記データベース方位角部は、前記方位角データベースに記憶された道路の直線部分の方位角を道路に標示された白線の方位角として取得し、
前記方位角残差算出部は、白線の方位角残差を前記地物方位角残差として算出し、
前記カルマンフィルタは、白線の方位角残差に基づいて自己位置の誤差を推定する
ことを特徴とする請求項1記載の自己位置標定装置。
The image azimuth portion calculates the azimuth angle of the white line reflected in the image,
The azimuth angle database stores road information indicating the azimuth angle of the road that the straight line portion of the road forms with respect to the reference direction in a KIWI format;
The database azimuth section obtains the azimuth angle of the straight line portion of the road stored in the azimuth angle database as the azimuth angle of the white line marked on the road,
The azimuth residual calculation unit calculates an azimuth residual of a white line as the feature azimuth residual,
The self-position locating apparatus according to claim 1, wherein the Kalman filter estimates an error of a self-position based on an azimuth residual of a white line.
前記画像方位角部は、前記画像に映っている白線の方位角を算出し、
前記方位角データベースは、道路の平面形状を円弧と直線とクロソイドとの少なくともいずれかにより示す道路情報を記憶し、
前記データベース方位角部は、前記方位角データベースから取得した道路情報が示す道路の平面形状に基づいて道路の直線部分の方位角を道路に標示された白線の方位角として算出し、
前記方位角残差算出部は、白線の方位角残差を前記地物方位角残差として算出し、
前記カルマンフィルタは、白線の方位角残差に基づいて自己位置の誤差を推定する
ことを特徴とする請求項1記載の自己位置標定装置。
The image azimuth portion calculates the azimuth angle of the white line reflected in the image,
The azimuth database stores road information indicating a planar shape of a road by at least one of an arc, a straight line, and a clothoid;
The database azimuth section calculates the azimuth of the straight portion of the road as the azimuth of the white line marked on the road based on the planar shape of the road indicated by the road information acquired from the azimuth database,
The azimuth residual calculation unit calculates an azimuth residual of a white line as the feature azimuth residual,
The self-position locating apparatus according to claim 1, wherein the Kalman filter estimates an error of a self-position based on an azimuth residual of a white line.
JP2007094134A 2007-03-30 2007-03-30 Self-positioning device, self-positioning method, and self-positioning program Active JP4897542B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007094134A JP4897542B2 (en) 2007-03-30 2007-03-30 Self-positioning device, self-positioning method, and self-positioning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007094134A JP4897542B2 (en) 2007-03-30 2007-03-30 Self-positioning device, self-positioning method, and self-positioning program

Publications (2)

Publication Number Publication Date
JP2008249639A true JP2008249639A (en) 2008-10-16
JP4897542B2 JP4897542B2 (en) 2012-03-14

Family

ID=39974744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007094134A Active JP4897542B2 (en) 2007-03-30 2007-03-30 Self-positioning device, self-positioning method, and self-positioning program

Country Status (1)

Country Link
JP (1) JP4897542B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237798A (en) * 2009-03-30 2010-10-21 Equos Research Co Ltd Image processor and image processing program
WO2011043275A1 (en) * 2009-10-06 2011-04-14 株式会社 トプコン Three-dimensional data creating method and three-dimensional data creating device
WO2012118207A1 (en) * 2011-03-03 2012-09-07 株式会社豊田中央研究所 Local map generation device, local map generation system, global map generation device, global map generation system, and program
EP2525303A1 (en) * 2011-05-17 2012-11-21 Harman Becker Automotive Systems GmbH Lane tracking
KR101213951B1 (en) 2011-09-20 2012-12-18 재단법인대구경북과학기술원 Position determination apparatus and method using vision system
JP2013531223A (en) * 2010-05-07 2013-08-01 クアルコム,インコーポレイテッド Azimuth sensor calibration
JP2013167606A (en) * 2012-02-17 2013-08-29 Nec Toshiba Space Systems Ltd Orbital position estimation method, orbital position estimation device and orbital position estimation program
JP2014102137A (en) * 2012-11-20 2014-06-05 Mitsubishi Electric Corp Self position estimation device
WO2017168654A1 (en) * 2016-03-30 2017-10-05 パイオニア株式会社 Measurement device, measurement method, and program
JP2017211193A (en) * 2016-05-23 2017-11-30 本田技研工業株式会社 Vehicle position identifying device, vehicle control system, vehicle position identifying method, and vehicle position identifying program
JP2018084492A (en) * 2016-11-24 2018-05-31 日産自動車株式会社 Self-position estimation method and self-position estimation device
US10114108B2 (en) 2014-11-06 2018-10-30 Denso Corporation Positioning apparatus
WO2018212292A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Information processing device, control method, program and storage medium
JP2019028028A (en) * 2017-08-03 2019-02-21 株式会社Subaru Vehicle's travelling vehicle lane identification device
CN109612447A (en) * 2018-12-29 2019-04-12 湖南璇玑信息科技有限公司 Construction method, enhancing localization method and the enhancing location-server of the enhancing positioning transformation model of Remote sensing photomap data
WO2019189098A1 (en) * 2018-03-28 2019-10-03 パイオニア株式会社 Self-position estimation device, self-position estimation method, program, and recording medium
WO2020202522A1 (en) * 2019-04-04 2020-10-08 三菱電機株式会社 Vehicle positioning device
WO2020209144A1 (en) * 2019-04-09 2020-10-15 パイオニア株式会社 Position estimating device, estimating device, control method, program, and storage medium
JP2021018180A (en) * 2019-07-22 2021-02-15 株式会社Zmp Automatic traveling system for travel vehicle
JP2021018181A (en) * 2019-07-22 2021-02-15 株式会社Zmp Automatic traveling system for travel vehicle
CN112639391A (en) * 2018-08-28 2021-04-09 株式会社斯库林集团 Movable part position detection method, substrate processing apparatus, and substrate processing system
US10977946B2 (en) 2017-10-19 2021-04-13 Veoneer Us, Inc. Vehicle lane change assist improvements
US11209457B2 (en) 2019-05-23 2021-12-28 Denso Corporation Abnormality detection device, abnormality detection method, and non-transitory tangible computer readable medium
CN114111767A (en) * 2021-10-28 2022-03-01 北京自动化控制设备研究所 Method for optimizing line design line type based on multi-information fusion
JP2022084303A (en) * 2020-11-26 2022-06-07 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
US11408741B2 (en) 2017-03-16 2022-08-09 Denso Corporation Self-localization estimation device
JP2022150979A (en) * 2021-03-26 2022-10-07 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP2023502632A (en) * 2019-11-13 2023-01-25 メルセデス・ベンツ グループ アクチェンゲゼルシャフト Methods for Approving Driving Routes
JP7409037B2 (en) 2019-11-21 2024-01-09 株式会社デンソー Estimation device, estimation method, estimation program
CN113631883B (en) * 2019-04-04 2024-04-30 三菱电机株式会社 Vehicle positioning device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6152511B2 (en) 2013-03-29 2017-06-28 株式会社メガチップス Portable terminal device, program, and correction method
JP6759175B2 (en) 2017-10-27 2020-09-23 株式会社東芝 Information processing equipment and information processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981757A (en) * 1995-09-18 1997-03-28 Mitsubishi Electric Corp Vehicle position detecting device
JP2006242731A (en) * 2005-03-03 2006-09-14 Mitsubishi Electric Corp Positioning device and positioning method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981757A (en) * 1995-09-18 1997-03-28 Mitsubishi Electric Corp Vehicle position detecting device
JP2006242731A (en) * 2005-03-03 2006-09-14 Mitsubishi Electric Corp Positioning device and positioning method

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237798A (en) * 2009-03-30 2010-10-21 Equos Research Co Ltd Image processor and image processing program
WO2011043275A1 (en) * 2009-10-06 2011-04-14 株式会社 トプコン Three-dimensional data creating method and three-dimensional data creating device
JP2011080845A (en) * 2009-10-06 2011-04-21 Topcon Corp Method and apparatus for creating three-dimensional data
JP2013531223A (en) * 2010-05-07 2013-08-01 クアルコム,インコーポレイテッド Azimuth sensor calibration
JP2015165246A (en) * 2010-05-07 2015-09-17 クアルコム,インコーポレイテッド Orientation sensor calibration
US9103680B2 (en) 2011-03-03 2015-08-11 Kabushiki Kaisha Toyota Chuo Kenkyusho Local map generating device, local map generating system, global map generating device, global map generating system, and program
WO2012118207A1 (en) * 2011-03-03 2012-09-07 株式会社豊田中央研究所 Local map generation device, local map generation system, global map generation device, global map generation system, and program
JP2012185202A (en) * 2011-03-03 2012-09-27 Toyota Central R&D Labs Inc Local map generation device, global map generation device and program
EP2525303A1 (en) * 2011-05-17 2012-11-21 Harman Becker Automotive Systems GmbH Lane tracking
KR101213951B1 (en) 2011-09-20 2012-12-18 재단법인대구경북과학기술원 Position determination apparatus and method using vision system
JP2013167606A (en) * 2012-02-17 2013-08-29 Nec Toshiba Space Systems Ltd Orbital position estimation method, orbital position estimation device and orbital position estimation program
JP2014102137A (en) * 2012-11-20 2014-06-05 Mitsubishi Electric Corp Self position estimation device
US10114108B2 (en) 2014-11-06 2018-10-30 Denso Corporation Positioning apparatus
WO2017168654A1 (en) * 2016-03-30 2017-10-05 パイオニア株式会社 Measurement device, measurement method, and program
JPWO2017168654A1 (en) * 2016-03-30 2019-02-14 パイオニア株式会社 Measuring apparatus, measuring method, and program
CN107450530A (en) * 2016-05-23 2017-12-08 本田技研工业株式会社 The determining device of vehicle control system and vehicle location, method and program product
US10247830B2 (en) 2016-05-23 2019-04-02 Honda Motor Co., Ltd. Vehicle position determination device, vehicle control system, vehicle position determination method, and vehicle position determination program product
JP2017211193A (en) * 2016-05-23 2017-11-30 本田技研工業株式会社 Vehicle position identifying device, vehicle control system, vehicle position identifying method, and vehicle position identifying program
JP2018084492A (en) * 2016-11-24 2018-05-31 日産自動車株式会社 Self-position estimation method and self-position estimation device
US11639853B2 (en) 2017-03-16 2023-05-02 Denso Corporation Self-localization estimation device
US11408741B2 (en) 2017-03-16 2022-08-09 Denso Corporation Self-localization estimation device
WO2018212292A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Information processing device, control method, program and storage medium
JPWO2018212292A1 (en) * 2017-05-19 2020-05-21 パイオニア株式会社 Information processing apparatus, control method, program, and storage medium
JP2019028028A (en) * 2017-08-03 2019-02-21 株式会社Subaru Vehicle's travelling vehicle lane identification device
US10977946B2 (en) 2017-10-19 2021-04-13 Veoneer Us, Inc. Vehicle lane change assist improvements
JPWO2019189098A1 (en) * 2018-03-28 2021-03-11 パイオニア株式会社 Self-position estimation device, self-position estimation method, program and storage medium
US11822009B2 (en) 2018-03-28 2023-11-21 Pioneer Corporation Self-position estimation device, self-position estimation method, program, and recording medium
WO2019189098A1 (en) * 2018-03-28 2019-10-03 パイオニア株式会社 Self-position estimation device, self-position estimation method, program, and recording medium
CN112639391B (en) * 2018-08-28 2022-08-02 株式会社斯库林集团 Movable part position detection method, substrate processing apparatus, and substrate processing system
CN112639391A (en) * 2018-08-28 2021-04-09 株式会社斯库林集团 Movable part position detection method, substrate processing apparatus, and substrate processing system
CN109612447A (en) * 2018-12-29 2019-04-12 湖南璇玑信息科技有限公司 Construction method, enhancing localization method and the enhancing location-server of the enhancing positioning transformation model of Remote sensing photomap data
WO2020202522A1 (en) * 2019-04-04 2020-10-08 三菱電機株式会社 Vehicle positioning device
JPWO2020202522A1 (en) * 2019-04-04 2021-11-04 三菱電機株式会社 Vehicle positioning device
CN113631883A (en) * 2019-04-04 2021-11-09 三菱电机株式会社 Vehicle positioning device
CN113631883B (en) * 2019-04-04 2024-04-30 三菱电机株式会社 Vehicle positioning device
JP7034379B2 (en) 2019-04-04 2022-03-11 三菱電機株式会社 Vehicle positioning device
US11874117B2 (en) 2019-04-04 2024-01-16 Mitsubishi Electric Corporation Vehicle positioning device
WO2020209144A1 (en) * 2019-04-09 2020-10-15 パイオニア株式会社 Position estimating device, estimating device, control method, program, and storage medium
JPWO2020209144A1 (en) * 2019-04-09 2020-10-15
US11209457B2 (en) 2019-05-23 2021-12-28 Denso Corporation Abnormality detection device, abnormality detection method, and non-transitory tangible computer readable medium
JP2021018181A (en) * 2019-07-22 2021-02-15 株式会社Zmp Automatic traveling system for travel vehicle
JP7265257B2 (en) 2019-07-22 2023-04-26 株式会社Zmp Automated driving system for running vehicles
JP2021018180A (en) * 2019-07-22 2021-02-15 株式会社Zmp Automatic traveling system for travel vehicle
JP7329215B2 (en) 2019-07-22 2023-08-18 株式会社Zmp Automated driving system for running vehicles
JP2023502632A (en) * 2019-11-13 2023-01-25 メルセデス・ベンツ グループ アクチェンゲゼルシャフト Methods for Approving Driving Routes
JP7348398B2 (en) 2019-11-13 2023-09-20 メルセデス・ベンツ グループ アクチェンゲゼルシャフト Method for approving driving routes
JP7409037B2 (en) 2019-11-21 2024-01-09 株式会社デンソー Estimation device, estimation method, estimation program
JP2022084303A (en) * 2020-11-26 2022-06-07 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP7225185B2 (en) 2020-11-26 2023-02-20 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7184951B2 (en) 2021-03-26 2022-12-06 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP2022150979A (en) * 2021-03-26 2022-10-07 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
CN114111767B (en) * 2021-10-28 2023-11-03 北京自动化控制设备研究所 Method for optimizing line design line type based on multi-information fusion
CN114111767A (en) * 2021-10-28 2022-03-01 北京自动化控制设备研究所 Method for optimizing line design line type based on multi-information fusion

Also Published As

Publication number Publication date
JP4897542B2 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4897542B2 (en) Self-positioning device, self-positioning method, and self-positioning program
CN107328411B (en) Vehicle-mounted positioning system and automatic driving vehicle
CN107328410B (en) Method for locating an autonomous vehicle and vehicle computer
US10240934B2 (en) Method and system for determining a position relative to a digital map
US8447519B2 (en) Method of augmenting GPS or GPS/sensor vehicle positioning using additional in-vehicle vision sensors
US20210199437A1 (en) Vehicular component control using maps
JP5116555B2 (en) LOCATION DEVICE, LOCATION SYSTEM, LOCATION SERVER DEVICE, AND LOCATION METHOD
US20100103040A1 (en) Method of using road signs to augment Global Positioning System (GPS) coordinate data for calculating a current position of a personal navigation device
WO2012118207A1 (en) Local map generation device, local map generation system, global map generation device, global map generation system, and program
US20110153198A1 (en) Method for the display of navigation instructions using an augmented-reality concept
JP5028662B2 (en) Road white line detection method, road white line detection program, and road white line detection device
US20220178717A1 (en) Self-position estimation device, self-driving system including the same, and self-generated map sharing device
JP2010519550A (en) System and method for vehicle navigation and guidance including absolute and relative coordinates
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP4986883B2 (en) Orientation device, orientation method and orientation program
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
JP2008256620A (en) Map data correction device, method, and program
Hu et al. Fusion of vision, GPS and 3D gyro data in solving camera registration problem for direct visual navigation
WO2021240884A1 (en) Vehicle control device and host vehicle position estimation method
Chiang et al. Multifusion schemes of INS/GNSS/GCPs/V-SLAM applied using data from smartphone sensors for land vehicular navigation applications
TWI635302B (en) Real-time precise positioning system of vehicle
Davidson et al. Uninterrupted portable car navigation system using GPS, map and inertial sensors data
JP2009014555A (en) Navigation device, navigation method, and navigation program
JP2022136145A (en) Data structure, information processing device, and map data generator
KR100581235B1 (en) Method for updating gis numerical map of surveying information structural facilities along road by using aerial photograph as well as vehicle with gps receiver and laser measuring instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111222

R150 Certificate of patent or registration of utility model

Ref document number: 4897542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250