JP2011232271A - Navigation device, accuracy estimation method for on-vehicle sensor, and program - Google Patents
Navigation device, accuracy estimation method for on-vehicle sensor, and program Download PDFInfo
- Publication number
- JP2011232271A JP2011232271A JP2010104864A JP2010104864A JP2011232271A JP 2011232271 A JP2011232271 A JP 2011232271A JP 2010104864 A JP2010104864 A JP 2010104864A JP 2010104864 A JP2010104864 A JP 2010104864A JP 2011232271 A JP2011232271 A JP 2011232271A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- navigation device
- distance
- accuracy estimation
- vehicle sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ナビゲーション装置、車載センサの精度推定方法、および、プログラムに関する。 The present invention relates to a navigation device, an on-vehicle sensor accuracy estimation method, and a program.
近年の自動車(車両)は、高機能化が進み、各種車載センサを備えている(例えば、特許文献1)。 In recent years, automobiles (vehicles) have become highly functional and include various in-vehicle sensors (for example, Patent Document 1).
このような車載センサの信頼度は、環境(例えば、天候など)の変化に伴って変動する。例えば、雨天時には、カメラやレーザレーダなどの信頼度は低くなる場合がある。 The reliability of such in-vehicle sensors varies with changes in the environment (for example, weather). For example, when it rains, the reliability of cameras, laser radars, etc. may be low.
一般的には、そのような信頼度の低い車載センサから得られた情報は利用しない方がよい。 In general, it is better not to use information obtained from such in-vehicle sensors with low reliability.
しかし、車載センサの信頼度を確認するための技術は確立していない。 However, a technology for confirming the reliability of the in-vehicle sensor has not been established.
本発明は、車載センサの信頼度を簡易な方法で推定する技術を提供することを目的とする。 An object of this invention is to provide the technique which estimates the reliability of a vehicle-mounted sensor by a simple method.
上記課題を解決するための本願発明は、車載センサの精度を推定するナビゲーション装置であって、特定の区間の距離が記録されている地図データを記憶している記憶手段と、前記車載センサを用いて、前記区間の距離を計測する計測手段と、前記地図データに記録されている距離と、前記計測手段で計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定手段と、を備える。 The present invention for solving the above-mentioned problems is a navigation device for estimating the accuracy of an in-vehicle sensor, using storage means for storing map data in which the distance of a specific section is recorded, and the in-vehicle sensor. A sensor for estimating the accuracy of the in-vehicle sensor based on a deviation amount between the measuring means for measuring the distance of the section, the distance recorded in the map data, and the distance measured by the measuring means. Accuracy estimation means.
以下、本発明の実施形態の一例を図面を参照して説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態が適用されたナビゲーション装置100の概略構成図である。図示するようにナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(マイクロフォン41、スピーカ42)と、入力装置5(タッチパネル51、ダイヤルスイッチ52)と、車速センサ6と、ジャイロセンサ7と、GPS受信装置8と、FM多重放送受信装置9と、ビーコン受信装置10と、カメラ11と、を備えている。ナビゲーション装置100は、車両に載置されている車載用ナビゲーション装置としてもよいし、携帯電話やPDAなどの携帯端末としてもよい。
FIG. 1 is a schematic configuration diagram of a
演算処理部1は、様々な処理を行う中心的ユニットである。例えば、演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、各種ハードウェアを演算処理部1に接続するためのI/F(インタフェース)24と、を有する。そして、演算処理部1は、各デバイスをバス25で相互に接続した構成からなる。そして、後述する各機能部(101〜104)は、CPU21がRAM22などのメモリに読み出したプログラムを実行することで実現される。
The arithmetic processing unit 1 is a central unit that performs various processes. For example, the arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes various processes such as numerical calculation and control of each device, and a RAM (Random) that stores map data, arithmetic data, and the like read from the
例えば、演算処理部1は、車速センサ6、ジャイロセンサ7、GPS受信装置8から出力される情報を基にして現在地を算出する。また、得られた現在地情報に基づいて、表示に必要な地図データを記憶装置3から読み出す。また、読み出した地図データをグラフィック展開し、そこに現在地マーク(或いは、移動体の位置を示す移動体マーク)を重ねてディスプレイ2に表示する。また、記憶装置3に記憶されている地図データを用いて、ユーザーから指示された出発地、又は演算処理部1で算出された現在地と、目的地と、を結ぶ最適な経路(以下では「推奨経路」という)を探索する。また、音声入出力装置4のスピーカ42やディスプレイ2を用いてユーザーを誘導する。
For example, the arithmetic processing unit 1 calculates the current location based on information output from the vehicle speed sensor 6, the
ディスプレイ2は、文字や画像の表示を行うための画面を備え、演算処理部1等で生成されたグラフィックス情報を前記画面上に表示するユニットである。ディスプレイ2は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどで構成される。
The
記憶装置3は、CD−ROMやDVD−ROMやHDDやICカードといった記憶媒体で構成される。この記憶媒体には、例えば、地図データ310、音声データ、動画データ、等が記憶されている。また、記憶媒体は、電源供給が停止した場合でも必要なデータを保持可能なフラッシュメモリなどで構成されていてもよい。
The
図2は、地図データ310の概略データ構造を示す図である。図示するように、地図データ310は、地図上の区画された領域であるメッシュの識別コード(メッシュID)311ごとに、そのメッシュ領域に含まれている道路を構成する各リンクのリンクデータ320を含んでいる。
FIG. 2 is a diagram illustrating a schematic data structure of the map data 310. As shown in the figure, the map data 310 includes
リンクデータ320は、リンクの識別コード(リンクID)321ごとに、リンクを構成する2つのノード(開始ノード、終了ノード)の座標情報322、リンクを含む道路の種別情報を示す道路種別323、リンクの長さを示すリンク長情報324、リンク旅行時間325、2つのノードにそれぞれ接続するリンクの識別コード(接続リンクID)326、道路の合流地点における加速区間の位置(例えば、始点、終点)や、道路の分岐地点における車線変更が可能な区間の位置(例えば、始点、終点)を示す特定区間データ327、などを含んでいる。なお、ここでは、リンクを構成する2つのノードについて開始ノードと終了ノードを区別することで、道路の上り方向と下り方向を、それぞれ別のリンクとして管理することができる。また、特定区間が存在しないリンク(リンクID321)には、特定区間データ327は対応付けられていない。また、地図データ310には、地図表示における道路や施設を表示するための描画データが格納されている。
For each link identification code (link ID) 321,
図1に戻り、音声入出力装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、を備える。マイクロフォン41は、運転手やその他の搭乗者から発された音声などを取得する。スピーカ42は、演算処理部1で生成された音声信号を出力する。これらのマイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配置されている。
Returning to FIG. 1, the voice input / output device 4 includes a
入力装置5は、ユーザからの指示を受け付けるユニットである。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、その他のハードスイッチ(図示せず)であるスクロールキー、縮尺変更キーなどで構成される。また、入力装置5には、ナビゲーション装置100に対して遠隔で操作指示を行うことができるリモートコントローラが含まれる。リモートコントローラは、ダイヤルスイッチやスクロールキー、縮尺変更キーなどを備え、各キーやスイッチが操作された情報をナビゲーション装置100に送出することができる。
The
タッチパネル51は、ディスプレイ2の表示面に貼られた透過性のある操作パネルである。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。
The
ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1では、パルス信号の数から、ダイヤルスイッチ52の回転角度を求める。
The
車速センサ6、ジャイロセンサ7、及び、GPS受信装置8は、移動体(ナビゲーション装置100)の現在地(自車位置)などを算出するために使用される。車速センサ6は、車速を算出するために用いる車速データを出力するセンサである。ジャイロセンサ7は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置8は、GPS衛星からの信号を受信し、移動体とGPS衛星間の距離とその距離の変化率を3個以上の衛星に対して測定することで、移動体の現在地や進行速度を測定する。
The vehicle speed sensor 6, the
FM多重放送受信装置9は、FM放送局から送られてくるFM多重放送信号を受信する。FM多重放送には、VICS(Vehicle Infomation Communication System:登録商標)情報の概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報などのFM多重一般情報としてラジオ局が提供する文字情報などがある。
The FM
ビーコン受信装置10は、VICS情報などの概略現況交通情報、規制情報、SA/PA情報、駐車場情報、天気情報や緊急警報などを受信する。例えば、光により通信する光ビーコン、電波により通信する電波ビーコン等の受信装置である。
The
カメラ11は、所定のセンサ領域(例えば、進行方向を中心として左右に角度差θの範囲)の路面を撮影する。カメラ11は、限定するものではないが、例えば、走行レーンを特定するためや、車両前方の障害物を検知するために使用される。
The
なお、カメラ11の代わりに、或いは、カメラ11と共に、他の車載センサ(電磁波を検知するためのレーダーや音波を検知するためのソナー等)を備えていてもよい。ここで、レーダーやソナーは、例えば、車両前方の障害物を検知するためや、他の車両との車間距離を測定するために使用される。
In addition, instead of the
図3は、演算処理部1の機能ブロック図である。図示するように、演算処理部1は、主制御部101と、入力受付部102と、表示処理部103と、センサ精度推定部104と、を有する。
FIG. 3 is a functional block diagram of the arithmetic processing unit 1. As illustrated, the arithmetic processing unit 1 includes a
主制御部101は、様々な処理を行う中心的な機能部であり、処理内容に応じて、他の
機能部を制御する。例えば、主制御部101は、推奨経路の探索や、探索された推奨経路を用いて経路誘導を行う。また、主制御部101は、地図をディスプレイ2に表示させる際には、表示が要求された領域(例えば、推奨経路全体を表示するのに必要な領域)にある地図データを記憶装置3から抽出し、指定された描画方式で、道路、その他の地図構造物、出発地や現在地、目的地、推奨経路、等を描画させる指示を、表示処理部103に対して通知する。
The
入力受付部102は、入力装置5に入力されたユーザーからの要求を受け付け、その要求内容を解析し、解析結果に応じたデータを主制御部101に通知する。例えば、入力受付部102は、ナビゲーション装置100の入力装置5に、電源の投入や切断を指示する要求、車載センサ(例えば、カメラ11)起動の契機となる要求、等が入力されると、その情報を受け付けて解析し、主制御部101に通知する。
The
表示処理部103は、ディスプレイ2に、地図、推奨経路、ユーザーに通知する各種メッセージ、等を表示させる。具体的には、表示処理部103は、主制御部101からの指示に基づき、ディスプレイ2の画面上に表示させるためのグラフィックス情報を生成してディスプレイ2に送信する。また、表示処理部103は、ディスプレイ2に表示させた地図上に、車両の位置を示す車両マークや各種設定画面などを表示するグラフィック情報を生成してディスプレイ2へ送信する。
The
センサ精度推定部104は、車載センサ(カメラ11)の精度(信頼度)を推定する。具体的には、センサ精度推定部104は、道路上の分岐地点、合流地点の有無を判断する(後述する「分岐・合流判断処理」)。そして、センサ精度推定部104は、分岐地点、合流地点が存在する場合には、カメラ11を用いてセンサ領域の路面を撮影し、分岐地点又は合流地点の特定区間に設けられている路面標示(例えば、路面に引かれているライン)を認識する(後述する「センサ認識結果取得処理」)。さらに、センサ精度推定部104は、カメラ11を用いて認識したライン(特定区間)と、地図データ310に予め格納されている特定区間データ327を比較して、車載センサ(カメラ11)の精度(信頼度)を推定する(後述する「センサ精度推定処理」)。
The sensor
なお、上記した各構成要素は、ナビゲーション装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
In addition, in order to make an understanding of the structure of the
また、各機能部(101〜104)は、ハードウエア(ASICなど)により構築されてもよい。また、各機能部の処理が一つのハードウエアで実行されてもよいし、複数のハードウエアで実行されてもよい。 Moreover, each function part (101-104) may be constructed | assembled by hardware (ASIC etc.). In addition, the processing of each functional unit may be executed by one hardware, or may be executed by a plurality of hardware.
次に、上記構成からなるナビゲーション装置100の特徴的な動作について説明する。
Next, a characteristic operation of the
<センサ精度推定部104が行う処理>
図4は、ナビゲーション装置100のセンサ精度推定部104が行う、車載センサ(本実施形態ではカメラ11)の精度を推定するための処理の概要を示すフローチャートである。
<Processing performed by the sensor
FIG. 4 is a flowchart illustrating an outline of processing performed by the sensor
図示するように、センサ精度推定部104は、上述した、「分岐・合流判断処理S1」、「センサ認識結果取得処理S2」、「センサ精度推定処理S3」の順に処理を実行し、車載センサの精度を推定する。なお、限定するものではないが、上記のS1の処理を開始するタイミングは、例えば、推奨経路に沿った経路誘導が開始されるタイミングでよい。
As shown in the figure, the sensor
以下に、各処理(S1〜S3)について、図5、6、7、8を参照して詳細に説明する。 Below, each process (S1-S3) is demonstrated in detail with reference to FIG.
<分岐・合流判断処理>
図5は、センサ精度推定部104が行う「分岐・合流判断処理S1」を示すフローチャートである。なお、主制御部101は、経路誘導が開始されるタイミングで、本処理(分岐・合流判断処理S1)の開始の指示をセンサ精度推定部104に通知する。
<Branching / Join determination processing>
FIG. 5 is a flowchart showing the “branching / merging determination process S1” performed by the sensor
センサ精度推定部104は、主制御部101からの通知を受け、本処理(分岐・合流判断処理S1)を開始すると、リンクデータ320の先読みを行う(ステップS101)。具体的には、センサ精度推定部104は、記憶装置3に格納されている地図データ310から、推奨経路を構成するリンク(リンクID321)を特定する。そして、センサ精度推定部104は、特定した推奨経路のリンクのうち、移動体(ナビゲーション装置100を搭載した車両)の現在地から所定距離内(例えば、3km内)に存在するリンク(ただし、未走行のリンク)を読み出す。
When the sensor
次に、センサ精度推定部104は、現在地から所定距離内に分岐地点、又は、合流地点が存在するか否か判別する(ステップS102)。具体的には、センサ精度推定部104は、ステップS101で読み出したリンク(リンクID321)に、特定区間データ327が対応付けられているか否か判別する。
Next, the sensor
ここで、センサ精度推定部104は、先読みしたリンクに特定区間データ327が対応付けられている場合には、現在地から所定距離内に分岐地点、又は、合流地点が存在すると判定する。一方、センサ精度推定部104は、先読みしたリンクに特定区間データ327が対応付けられていない場合には、現在地から所定距離内に分岐地点、又は、合流地点は存在しないと判定する。
Here, when the
そして、センサ精度推定部104は、現在地から所定距離内に分岐地点、又は、合流地点が存在しないと判定した場合には(ステップS102;No)、処理をステップS101に戻す。従って、センサ精度推定部104は、分岐地点、又は、合流地点が存在しないリンク(道路)を走行し続けている間は、ステップS101、S102の処理を繰り返し実行する。
If the sensor
一方、ステップS102において、センサ精度推定部104は、現在地から所定距離内に分岐地点、又は、合流地点が存在すると判定した場合には(ステップS102;Yes)、処理をステップS103に移行する。
On the other hand, if the sensor
処理がステップS103に移行すると、センサ精度推定部104は、分岐地点、又は、合流地点に引かれているライン(特定区間)の位置を記憶しておく(ステップS103)。具体的には、センサ精度推定部104は、ステップS102において分岐地点、又は、合流地点が存在すると判定したリンクに対応付けられている特定区間データ327から、特定区間の始点と、終点を示す座標データを抽出し、メモリ(例えば、RAM22)に記憶しておく。
When the process proceeds to step S103, the sensor
なお、図6は、上述した合流地点における道路の概要図である。一般的に、支線から本線に合流する場合、ドライバーは、移動体(車両)を加速させて本線に合流する。そのため、合流地点には、図示するように、移動体を加速させるための特定区間(加速区間)が設けられている。このような特定区間の路面には、図示するように、本線と支線とを区切るためのラインが引かれている。上述したリンクデータ320の特定区間データ327には、図示する特定区間の始点、終点の位置を示す座標データが予め格納されている。そして、センサ精度推定部104は、ステップS103において、移動体が近づいている合流地点に対応する特定区間データ327を読み出す(メモリに記憶する)。
FIG. 6 is a schematic diagram of the road at the above-described junction. Generally, when joining a main line from a branch line, a driver accelerates a moving body (vehicle) and joins the main line. Therefore, as shown in the figure, a specific section (acceleration section) for accelerating the moving body is provided at the junction. As shown in the drawing, a line for separating the main line and the branch line is drawn on the road surface in such a specific section. In the
ステップS103の処理を終了すると、センサ精度推定部104は、本処理を終了するとともに主制御部101に通知する。
When the process of step S103 is completed, the sensor
<センサ認識結果取得処理>
図7は、センサ精度推定部104が行う「センサ認識結果取得処理S2」を示すフローチャートである。なお、主制御部101は、分岐・合流判断処理S1の終了が通知されるタイミングで、本処理(センサ認識結果取得処理S2)の開始の指示をセンサ精度推定部104に通知する。
<Sensor recognition result acquisition process>
FIG. 7 is a flowchart showing the “sensor recognition result acquisition process S <b> 2” performed by the sensor
センサ精度推定部104は、主制御部101からの通知を受け、本処理(センサ認識結果取得処理S2)を開始すると、合流地点の路面に引かれているラインの線種を認識する(ステップS201)。具体的には、センサ精度推定部104は、カメラ11を起動して、センサ領域の路面を撮影する。そして、センサ精度推定部104は、カメラ11を用いて撮影して得られる画像データを解析(特徴抽出など)して、路面に引かれているラインの線種を認識する。なお、カメラ11の撮影範囲であるセンサ領域は、例えば、図6に示すような領域とし、特定区間に引かれているラインが撮影可能な領域である。
Upon receiving the notification from the
センサ精度推定部104は、ステップS201で認識した線種が、取得目標の線種(すなわち、特定区間に引かれているライン)であるか否か判別する(ステップS202)。具体的には、センサ精度推定部104は、特定区間に引かれているラインの特徴情報を記憶装置3から読み出す。そして、センサ精度推定部104は、読み出した特徴情報と、ステップS201で取得した画像データの特徴の類似度によって判別する。例えば、センサ精度推定部104は、その類似度が所定の閾値以上である場合に、ステップS201で認識した線種が、取得目標の線種であると判定する。一方、その類似度が所定の閾値未満である場合には、ステップS201で認識した線種が、取得目標の線種ではないと判定する。なお、特定区間に引かれているラインの特徴情報は、予め記憶装置3に格納されている
The sensor
そして、センサ精度推定部104は、ステップS201で認識した線種が、取得目標の線種であると判定した場合には(ステップS202;Yes)、処理をステップS203に移行する。
If the sensor
処理がステップS203に移行すると、センサ精度推定部104は、ステップS201で認識したラインが、特定区間の路面に引かれているラインの始点か否か判別する(ステップS203)。具体的には、センサ精度推定部104は、ステップS202で取得目標の線種として判定したのが初めてであるか否か判別する。ここでの判別方法としては、限定するものではないが、例えば、特定区間に引かれているラインの始点を認識した(ステップS204に処理が初めて移行する)タイミングでフラグをたて(「1」にする)、そのラインの終点を確定した(後述するステップS211に処理が移行する)タイミングでフラグをおろす(「0」にする)ようにしておき、そのフラグに基づいて判別する。
When the process proceeds to step S203, the sensor
ステップS203において、特定区間の路面に引かれているラインの始点と判定されると(ステップS203;Yes)、センサ精度推定部104は、処理をステップS204に移行する。そして、センサ精度推定部104は、特定区間に引かれているラインの始点位置をメモリ(例えば、RAM22)に記憶する(ステップS204)。具体的には、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地に基づいて、特定区間の路面に引かれているラインの始点位置を算出する。なお、ラインの始点位置を算出する方法としては、限定されるものではないが、例えば、算出した現在地そのものをラインの始点位置として算出してもよいし、算出した現在地から所定の距離(カメラ11とラインの間の推定距離)ずれた位置をラインの始点位置として算出してもよい。それから、センサ精度推定部104は、算出したラインの始点位置をメモリに記憶する。
In step S203, if it is determined that the start point of the line drawn on the road surface of the specific section (step S203; Yes), the sensor
センサ精度推定部104は、ラインの始点位置を記憶した後、処理をステップS201に戻す。
The sensor
一方、ステップS203において、特定区間の路面に引かれているラインの始点ではないと判定されると(ステップS203;No)、センサ精度推定部104は、処理をステップS205に移行する。そして、センサ精度推定部104は、ラインの始点位置からの距離を算出する(ステップS205)。具体的には、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地と、ステップS204でメモリに記憶した始点位置と、の距離を算出する。
On the other hand, if it is determined in step S203 that it is not the starting point of the line drawn on the road surface of the specific section (step S203; No), the sensor
センサ精度推定部104は、ラインの始点位置からの距離を算出後、処理をステップS201に戻す。
After calculating the distance from the starting point position of the line, the sensor
以上のステップS201からステップS205の処理を繰り返すことにより、センサ精度推定部104は、特定区間の路面に引かれているラインを始点から終点まで連続的に撮影でき、始点から終点までの距離を算出(測定)することができる。
By repeating the processing from step S201 to step S205, the sensor
ところで、上記のステップS202において、センサ精度推定部104は、ステップS201で認識した線種が、取得目標の線種ではないと判定した場合には(ステップS202;No)、処理をステップS206に移行する。
Incidentally, in step S202 described above, if the sensor
処理がステップS206に移行すると、センサ精度推定部104は、取得目標の線種を少なくとも1回は認識済みか否か判別する(ステップS206)。ここでの判別方法としては、例えば、上述したフラグを用いて判別すればよい。
When the process proceeds to step S206, the sensor
センサ精度推定部104は、取得目標の線種を1回も認識していないと判定した場合には(ステップS206;No)、処理をステップS201に戻す。これにより、再度、線種の認識を試みることができる。
If it is determined that the acquisition target line type has not been recognized once (step S206; No), the sensor
一方、センサ精度推定部104は、取得目標の線種を少なくとも1回は認識していると判定した場合には(ステップS206;Yes)、特定区間の路面に引かれているラインの終点に到達した可能性があると判断して、処理をステップS207に移行する。
On the other hand, if the sensor
そして、処理がステップS207に移行すると、センサ精度推定部104は、前回認識した線種も取得目標ではない線種(以下では、「非目標線種」とよぶ)であったか否か判別する(ステップS207)。具体的には、センサ精度推定部104は、目標線種を少なくとも1回は認識した後、初めて非目標線種を認識した(ステップS207に処理が初めて移行する)タイミングでフラグをたて(「1」にする)、特定区間のラインの終点を確定した(後述するステップS211に処理が移行する)タイミングでフラグをおろす(「0」にする)ようにしておき、そのフラグに基づいて判別する。
When the process proceeds to step S207, the sensor
センサ精度推定部104は、前回認識した線種は非目標線種ではなかったと判定した場合には(ステップS207;No)、処理をステップS209に移行する。
If the sensor
そして、センサ精度推定部104は、非目標線種の最初の取得位置(つまり、特定区間のラインの終点位置である可能性が高い位置)をメモリ(例えば、RAM22)に記憶する(ステップS209)。具体的には、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地に基づいて、非目標線種の最初の取得位置を算出する。なお、非目標線種の最初の取得位置を算出する方法としては、限定されるものではないが、例えば、算出した現在地そのものを非目標線種の取得位置として算出してもよいし、算出した現在地から所定の距離(カメラ11とラインの間の推定距離)ずれた位置を非目標線種の取得位置として算出してもよい。それから、センサ精度推定部104は、ここで算出した位置を、特定区間に引かれているラインの仮の終点位置として、メモリに記憶する。
Then, the sensor
その後、センサ精度推定部104は、処理をステップS201に戻す。
Thereafter, the sensor
一方、センサ精度推定部104は、ステップS207において、前回認識した線種も非目標線種であったと判定した場合には(ステップS207;Yes)、処理をステップS208に移行して、非目標線種を認識し続けている距離を算出する(ステップS208)。具体的には、センサ精度推定部104は、ラインの仮の終点位置から現在地までの距離を算出する。そのために、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地と、ステップS209でメモリに記憶した仮の終点位置と、の距離を算出する。
On the other hand, if the sensor
センサ精度推定部104は、ラインの仮の終点位置からの距離を算出すると、処理をステップS210に移行する。
When the sensor
そして、センサ精度推定部104は、ステップS208で算出した距離が、所定値A(図6参照)以上であるか否か判別する(ステップS210)。
Then, the sensor
ここで、センサ精度推定部104は、ステップS208で算出した距離が所定値A未満である場合には(ステップS210;No)、移動体(車両)がラインの終点位置をまだ通過していない可能性もあるため、処理をステップS201に戻す。
Here, if the distance calculated in step S208 is less than the predetermined value A (step S210; No), the sensor
一方、センサ精度推定部104は、ステップS109で算出した距離が所定値A以上である場合には(ステップS210;Yes)、移動体(車両)はラインの終点位置を通過していると判断して、処理をステップS211に移行する。
On the other hand, when the distance calculated in step S109 is greater than or equal to the predetermined value A (step S210; Yes), the sensor
処理がステップS211に移行すると、センサ精度推定部104は、特定区間の路面に引かれているラインの終点位置、及び、特定区間の距離を確定する(ステップS211)。すなわち、センサ精度推定部104は、ステップS211に処理が移行した時点において、ステップS209でメモリに格納された仮の終点位置を、実際の終点位置として確定する。さらに、ステップS205で最後にメモリに格納された距離(始点からの距離)を、特定区間の距離として確定する。
When the process proceeds to step S211, the sensor
ステップS211の処理を終了すると、センサ精度推定部104は、本処理を終了するとともに主制御部101に通知する。
When the process of step S211 is completed, the sensor
<センサ精度推定処理>
図8は、センサ精度推定部104が行う「センサ精度推定処理S3」を示すフローチャートである。なお、主制御部101は、センサ認識結果取得処理S2の終了が通知されるタイミングで、本処理(センサ精度推定処理S3)の開始の指示をセンサ精度推定部104に通知する。
<Sensor accuracy estimation process>
FIG. 8 is a flowchart showing the “sensor accuracy estimation process S <b> 3” performed by the sensor
センサ精度推定部104は、主制御部101からの通知を受け、本処理(センサ精度推定処理S3)を開始すると、地図データ310に格納されている特定区間の距離と、車載センサ(カメラ11)を用いて測定した特定区間の距離と、を比較する(ステップS301)。具体的には、センサ精度推定部104は、ステップS103でメモリに記憶しておいた特定区間の始点、終点を示す座標データから、特定区間の距離を算出する。そして、算出した特定区間の距離と、ステップS211で確定した特定区間の距離と、を比較する。
When the sensor
センサ精度推定部104は、ステップS301で比較した両距離が一致する(或いは両距離のずれ量が所定範囲内である)場合には(ステップS302;Yes)、処理をステップS303に移行する。
If the two distances compared in step S301 match (or the deviation between the two distances is within a predetermined range) (step S302; Yes), the sensor
処理がステップS303に移行すると、センサ精度推定部104は、地図データ310に格納されている特定区間の始点、終点の位置と、車載センサ(カメラ11)を用いて測定した特定区間の始点、終点の位置と、を比較する(ステップS303)。具体的には、センサ精度推定部104は、ステップS103でメモリに記憶しておいた特定区間の始点を示す座標データと、ステップS204で確定した特定区間の始点の位置と、を比較する。これとともに、センサ精度推定部104は、ステップS103でメモリに記憶しておいた特定区間の終点を示す座標データと、ステップS211で確定した特定区間の終点の位置と、を比較する。
When the process proceeds to step S303, the sensor
ここで、センサ精度推定部104は、ステップS303で比較した始点、終点のそれぞれの両位置が一致する(或いは両位置のずれ量が所定範囲内である)場合には(ステップS303;Yes)、そのまま処理をステップS305に移行して、車載センサ(カメラ11)の精度(信頼度)が高いと判定する(ステップS305)。
Here, the sensor
一方、センサ精度推定部104は、ステップS303で比較した始点、終点のそれぞれの両位置が一致しない(或いは両位置のずれ量が所定範囲を超える)場合には(ステップS303;No)、処理をステップS304に移行して、ずれ補正を行う(ステップS304)。なお、ずれ補正とは、経路誘導などに用いられる現在地をより精度良く求めるために、車載センサ(カメラ11)から得られる位置データと、実際の位置とのずれを補正する(或いは、単にずれ量をメモリに記憶しておく)処理である。
On the other hand, if both of the start point and end point positions compared in step S303 do not match (or the deviation amount between both positions exceeds a predetermined range) (step S303; No), the sensor
そして、センサ精度推定部104は、ずれ補正後、処理をステップS305に移行して、車載センサ(カメラ11)の精度(信頼度)が高いと判定する(ステップS305)。
Then, after correcting the deviation, the sensor
ステップS305での判定後、センサ精度推定部104は、本処理を終了するとともに主制御部101に通知する。
After the determination in step S305, the sensor
一方、ステップS302において、ステップS301で比較した両距離が一致しない(或いは両距離のずれ量が所定範囲を超える)場合には(ステップS302;No)、センサ精度推定部104は、処理をステップS306に移行する。
On the other hand, in step S302, when the two distances compared in step S301 do not match (or the deviation amount of both distances exceeds a predetermined range) (step S302; No), the sensor
処理がステップS306に移行すると、センサ精度推定部104は、車載センサ(カメラ11)の精度(信頼度)が低いと判定して、本処理を終了するとともに主制御部101に通知する。それから、主制御部101は、この通知を受け、図4に示すフローを終了する。
When the process proceeds to step S306, the sensor
以上の処理をセンサ精度推定部104が行うことにより、本実施形態のナビゲーション装置100は、車載センサの精度(信頼度)を推定することができる。そして、推定した結果を参照することにより、車載センサから得られるデータを利用するか、利用しないかを判断できるようになる。
When the sensor
なお、上記したフローの各処理単位は、ナビゲーション装置100の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
Each processing unit of the above-described flow is divided according to main processing contents in order to facilitate understanding of the processing of the
また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。 Moreover, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.
以下に、上記実施形態の変形例を挙げる。 Below, the modification of the said embodiment is given.
例えば、上記フローでは、道路の合流地点に設けられている特定区間(加速区間)において、車載センサの精度を推定する処理について説明している。しかし、上述したように、本発明は、道路の分岐地点において、車載センサの精度を推定してもよい。この場合においても、上記フローと同様の処理をセンサ精度推定部104が実行することにより、車載センサの精度を推定することができる。
For example, in the above flow, a process for estimating the accuracy of the in-vehicle sensor in a specific section (acceleration section) provided at a junction of roads is described. However, as described above, the present invention may estimate the accuracy of the in-vehicle sensor at a road branch point. Even in this case, the accuracy of the in-vehicle sensor can be estimated by the sensor
また、上記実施形態では、道路の合流地点、又は、分岐地点に設けられている特定区間において、車載センサの精度を推定している。しかし、本発明は、これに限定されるものでもない。例えば、有料道路の料金所付近に設けられている特定区間において、車載センサの精度を推定してもよい。 Moreover, in the said embodiment, the precision of a vehicle-mounted sensor is estimated in the specific area provided in the junction of a road or a branch point. However, the present invention is not limited to this. For example, the accuracy of the in-vehicle sensor may be estimated in a specific section provided near a toll gate on a toll road.
図9は、有料道路の料金所付近の概要図である。図示するように、料金所付近には、上記の合流地点や分岐地点と同様の特定区間が設けられる。具体的には、道幅が広がり始める地点を特定区間の始点とし、料金所の入口を特定区間の終点とするようなラインが路面に引かれる。そして、特定区間データ327には、この始点と終点を示す座標データが予め格納されている。こうして、ナビゲーション装置100は、上記フローと同様の処理を実行することによって、車載センサの精度を推定することができる。
FIG. 9 is a schematic diagram of the vicinity of the toll gate on the toll road. As shown in the figure, a specific section similar to the above junction and branch point is provided near the toll gate. Specifically, a line is drawn on the road surface such that the point where the road starts to widen is the starting point of the specific section and the entrance of the toll gate is the end point of the specific section. The
また、上記実施形態では、推奨経路に従って走行する場合について説明している。しかし、本発明はこれに限定されない。すなわち、推奨経路に従って走行しない場合に適用してもよい。この場合、センサ精度推定部104は、移動体(車両)の現在地と走行方向から走行道路(走行予定の道路)を特定する。例えば、現在地のリンクに接続し、かつ、道路種別が同じリンクを特定する。そして、センサ精度推定部104は、上記実施形態と同様に、リンクデータ320を参照することによって、走行道路上の分岐地点、合流地点の有無を判断できる。その結果、センサ精度推定部104は、上記実施形態と同様に、車載センサ(カメラ11)を用いて特定区間の路面標示を撮影し、車載センサの精度を推定することができる。
Moreover, the said embodiment demonstrated the case where it drive | works according to a recommended route. However, the present invention is not limited to this. That is, you may apply when not driving | running according to a recommended route. In this case, the sensor
1・・・演算処理部、2・・・ディスプレイ、3・・・記憶装置、4・・・音声入出力装置、5・・・入力装置、6・・・車速センサ、7・・・ジャイロセンサ、8・・・GPS受信装置、9・・・FM多重放送受信装置、10・・・ビーコン受信装置、11・・・カメラ、21・・・CPU、22・・・RAM、23・・・ROM、24・・・インターフェイス(I/F)、41・・・マイクロフォン、42・・・スピーカ、51・・・タッチパネル、52・・・ダイヤルスイッチ、100・・・ナビゲーション装置、101・・・主制御部、102・・・入力受付部、103・・・表示処理部、104・・・センサ精度推定部、310・・・地図データ、311・・・メッシュID、320・・・リンクデータ、321・・・リンクID、322・・・開始ノード・終了ノード、323・・・道路種別、324・・・リンク長、325・・・リンク旅行時間、326・・・開始接続リンク・終了接続リンク、327・・・特定区間データ
DESCRIPTION OF SYMBOLS 1 ... Operation processing part, 2 ... Display, 3 ... Memory | storage device, 4 ... Voice input / output device, 5 ... Input device, 6 ... Vehicle speed sensor, 7 ...
Claims (9)
特定の区間の距離が記録されている地図データを記憶している記憶手段と、
前記車載センサを用いて、前記区間の距離を計測する計測手段と、
前記地図データに記録されている距離と、前記計測手段で計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定手段と、を備える、
ことを特徴とするナビゲーション装置。 A navigation device that estimates the accuracy of an in-vehicle sensor,
Storage means for storing map data in which the distance of a specific section is recorded;
Measuring means for measuring the distance of the section using the in-vehicle sensor,
Sensor accuracy estimation means for estimating the accuracy of the in-vehicle sensor based on the amount of deviation between the distance recorded in the map data and the distance measured by the measurement means,
A navigation device characterized by that.
前記地図データには、
前記特定の区間の始点位置と終点位置が記録されており、
前記計測手段は、
前記車載センサを用いて、前記始点位置に設置されている目標物から、前記終点位置に設置されている目標物までの距離を計測し、
前記センサ精度推定手段は、
前記地図データに記録されている前記始点位置と前記終点位置の距離を算出し、算出した当該距離と、前記計測手段で計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定する、
ことを特徴とするナビゲーション装置。 The navigation device according to claim 1,
The map data includes
The start position and end position of the specific section are recorded,
The measuring means includes
Using the vehicle-mounted sensor, measure the distance from the target installed at the start point position to the target installed at the end point position,
The sensor accuracy estimation means includes
The distance between the start point position and the end point position recorded in the map data is calculated. presume,
A navigation device characterized by that.
前記センサ精度推定手段は、
前記ずれ量が所定値以内である場合に、前記車載センサは高精度と推定し、
前記すれ量が所定値を超える場合に、前記車載センサは低精度と推定する、
ことを特徴とするナビゲーション装置。 The navigation device according to claim 1 or 2,
The sensor accuracy estimation means includes
When the amount of deviation is within a predetermined value, the in-vehicle sensor is estimated to be highly accurate,
When the amount of slip exceeds a predetermined value, the in-vehicle sensor estimates low accuracy,
A navigation device characterized by that.
前記特定の区間は、道路の合流地点における加速区間である、
ことを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 3,
The specific section is an acceleration section at a junction of roads.
A navigation device characterized by that.
前記特定の区間は、有料道路の料金所付近における所定区間である、
ことを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 3,
The specific section is a predetermined section in the vicinity of the toll gate on the toll road.
A navigation device characterized by that.
前記車載センサは、電磁波や音波を検知するためのセンサである、
ことを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 5,
The in-vehicle sensor is a sensor for detecting electromagnetic waves and sound waves.
A navigation device characterized by that.
前記車載センサには、カメラが含まれる、
ことを特徴とするナビゲーション装置。 The navigation device according to claim 6,
The in-vehicle sensor includes a camera.
A navigation device characterized by that.
前記車載センサを用いて、前記区間の距離を計測する計測ステップと、
前記地図データに記録されている距離と、前記計測ステップで計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定ステップと、を有する、
ことを特徴とするナビゲーション装置。 A method for estimating the accuracy of an in-vehicle sensor in a navigation device that stores map data in which the distance of a specific section is recorded,
A measurement step of measuring the distance of the section using the in-vehicle sensor,
A sensor accuracy estimation step for estimating the accuracy of the in-vehicle sensor based on the amount of deviation between the distance recorded in the map data and the distance measured in the measurement step;
A navigation device characterized by that.
前記車載センサを用いて、前記区間の距離を計測する計測ステップと、
前記地図データに記録されている距離と、前記計測ステップで計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定ステップと、を前記コンピューターに実行させる、
ことを特徴とするプログラム。 A program for causing a computer to function as a navigation device that stores map data in which the distance of a specific section is recorded,
A measurement step of measuring the distance of the section using the in-vehicle sensor,
Causing the computer to execute a sensor accuracy estimation step of estimating the accuracy of the in-vehicle sensor based on a deviation amount between the distance recorded in the map data and the distance measured in the measurement step.
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010104864A JP2011232271A (en) | 2010-04-30 | 2010-04-30 | Navigation device, accuracy estimation method for on-vehicle sensor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010104864A JP2011232271A (en) | 2010-04-30 | 2010-04-30 | Navigation device, accuracy estimation method for on-vehicle sensor, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011232271A true JP2011232271A (en) | 2011-11-17 |
Family
ID=45321709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010104864A Pending JP2011232271A (en) | 2010-04-30 | 2010-04-30 | Navigation device, accuracy estimation method for on-vehicle sensor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011232271A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2012070595A1 (en) * | 2010-11-23 | 2014-05-19 | 日本電気株式会社 | POSITION INFORMATION PROVIDING DEVICE, POSITION INFORMATION PROVIDING SYSTEM, POSITION INFORMATION PROVIDING METHOD, PROGRAM, AND RECORDING MEDIUM |
JP2016200488A (en) * | 2015-04-10 | 2016-12-01 | アルパイン株式会社 | Own vehicle position control device and own vehicle position control method |
JP2017003310A (en) * | 2015-06-05 | 2017-01-05 | 株式会社デンソー | Automatic travel control device, on-vehicle device for automatic travel, and automatic travel control method |
CN109669202A (en) * | 2017-10-16 | 2019-04-23 | 三星电子株式会社 | Position estimation device and method |
JP2022136856A (en) * | 2021-03-08 | 2022-09-21 | ヤフー株式会社 | Estimation device, estimation method, and estimation program |
-
2010
- 2010-04-30 JP JP2010104864A patent/JP2011232271A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2012070595A1 (en) * | 2010-11-23 | 2014-05-19 | 日本電気株式会社 | POSITION INFORMATION PROVIDING DEVICE, POSITION INFORMATION PROVIDING SYSTEM, POSITION INFORMATION PROVIDING METHOD, PROGRAM, AND RECORDING MEDIUM |
US9298739B2 (en) | 2010-11-23 | 2016-03-29 | Nec Corporation | Position information providing apparatus, position information providing system, position information providing method, program, and recording medium |
JP6086211B2 (en) * | 2010-11-23 | 2017-03-01 | 日本電気株式会社 | POSITION INFORMATION PROVIDING DEVICE, POSITION INFORMATION PROVIDING SYSTEM, POSITION INFORMATION PROVIDING METHOD, PROGRAM, AND RECORDING MEDIUM |
JP2016200488A (en) * | 2015-04-10 | 2016-12-01 | アルパイン株式会社 | Own vehicle position control device and own vehicle position control method |
JP2017003310A (en) * | 2015-06-05 | 2017-01-05 | 株式会社デンソー | Automatic travel control device, on-vehicle device for automatic travel, and automatic travel control method |
US10126430B2 (en) | 2015-06-05 | 2018-11-13 | Denso Corporation | Automated driving control apparatus and automated driving control method |
CN109669202A (en) * | 2017-10-16 | 2019-04-23 | 三星电子株式会社 | Position estimation device and method |
JP2019074505A (en) * | 2017-10-16 | 2019-05-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Position estimation method, device, and computer program |
JP7199163B2 (en) | 2017-10-16 | 2023-01-05 | 三星電子株式会社 | Position estimation method, device and computer program |
JP2022136856A (en) * | 2021-03-08 | 2022-09-21 | ヤフー株式会社 | Estimation device, estimation method, and estimation program |
JP7388379B2 (en) | 2021-03-08 | 2023-11-29 | Lineヤフー株式会社 | Estimation device, estimation method, and estimation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10315664B2 (en) | Automatic driving assistance system, automatic driving assistance method, and computer program | |
US10071745B2 (en) | Automated drive assisting system, automated drive assisting method, and computer program | |
EP3315911B1 (en) | Vehicle position determination device and vehicle position determination method | |
EP2253936B1 (en) | Current position determining device and current position determining nethod | |
JP6036371B2 (en) | Vehicle driving support system and driving support method | |
JP5472163B2 (en) | Speed regulation value notification device and speed regulation value notification system | |
JP5229293B2 (en) | Vehicle driving support device | |
US20180237018A1 (en) | Autonomous driving assistance system, autonomous driving assistance method, and computer program | |
CN107850456B (en) | Route guidance device and route guidance method | |
WO2011081159A1 (en) | Navigation device, route guidance method, and program | |
JP2007148901A (en) | Traffic congestion information display device | |
US20220017076A1 (en) | Drive assist device and program | |
JP2011232271A (en) | Navigation device, accuracy estimation method for on-vehicle sensor, and program | |
US10989558B2 (en) | Route guidance method and route guidance device | |
JP2008090654A (en) | Driving operation support device | |
JP2008305101A (en) | Warning device upon vehicle right or left turn | |
JP2006017644A (en) | Car navigation system and method for displaying position of own vehicle | |
KR101543073B1 (en) | Apparatus and Method for Driving Guide of Vehicle | |
JP2019053630A (en) | Electronic device and adjustment method of measurement direction of measurement sensor | |
JP2012112691A (en) | Car navigation device | |
JP5607353B2 (en) | Navigation device, route guidance method, and program | |
JP2012032366A (en) | Car navigation system | |
JP2013030006A (en) | Traffic light increase/decrease detection system, traffic light increase/decrease detection device, traffic light increase/decrease detection method, and computer program | |
JP2007101307A (en) | Navigation device and method | |
JP2011137723A (en) | Navigation device, route guidance method, and program |