JP2011232271A - Navigation device, accuracy estimation method for on-vehicle sensor, and program - Google Patents

Navigation device, accuracy estimation method for on-vehicle sensor, and program Download PDF

Info

Publication number
JP2011232271A
JP2011232271A JP2010104864A JP2010104864A JP2011232271A JP 2011232271 A JP2011232271 A JP 2011232271A JP 2010104864 A JP2010104864 A JP 2010104864A JP 2010104864 A JP2010104864 A JP 2010104864A JP 2011232271 A JP2011232271 A JP 2011232271A
Authority
JP
Japan
Prior art keywords
sensor
navigation device
distance
accuracy estimation
vehicle sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010104864A
Other languages
Japanese (ja)
Inventor
Atsuya Nakamura
淳哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2010104864A priority Critical patent/JP2011232271A/en
Publication of JP2011232271A publication Critical patent/JP2011232271A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide technology for estimating the reliability of an on-vehicle sensor by a simple means.SOLUTION: A navigation device 100 estimates the accuracy of an on-vehicle sensor. And the navigation device 100 includes: a storage means for storing map data in which the distance of a specific section is recorded; a measurement means for measuring the distance of the section using the on-vehicle sensor; and a sensor accuracy estimation means for estimating the accuracy of the on-vehicle sensor based on the difference between the distance recorded in the map data and the distance measured by the measurement means.

Description

本発明は、ナビゲーション装置、車載センサの精度推定方法、および、プログラムに関する。   The present invention relates to a navigation device, an on-vehicle sensor accuracy estimation method, and a program.

近年の自動車(車両)は、高機能化が進み、各種車載センサを備えている(例えば、特許文献1)。   In recent years, automobiles (vehicles) have become highly functional and include various in-vehicle sensors (for example, Patent Document 1).

このような車載センサの信頼度は、環境(例えば、天候など)の変化に伴って変動する。例えば、雨天時には、カメラやレーザレーダなどの信頼度は低くなる場合がある。   The reliability of such in-vehicle sensors varies with changes in the environment (for example, weather). For example, when it rains, the reliability of cameras, laser radars, etc. may be low.

一般的には、そのような信頼度の低い車載センサから得られた情報は利用しない方がよい。   In general, it is better not to use information obtained from such in-vehicle sensors with low reliability.

特開2009−9209号JP 2009-9209 A

しかし、車載センサの信頼度を確認するための技術は確立していない。   However, a technology for confirming the reliability of the in-vehicle sensor has not been established.

本発明は、車載センサの信頼度を簡易な方法で推定する技術を提供することを目的とする。   An object of this invention is to provide the technique which estimates the reliability of a vehicle-mounted sensor by a simple method.

上記課題を解決するための本願発明は、車載センサの精度を推定するナビゲーション装置であって、特定の区間の距離が記録されている地図データを記憶している記憶手段と、前記車載センサを用いて、前記区間の距離を計測する計測手段と、前記地図データに記録されている距離と、前記計測手段で計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定手段と、を備える。   The present invention for solving the above-mentioned problems is a navigation device for estimating the accuracy of an in-vehicle sensor, using storage means for storing map data in which the distance of a specific section is recorded, and the in-vehicle sensor. A sensor for estimating the accuracy of the in-vehicle sensor based on a deviation amount between the measuring means for measuring the distance of the section, the distance recorded in the map data, and the distance measured by the measuring means. Accuracy estimation means.

本発明の一実施形態が適用されたナビゲーション装置の概略構成図である。1 is a schematic configuration diagram of a navigation device to which an embodiment of the present invention is applied. 地図データの概略データ構造を示す図である。It is a figure which shows the schematic data structure of map data. 演算処理部の機能ブロック図である。It is a functional block diagram of an arithmetic processing part. 車載センサの精度(信頼度)を推定するための処理の概要を示すフロー図である。It is a flowchart which shows the outline | summary of the process for estimating the precision (reliability) of a vehicle-mounted sensor. 分岐・合流有無判断処理を示すフロー図である。It is a flowchart which shows a branch / merge presence determination process. 合流地点における道路の概要図である。It is a schematic diagram of the road in a junction. センサ認識結果取得処理を示すフロー図である。It is a flowchart which shows a sensor recognition result acquisition process. センサ精度推定処理を示すフロー図である。It is a flowchart which shows a sensor precision estimation process. 道路における料金所付近の概要図である。It is an outline figure near the toll booth on the road.

以下、本発明の実施形態の一例を図面を参照して説明する。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態が適用されたナビゲーション装置100の概略構成図である。図示するようにナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(マイクロフォン41、スピーカ42)と、入力装置5(タッチパネル51、ダイヤルスイッチ52)と、車速センサ6と、ジャイロセンサ7と、GPS受信装置8と、FM多重放送受信装置9と、ビーコン受信装置10と、カメラ11と、を備えている。ナビゲーション装置100は、車両に載置されている車載用ナビゲーション装置としてもよいし、携帯電話やPDAなどの携帯端末としてもよい。   FIG. 1 is a schematic configuration diagram of a navigation device 100 to which an embodiment of the present invention is applied. As shown in the figure, the navigation device 100 includes an arithmetic processing unit 1, a display 2, a storage device 3, a voice input / output device 4 (microphone 41, speaker 42), and an input device 5 (touch panel 51, dial switch 52). The vehicle speed sensor 6, the gyro sensor 7, the GPS receiver 8, the FM multiplex broadcast receiver 9, the beacon receiver 10, and the camera 11 are provided. The navigation device 100 may be an in-vehicle navigation device mounted on a vehicle, or a mobile terminal such as a mobile phone or a PDA.

演算処理部1は、様々な処理を行う中心的ユニットである。例えば、演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、各種ハードウェアを演算処理部1に接続するためのI/F(インタフェース)24と、を有する。そして、演算処理部1は、各デバイスをバス25で相互に接続した構成からなる。そして、後述する各機能部(101〜104)は、CPU21がRAM22などのメモリに読み出したプログラムを実行することで実現される。   The arithmetic processing unit 1 is a central unit that performs various processes. For example, the arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes various processes such as numerical calculation and control of each device, and a RAM (Random) that stores map data, arithmetic data, and the like read from the storage device 3. (Access Memory) 22, ROM (Read Only Memory) 23 for storing programs and data, and I / F (interface) 24 for connecting various types of hardware to the arithmetic processing unit 1. The arithmetic processing unit 1 has a configuration in which devices are connected to each other via a bus 25. And each function part (101-104) mentioned later is implement | achieved when CPU21 runs the program read to memory, such as RAM22.

例えば、演算処理部1は、車速センサ6、ジャイロセンサ7、GPS受信装置8から出力される情報を基にして現在地を算出する。また、得られた現在地情報に基づいて、表示に必要な地図データを記憶装置3から読み出す。また、読み出した地図データをグラフィック展開し、そこに現在地マーク(或いは、移動体の位置を示す移動体マーク)を重ねてディスプレイ2に表示する。また、記憶装置3に記憶されている地図データを用いて、ユーザーから指示された出発地、又は演算処理部1で算出された現在地と、目的地と、を結ぶ最適な経路(以下では「推奨経路」という)を探索する。また、音声入出力装置4のスピーカ42やディスプレイ2を用いてユーザーを誘導する。   For example, the arithmetic processing unit 1 calculates the current location based on information output from the vehicle speed sensor 6, the gyro sensor 7, and the GPS receiver 8. Further, map data necessary for display is read out from the storage device 3 based on the obtained current location information. Further, the read map data is developed in a graphic form, and a current location mark (or a moving body mark indicating the position of the moving body) is superimposed on the map data and displayed on the display 2. Further, using the map data stored in the storage device 3, an optimal route (hereinafter referred to as “recommended”) that connects the starting point instructed by the user or the current position calculated by the arithmetic processing unit 1 and the destination. Search for “route”. The user is guided using the speaker 42 and the display 2 of the voice input / output device 4.

ディスプレイ2は、文字や画像の表示を行うための画面を備え、演算処理部1等で生成されたグラフィックス情報を前記画面上に表示するユニットである。ディスプレイ2は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどで構成される。   The display 2 includes a screen for displaying characters and images, and is a unit that displays graphics information generated by the arithmetic processing unit 1 and the like on the screen. The display 2 is configured by a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.

記憶装置3は、CD−ROMやDVD−ROMやHDDやICカードといった記憶媒体で構成される。この記憶媒体には、例えば、地図データ310、音声データ、動画データ、等が記憶されている。また、記憶媒体は、電源供給が停止した場合でも必要なデータを保持可能なフラッシュメモリなどで構成されていてもよい。   The storage device 3 is composed of a storage medium such as a CD-ROM, DVD-ROM, HDD, or IC card. In this storage medium, for example, map data 310, audio data, moving image data, and the like are stored. The storage medium may be configured by a flash memory or the like that can hold necessary data even when power supply is stopped.

図2は、地図データ310の概略データ構造を示す図である。図示するように、地図データ310は、地図上の区画された領域であるメッシュの識別コード(メッシュID)311ごとに、そのメッシュ領域に含まれている道路を構成する各リンクのリンクデータ320を含んでいる。   FIG. 2 is a diagram illustrating a schematic data structure of the map data 310. As shown in the figure, the map data 310 includes link data 320 of each link constituting the road included in the mesh area for each mesh identification code (mesh ID) 311 that is a partitioned area on the map. Contains.

リンクデータ320は、リンクの識別コード(リンクID)321ごとに、リンクを構成する2つのノード(開始ノード、終了ノード)の座標情報322、リンクを含む道路の種別情報を示す道路種別323、リンクの長さを示すリンク長情報324、リンク旅行時間325、2つのノードにそれぞれ接続するリンクの識別コード(接続リンクID)326、道路の合流地点における加速区間の位置(例えば、始点、終点)や、道路の分岐地点における車線変更が可能な区間の位置(例えば、始点、終点)を示す特定区間データ327、などを含んでいる。なお、ここでは、リンクを構成する2つのノードについて開始ノードと終了ノードを区別することで、道路の上り方向と下り方向を、それぞれ別のリンクとして管理することができる。また、特定区間が存在しないリンク(リンクID321)には、特定区間データ327は対応付けられていない。また、地図データ310には、地図表示における道路や施設を表示するための描画データが格納されている。   For each link identification code (link ID) 321, link data 320 includes coordinate information 322 of two nodes (start node and end node) constituting the link, road type 323 indicating road type information including the link, link Link length information 324 indicating the length of the link, link travel time 325, link identification code (connection link ID) 326 connected to each of the two nodes, the position of the acceleration section at the junction of the road (for example, start point, end point) The specific section data 327 indicating the position (for example, the start point and the end point) of the section where the lane can be changed at the branch point of the road is included. Here, by distinguishing the start node and the end node for the two nodes constituting the link, the upward direction and the downward direction of the road can be managed as different links. Further, the specific section data 327 is not associated with a link (link ID 321) in which no specific section exists. The map data 310 stores drawing data for displaying roads and facilities in the map display.

図1に戻り、音声入出力装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、を備える。マイクロフォン41は、運転手やその他の搭乗者から発された音声などを取得する。スピーカ42は、演算処理部1で生成された音声信号を出力する。これらのマイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配置されている。   Returning to FIG. 1, the voice input / output device 4 includes a microphone 41 as a voice input device and a speaker 42 as a voice output device. The microphone 41 acquires voices and the like emitted from the driver and other passengers. The speaker 42 outputs the audio signal generated by the arithmetic processing unit 1. The microphone 41 and the speaker 42 are separately arranged at a predetermined part of the vehicle.

入力装置5は、ユーザからの指示を受け付けるユニットである。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、その他のハードスイッチ(図示せず)であるスクロールキー、縮尺変更キーなどで構成される。また、入力装置5には、ナビゲーション装置100に対して遠隔で操作指示を行うことができるリモートコントローラが含まれる。リモートコントローラは、ダイヤルスイッチやスクロールキー、縮尺変更キーなどを備え、各キーやスイッチが操作された情報をナビゲーション装置100に送出することができる。   The input device 5 is a unit that receives instructions from the user. The input device 5 includes a touch panel 51, a dial switch 52, and other hardware switches (not shown) such as scroll keys and scale change keys. In addition, the input device 5 includes a remote controller that can perform operation instructions to the navigation device 100 remotely. The remote controller includes a dial switch, a scroll key, a scale change key, and the like, and can send information on operation of each key or switch to the navigation device 100.

タッチパネル51は、ディスプレイ2の表示面に貼られた透過性のある操作パネルである。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。   The touch panel 51 is a transparent operation panel attached to the display surface of the display 2. The touch panel 51 specifies a touch position corresponding to the XY coordinates of the image displayed on the display 2, converts the touch position into coordinates, and outputs the coordinate. The touch panel 51 includes a pressure-sensitive or electrostatic input detection element.

ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1では、パルス信号の数から、ダイヤルスイッチ52の回転角度を求める。   The dial switch 52 is configured to be rotatable clockwise and counterclockwise, generates a pulse signal for every rotation of a predetermined angle, and outputs the pulse signal to the arithmetic processing unit 1. The arithmetic processing unit 1 obtains the rotation angle of the dial switch 52 from the number of pulse signals.

車速センサ6、ジャイロセンサ7、及び、GPS受信装置8は、移動体(ナビゲーション装置100)の現在地(自車位置)などを算出するために使用される。車速センサ6は、車速を算出するために用いる車速データを出力するセンサである。ジャイロセンサ7は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置8は、GPS衛星からの信号を受信し、移動体とGPS衛星間の距離とその距離の変化率を3個以上の衛星に対して測定することで、移動体の現在地や進行速度を測定する。   The vehicle speed sensor 6, the gyro sensor 7, and the GPS receiver 8 are used to calculate the current location (own vehicle position) of the moving body (navigation device 100). The vehicle speed sensor 6 is a sensor that outputs vehicle speed data used for calculating the vehicle speed. The gyro sensor 7 is composed of an optical fiber gyro, a vibration gyro, or the like, and detects an angular velocity due to the rotation of the moving body. The GPS receiver 8 receives a signal from a GPS satellite, and measures the distance between the mobile body and the GPS satellite and the rate of change of the distance with respect to three or more satellites. Measure.

FM多重放送受信装置9は、FM放送局から送られてくるFM多重放送信号を受信する。FM多重放送には、VICS(Vehicle Infomation Communication System:登録商標)情報の概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報などのFM多重一般情報としてラジオ局が提供する文字情報などがある。   The FM multiplex broadcast receiver 9 receives an FM multiplex broadcast signal sent from an FM broadcast station. FM multiplex broadcasting includes VICS (Vehicle Infomation Communication System (registered trademark) information, general current traffic information, regulatory information, SA / PA (service area / parking area) information, FM information such as parking information, weather information, etc. As text information provided by radio stations.

ビーコン受信装置10は、VICS情報などの概略現況交通情報、規制情報、SA/PA情報、駐車場情報、天気情報や緊急警報などを受信する。例えば、光により通信する光ビーコン、電波により通信する電波ビーコン等の受信装置である。   The beacon receiving device 10 receives rough current traffic information such as VICS information, regulation information, SA / PA information, parking information, weather information, emergency alerts, and the like. For example, it is a receiving device such as an optical beacon that communicates by light and a radio beacon that communicates by radio waves.

カメラ11は、所定のセンサ領域(例えば、進行方向を中心として左右に角度差θの範囲)の路面を撮影する。カメラ11は、限定するものではないが、例えば、走行レーンを特定するためや、車両前方の障害物を検知するために使用される。   The camera 11 images a road surface in a predetermined sensor area (for example, a range of an angle difference θ from side to side with respect to the traveling direction). Although not limited, the camera 11 is used, for example, for specifying a traveling lane or detecting an obstacle ahead of the vehicle.

なお、カメラ11の代わりに、或いは、カメラ11と共に、他の車載センサ(電磁波を検知するためのレーダーや音波を検知するためのソナー等)を備えていてもよい。ここで、レーダーやソナーは、例えば、車両前方の障害物を検知するためや、他の車両との車間距離を測定するために使用される。   In addition, instead of the camera 11 or together with the camera 11, another vehicle-mounted sensor (a radar for detecting electromagnetic waves, a sonar for detecting sound waves, or the like) may be provided. Here, the radar and the sonar are used, for example, to detect an obstacle in front of the vehicle or to measure a distance between other vehicles.

図3は、演算処理部1の機能ブロック図である。図示するように、演算処理部1は、主制御部101と、入力受付部102と、表示処理部103と、センサ精度推定部104と、を有する。   FIG. 3 is a functional block diagram of the arithmetic processing unit 1. As illustrated, the arithmetic processing unit 1 includes a main control unit 101, an input receiving unit 102, a display processing unit 103, and a sensor accuracy estimation unit 104.

主制御部101は、様々な処理を行う中心的な機能部であり、処理内容に応じて、他の
機能部を制御する。例えば、主制御部101は、推奨経路の探索や、探索された推奨経路を用いて経路誘導を行う。また、主制御部101は、地図をディスプレイ2に表示させる際には、表示が要求された領域(例えば、推奨経路全体を表示するのに必要な領域)にある地図データを記憶装置3から抽出し、指定された描画方式で、道路、その他の地図構造物、出発地や現在地、目的地、推奨経路、等を描画させる指示を、表示処理部103に対して通知する。
The main control unit 101 is a central functional unit that performs various processes, and controls other functional units according to the processing content. For example, the main control unit 101 searches for a recommended route and performs route guidance using the searched recommended route. Further, when displaying a map on the display 2, the main control unit 101 extracts map data in an area requested to be displayed (for example, an area necessary for displaying the entire recommended route) from the storage device 3. Then, the display processing unit 103 is notified of an instruction to draw a road, other map structures, a starting point, a current location, a destination, a recommended route, and the like in the designated drawing method.

入力受付部102は、入力装置5に入力されたユーザーからの要求を受け付け、その要求内容を解析し、解析結果に応じたデータを主制御部101に通知する。例えば、入力受付部102は、ナビゲーション装置100の入力装置5に、電源の投入や切断を指示する要求、車載センサ(例えば、カメラ11)起動の契機となる要求、等が入力されると、その情報を受け付けて解析し、主制御部101に通知する。   The input receiving unit 102 receives a request from the user input to the input device 5, analyzes the request content, and notifies the main control unit 101 of data corresponding to the analysis result. For example, when the input receiving unit 102 receives a request for instructing power on or off, a request for triggering activation of an in-vehicle sensor (for example, the camera 11), or the like to the input device 5 of the navigation device 100, Information is received and analyzed and notified to the main control unit 101.

表示処理部103は、ディスプレイ2に、地図、推奨経路、ユーザーに通知する各種メッセージ、等を表示させる。具体的には、表示処理部103は、主制御部101からの指示に基づき、ディスプレイ2の画面上に表示させるためのグラフィックス情報を生成してディスプレイ2に送信する。また、表示処理部103は、ディスプレイ2に表示させた地図上に、車両の位置を示す車両マークや各種設定画面などを表示するグラフィック情報を生成してディスプレイ2へ送信する。   The display processing unit 103 causes the display 2 to display a map, a recommended route, various messages notified to the user, and the like. Specifically, the display processing unit 103 generates graphics information to be displayed on the screen of the display 2 based on an instruction from the main control unit 101 and transmits it to the display 2. Further, the display processing unit 103 generates graphic information for displaying a vehicle mark indicating the position of the vehicle, various setting screens, and the like on the map displayed on the display 2 and transmits the graphic information to the display 2.

センサ精度推定部104は、車載センサ(カメラ11)の精度(信頼度)を推定する。具体的には、センサ精度推定部104は、道路上の分岐地点、合流地点の有無を判断する(後述する「分岐・合流判断処理」)。そして、センサ精度推定部104は、分岐地点、合流地点が存在する場合には、カメラ11を用いてセンサ領域の路面を撮影し、分岐地点又は合流地点の特定区間に設けられている路面標示(例えば、路面に引かれているライン)を認識する(後述する「センサ認識結果取得処理」)。さらに、センサ精度推定部104は、カメラ11を用いて認識したライン(特定区間)と、地図データ310に予め格納されている特定区間データ327を比較して、車載センサ(カメラ11)の精度(信頼度)を推定する(後述する「センサ精度推定処理」)。   The sensor accuracy estimation unit 104 estimates the accuracy (reliability) of the in-vehicle sensor (camera 11). Specifically, the sensor accuracy estimation unit 104 determines the presence / absence of a branch point or a merge point on the road (a “branch / merge determination process” described later). The sensor accuracy estimation unit 104 shoots the road surface of the sensor area using the camera 11 when there is a branching point or a merging point, and a road marking provided in a specific section of the branching point or the merging point ( For example, it recognizes a line drawn on the road surface ("sensor recognition result acquisition process" described later). Further, the sensor accuracy estimation unit 104 compares the line (specific section) recognized using the camera 11 with the specific section data 327 stored in advance in the map data 310, thereby comparing the accuracy of the in-vehicle sensor (camera 11) ( (Reliability) is estimated ("sensor accuracy estimation process" described later).

なお、上記した各構成要素は、ナビゲーション装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。   In addition, in order to make an understanding of the structure of the navigation apparatus 100 easy, each above-mentioned component is classified according to the main processing content. The invention of the present application is not limited by the way of classifying the components or their names. The configuration of the navigation device 100 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.

また、各機能部(101〜104)は、ハードウエア(ASICなど)により構築されてもよい。また、各機能部の処理が一つのハードウエアで実行されてもよいし、複数のハードウエアで実行されてもよい。   Moreover, each function part (101-104) may be constructed | assembled by hardware (ASIC etc.). In addition, the processing of each functional unit may be executed by one hardware, or may be executed by a plurality of hardware.

次に、上記構成からなるナビゲーション装置100の特徴的な動作について説明する。   Next, a characteristic operation of the navigation device 100 configured as described above will be described.

<センサ精度推定部104が行う処理>
図4は、ナビゲーション装置100のセンサ精度推定部104が行う、車載センサ(本実施形態ではカメラ11)の精度を推定するための処理の概要を示すフローチャートである。
<Processing performed by the sensor accuracy estimation unit 104>
FIG. 4 is a flowchart illustrating an outline of processing performed by the sensor accuracy estimation unit 104 of the navigation device 100 to estimate the accuracy of the in-vehicle sensor (camera 11 in the present embodiment).

図示するように、センサ精度推定部104は、上述した、「分岐・合流判断処理S1」、「センサ認識結果取得処理S2」、「センサ精度推定処理S3」の順に処理を実行し、車載センサの精度を推定する。なお、限定するものではないが、上記のS1の処理を開始するタイミングは、例えば、推奨経路に沿った経路誘導が開始されるタイミングでよい。   As shown in the figure, the sensor accuracy estimation unit 104 executes the processes in the order of “branching / merging determination processing S1”, “sensor recognition result acquisition processing S2”, and “sensor accuracy estimation processing S3” described above. Estimate accuracy. Although not limited, the timing of starting the processing of S1 may be, for example, the timing at which route guidance along the recommended route is started.

以下に、各処理(S1〜S3)について、図5、6、7、8を参照して詳細に説明する。   Below, each process (S1-S3) is demonstrated in detail with reference to FIG.

<分岐・合流判断処理>
図5は、センサ精度推定部104が行う「分岐・合流判断処理S1」を示すフローチャートである。なお、主制御部101は、経路誘導が開始されるタイミングで、本処理(分岐・合流判断処理S1)の開始の指示をセンサ精度推定部104に通知する。
<Branching / Join determination processing>
FIG. 5 is a flowchart showing the “branching / merging determination process S1” performed by the sensor accuracy estimation unit 104. The main control unit 101 notifies the sensor accuracy estimation unit 104 of an instruction to start this processing (branching / merging determination processing S1) at the timing when the route guidance is started.

センサ精度推定部104は、主制御部101からの通知を受け、本処理(分岐・合流判断処理S1)を開始すると、リンクデータ320の先読みを行う(ステップS101)。具体的には、センサ精度推定部104は、記憶装置3に格納されている地図データ310から、推奨経路を構成するリンク(リンクID321)を特定する。そして、センサ精度推定部104は、特定した推奨経路のリンクのうち、移動体(ナビゲーション装置100を搭載した車両)の現在地から所定距離内(例えば、3km内)に存在するリンク(ただし、未走行のリンク)を読み出す。   When the sensor accuracy estimation unit 104 receives the notification from the main control unit 101 and starts this processing (branching / merging determination processing S1), the sensor accuracy estimation unit 104 prefetches the link data 320 (step S101). Specifically, the sensor accuracy estimation unit 104 specifies a link (link ID 321) constituting the recommended route from the map data 310 stored in the storage device 3. Then, the sensor accuracy estimation unit 104 includes links that are within a predetermined distance (for example, within 3 km) from the current location of the moving body (vehicle equipped with the navigation device 100) among the links of the specified recommended route (however, the vehicle has not traveled yet). Link).

次に、センサ精度推定部104は、現在地から所定距離内に分岐地点、又は、合流地点が存在するか否か判別する(ステップS102)。具体的には、センサ精度推定部104は、ステップS101で読み出したリンク(リンクID321)に、特定区間データ327が対応付けられているか否か判別する。   Next, the sensor accuracy estimation unit 104 determines whether or not a branch point or a junction point exists within a predetermined distance from the current location (step S102). Specifically, the sensor accuracy estimation unit 104 determines whether or not the specific section data 327 is associated with the link (link ID 321) read in step S101.

ここで、センサ精度推定部104は、先読みしたリンクに特定区間データ327が対応付けられている場合には、現在地から所定距離内に分岐地点、又は、合流地点が存在すると判定する。一方、センサ精度推定部104は、先読みしたリンクに特定区間データ327が対応付けられていない場合には、現在地から所定距離内に分岐地点、又は、合流地点は存在しないと判定する。   Here, when the specific section data 327 is associated with the pre-read link, the sensor accuracy estimation unit 104 determines that a branch point or a merge point exists within a predetermined distance from the current location. On the other hand, when the specific section data 327 is not associated with the pre-read link, the sensor accuracy estimation unit 104 determines that there is no branching point or merging point within a predetermined distance from the current location.

そして、センサ精度推定部104は、現在地から所定距離内に分岐地点、又は、合流地点が存在しないと判定した場合には(ステップS102;No)、処理をステップS101に戻す。従って、センサ精度推定部104は、分岐地点、又は、合流地点が存在しないリンク(道路)を走行し続けている間は、ステップS101、S102の処理を繰り返し実行する。   If the sensor accuracy estimation unit 104 determines that there is no branch point or junction point within a predetermined distance from the current location (step S102; No), the process returns to step S101. Therefore, the sensor accuracy estimation unit 104 repeatedly executes the processes of steps S101 and S102 while continuing to travel on a branch point or a link (road) where no junction point exists.

一方、ステップS102において、センサ精度推定部104は、現在地から所定距離内に分岐地点、又は、合流地点が存在すると判定した場合には(ステップS102;Yes)、処理をステップS103に移行する。   On the other hand, if the sensor accuracy estimation unit 104 determines in step S102 that there is a branch point or a junction point within a predetermined distance from the current location (step S102; Yes), the process proceeds to step S103.

処理がステップS103に移行すると、センサ精度推定部104は、分岐地点、又は、合流地点に引かれているライン(特定区間)の位置を記憶しておく(ステップS103)。具体的には、センサ精度推定部104は、ステップS102において分岐地点、又は、合流地点が存在すると判定したリンクに対応付けられている特定区間データ327から、特定区間の始点と、終点を示す座標データを抽出し、メモリ(例えば、RAM22)に記憶しておく。   When the process proceeds to step S103, the sensor accuracy estimation unit 104 stores the position of the branch point or the line (specific section) drawn to the merge point (step S103). Specifically, the sensor accuracy estimation unit 104 determines the start point and the end point of the specific section from the specific section data 327 associated with the link determined to have a branch point or a merge point in step S102. Data is extracted and stored in a memory (for example, RAM 22).

なお、図6は、上述した合流地点における道路の概要図である。一般的に、支線から本線に合流する場合、ドライバーは、移動体(車両)を加速させて本線に合流する。そのため、合流地点には、図示するように、移動体を加速させるための特定区間(加速区間)が設けられている。このような特定区間の路面には、図示するように、本線と支線とを区切るためのラインが引かれている。上述したリンクデータ320の特定区間データ327には、図示する特定区間の始点、終点の位置を示す座標データが予め格納されている。そして、センサ精度推定部104は、ステップS103において、移動体が近づいている合流地点に対応する特定区間データ327を読み出す(メモリに記憶する)。   FIG. 6 is a schematic diagram of the road at the above-described junction. Generally, when joining a main line from a branch line, a driver accelerates a moving body (vehicle) and joins the main line. Therefore, as shown in the figure, a specific section (acceleration section) for accelerating the moving body is provided at the junction. As shown in the drawing, a line for separating the main line and the branch line is drawn on the road surface in such a specific section. In the specific section data 327 of the link data 320 described above, coordinate data indicating the positions of the start point and end point of the specific section shown in the drawing is stored in advance. In step S103, the sensor accuracy estimation unit 104 reads the specific section data 327 corresponding to the junction where the moving body is approaching (stores in the memory).

ステップS103の処理を終了すると、センサ精度推定部104は、本処理を終了するとともに主制御部101に通知する。   When the process of step S103 is completed, the sensor accuracy estimation unit 104 ends this process and notifies the main control unit 101 of the process.

<センサ認識結果取得処理>
図7は、センサ精度推定部104が行う「センサ認識結果取得処理S2」を示すフローチャートである。なお、主制御部101は、分岐・合流判断処理S1の終了が通知されるタイミングで、本処理(センサ認識結果取得処理S2)の開始の指示をセンサ精度推定部104に通知する。
<Sensor recognition result acquisition process>
FIG. 7 is a flowchart showing the “sensor recognition result acquisition process S <b> 2” performed by the sensor accuracy estimation unit 104. The main control unit 101 notifies the sensor accuracy estimation unit 104 of an instruction to start this processing (sensor recognition result acquisition processing S2) at the timing when the end of the branching / merging determination processing S1 is notified.

センサ精度推定部104は、主制御部101からの通知を受け、本処理(センサ認識結果取得処理S2)を開始すると、合流地点の路面に引かれているラインの線種を認識する(ステップS201)。具体的には、センサ精度推定部104は、カメラ11を起動して、センサ領域の路面を撮影する。そして、センサ精度推定部104は、カメラ11を用いて撮影して得られる画像データを解析(特徴抽出など)して、路面に引かれているラインの線種を認識する。なお、カメラ11の撮影範囲であるセンサ領域は、例えば、図6に示すような領域とし、特定区間に引かれているラインが撮影可能な領域である。   Upon receiving the notification from the main control unit 101 and starting this processing (sensor recognition result acquisition processing S2), the sensor accuracy estimation unit 104 recognizes the line type of the line drawn on the road surface at the junction (step S201). ). Specifically, the sensor accuracy estimation unit 104 activates the camera 11 and images the road surface of the sensor area. Then, the sensor accuracy estimation unit 104 analyzes the image data obtained by photographing using the camera 11 (feature extraction or the like), and recognizes the line type of the line drawn on the road surface. In addition, the sensor area | region which is the imaging | photography range of the camera 11 is an area | region as shown, for example in FIG.

センサ精度推定部104は、ステップS201で認識した線種が、取得目標の線種(すなわち、特定区間に引かれているライン)であるか否か判別する(ステップS202)。具体的には、センサ精度推定部104は、特定区間に引かれているラインの特徴情報を記憶装置3から読み出す。そして、センサ精度推定部104は、読み出した特徴情報と、ステップS201で取得した画像データの特徴の類似度によって判別する。例えば、センサ精度推定部104は、その類似度が所定の閾値以上である場合に、ステップS201で認識した線種が、取得目標の線種であると判定する。一方、その類似度が所定の閾値未満である場合には、ステップS201で認識した線種が、取得目標の線種ではないと判定する。なお、特定区間に引かれているラインの特徴情報は、予め記憶装置3に格納されている   The sensor accuracy estimation unit 104 determines whether or not the line type recognized in step S201 is an acquisition target line type (that is, a line drawn in a specific section) (step S202). Specifically, the sensor accuracy estimation unit 104 reads the feature information of the line drawn in the specific section from the storage device 3. Then, the sensor accuracy estimation unit 104 determines based on the read feature information and the feature similarity of the image data acquired in step S201. For example, when the similarity is equal to or higher than a predetermined threshold, the sensor accuracy estimation unit 104 determines that the line type recognized in step S201 is the acquisition target line type. On the other hand, if the similarity is less than the predetermined threshold, it is determined that the line type recognized in step S201 is not the acquisition target line type. Note that the feature information of the line drawn in the specific section is stored in the storage device 3 in advance.

そして、センサ精度推定部104は、ステップS201で認識した線種が、取得目標の線種であると判定した場合には(ステップS202;Yes)、処理をステップS203に移行する。   If the sensor accuracy estimation unit 104 determines that the line type recognized in step S201 is the acquisition target line type (step S202; Yes), the process proceeds to step S203.

処理がステップS203に移行すると、センサ精度推定部104は、ステップS201で認識したラインが、特定区間の路面に引かれているラインの始点か否か判別する(ステップS203)。具体的には、センサ精度推定部104は、ステップS202で取得目標の線種として判定したのが初めてであるか否か判別する。ここでの判別方法としては、限定するものではないが、例えば、特定区間に引かれているラインの始点を認識した(ステップS204に処理が初めて移行する)タイミングでフラグをたて(「1」にする)、そのラインの終点を確定した(後述するステップS211に処理が移行する)タイミングでフラグをおろす(「0」にする)ようにしておき、そのフラグに基づいて判別する。   When the process proceeds to step S203, the sensor accuracy estimation unit 104 determines whether or not the line recognized in step S201 is the start point of the line drawn on the road surface of the specific section (step S203). Specifically, the sensor accuracy estimation unit 104 determines whether or not it is the first time that it is determined as the acquisition target line type in step S202. The determination method here is not limited. For example, a flag is set at the timing when the start point of the line drawn in the specific section is recognized (the process proceeds to step S204 for the first time) (“1”). The flag is lowered (set to “0”) at the timing when the end point of the line is determined (the process proceeds to step S211 described later), and the determination is made based on the flag.

ステップS203において、特定区間の路面に引かれているラインの始点と判定されると(ステップS203;Yes)、センサ精度推定部104は、処理をステップS204に移行する。そして、センサ精度推定部104は、特定区間に引かれているラインの始点位置をメモリ(例えば、RAM22)に記憶する(ステップS204)。具体的には、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地に基づいて、特定区間の路面に引かれているラインの始点位置を算出する。なお、ラインの始点位置を算出する方法としては、限定されるものではないが、例えば、算出した現在地そのものをラインの始点位置として算出してもよいし、算出した現在地から所定の距離(カメラ11とラインの間の推定距離)ずれた位置をラインの始点位置として算出してもよい。それから、センサ精度推定部104は、算出したラインの始点位置をメモリに記憶する。   In step S203, if it is determined that the start point of the line drawn on the road surface of the specific section (step S203; Yes), the sensor accuracy estimation unit 104 proceeds to step S204. Then, the sensor accuracy estimation unit 104 stores the start point position of the line drawn in the specific section in the memory (for example, the RAM 22) (step S204). Specifically, the sensor accuracy estimation unit 104 calculates the current location using data obtained from the GPS receiver 8 or the like. Then, the sensor accuracy estimation unit 104 calculates the starting point position of the line drawn on the road surface of the specific section based on the calculated current location. The method for calculating the starting point position of the line is not limited. For example, the calculated current position itself may be calculated as the starting point position of the line, or a predetermined distance (camera 11) from the calculated current position. The estimated position between the line and the line) may be calculated as the starting point position of the line. Then, the sensor accuracy estimation unit 104 stores the calculated start position of the line in the memory.

センサ精度推定部104は、ラインの始点位置を記憶した後、処理をステップS201に戻す。   The sensor accuracy estimation unit 104 stores the start point position of the line, and then returns the process to step S201.

一方、ステップS203において、特定区間の路面に引かれているラインの始点ではないと判定されると(ステップS203;No)、センサ精度推定部104は、処理をステップS205に移行する。そして、センサ精度推定部104は、ラインの始点位置からの距離を算出する(ステップS205)。具体的には、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地と、ステップS204でメモリに記憶した始点位置と、の距離を算出する。   On the other hand, if it is determined in step S203 that it is not the starting point of the line drawn on the road surface of the specific section (step S203; No), the sensor accuracy estimation unit 104 proceeds to step S205. Then, the sensor accuracy estimation unit 104 calculates the distance from the starting point position of the line (step S205). Specifically, the sensor accuracy estimation unit 104 calculates the current location using data obtained from the GPS receiver 8 or the like. Then, the sensor accuracy estimation unit 104 calculates the distance between the calculated current location and the start position stored in the memory in step S204.

センサ精度推定部104は、ラインの始点位置からの距離を算出後、処理をステップS201に戻す。   After calculating the distance from the starting point position of the line, the sensor accuracy estimation unit 104 returns the process to step S201.

以上のステップS201からステップS205の処理を繰り返すことにより、センサ精度推定部104は、特定区間の路面に引かれているラインを始点から終点まで連続的に撮影でき、始点から終点までの距離を算出(測定)することができる。   By repeating the processing from step S201 to step S205, the sensor accuracy estimation unit 104 can continuously photograph the line drawn on the road surface of the specific section from the start point to the end point, and calculates the distance from the start point to the end point. (Measurement).

ところで、上記のステップS202において、センサ精度推定部104は、ステップS201で認識した線種が、取得目標の線種ではないと判定した場合には(ステップS202;No)、処理をステップS206に移行する。   Incidentally, in step S202 described above, if the sensor accuracy estimation unit 104 determines that the line type recognized in step S201 is not the acquisition target line type (step S202; No), the process proceeds to step S206. To do.

処理がステップS206に移行すると、センサ精度推定部104は、取得目標の線種を少なくとも1回は認識済みか否か判別する(ステップS206)。ここでの判別方法としては、例えば、上述したフラグを用いて判別すればよい。   When the process proceeds to step S206, the sensor accuracy estimation unit 104 determines whether or not the acquisition target line type has been recognized at least once (step S206). What is necessary is just to discriminate | determine as a discrimination | determination method here, for example using the flag mentioned above.

センサ精度推定部104は、取得目標の線種を1回も認識していないと判定した場合には(ステップS206;No)、処理をステップS201に戻す。これにより、再度、線種の認識を試みることができる。   If it is determined that the acquisition target line type has not been recognized once (step S206; No), the sensor accuracy estimation unit 104 returns the process to step S201. Thereby, it is possible to try to recognize the line type again.

一方、センサ精度推定部104は、取得目標の線種を少なくとも1回は認識していると判定した場合には(ステップS206;Yes)、特定区間の路面に引かれているラインの終点に到達した可能性があると判断して、処理をステップS207に移行する。   On the other hand, if the sensor accuracy estimation unit 104 determines that the line type of the acquisition target has been recognized at least once (step S206; Yes), it reaches the end point of the line drawn on the road surface of the specific section. The process proceeds to step S207.

そして、処理がステップS207に移行すると、センサ精度推定部104は、前回認識した線種も取得目標ではない線種(以下では、「非目標線種」とよぶ)であったか否か判別する(ステップS207)。具体的には、センサ精度推定部104は、目標線種を少なくとも1回は認識した後、初めて非目標線種を認識した(ステップS207に処理が初めて移行する)タイミングでフラグをたて(「1」にする)、特定区間のラインの終点を確定した(後述するステップS211に処理が移行する)タイミングでフラグをおろす(「0」にする)ようにしておき、そのフラグに基づいて判別する。   When the process proceeds to step S207, the sensor accuracy estimation unit 104 determines whether the previously recognized line type is a line type that is not an acquisition target (hereinafter, referred to as “non-target line type”) (step S207). S207). Specifically, after recognizing the target line type at least once, the sensor accuracy estimation unit 104 sets a flag at the timing of recognizing the non-target line type for the first time (processing proceeds to step S207 for the first time) (“ 1 ”), the flag is lowered (set to“ 0 ”) at the timing when the end point of the line in the specific section is fixed (the process proceeds to step S211 described later), and the determination is made based on the flag. .

センサ精度推定部104は、前回認識した線種は非目標線種ではなかったと判定した場合には(ステップS207;No)、処理をステップS209に移行する。   If the sensor accuracy estimation unit 104 determines that the previously recognized line type is not a non-target line type (step S207; No), the process proceeds to step S209.

そして、センサ精度推定部104は、非目標線種の最初の取得位置(つまり、特定区間のラインの終点位置である可能性が高い位置)をメモリ(例えば、RAM22)に記憶する(ステップS209)。具体的には、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地に基づいて、非目標線種の最初の取得位置を算出する。なお、非目標線種の最初の取得位置を算出する方法としては、限定されるものではないが、例えば、算出した現在地そのものを非目標線種の取得位置として算出してもよいし、算出した現在地から所定の距離(カメラ11とラインの間の推定距離)ずれた位置を非目標線種の取得位置として算出してもよい。それから、センサ精度推定部104は、ここで算出した位置を、特定区間に引かれているラインの仮の終点位置として、メモリに記憶する。   Then, the sensor accuracy estimation unit 104 stores the first acquisition position of the non-target line type (that is, the position that is likely to be the end point position of the line in the specific section) in the memory (for example, the RAM 22) (step S209). . Specifically, the sensor accuracy estimation unit 104 calculates the current location using data obtained from the GPS receiver 8 or the like. Then, the sensor accuracy estimation unit 104 calculates the first acquisition position of the non-target line type based on the calculated current location. The method of calculating the first acquisition position of the non-target line type is not limited, but for example, the calculated current location itself may be calculated as the acquisition position of the non-target line type, or the calculated A position shifted from the current position by a predetermined distance (estimated distance between the camera 11 and the line) may be calculated as the acquisition position of the non-target line type. Then, the sensor accuracy estimation unit 104 stores the calculated position in the memory as a temporary end point position of the line drawn in the specific section.

その後、センサ精度推定部104は、処理をステップS201に戻す。   Thereafter, the sensor accuracy estimation unit 104 returns the process to step S201.

一方、センサ精度推定部104は、ステップS207において、前回認識した線種も非目標線種であったと判定した場合には(ステップS207;Yes)、処理をステップS208に移行して、非目標線種を認識し続けている距離を算出する(ステップS208)。具体的には、センサ精度推定部104は、ラインの仮の終点位置から現在地までの距離を算出する。そのために、センサ精度推定部104は、GPS受信装置8から得られるデータなどを用いて、現在地を算出する。そして、センサ精度推定部104は、算出した現在地と、ステップS209でメモリに記憶した仮の終点位置と、の距離を算出する。   On the other hand, if the sensor accuracy estimation unit 104 determines in step S207 that the previously recognized line type is also the non-target line type (step S207; Yes), the process proceeds to step S208, and the non-target line The distance at which the seed is continuously recognized is calculated (step S208). Specifically, the sensor accuracy estimation unit 104 calculates the distance from the temporary end position of the line to the current location. For this purpose, the sensor accuracy estimation unit 104 calculates the current location using data obtained from the GPS receiver 8 or the like. Then, the sensor accuracy estimation unit 104 calculates the distance between the calculated current location and the temporary end point position stored in the memory in step S209.

センサ精度推定部104は、ラインの仮の終点位置からの距離を算出すると、処理をステップS210に移行する。   When the sensor accuracy estimation unit 104 calculates the distance from the temporary end point position of the line, the process proceeds to step S210.

そして、センサ精度推定部104は、ステップS208で算出した距離が、所定値A(図6参照)以上であるか否か判別する(ステップS210)。   Then, the sensor accuracy estimation unit 104 determines whether or not the distance calculated in step S208 is greater than or equal to a predetermined value A (see FIG. 6) (step S210).

ここで、センサ精度推定部104は、ステップS208で算出した距離が所定値A未満である場合には(ステップS210;No)、移動体(車両)がラインの終点位置をまだ通過していない可能性もあるため、処理をステップS201に戻す。   Here, if the distance calculated in step S208 is less than the predetermined value A (step S210; No), the sensor accuracy estimation unit 104 may have not yet passed the end point position of the line. Therefore, the process returns to step S201.

一方、センサ精度推定部104は、ステップS109で算出した距離が所定値A以上である場合には(ステップS210;Yes)、移動体(車両)はラインの終点位置を通過していると判断して、処理をステップS211に移行する。   On the other hand, when the distance calculated in step S109 is greater than or equal to the predetermined value A (step S210; Yes), the sensor accuracy estimation unit 104 determines that the moving body (vehicle) passes the end point position of the line. Then, the process proceeds to step S211.

処理がステップS211に移行すると、センサ精度推定部104は、特定区間の路面に引かれているラインの終点位置、及び、特定区間の距離を確定する(ステップS211)。すなわち、センサ精度推定部104は、ステップS211に処理が移行した時点において、ステップS209でメモリに格納された仮の終点位置を、実際の終点位置として確定する。さらに、ステップS205で最後にメモリに格納された距離(始点からの距離)を、特定区間の距離として確定する。   When the process proceeds to step S211, the sensor accuracy estimation unit 104 determines the end point position of the line drawn on the road surface of the specific section and the distance of the specific section (step S211). In other words, the sensor accuracy estimation unit 104 determines the temporary end point position stored in the memory in step S209 as the actual end point position when the process proceeds to step S211. Furthermore, the distance (distance from the start point) stored last in the memory in step S205 is determined as the distance of the specific section.

ステップS211の処理を終了すると、センサ精度推定部104は、本処理を終了するとともに主制御部101に通知する。   When the process of step S211 is completed, the sensor accuracy estimation unit 104 ends this process and notifies the main control unit 101 of the process.

<センサ精度推定処理>
図8は、センサ精度推定部104が行う「センサ精度推定処理S3」を示すフローチャートである。なお、主制御部101は、センサ認識結果取得処理S2の終了が通知されるタイミングで、本処理(センサ精度推定処理S3)の開始の指示をセンサ精度推定部104に通知する。
<Sensor accuracy estimation process>
FIG. 8 is a flowchart showing the “sensor accuracy estimation process S <b> 3” performed by the sensor accuracy estimation unit 104. The main control unit 101 notifies the sensor accuracy estimation unit 104 of an instruction to start this processing (sensor accuracy estimation processing S3) at the timing when the end of the sensor recognition result acquisition processing S2 is notified.

センサ精度推定部104は、主制御部101からの通知を受け、本処理(センサ精度推定処理S3)を開始すると、地図データ310に格納されている特定区間の距離と、車載センサ(カメラ11)を用いて測定した特定区間の距離と、を比較する(ステップS301)。具体的には、センサ精度推定部104は、ステップS103でメモリに記憶しておいた特定区間の始点、終点を示す座標データから、特定区間の距離を算出する。そして、算出した特定区間の距離と、ステップS211で確定した特定区間の距離と、を比較する。   When the sensor accuracy estimation unit 104 receives the notification from the main control unit 101 and starts this processing (sensor accuracy estimation processing S3), the distance between the specific section stored in the map data 310 and the in-vehicle sensor (camera 11). The distance of the specific section measured using is compared (step S301). Specifically, the sensor accuracy estimation unit 104 calculates the distance of the specific section from the coordinate data indicating the start point and end point of the specific section stored in the memory in step S103. Then, the calculated distance of the specific section is compared with the distance of the specific section determined in step S211.

センサ精度推定部104は、ステップS301で比較した両距離が一致する(或いは両距離のずれ量が所定範囲内である)場合には(ステップS302;Yes)、処理をステップS303に移行する。   If the two distances compared in step S301 match (or the deviation between the two distances is within a predetermined range) (step S302; Yes), the sensor accuracy estimation unit 104 moves the process to step S303.

処理がステップS303に移行すると、センサ精度推定部104は、地図データ310に格納されている特定区間の始点、終点の位置と、車載センサ(カメラ11)を用いて測定した特定区間の始点、終点の位置と、を比較する(ステップS303)。具体的には、センサ精度推定部104は、ステップS103でメモリに記憶しておいた特定区間の始点を示す座標データと、ステップS204で確定した特定区間の始点の位置と、を比較する。これとともに、センサ精度推定部104は、ステップS103でメモリに記憶しておいた特定区間の終点を示す座標データと、ステップS211で確定した特定区間の終点の位置と、を比較する。   When the process proceeds to step S303, the sensor accuracy estimation unit 104 starts and ends the specific section measured using the in-vehicle sensor (camera 11) and the start and end positions of the specific section stored in the map data 310. Are compared with each other (step S303). Specifically, the sensor accuracy estimation unit 104 compares the coordinate data indicating the start point of the specific section stored in the memory in step S103 with the position of the start point of the specific section determined in step S204. At the same time, the sensor accuracy estimation unit 104 compares the coordinate data indicating the end point of the specific section stored in the memory in step S103 with the position of the end point of the specific section determined in step S211.

ここで、センサ精度推定部104は、ステップS303で比較した始点、終点のそれぞれの両位置が一致する(或いは両位置のずれ量が所定範囲内である)場合には(ステップS303;Yes)、そのまま処理をステップS305に移行して、車載センサ(カメラ11)の精度(信頼度)が高いと判定する(ステップS305)。   Here, the sensor accuracy estimation unit 104, when the positions of the start point and the end point compared in step S303 coincide (or the deviation amount of both positions is within a predetermined range) (step S303; Yes), The process directly proceeds to step S305, and it is determined that the accuracy (reliability) of the in-vehicle sensor (camera 11) is high (step S305).

一方、センサ精度推定部104は、ステップS303で比較した始点、終点のそれぞれの両位置が一致しない(或いは両位置のずれ量が所定範囲を超える)場合には(ステップS303;No)、処理をステップS304に移行して、ずれ補正を行う(ステップS304)。なお、ずれ補正とは、経路誘導などに用いられる現在地をより精度良く求めるために、車載センサ(カメラ11)から得られる位置データと、実際の位置とのずれを補正する(或いは、単にずれ量をメモリに記憶しておく)処理である。   On the other hand, if both of the start point and end point positions compared in step S303 do not match (or the deviation amount between both positions exceeds a predetermined range) (step S303; No), the sensor accuracy estimation unit 104 performs processing. The process proceeds to step S304, and deviation correction is performed (step S304). The shift correction is to correct the shift between the position data obtained from the vehicle-mounted sensor (camera 11) and the actual position in order to obtain the current location used for route guidance more accurately (or simply the shift amount). Is stored in the memory).

そして、センサ精度推定部104は、ずれ補正後、処理をステップS305に移行して、車載センサ(カメラ11)の精度(信頼度)が高いと判定する(ステップS305)。   Then, after correcting the deviation, the sensor accuracy estimation unit 104 moves the process to step S305 and determines that the accuracy (reliability) of the in-vehicle sensor (camera 11) is high (step S305).

ステップS305での判定後、センサ精度推定部104は、本処理を終了するとともに主制御部101に通知する。   After the determination in step S305, the sensor accuracy estimation unit 104 ends this process and notifies the main control unit 101.

一方、ステップS302において、ステップS301で比較した両距離が一致しない(或いは両距離のずれ量が所定範囲を超える)場合には(ステップS302;No)、センサ精度推定部104は、処理をステップS306に移行する。   On the other hand, in step S302, when the two distances compared in step S301 do not match (or the deviation amount of both distances exceeds a predetermined range) (step S302; No), the sensor accuracy estimation unit 104 performs the process in step S306. Migrate to

処理がステップS306に移行すると、センサ精度推定部104は、車載センサ(カメラ11)の精度(信頼度)が低いと判定して、本処理を終了するとともに主制御部101に通知する。それから、主制御部101は、この通知を受け、図4に示すフローを終了する。   When the process proceeds to step S306, the sensor accuracy estimation unit 104 determines that the accuracy (reliability) of the in-vehicle sensor (camera 11) is low, terminates the process, and notifies the main control unit 101 of it. Then, the main control unit 101 receives this notification and ends the flow shown in FIG.

以上の処理をセンサ精度推定部104が行うことにより、本実施形態のナビゲーション装置100は、車載センサの精度(信頼度)を推定することができる。そして、推定した結果を参照することにより、車載センサから得られるデータを利用するか、利用しないかを判断できるようになる。   When the sensor accuracy estimation unit 104 performs the above processing, the navigation device 100 of the present embodiment can estimate the accuracy (reliability) of the in-vehicle sensor. Then, by referring to the estimated result, it is possible to determine whether or not to use the data obtained from the in-vehicle sensor.

なお、上記したフローの各処理単位は、ナビゲーション装置100の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。   Each processing unit of the above-described flow is divided according to main processing contents in order to facilitate understanding of the processing of the navigation device 100. The invention of the present application is not limited by the method of classification of the processing steps and the names thereof. The processing performed by the navigation device 100 can be divided into more processing steps. One processing step may execute more processes.

また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。   Moreover, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.

以下に、上記実施形態の変形例を挙げる。   Below, the modification of the said embodiment is given.

例えば、上記フローでは、道路の合流地点に設けられている特定区間(加速区間)において、車載センサの精度を推定する処理について説明している。しかし、上述したように、本発明は、道路の分岐地点において、車載センサの精度を推定してもよい。この場合においても、上記フローと同様の処理をセンサ精度推定部104が実行することにより、車載センサの精度を推定することができる。   For example, in the above flow, a process for estimating the accuracy of the in-vehicle sensor in a specific section (acceleration section) provided at a junction of roads is described. However, as described above, the present invention may estimate the accuracy of the in-vehicle sensor at a road branch point. Even in this case, the accuracy of the in-vehicle sensor can be estimated by the sensor accuracy estimation unit 104 executing the same process as in the above flow.

また、上記実施形態では、道路の合流地点、又は、分岐地点に設けられている特定区間において、車載センサの精度を推定している。しかし、本発明は、これに限定されるものでもない。例えば、有料道路の料金所付近に設けられている特定区間において、車載センサの精度を推定してもよい。   Moreover, in the said embodiment, the precision of a vehicle-mounted sensor is estimated in the specific area provided in the junction of a road or a branch point. However, the present invention is not limited to this. For example, the accuracy of the in-vehicle sensor may be estimated in a specific section provided near a toll gate on a toll road.

図9は、有料道路の料金所付近の概要図である。図示するように、料金所付近には、上記の合流地点や分岐地点と同様の特定区間が設けられる。具体的には、道幅が広がり始める地点を特定区間の始点とし、料金所の入口を特定区間の終点とするようなラインが路面に引かれる。そして、特定区間データ327には、この始点と終点を示す座標データが予め格納されている。こうして、ナビゲーション装置100は、上記フローと同様の処理を実行することによって、車載センサの精度を推定することができる。   FIG. 9 is a schematic diagram of the vicinity of the toll gate on the toll road. As shown in the figure, a specific section similar to the above junction and branch point is provided near the toll gate. Specifically, a line is drawn on the road surface such that the point where the road starts to widen is the starting point of the specific section and the entrance of the toll gate is the end point of the specific section. The specific section data 327 stores coordinate data indicating the start point and the end point in advance. Thus, the navigation device 100 can estimate the accuracy of the in-vehicle sensor by executing the same processing as in the above flow.

また、上記実施形態では、推奨経路に従って走行する場合について説明している。しかし、本発明はこれに限定されない。すなわち、推奨経路に従って走行しない場合に適用してもよい。この場合、センサ精度推定部104は、移動体(車両)の現在地と走行方向から走行道路(走行予定の道路)を特定する。例えば、現在地のリンクに接続し、かつ、道路種別が同じリンクを特定する。そして、センサ精度推定部104は、上記実施形態と同様に、リンクデータ320を参照することによって、走行道路上の分岐地点、合流地点の有無を判断できる。その結果、センサ精度推定部104は、上記実施形態と同様に、車載センサ(カメラ11)を用いて特定区間の路面標示を撮影し、車載センサの精度を推定することができる。   Moreover, the said embodiment demonstrated the case where it drive | works according to a recommended route. However, the present invention is not limited to this. That is, you may apply when not driving | running according to a recommended route. In this case, the sensor accuracy estimation unit 104 identifies a travel road (road planned to travel) from the current location and travel direction of the moving body (vehicle). For example, a link connected to the link at the current location and having the same road type is specified. And the sensor precision estimation part 104 can judge the presence or absence of the branch point on a driving | running | working road, and a junction point by referring the link data 320 similarly to the said embodiment. As a result, the sensor accuracy estimation unit 104 can photograph the road marking in the specific section using the in-vehicle sensor (camera 11), and estimate the accuracy of the in-vehicle sensor, as in the above embodiment.

1・・・演算処理部、2・・・ディスプレイ、3・・・記憶装置、4・・・音声入出力装置、5・・・入力装置、6・・・車速センサ、7・・・ジャイロセンサ、8・・・GPS受信装置、9・・・FM多重放送受信装置、10・・・ビーコン受信装置、11・・・カメラ、21・・・CPU、22・・・RAM、23・・・ROM、24・・・インターフェイス(I/F)、41・・・マイクロフォン、42・・・スピーカ、51・・・タッチパネル、52・・・ダイヤルスイッチ、100・・・ナビゲーション装置、101・・・主制御部、102・・・入力受付部、103・・・表示処理部、104・・・センサ精度推定部、310・・・地図データ、311・・・メッシュID、320・・・リンクデータ、321・・・リンクID、322・・・開始ノード・終了ノード、323・・・道路種別、324・・・リンク長、325・・・リンク旅行時間、326・・・開始接続リンク・終了接続リンク、327・・・特定区間データ   DESCRIPTION OF SYMBOLS 1 ... Operation processing part, 2 ... Display, 3 ... Memory | storage device, 4 ... Voice input / output device, 5 ... Input device, 6 ... Vehicle speed sensor, 7 ... Gyro sensor 8 ... GPS receiver, 9 ... FM multiplex broadcast receiver, 10 ... beacon receiver, 11 ... camera, 21 ... CPU, 22 ... RAM, 23 ... ROM 24 ... Interface (I / F), 41 ... Microphone, 42 ... Speaker, 51 ... Touch panel, 52 ... Dial switch, 100 ... Navigation device, 101 ... Main control , 102... Input reception unit, 103... Display processing unit, 104... Sensor accuracy estimation unit, 310... Map data, 311. ..Link ID 322 ... Start node / End node, 323 ... Road type, 324 ... Link length, 325 ... Link travel time, 326 ... Start connection link / End connection link, 327 ... Specific section data

Claims (9)

車載センサの精度を推定するナビゲーション装置であって、
特定の区間の距離が記録されている地図データを記憶している記憶手段と、
前記車載センサを用いて、前記区間の距離を計測する計測手段と、
前記地図データに記録されている距離と、前記計測手段で計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定手段と、を備える、
ことを特徴とするナビゲーション装置。
A navigation device that estimates the accuracy of an in-vehicle sensor,
Storage means for storing map data in which the distance of a specific section is recorded;
Measuring means for measuring the distance of the section using the in-vehicle sensor,
Sensor accuracy estimation means for estimating the accuracy of the in-vehicle sensor based on the amount of deviation between the distance recorded in the map data and the distance measured by the measurement means,
A navigation device characterized by that.
請求項1に記載のナビゲーション装置であって、
前記地図データには、
前記特定の区間の始点位置と終点位置が記録されており、
前記計測手段は、
前記車載センサを用いて、前記始点位置に設置されている目標物から、前記終点位置に設置されている目標物までの距離を計測し、
前記センサ精度推定手段は、
前記地図データに記録されている前記始点位置と前記終点位置の距離を算出し、算出した当該距離と、前記計測手段で計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定する、
ことを特徴とするナビゲーション装置。
The navigation device according to claim 1,
The map data includes
The start position and end position of the specific section are recorded,
The measuring means includes
Using the vehicle-mounted sensor, measure the distance from the target installed at the start point position to the target installed at the end point position,
The sensor accuracy estimation means includes
The distance between the start point position and the end point position recorded in the map data is calculated. presume,
A navigation device characterized by that.
請求項1又は2に記載のナビゲーション装置であって、
前記センサ精度推定手段は、
前記ずれ量が所定値以内である場合に、前記車載センサは高精度と推定し、
前記すれ量が所定値を超える場合に、前記車載センサは低精度と推定する、
ことを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
The sensor accuracy estimation means includes
When the amount of deviation is within a predetermined value, the in-vehicle sensor is estimated to be highly accurate,
When the amount of slip exceeds a predetermined value, the in-vehicle sensor estimates low accuracy,
A navigation device characterized by that.
請求項1乃至3のいずれか1項に記載のナビゲーション装置であって、
前記特定の区間は、道路の合流地点における加速区間である、
ことを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 3,
The specific section is an acceleration section at a junction of roads.
A navigation device characterized by that.
請求項1乃至3のいずれか1項に記載のナビゲーション装置であって、
前記特定の区間は、有料道路の料金所付近における所定区間である、
ことを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 3,
The specific section is a predetermined section in the vicinity of the toll gate on the toll road.
A navigation device characterized by that.
請求項1乃至5のいずれか1項に記載のナビゲーション装置であって、
前記車載センサは、電磁波や音波を検知するためのセンサである、
ことを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 5,
The in-vehicle sensor is a sensor for detecting electromagnetic waves and sound waves.
A navigation device characterized by that.
請求項6に記載のナビゲーション装置であって、
前記車載センサには、カメラが含まれる、
ことを特徴とするナビゲーション装置。
The navigation device according to claim 6,
The in-vehicle sensor includes a camera.
A navigation device characterized by that.
特定の区間の距離が記録されている地図データを記憶しているナビゲーション装置における、車載センサの精度推定方法であって、
前記車載センサを用いて、前記区間の距離を計測する計測ステップと、
前記地図データに記録されている距離と、前記計測ステップで計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定ステップと、を有する、
ことを特徴とするナビゲーション装置。
A method for estimating the accuracy of an in-vehicle sensor in a navigation device that stores map data in which the distance of a specific section is recorded,
A measurement step of measuring the distance of the section using the in-vehicle sensor,
A sensor accuracy estimation step for estimating the accuracy of the in-vehicle sensor based on the amount of deviation between the distance recorded in the map data and the distance measured in the measurement step;
A navigation device characterized by that.
コンピューターを、特定の区間の距離が記録されている地図データを記憶しているナビゲーション装置として機能させるためのプログラムであって、
前記車載センサを用いて、前記区間の距離を計測する計測ステップと、
前記地図データに記録されている距離と、前記計測ステップで計測された距離と、のずれ量に基づいて、前記車載センサの精度を推定するセンサ精度推定ステップと、を前記コンピューターに実行させる、
ことを特徴とするプログラム。
A program for causing a computer to function as a navigation device that stores map data in which the distance of a specific section is recorded,
A measurement step of measuring the distance of the section using the in-vehicle sensor,
Causing the computer to execute a sensor accuracy estimation step of estimating the accuracy of the in-vehicle sensor based on a deviation amount between the distance recorded in the map data and the distance measured in the measurement step.
A program characterized by that.
JP2010104864A 2010-04-30 2010-04-30 Navigation device, accuracy estimation method for on-vehicle sensor, and program Pending JP2011232271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010104864A JP2011232271A (en) 2010-04-30 2010-04-30 Navigation device, accuracy estimation method for on-vehicle sensor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010104864A JP2011232271A (en) 2010-04-30 2010-04-30 Navigation device, accuracy estimation method for on-vehicle sensor, and program

Publications (1)

Publication Number Publication Date
JP2011232271A true JP2011232271A (en) 2011-11-17

Family

ID=45321709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010104864A Pending JP2011232271A (en) 2010-04-30 2010-04-30 Navigation device, accuracy estimation method for on-vehicle sensor, and program

Country Status (1)

Country Link
JP (1) JP2011232271A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012070595A1 (en) * 2010-11-23 2014-05-19 日本電気株式会社 POSITION INFORMATION PROVIDING DEVICE, POSITION INFORMATION PROVIDING SYSTEM, POSITION INFORMATION PROVIDING METHOD, PROGRAM, AND RECORDING MEDIUM
JP2016200488A (en) * 2015-04-10 2016-12-01 アルパイン株式会社 Own vehicle position control device and own vehicle position control method
JP2017003310A (en) * 2015-06-05 2017-01-05 株式会社デンソー Automatic travel control device, on-vehicle device for automatic travel, and automatic travel control method
CN109669202A (en) * 2017-10-16 2019-04-23 三星电子株式会社 Position estimation device and method
JP2022136856A (en) * 2021-03-08 2022-09-21 ヤフー株式会社 Estimation device, estimation method, and estimation program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012070595A1 (en) * 2010-11-23 2014-05-19 日本電気株式会社 POSITION INFORMATION PROVIDING DEVICE, POSITION INFORMATION PROVIDING SYSTEM, POSITION INFORMATION PROVIDING METHOD, PROGRAM, AND RECORDING MEDIUM
US9298739B2 (en) 2010-11-23 2016-03-29 Nec Corporation Position information providing apparatus, position information providing system, position information providing method, program, and recording medium
JP6086211B2 (en) * 2010-11-23 2017-03-01 日本電気株式会社 POSITION INFORMATION PROVIDING DEVICE, POSITION INFORMATION PROVIDING SYSTEM, POSITION INFORMATION PROVIDING METHOD, PROGRAM, AND RECORDING MEDIUM
JP2016200488A (en) * 2015-04-10 2016-12-01 アルパイン株式会社 Own vehicle position control device and own vehicle position control method
JP2017003310A (en) * 2015-06-05 2017-01-05 株式会社デンソー Automatic travel control device, on-vehicle device for automatic travel, and automatic travel control method
US10126430B2 (en) 2015-06-05 2018-11-13 Denso Corporation Automated driving control apparatus and automated driving control method
CN109669202A (en) * 2017-10-16 2019-04-23 三星电子株式会社 Position estimation device and method
JP2019074505A (en) * 2017-10-16 2019-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. Position estimation method, device, and computer program
JP7199163B2 (en) 2017-10-16 2023-01-05 三星電子株式会社 Position estimation method, device and computer program
JP2022136856A (en) * 2021-03-08 2022-09-21 ヤフー株式会社 Estimation device, estimation method, and estimation program
JP7388379B2 (en) 2021-03-08 2023-11-29 Lineヤフー株式会社 Estimation device, estimation method, and estimation program

Similar Documents

Publication Publication Date Title
US10315664B2 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
EP3315911B1 (en) Vehicle position determination device and vehicle position determination method
EP2253936B1 (en) Current position determining device and current position determining nethod
JP6036371B2 (en) Vehicle driving support system and driving support method
JP5472163B2 (en) Speed regulation value notification device and speed regulation value notification system
JP5229293B2 (en) Vehicle driving support device
US20180237018A1 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
CN107850456B (en) Route guidance device and route guidance method
WO2011081159A1 (en) Navigation device, route guidance method, and program
JP2007148901A (en) Traffic congestion information display device
US20220017076A1 (en) Drive assist device and program
JP2011232271A (en) Navigation device, accuracy estimation method for on-vehicle sensor, and program
US10989558B2 (en) Route guidance method and route guidance device
JP2008090654A (en) Driving operation support device
JP2008305101A (en) Warning device upon vehicle right or left turn
JP2006017644A (en) Car navigation system and method for displaying position of own vehicle
KR101543073B1 (en) Apparatus and Method for Driving Guide of Vehicle
JP2019053630A (en) Electronic device and adjustment method of measurement direction of measurement sensor
JP2012112691A (en) Car navigation device
JP5607353B2 (en) Navigation device, route guidance method, and program
JP2012032366A (en) Car navigation system
JP2013030006A (en) Traffic light increase/decrease detection system, traffic light increase/decrease detection device, traffic light increase/decrease detection method, and computer program
JP2007101307A (en) Navigation device and method
JP2011137723A (en) Navigation device, route guidance method, and program