JP5772453B2 - Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program - Google Patents

Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program Download PDF

Info

Publication number
JP5772453B2
JP5772453B2 JP2011212896A JP2011212896A JP5772453B2 JP 5772453 B2 JP5772453 B2 JP 5772453B2 JP 2011212896 A JP2011212896 A JP 2011212896A JP 2011212896 A JP2011212896 A JP 2011212896A JP 5772453 B2 JP5772453 B2 JP 5772453B2
Authority
JP
Japan
Prior art keywords
error
sensor
detection
moving body
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011212896A
Other languages
Japanese (ja)
Other versions
JP2013072781A (en
Inventor
佐藤 裕司
裕司 佐藤
章悟 杉本
章悟 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2011212896A priority Critical patent/JP5772453B2/en
Publication of JP2013072781A publication Critical patent/JP2013072781A/en
Application granted granted Critical
Publication of JP5772453B2 publication Critical patent/JP5772453B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体の位置を検出する移動体位置検出システム、移動体位置検出装置、移動体位置検出方法及びコンピュータプログラムに関する。   The present invention relates to a mobile body position detection system, a mobile body position detection device, a mobile body position detection method, and a computer program that detect the position of a mobile body.

近年、車両の走行案内を行い、運転者が所望の目的地に容易に到着できるようにしたナビゲーション装置が車両に搭載されていることが多い。ここで、ナビゲーション装置とは、GPS受信機などにより自車の現在位置を検出し、その現在位置に対応する地図データをDVD−ROMやHDDなどの記録媒体またはネットワークを通じて取得して液晶モニタに表示することが可能な装置である。更に、かかるナビゲーション装置には、所望する目的地を入力すると、出発地から目的地までの最適経路を探索する経路探索機能を備えている。そして、探索結果に基づいて設定された案内経路をディスプレイ画面に表示するとともに、右左折等の案内の対象となる分岐点(以下、案内分岐点という)に接近した場合には音声やディスプレイ画面を用いた案内を行うことによって、ユーザを所望の目的地まで確実に案内するようになっている。また、近年は携帯電話機、PDA(Personal Digital Assistant)、パーソナルコンピュータ等においても上記ナビゲーション装置と同様の機能を有するものがある。更に、車両以外にも歩行者や二輪車を対象として上記案内を行うことも可能である。   2. Description of the Related Art In recent years, a navigation device is often mounted on a vehicle that provides vehicle travel guidance so that a driver can easily arrive at a desired destination. Here, the navigation device detects the current position of the vehicle by a GPS receiver or the like, acquires map data corresponding to the current position through a recording medium such as a DVD-ROM or HDD or a network, and displays it on a liquid crystal monitor. It is a device that can do. Further, such a navigation device has a route search function for searching for an optimum route from the departure place to the destination when a desired destination is input. The guidance route set based on the search result is displayed on the display screen, and when approaching a branch point (hereinafter referred to as a guidance branch point) for guidance such as turning left or right, a voice or display screen is displayed. By performing the guidance used, the user is surely guided to a desired destination. In recent years, some cellular phones, PDAs (Personal Digital Assistants), personal computers, and the like have functions similar to those of the navigation device. Furthermore, it is also possible to perform the above guidance for pedestrians and two-wheeled vehicles as well as vehicles.

ここで、案内分岐点において右左折等の案内を行う場合には、案内を適切なタイミングで行うことが重要である。そして、案内を適切なタイミングで行う為には、車両等の現在位置を正確に検出することが必要となる。ここで、車両等の位置を正確に検出する方法の一つとして、例えば特開2007−147521号公報には、車両後方のカメラから取り込んだ白線や路面ペイントを画像認識により検出し、更に、白線や路面ペイントを予め記憶した地図情報DBと照合することにより、車両の詳細な現在位置を検出する技術について記載されている。   Here, when performing guidance such as turning left or right at the guidance branch point, it is important to perform guidance at an appropriate timing. In order to perform the guidance at an appropriate timing, it is necessary to accurately detect the current position of the vehicle or the like. Here, as one of methods for accurately detecting the position of a vehicle or the like, for example, in Japanese Patent Application Laid-Open No. 2007-147521, a white line or road surface paint taken from a camera behind the vehicle is detected by image recognition. And a technique for detecting a detailed current position of a vehicle by comparing a road surface paint with a previously stored map information DB.

特開2007−147521号公報(第14頁、図16)JP 2007-147521 A (page 14, FIG. 16)

しかしながら、上記特許文献1の技術では、白線や路面ペイントをカメラで撮像した時点での車両の現在位置を正確に検出することは可能であるが、その後に車両が走行することによって、検出した車両位置と実際の車両位置との間に誤差が生じる問題があった。   However, in the technique of the above-mentioned Patent Document 1, it is possible to accurately detect the current position of the vehicle at the time when the white line or the road surface paint is imaged by the camera. There was a problem that an error occurred between the position and the actual vehicle position.

本発明は前記従来における問題点を解消するためになされたものであり、移動体の移動によって移動体の検出位置に対して生じる誤差範囲を正確に推定することを可能にした移動体位置検出システム、移動体位置検出装置、移動体位置検出方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and a moving body position detection system capable of accurately estimating an error range generated with respect to a detection position of the moving body due to movement of the moving body. An object of the present invention is to provide a moving body position detecting device, a moving body position detecting method, and a computer program.

前記目的を達成するため本願の請求項1に係る移動体位置検出システム(1)は、移動体(81)の移動距離を検出する為に前記移動体に搭載された第1センサ(22)の検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサ(24)の検出結果とを取得するセンサ結果取得手段(13)と、前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出する位置検出手段(13)と、前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第1影響特定手段(13)と、前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第2影響特定手段(13)と、前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定する誤差範囲推定手段(13)と、を有することを特徴とする。
尚、「移動体」としては、車両以外に、歩行者や二輪車も含む。
In order to achieve the above object, the mobile body position detection system (1) according to claim 1 of the present application includes a first sensor (22) mounted on the mobile body to detect the movement distance of the mobile body (81). Obtained by the sensor result obtaining means (13) for obtaining the detection result and the detection result of the second sensor (24) mounted on the moving body in order to detect the azimuth change of the moving body, and the sensor result obtaining means. Based on the detection result of the first sensor and the detection result of the second sensor, the position detection means (13) for detecting the position of the moving body and the detection error of the first sensor First influence specifying means (13) for specifying how much error amount is generated in the traveling direction, the reverse direction, or both directions of the moving body with respect to the detection result, and detection by the second sensor If the error is Respect of the detection result, the traveling direction of the movable body, a second impact specifying means for specifying whether cause errors of how much error amount in either the reverse or both directions (13), the first effect specific And the position detected by the position detecting means based on the detection error of the first sensor and the detection error of the second sensor based on the identification results of the means and the second influence specifying means can occur on the traveling direction side. And a maximum error amount that can occur on the opposite side of the traveling direction, and a range including the maximum error amount in each specified direction is detected by the position detection means. Error range estimating means (13) for estimating the range.
The “moving body” includes a pedestrian and a two-wheeled vehicle in addition to the vehicle.

また、請求項2に係る移動体位置検出システム(1)は、請求項1に記載の移動体位置検出システムであって、前記第1センサ(22)は、前記移動体(81)が所定距離を移動する度に出力されるパルスに基づいて、パルスが出力される度に前記所定距離を加算することによって前記移動体の移動距離を検出する為のセンサであって、前記第1センサの検出誤差は、過去の学習結果に基づいて前記所定距離を特定する一方で、特定された前記所定距離が実際にパルスの出力される間隔において前記移動体が移動する距離から外れることにより生じる第1誤差と、勾配のある道路(81)を前記移動体が移動することにより生じる第2誤差と、前記パルスが出力されるべきタイミングで出力されず、実際にパルスの出力される間隔において前記移動体が移動した距離が前記所定距離よりも長くなることにより生じる第3誤差と、を含むことを特徴とする。 A mobile body position detection system (1) according to claim 2 is the mobile body position detection system according to claim 1, wherein the mobile body (81) is a predetermined distance from the first sensor (22). A sensor for detecting a moving distance of the moving body by adding the predetermined distance each time a pulse is output , based on a pulse output each time the sensor is moved. The error is a first error caused by specifying the predetermined distance based on a past learning result, while the specified predetermined distance deviates from a distance that the moving body moves in an interval in which pulses are actually output. If a second error caused by the moving body on a road (81) with a gradient moves, the pulse is not outputted at the timing to be outputted, before the interval actually pulse output Distance the moving object moves is characterized in that it comprises a third error caused by longer than the predetermined distance.

また、請求項3に係る移動体位置検出システム(1)は、請求項2に記載の移動体位置検出システムであって、前記第1誤差は、前記位置検出手段(13)の検出結果に対して、前記移動体(81)の進行方向と逆方向の両方向に誤差を生じさせ、前記第2誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向の逆方向に誤差を生じさせ、前記第3誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向に誤差を生じさせることを特徴とする。   Further, the mobile body position detection system (1) according to claim 3 is the mobile body position detection system according to claim 2, wherein the first error corresponds to a detection result of the position detection means (13). Thus, an error is generated in both directions opposite to the moving direction of the moving body (81), and the second error is an error in the direction opposite to the moving direction of the moving body with respect to the detection result of the position detecting means. And the third error causes an error in the traveling direction of the moving body with respect to the detection result of the position detecting means.

また、請求項4に係る移動体位置検出システム(1)は、請求項1に記載の移動体位置検出システムであって、前記第2センサ(24)は、内部にある素子に生じる運動による電位差から前記移動体の角速度を検出し、更に該角速度と、電位差と方位変化の対応関係を規定した感度係数と、に基づいて前記移動体の方位変化を検出する為のセンサであって、前記第2センサの検出誤差は、過去の学習結果に基づいて前記感度係数を特定する一方で、特定された前記感度係数が実際の電位差と方位変化の対応関係から外れることにより生じる第4誤差と、前記第2センサの周囲の温度変化により生じる第5誤差と、勾配のある道路を前記移動体が移動することにより生じる第6誤差と、を含むことを特徴とする。 Further, the mobile body position detection system (1) according to claim 4 is the mobile body position detection system according to claim 1, wherein the second sensor (24) is a potential difference caused by a motion generated in an element inside. A sensor for detecting an azimuth change of the moving body based on the angular velocity and a sensitivity coefficient that defines a correspondence relationship between the potential difference and the azimuth change . While the detection error of the two sensors specifies the sensitivity coefficient based on the past learning result, the fourth error generated when the specified sensitivity coefficient deviates from the correspondence between the actual potential difference and the azimuth change ; It includes a fifth error caused by a temperature change around the second sensor and a sixth error caused by the moving body moving on a road with a gradient.

また、請求項5に係る移動体位置検出システム(1)は、請求項4に記載の移動体位置検出システムであって、前記第4誤差は、前記位置検出手段(13)の検出結果に対して、前記移動体(81)の進行方向と逆方向の両方向に誤差を生じさせ、前記第5誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向と逆方向の両方向に誤差を生じさせ、前記第6誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向の逆方向に誤差を生じさせることを特徴とする。   Further, the mobile body position detection system (1) according to claim 5 is the mobile body position detection system according to claim 4, wherein the fourth error corresponds to a detection result of the position detection means (13). Thus, an error is generated in both directions opposite to the moving direction of the moving body (81), and the fifth error is detected in both directions opposite to the moving direction of the moving body with respect to the detection result of the position detecting means. The sixth error causes an error in the direction opposite to the traveling direction of the moving body with respect to the detection result of the position detecting means.

また、請求項6に係る移動体位置検出装置は、移動体(81)の移動距離を検出する為に前記移動体に搭載された第1センサ(22)の検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサ(24)の検出結果とを取得するセンサ結果取得手段(13)と、前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出する位置検出手段(13)と、前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第1影響特定手段(13)と、前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第2影響特定手段(13)と、前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定する誤差範囲推定手段(13)と、を有することを特徴とする。 According to a sixth aspect of the present invention, there is provided a moving body position detecting device comprising: a detection result of the first sensor (22) mounted on the moving body and an orientation change of the moving body in order to detect a moving distance of the moving body (81); Sensor result acquisition means (13) for acquiring the detection result of the second sensor (24) mounted on the moving body to detect the detection result, and the detection result of the first sensor acquired by the sensor result acquisition means Based on the detection result of the second sensor, the position detection means (13) for detecting the position of the moving body, and the detection error of the first sensor is compared with the detection result of the position detection means. The first influence specifying means (13) for specifying how much error amount is caused in the traveling direction, the reverse direction, or both directions, and the detection error of the second sensor are detected by the position detecting means. For the result, the moving body Traveling direction, a second impact specifying means for specifying whether cause errors of how much error amount in either the reverse or both directions (13), a specific result of the first impact specifying means and the second impact specifying means The position detected by the position detection means based on the detection error of the first sensor and the detection error of the second sensor is based on the maximum error amount that can occur on the traveling direction side and on the opposite side of the traveling direction. An error range estimation unit (13) that identifies the maximum error amount that can be generated and estimates a range including the maximum error amount in each specified direction as the error range of the position of the moving body detected by the position detection unit. It is characterized by having.

また、請求項7に係る移動体位置検出方法は、センサ結果取得手段が、移動体(81)の移動距離を検出する為に前記移動体に搭載された第1センサ(22)の検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサ(24)の検出結果とを取得するステップと、位置検出手段が、前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出するステップと、第1影響特定手段が、前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定するステップと、第2影響特定手段が、前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定するステップと、誤差範囲推定手段が、前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定するステップと、を有することを特徴とする。 According to a seventh aspect of the present invention, there is provided a moving body position detecting method in which the sensor result acquisition means includes a detection result of the first sensor (22) mounted on the moving body in order to detect a moving distance of the moving body (81). wherein the Luz step to acquire a detection result of the second sensor (24) mounted on the movable body to detect a heading change of said moving body, the position detecting means, acquired by the sensor result obtaining means based on a detection result of the the detection results of the first sensor the second sensor, and Luz step to detect the position of the movable body, the first impact specifying means, the detection error of the first sensor, the position detection the detection result of means, the traveling direction of the moving body, and Luz step to identify whether cause errors of how much error amount in either backward or bidirectional, the second impact specifying means, said first detection error of 2 sensors, the position detection hand Respect of the detection result, the traveling direction of the moving body, and Luz step to identify whether cause errors of how much error amount in either backward or bidirectional, the error range estimating means, said first impact A position detected by the position detection unit based on the detection error of the first sensor and the detection error of the second sensor may occur on the traveling direction side based on the identification results of the identification unit and the second influence identification unit. A maximum error amount and a maximum error amount that can occur on the opposite side of the traveling direction are specified, and a range including the maximum error amount in each specified direction is detected by the position detection unit. and having a Luz step to estimate the error range, the.

更に、請求項8に係るコンピュータプログラムは、コンピュータを、移動体(81)の移動距離を検出する為に前記移動体に搭載された第1センサ(22)の検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサ(24)の検出結果とを取得するセンサ結果取得手段と、前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出する位置検出手段と、前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第1影響特定手段と、前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第2影響特定手段と、前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定する誤差範囲推定手段と、して機能させる Furthermore, the computer program according to claim 8 is a computer program for detecting a moving distance of the moving body (81) and a detection result of the first sensor (22) mounted on the moving body and a change in orientation of the moving body. second sensor mounted on the moving body for detecting (24) of the detection result and a sensor result obtaining means for obtaining, said sensor result acquisition means of the first sensor obtained by the detection result and the second Based on the detection result of the sensor, the position detection means for detecting the position of the moving body, and the detection error of the first sensor is the direction in which the moving body travels in the opposite direction relative to the detection result of the position detection means. Alternatively, a first influence specifying unit that specifies how much error amount is caused in which direction in both directions, and a detection error of the second sensor is determined based on a detection result of the position detecting unit . Progress Direction, based on the identification result of the second impact specifying means, the first impact specifying means and the second impact specifying means for specifying whether cause errors of how much error amount in either backward or bidirectional, The position detected by the position detecting means based on the detection error of the first sensor and the detection error of the second sensor is the maximum amount of error that can occur on the traveling direction side and the maximum amount that can occur on the opposite side of the traveling direction. An error amount is specified , and functions as an error range estimation unit that estimates a range including the maximum error amount in each specified direction as an error range of the position of the moving object detected by the position detection unit .

前記構成を有する請求項1に記載の移動体位置検出システムによれば、移動体の移動距離を検出する為の第1センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定するとともに、移動体の方位変化を検出する為の第2センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定し、特定された方向と量に基づいて移動体の検出位置の誤差範囲を推定するので、センサに検出誤差が生じた場合であっても、生じた検出誤差が移動体の検出位置に対して与える影響を適切に特定することが可能となり、移動体の検出位置に対して生じる誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、移動体に対する案内や制御を適切なタイミングで実行することが可能となる。 According to the moving body position detection system having the above-described configuration, the detection error of the first sensor for detecting the moving distance of the moving body causes an error with respect to the detection position of the moving body. with specifying the amount and the detection error of the second sensor for detecting a heading change of the moving body, identifies the direction and amount that causes an error with respect to the detected position of the moving object, specified direction and amount Since the error range of the detection position of the moving object is estimated based on the above, even if a detection error occurs in the sensor, the influence of the detection error that has occurred on the detection position of the moving object should be specified appropriately Therefore, it is possible to accurately estimate the error range that occurs with respect to the detection position of the moving object. As a result, by considering the estimated error range, it becomes possible to execute guidance and control for the moving body at an appropriate timing.

また、請求項2に記載の移動体位置検出システムによれば、移動体の移動距離を検出する為の第1センサの検出誤差は、パルスの出力回数と移動体の移動距離との対応関係が予測値から外れることにより生じる第1誤差と、勾配のある道路を移動体が移動することにより生じる第2誤差と、パルスが出力されるべきタイミングで出力されないことにより生じる第3誤差とを含むので、移動体の検出位置に誤差を生じさせる虞のある第1センサの検出誤差を考慮して誤差範囲を推定することが可能となる。   According to the moving body position detection system according to claim 2, the detection error of the first sensor for detecting the moving distance of the moving body is such that the correspondence between the number of output pulses and the moving distance of the moving body is the same. Since it includes a first error that occurs due to deviation from the predicted value, a second error that occurs when the moving body moves on a road with a gradient, and a third error that occurs when a pulse is not output at the timing at which it should be output. The error range can be estimated in consideration of the detection error of the first sensor that may cause an error in the detection position of the moving body.

また、請求項3に記載の移動体位置検出システムによれば、第1センサにおいて生じる第1誤差乃至第3誤差が移動体の検出位置に対してどの方向に誤差を生じさせるのかをそれぞれ特定することが可能となり、移動体の検出位置に対して生じる誤差範囲をより正確に推定することが可能となる。   In addition, according to the moving body position detection system according to the third aspect, the direction in which the first to third errors generated in the first sensor cause the error relative to the detection position of the moving body is specified. Therefore, it is possible to more accurately estimate the error range generated with respect to the detection position of the moving body.

また、請求項4に記載の移動体位置検出システムによれば、移動体の方位変化を検出する為の第2センサの検出誤差は、電位差と移動体の方位変化との対応関係が予測値から外れることにより生じる第4誤差と、第2センサの周囲の温度変化により生じる第5誤差と、勾配のある道路を移動体が移動することにより生じる第6誤差とを含むので、移動体の検出位置に誤差を生じさせる虞のある第2センサの検出誤差を考慮して誤差範囲を推定することが可能となる。   According to the moving body position detection system of the fourth aspect, the detection error of the second sensor for detecting the azimuth change of the moving body is that the correspondence between the potential difference and the azimuth change of the moving body is based on the predicted value. Since the fourth error caused by the deviation, the fifth error caused by the temperature change around the second sensor, and the sixth error caused by the moving body moving on the road with the gradient, the detection position of the moving body is included. It is possible to estimate the error range in consideration of the detection error of the second sensor that may cause an error.

また、請求項5に記載の移動体位置検出システムによれば、第2センサにおいて生じる第4誤差乃至第6誤差が移動体の検出位置に対してどの方向に誤差を生じさせるのかをそれぞれ特定することが可能となり、移動体の検出位置に対して生じる誤差範囲をより正確に推定することが可能となる。   In addition, according to the moving body position detection system according to claim 5, the direction in which the fourth to sixth errors generated in the second sensor cause an error with respect to the detection position of the moving body is specified. Therefore, it is possible to more accurately estimate the error range generated with respect to the detection position of the moving body.

また、請求項6に記載の移動体位置検出装置によれば、移動体の移動距離を検出する為の第1センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定するとともに、移動体の方位変化を検出する為の第2センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定し、特定された方向と量に基づいて移動体の検出位置の誤差範囲を推定するので、センサに検出誤差が生じた場合であっても、生じた検出誤差が移動体の検出位置に対して与える影響を適切に特定することが可能となり、移動体の検出位置に対して生じる誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、移動体に対する案内や制御を適切なタイミングで実行することが可能となる。 Further, according to the moving body position detecting device of the sixth aspect, the direction and amount in which the detection error of the first sensor for detecting the moving distance of the moving body causes an error with respect to the detection position of the moving body. And the direction and amount of detection error of the second sensor for detecting the azimuth change of the moving body causes an error with respect to the detection position of the moving body, and based on the specified direction and amount . Therefore, even if a detection error occurs in the sensor, it is possible to appropriately identify the effect of the detection error that has occurred on the detection position of the moving object. Thus, it is possible to accurately estimate the error range that occurs with respect to the detection position of the moving object. As a result, by considering the estimated error range, it becomes possible to execute guidance and control for the moving body at an appropriate timing.

また、請求項7に記載の移動体位置検出方法によれば、移動体の移動距離を検出する為の第1センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定するとともに、移動体の方位変化を検出する為の第2センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定し、特定された方向と量に基づいて移動体の検出位置の誤差範囲を推定するので、センサに検出誤差が生じた場合であっても、生じた検出誤差が移動体の検出位置に対して与える影響を適切に特定することが可能となり、移動体の検出位置に対して生じる誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、移動体に対する案内や制御を適切なタイミングで実行することが可能となる。 According to the moving body position detection method of claim 7, the direction and amount in which the detection error of the first sensor for detecting the moving distance of the moving body causes an error with respect to the detection position of the moving body. And the direction and amount of detection error of the second sensor for detecting the azimuth change of the moving body causes an error with respect to the detection position of the moving body, and based on the specified direction and amount . Therefore, even if a detection error occurs in the sensor, it is possible to appropriately identify the effect of the detection error that has occurred on the detection position of the moving object. Thus, it is possible to accurately estimate the error range that occurs with respect to the detection position of the moving object. As a result, by considering the estimated error range, it becomes possible to execute guidance and control for the moving body at an appropriate timing.

更に、請求項8に記載のコンピュータプログラムによれば、移動体の移動距離を検出する為の第1センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定させるとともに、移動体の方位変化を検出する為の第2センサの検出誤差が、移動体の検出位置に対して誤差を生じさせる方向と量を特定させ、特定された方向と量に基づいて移動体の検出位置の誤差範囲を推定させるので、センサに検出誤差が生じた場合であっても、生じた検出誤差が移動体の検出位置に対して与える影響を適切に特定させることが可能となり、移動体の検出位置に対して生じる誤差範囲を正確に推定させることが可能となる。その結果、推定された誤差範囲を考慮することによって、移動体に対する案内や制御を適切なタイミングで実行することが可能となる。 Furthermore, according to the computer program of the eighth aspect, the detection error of the first sensor for detecting the moving distance of the moving body specifies the direction and amount that cause the error with respect to the detection position of the moving body. In addition, the detection error of the second sensor for detecting the azimuth change of the moving body specifies the direction and amount that cause an error with respect to the detection position of the moving body, and the moving body is based on the specified direction and amount. Since the error range of the detection position of the sensor is estimated, even if a detection error occurs in the sensor, it is possible to appropriately identify the influence of the detection error that has occurred on the detection position of the moving object. It is possible to accurately estimate an error range generated with respect to the detection position of the body. As a result, by considering the estimated error range, it becomes possible to execute guidance and control for the moving body at an appropriate timing.

本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 分岐点に配置される信号機及び停止線の一例を示した図である。It is the figure which showed an example of the traffic signal and stop line which are arrange | positioned at a branch point. 案内フレーズ条件テーブルの一例を示した図である。It is the figure which showed an example of the guidance phrase condition table. 案内フレーズ条件テーブルで規定された案内開始地点を説明した図である。It is a figure explaining the guidance start point prescribed | regulated by the guidance phrase condition table. 本実施形態に係る分岐点案内処理プログラムのフローチャートである。It is a flowchart of a branch point guidance processing program according to the present embodiment. 地物テーブルの一例を示した図である。It is the figure which showed an example of the feature table. 車両の検出位置に対して誤差範囲を推定した場合における案内開始地点への到達判定方法について示した図である。It is the figure shown about the arrival determination method to the guidance start point at the time of estimating an error range with respect to the detection position of a vehicle. 本実施形態に係る誤差範囲推定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the error range estimation process which concerns on this embodiment. 本実施形態に係る道路形状に基づく誤差範囲の推定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the estimation process of the error range based on the road shape which concerns on this embodiment. 車両が屈曲道路を走行する場合に生じる車両の検出位置の誤差について説明した図である。It is a figure explaining the error of the detection position of the vehicle which arises when a vehicle drive | works a curved road. 車両が左方向に屈曲した屈曲道路を走行する場合における最大前ズレ車線数を示した図である。It is the figure which showed the maximum front deviation lane number in the case of driving | running | working the curved road bent to the left direction. 車両が左方向に屈曲した屈曲道路を走行する場合における最大後ズレ車線数を示した図である。It is the figure which showed the maximum rear shift | offset | difference lane number in case a vehicle drive | works the curved road bent in the left direction. 車両が右方向に屈曲した屈曲道路を走行する場合における最大前ズレ車線数を示した図である。It is the figure which showed the maximum number of front misalignment lanes when a vehicle drive | works the curved road bent rightward. 車両が右方向に屈曲した屈曲道路を走行する場合における最大後ズレ車線数を示した図である。It is a figure showing the maximum number of rear shift lanes when the vehicle travels on a curved road bent in the right direction. 車両がカーブ道路を走行する場合に生じる車両の検出位置の誤差について説明した図である。It is a figure explaining the error of the detection position of the vehicle which arises when a vehicle drive | works a curve road. カーブ道路が描く曲線(弧)の長さと形状補完点を直線で結んだ線分(弦)の長さとの差分の算出方法について説明した図である。It is a figure explaining the calculation method of the difference of the length of the curve (arc) which a curve road draws, and the length of the line segment (string) which connected the shape complement point with the straight line. 本実施形態に係るセンサ誤差に基づく誤差範囲の推定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the estimation process of the error range based on the sensor error which concerns on this embodiment. 車両が勾配のある道路を走行する場合に生じる車速センサの検出誤差について説明した図である。It is a figure explaining the detection error of the vehicle speed sensor produced when a vehicle drive | works the road with a gradient. 本実施形態に係る車線変更に基づく誤差範囲の推定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the estimation process of the error range based on the lane change which concerns on this embodiment. 車両が車線変更を行うことによって生じる車両の検出位置の誤差について説明した図である。It is a figure explaining the error of the detection position of the vehicle which arises when a vehicle changes lanes.

以下、本発明に係る移動体位置検出システム及び移動体位置検出装置をナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。   Hereinafter, a mobile body position detection system and a mobile body position detection apparatus according to the present invention will be described in detail with reference to the drawings based on an embodiment in which the navigation apparatus is embodied. First, a schematic configuration of the navigation device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to this embodiment.

図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図や施設の関する施設情報を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、から構成されている。また、ナビゲーション装置1には後述する路面標示を検出する為のバックカメラ19が接続されている。   As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 1 is mounted, a data recording unit 12 that records various data, A navigation ECU 13 that performs various arithmetic processes based on the input information, an operation unit 14 that receives operations from the user, and a liquid crystal display 15 that displays a map around the vehicle and facility information related to the facility to the user. Communicating between a speaker 16 that outputs voice guidance regarding route guidance, a DVD drive 17 that reads a DVD as a storage medium, and an information center such as a probe center or a VICS (registered trademark: Vehicle Information and Communication System) center And a communication module 18 for performing. The navigation device 1 is connected to a back camera 19 for detecting a road marking described later.

以下に、ナビゲーション装置1を構成する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ(第1センサ)22、ステアリングセンサ23、ジャイロセンサ(第2センサ)24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記5種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which comprises the navigation apparatus 1 is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor (first sensor) 22, a steering sensor 23, a gyro sensor (second sensor) 24, and the like. The current vehicle position, direction, vehicle travel speed, current time, and the like. Can be detected. Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 1 does not have to include all of the above five types of sensors, and the navigation device 1 may include only one or more of these types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31、案内フレーズ条件テーブル32、地物テーブル33及び所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクにより構成しても良い。   Further, the data recording unit 12 reads an external storage device and a hard disk (not shown) as a recording medium, a map information DB 31 recorded on the hard disk, a guidance phrase condition table 32, a feature table 33, a predetermined program, and the like. A recording head (not shown) as a driver for writing predetermined data to the hard disk is also provided. The data recording unit 12 may be configured by a memory card, an optical disk such as a CD or a DVD, instead of the hard disk.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ34、ノード点に関するノードデータ35、各分岐点に関する分岐点データ36、道路上に形成された地物の内、特に路面標示に関する地物データ37、施設に関する施設データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。   Here, the map information DB 31 is, for example, link data 34 relating to roads (links), node data 35 relating to node points, branch point data 36 relating to each branch point, and features relating to road markings among features formed on the road. The storage means stores feature data 37, facility data relating to facilities, map display data for displaying a map, search data for searching for a route, search data for searching for a point, and the like.

ここで、リンクデータ34としては、例えば、該リンクを識別するリンクID、該リンクの端部に位置するノードを特定する端部ノード情報、該リンクを構成する道路の道路種別、車線数、対向車線の有無、ノード間のリンク形状(例えばカーブ道路ではカーブの形状)を特定する為の形状補完点の位置座標等が記憶される。また、ノードデータ35としては、該ノードを識別するノードID、該ノードの位置座標、該ノードがリンクを介して接続される接続先ノードを特定する接続先ノード情報等が記憶される。また、分岐点データ36としては、該分岐点(交差点)を形成するノードを特定する該当ノード情報、該分岐点に接続されるリンク(以下、接続リンクという)を特定する接続リンク情報、分岐点の周辺に設置された信号機に関する信号機情報38等が記憶される。   Here, as the link data 34, for example, a link ID for identifying the link, end node information for specifying a node located at the end of the link, road type of the road constituting the link, the number of lanes, opposite Presence / absence of lanes, link coordinates between nodes (for example, the shape of a curve on a curved road), position coordinates of shape complementing points, etc. are stored. As the node data 35, a node ID for identifying the node, position coordinates of the node, connection destination node information for specifying a connection destination node to which the node is connected via a link, and the like are stored. Further, as the branch point data 36, relevant node information for specifying a node forming the branch point (intersection), connection link information for specifying a link connected to the branch point (hereinafter referred to as a connection link), a branch point The traffic signal information 38 and the like related to traffic signals installed in the vicinity of is stored.

また、信号機情報38としては、全国の各分岐点(交差点)の周辺に設置された信号機について、信号機の設置された方向(即ち、信号機のライトが向いている方向であり、以下、設置方向という)や灯数(3灯式、2灯式、1灯式等)や信号機の設置された位置座標(以下、設置座標という)等が記憶される。更に、一の分岐点に対して複数の信号機が設置されている場合には、複数の信号機毎に上記設置方向や設置座標等が記憶される。例えば、図2に示すように片側2車線の道路が交差する分岐点51では、8個の信号機52〜59が設置されている。従って、分岐点51の信号機情報38としては、信号機52〜59の設置方向や設置座標等が記憶される。   In addition, the traffic signal information 38 is the direction in which the traffic light is installed (that is, the direction in which the traffic light is facing) of the traffic signal installed around each branch point (intersection) in the whole country. ), The number of lamps (3-lamp type, 2-lamp type, 1-lamp type, etc.), the position coordinates where the traffic light is installed (hereinafter referred to as installation coordinates), and the like are stored. Furthermore, when a plurality of traffic lights are installed at one branch point, the installation direction, installation coordinates, etc. are stored for each of the traffic lights. For example, as shown in FIG. 2, eight traffic lights 52 to 59 are installed at a branching point 51 where two one-lane roads intersect. Accordingly, as the traffic signal information 38 of the branch point 51, the installation direction, installation coordinates, and the like of the traffic signals 52 to 59 are stored.

尚、信号機情報38としては、分岐点からの退出方向毎に、最も退出側にある信号機(即ち車両が分岐点を通過する際に、その分岐点で最後に視認できる信号機であり、以下、退出側信号機という)に関する情報のみを記憶する構成としても良い。例えば、図2に示す分岐点51では、図の下から上への退出方向に対して退出側信号機である信号機53に関する情報を記憶し、図の上から下への退出方向に対して退出側信号機である信号機55に関する情報を記憶し、図の左から右への退出方向に対して退出側信号機である信号機57に関する情報を記憶し、図の右から左への退出方向に対して退出側信号機である信号機59に関する情報を記憶する。即ち、8個の信号機52〜59の内、信号機53、55、57、59の設置方向と設置座標のみを記憶する構成としても良い。また、分岐点からの進入方向毎に、最も進入側(即ち出発地側)にある信号機(即ち車両が最初に視認できる信号機であり、以下、進入側信号機という)に関する情報のみを記憶する構成としても良い。
そして、ナビゲーションECU13は、後述のように地図情報DB31に記憶された各データに基づいて、車両の進行方向前方にある案内分岐点と該案内分岐点よりも案内経路の出発地側に存在する分岐点(以下、手前分岐点という)を特定する。また、案内分岐点や手前分岐点の周辺にある信号機の信号機情報38や停止線の地物データ37を取得する。そして、特定された案内分岐点や手前分岐点に関する情報や取得した信号機情報38や地物データ37に基づいて、後述の地物テーブル33(図6参照)を作成する。尚、案内分岐点とは、ナビゲーション装置1に設定されている案内経路に従ってナビゲーション装置1が走行の案内を行う際に、右左折指示等の案内を行う対象となる分岐点である。
The traffic signal information 38 is the traffic signal on the most exit side for each exit direction from the branch point (that is, the traffic signal that can be visually recognized at the end of the branch point when the vehicle passes through the branch point). It is good also as a structure which memorize | stores only the information regarding a side signal apparatus. For example, at the branch point 51 shown in FIG. 2, information on the traffic signal 53 that is the exit side traffic signal is stored for the exit direction from the bottom to the top of the diagram, and the exit side is displayed for the exit direction from the top to the bottom of the diagram. Stores information on the traffic light 55 that is a traffic light, stores information on the traffic light 57 that is a traffic light on the exit side with respect to the exit direction from the left to the right in the figure, and exits on the exit direction from the right to the left in the figure. Information on the traffic signal 59 that is a traffic signal is stored. That is, it is good also as a structure which memorize | stores only the installation direction and installation coordinate of the traffic lights 53, 55, 57, 59 among the 8 traffic lights 52-59. In addition, for each approach direction from a branch point, as a configuration for storing only information related to a traffic light that is closest to the entry side (that is, the departure side) (that is, a traffic light that can be visually recognized by the vehicle first, hereinafter referred to as an entry side traffic signal) Also good.
And navigation ECU13 is based on each data memorize | stored in map information DB31 as mentioned later, and the branch existing in the departure place side of a guidance route from this guidance branch point ahead of the advancing direction of a vehicle. A point (hereinafter referred to as a front branch point) is specified. Moreover, the traffic signal information 38 of the traffic lights around the guidance branch point and the front branch point and the feature data 37 of the stop line are acquired. Then, a feature table 33 (see FIG. 6), which will be described later, is created based on the information on the specified guidance branch point and near branch point, the acquired traffic signal information 38, and the feature data 37. The guidance branch point is a branch point to which guidance such as a right / left turn instruction is given when the navigation device 1 performs traveling guidance according to the guidance route set in the navigation device 1.

一方、地物データ37は、道路上に形成された地物の内、特に停止線の路面標示に関する情報が記憶される。具体的には、識別IDと、停止線の位置を地図上で特定する座標データと、停止線が設置された分岐点を識別する分岐点IDとが記憶される。例えば、図2に示すように片側2車線の道路が交差する分岐点51では、4箇所に停止線60〜63が設置されている。従って、地物データ37としては、停止線60〜63に関する各種情報が記憶される。
そして、ナビゲーションECU13はバックカメラ19で撮像した撮像画像から路面に形成された停止線を認識した場合に、認識した停止線に関連付けられた座標データに基づいて車両の詳細な現在位置を検出(又は既に検出された位置を補正)することが可能となる。そして、検出された現在位置に基づいて案内や車両制御を行う。
On the other hand, the feature data 37 stores information related to the road marking of the stop line, among the features formed on the road. Specifically, the identification ID, the coordinate data for specifying the position of the stop line on the map, and the branch point ID for identifying the branch point where the stop line is installed are stored. For example, as shown in FIG. 2, stop lines 60 to 63 are installed at four points at a branch point 51 where roads of two lanes on one side intersect. Therefore, as the feature data 37, various information regarding the stop lines 60 to 63 is stored.
When the navigation ECU 13 recognizes the stop line formed on the road surface from the captured image captured by the back camera 19, it detects the detailed current position of the vehicle based on the coordinate data associated with the recognized stop line (or It is possible to correct a position that has already been detected. And guidance and vehicle control are performed based on the detected current position.

また、案内フレーズ条件テーブル32は、案内分岐点の案内について、発話されるフレーズの内容とともに、案内の発話を開始する条件等がそれぞれ対応付けられて記憶されたテーブルである。以下に、案内フレーズ条件テーブル32について具体例を挙げてより詳細に説明する。図3は案内フレーズ条件テーブル32の一例を示した図である。図4は、図3に示す案内フレーズ条件テーブル32で規定された案内開始地点を説明した図である。尚、図3では、案内分岐点で行われる案内の内、特に案内分岐点に信号機が設置されている場合であって、車両の現在位置から案内分岐点までの間に位置する信号機の数を用いて案内分岐点を特定させる案内について示す。また、以下の実施例の説明では、案内分岐点及び手前分岐点はいずれも信号機の設置された分岐点であり、案内分岐点の一つ手前側(案内経路に沿った出発地側)の分岐点を第1手前分岐点と称し、第1手前分岐点の更に一つ手前側(案内経路に沿った出発地側)の分岐点を第2手前分岐点と称し、第2手前分岐点の更に一つ手前側(案内経路に沿った出発地側)の分岐点を第3手前分岐点と称して説明する。   In addition, the guidance phrase condition table 32 is a table that stores the guidance branch point guidance, the contents of the spoken phrase, the conditions for starting the guidance utterance, and the like. Hereinafter, the guidance phrase condition table 32 will be described in more detail with specific examples. FIG. 3 shows an example of the guidance phrase condition table 32. FIG. 4 is a diagram for explaining a guidance start point defined in the guidance phrase condition table 32 shown in FIG. In FIG. 3, the number of traffic lights located between the current position of the vehicle and the guidance branch point is shown in the case where a traffic light is installed at the guidance branch point among the guidance performed at the guidance branch point. The guidance for specifying the guidance branch point will be described. In the following description of the embodiment, the guide branch point and the front branch point are both branch points where a traffic light is installed, and the branch on the one side before the guide branch point (the departure side along the guide route). The point is referred to as the first front branch point, the branch point on the further one side of the first front branch point (the departure side along the guide route) is referred to as the second front branch point, and further to the second front branch point. A branch point on the front side (the departure side along the guide route) will be referred to as a third front branch point.

図3に示すように、車両の現在位置から案内分岐点までの間に位置する信号機の数を用いて案内分岐点を特定させる案内としては、「3つ目の信号を左(右)方向です」と「2つ目の信号を左(右)方向です」と「次の信号を左(右)方向です」の案内フレーズがある。更に、各案内フレーズに対して案内の発話を開始する条件である案内開始条件が対応付けられている。
例えば、「2つ目の信号を左(右)方向です」との案内を行う場合には、案内分岐点に進入するまでに案内分岐点を含めて2箇所の信号機をユーザがカウントできる状態にある間に、案内の発話を開始する必要がある。従って、「2つ目の信号を左(右)方向です」との案内フレーズは、第2手前分岐点の退出側信号機に対して設定された案内開始地点を車両が通過したことを条件として案内を開始する。また、第2手前分岐点の退出側信号機に設定された案内開始地点は、第2手前分岐点の退出側信号機の所定距離手前(例えば5m手前)の地点や、車両の乗員(特に運転手)から第2手前分岐点の退出側信号機が視認できる状態から視認できなくなる状態へと切り替わる地点等がある。例えば、図4に示す例では、案内分岐点71に対して2つ手前側の第2手前分岐点72の退出側信号機73の5m手前の地点Aを案内開始地点とし、地点Aを車両が通過した時点で、案内分岐点の案内が開始される。その結果、案内を受けたユーザは、案内分岐点71に進入するまでに第1手前分岐点74と案内分岐点71の2箇所の信号機の設置された分岐点をカウントすることが可能となり、案内文中の『2つ目の信号』が案内分岐点71に設置された進入側信号機75であることを明確に特定することが可能となる。
尚、案内フレーズ中の信号機の数は、分岐点単位での信号機の数とすることが望ましい。即ち、大型の道路等において同一分岐点に複数の信号機が設けられている場合には、該複数の信号機は1の信号機としてカウントすることが望ましい。その場合には、案内フレーズ中の信号機の数は、信号機の設置された分岐点(即ち、信号機交差点)の数に相当する。但し、分岐点単位でカウントする場合であっても、分岐点以外に設置された信号機(例えば押しボタン式信号機等)も信号機の数としてカウントすることが望ましい。以下の説明でも同様である。
As shown in Fig. 3, the guidance for specifying the guidance branch point using the number of traffic lights located between the current position of the vehicle and the guidance branch point is “the third signal is in the left (right) direction. "And the second signal is in the left (right) direction" and "the next signal is in the left (right) direction". Furthermore, a guidance start condition, which is a condition for starting a guidance utterance, is associated with each guidance phrase.
For example, in the case of guiding “the second signal is in the left (right) direction”, the user can count two traffic lights including the guidance branch point before entering the guidance branch point. In the meantime, the guidance utterance needs to be started. Therefore, the guidance phrase “the second signal is in the left (right) direction” is guided on the condition that the vehicle has passed the guidance start point set for the exit side traffic light at the second front branch point. To start. In addition, the guidance start point set for the exit side traffic light at the second front branch point is a point (for example, 5 meters before) a predetermined distance before the exit side traffic signal at the second front branch point or a vehicle occupant (especially a driver). There is a point where the exit side traffic light at the second front branch point is switched from a state where it is visible to a state where it is not visible. For example, in the example shown in FIG. 4, a point A that is 5 meters before the exit side traffic signal 73 of the second front branch point 72 that is two ahead of the guide branch point 71 is a guidance start point, and the vehicle passes through the point A. At this point, guidance at the guidance branch point is started. As a result, the user who has received the guidance can count the branch points where two traffic lights, the first front branch point 74 and the guide branch point 71, are installed before entering the guidance branch point 71. It becomes possible to clearly specify that the “second signal” in the sentence is the approach side traffic signal 75 installed at the guidance branch point 71.
The number of traffic lights in the guidance phrase is preferably the number of traffic lights in the branch point unit. That is, when a plurality of traffic signals are provided at the same branch point on a large road or the like, it is desirable that the plurality of traffic signals be counted as one traffic signal. In that case, the number of traffic lights in the guidance phrase corresponds to the number of branch points where traffic lights are installed (that is, traffic signal intersections). However, even when counting is performed in units of branch points, it is desirable to count the number of traffic lights (for example, push button type traffic lights) installed outside the branch point. The same applies to the following description.

案内フレーズ条件テーブル32には、同様にして他の案内フレーズについても記憶されている。尚、案内分岐点の案内方向は、左(右)方向以外に、右(左)斜め方向や右(左)手前方向等も存在する。また、案内開始条件を特定する各数値(5m等)は適宜変更することが可能である。   Similarly, other guidance phrases are stored in the guidance phrase condition table 32. In addition to the left (right) direction, there are a right (left) diagonal direction, a right (left) front direction, and the like as the guidance direction of the guidance branch point. Each numerical value (5 m or the like) for specifying the guidance start condition can be changed as appropriate.

また、地物テーブル33は、後述のように車両が案内分岐点に対して所定距離以内(例えば1.47km以内)に到達した時点でナビゲーションECU13によって作成される。そして、地物テーブル33は、車両の進行方向前方にある案内分岐点を基準にして、該案内分岐点及び手前分岐点にある停止線及び退出側信号機の相対的な位置関係を特定したテーブルである(図6参照)。尚、地物テーブル33の詳細については後述する。   The feature table 33 is created by the navigation ECU 13 when the vehicle reaches within a predetermined distance (for example, within 1.47 km) with respect to the guidance branch point as will be described later. The feature table 33 is a table that specifies the relative positional relationship between the stop line at the guide branch point and the front branch point and the exit side traffic signal with reference to the guide branch point in the forward direction of the vehicle. Yes (see FIG. 6). Details of the feature table 33 will be described later.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の分岐点案内処理プログラム(図5、図8、図9、図17、図19参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を構成する。例えば、センサ結果取得手段は、車両(移動体)の移動距離を検出する為の車速センサ22の検出結果と車両の方位変化を検出する為のジャイロセンサ24の検出結果とを取得する。位置検出手段は、センサ結果取得手段により取得した車速センサ22の検出結果とジャイロセンサ24の検出結果に基づいて、車両の位置を検出する。第1影響特定手段は、車速センサ22の検出誤差が、位置検出手段の検出結果に対して、車両の進行方向、逆方向又は両方向のいずれに誤差を生じさせるかを特定する。第2影響特定手段は、ジャイロセンサ24の検出誤差が、位置検出手段の検出結果に対して、車両の進行方向、逆方向又は両方向のいずれに誤差を生じさせるかを特定する。誤差範囲推定手段は、第1影響特定手段及び第2影響特定手段の特定結果に基づいて、位置検出手段により検出した車両の位置の誤差範囲を推定する。地物検出結果取得手段は、車両の周辺に存在する地物を検出した検出結果を取得する。地物情報取得手段は、地物検出結果取得手段によって検出結果が取得された地物と該地物の位置情報とが対応付けられた地物情報を取得する。   On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 1. The CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. In addition to a RAM 42 for storing route data when a route is searched, a control program, a branch point guidance processing program (FIGS. 5, 8, 9, 17, and 17) described later. 19) and the like, and an internal storage device such as a flash memory 44 for storing a program read from the ROM 43. The navigation ECU 13 constitutes various means as processing algorithms. For example, the sensor result acquisition means acquires the detection result of the vehicle speed sensor 22 for detecting the moving distance of the vehicle (moving body) and the detection result of the gyro sensor 24 for detecting a change in the direction of the vehicle. The position detection means detects the position of the vehicle based on the detection result of the vehicle speed sensor 22 and the detection result of the gyro sensor 24 acquired by the sensor result acquisition means. The first influence specifying unit specifies whether the detection error of the vehicle speed sensor 22 causes an error in the vehicle traveling direction, the reverse direction, or both directions with respect to the detection result of the position detecting unit. The second influence specifying unit specifies whether the detection error of the gyro sensor 24 causes an error in the traveling direction, the reverse direction, or both directions of the vehicle with respect to the detection result of the position detecting unit. The error range estimation means estimates the error range of the vehicle position detected by the position detection means based on the identification results of the first influence identification means and the second influence identification means. The feature detection result acquisition means acquires a detection result obtained by detecting a feature existing around the vehicle. The feature information acquisition means acquires feature information in which the feature whose detection result has been acquired by the feature detection result acquisition means is associated with the position information of the feature.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。   The operation unit 14 is operated when inputting a departure point as a travel start point and a destination as a travel end point, and includes a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 14 can also be configured by a touch panel provided on the front surface of the liquid crystal display 15. Moreover, it can also be comprised with a microphone and a speech recognition apparatus.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。特に本実施形態では、案内分岐点が車両の進行方向前方の所定距離以内(例えば300m)に接近した場合には、案内分岐点付近の拡大図や車両の案内分岐点における進行方向について表示する。   The liquid crystal display 15 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed. In particular, in the present embodiment, when the guidance branch point approaches within a predetermined distance (for example, 300 m) ahead of the traveling direction of the vehicle, an enlarged view near the guidance branch point and the traveling direction at the guidance branch point of the vehicle are displayed.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。特に本実施形態では、案内分岐点が車両の進行方向前方にある場合には、案内内容に基づく所定の案内の開始タイミング(例えば、「2つ目の信号を左方向です」との音声案内を出力する場合には、第2手前分岐点の退出側信号機の所定距離手前を通過したタイミング)で案内分岐点の音声案内を出力する。   The speaker 16 outputs voice guidance for guiding traveling along the guidance route based on an instruction from the navigation ECU 13 and traffic information guidance. In particular, in the present embodiment, when the guidance branch point is ahead of the traveling direction of the vehicle, a voice guidance indicating that the predetermined guidance start timing based on the guidance content (for example, “the second signal is to the left”) When outputting, the voice guidance at the guidance branch point is output at the timing of passing a predetermined distance before the exit side traffic light at the second branch point before.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 18 is a communication device for receiving traffic information composed of information such as traffic jam information, regulation information, and traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center. For example, a mobile phone or DCM is applicable.

また、バックカメラ19は、例えばCCD等の固体撮像素子を用いたものであり、車両の後方に装着されたナンバープレートの上中央付近に取り付けられ、視線方向を水平より所定角度下方に向けて設置される。そして、走行時に車両の進行方向と逆方向となる車両後方を撮像する。そして、撮像画像の画像認識処理を行うことによって、車両の周囲にある地物の種類や位置を検出する。そして、検出された地物(本実施形態では特に停止線の路面標示)に基づいて、車両の詳細な位置を算出する。   The back camera 19 uses a solid-state image sensor such as a CCD, for example, and is installed near the upper center of the license plate mounted on the rear side of the vehicle, and installed with the line-of-sight direction downward from the horizontal by a predetermined angle. Is done. Then, an image is taken of the rear of the vehicle that is opposite to the traveling direction of the vehicle during traveling. And the kind and position of the feature in the circumference | surroundings of a vehicle are detected by performing the image recognition process of a captured image. Based on the detected feature (in this embodiment, in particular, a road marking on the stop line), the detailed position of the vehicle is calculated.

続いて、前記構成を有するナビゲーション装置1においてナビゲーションECU13が実行する分岐点案内処理プログラムについて図5に基づき説明する。図5は本実施形態に係る分岐点案内処理プログラムのフローチャートである。ここで、分岐点案内処理プログラムは車両のACCがONされた後に所定間隔(例えば車両の現在位置の検出周期毎)で繰り返し実行され、案内経路上にある案内分岐点に対する案内を行うプログラムである。尚、以下の図5、図8、図9、図17及び図19にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。   Next, a branch point guidance processing program executed by the navigation ECU 13 in the navigation device 1 having the above configuration will be described with reference to FIG. FIG. 5 is a flowchart of the branch point guidance processing program according to this embodiment. Here, the branch point guidance processing program is a program that is repeatedly executed at a predetermined interval (for example, every detection cycle of the current position of the vehicle) after the vehicle ACC is turned on, and guides the guidance branch point on the guidance route. . The programs shown in the flowcharts of FIGS. 5, 8, 9, 17, and 19 below are stored in the RAM 42 and ROM 43 provided in the navigation device 1 and are executed by the CPU 41.

先ず、分岐点案内処理プログラムではステップ(以下、Sと略記する)1において、CPU41は、ナビゲーション装置1において設定された案内経路に基づく経路案内が行われているか否か判定する。ここで、案内経路は、出発地(例えば自車の現在位置)からユーザに選択された目的地までの推奨経路であり、経路探索処理の結果に基づいて設定される。また、経路探索処理は、地図情報DB31に記憶されたリンクデータ34やノードデータ35、VICSセンタから取得した交通情報等を用いて、公知のダイクストラ法等により行われる。   First, in step (hereinafter abbreviated as S) 1 in the branch point guidance processing program, the CPU 41 determines whether route guidance based on the guidance route set in the navigation device 1 is being performed. Here, the guidance route is a recommended route from the departure point (for example, the current position of the host vehicle) to the destination selected by the user, and is set based on the result of the route search process. The route search process is performed by a known Dijkstra method or the like using link data 34, node data 35, traffic information acquired from the VICS center, and the like stored in the map information DB 31.

そして、ナビゲーション装置1において設定された案内経路に基づく経路案内が行われていると判定された場合(S1:YES)には、S2へと移行する。それに対して、ナビゲーション装置1において設定された案内経路に基づく経路案内が行われていないと判定された場合(S1:NO)には、当該分岐点案内処理プログラムを終了する。   And when it determines with the route guidance based on the guidance route set in the navigation apparatus 1 being performed (S1: YES), it transfers to S2. On the other hand, when it is determined that route guidance based on the guidance route set in the navigation device 1 is not performed (S1: NO), the branch point guidance processing program is terminated.

S2においてCPU41は、車両の現在位置を現在位置検出部11の検出結果や推測航法に基づいて取得する。尚、車両の現在位置を地図データ上で特定するマップマッチング処理についても行う。更に、車両の進行方向前方の所定距離以内に案内分岐点が位置する状態では、車両の現在位置は高精度ロケーション技術を用いて詳細に特定される。ここで、高精度ロケーション技術とは、車両後方のバックカメラ19から取り込んだ白線や路面ペイント等の地物を画像認識により検出し、更に、白線や路面ペイント等の地物を予め記憶した地物データ37と照合することにより、走行車線や高精度な車両位置を検出可能にする技術である。特に本実施形態では地物として分岐点に設けられた停止線を検出対象とする。   In S <b> 2, the CPU 41 acquires the current position of the vehicle based on the detection result of the current position detection unit 11 and dead reckoning navigation. A map matching process for specifying the current position of the vehicle on the map data is also performed. Further, in a state where the guide branch point is located within a predetermined distance ahead of the traveling direction of the vehicle, the current position of the vehicle is specified in detail using the high-precision location technology. Here, the high-precision location technology is a feature that detects features such as white lines and road surface paint captured from the back camera 19 behind the vehicle by image recognition, and further stores features such as white lines and road surface paint in advance. This is a technology that makes it possible to detect a traveling lane and a highly accurate vehicle position by collating with the data 37. In particular, in this embodiment, a stop line provided at a branch point as a feature is set as a detection target.

以下に、高精度ロケーション技術を用いた車両位置の検出方法について簡単に説明する。
先ず、CPU41は、地物データ37に記録されている路面標示(本実施形態では特に停止線)の設置位置から所定距離以内(例えば40m以内)に車両が位置する場合に、バックカメラ19で撮像した画像から該当する停止線を認識(検出)する。
次に、地物データ37から認識した停止線に対応づけられた位置情報を読み出す。
そして、停止線の認識時における車両から停止線までの距離と、読み出した位置情報に基づいて車両の詳細な位置を検出する。
尚、車両の位置は案内分岐点までの距離で特定しても良いし、位置座標で特定しても良い。
Hereinafter, a vehicle position detection method using the high-precision location technology will be briefly described.
First, the CPU 41 captures an image with the back camera 19 when the vehicle is located within a predetermined distance (for example, within 40 m) from the installation position of the road marking (particularly a stop line in the present embodiment) recorded in the feature data 37. The corresponding stop line is recognized (detected) from the captured image.
Next, position information associated with the stop line recognized from the feature data 37 is read out.
Then, a detailed position of the vehicle is detected based on the distance from the vehicle to the stop line when the stop line is recognized and the read position information.
The position of the vehicle may be specified by the distance to the guidance branch point, or may be specified by position coordinates.

また、停止線を認識することにより車両位置を検出してから、次の停止線を認識するまでの間では、推測航法により車両の現在位置が所定間隔で検出される。具体的には、CPU41は、直前の停止線認識時の車両の位置を基準位置として、車速センサ22やジャイロセンサ24の検出結果に基づいて、基準位置に対する車両の移動方向や移動距離を特定する。そして、特定された移動方向や移動距離に基づいて、基準位置に対する相対位置により車両の現在位置を検出する。尚、推測航法では車両がリンク上を移動すると仮定して車両の現在位置が検出される。また、道路の勾配やセンサの誤差について考慮されない。従って、後述するように推測航法により検出された車両の位置と実際の車両の位置との間には誤差が生じる。また、車両の走行距離が長くなるほど、基本的に誤差は大きくなる。
また、前記S2で検出された車両の現在位置はRAM42等に格納され、新たな車両の現在位置が検出される度に更新される。
In addition, the current position of the vehicle is detected at a predetermined interval by dead reckoning navigation from when the vehicle position is detected by recognizing the stop line until the next stop line is recognized. Specifically, the CPU 41 specifies the moving direction and the moving distance of the vehicle with respect to the reference position based on the detection results of the vehicle speed sensor 22 and the gyro sensor 24 with the position of the vehicle at the time of the previous stop line recognition as the reference position. . Then, based on the specified moving direction and moving distance, the current position of the vehicle is detected based on the relative position with respect to the reference position. In dead reckoning, the current position of the vehicle is detected on the assumption that the vehicle moves on the link. Also, road gradients and sensor errors are not considered. Therefore, as described later, an error occurs between the position of the vehicle detected by dead reckoning and the actual position of the vehicle. Further, the error basically increases as the travel distance of the vehicle increases.
Further, the current position of the vehicle detected in S2 is stored in the RAM 42 or the like and updated whenever a new current position of the vehicle is detected.

次に、S3においてCPU41は、ナビゲーション装置1において設定されている案内経路(案内経路中の案内分岐点を含む)を取得する。   Next, in S <b> 3, the CPU 41 obtains a guidance route (including a guidance branch point in the guidance route) set in the navigation device 1.

続いて、S4においてCPU41は、前記S2で取得した車両の現在位置と前記S3で取得した案内経路に基づいて、車両の進行方向前方の所定距離以内(例えば、1.47km以内)に案内分岐点が有るか否か判定する。尚、案内分岐点とは、前記したようにナビゲーション装置1に設定された案内経路に従ってナビゲーション装置1が走行の案内を行う際に、右左折指示等の案内を行う対象となる分岐点である。   Subsequently, in S4, the CPU 41 determines a guidance branch point within a predetermined distance (for example, within 1.47 km) ahead of the traveling direction of the vehicle based on the current position of the vehicle acquired in S2 and the guidance route acquired in S3. It is determined whether or not there is. Note that the guidance branch point is a branch point to which guidance such as a right / left turn instruction is given when the navigation device 1 guides traveling according to the guidance route set in the navigation device 1 as described above.

そして、車両の進行方向前方の所定距離以内に案内分岐点が有ると判定された場合(S4:YES)には、S5へと移行する。それに対して、車両の進行方向前方の所定距離以内に案内分岐点が無いと判定された場合(S4:NO)には、当該分岐点案内処理プログラムを終了する。   If it is determined that there is a guidance branch point within a predetermined distance ahead of the traveling direction of the vehicle (S4: YES), the process proceeds to S5. On the other hand, when it is determined that there is no guidance branch point within a predetermined distance ahead of the traveling direction of the vehicle (S4: NO), the branch point guidance processing program is terminated.

S5においてCPU41は、車両の進行方向前方にある案内分岐点に対する案内が既に行われたか否か判定する。尚、前記S5では、案内分岐点に対する案内の内、特に案内分岐点での右左折等を指示する音声案内が行われたか否かを判定する。   In S5, the CPU 41 determines whether or not guidance for a guidance branch point in front of the vehicle traveling direction has already been performed. In S5, it is determined whether or not voice guidance for instructing a right or left turn or the like at the guidance branch point among the guidance for the guidance branch point has been performed.

そして、車両の進行方向前方にある案内分岐点に対する案内が既に行われたと判定された場合(S5:YES)には、当該分岐点案内処理プログラムを終了する。それに対して、車両の進行方向前方にある案内分岐点に対する案内が行われていないと判定された場合(S5:NO)には、S6へと移行する。   And when it determines with guidance with respect to the guidance branch point ahead of the advancing direction of a vehicle having already been performed (S5: YES), the said branch point guidance process program is complete | finished. On the other hand, when it is determined that the guidance for the guidance branch point ahead of the traveling direction of the vehicle is not performed (S5: NO), the process proceeds to S6.

S6においてCPU41は、車両の進行方向前方に位置する案内分岐点に対する地物テーブル33が作成されているか否か判定する。ここで、地物テーブル33は、後述のS7において作成され、車両の進行方向前方にある案内分岐点を基準にして、該案内分岐点及び手前分岐点にある停止線及び退出側信号機の相対的な位置関係を特定したテーブルである。   In S6, the CPU 41 determines whether or not the feature table 33 for the guidance branch point located in front of the traveling direction of the vehicle has been created. Here, the feature table 33 is created in S7, which will be described later, and is based on the guide branch point ahead of the traveling direction of the vehicle, and the relative of the stop line and the exit side signal at the guide branch point and the front branch point. It is a table that specifies a specific positional relationship.

そして、車両の進行方向前方に位置する案内分岐点に対する地物テーブル33が作成されていると判定された場合(S6:YES)には、S9へと移行する。それに対して、車両の進行方向前方に位置する案内分岐点に対する地物テーブル33が作成されていないと判定された場合(S6:NO)には、S7へと移行する。   And when it determines with the feature table 33 having been prepared with respect to the guidance branch point located ahead of the advancing direction of a vehicle (S6: YES), it transfers to S9. On the other hand, when it determines with the feature table 33 with respect to the guidance branch point located ahead of the advancing direction of a vehicle not being created (S6: NO), it transfers to S7.

S7においてCPU41は、車両の進行方向前方に位置する案内分岐点と、該案内分岐点の手前側に位置する手前分岐点について、各分岐点の位置情報を地図情報DB31から取得する。また、案内分岐点及び手前分岐点に設置された退出側信号機に関する情報(位置座標、灯数等)を信号機情報38から取得する。更に、案内分岐点及び手前分岐点に配置された停止線(実停止線以外に仮想停止線も含む)に関する情報(位置座標、分岐点までの距離等)について地物データ37から取得する。そして、取得した各情報に基づいて地物テーブル33を作成する。尚、地物テーブル33の作成対象とする手前分岐点は、車両の現在位置から案内分岐点までにある全ての手前分岐点としても良いし、所定の手前分岐点のみ(例えば第1手前分岐点から第3手前分岐点)としても良い。   In S <b> 7, the CPU 41 acquires position information of each branch point from the map information DB 31 for the guide branch point located in front of the traveling direction of the vehicle and the front branch point located in front of the guide branch point. Further, information (position coordinates, number of lamps, etc.) related to the exit side traffic lights installed at the guidance branch point and the front branch point is acquired from the traffic signal information 38. Further, information (position coordinates, distance to the branch point, etc.) regarding the stop line (including the virtual stop line in addition to the actual stop line) arranged at the guidance branch point and the front branch point is acquired from the feature data 37. And the feature table 33 is created based on each acquired information. The front branch points to be created in the feature table 33 may be all front branch points from the current position of the vehicle to the guide branch point, or only a predetermined front branch point (for example, the first front branch point). To the third front branch point).

ここで、図6は、前記S7において作成される地物テーブル33の一例を示した図である。図6に示す地物テーブル33では、車両81の進行方向前方にある案内分岐点82を基準にして、該案内分岐点82及び第1手前分岐点83、第2手前分岐点84、第3手前分岐点85にある退出側信号機86〜89及び停止線90〜93の相対的な位置関係が記録されている。
例えば、案内分岐点82の退出側信号機86は、3灯式であり、案内分岐点82に対して出発地側と逆方向に10m離れた位置に設置されていることが記録される。また、第2手前分岐点84の停止線92は、「ID:345」の仮想停止線であり、案内分岐点82に対して出発地側に220m離れた位置に設置されていることが記録される。尚、退出側信号機86〜89の案内分岐点82からの相対距離は、例えば案内分岐点82の位置座標と信号機情報38から取得された各退出側信号機86〜89の位置座標とに基づいて算出される。また、停止線90〜93の案内分岐点82からの相対距離は、例えば各分岐点82〜85の位置座標と地物データ37から取得された各停止線90〜93の位置データとに基づいて算出される。
Here, FIG. 6 is a diagram showing an example of the feature table 33 created in S7. In the feature table 33 shown in FIG. 6, the guide branch point 82, the first front branch point 83, the second front branch point 84, and the third front side are based on the guide branch point 82 ahead of the traveling direction of the vehicle 81. The relative positional relationship between the exit side traffic lights 86 to 89 and the stop lines 90 to 93 at the branch point 85 is recorded.
For example, it is recorded that the exit side traffic signal 86 at the guidance branch point 82 is a three-lamp type and is installed at a position 10 m away from the guidance branch point 82 in the direction opposite to the departure side. In addition, the stop line 92 at the second front branch point 84 is a virtual stop line of “ID: 345”, and it is recorded that it is installed at a position 220 m away from the guide branch point 82 on the departure side. The The relative distance of the exit side traffic lights 86 to 89 from the guidance branch point 82 is calculated based on, for example, the position coordinates of the guidance branch point 82 and the position coordinates of the exit side traffic lights 86 to 89 acquired from the traffic signal information 38. Is done. The relative distances of the stop lines 90 to 93 from the guide branch points 82 are based on, for example, the position coordinates of the branch points 82 to 85 and the position data of the stop lines 90 to 93 acquired from the feature data 37. Calculated.

次に、S8においてCPU41は、前記S7で作成された地物テーブル33に基づいて、案内分岐点の案内を行う際の案内フレーズの内容と、案内分岐点の案内を開始する案内開始地点をそれぞれ設定する。例えば、案内経路が車両の進行方向前方にある案内分岐点で左折する経路であった場合には、案内フレーズとして「3つ目の信号を左方向です」、「2つ目の信号を左方向です」、「次の信号を左方向です」がそれぞれ設定される。また、「3つ目の信号を左方向です」との案内には、第3手前分岐点の退出側信号機の所定距離手前(例えば5m手前)の地点を案内開始地点に設定する。同じく、「2つ目の信号を左方向です」との案内には、第2手前分岐点の退出側信号機の所定距離手前(例えば5m手前)の地点を案内開始地点に設定する。同じく、「次の信号を左方向です」との案内には、第1手前分岐点の退出側信号機の所定距離手前(例えば5m手前)の地点を案内開始地点に設定する。また、S8においてCPU41は、設定された案内フレーズと案内開始地点をRAM42等に格納する。その後、S9へと移行する。   Next, in S8, based on the feature table 33 created in S7, the CPU 41 determines the contents of the guidance phrase when performing guidance for the guidance branch point and the guidance start point for starting guidance for the guidance branch point. Set. For example, if the guidance route is a route that turns left at a guidance branch point ahead of the direction of travel of the vehicle, the guidance phrases are “3rd traffic light left”, “2nd traffic light left And “Next signal is to the left” are set. Further, for guidance that “the third signal is in the left direction”, a point a predetermined distance before the exit side traffic light at the third branch point before (for example, 5 m before) is set as the guidance start point. Similarly, for guidance that “the second signal is in the left direction”, a point a predetermined distance (for example, 5 m before) of the exit side traffic light of the second front branch point is set as the guidance start point. Similarly, for guidance that “the next signal is in the left direction”, a point a predetermined distance (for example, 5 m before) of the exit side traffic light at the first branch point is set as the guidance start point. In S8, the CPU 41 stores the set guidance phrase and guidance start point in the RAM 42 or the like. Thereafter, the process proceeds to S9.

S9においてCPU41は、後述の誤差範囲推定処理(図8)を実行する。尚、誤差範囲推定処理は、後述のように前記S2で取得された車両の検出位置に対する誤差範囲について推定する処理である。尚、誤差範囲は、検出位置に対して誤差の生じる方向(車両の進行方向、進行方向の逆方向、両方向)と生じ得る最大の誤差量(例えば10m)によって特定される。   In S9, the CPU 41 executes an error range estimation process (FIG. 8) described later. The error range estimation process is a process for estimating the error range with respect to the detected position of the vehicle acquired in S2 as described later. The error range is specified by the direction in which an error occurs with respect to the detection position (the traveling direction of the vehicle, the opposite direction of the traveling direction, both directions) and the maximum possible error amount (for example, 10 m).

次に、S10においてCPU41は、前記S2で取得された車両の検出位置及び前記S9で推定された誤差範囲に基づいて、案内開始地点に車両が到達したか否か判定する。
具体的には、誤差範囲内のどの位置に実際の車両が位置する場合であっても、車両が案内開始地点に到達した状態となった場合、即ち、誤差範囲内の最も車両の進行方向の逆方向にある地点が案内開始地点と一致した場合に、案内開始地点に車両が到達したと判定する。例えば、図7に示すように、前記S9で推定された誤差範囲が車両の進行方向に5m、逆方向に10mである場合には、前記S2で取得された車両の現在位置94の後方10mの地点Xが、手前分岐点(例えば第2手前分岐点84)の退出側信号機88の所定距離手前に設定された案内開始地点Aに一致した場合に、案内開始地点Aに車両が到達したと判定される。それによって、車両の検出位置に誤差が生じた場合であっても乗員の視界と矛盾する案内(例えば、案内分岐点まで信号機が3つ見える状態で、「2つ目の信号を左(右)方向です」との案内)が行われることを防止することが可能となる。
Next, in S10, the CPU 41 determines whether or not the vehicle has reached the guidance start point based on the detected position of the vehicle acquired in S2 and the error range estimated in S9.
Specifically, no matter where the actual vehicle is located within the error range, when the vehicle has reached the guidance start point, that is, in the direction of travel of the vehicle within the error range. When a point in the reverse direction matches the guidance start point, it is determined that the vehicle has reached the guidance start point. For example, as shown in FIG. 7, when the error range estimated in S9 is 5 m in the traveling direction of the vehicle and 10 m in the reverse direction, the error range of 10 m behind the current position 94 of the vehicle acquired in S2 It is determined that the vehicle has arrived at the guidance start point A when the point X coincides with the guidance start point A set a predetermined distance before the exit side traffic light 88 of the front branch point (for example, the second front branch point 84). Is done. As a result, even if an error occurs in the detection position of the vehicle, guidance that contradicts the sight of the occupant (for example, in a state where three traffic lights are visible up to the guidance branch point, the second signal is left (right) It is possible to prevent the guidance of “direction”.

そして、案内開始地点に車両が到達したと判定された場合(S10:YES)には、S11へと移行する。それに対して、案内開始地点に車両が到達していないと判定された場合(S10:NO)には、当該分岐点案内処理プログラムを終了する。   And when it determines with the vehicle having reached the guidance start point (S10: YES), it transfers to S11. On the other hand, when it is determined that the vehicle has not reached the guidance start point (S10: NO), the branch point guidance processing program is terminated.

S11においてCPU41は、到達した案内開始地点に対応する案内フレーズにより案内分岐点に関する案内を行う。具体的には、案内分岐点を特定させる案内と車両の案内分岐点での退出方向を特定する案内(即ち、車両が案内分岐点から退出する退出道路を特定させる為の案内)を行う。例えば、本実施形態では、案内フレーズとして「3つ目の信号を左(右)方向です」、「2つ目の信号を左(右)方向です」、「次の信号を左(右)方向です」があり、それぞれの案内フレーズに対応して案内開始地点が設定されている。例えば、第2手前分岐点の退出側信号機の所定距離手前に設定された案内開始地点に車両が到達した場合には、「2つ目の信号を左(右)方向です」とのフレーズをスピーカ16から出力する。更に、案内分岐点が車両の所定距離以内(例えば300m)に接近した場合には、案内分岐点付近の拡大図や車両の案内分岐点における進行方向について液晶ディスプレイ15に表示する。
その結果、案内分岐点及び該案内分岐点から車両が退出する道路をユーザに正確に特定させることが可能となる。
In S <b> 11, the CPU 41 performs guidance related to the guidance branch point by the guidance phrase corresponding to the reached guidance start point. Specifically, guidance for identifying the guidance branch point and guidance for identifying the exit direction of the vehicle at the guidance branch point (that is, guidance for identifying the exit road from which the vehicle exits the guidance branch point) are performed. For example, in this embodiment, “3rd signal is left (right) direction”, “2nd signal is left (right) direction”, “next signal is left (right) direction” There is a guide start point corresponding to each guide phrase. For example, when the vehicle reaches the guidance start point set a predetermined distance before the exit side traffic light at the second branch point, the phrase “The second signal is in the left (right) direction” with the phrase 16 to output. Further, when the guidance branch point approaches within a predetermined distance (for example, 300 m) of the vehicle, an enlarged view near the guidance branch point and the traveling direction at the guidance branch point of the vehicle are displayed on the liquid crystal display 15.
As a result, it becomes possible for the user to accurately specify the guidance branch point and the road from which the vehicle exits from the guidance branch point.

次に、前記S9において実行される誤差範囲推定処理のサブ処理について図8に基づき説明する。図8は誤差範囲推定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the error range estimation process executed in S9 will be described with reference to FIG. FIG. 8 is a flowchart of a sub-processing program for error range estimation processing.

先ず、S21においてCPU41は、車両の走行する道路の道路形状に基づいて生じる誤差範囲について推定する。尚、誤差範囲は、検出位置に対して誤差の生じる方向(車両の進行方向、進行方向と逆方向、又は両方向)と生じ得る最大の誤差量(例えば10m)によって特定される。後述のS22、S23も同様である。尚、詳細については後述する(図9参照)。   First, in S21, the CPU 41 estimates an error range that occurs based on the road shape of the road on which the vehicle travels. The error range is specified by the direction in which an error occurs with respect to the detection position (the traveling direction of the vehicle, the direction opposite to the traveling direction, or both directions) and the maximum error amount (for example, 10 m). The same applies to S22 and S23 described later. Details will be described later (see FIG. 9).

次に、S22においてCPU41は、車両の搭載するセンサの検出誤差に基づいて生じる誤差範囲について推定する。詳細については後述する(図17参照)。   Next, in S22, the CPU 41 estimates an error range that is generated based on a detection error of a sensor mounted on the vehicle. Details will be described later (see FIG. 17).

続いて、S23においてCPU41は、車両が行う車線変更に基づいて生じる誤差範囲について推定する。詳細については後述する(図19参照)。   Subsequently, in S23, the CPU 41 estimates an error range generated based on a lane change performed by the vehicle. Details will be described later (see FIG. 19).

その後、S24においてCPU41は、前記S21〜S23で推定された各誤差範囲に基づいて、誤差を生じさせる全ての要因を考慮した誤差範囲について推定する。具体的には、検出位置に対して誤差の生じる方向(車両の進行方向、進行方向の逆方向)毎に各要因で生じる最大の誤差量を加算し、その加算値を全ての要因を考慮した際に生じ得る最大の誤差量とする。   Thereafter, in S24, the CPU 41 estimates an error range in consideration of all factors causing an error, based on the error ranges estimated in S21 to S23. Specifically, the maximum error amount caused by each factor is added for each direction in which an error occurs with respect to the detection position (the vehicle traveling direction or the reverse direction of the traveling direction), and all the factors are considered in the added value. The maximum amount of error that can occur.

例えば、前記S21で推定された車両の走行する道路の道路形状に基づいて生じる誤差範囲が車両の進行方向にP1[m]、進行方向の逆方向にP2[m]であり、前記S22で推定された車両の搭載するセンサの検出誤差に基づいて生じる誤差範囲が車両の進行方向にQ1[m]、進行方向の逆方向にQ2[m]であり、前記S23で推定された車両が行う車線変更に基づいて生じる誤差範囲が車両の進行方向にR1[m]、進行方向の逆方向にR2[m]である場合には、前記S24で推定される全ての要因を考慮した誤差範囲は、車両の進行方向に(P1+Q1+R1)[m]、進行方向の逆方向に(P2+Q2+R2)[m]となる。その後、S10へと移行し、前記S24で推定された車両の検出位置に対する誤差範囲に基づいて車両の案内開始地点への到達判定を行う。   For example, the error range generated based on the road shape of the road on which the vehicle travels estimated in S21 is P1 [m] in the traveling direction of the vehicle and P2 [m] in the reverse direction of the traveling direction, and is estimated in S22. The error range generated based on the detection error of the sensor mounted on the vehicle is Q1 [m] in the traveling direction of the vehicle and Q2 [m] in the reverse direction of the traveling direction, and the lane that the vehicle estimated in S23 performs When the error range generated based on the change is R1 [m] in the traveling direction of the vehicle and R2 [m] in the reverse direction of the traveling direction, the error range considering all the factors estimated in S24 is (P1 + Q1 + R1) [m] in the traveling direction of the vehicle and (P2 + Q2 + R2) [m] in the opposite direction of the traveling direction. Thereafter, the process proceeds to S10, and determination of arrival of the vehicle at the guidance start point is performed based on the error range with respect to the detected position of the vehicle estimated in S24.

次に、前記S21において実行される道路形状に基づく誤差範囲の推定処理のサブ処理について図9に基づき説明する。図9は道路形状に基づく誤差範囲の推定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the error range estimation process based on the road shape executed in S21 will be described with reference to FIG. FIG. 9 is a flowchart of a sub-processing program of the error range estimation process based on the road shape.

先ず、S31においてCPU41は、車両の走行する道路の道路形状を地図情報DB31から取得する。   First, in S31, the CPU 41 acquires the road shape of the road on which the vehicle is traveling from the map information DB 31.

次に、S31で取得した道路の道路形状に基づいて、車両が所定角度で屈曲した屈曲道路を走行しているか否か判定する。ここで、車両が屈曲道路を走行する場合には、屈曲道路におけるリンクの設定位置と車両の走行経路のズレを要因として、推測航法により検出された車両の位置と実際の車両の位置との間に誤差が生じる。   Next, based on the road shape of the road acquired in S31, it is determined whether or not the vehicle is traveling on a curved road bent at a predetermined angle. Here, when the vehicle travels on a curved road, the position between the vehicle position detected by dead reckoning and the actual vehicle position is caused by the deviation of the link setting position on the curved road and the travel route of the vehicle. An error occurs.

以下に、図10を用いて屈曲道路の走行によって誤差が生じる理由について簡単に説明する。図10に示すように、所定角度θで屈曲された屈曲道路を車両が走行することとすると、屈曲道路に設定されたリンクL1上を必ず車両が走行するとは限らない。従って、屈曲道路に設定されたリンクL1の長さと実際に車両が走行する走行経路L2の長さとが同一長さになるとは限らず、例えば図10に示す例ではリンクL1が走行経路L2よりも距離Dだけ長くなる。ここで、前記したように推測航法では車両がリンク上を移動すると仮定して車両の現在位置が検出されるので、推測航法により検出された車両の位置よりも実際の車両の位置は距離Dだけ前方に位置することとなる(即ち車両の検出位置に誤差が生じる)。また、屈曲道路に設定されたリンクL1は、屈曲道路上のいずれかの位置に設定されていれば良いと規定されているので、後述のようにリンクL1の位置によって誤差の生じる方向や誤差の量は変化する。   Hereinafter, the reason why an error occurs due to traveling on a curved road will be briefly described with reference to FIG. As shown in FIG. 10, if the vehicle travels on a curved road bent at a predetermined angle θ, the vehicle does not necessarily travel on the link L1 set on the curved road. Accordingly, the length of the link L1 set on the curved road is not necessarily the same as the length of the travel route L2 on which the vehicle actually travels. For example, in the example shown in FIG. 10, the link L1 is longer than the travel route L2. The distance D is increased. Here, as described above, in the dead reckoning navigation, the current position of the vehicle is detected on the assumption that the vehicle moves on the link. Therefore, the actual vehicle position is only the distance D than the vehicle position detected by the dead reckoning navigation. It will be located ahead (that is, an error will occur in the detection position of the vehicle). Further, since it is defined that the link L1 set on the curved road only needs to be set at any position on the curved road, as will be described later, the direction in which the error occurs or the error is generated depending on the position of the link L1. The amount varies.

そして、車両が所定角度で屈曲した屈曲道路を走行していると判定された場合(S32:YES)には、S33へと移行する。それに対して、車両が屈曲道路を走行していないと判定された場合(S32:NO)には、S36へと移行する。   If it is determined that the vehicle is traveling on a curved road bent at a predetermined angle (S32: YES), the process proceeds to S33. On the other hand, when it is determined that the vehicle is not traveling on a curved road (S32: NO), the process proceeds to S36.

S33においてCPU41は、地図情報DB31から車両が走行する屈曲道路に関する情報を取得する。具体的には、屈曲方向、屈曲角度、車線数、車線幅、対向車線の有無等が取得される。尚、車線幅については固定値(例えば3.5m)としても良い。また、屈曲方向、屈曲角度については屈曲道路に含まれる各ノードのノード座標から算出することとしても良い。   In S <b> 33, the CPU 41 acquires information related to the curved road on which the vehicle travels from the map information DB 31. Specifically, the bending direction, the bending angle, the number of lanes, the lane width, the presence / absence of an oncoming lane, and the like are acquired. The lane width may be a fixed value (for example, 3.5 m). Further, the bending direction and the bending angle may be calculated from the node coordinates of each node included in the bending road.

次に、S34においてCPU41は、前記S33で取得した屈曲方向、車線数及び対向車線の有無に基づいて、最大前ズレ車線数T1と最大後ズレ車線数T2とをそれぞれ算出する。ここで、最大前ズレ車線数T1は、屈曲道路に設定されたリンクが車両の走行する走行経路よりも短くなる場合であって、該リンクと走行経路との間で生じ得る道路幅方向の最大のズレ量を車線数で特定した値である。また、最大後ズレ車線数T2は、屈曲道路に設定されたリンクが車両の走行する走行経路よりも長くなる場合であって、該リンクと走行経路との間で生じ得る道路幅方向の最大のズレ量を車線数で特定した値である。   Next, in S34, the CPU 41 calculates the maximum front shift lane number T1 and the maximum rear shift lane number T2 based on the bending direction, the number of lanes, and the presence or absence of the opposite lane acquired in S33. Here, the maximum front misalignment lane number T1 is a case where the link set on the curved road is shorter than the travel route on which the vehicle travels, and is the maximum in the road width direction that can occur between the link and the travel route. This is the value specified by the number of lanes. Further, the maximum rear shift lane number T2 is a case where the link set on the curved road is longer than the travel route on which the vehicle travels, and is the maximum in the road width direction that can occur between the link and the travel route. This is the value specified by the number of lanes.

以下に、図11〜図14を用いて最大前ズレ車線数T1と最大後ズレ車線数T2の算出方法について説明する。ここで、最大前ズレ車線数T1と最大後ズレ車線数T2は、屈曲道路の屈曲方向、車線数及び対向車線の有無に基づいて算出される。
例えば、図11は、屈曲方向が車両の進行方向に対して左方向である場合の最大前ズレ車線数T1の算出方法について示した図である。図11に示すように、屈曲方向が車両の進行方向に対して左方向である場合において、屈曲道路に設定されたリンクL1が車両の走行する走行経路L2よりも短くなるとともに、該リンクL1と走行経路L2との間で道路幅方向に最大のズレ量が生じる場合は、リンクL1が屈曲道路の左端に沿って設定され、車両が最も右側の車線を走行する場合である。従って、最大前ズレ車線数T1は、対向車線の有無に関係なく片側車線数(図11では2)から0.5を引いた値となる。
Hereinafter, a method of calculating the maximum front shift lane number T1 and the maximum rear shift lane number T2 will be described with reference to FIGS. Here, the maximum front deviation lane number T1 and the maximum rear deviation lane number T2 are calculated based on the bending direction of the curved road, the number of lanes, and the presence or absence of the opposite lane.
For example, FIG. 11 is a diagram illustrating a method of calculating the maximum front misalignment lane number T1 when the bending direction is the left direction with respect to the traveling direction of the vehicle. As shown in FIG. 11, when the bending direction is the left direction with respect to the traveling direction of the vehicle, the link L1 set on the bending road becomes shorter than the traveling route L2 on which the vehicle travels, and the link L1 When the maximum amount of deviation occurs in the road width direction with respect to the travel route L2, the link L1 is set along the left end of the curved road, and the vehicle travels in the rightmost lane. Therefore, the maximum front misalignment lane number T1 is a value obtained by subtracting 0.5 from the number of one-side lanes (2 in FIG. 11) regardless of the presence or absence of the oncoming lane.

また、図12は、屈曲方向が車両の進行方向に対して左方向である場合の最大後ズレ車線数T2の算出方法について示した図である。図12に示すように、屈曲方向が車両の進行方向に対して左方向である場合において、屈曲道路に設定されたリンクL1が車両の走行する走行経路L2よりも長くなるとともに、該リンクL1と走行経路L2との間で道路幅方向に最大のズレ量が生じる場合は、リンクL1が屈曲道路の右端に沿って設定され、車両が最も左側の車線を走行する場合である。従って、最大後ズレ車線数T2は、対向車線がある場合には両側車線数(図12では4)から0.5を引いた値となり、対向車線が無い場合には片側車線数から0.5を引いた値となる。   FIG. 12 is a diagram illustrating a method of calculating the maximum rearward deviation lane number T2 when the bending direction is the left direction with respect to the traveling direction of the vehicle. As shown in FIG. 12, when the bending direction is the left direction with respect to the traveling direction of the vehicle, the link L1 set on the bending road becomes longer than the travel route L2 along which the vehicle travels, and the link L1 When the maximum amount of deviation occurs in the road width direction with respect to the travel route L2, the link L1 is set along the right end of the curved road, and the vehicle travels in the leftmost lane. Therefore, the maximum rear shift lane number T2 is a value obtained by subtracting 0.5 from the number of both-side lanes (4 in FIG. 12) when there is an oncoming lane, and from the number of one side lanes when there is no oncoming lane. The value obtained by subtracting

また、図13は、屈曲方向が車両の進行方向に対して右方向である場合の最大前ズレ車線数T1の算出方法について示した図である。図13に示すように、屈曲方向が車両の進行方向に対して右方向である場合において、屈曲道路に設定されたリンクL1が車両の走行する走行経路L2よりも短くなるとともに、該リンクL1と走行経路L2との間で道路幅方向に最大のズレ量が生じる場合は、リンクL1が屈曲道路の右端に沿って設定され、車両が最も左側の車線を走行する場合である。従って、最大前ズレ車線数T1は、対向車線がある場合には両側車線数(図13では4)から0.5を引いた値となり、対向車線が無い場合には片側車線数から0.5を引いた値となる。   FIG. 13 is a diagram showing a method of calculating the maximum front misalignment lane number T1 when the bending direction is the right direction with respect to the traveling direction of the vehicle. As shown in FIG. 13, when the bending direction is rightward with respect to the traveling direction of the vehicle, the link L1 set on the bending road is shorter than the travel route L2 on which the vehicle travels, and the link L1 When the maximum amount of deviation occurs in the road width direction with respect to the travel route L2, the link L1 is set along the right end of the curved road, and the vehicle travels in the leftmost lane. Accordingly, the maximum front misalignment lane number T1 is a value obtained by subtracting 0.5 from the number of both-side lanes (4 in FIG. 13) when there is an oncoming lane, and 0.5 from the number of one-side lanes when there is no oncoming lane. The value obtained by subtracting

次に、図14は、屈曲方向が車両の進行方向に対して右方向である場合の最大後ズレ車線数T2の算出方法について示した図である。図14に示すように、屈曲方向が車両の進行方向に対して右方向である場合において、屈曲道路に設定されたリンクL1が車両の走行する走行経路L2よりも長くなるとともに、該リンクL1と走行経路L2との間で道路幅方向に最大のズレ量が生じる場合は、リンクL1が屈曲道路の左端に沿って設定され、車両が最も右側の車線を走行する場合である。従って、最大後ズレ車線数T2は、対向車線の有無に関係なく片側車線数(図14では2)から0.5を引いた値となる。
尚、図11〜図14では左側通行の場合について説明したが、右側通行の場合にはT1とT2の値が入れ替わることとなる。
Next, FIG. 14 is a diagram illustrating a method of calculating the maximum rearward deviation lane number T2 when the bending direction is the right direction with respect to the traveling direction of the vehicle. As shown in FIG. 14, when the bending direction is the right direction with respect to the traveling direction of the vehicle, the link L1 set on the bending road becomes longer than the travel route L2 on which the vehicle travels, and the link L1 When the maximum amount of deviation occurs in the road width direction with respect to the travel route L2, the link L1 is set along the left end of the curved road, and the vehicle travels in the rightmost lane. Therefore, the maximum rear shift lane number T2 is a value obtained by subtracting 0.5 from the number of one-side lanes (2 in FIG. 14) regardless of the presence or absence of the oncoming lane.
In addition, although the case of left-hand traffic was demonstrated in FIGS. 11-14, in the case of right-hand traffic, the value of T1 and T2 will be interchanged.

続いて、S35においてCPU41は、前記S34で算出した最大前ズレ車線数T1及び最大後ズレ車線数T2と、前記S33で取得した屈曲角度、車線幅に基づいて、屈曲道路を走行することにより生じる車両の検出位置の誤差範囲について推定する。具体的には、以下の式(1)により検出位置に対して進行方向側に生じる最大の誤差量D1が算出され、式(2)により検出位置に対して進行方向の逆方向側に生じる最大の誤差量D2が算出される。その結果、推定される誤差範囲は“車両の検出位置のD1前方から車両の検出位置のD2後方までの範囲”となる。
D1[m]=2×T2×P÷tan(((180−θ)/2)π÷180)・・・(1)
D2[m]=2×T1×P÷tan(((180−θ)/2)π÷180)・・・(2)
P:車線幅[m]、θ:屈曲角度[°]
その後、S22へと移行する。
Subsequently, in S35, the CPU 41 is caused by traveling on a curved road based on the maximum front shift lane number T1 and the maximum rear shift lane number T2 calculated in S34, and the bending angle and lane width acquired in S33. The error range of the detected position of the vehicle is estimated. Specifically, the maximum error amount D1 generated on the traveling direction side with respect to the detection position is calculated by the following equation (1), and the maximum amount generated on the opposite side of the traveling direction with respect to the detection position is calculated by equation (2). The error amount D2 is calculated. As a result, the estimated error range is “range from the front D1 of the vehicle detection position to the rear D2 of the vehicle detection position”.
D1 [m] = 2 × T2 × P ÷ tan (((180−θ) / 2) π ÷ 180) (1)
D2 [m] = 2 × T1 × P ÷ tan (((180−θ) / 2) π ÷ 180) (2)
P: Lane width [m], θ: Bending angle [°]
Thereafter, the process proceeds to S22.

一方、S36においてCPU41は、前記S31で取得した道路の道路形状に基づいて、車両が所定の曲率でカーブするカーブ道路を走行しているか否か判定する。ここで、車両がカーブ道路を走行する場合には、カーブ道路におけるリンクの形状が、リンクの形状を特定する為の形状補完点を曲線では無く直線で結ぶことによって特定されることを要因として、推測航法により検出された車両の位置と実際の車両の位置との間に誤差が生じる。   On the other hand, in S36, the CPU 41 determines whether or not the vehicle is traveling on a curved road that curves with a predetermined curvature, based on the road shape of the road acquired in S31. Here, when the vehicle travels on a curved road, the shape of the link on the curved road is specified by connecting the shape interpolation points for specifying the shape of the link with a straight line instead of a curve. An error occurs between the position of the vehicle detected by dead reckoning and the actual position of the vehicle.

以下に、図15を用いてカーブ道路の走行によって誤差が生じる理由について簡単に説明する。図15に示すように、所定の曲率でカーブしたカーブ道路を車両が走行することとすると、形状補完点C1〜C5を直線で結んだリンクL3と曲線を描いて走行する車両の走行経路L4とは一致しない。従って、カーブ道路に設定されたリンクL3の長さと実際に車両が走行する経路L4の長さとが同一長さにならず、リンクL3が走行経路L4よりも僅かに短くなる。ここで、前記したように推測航法では車両がリンク上を移動すると仮定して車両の現在位置が検出されるので、推測航法により検出された車両の位置よりも実際の車両の位置は僅かに後方に位置することとなる(即ち車両の検出位置に誤差が生じる)。また、後述のようにカーブ道路の形状(具体的には曲率半径と交角)によって誤差量は変化する。   Hereinafter, the reason why an error occurs due to traveling on a curved road will be briefly described with reference to FIG. As shown in FIG. 15, when a vehicle travels on a curved road curved with a predetermined curvature, a link L3 connecting the shape complement points C1 to C5 with a straight line and a travel route L4 of the vehicle traveling in a curved line Does not match. Accordingly, the length of the link L3 set on the curve road and the length of the route L4 on which the vehicle actually travels are not the same length, and the link L3 is slightly shorter than the travel route L4. Here, as described above, in dead reckoning, the current position of the vehicle is detected on the assumption that the vehicle moves on the link. Therefore, the actual vehicle position is slightly behind the vehicle position detected by dead reckoning. (That is, an error occurs in the detection position of the vehicle). Further, as described later, the error amount changes depending on the shape of the curved road (specifically, the radius of curvature and the intersection angle).

そして、車両が所定の曲率でカーブするカーブ道路を走行していると判定された場合(S36:YES)には、S37へと移行する。それに対して、車両がカーブ道路を走行していないと判定された場合(S36:NO)には、車両の走行する道路の道路形状に基づく車両の検出位置の誤差は生じないと推定し、S22へと移行する。   And when it determines with the vehicle driving | running | working the curve road which curves with a predetermined curvature (S36: YES), it transfers to S37. On the other hand, if it is determined that the vehicle is not traveling on a curved road (S36: NO), it is estimated that there is no error in the detected position of the vehicle based on the road shape of the road on which the vehicle travels, and S22 Migrate to

S37においてCPU41は、地図情報DB31から車両が走行するカーブ道路に関する情報を取得する。具体的には、カーブ道路に含まれる隣り合う形状補完点を直線で結んだ各線分(図15に示す例ではC1−C2、C2−C3、C3−C4、C4−C5)の長さと各線分の接続角度等が取得される。尚、各線分の長さと各線分の接続角度についてはカーブ道路に含まれる各形状補完点の位置座標から算出することとしても良い。   In S <b> 37, the CPU 41 acquires information related to the curved road on which the vehicle travels from the map information DB 31. Specifically, the length of each line segment (C1-C2, C2-C3, C3-C4, C4-C5 in the example shown in FIG. 15) connecting adjacent shape complement points included in the curve road with a straight line and each line segment. Are obtained. The length of each line segment and the connection angle of each line segment may be calculated from the position coordinates of each shape complement point included in the curve road.

次に、S38においてCPU41は、前記S37で取得した形状補完点に基づいて、車両が走行するカーブ道路を、形状補完点を境界にして分割する。例えば図15に示す例では、C1−C2、C2−C3、C3−C4、C4−C5の4つの区間に分割される。そして、分割した区間毎に車両が走行するカーブ道路の曲線半径Rと交角φを算出する。   Next, in S38, the CPU 41 divides the curved road on which the vehicle travels with the shape complementing point as a boundary based on the shape complementing point acquired in S37. For example, in the example shown in FIG. 15, it is divided into four sections C1-C2, C2-C3, C3-C4, and C4-C5. Then, the curve radius R and the intersection angle φ of the curved road on which the vehicle travels are calculated for each divided section.

以下には、特に図15に示すC1−C2の区間を例に挙げて、曲線半径Rと交角φの算出方法について図16を用いて説明する。図16に示すように、形状補完点C1とC2を直線で結んだ線分(弦)の長さをa[m]とし、形状補完点C2とC3を直線で結んだ線分(弦)の長さをb[m]とし、各線分の接続角度をα[°]とすると、以下の式(3)により曲線半径Rが算出される。
R[m]=√(a+b−2abcos(απ/180))÷2sin(α×π/180)・・・(3)
また、以下の式(4)により交角φが算出される。
φ[°]=αsin((a/2)/2R)×2×180/π・・・(4)
同様にして、他の区間(C2−C3、C3−C4、C4−C5)についても曲線半径Rと交角φが算出される。
In the following, a method for calculating the curve radius R and the intersection angle φ will be described with reference to FIG. 16, taking the section C1-C2 shown in FIG. 15 as an example. As shown in FIG. 16, the length of the line segment (string) connecting the shape complement points C1 and C2 with a straight line is a [m], and the line segment (string) connecting the shape complement points C2 and C3 with a straight line is shown. When the length is b [m] and the connection angle of each line segment is α [°], the curve radius R is calculated by the following equation (3).
R [m] = √ (a 2 + b 2 −2abcos (απ / 180)) ÷ 2 sin (α × π / 180) (3)
Further, the intersection angle φ is calculated by the following equation (4).
φ [°] = αsin ((a / 2) / 2R) × 2 × 180 / π (4)
Similarly, the curve radius R and the intersection angle φ are calculated for the other sections (C2-C3, C3-C4, C4-C5).

続いて、S39においてCPU41は、分割した区間毎にカーブ道路が描く曲線(弧)の長さ(即ち、車両が実際に走行する走行経路の長さ)と形状補完点を直線で結んだ線分(弦)の長さ(即ち、形状補完点によって特定されるリンクの長さ)との差分を算出する。   Subsequently, in S39, the CPU 41 connects the length of the curve (arc) drawn by the curve road for each divided section (that is, the length of the travel route on which the vehicle actually travels) and the shape complement point by a straight line. The difference from the length of the (string) (that is, the length of the link specified by the shape interpolation point) is calculated.

以下には、特に図15に示すC1−C2の区間を例に挙げて、カーブ道路が描く曲線(弧)の長さと形状補完点を直線で結んだ線分(弦)の長さとの差分の算出方法について図16を用いて説明する。図16に示すように、C1−C2のカーブ区間の曲線半径をR[m]とし、交角をφ[°]とすると、以下の式(5)によりC1−C2のカーブ区間の曲線(弧)の長さa´が算出される。
a´[m]=2πR×(φ/360)・・・(5)
そして、以下の式(6)によりC1−C2のカーブ区間の曲線(弧)の長さa´と形状補完点を直線で結んだ線分(弦)の長さaとの差分Dc1-c2が算出される。
c1-c2[m]=a´−a・・・(6)
同様にして、他の区間(C2−C3、C3−C4、C4−C5)についてもカーブ区間の曲線(弧)の長さと形状補完点を直線で結んだ線分(弦)の長さの差分Dc2-c3、Dc3-c4、Dc4-c5が算出される。
In the following, taking the section C1-C2 shown in FIG. 15 as an example, the difference between the length of the curve (arc) drawn by the curve road and the length of the line segment (string) connecting the shape interpolation points with a straight line is shown below. A calculation method will be described with reference to FIG. As shown in FIG. 16, when the curve radius of the C1-C2 curve section is R [m] and the intersection angle is φ [°], the curve (arc) of the C1-C2 curve section is expressed by the following equation (5). Is calculated.
a ′ [m] = 2πR × (φ / 360) (5)
Then, the difference D c1-c2 between the length a ′ of the curve (arc) in the curve section C1-C2 and the length a of the line segment (chord) connecting the shape complementary points with a straight line by the following equation (6). Is calculated.
D c1-c2 [m] = a′−a (6)
Similarly, with respect to the other sections (C2-C3, C3-C4, C4-C5), the difference between the length of the curve (arc) in the curve section and the length of the line segment (string) connecting the shape complementary points with a straight line. D c2-c3 , D c3-c4 , D c4-c5 are calculated.

その後、S40においてCPU41は、前記S40で算出した各区間の曲線(弧)の長さと形状補完点を直線で結んだ線分(弦)の長さとの差分の合計値に基づいて、カーブ道路を走行することにより生じる車両の検出位置の誤差範囲について推定する。具体的には、前記S40で算出した各区間の曲線(弧)の長さと形状補完点を直線で結んだ線分(弦)の長さとの差分を全区間で合計した値(即ち、カーブ道路が描く曲線の長さとカーブ道路に配置された複数の形状補完点を直線で結んだ各線分の合計長さとの差分)が、検出位置に対して進行方向の逆方向側に生じる最大の誤差量D3となる。その結果、推定される誤差範囲は“車両の検出位置から車両の検出位置のD3後方までの範囲”となる。
尚、カーブ走路を走行する際には、車両が実際に走行する走行経路の長さよりも形状補完点によって特定されるリンクの長さは必ず短くなる。従って、カーブ道路を走行することにより生じる車両の検出位置の誤差範囲は、検出位置に対して進行方向の逆方向側のみに生じ、進行方向側には生じない。その後、S22へと移行する。
Thereafter, in S40, the CPU 41 calculates the curve road based on the total value of the difference between the length of the curve (arc) of each section calculated in S40 and the length of the line segment (string) connecting the shape complement points with a straight line. The error range of the detected position of the vehicle caused by traveling is estimated. Specifically, a value obtained by adding up the differences between the length of the curve (arc) of each section calculated in S40 and the length of the line segment (string) obtained by connecting the shape complement points with a straight line (that is, the curve road) The difference between the length of the curve drawn by and the total length of each line segment connecting multiple shape interpolation points arranged on the curve road on the reverse side of the traveling direction with respect to the detection position D3. As a result, the estimated error range is “range from the vehicle detection position to the rear of D3 of the vehicle detection position”.
When traveling on a curved road, the length of the link specified by the shape complement point is always shorter than the length of the travel path on which the vehicle actually travels. Therefore, the error range of the detected position of the vehicle caused by traveling on the curved road occurs only on the opposite side of the traveling direction with respect to the detected position, and does not occur on the traveling direction side. Thereafter, the process proceeds to S22.

次に、前記S22において実行されるセンサ誤差に基づく誤差範囲の推定処理のサブ処理について図17に基づき説明する。図17はセンサ誤差に基づく誤差範囲の推定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the error range estimation process based on the sensor error executed in S22 will be described with reference to FIG. FIG. 17 is a flowchart of a sub-processing program for error range estimation processing based on sensor error.

以下のS41〜S43においてCPU41は、車両の走行距離を検出する為の車速センサ(第1センサ)22の検出誤差(即ち、走行距離の検出誤差)について算出し、S44〜S46においてCPU41は、車両の方位を検出する為のジャイロセンサ(第2センサ)24の検出誤差(即ち、車両の方位の検出誤差)について算出する。   In S41 to S43 below, the CPU 41 calculates a detection error (that is, a detection error of the travel distance) of the vehicle speed sensor (first sensor) 22 for detecting the travel distance of the vehicle. In S44 to S46, the CPU 41 The detection error of the gyro sensor (second sensor) 24 for detecting the azimuth of the vehicle (that is, the detection error of the azimuth of the vehicle) is calculated.

具体的には、先ずS41においてCPU41は、車速センサ22のパルス距離が予測値(学習値)から外れることによる走行距離の検出誤差(以下、第1誤差という)を算出する。ここで、車速センサ22は、車両の車軸が1回転する度(即ち、タイヤの外周距離を走行する度)に出力されるパルスに基づいて車両の走行距離を検出するセンサである。そして、パルス距離は、車軸が1回転した場合に車両が走行する距離を規定したものであり、現時点までの学習によってその値が決定(予測)される。即ち、パルスが出力される度に、パルス距離を加算した値が車両の走行距離として検出されることとなる。しかしながら、学習状態によってはパルス距離が正確な値から外れる場合が有る。第1誤差は、パルス距離が正確な値から外れることによって生じる車速センサ22の検出誤差である。
尚、パルス距離は正確な値よりも長くなることも短くなることもあるので、第1誤差は車両の検出位置に対して進行方向と逆方向の両方向に誤差を生じさせる。
Specifically, first, in S41, the CPU 41 calculates a travel distance detection error (hereinafter referred to as a first error) due to the pulse distance of the vehicle speed sensor 22 deviating from the predicted value (learned value). Here, the vehicle speed sensor 22 is a sensor that detects the travel distance of the vehicle based on a pulse that is output every time the axle of the vehicle rotates once (that is, travels around the outer circumference of the tire). The pulse distance defines the distance traveled by the vehicle when the axle rotates once, and its value is determined (predicted) by learning up to the present time. That is, every time a pulse is output, a value obtained by adding the pulse distance is detected as the travel distance of the vehicle. However, depending on the learning state, the pulse distance may deviate from an accurate value. The first error is a detection error of the vehicle speed sensor 22 that occurs when the pulse distance deviates from an accurate value.
Since the pulse distance may be longer or shorter than an accurate value, the first error causes an error in both the traveling direction and the reverse direction with respect to the detected position of the vehicle.

次に、S42においてCPU41は、車両が勾配のある道路を走行することによる走行距離の検出誤差(以下、第2誤差という)を算出する。上記したように、車速センサ22は、パルスが出力される度に、パルス距離を加算した値が車両の走行距離として検出する。但し、道路が所定角度βで勾配していた場合には、以下のように誤差が生じることとなる。例えば、図18に示すように、前回に車速センサ22が車速パルスを出力した時点の車両位置をSとし、パルス距離をhとすると、次回にパルス距離を検出した時点の実際の車両位置はS1となる。しかしながら、推測航法では道路の勾配は考慮しないので、検出される車両位置(即ち、前回に車速センサ22が車速パルスを出力した地点からパルス距離を加算することによって検出される新たな車両位置)はS2となる。従って、パルスを検出する度に(h−hcosβ)が第2誤差として生じることとなる。
尚、勾配の角度βに関わらずS1はS2よりも必ず後方に位置するので、第2誤差は車両の検出位置に対して進行方向の逆方向のみに誤差を生じさせる。
Next, in S <b> 42, the CPU 41 calculates a travel distance detection error (hereinafter referred to as a second error) due to the vehicle traveling on a sloped road. As described above, each time a pulse is output, the vehicle speed sensor 22 detects a value obtained by adding the pulse distance as the travel distance of the vehicle. However, when the road is inclined at a predetermined angle β, an error occurs as follows. For example, as shown in FIG. 18, when the vehicle position at the time when the vehicle speed sensor 22 outputs a vehicle speed pulse last time is S and the pulse distance is h, the actual vehicle position at the next time the pulse distance is detected is S1. It becomes. However, dead reckoning does not consider the road gradient, so the detected vehicle position (that is, the new vehicle position detected by adding the pulse distance from the point where the vehicle speed sensor 22 previously output the vehicle speed pulse) is S2. Therefore, every time a pulse is detected, (h-hcosβ) is generated as the second error.
Regardless of the gradient angle β, S1 is always located behind S2, so that the second error causes an error only in the reverse direction of the traveling direction with respect to the detected position of the vehicle.

続いて、S43においてCPU41は、車速センサ22からパルスが出力されるべきタイミングであるにもかかわらずエラー等によってパルスが出力されないことによる走行距離の検出誤差(以下、第3誤差という)を算出する。上記したように、車速センサ22は、パルスが出力される度に、パルス距離を加算した値が車両の走行距離として検出する。しかしながら、エラー等によってパルスが出力されるべきタイミングであるにもかかわらずパルスが出力されない場合には、実際の走行距離よりも検出される走行距離が短くなる。第3誤差は、パルスが出力されないことによって生じるパルス距離分の車速センサ22の検出誤差である。
尚、パルスが出力されない場合には実際の走行距離よりも検出される走行距離が必ず短くなるので、第3誤差は車両の検出位置に対して進行方向のみに誤差を生じさせる。
Subsequently, in S43, the CPU 41 calculates a travel distance detection error (hereinafter referred to as a third error) due to the fact that no pulse is output due to an error or the like even though the pulse should be output from the vehicle speed sensor 22. . As described above, each time a pulse is output, the vehicle speed sensor 22 detects a value obtained by adding the pulse distance as the travel distance of the vehicle. However, when the pulse is not output despite the timing at which the pulse should be output due to an error or the like, the detected travel distance is shorter than the actual travel distance. The third error is a detection error of the vehicle speed sensor 22 corresponding to the pulse distance caused by the fact that no pulse is output.
Note that when the pulse is not output, the detected travel distance is necessarily shorter than the actual travel distance. Therefore, the third error causes an error only in the traveling direction with respect to the detected position of the vehicle.

一方、S44においてCPU41は、ジャイロセンサ24の感度係数が予測値(学習値)から外れることによる車両の方位の検出誤差(以下、第4誤差という)を算出する。ここで、ジャイロセンサ24は、内部に振動する素子を有し、振動する素子に回転運動が加わることによって素子に新たに生じる運動に基づいて生じる電位差から車両の角速度を検出及び出力するセンサである。また、CPU41は出力された角速度を演算することによって車両の方位変化を検出する。そして、感度係数は、分解能等とともに電位差と車両の方位変化との対応関係を規定したものであり、現時点までの学習によってその値が決定(予測)される。しかしながら、学習状態によっては感度係数が正確な値から外れる場合がある。第4誤差は、感度係数が正確な値から外れることによって生じるジャイロセンサ24の検出誤差である。
尚、感度係数は正確な値よりも大きくなることも小さくなることもあるので、第4誤差は車両の検出位置に対して進行方向と逆方向の両方向に誤差を生じさせる。
On the other hand, in S44, the CPU 41 calculates a vehicle direction detection error (hereinafter referred to as a fourth error) due to the sensitivity coefficient of the gyro sensor 24 deviating from the predicted value (learned value). Here, the gyro sensor 24 has an element that vibrates inside, and detects and outputs the angular velocity of the vehicle from a potential difference generated based on a motion newly generated in the device when a rotational motion is applied to the vibrating device. . Further, the CPU 41 detects a change in the direction of the vehicle by calculating the output angular velocity. The sensitivity coefficient defines the correspondence between the potential difference and the azimuth change of the vehicle together with the resolution and the like, and its value is determined (predicted) by learning up to the present time. However, depending on the learning state, the sensitivity coefficient may deviate from an accurate value. The fourth error is a detection error of the gyro sensor 24 caused by the sensitivity coefficient deviating from an accurate value.
Since the sensitivity coefficient may be larger or smaller than an accurate value, the fourth error causes an error in both the traveling direction and the reverse direction with respect to the detected position of the vehicle.

次に、S45においてCPU41は、周囲の温度変化による車両の方位の検出誤差(以下、第5誤差という)を算出する。上記したように、ジャイロセンサ24は、内部に振動する素子を有し、振動する素子に回転運動が加わることによって素子に新たに生じる運動に基づいて生じる電位差から車両の角速度を検出及び出力する。また、電位差は素子の基準位置に対する運動量に基づいて決定されるが、この基準位置はセンサ周囲の温度によって僅かに変化する。その結果、実際の車両方位と検出される車両方位との間に誤差が生じる。第5誤差は、素子の基準位置がズレることによって生じるジャイロセンサ24の検出誤差である。
尚、電位差は正確な値よりも大きくなることも小さくなることもあるので、第5誤差は車両の検出位置に対して進行方向と逆方向の両方向に誤差を生じさせる。
Next, in S45, the CPU 41 calculates a vehicle direction detection error (hereinafter referred to as a fifth error) due to a change in ambient temperature. As described above, the gyro sensor 24 includes an element that vibrates inside, and detects and outputs the angular velocity of the vehicle from a potential difference that is generated based on a motion that is newly generated in the device when a rotational motion is applied to the vibrating device. The potential difference is determined based on the momentum with respect to the reference position of the element, but this reference position slightly changes depending on the temperature around the sensor. As a result, an error occurs between the actual vehicle direction and the detected vehicle direction. The fifth error is a detection error of the gyro sensor 24 that occurs due to a deviation of the reference position of the element.
Since the potential difference may be larger or smaller than an accurate value, the fifth error causes an error in both the traveling direction and the reverse direction with respect to the detected position of the vehicle.

次に、S46においてCPU41は、車両が勾配のある道路を走行することによる車両の方位の検出誤差(以下、第6誤差という)を算出する。上記したように、ジャイロセンサ24は、内部に振動する素子を有し、振動する素子に回転運動が加わることによって素子に新たに生じる運動に基づいて生じる電位差から車両の角速度を検出及び出力する。また、ジャイロセンサ24から出力される出力値(角速度を示す電気信号)は素子の基準位置に対する運動量に基づいて決定されるが、この出力値は車両が勾配を走行する場合には、車両に生じる加重によって正確な値よりも低下する。その結果、実際の車両方位と検出される車両方位との間に誤差が生じる。第6誤差は、ジャイロセンサ24から出力される出力値が正確な値よりも低下することによって生じるジャイロセンサ24の検出誤差である。
尚、ジャイロセンサ24から出力される出力値は正確な値よりも必ず小さくなるので、第6誤差は車両の検出位置に対して進行方向の逆方向のみに誤差を生じさせる。
Next, in S46, the CPU 41 calculates a vehicle direction detection error (hereinafter referred to as a sixth error) due to the vehicle traveling on a road with a gradient. As described above, the gyro sensor 24 includes an element that vibrates inside, and detects and outputs the angular velocity of the vehicle from a potential difference that is generated based on a motion that is newly generated in the device when a rotational motion is applied to the vibrating device. The output value (electric signal indicating the angular velocity) output from the gyro sensor 24 is determined based on the momentum with respect to the reference position of the element. This output value is generated in the vehicle when the vehicle travels on a gradient. The weight drops below the exact value. As a result, an error occurs between the actual vehicle direction and the detected vehicle direction. The sixth error is a detection error of the gyro sensor 24 that is caused when the output value output from the gyro sensor 24 falls below an accurate value.
Since the output value output from the gyro sensor 24 is necessarily smaller than an accurate value, the sixth error causes an error only in the reverse direction of the traveling direction with respect to the detected position of the vehicle.

その後、S47においてCPU41は、S41〜S46において算出された車速センサ22の検出誤差(即ち、走行距離の検出誤差)とジャイロセンサ24の検出誤差(即ち、車両の方位の検出誤差)に基づいて、センサ誤差により生じる車両の検出位置の誤差範囲について推定する。   Thereafter, in S47, the CPU 41, based on the detection error of the vehicle speed sensor 22 (that is, the detection error of the travel distance) calculated in S41 to S46 and the detection error of the gyro sensor 24 (that is, the detection error of the direction of the vehicle), The error range of the detected position of the vehicle caused by the sensor error is estimated.

具体的には、以下の式(7)により1パルス出力当たりに検出位置に対して進行方向側に生じる最大の誤差量D4が算出され、式(8)により1パルス出力当たりに検出位置に対して進行方向の逆方向側に生じる最大の誤差量D5が算出される。
D4[m]=h−(h+誤差1+誤差3)×cos(誤差4+誤差5)・・・(7)
D5[m]=h−(h+誤差1+誤差2)×cos(誤差4+誤差5+誤差6)・・・(8)
h:パルス距離[m]
そして、D4を前回に停止線を認識してから現時点まで加算した値D4´と、D5を前回に停止線を認識してから現時点まで加算した値D5´によって、センサ誤差により生じる車両の検出位置の誤差範囲が推定される。即ち、推定される誤差範囲は“車両の検出位置のD4´前方から車両の検出位置のD5´後方までの範囲”となる。その後、S23へと移行する。
Specifically, the maximum error amount D4 generated on the traveling direction side with respect to the detection position per pulse output is calculated by the following equation (7), and the detection position is detected per pulse output by the equation (8). Thus, the maximum error amount D5 generated on the opposite side of the traveling direction is calculated.
D4 [m] = h− (h + error 1 + error 3) × cos (error 4 + error 5) (7)
D5 [m] = h− (h + error 1 + error 2) × cos (error 4 + error 5 + error 6) (8)
h: Pulse distance [m]
Then, the detected position of the vehicle caused by the sensor error by the value D4 ′ obtained by adding D4 up to the current time after recognizing the stop line and the value D5 ′ obtained by adding D5 up to the current time after recognizing the stop line last time. The error range is estimated. That is, the estimated error range is “a range from D4 ′ front of the vehicle detection position to D5 ′ rear of the vehicle detection position”. Thereafter, the process proceeds to S23.

次に、前記S23において実行される車線変更に基づく誤差範囲の推定処理のサブ処理について図19に基づき説明する。図19は車線変更に基づく誤差範囲の推定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the error range estimation process based on the lane change executed in S23 will be described with reference to FIG. FIG. 19 is a flowchart of a sub-processing program for error range estimation processing based on lane change.

先ず、S51においてCPU41は、地図情報DB31から車両の走行する道路の片側車線数を取得する。   First, in S51, the CPU 41 acquires the number of lanes on one side of the road on which the vehicle travels from the map information DB 31.

次に、S52においてCPU41は、前記S51で取得した片側車線数に基づいて、車両が走行中の道路で行うことができる最大の車線変更回数を特定する。具体的には、車両の走行する道路の片側車線数から1を減算した値が、車両が走行中の道路で行うことができる最大の車線変更回数となる。   Next, in S52, the CPU 41 specifies the maximum number of lane changes that can be performed on the road on which the vehicle is traveling based on the number of one-side lanes acquired in S51. Specifically, the value obtained by subtracting 1 from the number of lanes on one side of the road on which the vehicle is traveling is the maximum number of lane changes that can be made on the road on which the vehicle is traveling.

続いて、S53においてCPU41は、前記S52で特定した最大の車線変更回数に基づいて、車線変更を行うことにより生じる車両の検出位置の誤差範囲について推定する。
例えば、図20に示すように片側3車線の道路を車両98が走行する場合には、車両98が行うことができる車線変更の回数は最大で2回である。従って、1回の車線変更当たりに生じ得る最大の誤差距離σ(例えば1.5m)に2を乗じた値が車両98に対して生じる可能性のある最大の誤差量となる。従って、車両が走行中の道路で行うことができる最大の車線変更回数に、1回の車線変更当たりに生じ得る最大の誤差距離σ(例えば1.5m)を乗じた値が、検出位置に対して進行方向の逆方向側に生じる最大の誤差量D6となる。その結果、推定される誤差範囲は“車両の検出位置から車両の検出位置のD6後方までの範囲”となる。
尚、車線変更を行った際には、車両が実際に走行する走行経路の長さよりもリンクの長さは必ず短くなる。従って、車線変更を行うことにより生じる車両の検出位置の誤差範囲は、検出位置に対して進行方向の逆方向側のみに生じ、進行方向側には生じない。また、1回の車線変更当たりに生じ得る最大の誤差距離σは、学習値により決定しても良いし、固定値を用いても良い。また、車種、道路幅、道路種別に基づいて決定しても良い。その後、S24へと移行する。
Subsequently, in S53, the CPU 41 estimates the error range of the detected position of the vehicle caused by changing the lane based on the maximum number of lane changes specified in S52.
For example, as shown in FIG. 20, when the vehicle 98 travels on a three-lane road on one side, the number of lane changes that can be performed by the vehicle 98 is a maximum of two times. Therefore, a value obtained by multiplying the maximum error distance σ (for example, 1.5 m) that can occur per lane change by 2 is the maximum error amount that may occur for the vehicle 98. Therefore, a value obtained by multiplying the maximum number of lane changes that can be performed on the road on which the vehicle is traveling by the maximum error distance σ (for example, 1.5 m) that can occur per lane change is calculated with respect to the detection position. Thus, the maximum error amount D6 generated on the opposite side of the traveling direction is obtained. As a result, the estimated error range is “a range from the vehicle detection position to the rear of D6 of the vehicle detection position”.
When a lane change is performed, the link length is always shorter than the length of the travel route on which the vehicle actually travels. Accordingly, the error range of the detected position of the vehicle caused by changing the lane occurs only on the side opposite to the traveling direction with respect to the detected position, and does not occur on the traveling direction side. In addition, the maximum error distance σ that can occur per lane change may be determined by a learned value, or a fixed value may be used. Moreover, you may determine based on a vehicle type, road width, and road classification. Thereafter, the process proceeds to S24.

以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1を用いた移動体位置検出方法及びナビゲーション装置1で実行されるコンピュータプログラムによれば、停止線を認識対象とした高精度ロケーションシステムを用いて車両の現在位置を検出するとともに、停止線の認識後は推測航法によって車両の現在位置を検出し(S2)、車両が所定角度で屈曲した屈曲道路を移動する場合に、該屈曲道路の車線幅と車線数と屈曲角度とに基づいて、推測航法により検出された車両の現在位置の誤差範囲を推定する(S9)ので、車両が屈曲道路を走行する場合であっても、その屈曲道路の形状を考慮して車両の検出位置に対して生じる誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、車両に対する案内や制御を適切なタイミングで実行することが可能となる。
また、屈曲道路の屈曲方向に基づいて誤差範囲を推定するので、屈曲道路において車両が移動する経路と屈曲道路に設定されたリンクとの間で生じ得る最大のズレ量(最大前ズレ車線数T1及び最大後ズレ車線数T2)を屈曲方向毎に適切に特定することができ、該ズレ量に基づいて車両の検出位置と実際の車両の位置との間で生じる誤差範囲を正確に推定することが可能となる。
また、車両が所定角度で屈曲した屈曲道路を走行する場合に、車両の検出位置に対して車両の進行方向及び逆方向に生じる誤差範囲を推定するので、車両の検出位置と実際の車両の位置との間で生じる得る可能性のある誤差の方向を考慮し、該誤差の方向に対して誤差範囲を推定することが可能となる。
また、車両が所定の曲線形状でカーブするカーブ道路を走行する場合に、該カーブ道路が描く曲線の曲線半径と交角とに基づいて、車両の検出位置の誤差範囲を推定するので、車両がカーブ道路を走行する場合であっても、そのカーブ道路の形状を考慮して車両の検出位置に対して生じる誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、車両に対する案内や制御を適切なタイミングで実行することが可能となる。
また、カーブ道路が描く曲線の長さとカーブ道路に配置された複数の形状補完点を直線で結んだ各線分の合計長さとの差分に基づいて誤差範囲を推定するので、実際に車両が走行した距離と形状補完点によって特定される道路リンクの長さとの差分に基づいて車両の検出位置と実際の車両の位置との間で生じる誤差範囲を正確に推定することが可能となる。
また、車両が所定の曲線形状でカーブするカーブ道路を走行する場合に、車両の検出位置に対して車両の進行方向の逆方向に生じる誤差範囲を推定するので、車両の検出位置と実際の車両の位置との間で生じる得る可能性のある誤差の方向を考慮し、該誤差の方向に対して誤差範囲を推定することが可能となる。
また、車両の走行距離を検出する為の車速センサ22の検出誤差が、車両の検出位置に対して誤差を生じさせる方向を特定する(S41〜S43)とともに、車両の方位変化を検出する為のジャイロセンサ24の検出誤差が、車両の検出位置に対して誤差を生じさせる方向を特定し(S44〜S46)、特定された方向に基づいて車両の検出位置の誤差範囲を推定する(S47)ので、センサに検出誤差が生じた場合であっても、生じた検出誤差が車両の検出位置に対して与える影響を適切に特定することが可能となり、車両の検出位置に対して生じる誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、車両に対する案内や制御を適切なタイミングで実行することが可能となる。
また、車速センサ22の検出誤差は、パルスの出力回数と車両の走行距離との対応関係が予測値から外れることにより生じる第1誤差と、勾配のある道路を車両が走行することにより生じる第2誤差と、パルスが出力されるべきタイミングで出力されないことにより生じる第3誤差とを含むので、車両の検出位置に誤差を生じさせる虞のある第1センサの検出誤差を考慮して誤差範囲を推定することが可能となる。
また、車速センサ22において生じる第1誤差乃至第3誤差が車両の検出位置に対してどの方向に誤差を生じさせるのかをそれぞれ特定することが可能となり、車両の検出位置に対して生じる誤差範囲をより正確に推定することが可能となる。
また、ジャイロセンサ24の検出誤差は、電位差と車両の方位変化との対応関係が予測値から外れることにより生じる第4誤差と、第2センサの周囲の温度変化により生じる第5誤差と、勾配のある道路を車両が走行することにより生じる第6誤差とを含むので、車両の検出位置に誤差を生じさせる虞のある第2センサの検出誤差を考慮して誤差範囲を推定することが可能となる。
また、ジャイロセンサ24において生じる第4誤差乃至第6誤差が車両の検出位置に対してどの方向に誤差を生じさせるのかをそれぞれ特定することが可能となり、車両の検出位置に対して生じる誤差範囲をより正確に推定することが可能となる。
また、車両が走行する道路の車線数から車両が走行中の道路で行うことができる最大の車線変更回数を特定し(S52)、特定された最大の車線変更回数に基づいて車両の検出位置の誤差範囲を推定する(S53)ので、車両が車線変更を行うことによって車両の検出位置に対して生じる最大の誤差を考慮した誤差範囲を正確に推定することが可能となる。その結果、推定された誤差範囲を考慮することによって、車両に対する案内や制御を適切なタイミングで実行することが可能となる。
また、車両が走行する道路の車線数から1減算した値を、車両が走行中の道路で行うことができる最大の車線変更回数として特定するので、道路形状に基づいて車両が走行中の道路で行うことができる最大の車線変更回数を正確に特定することが可能となる。
また、車両が車線変更を行う場合に、車両の検出位置に対して車両の進行方向の逆方向に生じる誤差範囲を推定するので、車両の検出位置と実際の車両の位置との間で生じる得る可能性のある誤差の方向を考慮し、該誤差の方向に対して誤差範囲を推定することが可能となる。
また、車両が走行中の道路で行うことができる最大の車線変更回数に所定値を乗じた値を誤差範囲の最大誤差量に推定するので、車両が車線変更を行うことにより生じ得る可能性のある車両の検出位置の誤差範囲を正確に推定することが可能となる。
また、推測航法により検出された車両の位置に対する誤差範囲を推定することが可能となる。
また、高精度ロケーションシステムでは車両の周辺にある地物を検出するとともに、その検出結果に基づいて車両の位置を検出するので、車両の位置を地物との相対関係を用いてより詳細に検出することが可能となる。
更に、検出対象とする地物は車両が移動する路面に形成された停止線であるので、検出対象物が道路上において所定間隔で多数設置されており、車両の走行中に車両の位置の検出を所定間隔で高い頻度により行うことが可能となる。従って、推定される車両の位置と実際の車両の位置との間に大きな差異が生じることを防止することが可能となる。
As described above in detail, according to the navigation device 1 according to the present embodiment, the moving body position detection method using the navigation device 1, and the computer program executed by the navigation device 1, the stop line is recognized with high accuracy. The current position of the vehicle is detected using the location system, and after the stop line is recognized, the current position of the vehicle is detected by dead reckoning navigation (S2), and the vehicle moves on a curved road bent at a predetermined angle. Since the error range of the current position of the vehicle detected by dead reckoning navigation is estimated based on the lane width, the number of lanes, and the bending angle of the curved road (S9), even when the vehicle travels on the curved road, It is possible to accurately estimate an error range generated with respect to the detected position of the vehicle in consideration of the shape of the curved road. As a result, it is possible to execute guidance and control for the vehicle at an appropriate timing by considering the estimated error range.
In addition, since the error range is estimated based on the bending direction of the curved road, the maximum amount of deviation (maximum number of front deviation lanes T1) that can occur between the route on which the vehicle moves on the curved road and the link set on the curved road. And the maximum rear shift lane number T2) can be appropriately specified for each bending direction, and an error range generated between the vehicle detection position and the actual vehicle position can be accurately estimated based on the shift amount. Is possible.
In addition, when the vehicle travels on a curved road bent at a predetermined angle, an error range that occurs in the vehicle traveling direction and in the opposite direction with respect to the vehicle detection position is estimated, so the vehicle detection position and the actual vehicle position are estimated. It is possible to estimate the error range with respect to the direction of the error in consideration of the direction of the error that may occur between the two.
In addition, when the vehicle travels on a curved road that curves with a predetermined curved shape, the error range of the detected position of the vehicle is estimated based on the curve radius and the intersection angle of the curve drawn by the curved road. Even when traveling on a road, it is possible to accurately estimate an error range generated with respect to the detected position of the vehicle in consideration of the shape of the curved road. As a result, it is possible to execute guidance and control for the vehicle at an appropriate timing by considering the estimated error range.
In addition, since the error range is estimated based on the difference between the length of the curve drawn by the curve road and the total length of each line segment connecting a plurality of shape interpolation points arranged on the curve road, the vehicle actually traveled Based on the difference between the distance and the length of the road link specified by the shape complement point, it is possible to accurately estimate an error range that occurs between the detected position of the vehicle and the actual position of the vehicle.
In addition, when the vehicle travels on a curved road that curves with a predetermined curved shape, an error range that occurs in a direction opposite to the traveling direction of the vehicle with respect to the detected position of the vehicle is estimated, so the detected position of the vehicle and the actual vehicle It is possible to estimate the error range with respect to the direction of the error in consideration of the direction of the error that may occur with the position of the error.
Further, the detection error of the vehicle speed sensor 22 for detecting the travel distance of the vehicle specifies a direction in which an error is caused with respect to the detection position of the vehicle (S41 to S43), and for detecting a change in the direction of the vehicle. Since the direction in which the detection error of the gyro sensor 24 causes an error with respect to the detected position of the vehicle is specified (S44 to S46), the error range of the detected position of the vehicle is estimated based on the specified direction (S47). Even if a detection error occurs in the sensor, it is possible to appropriately specify the influence of the generated detection error on the detection position of the vehicle, and the error range generated for the detection position of the vehicle can be accurately determined. Can be estimated. As a result, it is possible to execute guidance and control for the vehicle at an appropriate timing by considering the estimated error range.
The detection error of the vehicle speed sensor 22 includes a first error that occurs when the correspondence between the number of pulse outputs and the travel distance of the vehicle deviates from the predicted value, and a second error that occurs when the vehicle travels on a sloped road. The error range is estimated in consideration of the detection error of the first sensor that may cause an error in the detection position of the vehicle because it includes an error and a third error that occurs due to the fact that the pulse is not output at the timing to be output. It becomes possible to do.
In addition, it is possible to specify in which direction the first to third errors generated in the vehicle speed sensor 22 cause an error with respect to the detection position of the vehicle. It becomes possible to estimate more accurately.
Further, the detection error of the gyro sensor 24 includes a fourth error caused by the correspondence between the potential difference and the azimuth change of the vehicle deviating from the predicted value, a fifth error caused by a temperature change around the second sensor, Since it includes a sixth error caused by the vehicle traveling on a certain road, it is possible to estimate the error range in consideration of the detection error of the second sensor that may cause an error in the detection position of the vehicle. .
In addition, it is possible to specify in which direction the fourth to sixth errors generated in the gyro sensor 24 cause an error with respect to the detection position of the vehicle, and an error range generated with respect to the detection position of the vehicle can be specified. It becomes possible to estimate more accurately.
Further, the maximum number of lane changes that can be performed on the road on which the vehicle is traveling is identified from the number of lanes on the road on which the vehicle is traveling (S52), and the detection position of the vehicle is determined based on the identified maximum number of lane changes. Since the error range is estimated (S53), it is possible to accurately estimate the error range in consideration of the maximum error that occurs with respect to the detected position of the vehicle when the vehicle changes lanes. As a result, it is possible to execute guidance and control for the vehicle at an appropriate timing by considering the estimated error range.
Also, since the value obtained by subtracting 1 from the number of lanes on the road on which the vehicle is traveling is specified as the maximum number of lane changes that can be performed on the road on which the vehicle is traveling, the road on which the vehicle is traveling on the basis of the road shape is specified. It is possible to accurately specify the maximum number of lane changes that can be made.
In addition, when the vehicle changes lanes, an error range that occurs in the direction opposite to the traveling direction of the vehicle with respect to the detected position of the vehicle is estimated, so that it may occur between the detected position of the vehicle and the actual position of the vehicle. It is possible to estimate an error range with respect to the error direction in consideration of a possible error direction.
Further, since the maximum error amount in the error range is estimated by multiplying the maximum number of lane changes that can be performed on the road on which the vehicle is traveling by a predetermined value, there is a possibility that the vehicle may be caused by changing the lane. It is possible to accurately estimate the error range of the detection position of a certain vehicle.
It is also possible to estimate the error range for the vehicle position detected by dead reckoning.
In addition, the high-accuracy location system detects features in the vicinity of the vehicle and detects the position of the vehicle based on the detection result, so the position of the vehicle is detected in more detail using the relative relationship with the feature. It becomes possible to do.
Furthermore, since the feature to be detected is a stop line formed on the road surface on which the vehicle moves, a large number of detection objects are installed at predetermined intervals on the road, and the position of the vehicle is detected while the vehicle is running. Can be performed at a predetermined interval and with a high frequency. Accordingly, it is possible to prevent a large difference between the estimated vehicle position and the actual vehicle position.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態ではナビゲーション装置1による案内分岐点の案内をスピーカ16から音声案内により出力することにより行う構成としているが、液晶ディスプレイ15に文章を表示することにより案内を行う構成としても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in the present embodiment, the guidance branch point guidance by the navigation device 1 is output by voice guidance from the speaker 16, but the guidance may be performed by displaying text on the liquid crystal display 15.

また、本実施形態では、車両の現在位置を特定する為に認識対象とする地物として、特に停止線を用いているが、停止線以外の路面標示を用いても良い。また、路面標示以外の障害物、建造物、道路標識等を用いても良い。但し、認識対象とする地物は、手前分岐点よりも出発地側にあり、且つ案内分岐点の手前側に所定間隔で複数個存在することが望ましい。   In this embodiment, a stop line is used as a feature to be recognized in order to specify the current position of the vehicle. However, a road marking other than the stop line may be used. Further, obstacles other than road markings, buildings, road signs, etc. may be used. However, it is desirable that a plurality of features to be recognized be present at the departure point side from the front branch point and at a predetermined interval on the front side from the guide branch point.

また、本実施形態では、車両の検出位置に誤差を生じさせる要因として、“車両の走行する道路の道路形状に基づいて生じる誤差”と、“車両の搭載するセンサの検出誤差に基づいて生じる誤差”と、“車両が行う車線変更に基づいて生じる誤差”とを考慮しているが、上記以外の要因についても考慮する構成としても良い。   In the present embodiment, as the factors that cause an error in the detection position of the vehicle, “an error that occurs based on the road shape of the road on which the vehicle travels” and “an error that occurs based on the detection error of the sensor mounted on the vehicle”. “And an error generated based on a lane change performed by the vehicle” are considered, but other factors than the above may be considered.

また、本実施形態では、“車両の搭載するセンサの検出誤差に基づいて生じる誤差”として、第1誤差〜第6誤差(図17)を考慮しているが、上記以外の要因についても考慮する構成としても良い。   Further, in the present embodiment, the first error to the sixth error (FIG. 17) are considered as “error generated based on the detection error of the sensor mounted on the vehicle”, but other factors are also considered. It is good also as a structure.

また、本実施形態では、カーブ道路の曲線半径と交角を式(3)、(4)により算出する構成としているが、地図情報DB31から取得する構成としても良い。   In the present embodiment, the curve radius and the intersection angle of the curved road are calculated by the equations (3) and (4), but may be acquired from the map information DB 31.

また、本実施形態では、バックカメラ19を用いた画像認識により停止線等の地物を検出する構成としているが、停止線等を検出する手段として他の手段(例えばセンサなど)を用いても良い。同様に停止線等の傾斜角度をバックカメラ19を用いた画像認識以外の手段を用いて検出する構成としても良い。   In the present embodiment, a feature such as a stop line is detected by image recognition using the back camera 19, but other means (for example, a sensor) may be used as a means for detecting the stop line or the like. good. Similarly, a configuration may be employed in which the inclination angle of a stop line or the like is detected using means other than image recognition using the back camera 19.

また、本実施形態では信号機情報38として分岐点の周辺に配置された全ての信号機に関する情報を記憶する構成としているが、分岐点からの退出方向毎に最も退出側にある信号機に関する情報のみを記憶する構成としても良い。その場合には、本実施形態中の進入側信号機を退出側信号機に置き換えることによって、本発明を実施することが可能である。更に、分岐点への進入方向毎に最も進入側にある信号機に関する情報のみを記憶する構成としても良い。また、信号機の代わりに停止線に関する情報を記憶する構成としても良い。   In the present embodiment, the signal information 38 is configured to store information related to all the traffic lights arranged around the branch point, but only information related to the signal on the most exit side is stored for each exit direction from the branch point. It is good also as composition to do. In that case, it is possible to implement the present invention by replacing the entrance side traffic signal in the present embodiment with the exit side traffic signal. Furthermore, it is good also as a structure which memorize | stores only the information regarding the traffic signal which is the most approach side for every approach direction to a branch point. Moreover, it is good also as a structure which memorize | stores the information regarding a stop line instead of a traffic light.

また、本実施形態では、案内分岐点の案内として、車両の現在位置から車両の現在位置から案内分岐点までにある信号機(又は信号機の設置された分岐点)の数を用いた案内を行うこととしているが、他の案内を行うようにしても良い。但し、特に信号機や分岐点を用いた案内を行う場合において、本願発明の効果は顕著なものとなる。   In the present embodiment, as guidance for the guidance branch point, guidance is performed using the number of traffic lights (or branch points where traffic lights are installed) from the current position of the vehicle to the guidance branch point. However, other guidance may be provided. However, the effect of the present invention is remarkable particularly when performing guidance using a traffic light or a branch point.

また、本発明はナビゲーション装置以外に、車両等の移動体の現在位置を検出する機能を有する装置に対して適用することが可能である。例えば、携帯電話機やPDA等の携帯端末、パーソナルコンピュータ、携帯型音楽プレイヤ等(以下、携帯端末等という)に適用することも可能である。また、サーバと携帯端末等から構成されるシステムに対しても適用することが可能となる。その場合には、上述した分岐点案内処理プログラム(図5、図8、図9、図17、図19)の各ステップは、サーバと携帯端末等のいずれが実施する構成としても良い。また、本発明を携帯端末等に適用する場合には、車両以外の移動体、例えば、携帯端末等のユーザや2輪車等の車両位置の検出を行う場合もある。   In addition to the navigation device, the present invention can be applied to a device having a function of detecting the current position of a moving body such as a vehicle. For example, the present invention can be applied to a portable terminal such as a cellular phone or a PDA, a personal computer, a portable music player, etc. (hereinafter referred to as a portable terminal or the like). Further, the present invention can be applied to a system including a server and a mobile terminal. In that case, each step of the above-described branch point guidance processing program (FIGS. 5, 8, 9, 17, and 19) may be configured to be implemented by either a server or a portable terminal. In addition, when the present invention is applied to a mobile terminal or the like, a mobile body other than a vehicle, for example, a user such as a mobile terminal or a vehicle position of a two-wheeled vehicle may be detected.

1 ナビゲーション装置
13 ナビゲーションECU
19 バックカメラ
31 地図情報DB
33 地物テーブル
37 地物データ
41 CPU
42 RAM
43 ROM
81 車両
82 案内分岐点
83〜85 手前分岐点
87〜89 退出側信号機
90〜93 停止線

1 Navigation device 13 Navigation ECU
19 Back camera 31 Map information DB
33 feature table 37 feature data 41 CPU
42 RAM
43 ROM
81 Vehicle 82 Guide branch point 83-85 Near branch point 87-89 Exit side traffic light 90-93 Stop line

Claims (8)

移動体の移動距離を検出する為に前記移動体に搭載された第1センサの検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサの検出結果とを取得するセンサ結果取得手段と、
前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出する位置検出手段と、
前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第1影響特定手段と、
前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第2影響特定手段と、
前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定する誤差範囲推定手段と、を有することを特徴とする移動体位置検出システム。
A detection result of a first sensor mounted on the moving body for detecting a moving distance of the moving body and a detection result of a second sensor mounted on the moving body for detecting a change in direction of the moving body. A sensor result acquisition means for acquiring;
Position detection means for detecting the position of the moving body based on the detection result of the first sensor and the detection result of the second sensor acquired by the sensor result acquisition means;
A first error that specifies how much error amount the detection error of the first sensor causes in the traveling direction, the reverse direction, or both directions of the moving body with respect to the detection result of the position detection means. Impact identification means,
A second error that specifies the amount of error in which the detection error of the second sensor causes the moving body in the traveling direction, the reverse direction, or both directions with respect to the detection result of the position detecting means. Impact identification means,
Based on the identification results of the first influence identification means and the second influence identification means, the position detected by the position detection means based on the detection error of the first sensor and the detection error of the second sensor is the traveling direction The maximum error amount that can occur on the side and the maximum error amount that can occur on the side opposite to the traveling direction are specified, and the range in which the maximum error amount in each specified direction is detected by the position detection unit And an error range estimation means for estimating the error range of the body position.
前記第1センサは、前記移動体が所定距離を移動する度に出力されるパルスに基づいて、パルスが出力される度に前記所定距離を加算することによって前記移動体の移動距離を検出する為のセンサであって、
前記第1センサの検出誤差は、
過去の学習結果に基づいて前記所定距離を特定する一方で、特定された前記所定距離が実際にパルスの出力される間隔において前記移動体が移動する距離から外れることにより生じる第1誤差と、
勾配のある道路を前記移動体が移動することにより生じる第2誤差と、
前記パルスが出力されるべきタイミングで出力されず、実際にパルスの出力される間隔において前記移動体が移動した距離が前記所定距離よりも長くなることにより生じる第3誤差と、
を含むことを特徴とする請求項1に記載の移動体位置検出システム。
The first sensor detects a moving distance of the moving body by adding the predetermined distance each time a pulse is output based on a pulse output each time the moving body moves a predetermined distance. Sensor,
The detection error of the first sensor is
While specifying the predetermined distance based on the past learning result, the first error caused by the specified predetermined distance deviating from the distance traveled by the moving body in the interval at which pulses are actually output ;
A second error caused by the moving body moving on a sloped road;
A third error that is caused by a distance that the moving body has moved longer than the predetermined distance in an interval in which the pulses are not actually output at a timing at which the pulses are to be output ;
The mobile body position detection system according to claim 1, comprising:
前記第1誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向と逆方向の両方向に誤差を生じさせ、
前記第2誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向の逆方向に誤差を生じさせ、
前記第3誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向に誤差を生じさせることを特徴とする請求項2に記載の移動体位置検出システム。
The first error causes an error in both the direction opposite to the traveling direction of the moving body with respect to the detection result of the position detection unit,
The second error causes an error in the direction opposite to the traveling direction of the moving body with respect to the detection result of the position detection unit,
The mobile body position detection system according to claim 2, wherein the third error causes an error in a traveling direction of the mobile body with respect to a detection result of the position detection unit.
前記第2センサは、内部にある素子に生じる運動による電位差から前記移動体の角速度を検出し、更に該角速度と、電位差と方位変化の対応関係を規定した感度係数と、に基づいて前記移動体の方位変化を検出する為のセンサであって、
前記第2センサの検出誤差は、
過去の学習結果に基づいて前記感度係数を特定する一方で、特定された前記感度係数が実際の電位差と方位変化の対応関係から外れることにより生じる第4誤差と、
前記第2センサの周囲の温度変化により生じる第5誤差と、
勾配のある道路を前記移動体が移動することにより生じる第6誤差と、
を含むことを特徴とする請求項1に記載の移動体位置検出システム。
The second sensor detects an angular velocity of the moving body from a potential difference caused by a motion generated in an internal element, and further, based on the angular velocity and a sensitivity coefficient that defines a correspondence relationship between the potential difference and the azimuth change. A sensor for detecting a change in direction of
The detection error of the second sensor is
While identifying the sensitivity coefficient based on the past learning result, a fourth error caused by the identified sensitivity coefficient being out of the correspondence relationship between the actual potential difference and the azimuth change ,
A fifth error caused by a temperature change around the second sensor;
A sixth error caused by the moving body moving on a sloped road;
The mobile body position detection system according to claim 1, comprising:
前記第4誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向と逆方向の両方向に誤差を生じさせ、
前記第5誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向と逆方向の両方向に誤差を生じさせ、
前記第6誤差は、前記位置検出手段の検出結果に対して、前記移動体の進行方向の逆方向に誤差を生じさせることを特徴とする請求項4に記載の移動体位置検出システム。
The fourth error causes an error in both the direction opposite to the moving direction of the moving body with respect to the detection result of the position detection unit,
The fifth error causes an error in both the direction opposite to the traveling direction of the moving body with respect to the detection result of the position detection unit,
The mobile body position detection system according to claim 4, wherein the sixth error causes an error in a direction opposite to a traveling direction of the mobile body with respect to a detection result of the position detection unit.
移動体の移動距離を検出する為に前記移動体に搭載された第1センサの検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサの検出結果とを取得するセンサ結果取得手段と、
前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出する位置検出手段と、
前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第1影響特定手段と、
前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第2影響特定手段と、
前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定する誤差範囲推定手段と、を有することを特徴とする移動体位置検出装置。
A detection result of a first sensor mounted on the moving body for detecting a moving distance of the moving body and a detection result of a second sensor mounted on the moving body for detecting a change in direction of the moving body. A sensor result acquisition means for acquiring;
Position detection means for detecting the position of the moving body based on the detection result of the first sensor and the detection result of the second sensor acquired by the sensor result acquisition means;
A first error that specifies how much error amount the detection error of the first sensor causes in the traveling direction, the reverse direction, or both directions of the moving body with respect to the detection result of the position detection means. Impact identification means,
A second error that specifies the amount of error in which the detection error of the second sensor causes the moving body in the traveling direction, the reverse direction, or both directions with respect to the detection result of the position detecting means. Impact identification means,
Based on the identification results of the first influence identification means and the second influence identification means, the position detected by the position detection means based on the detection error of the first sensor and the detection error of the second sensor is the traveling direction The maximum error amount that can occur on the side and the maximum error amount that can occur on the side opposite to the traveling direction are specified, and the range in which the maximum error amount in each specified direction is detected by the position detection unit An error range estimating means for estimating as an error range of a body position.
センサ結果取得手段が、移動体の移動距離を検出する為に前記移動体に搭載された第1センサの検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサの検出結果とを取得するステップと、
位置検出手段が、前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出するステップと、
第1影響特定手段が、前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定するステップと、
第2影響特定手段が、前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定するステップと、
誤差範囲推定手段が、前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定するステップと、を有することを特徴とする移動体位置検出方法。
A sensor result acquisition unit detects a detection result of a first sensor mounted on the moving body to detect a moving distance of the moving body and a second mounted on the moving body to detect an azimuth change of the moving body . and Luz step to obtain a detection result of the sensor,
Position detecting means, on the basis of the sensor results were acquired by the acquiring means of the first sensor detection result and the detection result of the second sensor, and Luz step to detect the position of the movable body,
The first influence specifying means causes the detection error of the first sensor to produce an error amount in any of the moving direction, the reverse direction, or both directions of the moving body with respect to the detection result of the position detecting means. and Luz steps to identify whether to,
The second influence specifying unit causes the detection error of the second sensor to cause an error amount in any of the moving direction, the reverse direction, or both directions of the moving body with respect to the detection result of the position detecting unit. and Luz steps to identify whether to,
The error range estimation means is detected by the position detection means based on the detection error of the first sensor and the detection error of the second sensor based on the specification results of the first influence specifying means and the second influence specifying means. The maximum error amount that can be generated on the traveling direction side and the maximum error amount that can occur on the opposite side of the traveling direction are identified, and the range including the maximum error amount in each specified direction is detected. mobile location method characterized by having a Luz step to estimate an error range of the position of said mobile body detected by means.
コンピュータを、
移動体の移動距離を検出する為に前記移動体に搭載された第1センサの検出結果と前記移動体の方位変化を検出する為に前記移動体に搭載された第2センサの検出結果とを取得するセンサ結果取得手段と、
前記センサ結果取得手段により取得した前記第1センサの検出結果と前記第2センサの検出結果に基づいて、前記移動体の位置を検出する位置検出手段と、
前記第1センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第1影響特定手段と、
前記第2センサの検出誤差が、前記位置検出手段の検出結果に対して、前記移動体の進行方向、逆方向又は両方向のいずれにどの程度の誤差量の誤差を生じさせるかを特定する第2影響特定手段と、
前記第1影響特定手段及び前記第2影響特定手段の特定結果に基づいて、前記第1センサの検出誤差及び前記第2センサの検出誤差に基づいて前記位置検出手段により検出される位置が進行方向側に生じ得る最大の誤差量と進行方向の逆方向側に生じ得る最大の誤差量とを特定し、特定された各方向の最大の誤差量を含む範囲を前記位置検出手段により検出した前記移動体の位置の誤差範囲として推定する誤差範囲推定手段と、
して機能させる為のコンピュータプログラム。
The computer,
A detection result of a first sensor mounted on the moving body for detecting a moving distance of the moving body and a detection result of a second sensor mounted on the moving body for detecting a change in direction of the moving body. A sensor result acquisition means for acquiring;
Position detection means for detecting the position of the moving body based on the detection result of the first sensor and the detection result of the second sensor acquired by the sensor result acquisition means ;
A first error that specifies how much error amount the detection error of the first sensor causes in the traveling direction, the reverse direction, or both directions of the moving body with respect to the detection result of the position detection means . Impact identification means ,
A second error that specifies the amount of error in which the detection error of the second sensor causes the moving body in the traveling direction, the reverse direction, or both directions with respect to the detection result of the position detecting means . Impact identification means ,
Based on the identification results of the first influence identification means and the second influence identification means , the position detected by the position detection means based on the detection error of the first sensor and the detection error of the second sensor is the traveling direction The maximum error amount that can occur on the side and the maximum error amount that can occur on the side opposite to the traveling direction are specified, and the range in which the maximum error amount in each specified direction is detected by the position detection unit An error range estimation means for estimating the error range of the body position;
Computer program to make it function .
JP2011212896A 2011-09-28 2011-09-28 Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program Expired - Fee Related JP5772453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011212896A JP5772453B2 (en) 2011-09-28 2011-09-28 Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011212896A JP5772453B2 (en) 2011-09-28 2011-09-28 Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program

Publications (2)

Publication Number Publication Date
JP2013072781A JP2013072781A (en) 2013-04-22
JP5772453B2 true JP5772453B2 (en) 2015-09-02

Family

ID=48477395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011212896A Expired - Fee Related JP5772453B2 (en) 2011-09-28 2011-09-28 Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program

Country Status (1)

Country Link
JP (1) JP5772453B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201908357RA (en) 2017-03-29 2019-10-30 Mitsubishi Heavy Industries Machinery Systems Ltd Vehicle-mounted device, calculation device, and program
US11535328B2 (en) 2017-03-30 2022-12-27 Mitsubishi Heavy Industries Machinery Systems, Ltd. Measurement device and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08334360A (en) * 1995-06-09 1996-12-17 Zanavy Informatics:Kk Present location calculating device
JP3012503B2 (en) * 1995-12-01 2000-02-21 富士通テン株式会社 Vehicle position detection device
JP2010038889A (en) * 2008-08-08 2010-02-18 Hitachi Ltd Current location calculation device
JP5521416B2 (en) * 2009-07-08 2014-06-11 富士通株式会社 Autonomous positioning program, autonomous positioning device, and autonomous positioning method

Also Published As

Publication number Publication date
JP2013072781A (en) 2013-04-22

Similar Documents

Publication Publication Date Title
JP5565296B2 (en) Route guidance device, route guidance method and computer program
JP5729176B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5874225B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
EP2612112B1 (en) Travel guidance system, travel guidance apparatus, travel guidance method and computer program
JP6597265B2 (en) Movement guidance system, movement guidance method, and computer program
JP5811666B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP5765167B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5541211B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5772453B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5765166B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5691915B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5794023B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP5899691B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5810721B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5720517B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP5803489B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5716564B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5786519B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5794024B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP5741288B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5760802B2 (en) Signal information update system, signal information update device, signal information update method, and computer program
JP5712844B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5796436B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5786523B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5831016B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R150 Certificate of patent or registration of utility model

Ref document number: 5772453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees