JP2012122760A - Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method - Google Patents

Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method Download PDF

Info

Publication number
JP2012122760A
JP2012122760A JP2010271622A JP2010271622A JP2012122760A JP 2012122760 A JP2012122760 A JP 2012122760A JP 2010271622 A JP2010271622 A JP 2010271622A JP 2010271622 A JP2010271622 A JP 2010271622A JP 2012122760 A JP2012122760 A JP 2012122760A
Authority
JP
Japan
Prior art keywords
vehicle position
road
vehicle
estimated
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010271622A
Other languages
Japanese (ja)
Inventor
Hirobumi Takahashi
博文 高橋
Masao Maura
雅夫 眞浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2010271622A priority Critical patent/JP2012122760A/en
Publication of JP2012122760A publication Critical patent/JP2012122760A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an own-vehicle position recognition system and an own-vehicle position recognition program capable of adequately correcting an estimated own-vehicle position even when a progressing direction of the vehicle is different from an extension direction of a road.SOLUTION: The own-vehicle position recognition system includes: an image recognition section for processing the image recognition of a target feature M containing in a photographic image by making the feature on a road surface arranged so that a direction parallel to an extension direction ED of the road is a reference direction SD, to be a target feature M; a reference direction specifying section for specifying the reference direction SD of the target feature M based on a relative direction RD between the target feature M recognized by the image recognition section and an own vehicle 100, and a progressing direction MD of the own vehicle 100; and a feature utilizing own-vehicle position correction section for detecting a feature direction coincident position P0 which is a position on the road coinciding the reference direction SD specified by the reference direction specifying section and the extension direction ED based on road information around an estimation own-vehicle position EP to correct the estimation own-vehicle position EP based on the feature direction coincident position P0.

Description

本発明は、自車両の推定位置である推定自車位置を取得する推定自車位置取得部と、自車両の進行方位を取得する進行方位取得部と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得部と、路面の撮影画像を取得する路面画像取得部と、を備えた自車位置認識システム、自車両の推定位置である推定自車位置を取得する推定自車位置取得機能と、自車両の進行方位を取得する進行方位取得機能と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得機能と、路面の撮影画像を取得する路面画像取得機能と、を実現させるための自車位置認識プログラム、及び、自車両の推定位置である推定自車位置を取得する推定自車位置取得ステップと、自車両の進行方位を取得する進行方位取得ステップと、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得ステップと、路面の撮影画像を取得する路面画像取得ステップと、を備えた自車位置認識方法に関する。   The present invention includes an estimated own vehicle position acquisition unit that acquires an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction acquisition unit that acquires a traveling direction of the own vehicle, and a road that includes information related to a road extending direction A vehicle position recognition system including a road information acquisition unit that acquires information and a road surface image acquisition unit that acquires a captured image of the road surface, an estimated vehicle position that acquires an estimated vehicle position that is an estimated position of the vehicle An acquisition function, a traveling direction acquisition function for acquiring the traveling direction of the host vehicle, a road information acquisition function for acquiring road information including information related to the extension direction of the road, and a road surface image acquisition function for acquiring a shot image of the road surface , A vehicle position recognition program for realizing the above, an estimated vehicle position acquisition step for acquiring an estimated vehicle position that is an estimated position of the vehicle, and a traveling direction acquisition step for acquiring a traveling direction of the vehicle, Road A road information obtaining step of obtaining road information including information on orientation, and the road surface image acquiring step of acquiring the captured image of the road, to the vehicle position recognition method comprising a.

自車両の位置を認識する自車位置認識システムは、例えば車両用のナビゲーション装置等に備えられる。下記の特許文献1には、マップマッチング処理を行うことで推定自車位置を補正し、自車の走行位置を地図データの道路上に合わせる機能を備えたナビゲーション装置が記載されている。ところで、特許文献1の段落0015、0016にも記載のように、車両の進行方位が道路(道路情報が備えるリンク)の延在方位と異なる場合には、マップマッチング処理を行うと却って自車位置がずれてしまう場合がある。そこで、特許文献1に記載の構成では、車両の進行方位が道路の延在方位と異なるものとなり得るような場合(例えば環状交差点に進入した場合)には、マップマッチング処理の実行を停止する構成としている。   The own vehicle position recognition system for recognizing the position of the own vehicle is provided, for example, in a navigation device for a vehicle. Patent Document 1 below describes a navigation device having a function of correcting an estimated own vehicle position by performing a map matching process and matching a traveling position of the own vehicle on a road of map data. By the way, as described in paragraphs 0015 and 0016 of Patent Document 1, when the traveling direction of the vehicle is different from the extending direction of the road (the link included in the road information), if the map matching process is performed, the own vehicle position May shift. Therefore, in the configuration described in Patent Document 1, when the traveling direction of the vehicle may be different from the extending direction of the road (for example, when entering a roundabout), the configuration of stopping the map matching process is stopped. It is said.

しかしながら、このようにマップマッチング処理の実行を停止した場合には、推定自車位置の補正が行えないため、自車両が、地図データの道路上から外れた位置や道路上であっても実際とは異なった位置に表示されるおそれがあり、経路案内等が適切に行われない可能性がある。そのため、上記特許文献1に記載の構成では、ナビゲーション装置の使用者の利便性が低下するおそれがある。   However, when the execution of the map matching process is stopped in this manner, the estimated own vehicle position cannot be corrected. Therefore, even if the own vehicle is off the road of the map data or on the road, May be displayed at different positions, and route guidance may not be performed properly. Therefore, with the configuration described in Patent Document 1, the convenience of the user of the navigation device may be reduced.

また、下記の特許文献2には、車両が環状道路を走行中の場合における推定自車位置の補正に関する技術が記載されている。しかしながら、特許文献2には車両の進行方位が道路の延在方位と異なる場合があり得ることに言及した記載はなく、当然ながら、上記の利便性の問題を解決するための手段について何ら示されていない。   Patent Document 2 below describes a technique related to the correction of the estimated own vehicle position when the vehicle is traveling on a ring road. However, Patent Document 2 does not mention that the traveling direction of the vehicle may be different from the extending direction of the road, and naturally, means for solving the above-described problem of convenience is shown. Not.

特開2004−132922号公報JP 2004-132922 A 特開2006−292928号公報JP 2006-292928 A

そこで、車両の進行方位が道路の延在方位と異なる場合であっても推定自車位置を適切に補正することが可能な自車位置認識システム及び自車位置認識プログラムの実現が望まれる。   Therefore, it is desired to realize a host vehicle position recognition system and a host vehicle position recognition program capable of appropriately correcting the estimated host vehicle position even when the traveling direction of the vehicle is different from the extending direction of the road.

本発明に係る、自車両の推定位置である推定自車位置を取得する推定自車位置取得部と、自車両の進行方位を取得する進行方位取得部と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得部と、路面の撮影画像を取得する路面画像取得部と、を備えた自車位置認識システムの特徴構成は、道路の延在方位に平行な方位を基準方位として設けられた路面上の地物を対象地物として、前記撮影画像に含まれる前記対象地物の画像認識処理を行う画像認識部と、前記画像認識部により認識された前記対象地物と自車両との相対方位と、自車両の進行方位とに基づき、前記対象地物の前記基準方位を特定する基準方位特定部と、前記推定自車位置の周辺の前記道路情報に基づき、前記基準方位特定部により特定された前記基準方位と延在方位が一致する道路上の位置である地物方位一致位置を検出し、当該地物方位一致位置に基づき前記推定自車位置を補正する地物利用自車位置補正部と、を備えた点にある。   According to the present invention, including an estimated own vehicle position acquisition unit that acquires an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction acquisition unit that acquires a traveling direction of the own vehicle, and information on an extension direction of the road The characteristic configuration of the vehicle position recognition system including a road information acquisition unit that acquires road information and a road surface image acquisition unit that acquires a captured image of the road surface is based on an orientation parallel to the extension direction of the road as a reference orientation. An image recognition unit for performing image recognition processing of the target feature included in the captured image, using the feature on the provided road surface as the target feature, and the target feature and the vehicle recognized by the image recognition unit Based on the relative azimuth of the vehicle and the traveling azimuth of the host vehicle, the reference azimuth specifying unit that specifies the reference azimuth of the target feature, and the reference azimuth specifying based on the road information around the estimated host vehicle position. The reference orientation specified by the part A feature use own vehicle position correcting unit that detects a feature direction coincidence position that is a position on the road having the same extension direction and corrects the estimated own vehicle position based on the feature direction coincidence position; In the point.

なお、本願では、方位に関して「一致」とは、完全に一致する場合だけでなく、比較の対象となる2つの方位のそれぞれの導出方法(特定方法)に応じた範囲内で、当該2つの方位がずれている場合を含む概念として用いている。   In the present application, “coincidence” with respect to the azimuths is not limited to the case where they completely coincide, but the two azimuths are within the range corresponding to the respective derivation methods (specific methods) of the two azimuths to be compared. It is used as a concept including the case where the

上記の特徴構成によれば、基準方位特定部により特定される対象地物の基準方位は、当該対象地物が設けられた地点における道路の延在方位と一致する。従って、車線変更等により自車両の進行方位が道路の延在方位とは異なるような場合であっても、対象地物の基準方位を特定することで車両が位置する付近での道路の延在方位を特定することができ、当該延在方位と地図情報とに基づき検出される地物方位一致位置に基づき、推定自車位置を適切に補正することができる。   According to the above characteristic configuration, the reference azimuth of the target feature specified by the reference azimuth specifying unit matches the extended azimuth of the road at the point where the target feature is provided. Therefore, even if the traveling direction of the host vehicle differs from the extending direction of the road due to lane changes etc., the road extension in the vicinity where the vehicle is located by specifying the reference direction of the target feature The direction can be specified, and the estimated own vehicle position can be appropriately corrected based on the feature direction coincidence position detected based on the extended direction and the map information.

ここで、前記推定自車位置の周辺の前記道路情報に含まれる道路の延在方位と自車両の進行方位とに基づき前記推定自車位置を補正する通常自車位置補正部を更に備え、少なくとも前記推定自車位置が環状道路を有する交差点である環状交差点内にある場合に、前記地物利用自車位置補正部による前記推定自車位置の補正を行う構成とすると好適である。   Here, the vehicle further includes a normal vehicle position correction unit that corrects the estimated vehicle position based on an extension direction of the road included in the road information around the estimated vehicle position and a traveling direction of the vehicle, It is preferable that the estimated vehicle position is corrected by the feature-use vehicle position correction unit when the estimated vehicle position is within a roundabout that is an intersection having a ring road.

この構成によれば、自車両の進行方位が道路の延在方位と異なる可能性が他の道路に比べて高くなり得る環状交差点において、推定自車位置を適切に補正することができる。   According to this configuration, the estimated own vehicle position can be appropriately corrected at a roundabout where the possibility that the traveling direction of the own vehicle is different from the extending direction of the road may be higher than that of other roads.

また、路面に直交する軸を中心とする180度未満の回転対称性を有さない形状の路面上の地物を前記対象地物とすると好適である。   In addition, it is preferable that a feature on a road surface having a shape having no rotational symmetry of less than 180 degrees with an axis orthogonal to the road surface as a center is the target feature.

また、道路の延在方位に対して平行な直線成分、及び道路の延在方位に対して直交する直線成分の少なくとも何れかを有する形状の路面上の地物を前記対象地物としても好適である。   A feature on a road surface having a shape having at least one of a linear component parallel to the road extending direction and a linear component orthogonal to the road extending direction is also suitable as the target feature. is there.

これらの構成によれば、画像認識により対象地物の基準方位を検出することが比較的容易になるため、画像認識処理の演算負荷を低減することができるとともに、対象地物の基準方位をより正確に検出することが可能となる。   According to these configurations, since it becomes relatively easy to detect the reference orientation of the target feature by image recognition, the calculation load of the image recognition processing can be reduced, and the reference orientation of the target feature can be further increased. It becomes possible to detect accurately.

また、前記地物利用自車位置補正部は、前記画像認識部により認識された前記対象地物と自車両との距離にも基づいて前記推定自車位置を補正する構成とすると好適である。   In addition, it is preferable that the feature-use own vehicle position correcting unit corrects the estimated own vehicle position based on a distance between the target feature recognized by the image recognition unit and the own vehicle.

この構成によれば、推定自車位置の補正処理に要する時間や、路面の撮影画像の撮影時における自車両と対象地物との距離が長いような場合であっても、推定自車位置を適切に補正することが可能となる。   According to this configuration, even if the time required for the correction process of the estimated host vehicle position or the distance between the host vehicle and the target feature at the time of shooting the captured image of the road surface is long, the estimated host vehicle position is It becomes possible to correct appropriately.

以上の各構成を備えた本発明に係る自車位置認識システムの技術的特徴は、自車位置認識プログラムや自車位置認識方法にも適用可能であり、そのため、本発明は、そのようなプログラムや方法も権利の対象とすることができる。   The technical features of the vehicle position recognition system according to the present invention having the above-described configurations can also be applied to a vehicle position recognition program and a vehicle position recognition method. Therefore, the present invention provides such a program. And methods can also be subject to rights.

その場合における、自車両の推定位置である推定自車位置を取得する推定自車位置取得機能と、自車両の進行方位を取得する進行方位取得機能と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得機能と、路面の撮影画像を取得する路面画像取得機能と、を実現させるための自車位置認識プログラムの特徴構成は、道路の延在方位に平行な方位を基準方位として設けられた路面上の地物を対象地物として、前記撮影画像に含まれる前記対象地物の画像認識処理を行う画像認識機能と、前記画像認識機能により認識された前記対象地物と自車両との相対方位と、自車両の進行方位とに基づき、前記対象地物の前記基準方位を特定する基準方位特定機能と、前記推定自車位置の周辺の前記道路情報に基づき、前記基準方位特定機能により特定された前記基準方位と延在方位が一致する道路上の位置である地物方位一致位置を検出し、当該地物方位一致位置に基づき前記推定自車位置を補正する地物利用自車位置補正機能と、をコンピュータに実現させる点にある。   In that case, a road including an estimated own vehicle position obtaining function for obtaining an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction obtaining function for obtaining a traveling direction of the own vehicle, and information on an extension direction of the road The feature configuration of the vehicle position recognition program for realizing the road information acquisition function for acquiring information and the road surface image acquisition function for acquiring a captured image of the road surface is based on the direction parallel to the road extension direction as the reference direction. An image recognition function for performing image recognition processing of the target feature included in the captured image, and a target feature recognized by the image recognition function as a target feature on a road surface provided as a target feature. Based on the reference direction specifying function for specifying the reference direction of the target feature based on the relative direction with respect to the vehicle and the traveling direction of the host vehicle, and based on the road information around the estimated host vehicle position, the reference direction specific The feature use vehicle that detects the feature orientation matching position that is the position on the road where the extended orientation matches the reference orientation specified by the performance, and corrects the estimated vehicle position based on the feature orientation matching position. The vehicle position correction function is realized by a computer.

また、自車両の推定位置である推定自車位置を取得する推定自車位置取得ステップと、自車両の進行方位を取得する進行方位取得ステップと、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得ステップと、路面の撮影画像を取得する路面画像取得ステップと、を備えた自車位置認識方法の特徴構成は、道路の延在方位に平行な方位を基準方位として設けられた路面上の地物を対象地物として、前記撮影画像に含まれる前記対象地物の画像認識処理を行う画像認識ステップと、前記画像認識ステップにて認識された前記対象地物と自車両との相対方位と、自車両の進行方位とに基づき、前記対象地物の前記基準方位を特定する基準方位特定ステップと、前記推定自車位置の周辺の前記道路情報に基づき、前記基準方位特定ステップにて特定された前記基準方位と延在方位が一致する道路上の位置である地物方位一致位置を検出する地物方位一致位置検出ステップと、前記地物方位一致位置検出ステップにて検出された前記地物方位一致位置に基づき前記推定自車位置を補正する地物利用自車位置補正ステップと、を備える点にある。   Further, road information including an estimated own vehicle position acquisition step for acquiring an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction acquisition step for acquiring a traveling direction of the own vehicle, and road information including information on the extending direction of the road The characteristic configuration of the vehicle position recognition method including a road information acquisition step to acquire and a road surface image acquisition step to acquire a captured image of the road surface is provided with a direction parallel to the extension direction of the road as a reference direction. An image recognition step for performing image recognition processing of the target feature included in the captured image, using the feature on the road surface as the target feature, and the target feature and the vehicle recognized in the image recognition step A reference direction specifying step for specifying the reference direction of the target feature based on a relative direction and a traveling direction of the host vehicle, and the reference direction specifying step based on the road information around the estimated host vehicle position. A feature direction matching position detection step for detecting a feature direction matching position that is a position on a road where the extension direction matches the reference direction specified in the step, and the feature direction matching position detection step And a feature utilizing own vehicle position correcting step for correcting the estimated own vehicle position based on the detected feature direction coincidence position.

当然ながら、これらの自車位置認識プログラムや自車位置認識方法も上述した自車位置認識システムに係る作用効果を得ることができ、更に、その好適な構成の例として挙げたいくつかの付加的技術を組み込むことが可能である。   Naturally, these vehicle position recognition programs and vehicle position recognition methods can also obtain the effects of the vehicle position recognition system described above, and some additional examples given as examples of suitable configurations thereof. It is possible to incorporate technology.

本発明の実施形態に係る自車位置認識システムの概念を示す模式図である。It is a schematic diagram which shows the concept of the own vehicle position recognition system which concerns on embodiment of this invention. 本発明の実施形態に係るナビゲーション装置の概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of a navigation device concerning an embodiment of the present invention. 本発明の実施形態に係る環状交差点の例を示す模式図である。It is a schematic diagram which shows the example of the roundabout which concerns on embodiment of this invention. 本発明の実施形態に係る道路情報の例を示す模式図である。It is a schematic diagram which shows the example of the road information which concerns on embodiment of this invention. 本発明の実施形態に係る対象地物の例を示す模式図である。It is a schematic diagram which shows the example of the target terrestrial feature which concerns on embodiment of this invention. 本発明の実施形態に係る対象地物の例を示す模式図である。It is a schematic diagram which shows the example of the target terrestrial feature which concerns on embodiment of this invention. 本発明の実施形態に係る推定自車位置補正処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the estimation own vehicle position correction process which concerns on embodiment of this invention. 本発明の実施形態に係る地物利用自車位置補正処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the feature utilization own vehicle position correction process which concerns on embodiment of this invention.

本発明の実施形態について図面に基づいて説明する。ここでは、本発明に係る自車位置認識システムを、車載用のナビゲーション装置に適用した場合を例として説明する。本実施形態に係るナビゲーション装置1は、自車位置認識ユニット3を備え(図2参照)、この自車位置認識ユニット3を中核として自車位置認識システムが構築されている。以下、本実施形態に係る自車位置認識システム(ナビゲーション装置1)の構成について、「自車位置認識システムの概略構成」、「ナビゲーション装置の概略構成」、「自車位置認識ユニットの構成」、「動作処理の手順」の順に詳細に説明する。   Embodiments of the present invention will be described with reference to the drawings. Here, the case where the vehicle position recognition system according to the present invention is applied to an in-vehicle navigation device will be described as an example. The navigation apparatus 1 according to the present embodiment includes a host vehicle position recognition unit 3 (see FIG. 2), and a host vehicle position recognition system is constructed with the host vehicle position recognition unit 3 as a core. Hereinafter, regarding the configuration of the vehicle position recognition system (navigation device 1) according to the present embodiment, “schematic configuration of the vehicle position recognition system”, “schematic configuration of the navigation device”, “configuration of the vehicle position recognition unit”, This will be described in detail in the order of “operation processing procedure”.

1.自車位置認識システムの概略構成
まず、本実施形態に係る自車位置認識システムの概略構成について、図1を参照して説明する。なお、図1では、車両(以下、「自車両」という場合がある。)100が車線変更を行っている場面を想定している。車両100は、自車位置認識ユニット3を有するナビゲーション装置1(図2参照)を備えている。このナビゲーション装置1は、後述するように、自車両100の推定位置である推定自車位置EPを算出する機能を備えている。また、車両100にはカメラ16(図2参照)が備えられている。本例では、カメラ16は、車両100の後方の路面を撮影するバックカメラ(リアカメラ)とされている。
1. First, a schematic configuration of a vehicle position recognition system according to the present embodiment will be described with reference to FIG. In FIG. 1, it is assumed that the vehicle (hereinafter sometimes referred to as “own vehicle”) 100 is changing lanes. The vehicle 100 includes a navigation device 1 (see FIG. 2) having a vehicle position recognition unit 3. As will be described later, the navigation device 1 has a function of calculating an estimated own vehicle position EP that is an estimated position of the own vehicle 100. The vehicle 100 is provided with a camera 16 (see FIG. 2). In this example, the camera 16 is a back camera (rear camera) that captures the road surface behind the vehicle 100.

自車位置認識ユニット3は、路面上の地物の方位に基づく推定自車位置EPの補正処理(地物利用自車位置補正処理)の機能が有効に設定されている場合に、カメラ16が撮影した路面の撮影画像を取得し、道路の延在方位EDに平行な方位を基準方位SDとして設けられた路面上の地物を対象地物として、当該撮影画像に含まれる対象地物の画像認識処理を行う(ステップ#01)。なお、本実施形態では、道路標示Mを対象地物としている。また、本実施形態では、推定自車位置EPが環状交差点5(図3に一例を示す)内にある場合に、地物利用自車位置補正処理の機能が有効に設定されるように構成されている。   The own vehicle position recognizing unit 3 is configured so that the camera 16 can be used when the function of correcting the estimated own vehicle position EP based on the direction of the feature on the road surface (feature using own vehicle position correcting process) is set to be effective. An image of the target feature included in the photographed image is obtained by acquiring a photographed image of the photographed road surface and using a feature on the road surface provided with the direction parallel to the road extending direction ED as the reference direction SD as the target feature. Recognition processing is performed (step # 01). In the present embodiment, the road marking M is the target feature. Further, in the present embodiment, when the estimated own vehicle position EP is in the roundabout 5 (an example is shown in FIG. 3), the feature-use own vehicle position correction processing function is set to be effective. ing.

そして、道路標示Mの画像認識に成功した場合には、自車位置認識ユニット3は、画像認識により取得した道路標示Mと自車両100との相対方位RDと、自車両の進行方位MDとに基づき、道路標示Mの基準方位SDを特定する(ステップ#02)。ここで特定される道路標示Mの基準方位SDは、当該道路標示Mが設けられた地点における道路の延在方位EDと一致するため、基準方位SDを特定することで、車両100が位置する付近での道路(道路上における車両100が位置する部分)の延在方位EDを特定することができる。また、自車位置認識ユニット3は、道路標示Mの画像認識に成功した場合には、推定自車位置EPの周辺の道路情報(道路地図データ)RIを道路地図データベース12から取得する(ステップ#03)。   And when the image recognition of the road marking M is successful, the own vehicle position recognition unit 3 determines the relative orientation RD between the road marking M acquired by the image recognition and the own vehicle 100 and the traveling direction MD of the own vehicle. Based on this, the reference direction SD of the road marking M is specified (step # 02). Since the reference direction SD of the road sign M identified here matches the extended direction ED of the road at the point where the road sign M is provided, the vicinity where the vehicle 100 is located can be determined by specifying the reference direction SD. It is possible to specify the extending direction ED of the road (the portion on the road where the vehicle 100 is located). If the vehicle position recognition unit 3 succeeds in recognizing the image of the road marking M, the vehicle position recognition unit 3 acquires road information (road map data) RI around the estimated vehicle position EP from the road map database 12 (step #). 03).

自車位置認識ユニット3は、推定自車位置EPの周辺の道路情報RIに基づき、上記のようして特定された基準方位SDと延在方位EDが一致する道路上(道路地図データ上)の位置である地物方位一致位置P0を検出する(ステップ#04)。そして、自車位置認識ユニット3は、上記のようにして求められた地物方位一致位置P0に基づき、推定自車位置EPを補正する(ステップ#05)。本例では、自車位置認識ユニット3は、地物方位一致位置P0を推定自車位置EPと置き換えることで、推定自車位置EPの補正を行う。本発明では、上記のように推定自車位置EPの補正を行う構成とすることで、例えば車線変更等により自車両100の進行方位MDが道路の延在方位EDとは異なるような場合であっても、車両100が位置する付近での道路の延在方位EDを対象地物(本例では道路標示M)の方位に基づき特定することができ、当該延在方位EDに基づき推定自車位置EPを適切に補正することが可能となっている。   The own vehicle position recognition unit 3 is based on the road information RI around the estimated own car position EP and is on the road (on the road map data) on which the reference direction SD and the extended direction ED identified as described above coincide. The feature orientation matching position P0, which is the position, is detected (step # 04). Then, the vehicle position recognition unit 3 corrects the estimated vehicle position EP based on the feature direction matching position P0 obtained as described above (step # 05). In this example, the own vehicle position recognition unit 3 corrects the estimated own vehicle position EP by replacing the feature direction matching position P0 with the estimated own vehicle position EP. In the present invention, the estimated vehicle position EP is corrected as described above, so that the traveling direction MD of the vehicle 100 differs from the road extending direction ED due to, for example, a lane change. However, the extended direction ED of the road in the vicinity where the vehicle 100 is located can be specified based on the direction of the target feature (the road marking M in this example), and the estimated own vehicle position based on the extended direction ED It is possible to correct EP appropriately.

一方、自車位置認識ユニット3は、地物利用自車位置補正処理を実行しない場合(本例では、推定自車位置EPが環状交差点5内にない場合)には、路面上の地物の方位に基づかない推定自車位置EPの補正処理(通常自車位置補正処理)を実行するように構成されている。   On the other hand, if the vehicle position recognition unit 3 does not execute the feature-use vehicle position correction process (in this example, the estimated vehicle position EP is not within the roundabout 5), the vehicle position recognition unit 3 A correction process (normal vehicle position correction process) of the estimated host vehicle position EP that is not based on the direction is executed.

2.ナビゲーション装置の概略構成
次に、上述した自車位置認識システムを実現するナビゲーション装置1の概略構成について、図2を参照して説明する。図2に示すように、ナビゲーション装置1は、ナビ制御ユニット2と、自車位置認識ユニット3と、推定自車位置算定部11と、道路地図データベース12と、を備えている。ナビ制御ユニット2及び自車位置認識ユニット3は、後述する複数の機能部を備えている。
2. Schematic Configuration of Navigation Device Next, a schematic configuration of the navigation device 1 that realizes the vehicle position recognition system described above will be described with reference to FIG. As shown in FIG. 2, the navigation device 1 includes a navigation control unit 2, a vehicle position recognition unit 3, an estimated vehicle position calculation unit 11, and a road map database 12. The navigation control unit 2 and the own vehicle position recognition unit 3 include a plurality of functional units described later.

そして、ナビゲーション装置1が備える各機能部は、互いに共通の或いはそれぞれ独立のCPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。また、これらの各機能部は、デジタル転送バス等の通信線を介して互いに情報の受け渡しを行うことができるように構成されているとともに、道路地図データベース12からデータ(道路情報RI)を抽出可能に構成されている。ここで、各機能部がソフトウェア(プログラム)により構成される場合には、当該ソフトウェアは、演算処理装置が参照可能なRAMやROM等の記憶手段に記憶される。   Each functional unit included in the navigation device 1 is a hardware unit or a functional unit for performing various processes on input data, with a common processing unit such as a CPU as a core member. It is implemented by software (program) or both. Each of these functional units is configured to be able to exchange information with each other via a communication line such as a digital transfer bus, and can extract data (road information RI) from the road map database 12. It is configured. Here, when each function part is comprised with software (program), the said software is memorize | stored in memory | storage means, such as RAM and ROM which an arithmetic processing unit can refer.

また、道路地図データベース12は、記憶装置により構成される。この記憶装置は、例えば、ハードディスクドライブ、フラッシュメモリ等のように、情報を記憶及び書き換え可能な記録媒体をハードウェア構成として備える。   The road map database 12 is configured by a storage device. This storage device includes, as a hardware configuration, a recording medium that can store and rewrite information, such as a hard disk drive and a flash memory.

ナビ制御ユニット2は、経路設定部21、経路探索部22、及び経路案内部23を備えている。経路設定部21は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する機能部である。経路探索部22は、経路設定部21によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理(経路探索処理)を行う機能部である。経路案内部23は、経路探索部22により探索された出発地から目的地までの経路に従って、モニタ(図示せず)の表示画面による案内表示やスピーカ(図示せず)による音声案内等により、運転者に対して適切な経路案内を行うための演算処理(経路案内処理)を行う機能部である。   The navigation control unit 2 includes a route setting unit 21, a route search unit 22, and a route guide unit 23. The route setting unit 21 is a functional unit that sets, for example, a departure place such as the vehicle position, an input destination, a passing point, and traveling conditions (whether or not an expressway is used). The route search unit 22 is a functional unit that performs calculation processing (route search processing) for searching for a guidance route from the departure point to the destination based on the conditions set by the route setting unit 21. The route guidance unit 23 operates according to the route from the departure point to the destination searched by the route search unit 22 by guidance display on a display screen of a monitor (not shown) or voice guidance by a speaker (not shown). It is a functional part which performs the calculation process (route guidance process) for performing suitable route guidance with respect to a person.

道路地図データベース12は、上記の経路探索処理や経路案内処理を実行する際や、モニタへの地図表示処理を実行する際等に参照される道路情報(道路地図データ)RIを格納している。道路情報RIは、道路の延在方位EDに関する情報を含み、本例では、図4に一例を示すように、ノードN及びリンクKにより道路を表現する情報とされている。ノードNは、例えば道路の交差点、折曲点、分岐点等に設定される。なお、図4は、図3に一例を示す環状交差点5に対応する道路情報RIを概念的に表したものである。   The road map database 12 stores road information (road map data) RI that is referred to when the above route search processing and route guidance processing are executed, when map display processing on a monitor is executed, and the like. The road information RI includes information related to the road extending direction ED. In this example, the road information RI is information that expresses the road by the node N and the link K as shown in FIG. The node N is set at, for example, a road intersection, a turning point, a branch point, or the like. FIG. 4 conceptually shows road information RI corresponding to the roundabout 5 shown in FIG. 3 as an example.

補足説明すると、道路情報RIは、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路に対応する経路を構成する多数のリンクKの情報とを有して構成されている。すなわち、本例では、リンクKの情報が、道路の延在方位EDに関する情報を表す。道路情報RIは、各リンクKのリンク情報(リンク属性)として、道路の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。本実施形態では、リンク情報には、当該リンクKが環状交差点5を形成する環状交差点リンクであるか否かの情報も含まれている。道路情報RIは、さらに、2つのノードNの間(リンクK上)に配置されてリンクKの詳細形状を表す形状補間点Sの情報や道路幅の情報を有している。   As a supplementary explanation, the road information RI includes information on a large number of nodes N having position information on a map expressed by latitude and longitude, and a large number of links that connect the two nodes N to form a route corresponding to the road. K information. That is, in this example, the information on the link K represents information on the road extending direction ED. The road information RI includes information such as road type (type of highway, toll road, national road, prefectural road, etc.) and link length as link information (link attribute) of each link K. In the present embodiment, the link information includes information on whether or not the link K is a circular intersection link that forms the circular intersection 5. The road information RI further includes information on a shape interpolation point S that is arranged between two nodes N (on the link K) and represents the detailed shape of the link K, and information on the road width.

なお、上記のような道路情報RIは、データベース化され、道路地図データベース12の仕様に応じた形態で格納されている。例えば、道路情報RIが、互いに関連付けられた複数のレイヤに分かれて道路地図データベース12に格納された構成とすることができる。具体的には、ノードNとリンクKにより道路間の接続情報を示すレイヤ(道路ネットワークレイヤ)、形状補間点Sや道路幅の情報を示すレイヤ(道路形状レイヤ)、及び、道路に関する詳細な情報(道路上や道路周辺に設けられた各種地物の情報等)を示すレイヤ(道路属性レイヤ)を含む少なくとも3つのレイヤに分かれて道路情報RIが備えられた構成とすることができる。   The road information RI as described above is made into a database and stored in a form according to the specifications of the road map database 12. For example, the road information RI may be divided into a plurality of layers associated with each other and stored in the road map database 12. Specifically, a layer (road network layer) indicating connection information between roads by the node N and the link K, a layer (road shape layer) indicating information on the shape interpolation point S and road width, and detailed information on the road The road information RI can be divided into at least three layers including a layer (road attribute layer) indicating (information on various features provided on or around the road).

推定自車位置算定部11は、車両100に備えられたGPS測定ユニット13、距離センサ14、及び方位センサ15の出力に基づき、自車両100の推定位置である推定自車位置EPを算定する機能部である。GPS測定ユニット13は、GPS衛星からのGPS信号を受信し、当該GPS信号を推定自車位置算定部11へ出力する。また、距離センサ14は、車両100の車速や移動距離を検出し、検出結果としての車速及び移動距離の情報を推定自車位置算定部11へ出力する。方位センサ15は、例えば、ジャイロセンサ、地磁気センサ(電子コンパス)等により構成され、その検出結果としての方位の情報を推定自車位置算定部11へ出力する。   The estimated own vehicle position calculation unit 11 calculates the estimated own vehicle position EP, which is the estimated position of the own vehicle 100, based on the outputs of the GPS measurement unit 13, the distance sensor 14, and the direction sensor 15 provided in the vehicle 100. Part. The GPS measurement unit 13 receives a GPS signal from a GPS satellite and outputs the GPS signal to the estimated own vehicle position calculation unit 11. Further, the distance sensor 14 detects the vehicle speed and the moving distance of the vehicle 100 and outputs information on the vehicle speed and the moving distance as a detection result to the estimated own vehicle position calculating unit 11. The azimuth sensor 15 is constituted by, for example, a gyro sensor, a geomagnetic sensor (electronic compass), and the like, and outputs azimuth information as a detection result to the estimated vehicle position calculation unit 11.

推定自車位置算定部11は、GPS信号を解析し、車両100の現在位置(緯度及び経度)を算定し、GPS位置データを得る。また、推定自車位置算定部11は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置を演算し、推測航法位置データを得る。そして、推定自車位置算定部11は、GPS位置データと推測航法位置データとから公知の方法により車両100の推定位置である推定自車位置EPを算定する演算を行う。なお、推定自車位置算定部11が、GPS位置データ及び推測航法位置データの何れか一方のみを用いて推定自車位置EPを算定する構成とすることも可能である。   The estimated vehicle position calculation unit 11 analyzes the GPS signal, calculates the current position (latitude and longitude) of the vehicle 100, and obtains GPS position data. Further, the estimated host vehicle position calculation unit 11 calculates the dead reckoning position based on the moving distance information and the direction information sent every moment, and obtains dead reckoning position data. Then, the estimated own vehicle position calculation unit 11 performs an operation for calculating the estimated own vehicle position EP that is the estimated position of the vehicle 100 from the GPS position data and the dead reckoning position data by a known method. The estimated vehicle position calculation unit 11 may be configured to calculate the estimated vehicle position EP using only one of GPS position data and dead reckoning position data.

自車位置認識ユニット3は、詳細は後述するが、推定自車位置算定部11が算定した推定自車位置EPを補正するための推定自車位置補正部40を備えている。本実施形態に係るナビゲーション装置1は、この自車位置認識ユニット3を備えることで、測定誤差が含まれ得る推定自車位置EPを適切に補正し、推定自車位置EPが道路上から外れるような場合でも、自車位置を道路地図に示される道路上に適切に補正(マップマッチング)することが可能となっている。   The vehicle position recognition unit 3 includes an estimated vehicle position correction unit 40 for correcting the estimated vehicle position EP calculated by the estimated vehicle position calculation unit 11, which will be described in detail later. The navigation apparatus 1 according to the present embodiment includes the own vehicle position recognition unit 3 to appropriately correct the estimated own vehicle position EP that may include a measurement error so that the estimated own vehicle position EP deviates from the road. Even in such a case, the vehicle position can be appropriately corrected (map matching) on the road shown on the road map.

3.自車位置認識ユニットの構成
次に、本発明の要部である自車位置認識ユニット3の構成について説明する。図2に示すように、自車位置認識ユニット3は、推定自車位置取得部31、進行方位取得部32、路面画像取得部33、道路情報取得部34、及び推定自車位置補正部40を備えている。
3. Next, the configuration of the vehicle position recognition unit 3 that is a main part of the present invention will be described. As shown in FIG. 2, the vehicle position recognition unit 3 includes an estimated vehicle position acquisition unit 31, a traveling direction acquisition unit 32, a road surface image acquisition unit 33, a road information acquisition unit 34, and an estimated vehicle position correction unit 40. I have.

3−1.推定自車位置取得部の構成
推定自車位置取得部31は、自車両100の推定位置である推定自車位置EPを取得する機能部である。本実施形態では、推定自車位置算定部11が算定した推定自車位置EPが推定自車位置取得部31に入力されることで、推定自車位置取得部31が推定自車位置EPを取得するように構成されている。
3-1. Configuration of Estimated Own Vehicle Position Acquisition Unit The estimated own vehicle position acquisition unit 31 is a functional unit that acquires an estimated own vehicle position EP that is an estimated position of the own vehicle 100. In the present embodiment, the estimated own vehicle position acquisition unit 31 acquires the estimated own vehicle position EP by inputting the estimated own vehicle position EP calculated by the estimated own vehicle position calculation unit 11 to the estimated own vehicle position acquisition unit 31. Is configured to do.

なお、推定自車位置取得部31に推定自車位置EPの導出過程の情報が入力され、推定自車位置取得部31が当該情報に基づき推定自車位置EPを導出し、推定自車位置EPを取得する構成とすることもできる。例えば、推定自車位置取得部31に、GPS位置データと推測航法位置データとが入力される構成とすることができる。また、推定自車位置取得部31に、GPS測定ユニット13、距離センサ14、方位センサ15の検出結果が入力される構成とすることもできる。   Information on the process of deriving the estimated vehicle position EP is input to the estimated vehicle position acquisition unit 31, and the estimated vehicle position acquisition unit 31 derives the estimated vehicle position EP based on the information, and the estimated vehicle position EP It can also be set as the structure which acquires. For example, the GPS position data and dead reckoning position data can be input to the estimated vehicle position acquisition unit 31. The estimated vehicle position acquisition unit 31 may be configured to receive detection results of the GPS measurement unit 13, the distance sensor 14, and the direction sensor 15.

3−2.進行方位取得部の構成
進行方位取得部32は、自車両100の進行方位MDを取得する機能部である。具体的には、進行方位取得部32は、絶対方位での自車両100の進行方位MDを取得する。本例では、方位センサ15は絶対方位を検出可能な地磁気センサ(電子コンパス)とされ、方位センサ15の検出結果(絶対角度)が進行方位取得部32に入力されるように構成されている。そして、進行方位取得部32は、方位センサ15から入力された検出結果を自車両100の進行方位MDとすることで、進行方位MDを取得する。なお、「絶対方位」とは、絶対座標系(例えば地理座標系)での予め定められた方位(例えば地磁気の方向)を基準として一意に定まる方位を意味する。上述したように、本実施形態では、道路情報RIは、緯度及び経度で表現されたノードNの情報を含む。よって、本実施形態では、道路情報RIに含まれる道路の延在方位EDに関する情報は、絶対方位での延在方位EDに関する情報とされている。
3-2. Configuration of Traveling Direction Acquisition Unit The traveling direction acquisition unit 32 is a functional unit that acquires the traveling direction MD of the host vehicle 100. Specifically, the traveling direction acquisition unit 32 acquires the traveling direction MD of the host vehicle 100 in the absolute direction. In this example, the azimuth sensor 15 is a geomagnetic sensor (electronic compass) capable of detecting an absolute azimuth, and the detection result (absolute angle) of the azimuth sensor 15 is input to the traveling azimuth acquisition unit 32. Then, the traveling direction acquisition unit 32 acquires the traveling direction MD by using the detection result input from the direction sensor 15 as the traveling direction MD of the host vehicle 100. “Absolute orientation” means an orientation that is uniquely determined based on a predetermined orientation (for example, the direction of geomagnetism) in an absolute coordinate system (for example, a geographic coordinate system). As described above, in the present embodiment, the road information RI includes information on the node N expressed by latitude and longitude. Therefore, in the present embodiment, the information related to the extended direction ED of the road included in the road information RI is information related to the extended direction ED in the absolute direction.

なお、方位センサ15が相対角度を検出するジャイロセンサとされる場合には、進行方位取得部32が方位センサ15の検出結果(相対角度)と以前の進行方位MDとに基づき、現在の進行方位MDを導出して取得する構成とすることができる。また、方位センサ15が相対角度を検出するジャイロセンサとされる場合に、推定自車位置算定部11が方位センサ15の検出結果と以前の進行方位MDとに基づき現在の進行方位MDを導出し、当該導出された進行方位MDを進行方位取得部32が取得する構成とすることもできる。   When the azimuth sensor 15 is a gyro sensor that detects a relative angle, the traveling azimuth acquisition unit 32 determines the current traveling azimuth based on the detection result (relative angle) of the azimuth sensor 15 and the previous traveling azimuth MD. It can be set as the structure which derives and acquires MD. Further, when the direction sensor 15 is a gyro sensor that detects a relative angle, the estimated vehicle position calculation unit 11 derives the current traveling direction MD based on the detection result of the direction sensor 15 and the previous traveling direction MD. The traveling direction acquisition unit 32 may acquire the derived traveling direction MD.

3−3.路面画像取得部の構成
路面画像取得部33は、路面の撮影画像を取得する機能部である。上記のように車両100には路面を撮影するためのカメラ16が備えられており、路面画像取得部33は、カメラ16により撮影された路面の撮影画像を取得する。本例ではカメラ16はバックカメラとされており、路面画像取得部33は車両100の後方の路面の撮影画像を取得する。
3-3. Configuration of Road Surface Image Acquisition Unit The road surface image acquisition unit 33 is a functional unit that acquires a captured image of a road surface. As described above, the vehicle 100 is equipped with the camera 16 for photographing the road surface, and the road surface image acquisition unit 33 acquires a captured image of the road surface photographed by the camera 16. In this example, the camera 16 is a back camera, and the road surface image acquisition unit 33 acquires a captured image of the road surface behind the vehicle 100.

路面画像取得部33が取得した撮影画像は、後述する地物利用自車位置補正部42による地物利用自車位置補正処理に用いられる。よって、本実施形態では、路面画像取得部33は、地物利用自車位置補正処理の機能が有効に設定されている場合に、所定のタイミングで路面の撮影画像を取得する。この所定のタイミングは、例えば、所定の時間間隔毎(例えば1秒毎等)に設定したり、車両100が所定の距離(例えば1メートル等)を進む毎に設定したりすることができる。そして、路面画像取得部33が取得した撮影画像は、地物利用自車位置補正部42が備える画像認識部43へ出力される。   The captured image acquired by the road surface image acquisition unit 33 is used for the feature-use vehicle position correction process by the feature-use vehicle position correction unit 42 described later. Thus, in the present embodiment, the road surface image acquisition unit 33 acquires a captured image of the road surface at a predetermined timing when the feature-use vehicle position correction processing function is set to be effective. This predetermined timing can be set, for example, every predetermined time interval (for example, every second) or every time the vehicle 100 travels a predetermined distance (for example, 1 meter). The captured image acquired by the road surface image acquisition unit 33 is output to the image recognition unit 43 provided in the feature-use vehicle position correction unit 42.

3−4.道路情報取得部の構成
道路情報取得部34は、道路の延在方位EDに関する情報を含む道路情報RIを取得する機能部である。上記のように、本実施形態では道路情報RIを記憶した道路地図データベース12がナビゲーション装置1に備えられており、道路情報取得部34は、道路情報RIを道路地図データベース12から抽出して取得する。
3-4. Configuration of Road Information Acquisition Unit The road information acquisition unit 34 is a functional unit that acquires road information RI including information related to the road extending direction ED. As described above, in this embodiment, the road map database 12 storing the road information RI is provided in the navigation device 1, and the road information acquisition unit 34 extracts and acquires the road information RI from the road map database 12. .

道路情報取得部34が取得した道路情報RIは、後述する推定自車位置補正部40(通常自車位置補正部41及び地物利用自車位置補正部42)による推定自車位置補正処理に用いられる。よって、本実施形態では、道路情報取得部34は、通常自車位置補正部41や地物利用自車位置補正部42からの要求に応じて、道路地図データベース12から道路情報RIを取得する。   The road information RI acquired by the road information acquisition unit 34 is used for an estimated vehicle position correction process by an estimated vehicle position correction unit 40 (a normal vehicle position correction unit 41 and a feature-use vehicle position correction unit 42) described later. It is done. Therefore, in this embodiment, the road information acquisition unit 34 acquires the road information RI from the road map database 12 in response to a request from the normal vehicle position correction unit 41 or the feature-use vehicle position correction unit 42.

3−5.推定自車位置補正部の構成
推定自車位置補正部40は、推定自車位置取得部31が取得した推定自車位置EPを補正する機能部、すなわち、推定自車位置補正処理を実行する機能部である。推定自車位置補正部40は、通常自車位置補正部41と地物利用自車位置補正部42とを備えている。そして、本実施形態では、推定自車位置補正部40は、推定自車位置EPが環状道路(周回道路)51を有する交差点である環状交差点5(図3参照)内にある場合に、地物利用自車位置補正処理の機能を有効に設定し、地物利用自車位置補正部42による推定自車位置EPの補正を行う。また、推定自車位置補正部40は、推定自車位置EPが環状交差点5内にない場合には、通常自車位置補正処理の機能を有効に設定し、通常自車位置補正部41による推定自車位置EPの補正を行う。
3-5. Configuration of Estimated Vehicle Position Correction Unit The estimated vehicle position correction unit 40 is a functional unit that corrects the estimated vehicle position EP acquired by the estimated vehicle position acquisition unit 31, that is, a function that executes estimated vehicle position correction processing. Part. The estimated own vehicle position correction unit 40 includes a normal own vehicle position correction unit 41 and a feature-use own vehicle position correction unit 42. In the present embodiment, the estimated own vehicle position correcting unit 40 determines the feature when the estimated own vehicle position EP is within the circular intersection 5 (see FIG. 3) that is an intersection having the circular road (circumferential road) 51. The function of the use vehicle position correction process is set to be effective, and the feature use vehicle position correction unit 42 corrects the estimated vehicle position EP. In addition, when the estimated vehicle position EP is not within the roundabout 5, the estimated vehicle position correction unit 40 sets the normal vehicle position correction processing function to be effective, and the normal vehicle position correction unit 41 performs estimation. The own vehicle position EP is corrected.

なお、本実施形態では、上記のように、リンク情報(リンク属性)には、当該リンクKが環状交差点リンクであるか否かの情報が含まれている。そのため、推定自車位置補正部40は、当該リンク情報に基づき、推定自車位置EPが環状交差点5内にあるか否かを判定する。具体的には、推定自車位置EPが環状交差点リンク或いは当該環状交差点リンクの近傍の座標範囲内に進入している場合に、推定自車位置EPが環状交差点5内にあると判定する構成とすることができる。なお、環状交差点5が備える環状道路51を含む座標範囲を環状交差点5毎に予め定めておき、推定自車位置EPが当該座標範囲内にある場合に、推定自車位置EPが環状交差点5内にあると判定する構成とすることもできる。   In the present embodiment, as described above, the link information (link attribute) includes information on whether or not the link K is a roundabout link. Therefore, the estimated vehicle position correction unit 40 determines whether or not the estimated vehicle position EP is within the roundabout 5 based on the link information. Specifically, the estimated vehicle position EP is determined to be within the circular intersection 5 when the estimated vehicle position EP enters the roundabout link or the coordinate range in the vicinity of the roundabout link. can do. In addition, when the coordinate range including the circular road 51 included in the roundabout 5 is determined in advance for each roundabout 5, and the estimated own vehicle position EP is within the coordinate range, the estimated own vehicle position EP is within the roundabout 5 It can also be set as the structure determined to exist in.

3−5−1.通常自車位置補正部の構成
通常自車位置補正部41は、推定自車位置EPの周辺の道路情報RIに含まれる道路の延在方位EDと自車両100の進行方位MDとに基づき推定自車位置EPを補正する機能部、すなわち、通常自車位置補正処理を実行する機能部である。この際、通常自車位置補正部41は、推定自車位置取得部31が取得した推定自車位置EPの情報を取得するととともに、道路情報取得部34が取得した当該推定自車位置EPの周辺の道路情報RIを取得する。
3-5-1. Configuration of a normal vehicle position correction unit The normal vehicle position correction unit 41 is based on the road extending direction ED and the traveling direction MD of the vehicle 100 included in the road information RI around the estimated vehicle position EP. This is a functional unit that corrects the vehicle position EP, that is, a functional unit that executes normal vehicle position correction processing. At this time, the normal vehicle position correction unit 41 acquires the information of the estimated vehicle position EP acquired by the estimated vehicle position acquisition unit 31 and the vicinity of the estimated vehicle position EP acquired by the road information acquisition unit 34. The road information RI is acquired.

本実施形態では、通常自車位置補正部41は、路面上の地物の方位に基づかない推定自車位置EPの補正処理(通常自車位置補正処理)を実行する。このような通常自車位置補正処理としては、マップマッチング(自車位置を道路地図に示される道路上に合わせるための補正)を行うための公知の手法(マップマッチング法)を採用することができる。詳細な説明は省略するが、例えば、上記特許文献1の段落0009〜0013に記載のパターンマッチング法や投影法を採用して、通常自車位置補正部41による推定自車位置EPの補正を行う構成とすることができる。   In the present embodiment, the normal vehicle position correction unit 41 executes a correction process (normal vehicle position correction process) of the estimated vehicle position EP that is not based on the direction of the feature on the road surface. As such normal vehicle position correction processing, a known method (map matching method) for performing map matching (correction for adjusting the vehicle position on the road shown on the road map) can be employed. . Although a detailed description is omitted, for example, the normal vehicle position correction unit 41 corrects the estimated vehicle position EP by employing the pattern matching method and the projection method described in paragraphs 0009 to 0013 of Patent Document 1 above. It can be configured.

なお、通常自車位置補正部41が通常自車位置補正処理を実行する際に必要となる道路情報RIの範囲はマップマッチングの手法により異なり、通常自車位置補正部41は、採用するマップマッチング法を実行するために必要な範囲の道路情報RIを道路情報取得部34を介して道路地図データベース12から取得する。   The range of the road information RI required when the normal vehicle position correction unit 41 executes the normal vehicle position correction process differs depending on the map matching method, and the normal vehicle position correction unit 41 uses the map matching to be adopted. Road information RI in a range necessary for executing the law is acquired from the road map database 12 via the road information acquisition unit 34.

通常自車位置補正部41による推定自車位置EPの補正は、通常自車位置補正処理の機能が有効に設定されている場合(本例では、推定自車位置EPが環状交差点5内にない場合)に、所定のタイミングで実行される。この所定のタイミングは、所定の時間間隔毎(例えば1秒、2秒、5秒毎等)に設定したり、車両100が所定の距離(例えば1メートル、2メートル、5メートル等)を進む毎に設定したりすることができる。また、所定のタイミングを、推定自車位置EPが新たなリンクK或いは当該新たなリンクK近傍の座標範囲内に進入する毎に設定したり、推定自車位置EPと道路地図に示される道路とのズレが所定の閾値を超える毎に設定したりすることもできる。   The correction of the estimated own vehicle position EP by the normal own vehicle position correcting unit 41 is performed when the function of the normal own vehicle position correcting process is set to be effective (in this example, the estimated own vehicle position EP is not within the circular intersection 5). Case) at a predetermined timing. This predetermined timing is set every predetermined time interval (for example, every 1 second, 2 seconds, every 5 seconds, etc.) or every time the vehicle 100 travels a predetermined distance (for example, 1 meter, 2 meters, 5 meters, etc.). Can be set. Further, a predetermined timing is set every time the estimated own vehicle position EP enters a new link K or a coordinate range near the new link K, or the estimated vehicle position EP and the road indicated on the road map It can be set every time the deviation exceeds a predetermined threshold.

3−5−2.地物利用自車位置補正部の構成
地物利用自車位置補正部42は、推定自車位置EPの周辺の道路情報RIに含まれる道路の延在方位EDと路面上の地物の基準方位SDとに基づき推定自車位置EPを補正する機能部、すなわち、地物利用自車位置補正処理を実行する機能部である。地物利用自車位置補正部42は、図2に示すように、画像認識部43と、基準方位特定部44と、地物方位一致位置検出部45とを備えている。そして、地物利用自車位置補正部42は、地物方位一致位置検出部45が検出した地物方位一致位置P0に基づき推定自車位置EPを補正するように構成されている。
3-5-2. Configuration of feature-use own vehicle position correction unit The feature-use own vehicle position correction unit 42 includes a road extension direction ED included in the road information RI around the estimated vehicle position EP and a reference direction of the feature on the road surface. It is a functional unit that corrects the estimated vehicle position EP based on SD, that is, a functional unit that executes a feature-based vehicle position correction process. As shown in FIG. 2, the feature-use own vehicle position correcting unit 42 includes an image recognition unit 43, a reference orientation specifying unit 44, and a feature orientation matching position detection unit 45. The feature using own vehicle position correcting unit 42 is configured to correct the estimated own vehicle position EP based on the feature direction matching position P0 detected by the feature direction matching position detection unit 45.

3−5−2−1.画像認識部の構成
画像認識部43は、道路の延在方位EDに平行な方位を基準方位SDとして設けられた路面上の地物を対象地物として、撮影画像に含まれる対象地物の画像認識処理を行う機能部である。具体的には、画像認識部43は、路面画像取得部33が取得した路面の撮影画像を用い、当該撮影画像に対して二値化処理やエッジ検出処理等を行うことで、当該撮影画像に含まれている地物の輪郭情報を抽出する。その後、画像認識部43は、抽出された地物の輪郭情報と、対象地物の形態の特徴量とのパターンマッチングを行い、対象地物の形態と一致する輪郭情報の抽出処理を行う。そして、対象地物の形態と一致する輪郭情報が抽出された場合には、当該輪郭情報を対象地物として認識し、対象地物の画像認識に成功したと判定する。本実施形態では、このような画像認識部43による道路標示Mの認識処理は、路面画像取得部33から新たな撮影画像を取得する度に実行される。
3-5-2-1. Configuration of Image Recognizing Unit The image recognizing unit 43 uses a feature on the road surface provided with a direction parallel to the extending direction ED of the road as a reference direction SD as a target feature, and an image of the target feature included in the photographed image. It is a functional unit that performs recognition processing. Specifically, the image recognition unit 43 uses the captured image of the road surface acquired by the road surface image acquisition unit 33 and performs binarization processing, edge detection processing, and the like on the captured image, so that the captured image is displayed. Extract contour information of contained features. Thereafter, the image recognition unit 43 performs pattern matching between the extracted contour information of the feature and the feature quantity of the target feature, and performs processing for extracting contour information that matches the shape of the target feature. When the contour information that matches the form of the target feature is extracted, the contour information is recognized as the target feature, and it is determined that the image recognition of the target feature is successful. In the present embodiment, such recognition processing of the road marking M by the image recognition unit 43 is executed every time a new captured image is acquired from the road surface image acquisition unit 33.

そして、画像認識部43は、対象地物の画像認識に成功した場合には、当該認識された対象地物と自車両100との相対方位RDを導出する。すなわち、画像認識部43は、自車両100の進行方位MDを基準とする対象地物の相対的な(相対方位での)基準方位SDを導出する。ここで、撮影画像中における自車両100の方位(すなわち進行方位MD)は、車両100の進行方位MDによらず撮影画像中において一定の方向(図1に示す例では上下方向)となる。また、撮影画像中における対象地物の基準方位SDは、対象地物として認識された輪郭情報から取得することができる。よって、対象地物の画像認識に成功した場合には、図1に概念的に示すように、撮影画像中における自車両100の方位(進行方位MD)を表す線分と対象地物の基準方位SDを表す線分とが成す角度に基づき、相対方位RDを導出することができる。なお、詳細な説明は省略するが、カメラ16は路面よりも高い位置に設置されるため、相対方位RDの導出時には、路面に対する撮影角度も考慮される。そして、導出された相対方位RDは、基準方位特定部44へ出力される。   When the image recognition unit 43 succeeds in image recognition of the target feature, the image recognition unit 43 derives the relative direction RD between the recognized target feature and the host vehicle 100. That is, the image recognizing unit 43 derives the relative reference direction SD (in the relative direction) of the target feature with the traveling direction MD of the host vehicle 100 as a reference. Here, the direction (that is, the traveling direction MD) of the host vehicle 100 in the captured image is a fixed direction (vertical direction in the example shown in FIG. 1) in the captured image, regardless of the traveling direction MD of the vehicle 100. In addition, the reference orientation SD of the target feature in the captured image can be acquired from the contour information recognized as the target feature. Therefore, when image recognition of the target feature is successful, as conceptually shown in FIG. 1, a line segment representing the direction (traveling direction MD) of the host vehicle 100 in the captured image and the reference direction of the target feature Based on the angle formed by the line segment representing SD, the relative orientation RD can be derived. Although detailed description is omitted, since the camera 16 is installed at a position higher than the road surface, the photographic angle with respect to the road surface is also taken into consideration when deriving the relative direction RD. The derived relative orientation RD is output to the reference orientation specifying unit 44.

上述したように、本実施形態では、道路の延在方位EDに平行な方位を基準方位SDとして設けられた道路標示Mを対象地物としている。ここで、「道路標示M」とは、ペイント等により路面に設けられた規制や指示のための記号や文字である。例えば、進行方向等を表す矢印状の標示(矢印標示、図5参照)、速度(例えば最高速度)等の文字を表す文字標示(図6参照)、横断歩道であることを示す標示(図示せず)、区画線(中央線や車線境界線(レーンマーク)等)を表す標示(図示せず)等が、道路標示Mに含まれる。   As described above, in this embodiment, the road marking M provided with the direction parallel to the road extending direction ED as the reference direction SD is the target feature. Here, the “road marking M” is a symbol or character for regulation or instruction provided on the road surface by painting or the like. For example, an arrow-shaped sign indicating the traveling direction (arrow sign, see FIG. 5), a character sign representing characters such as speed (for example, maximum speed) (see FIG. 6), and a sign indicating a pedestrian crossing (not shown) ), Markings (not shown) indicating lane markings (center line, lane boundary line (lane mark), etc.) and the like are included in the road marking M.

そして、路面上に設けられた地物(本例では道路標示M)は、道路に対する向きが予め定められているため、画像認識により得られた輪郭情報が表す形状と向きとから、基準方位SDを導出することができる。なお、図5に示すような直線状の矢印標示では、矢印の指す方向が一般的に基準方位SDとされる。また、図6に示すような文字標示では、文字の下から上へ向かう向きが一般的に基準方位SDとされる。   Since the feature (road marking M in this example) provided on the road surface has a predetermined orientation with respect to the road, the reference orientation SD is derived from the shape and orientation represented by the contour information obtained by image recognition. Can be derived. In the linear arrow marking as shown in FIG. 5, the direction indicated by the arrow is generally the reference orientation SD. In the character marking as shown in FIG. 6, the direction from the bottom to the top of the character is generally set as the reference direction SD.

本発明で対象とする対象地物にはあらゆる形状のものが含まれるが、画像認識により対象地物の基準方位SDを検出することが容易な形状の地物を対象地物とするのが好ましい。具体的には、路面に直交する軸を中心とする180度未満の回転対称性を有さない形状の路面上の地物を対象地物とすると好適である。例えば、図5及び図6に示すように、路面に直交する軸(紙面に直交する軸)を中心とする回転対称性を有さない形状の地物や、図示は省略するが、路面に直交する軸を中心とする180度の回転対称性を有する形状(例えば、I字状)の地物を対象地物とすることができる。   The target features to be used in the present invention include objects of any shape, but it is preferable to use a feature having a shape that makes it easy to detect the reference orientation SD of the target feature by image recognition. . Specifically, it is preferable that a feature on a road surface having a rotational symmetry of less than 180 degrees around an axis orthogonal to the road surface is a target feature. For example, as shown in FIG. 5 and FIG. 6, a feature having a shape that does not have rotational symmetry about an axis orthogonal to the road surface (an axis orthogonal to the paper surface) or a shape that does not have a rotational symmetry is omitted, but is orthogonal to the road surface. A feature having a shape (for example, I-shape) having a rotational symmetry of 180 degrees around the axis to be processed can be set as the target feature.

また、道路の延在方位EDに対して平行な直線成分M1、及び道路の延在方位EDに対して直交する直線成分M2の少なくとも何れかを有する形状の路面上の地物を対象地物としても好適である。図5に例示する地物は、道路の延在方位EDに対して平行な直線成分M1、及び道路の延在方位EDに対して直交する直線成分M2の双方を有する形状を備えている。このような構成でも、画像認識により対象地物の基準方位SDを検出することが容易となる。   A feature on the road surface having at least one of a straight line component M1 parallel to the road extending direction ED and a straight line component M2 orthogonal to the road extending direction ED is set as a target feature. Is also suitable. The feature illustrated in FIG. 5 has a shape having both a linear component M1 parallel to the road extending direction ED and a linear component M2 orthogonal to the road extending direction ED. Even with such a configuration, it becomes easy to detect the reference orientation SD of the target feature by image recognition.

なお、図5に示す例では、形状に関する上述した双方の要件を満たす形状、すなわち、路面に直交する軸を中心とする180度未満の回転対称性を有さない形状であって、更に、道路の延在方位EDに対して平行な直線成分M1、及び道路の延在方位EDに対して直交する直線成分M2の少なくとも何れかを有する形状となっている。一方、図6に示す例では、形状に関する上述した双方の要件の一方のみを満たす形状、すなわち、路面に直交する軸を中心とする180度未満の回転対称性を有さない形状ではあるが、道路の延在方位EDに対して平行な直線成分M1や、道路の延在方位EDに対して直交する直線成分M2を有意には備えない形状となっている。なお、図示は省略するが、形状に関する上述した双方の要件の他方のみを満たす形状、すなわち、路面に直交する軸を中心とする180度未満(例えば90度や45度)の回転対称性を有する形状ではあるが、道路の延在方位EDに対して平行な直線成分M1、及び道路の延在方位EDに対して直交する直線成分M2の少なくとも何れかを有する形状の地物を対象地物とすることもできる。   In the example shown in FIG. 5, a shape that satisfies both of the above-described requirements regarding the shape, that is, a shape that does not have rotational symmetry of less than 180 degrees about an axis orthogonal to the road surface, The shape has at least one of a linear component M1 parallel to the extending direction ED and a linear component M2 orthogonal to the extending direction ED of the road. On the other hand, in the example shown in FIG. 6, it is a shape that satisfies only one of the above-described requirements regarding the shape, that is, a shape that does not have a rotational symmetry of less than 180 degrees around an axis orthogonal to the road surface. The shape does not significantly include a straight line component M1 parallel to the road extending direction ED and a straight line component M2 orthogonal to the road extending direction ED. Although not shown in the drawings, the shape satisfies only the other of the above-mentioned requirements regarding the shape, that is, has rotational symmetry of less than 180 degrees (for example, 90 degrees or 45 degrees) about an axis orthogonal to the road surface. Although it is a shape, a feature having a shape having at least one of a linear component M1 parallel to the road extending direction ED and a linear component M2 orthogonal to the road extending direction ED is defined as a target feature. You can also

ところで、本発明では、対象地物の情報(種別や配設位置等)が道路地図データベース12に備えられている必要性は必ずしもないが、道路地図データベース12に対象地物の情報が備えられている場合には、画像認識部43による対象地物の画像認識処理を実行する際に、当該対象地物の情報を参照する構成とすることができる。このような構成とした場合には、対象地物の画像認識及び相対方位RDの導出をより容易に行うことが可能となり、画像認識部43の構成の簡素化を図ることができる。   By the way, in the present invention, it is not always necessary that the information on the target feature (type, arrangement position, etc.) is provided in the road map database 12, but the information on the target feature is provided in the road map database 12. If the image recognition unit 43 executes image recognition processing of the target feature, the information on the target feature can be referred to. With such a configuration, it is possible to more easily perform image recognition of the target feature and derivation of the relative orientation RD, and the configuration of the image recognition unit 43 can be simplified.

3−5−2−2.基準方位特定部の構成
基準方位特定部44は、画像認識部43により認識された対象地物と自車両100との相対方位RD(すなわち、自車両の進行方位MDを基準とする相対方位での基準方位SD)と、自車両100の進行方位MDとに基づき、画像認識部43により認識された対象地物の基準方位SDを特定する機能部である。上記のように、基準方位特定部44には、画像認識部43が対象地物(本例では道路標示M)の画像認識に成功した場合に、当該対象地物の相対方位RDに関する情報が入力される。
3-5-2-2. Configuration of reference azimuth specifying unit The reference azimuth specifying unit 44 is a relative azimuth RD between the target feature recognized by the image recognition unit 43 and the host vehicle 100 (that is, a relative azimuth based on the traveling direction MD of the host vehicle). This is a functional unit that specifies the reference direction SD of the target feature recognized by the image recognition unit 43 based on the reference direction SD) and the traveling direction MD of the host vehicle 100. As described above, when the image recognition unit 43 succeeds in image recognition of the target feature (in this example, the road sign M), information on the relative direction RD of the target feature is input to the reference orientation specifying unit 44. Is done.

基準方位特定部44は、対象地物の相対方位RDを取得した場合には、車両100の進行方位MDを進行方位取得部32から取得する。本実施形態では、基準方位特定部44は、対象地物を含む撮影画像の撮影時又は路面画像取得部33による当該撮影画像の取得時における車両100の進行方位MDを取得する。そして、基準方位特定部44は、相対方位RDの符号(方向)を考慮して進行方位MDと相対方位RDとを加算或いは減算することで、対象地物の基準方位SDを特定する。すなわち、ここで特定される基準方位SDは、進行方位MDと同じ座標系での方位となる。そして、特定された基準方位SDは、地物方位一致位置検出部45へ出力される。なお、上述したように、進行方位取得部32が取得する車両100の進行方位MDは、絶対方位での進行方位MDであるため、基準方位特定部44にて特定される対象地物の基準方位SDも、絶対方位での基準方位SDとなる。すなわち、基準方位特定部44は、進行方位MDを基準とする相対方位での基準方位SDを、絶対方位での基準方位SDに変換する。これにより、基準方位SDを、同じく絶対方位で表された道路情報RIから得られる道路の延在方位EDと比較することが可能となる。   When the relative orientation RD of the target feature is acquired, the reference orientation specifying unit 44 acquires the traveling direction MD of the vehicle 100 from the traveling direction acquisition unit 32. In the present embodiment, the reference orientation specifying unit 44 acquires the traveling direction MD of the vehicle 100 when capturing a captured image including the target feature or when acquiring the captured image by the road surface image acquiring unit 33. Then, the reference orientation specifying unit 44 specifies the reference orientation SD of the target feature by adding or subtracting the traveling orientation MD and the relative orientation RD in consideration of the sign (direction) of the relative orientation RD. That is, the reference orientation SD specified here is an orientation in the same coordinate system as the traveling orientation MD. Then, the identified reference orientation SD is output to the feature orientation matching position detection unit 45. As described above, since the traveling direction MD of the vehicle 100 acquired by the traveling direction acquisition unit 32 is the traveling direction MD in the absolute direction, the reference direction of the target feature specified by the reference direction specifying unit 44 SD is also a reference orientation SD in absolute orientation. That is, the reference azimuth specifying unit 44 converts the reference azimuth SD in the relative azimuth based on the traveling azimuth MD into the reference azimuth SD in the absolute azimuth. Thereby, it becomes possible to compare the reference azimuth SD with the extended azimuth ED of the road obtained from the road information RI also expressed in the absolute azimuth.

ところで、基準方位SDは、対象地物が設けられた地点における道路の延在方位EDと一致する。すなわち、本発明によれば、例えば車線変更等により自車両100の進行方位MDが道路の延在方位EDとは異なるような場合であっても、対象地物(本例では道路標示M)の基準方位SDを特定することで、車両100が位置する付近での道路の延在方位EDを特定することが可能となっている。   By the way, the reference azimuth SD matches the extended azimuth ED of the road at the point where the target feature is provided. That is, according to the present invention, even if the traveling direction MD of the host vehicle 100 is different from the extended direction ED of the road due to, for example, a lane change, the target feature (the road marking M in this example) By specifying the reference direction SD, it is possible to specify the road extending direction ED in the vicinity where the vehicle 100 is located.

3−5−2−3.地物方位一致位置検出部の構成
地物方位一致位置検出部45は、推定自車位置EPの周辺の道路情報RIに基づき、基準方位SDと延在方位EDが一致する道路上の位置である地物方位一致位置P0を検出する機能部である。上記のように、地物方位一致位置検出部45には、基準方位特定部44が特定した基準方位SDの情報が入力される。そして、地物方位一致位置検出部45は、基準方位SDを取得すると、当該基準方位SDと推定自車位置EPの周辺の道路情報RIとに基づき、地物方位一致位置P0を導出する。なお、これまでに述べたように、この基準方位SDは、当該対象地物が設けられた地点における道路の延在方位EDと一致する。
3-5-2-3. Configuration of Feature Direction Matching Position Detection Unit The feature direction matching position detection unit 45 is a position on the road where the reference direction SD and the extension direction ED match based on the road information RI around the estimated vehicle position EP. This is a functional unit that detects the feature orientation matching position P0. As described above, the information on the reference direction SD specified by the reference direction specifying unit 44 is input to the feature direction matching position detection unit 45. Then, when the feature azimuth coincidence position detection unit 45 acquires the reference azimuth SD, the feature azimuth coincidence position P0 is derived based on the reference azimuth SD and the road information RI around the estimated vehicle position EP. As described above, this reference direction SD coincides with the road extending direction ED at the point where the target feature is provided.

具体的には、地物方位一致位置検出部45は、基準方位特定部44より基準方位SDが入力されると、推定自車位置取得部31が取得した推定自車位置EPの周辺の道路情報RIを、道路情報取得部34を介して道路地図データベース12から取得する。本実施形態では、地物方位一致位置検出部45は、対象地物を含む撮影画像の撮影時又は路面画像取得部33による当該撮影画像の取得時における推定自車位置EPの周辺の道路情報RIを取得する。なお、取得する道路情報RIの範囲は、例えば、推定自車位置EPに含まれ得る誤差の最大値に基づき設定することができる。具体的には、取得する道路情報RIの範囲を、推定自車位置EPを中心とし、半径が上記誤差の最大値に一致する円形状領域の内側とすることができる。   Specifically, the feature direction matching position detection unit 45 receives road information about the estimated vehicle position EP acquired by the estimated vehicle position acquisition unit 31 when the reference direction SD is input from the reference direction specifying unit 44. The RI is acquired from the road map database 12 via the road information acquisition unit 34. In the present embodiment, the feature direction coincidence position detection unit 45 is the road information RI around the estimated vehicle position EP at the time of shooting a shot image including the target feature or when the road surface image acquisition unit 33 acquires the shot image. To get. The range of road information RI to be acquired can be set based on the maximum value of errors that can be included in the estimated host vehicle position EP, for example. Specifically, the range of the road information RI to be acquired can be set inside the circular area whose center is the estimated own vehicle position EP and whose radius matches the maximum value of the error.

また、本実施形態では、上記のように、推定自車位置EPが環状道路51を有する交差点である環状交差点5内にある場合に、地物利用自車位置補正部42による推定自車位置EPの補正を行うように構成されている。よって、取得する道路情報RIの範囲を、環状交差点5を構成する環状道路51の全体や一部を含む範囲とすることもできる。この場合の「一部」としては、例えば、自車位置を中心として両側に均等な長さ(距離)の道路が含まれるような環状道路51の部分(例えば、半円弧状の部分)とすることができる。   Further, in the present embodiment, as described above, when the estimated own vehicle position EP is within the circular intersection 5 that is the intersection having the ring road 51, the estimated own vehicle position EP by the feature-use own vehicle position correcting unit 42 is used. It is comprised so that correction | amendment may be performed. Therefore, the range of the road information RI to be acquired can be a range including the whole or a part of the ring road 51 constituting the roundabout 5. The “part” in this case is, for example, a part of the annular road 51 (for example, a semicircular arc part) in which roads of equal length (distance) are included on both sides centering on the own vehicle position. be able to.

地物方位一致位置検出部45は、取得した道路情報RIに含まれる道路の延在方位EDを特定する。本実施形態では、上記のように、道路情報RIは、各道路に対応するリンクK(図4参照)の情報を有しており、地物方位一致位置検出部45は、当該リンクKの方位に基づき道路の延在方位EDを特定する。そして、地物方位一致位置検出部45は、基準方位SDと延在方位EDが一致する道路上(道路地図データ上)の位置を検出して、当該位置を地物方位一致位置P0とする。なお、地物方位一致位置検出部45が基準方位SDと延在方位EDが一致する道路上(道路地図データ上)の位置を検出できなかった場合には、今回の撮影画像に基づく推定自車位置EPの補正は行われない。   The feature azimuth coincidence position detection unit 45 specifies the extended azimuth ED of the road included in the acquired road information RI. In the present embodiment, as described above, the road information RI includes information on the link K (see FIG. 4) corresponding to each road, and the feature direction matching position detection unit 45 determines the direction of the link K. Based on the above, the road extending direction ED is specified. Then, the feature orientation matching position detection unit 45 detects the position on the road (on the road map data) where the reference orientation SD and the extended orientation ED match, and sets the position as the feature orientation matching position P0. If the feature direction matching position detection unit 45 cannot detect the position on the road (on the road map data) where the reference direction SD and the extended direction ED match, the estimated own vehicle based on the current captured image The position EP is not corrected.

なお、リンクKが表す道路が一方通行の道路(例えば、図3に示す環状道路51)である場合には、リンク情報(リンク属性)に道路の進行方向に関する情報が含まれる場合がある。このような場合、地物方位一致位置検出部45が、取得した道路情報RIに含まれる道路の延在方位EDをベクトルで取得し、方向も考慮して基準方位SDと延在方位EDが一致する道路上(道路地図データ上)の位置を検出する構成とすると好適である。   When the road represented by the link K is a one-way road (for example, the ring road 51 shown in FIG. 3), the link information (link attribute) may include information on the traveling direction of the road. In such a case, the feature azimuth coincidence position detecting unit 45 obtains the road extending azimuth ED included in the acquired road information RI as a vector, and the reference azimuth SD and the extending azimuth ED coincide with each other in consideration of the direction. It is preferable that the position on the road to be detected (on the road map data) is detected.

ところで、本実施形態では、図4に示すように、リンクKの形状が、道路の延在方位EDに沿って隣接する2つのノードNや形状補間点Sの間を直線的に連結するものとされている。そのため、図3に示す環状道路51のように道路の延在方位EDが連続的に変化する場合でも、図4に示すようにリンクKの形状は段階的に変化する。このような場合、地物方位一致位置検出部45が道路情報RIから取得する道路の延在方位EDも、段階的に変化するものとなる。   By the way, in this embodiment, as shown in FIG. 4, the shape of the link K linearly connects between two adjacent nodes N and the shape interpolation point S along the road extending direction ED. Has been. Therefore, even when the road extending direction ED changes continuously as in the ring road 51 shown in FIG. 3, the shape of the link K changes stepwise as shown in FIG. In such a case, the road extending direction ED acquired by the feature direction matching position detection unit 45 from the road information RI also changes stepwise.

上記のような道路の延在方位EDの導出方法に鑑みて、本実施形態では、地物方位一致位置検出部45は、地物方位一致位置P0を検出する際に、基準方位SDと道路の延在方位EDとが完全に一致しない場合であっても、当該2つの方位の間のずれが所定の範囲内である場合には、基準方位SDと道路の延在方位EDとが一致すると判定するように構成されている。なお、基準方位SDとのずれが所定の範囲内の延在方位EDを有する道路上の位置(地点)が複数ある場合には、当該ずれが最も小さい位置(地点)を選択する構成とすることができる。この際、推定自車位置EPとの間の距離も考慮し、当該距離が短いものの優先度を高くすることもできる。   In view of the method for deriving the road extending direction ED as described above, in the present embodiment, the feature direction coincidence position detection unit 45 detects the feature direction coincidence position P0 and the reference direction SD and the road Even if the extended direction ED does not completely match, if the deviation between the two directions is within a predetermined range, it is determined that the reference direction SD and the extended direction ED of the road match. Is configured to do. In addition, when there are a plurality of positions (points) on the road having the extended azimuth ED within a predetermined range, the position (point) with the smallest deviation is selected. Can do. At this time, the distance from the estimated vehicle position EP is also taken into consideration, and the priority can be increased even if the distance is short.

ところで、上記のようにして求められる地物方位一致位置P0は、道路の延在方位EDに沿って隣接する2つのノードNや形状補間点Sの間を連結する直線(すなわちリンクKの全部或いは一部)上の位置まで特定されたものではない。地物方位一致位置P0をさらに特定する場合には、当該直線(線分)の中点を地物方位一致位置P0とすることができる。また、前回求めた推定自車位置EPからリンクKに沿って、前回推定自車位置EPを求めた時点から現在までの車両100の移動距離だけ移動させた位置が当該直線上にある場合には、当該位置を地物方位一致位置P0とすることができる。或いは、基準方位SDと道路の延在方位EDとの一致度に応じて、完全に一致する場合に当該直線の中点を地物方位一致位置P0とし、ずれがある場合には、一致度の低下度合に応じて当該直線の中点から当該直線の端に向かって移動させた地点を地物方位一致位置P0とする構成とすることもできる。   By the way, the feature azimuth coincidence position P0 obtained as described above is a straight line (that is, the whole of the link K or the link K) between two adjacent nodes N and the shape interpolation point S along the road extending direction ED. (Part) It was not specified to the upper position. When the feature direction matching position P0 is further specified, the midpoint of the straight line (line segment) can be set as the feature direction matching position P0. Further, when the position moved from the estimated vehicle position EP obtained last time along the link K by the movement distance of the vehicle 100 from the time when the last estimated vehicle position EP was obtained to the present is on the straight line. The position can be set as the feature direction coincidence position P0. Alternatively, according to the degree of coincidence between the reference direction SD and the road extending direction ED, the midpoint of the straight line is set as the feature direction coincidence position P0 when there is a perfect coincidence, and when there is a deviation, the degree of coincidence is A point moved from the midpoint of the straight line toward the end of the straight line according to the degree of decrease may be set as the feature direction matching position P0.

なお、道路情報RIに道路の曲率に関する情報が含まれている場合には、道路の延在方位EDに沿って隣接する2つのノードNや形状補間点Sの間を結ぶ曲線を当該曲率に基づき想定し、当該曲線の接線方向を道路の延在方位EDとすることで、道路情報RIから取得する道路の延在方位EDを連続的に変化するものとすることができる。道路の曲率に関する情報としては、対象の道路が環状交差点5である場合には、当該環状交差点5の径に関する情報とすることができる。そして、このような場合には、方位のずれに関する上記所定の範囲を小さくすることができ、例えば、上記所定の範囲を一点として、基準方位SDと道路の延在方位EDとが完全に一致する場合に、基準方位SDと道路の延在方位EDとが一致すると判定するように構成することもできる。   When the road information RI includes information on the curvature of the road, a curve connecting two adjacent nodes N and shape interpolation points S along the road extending direction ED is based on the curvature. Assuming that the tangential direction of the curve is the road extending direction ED, the road extending direction ED acquired from the road information RI can be continuously changed. Information regarding the curvature of the road can be information regarding the diameter of the circular intersection 5 when the target road is the circular intersection 5. In such a case, the predetermined range related to the azimuth deviation can be reduced. For example, the reference direction SD and the road extending direction ED completely coincide with each other with the predetermined range as one point. In this case, it may be configured that it is determined that the reference direction SD and the road extending direction ED match.

具体的には、例えば、対象の道路が一定の曲率で湾曲する道路である場合に、道路情報RIが当該対象の道路についての曲率半径及び曲率中心(湾曲に沿う仮想円の中心)の情報を備えていれば、これらの曲率半径及び曲率中心から定まる曲線(円弧)の接線方向を道路の延在方位EDとすることができる。また、例えば、対象の道路が一定の曲率で湾曲する道路である場合に、道路情報RIが当該対象の道路についての曲率及び距離(道路の長さ)の情報を備えていれば、これらの曲率及び距離から定まる曲線(円弧)の接線方向を道路の延在方位EDとすることができる。なお、このような場合には、道路情報RIが少なくとも対象の道路について、ノードNやリンクKに関する情報を備えない構成とすることも可能である。   Specifically, for example, when the target road is a road that curves with a certain curvature, the road information RI includes information on the radius of curvature and the center of curvature (the center of the virtual circle along the curve) for the target road. If provided, the tangential direction of the curve (arc) determined from the radius of curvature and the center of curvature can be set as the road extending direction ED. Further, for example, when the target road is a curved road with a certain curvature, if the road information RI includes information on the curvature and distance (the length of the road) about the target road, these curvatures The tangential direction of the curve (arc) determined from the distance can be set as the road extending direction ED. In such a case, the road information RI may be configured not to include information on the node N and the link K for at least the target road.

そして、地物方位一致位置検出部45が検出した地物方位一致位置P0に基づき、地物利用自車位置補正部42は、推定自車位置取得部31が取得した推定自車位置EPを補正する。本実施形態では、地物方位一致位置検出部45は、地物方位一致位置P0を推定自車位置EPと置き換えることで、推定自車位置EPの補正を行う。これにより、例えば車線変更等により自車両100の進行方位MDが道路の延在方位EDとは異なるような場合であっても、対象地物(本例では道路標示M)の基準方位SDを特定することで車両100が位置する付近での道路の延在方位EDを特定して、当該延在方位EDに基づき推定自車位置EPを適切に補正することが可能となっている。   Then, based on the feature direction coincidence position P0 detected by the feature direction coincidence position detection unit 45, the feature using own vehicle position correction unit 42 corrects the estimated own vehicle position EP acquired by the estimated own vehicle position acquisition unit 31. To do. In the present embodiment, the feature direction matching position detection unit 45 corrects the estimated own vehicle position EP by replacing the feature direction matching position P0 with the estimated own vehicle position EP. Thereby, for example, even when the traveling direction MD of the host vehicle 100 is different from the road extending direction ED due to a lane change or the like, the reference direction SD of the target feature (the road marking M in this example) is specified. By doing so, it is possible to identify the extension ED of the road in the vicinity where the vehicle 100 is located, and to appropriately correct the estimated own vehicle position EP based on the extension ED.

なお、図3に示す例では、環状交差点5が備える環状道路51は円形となっているが、環状道路51には円形以外のもの(楕円形等)も含まれる。また、環状道路51は、全体として環状に形成されているあらゆる形状の道路を含み、例えば多角形状に形成された道路も環状道路51に含まれる。また、図3に示す例では、環状道路51は一方通行の道路であるが、環状道路51が対面通行が可能な道路であっても良い。   In the example shown in FIG. 3, the circular road 51 included in the circular intersection 5 is circular. However, the circular road 51 includes objects other than circular (such as an oval). Further, the ring road 51 includes roads of all shapes formed in a ring shape as a whole. For example, roads formed in a polygonal shape are also included in the ring road 51. In the example shown in FIG. 3, the ring road 51 is a one-way road, but the ring road 51 may be a road that allows two-way traffic.

4.動作処理の手順
次に、図7、図8を参照して、本実施形態に係る自車位置認識ユニット3において実行される推定自車位置補正処理(自車位置認識処理)の手順、すなわち推定自車位置補正方法(自車位置認識方法)について説明する。以下に説明する推定自車位置補正処理の手順は、上記のナビゲーション装置1(自車位置認識ユニット3)の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、ナビゲーション装置1が有する演算処理装置が、上記の各機能部を構成するプログラムを実行するコンピュータとして動作する。なお、図8は、図7のステップ#12の地物利用自車位置補正処理の手順を示すフローチャートである。
4). Next, referring to FIG. 7 and FIG. 8, a procedure of estimated vehicle position correction processing (vehicle position recognition processing) executed in the vehicle position recognition unit 3 according to the present embodiment, that is, estimation. The own vehicle position correction method (own vehicle position recognition method) will be described. The procedure of the estimated vehicle position correction process described below is executed by hardware and / or software (program) or both constituting each functional unit of the navigation device 1 (vehicle position recognition unit 3). When each of the above function units is configured by a program, the arithmetic processing device included in the navigation device 1 operates as a computer that executes the program that configures each of the above function units. FIG. 8 is a flowchart showing the procedure of the feature-use vehicle position correction process in step # 12 of FIG.

4−1.推定自車位置補正処理の全体の手順
図7に示すように、推定自車位置取得部31が推定自車位置EPを取得すると(ステップ#10)、当該推定自車位置EPが環状交差点5内にあるか否かが判定される(ステップ#11)。そして、推定自車位置EPが環状交差点5内にある場合には(ステップ#11:Yes)、地物利用自車位置補正部42による地物利用自車位置補正処理が実行される(ステップ#12)。なお、地物利用自車位置補正処理については、後に図8のフローチャートに基づいて詳細に説明する。
4-1. Overall Procedure of Estimated Vehicle Position Correction Process As shown in FIG. 7, when the estimated vehicle position acquisition unit 31 acquires the estimated vehicle position EP (step # 10), the estimated vehicle position EP is within the roundabout 5 Is determined (step # 11). When the estimated own vehicle position EP is within the roundabout 5 (step # 11: Yes), the feature using own vehicle position correcting process is executed by the feature using own vehicle position correcting unit 42 (step #). 12). Note that the feature-use vehicle position correction process will be described in detail later based on the flowchart of FIG.

一方、推定自車位置EPが環状交差点5内にない場合には(ステップ#11:No)、通常自車位置補正部41による通常自車位置補正処理が実行される(ステップ#13)。この通常自車位置補正処理では、道路情報取得部34が取得した推定自車位置EPの周辺の道路情報RIに含まれる道路の延在方位EDと自車両100の進行方位MDとに基づき、公知のマップマッチング法に基づき推定自車位置EPの補正が行われる。   On the other hand, when the estimated own vehicle position EP is not within the roundabout 5 (step # 11: No), the normal own vehicle position correcting process by the normal own vehicle position correcting unit 41 is executed (step # 13). In this normal vehicle position correction process, a publicly known vehicle position correction unit 34 is known based on the road extending direction ED and the traveling direction MD of the vehicle 100 included in the road information RI around the estimated vehicle position EP acquired by the road information acquisition unit 34. The estimated vehicle position EP is corrected based on the map matching method.

4−2.地物利用自車位置補正処理の手順
次に、図8を参照して地物利用自車位置補正処理の手順について説明する。地物利用自車位置補正処理では、まず初めに、路面画像取得部33により路面の撮影画像が取得される(ステップ#20)。そして、この取得された撮影画像に対して、画像認識部43が対象地物(本例では道路標示M)の画像認識処理を行う(ステップ#21)。この画像認識処理の結果、対象地物の画像認識に成功しなかった場合には(ステップ#22:No)、処理は終了する。
4-2. Procedure of feature-use vehicle position correction processing Next, a procedure of feature-use vehicle position correction processing will be described with reference to FIG. In the feature-use vehicle position correction process, first, a road surface photographed image is acquired by the road surface image acquisition unit 33 (step # 20). Then, the image recognition unit 43 performs image recognition processing of the target feature (in this example, road marking M) on the acquired captured image (step # 21). As a result of this image recognition process, when the image recognition of the target feature has not succeeded (step # 22: No), the process ends.

一方、対象地物の画像認識に成功した場合には(ステップ#22:Yes)、画像認識部43は、認識された当該対象地物と自車両100との相対方位RDを導出する(ステップ#23)。次に、進行方位取得部32が車両100の進行方位MDを取得する(ステップ#24)。そして、基準方位特定部44は、画像認識部43が導出した相対方位RDと、進行方位取得部32が取得した車両100の進行方位MDとに基づき、画像認識部43により認識された対象地物の基準方位SDを特定する(ステップ#25)。   On the other hand, when the image recognition of the target feature is successful (step # 22: Yes), the image recognition unit 43 derives the relative orientation RD between the recognized target feature and the host vehicle 100 (step #). 23). Next, the traveling direction acquisition unit 32 acquires the traveling direction MD of the vehicle 100 (step # 24). The reference azimuth specifying unit 44 then recognizes the target feature recognized by the image recognition unit 43 based on the relative azimuth RD derived by the image recognition unit 43 and the traveling direction MD of the vehicle 100 acquired by the traveling direction acquisition unit 32. Is determined (step # 25).

基準方位SDが特定されると、地物方位一致位置検出部45は、推定自車位置EPの周辺の道路情報RIを道路情報取得部34を介して道路地図データベース12から取得する(ステップ#26)。そして、地物方位一致位置検出部45は、基準方位SDと延在方位EDが一致する位置が、取得した道路情報RIに含まれる道路上にあるか否かを判定する(ステップ#27)。そして、基準方位SDと延在方位EDが一致する位置があった場合には(ステップ#27:Yes)、当該位置を地物方位一致位置P0として特定(検出)する(ステップ#28)。地物利用自車位置補正部42は、この地物方位一致位置P0に基づき、推定自車位置EPを補正する(ステップ#29)。なお、本例では、地物方位一致位置P0を推定自車位置EPと置き換えることで、推定自車位置EPの補正を行う。   When the reference orientation SD is specified, the feature orientation matching position detection unit 45 acquires the road information RI around the estimated vehicle position EP from the road map database 12 via the road information acquisition unit 34 (step # 26). ). Then, the feature direction matching position detection unit 45 determines whether or not the position where the reference direction SD and the extension direction ED match is on the road included in the acquired road information RI (step # 27). If there is a position where the reference direction SD and the extended direction ED match (step # 27: Yes), the position is specified (detected) as the feature direction matching position P0 (step # 28). The feature using own vehicle position correcting unit 42 corrects the estimated own vehicle position EP based on the feature direction matching position P0 (step # 29). In this example, the estimated vehicle position EP is corrected by replacing the feature direction matching position P0 with the estimated vehicle position EP.

一方、ステップ#27において基準方位SDと延在方位EDが一致する位置がなかった場合には(ステップ#27:No)、処理は終了する。   On the other hand, if there is no position where the reference azimuth SD and the extended azimuth ED coincide in step # 27 (step # 27: No), the process ends.

5.その他の実施形態
最後に、本発明に係るその他の実施形態を説明する。なお、以下の各々の実施形態で開示される特徴は、その実施形態でのみ利用できるものではなく、矛盾が生じない限り、別の実施形態にも適用可能である。
5. Other Embodiments Finally, other embodiments according to the present invention will be described. Note that the features disclosed in each of the following embodiments can be used only in that embodiment, and can be applied to other embodiments as long as no contradiction arises.

(1)上記の実施形態では、地物方位一致位置検出部45が、地物方位一致位置P0を推定自車位置EPと置き換えることで、推定自車位置EPの補正を行う構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、画像認識部43により認識された対象地物と自車両100との距離にも基づいて、すなわち、地物方位一致位置P0と、画像認識部43により認識された対象地物と自車両100との距離と、に基づいて推定自車位置EPを補正する構成とすることもできる。ここで、画像認識部43により認識された対象地物と自車両100との距離は、路面の撮影画像の撮影時の自車両100と対象地物との距離、及び、撮影時から補正処理完了までの自車両100の走行距離の少なくとも一方を含むものとすることができる。なお、路面の撮影画像の撮影時の自車両100と対象地物との距離は、撮影画像中における対象地物の位置、カメラ16の方位や車載位置等から算出することができる。また、撮影時から補正処理完了までの自車両100の走行距離は、距離センサ14等で取得することができる。 (1) In the above embodiment, the configuration in which the feature direction matching position detection unit 45 corrects the estimated own vehicle position EP by replacing the feature direction matching position P0 with the estimated own vehicle position EP will be described as an example. did. However, the embodiment of the present invention is not limited to this, and based on the distance between the target feature recognized by the image recognition unit 43 and the host vehicle 100, that is, the feature orientation matching position P0, A configuration may be adopted in which the estimated host vehicle position EP is corrected based on the distance between the target feature recognized by the image recognition unit 43 and the host vehicle 100. Here, the distance between the target feature recognized by the image recognition unit 43 and the subject vehicle 100 is the distance between the subject vehicle 100 and the subject feature at the time of photographing the road surface photographed image, and the correction processing is completed from the time of photographing. It is possible to include at least one of the travel distances of the host vehicle 100 up to. Note that the distance between the subject vehicle 100 and the target feature at the time of shooting the shot image of the road surface can be calculated from the position of the target feature in the shot image, the azimuth of the camera 16, the in-vehicle position, and the like. Further, the travel distance of the host vehicle 100 from the time of shooting to the completion of the correction process can be acquired by the distance sensor 14 or the like.

(2)上記の実施形態では、画像認識部43が相対方位RDを導出し、当該導出された相対方位RDと進行方位MDとに基づき基準方位特定部44が基準方位SDを特定する構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、相対方位RDを直接的に導出することなく画像認識結果から直接、基準方位SDを特定する構成とすることもできる。このような構成では、例えば、画像認識部43に進行方位MDの情報が入力され、画像認識部43が、当該進行方位MDの情報と画像認識結果とから直接、基準方位SDを特定する構成とすることができる。すなわち、本発明における「画像認識部43により認識された対象地物と自車両100との相対方位RDと、自車両100の進行方位MDとに基づき、対象地物の基準方位SDを特定する」とは、相対方位RDを直接的に導出する構成だけでなく、相対方位RDを直接的には導出せず、基準方位SDを特定する過程で相対方位RDを概念的に利用する構成を含む。 (2) In the above embodiment, the image recognition unit 43 derives the relative orientation RD, and the reference orientation identification unit 44 identifies the reference orientation SD based on the derived relative orientation RD and the traveling orientation MD. As explained. However, the embodiment of the present invention is not limited to this, and a configuration in which the reference orientation SD is specified directly from the image recognition result without directly deriving the relative orientation RD can be adopted. In such a configuration, for example, the information of the traveling direction MD is input to the image recognition unit 43, and the image recognition unit 43 directly specifies the reference direction SD from the information of the traveling direction MD and the image recognition result. can do. That is, in the present invention, “the reference direction SD of the target feature is specified based on the relative direction RD between the target feature recognized by the image recognition unit 43 and the host vehicle 100 and the traveling direction MD of the host vehicle 100”. Includes not only a configuration in which the relative orientation RD is directly derived but also a configuration in which the relative orientation RD is conceptually used in the process of specifying the reference orientation SD without directly deriving the relative orientation RD.

(3)上記の実施形態では、推定自車位置補正部40が、推定自車位置EPが環状交差点5内にある場合に、地物利用自車位置補正部42による推定自車位置EPの補正を行い、それ以外の場合には、通常自車位置補正部41による推定自車位置EPの補正を行う構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、推定自車位置補正部40が、推定自車位置EPが環状交差点5内にない場合にも、地物利用自車位置補正部42による推定自車位置EPの補正を行う構成とすることも可能である。例えば、所定の曲率半径以下の道路(交差点を含む)や、所定の数(例えば、2,3,4等)以上の車線(レーン)を備える道路においても、地物利用自車位置補正部42による推定自車位置EPの補正を行う構成とすることができる。 (3) In the above embodiment, when the estimated vehicle position correction unit 40 is in the roundabout 5, the estimated vehicle position EP is corrected by the feature-use vehicle position correction unit 42. In other cases, the configuration in which the normal vehicle position correction unit 41 corrects the estimated vehicle position EP has been described as an example. However, the embodiment of the present invention is not limited to this, and the estimated vehicle position correction unit 40 also uses the feature-based vehicle position correction unit even when the estimated vehicle position EP is not within the roundabout 5. It is also possible to adopt a configuration in which the estimated own vehicle position EP by 42 is corrected. For example, the feature-use vehicle position correction unit 42 is also used on roads (including intersections) having a predetermined radius of curvature or less and roads having a predetermined number (for example, 2, 3, 4, etc.) or more lanes (lanes). The estimated vehicle position EP can be corrected by the above.

(4)上記の実施形態では、推定自車位置補正部40が、推定自車位置EPが環状交差点5内にある場合に、地物利用自車位置補正部42による推定自車位置EPの補正を行う構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、推定自車位置補正部40が、推定自車位置EPが環状交差点5内にある場合に、通常自車位置補正部41による推定自車位置EPの補正を行う構成とすることも可能である。また、環状交差点5を環状道路51の外径と内径との差(すなわち、環状道路51の幅)、環状道路51の曲率、或いは環状道路51に接続される接続道路52の個数等により環状交差点5を2つのグループに分類し、推定自車位置EPが一方のグループに属する環状交差点5内にある場合には、地物利用自車位置補正部42による推定自車位置EPの補正を行い、推定自車位置EPが他方のグループに属する環状交差点5内にある場合には、通常自車位置補正部41による推定自車位置EPの補正を行う構成とすることもできる。 (4) In the above embodiment, the estimated vehicle position correction unit 40 corrects the estimated vehicle position EP by the feature-use vehicle position correction unit 42 when the estimated vehicle position EP is within the roundabout 5. The configuration for performing the above has been described as an example. However, the embodiment of the present invention is not limited to this, and when the estimated own vehicle position correcting unit 40 has the estimated own vehicle position EP within the roundabout 5, estimation by the normal own vehicle position correcting unit 41 is performed. It is also possible to adopt a configuration for correcting the own vehicle position EP. Further, the circular intersection 5 is determined by the difference between the outer diameter and the inner diameter of the circular road 51 (that is, the width of the circular road 51), the curvature of the circular road 51, the number of connecting roads 52 connected to the circular road 51, and the like. 5 is classified into two groups, and when the estimated own vehicle position EP is within the roundabout 5 belonging to one group, the estimated own vehicle position EP is corrected by the feature-use own vehicle position correcting unit 42; When the estimated own vehicle position EP is within the roundabout 5 belonging to the other group, the normal own vehicle position correcting unit 41 may correct the estimated own vehicle position EP.

(5)上記の実施形態では、対象地物となる路面上の地物が道路標示Mである構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、道路の延在方位EDに平行な方位を基準方位SDとして設けられた道路標示M以外の路面上の地物を対象地物とすることも可能である。例えば、縁石や側溝等のような路面上に設けられた構造物を対象地物とすることが可能である。 (5) In the above-described embodiment, the configuration in which the feature on the road surface that is the target feature is the road marking M has been described as an example. However, the embodiment of the present invention is not limited to this, and the features on the road surface other than the road marking M provided with the azimuth parallel to the extended azimuth ED of the road as the reference azimuth SD are the target features. It is also possible to do. For example, a structure provided on a road surface such as a curb or a gutter can be used as the target feature.

(6)上記の実施形態では、カメラ16が、車両100の後方の路面を撮影するバックカメラである構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、カメラ16を、車両100の前方の路面を撮影するフロントカメラとすることもできる。また、カメラ16を、車両100に対して前方側の斜め方向や後方側の斜め方向、或いは車両100の側方の路面を撮影するカメラとすることも可能である。 (6) In the above embodiment, the configuration in which the camera 16 is a back camera that captures the road surface behind the vehicle 100 has been described as an example. However, the embodiment of the present invention is not limited to this, and the camera 16 may be a front camera that photographs a road surface in front of the vehicle 100. In addition, the camera 16 may be a camera that captures an oblique direction on the front side, an oblique direction on the rear side with respect to the vehicle 100, or a road surface on the side of the vehicle 100.

(7)上記の実施形態では、リンクKの情報(リンク属性)に、当該リンクKが環状交差点5を形成する環状交差点リンクであるか否かの情報が含まれている構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、ノードNの情報(ノード属性)として、当該ノードNが環状交差点5を形成する環状交差点ノードであるか否かの情報が含まれている構成とすることができる。このような構成では、推定自車位置EPが環状交差点ノード或いは当該環状交差点ノード近傍の座標範囲内に到達したか否かに基づき、推定自車位置EPが環状交差点5内にあるか否かを判定する構成とすることができる。 (7) In the above embodiment, the configuration in which the link K information (link attribute) includes information on whether or not the link K is a circular intersection link forming the circular intersection 5 has been described as an example. . However, the embodiment of the present invention is not limited to this, and information on whether or not the node N is a circular intersection node forming the circular intersection 5 is included as information (node attribute) of the node N. It can be set as the structure which has. In such a configuration, it is determined whether or not the estimated vehicle position EP is within the roundabout 5 based on whether or not the estimated vehicle position EP has reached the roundabout node or the coordinate range near the roundabout node. It can be set as the structure determined.

(8)上記の実施形態において説明した機能部の割り当ては単なる一例であり、複数の機能部を組み合わせたり、1つの機能部をさらに区分けしたりすることも可能である。 (8) The assignment of the function units described in the above embodiment is merely an example, and a plurality of function units can be combined or one function unit can be further divided.

(9)上記の実施形態では、本発明に係る自車位置認識システムを、ナビゲーション装置1に適用した場合を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、本発明に係る自車位置認識システムを、車両100に備えられるナビゲーション装置以外の装置(走行制御装置等)に適用することも可能である。 (9) In the above embodiment, the case where the vehicle position recognition system according to the present invention is applied to the navigation device 1 has been described as an example. However, the embodiment of the present invention is not limited to this, and the vehicle position recognition system according to the present invention can also be applied to devices other than the navigation device provided in the vehicle 100 (such as a travel control device). It is.

(10)上記の実施形態では、自車位置認識ユニット3や道路地図データベース12が車両100に備えられる構成を例として説明したが、自車位置認識ユニット3の少なくとも一部の機能部や道路地図データベース12が、車両100の外部に設けられ、インターネット等の通信ネットワークを介して情報や信号の送受信が行われる構成とすることもできる。 (10) In the above embodiment, the configuration in which the vehicle position recognition unit 3 and the road map database 12 are provided in the vehicle 100 has been described as an example. However, at least a part of the functional units and road map of the vehicle position recognition unit 3 are described. The database 12 may be provided outside the vehicle 100 so that information and signals are transmitted and received via a communication network such as the Internet.

(11)その他の構成に関しても、本明細書において開示された実施形態は全ての点で例示であって、本発明の実施形態はこれに限定されない。すなわち、本願の特許請求の範囲に記載された構成及びこれと均等な構成を備えている限り、特許請求の範囲に記載されていない構成の一部を適宜改変した構成も、当然に本発明の技術的範囲に属する。 (11) Regarding other configurations as well, the embodiments disclosed herein are illustrative in all respects, and embodiments of the present invention are not limited thereto. That is, as long as the configuration described in the claims of the present application and a configuration equivalent thereto are provided, a configuration obtained by appropriately modifying a part of the configuration not described in the claims is naturally also included in the present invention. Belongs to the technical scope.

本発明は、自車両の推定位置である推定自車位置を取得する推定自車位置取得部と、自車両の進行方位を取得する進行方位取得部と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得部と、路面の撮影画像を取得する路面画像取得部と、を備えた自車位置認識システム、自車両の推定位置である推定自車位置を取得する推定自車位置取得機能と、自車両の進行方位を取得する進行方位取得機能と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得機能と、路面の撮影画像を取得する路面画像取得機能と、を実現させるための自車位置認識プログラム、及び、自車両の推定位置である推定自車位置を取得する推定自車位置取得ステップと、自車両の進行方位を取得する進行方位取得ステップと、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得ステップと、路面の撮影画像を取得する路面画像取得ステップと、を備えた自車位置認識方法に好適に利用することができる。   The present invention includes an estimated own vehicle position acquisition unit that acquires an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction acquisition unit that acquires a traveling direction of the own vehicle, and a road that includes information related to a road extending direction A vehicle position recognition system including a road information acquisition unit that acquires information and a road surface image acquisition unit that acquires a captured image of the road surface, an estimated vehicle position that acquires an estimated vehicle position that is an estimated position of the vehicle An acquisition function, a traveling direction acquisition function for acquiring the traveling direction of the host vehicle, a road information acquisition function for acquiring road information including information related to the extension direction of the road, and a road surface image acquisition function for acquiring a shot image of the road surface , A vehicle position recognition program for realizing the above, an estimated vehicle position acquisition step for acquiring an estimated vehicle position that is an estimated position of the vehicle, and a traveling direction acquisition step for acquiring a traveling direction of the vehicle, Road A road information obtaining step of obtaining road information including information on orientation, and the road surface image acquiring step of acquiring the captured image of the road surface, can be suitably used in the vehicle position recognition method comprising a.

5:環状交差点
31:推定自車位置取得部
32:進行方位取得部
33:路面画像取得部
34:道路情報取得部
41:通常自車位置補正部
42:地物利用自車位置補正部
43:画像認識部
44:基準方位特定部
51:環状道路
100:車両(自車両)
ED:延在方位
EP:推定自車位置
M:道路標示(対象地物)
MD:進行方位
P0:地物方位一致位置
RD:相対方位
RI:道路情報
SD:基準方位
5: Roundabout 31: Estimated own vehicle position acquisition unit 32: Traveling direction acquisition unit 33: Road surface image acquisition unit 34: Road information acquisition unit 41: Normal own vehicle position correction unit 42: Feature-use own vehicle position correction unit 43: Image recognition unit 44: reference direction specifying unit 51: ring road 100: vehicle (own vehicle)
ED: Extension direction EP: Estimated vehicle position M: Road marking (target feature)
MD: traveling direction P0: feature direction matching position RD: relative direction RI: road information SD: reference direction

Claims (7)

自車両の推定位置である推定自車位置を取得する推定自車位置取得部と、自車両の進行方位を取得する進行方位取得部と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得部と、路面の撮影画像を取得する路面画像取得部と、を備えた自車位置認識システムであって、
道路の延在方位に平行な方位を基準方位として設けられた路面上の地物を対象地物として、前記撮影画像に含まれる前記対象地物の画像認識処理を行う画像認識部と、
前記画像認識部により認識された前記対象地物と自車両との相対方位と、自車両の進行方位とに基づき、前記対象地物の前記基準方位を特定する基準方位特定部と、
前記推定自車位置の周辺の前記道路情報に基づき、前記基準方位特定部により特定された前記基準方位と延在方位が一致する道路上の位置である地物方位一致位置を検出し、当該地物方位一致位置に基づき前記推定自車位置を補正する地物利用自車位置補正部と、
を備えた自車位置認識システム。
An estimated own vehicle position acquisition unit that acquires an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction acquisition unit that acquires a traveling direction of the own vehicle, and road information including information related to a road extending direction is acquired. A vehicle position recognition system comprising a road information acquisition unit and a road surface image acquisition unit that acquires a captured image of a road surface,
An image recognition unit that performs image recognition processing of the target feature included in the photographed image, using a feature on a road surface provided with a direction parallel to the extending direction of the road as a reference direction as a target feature;
A reference azimuth identifying unit that identifies the reference azimuth of the target feature based on the relative azimuth between the target feature and the host vehicle recognized by the image recognition unit, and the traveling azimuth of the host vehicle;
Based on the road information around the estimated vehicle position, a feature direction coincidence position that is a position on the road where the extended direction coincides with the reference direction specified by the reference direction specifying unit is detected. A feature-use own vehicle position correcting unit that corrects the estimated own vehicle position based on an object orientation matching position;
The vehicle position recognition system equipped with.
前記推定自車位置の周辺の前記道路情報に含まれる道路の延在方位と自車両の進行方位とに基づき前記推定自車位置を補正する通常自車位置補正部を更に備え、
少なくとも前記推定自車位置が環状道路を有する交差点である環状交差点内にある場合に、前記地物利用自車位置補正部による前記推定自車位置の補正を行う請求項1に記載の自車位置認識システム。
A normal vehicle position correction unit that corrects the estimated vehicle position based on the extension direction of the road and the traveling direction of the vehicle included in the road information around the estimated vehicle position;
The own vehicle position according to claim 1, wherein the estimated own vehicle position is corrected by the feature-use own vehicle position correcting unit when at least the estimated own vehicle position is in a roundabout that is an intersection having a ring road. Recognition system.
路面に直交する軸を中心とする180度未満の回転対称性を有さない形状の路面上の地物を前記対象地物とする請求項1又は2に記載の自車位置認識システム。   The vehicle position recognition system according to claim 1 or 2, wherein a feature on a road surface having a rotational symmetry of less than 180 degrees with an axis orthogonal to the road surface as a center is the target feature. 道路の延在方位に対して平行な直線成分、及び道路の延在方位に対して直交する直線成分の少なくとも何れかを有する形状の路面上の地物を前記対象地物とする請求項1から3のいずれか一項に記載の自車位置認識システム。   The feature on the road surface having a shape having at least one of a linear component parallel to the extending direction of the road and a linear component orthogonal to the extending direction of the road is defined as the target feature. 4. The vehicle position recognition system according to any one of 3 above. 前記地物利用自車位置補正部は、前記画像認識部により認識された前記対象地物と自車両との距離にも基づいて前記推定自車位置を補正する請求項1から4のいずれか一項に記載の自車位置認識システム。   The feature use own vehicle position correcting unit corrects the estimated own vehicle position based on a distance between the target feature recognized by the image recognition unit and the own vehicle. The vehicle position recognition system according to the item. 自車両の推定位置である推定自車位置を取得する推定自車位置取得機能と、自車両の進行方位を取得する進行方位取得機能と、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得機能と、路面の撮影画像を取得する路面画像取得機能と、を実現させるための自車位置認識プログラムであって、
道路の延在方位に平行な方位を基準方位として設けられた路面上の地物を対象地物として、前記撮影画像に含まれる前記対象地物の画像認識処理を行う画像認識機能と、
前記画像認識機能により認識された前記対象地物と自車両との相対方位と、自車両の進行方位とに基づき、前記対象地物の前記基準方位を特定する基準方位特定機能と、
前記推定自車位置の周辺の前記道路情報に基づき、前記基準方位特定機能により特定された前記基準方位と延在方位が一致する道路上の位置である地物方位一致位置を検出し、当該地物方位一致位置に基づき前記推定自車位置を補正する地物利用自車位置補正機能と、
をコンピュータに実現させるための自車位置認識プログラム。
Obtain road information including information on the estimated vehicle position acquisition function that acquires the estimated vehicle position, which is the estimated position of the vehicle, a travel direction acquisition function that acquires the travel direction of the host vehicle, and information on the extension direction of the road A vehicle position recognition program for realizing a road information acquisition function and a road surface image acquisition function for acquiring a captured image of a road surface,
An image recognition function for performing image recognition processing of the target feature included in the photographed image, with a feature on the road surface provided with a direction parallel to the extending direction of the road as a reference direction as a target feature;
A reference azimuth specifying function for specifying the reference azimuth of the target feature based on a relative azimuth between the target feature and the host vehicle recognized by the image recognition function, and a traveling azimuth of the host vehicle;
Based on the road information around the estimated vehicle position, a feature direction matching position that is a position on the road where the reference direction specified by the reference direction specifying function matches the extended direction is detected. A feature-use own vehicle position correcting function for correcting the estimated own vehicle position based on an object orientation matching position;
A vehicle position recognition program that enables a computer to realize a vehicle.
自車両の推定位置である推定自車位置を取得する推定自車位置取得ステップと、自車両の進行方位を取得する進行方位取得ステップと、道路の延在方位に関する情報を含む道路情報を取得する道路情報取得ステップと、路面の撮影画像を取得する路面画像取得ステップと、を備えた自車位置認識方法であって、
道路の延在方位に平行な方位を基準方位として設けられた路面上の地物を対象地物として、前記撮影画像に含まれる前記対象地物の画像認識処理を行う画像認識ステップと、
前記画像認識ステップにて認識された前記対象地物と自車両との相対方位と、自車両の進行方位とに基づき、前記対象地物の前記基準方位を特定する基準方位特定ステップと、
前記推定自車位置の周辺の前記道路情報に基づき、前記基準方位特定ステップにて特定された前記基準方位と延在方位が一致する道路上の位置である地物方位一致位置を検出する地物方位一致位置検出ステップと、
前記地物方位一致位置検出ステップにて検出された前記地物方位一致位置に基づき前記推定自車位置を補正する地物利用自車位置補正ステップと、
を備える自車位置認識方法。
An estimated own vehicle position obtaining step for obtaining an estimated own vehicle position that is an estimated position of the own vehicle, a traveling direction obtaining step for obtaining a traveling direction of the own vehicle, and road information including information relating to a road extending direction are obtained. A vehicle position recognition method comprising a road information acquisition step and a road surface image acquisition step of acquiring a captured image of the road surface,
An image recognition step for performing image recognition processing of the target feature included in the photographed image, with a feature on the road surface provided with a direction parallel to the extending direction of the road as a reference direction as a target feature;
A reference azimuth specifying step for specifying the reference azimuth of the target feature based on a relative azimuth between the target feature and the host vehicle recognized in the image recognition step, and a traveling azimuth of the host vehicle;
Based on the road information around the estimated vehicle position, a feature for detecting a feature orientation coincidence position that is a location on the road whose extended orientation coincides with the reference orientation identified in the reference orientation identifying step. A direction matching position detection step;
A feature using own vehicle position correcting step for correcting the estimated own vehicle position based on the feature direction matching position detected in the feature direction matching position detecting step;
A vehicle position recognition method comprising:
JP2010271622A 2010-12-06 2010-12-06 Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method Pending JP2012122760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010271622A JP2012122760A (en) 2010-12-06 2010-12-06 Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010271622A JP2012122760A (en) 2010-12-06 2010-12-06 Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method

Publications (1)

Publication Number Publication Date
JP2012122760A true JP2012122760A (en) 2012-06-28

Family

ID=46504358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010271622A Pending JP2012122760A (en) 2010-12-06 2010-12-06 Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method

Country Status (1)

Country Link
JP (1) JP2012122760A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211307A (en) * 2016-05-26 2017-11-30 パイオニア株式会社 Measuring device, measuring method, and program
KR20180135672A (en) * 2017-06-13 2018-12-21 주식회사 만도 Driving control apparatus and driving control method
WO2019021421A1 (en) * 2017-07-27 2019-01-31 日産自動車株式会社 Self-location-correction device and self-location-correction method for drive assist vehicle
JP2021131397A (en) * 2020-05-28 2021-09-09 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method, apparatus, and device for navigation at annular intersection, and storage medium
US11408741B2 (en) 2017-03-16 2022-08-09 Denso Corporation Self-localization estimation device
JP7407213B2 (en) 2022-02-22 2023-12-28 本田技研工業株式会社 Direction identification device and direction identification method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211307A (en) * 2016-05-26 2017-11-30 パイオニア株式会社 Measuring device, measuring method, and program
US11639853B2 (en) 2017-03-16 2023-05-02 Denso Corporation Self-localization estimation device
US11408741B2 (en) 2017-03-16 2022-08-09 Denso Corporation Self-localization estimation device
KR102317546B1 (en) 2017-06-13 2021-10-27 주식회사 만도모빌리티솔루션즈 Driving control apparatus and driving control method
KR20180135672A (en) * 2017-06-13 2018-12-21 주식회사 만도 Driving control apparatus and driving control method
CN110892230A (en) * 2017-07-27 2020-03-17 日产自动车株式会社 Self-position correction method and self-position correction device for driving assistance vehicle
CN110892230B (en) * 2017-07-27 2021-04-27 日产自动车株式会社 Self-position correction method and self-position correction device for driving assistance vehicle
US10953896B2 (en) 2017-07-27 2021-03-23 Nissan Motor Co., Ltd. Self-position correction method and self-position correction device for drive-assisted vehicle
JPWO2019021421A1 (en) * 2017-07-27 2020-04-16 日産自動車株式会社 Driving assist vehicle self-position correcting method and self-position correcting apparatus
WO2019021421A1 (en) * 2017-07-27 2019-01-31 日産自動車株式会社 Self-location-correction device and self-location-correction method for drive assist vehicle
JP2021131397A (en) * 2020-05-28 2021-09-09 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method, apparatus, and device for navigation at annular intersection, and storage medium
JP7337121B2 (en) 2020-05-28 2023-09-01 阿波▲羅▼智▲聯▼(北京)科技有限公司 Roundabout navigation method, apparatus, device and storage medium
JP7407213B2 (en) 2022-02-22 2023-12-28 本田技研工業株式会社 Direction identification device and direction identification method

Similar Documents

Publication Publication Date Title
US8239131B2 (en) Navigation device, navigation method, and navigation program
US10296828B2 (en) Learning a similarity measure for vision-based localization on a high definition (HD) map
JP5216665B2 (en) MAP DATA UPDATE SYSTEM, MAP DATA UPDATE PROGRAM, NAVIGATION DEVICE AND VEHICLE CONTROL DEVICE USING THE SAME
US20180045516A1 (en) Information processing device and vehicle position detecting method
JP4847090B2 (en) Position positioning device and position positioning method
US8498813B2 (en) Navigation device, method, and program
JP4366664B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP6197393B2 (en) Lane map generation device and program
JP3958133B2 (en) Vehicle position measuring apparatus and method
US20080240505A1 (en) Feature information collecting apparatuses, methods, and programs
CN111912416B (en) Method, device and equipment for positioning equipment
JP4902575B2 (en) Road sign recognition device and road sign recognition method
JP2012122760A (en) Own-vehicle position recognition system, own-vehicle position recognition program and own-vehicle position recognition method
JP4700080B2 (en) Car navigation system and method
JP2008020604A (en) Road map creating program, map creating device and location display system
JP2009180631A (en) Navigator, navigation method and program
EP3093620A1 (en) System and method for detecting roundabouts from probe data using vector fields
JP2009042167A (en) Image recognition device and program for image recognition device, as well as navigator and program for navigator therewith
JP5656067B2 (en) Road node position management system, road node position management method, and road node position management program
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP5435294B2 (en) Image processing apparatus and image processing program
JP2010139478A (en) Navigation device
JP4789868B2 (en) Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same
JP4789869B2 (en) Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same
JP2007071539A (en) On-vehicle navigation device