JP4817019B2 - Own vehicle position recognition device and own vehicle position recognition program - Google Patents

Own vehicle position recognition device and own vehicle position recognition program Download PDF

Info

Publication number
JP4817019B2
JP4817019B2 JP2007171893A JP2007171893A JP4817019B2 JP 4817019 B2 JP4817019 B2 JP 4817019B2 JP 2007171893 A JP2007171893 A JP 2007171893A JP 2007171893 A JP2007171893 A JP 2007171893A JP 4817019 B2 JP4817019 B2 JP 4817019B2
Authority
JP
Japan
Prior art keywords
information
vehicle
feature
vehicle position
course change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007171893A
Other languages
Japanese (ja)
Other versions
JP2009008591A (en
Inventor
正樹 中村
功一 中尾
知章 石川
基揮 勘場
総 逢坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007171893A priority Critical patent/JP4817019B2/en
Publication of JP2009008591A publication Critical patent/JP2009008591A/en
Application granted granted Critical
Publication of JP4817019B2 publication Critical patent/JP4817019B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自車両の進路変更動作の検出結果を用いて自車位置情報を補正する自車位置認識装置及び自車位置認識プログラムに関する。   The present invention relates to a host vehicle position recognition device and a host vehicle position recognition program for correcting host vehicle position information using a detection result of a course change operation of the host vehicle.

近年、例えばナビゲーション装置の分野において、より適切な経路案内等を行うことを可能とするために、高精度な自車位置の認識を行うことが求められている。このような自車位置の認識に関する技術として、例えば下記の特許文献1には、以下のような車載用ナビゲーション装置が開示されている。この装置は、車両に搭載され、車両前方の走行道路に沿った風景を補促するカメラ、カメラにより補促された風景の画像情報から交差点シンボルを識別して交差点を検出すると共に、車両位置から交差点(交差点シンボル)までの距離を求める交差点検出部、地図データから得られる前記交差点位置から前記距離だけ離れた走行道路上のポイントに車両位置を修正する車両位置修正手段を備えている。   In recent years, for example, in the field of navigation devices, in order to enable more appropriate route guidance and the like, it is required to recognize the position of the vehicle with high accuracy. As a technique related to recognition of such a vehicle position, for example, the following in-vehicle navigation device is disclosed in Patent Document 1 below. This device is mounted on a vehicle, detects a crossing by identifying a crossing symbol from a camera for recognizing a landscape along a traveling road ahead of the vehicle, and image information of a landscape promoted by the camera. An intersection detection unit for obtaining a distance to an intersection (intersection symbol) and vehicle position correcting means for correcting the vehicle position to a point on the traveling road that is separated from the intersection position obtained from map data by the distance.

この装置は、車載カメラにより交差点シンボル(信号機、横断歩道、中央分離帯用白線等)を識別して交差点を検出し、その後、車両位置から交差点までの距離を求める。そして、車両位置修正手段は、地図データから得られる交差点位置に対して、前記車両位置から交差点までの距離だけ離れた走行道路上の位置に車両位置を修正する。この際、前記車両位置から交差点までの距離は、識別された交差点シンボルが所在するカメラ画素を用いて画素・距離対応テーブルを参照することにより求める。   This device detects intersections by identifying intersection symbols (traffic signals, pedestrian crossings, white lines for median strips, etc.) using an in-vehicle camera, and then obtains the distance from the vehicle position to the intersection. Then, the vehicle position correcting means corrects the vehicle position to a position on the traveling road that is separated from the intersection position obtained from the map data by a distance from the vehicle position to the intersection. At this time, the distance from the vehicle position to the intersection is obtained by referring to the pixel / distance correspondence table using the camera pixel where the identified intersection symbol is located.

特開平9−243389号公報JP-A-9-243389

上記の特許文献1に記載の技術では、カメラにより取得された画像情報の中から、信号機や横断歩道等の交差点シンボルを識別する画像認識処理を行う必要がある。更に、識別された画像情報の中の交差点シンボルの配置に基づいて自車両の位置から交差点位置までの距離を演算して求める必要がある。しかし、画像認識処理により、画像情報中に含まれる交差点シンボルの種類や位置等を正確に認識するためには、非常に高度な画像認識処理を行うことが必要となる。したがって、当該画像情報の状態が悪い場合等には、認識漏れが生じやすく、その場合には自車位置情報を補正することができない。   In the technique described in Patent Document 1, it is necessary to perform image recognition processing for identifying intersection symbols such as traffic lights and pedestrian crossings from image information acquired by a camera. Furthermore, it is necessary to calculate and obtain the distance from the position of the host vehicle to the intersection position based on the arrangement of the intersection symbol in the identified image information. However, in order to accurately recognize the type and position of the intersection symbol included in the image information by the image recognition process, it is necessary to perform a very advanced image recognition process. Therefore, when the state of the image information is bad, recognition failure tends to occur, and in this case, the vehicle position information cannot be corrected.

一方、交差点における自車両の進路変更動作は、例えば、ジャイロスコープ等による自車両の進行方位の変化の検出結果と、道路情報とを照らし合わせることにより、非常に高い割合で検出することが可能である。しかし、このような交差点における自車両の進路変更動作の検出結果を有効に利用して自車位置情報を補正する技術は、これまで知られていない。   On the other hand, the course changing operation of the host vehicle at the intersection can be detected at a very high rate by comparing the detection result of the traveling direction of the host vehicle with a gyroscope or the like and the road information. is there. However, a technique for correcting the own vehicle position information by effectively using the detection result of the course change operation of the own vehicle at such an intersection has not been known so far.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、自車両の進路変更動作の検出結果を用いて、自車位置情報を適切に補正することが可能な自車位置認識装置及び自車位置認識プログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to recognize the position of the host vehicle that can appropriately correct the position information of the host vehicle using the detection result of the course change operation of the host vehicle. It is to provide an apparatus and a vehicle position recognition program.

上記目的を達成するための本発明に係る自車位置認識装置の特徴構成は、自車両の現在位置を表す自車位置情報を取得する自車位置情報取得手段と、道路情報を取得する道路情報取得手段と、自車両の周辺の画像情報を取得する画像情報取得手段と、前記画像情報に含まれる対象地物の画像認識処理を行う画像認識手段と、自車両の過去の進路変更動作を学習して生成され、自車両の進路変更動作が行われた交差点である進路変更交差点を特定可能な進路変更情報と、当該進路変更動作より前に画像認識された対象地物について当該対象地物の認識位置から自車両の進路変更動作が行われた位置までの距離情報と、を有する進路変更学習情報が記憶された進路変更学習情報記憶手段と、前記画像認識手段により前記対象地物が認識された場合に、当該対象地物についての前記進路変更学習情報に基づいて、前記自車位置情報に基づく当該対象地物の認識位置から前記距離情報に示される距離だけ進行した位置が、前記進路変更情報により特定される進路変更交差点の前記道路情報中の位置と一致するように前記自車位置情報を補正する自車位置補正手段と、を備える点にある。   The characteristic configuration of the vehicle position recognition device according to the present invention for achieving the above object includes vehicle position information acquisition means for acquiring vehicle position information representing the current position of the vehicle, and road information for acquiring road information. Learning an acquisition means, an image information acquisition means for acquiring image information around the own vehicle, an image recognition means for performing an image recognition process of a target feature included in the image information, and a past course change operation of the own vehicle The route change information that can identify the route change intersection that is the intersection where the route change operation of the host vehicle has been performed and the target feature that has been image-recognized before the route change operation is generated. The target feature is recognized by the course change learning information storage means storing the course change learning information having the distance information from the recognition position to the position where the course change operation of the host vehicle is performed, and the image recognition means. If Based on the course change learning information for the target feature, a position that has traveled a distance indicated by the distance information from the recognized position of the target feature based on the vehicle position information is identified by the course change information. Vehicle position correcting means for correcting the vehicle position information so as to coincide with the position in the road information of the route change intersection to be performed.

この特徴構成によれば、自車両の過去の進路変更動作を、当該進路変更動作より前に画像認識された対象地物との距離の情報に関係付けて学習した進路変更学習情報を用い、同じ対象地物を画像認識した場合に、当該進路変更学習情報に基づいて、自車位置情報を進路変更交差点の道路情報中の位置に合わせて補正することができる。すなわち、自車両の過去の進路変更動作の検出結果と当該検出前の対象地物の画像認識結果とを学習した情報を用いて、自車位置情報を適切に補正することができる。またこの際、自車両の過去の進路変更動作を学習して生成された進路変更学習情報を用いているので、当該進路変更学習情報により特定される進路変更交差点での現在の自車両の進路変更動作の有無に関係なく、自車位置情報を補正することができる。   According to this characteristic configuration, the same course change learning information obtained by relating the past course change operation of the host vehicle to the information on the distance to the target feature that has been image-recognized before the course change operation is the same. When the target feature is image-recognized, the vehicle position information can be corrected according to the position in the road information of the course change intersection based on the course change learning information. That is, the vehicle position information can be appropriately corrected using information obtained by learning the detection result of the past course change operation of the host vehicle and the image recognition result of the target feature before the detection. At this time, since the course change learning information generated by learning the past course change operation of the host vehicle is used, the course change of the current host vehicle at the course change intersection specified by the course change learning information is performed. The vehicle position information can be corrected regardless of whether or not there is an operation.

更に、進路変更学習情報により特定される進路変更交差点の道路情報中の位置に合わせて自車位置情報を補正するので、自車位置情報が誤差によって自車両の実際の位置より先に進んでいるように認識されていた場合であっても、自車位置情報に示される自車位置が当該進路変更交差点を超えて先へ進むことを防止できる。したがって、例えば、この自車位置認識装置をナビゲーション装置に適用した場合における地図上への自車位置表示に際して、自車位置情報が自車両の実際の位置より先に進んでいる状態から自車両が進路変更した場合にも、地図上の自車位置が当該進路変更交差点を超えて直進した位置から進路変更後の道路上へ位置飛びすることを防止できる。また、自車位置情報が自車両の実際の位置より後に遅れている状態から自車両が進路変更した場合にも、同様に、地図上の自車位置が直進中であった道路から進路変更後の道路上へ位置飛びすることを防止できる。   Furthermore, since the own vehicle position information is corrected according to the position in the road information of the course change intersection specified by the course change learning information, the own vehicle position information advances ahead of the actual position of the own vehicle due to an error. Even when the vehicle is recognized as such, the vehicle position indicated in the vehicle position information can be prevented from proceeding beyond the route change intersection. Therefore, for example, when the vehicle position is displayed on a map when the vehicle position recognition device is applied to a navigation device, the vehicle is in a state where the vehicle position information is ahead of the actual position of the vehicle. Even when the course is changed, it is possible to prevent the position of the vehicle on the map from jumping from the position straight ahead beyond the course change intersection onto the road after the course change. Similarly, when the vehicle changes its course from a state in which the vehicle position information is later than the actual position of the vehicle, after the course is changed from the road where the vehicle position on the map was going straight Can be prevented from jumping on the road.

ここで、前記自車位置補正手段は、前記自車位置情報が誤差によって自車両の実際の位置より先に進んでいるように認識されていた場合に、前記自車位置情報に示される自車位置が前記進路変更交差点上に到達した後、自車両が前記対象地物の認識位置から前記距離情報に示される距離を実際に進行するまでの間、前記自車位置情報に示される自車位置を前記進路変更交差点上に停止させて前記自車位置情報を補正する構成とすると好適である。   Here, the own vehicle position correcting means indicates that the own vehicle position information is indicated by the own vehicle position information when the own vehicle position information is recognized as being ahead of the actual position of the own vehicle due to an error. The host vehicle position indicated in the host vehicle position information until the host vehicle actually travels the distance indicated in the distance information from the recognized position of the target feature after the position has reached the route change intersection. It is preferable that the vehicle position information is corrected by stopping the vehicle on the route change intersection.

この構成によれば、自車位置情報が誤差によって自車両の実際の位置より先に進んでいるように認識されていた場合に、自車位置情報に示される自車位置が進路変更学習情報により特定される進路変更交差点を超えて先へ進むことを防止できるとともに、当該進路変更交差点の道路情報中の位置に合わせて自車位置情報を適切に補正することができる。   According to this configuration, when the vehicle position information is recognized to be ahead of the actual position of the vehicle due to an error, the vehicle position indicated in the vehicle position information is determined by the course change learning information. It is possible to prevent the vehicle from proceeding beyond the specified route change intersection, and to appropriately correct the vehicle position information in accordance with the position in the road information of the route change intersection.

また、前記自車位置補正手段は、前記自車位置情報が誤差によって自車両の実際の位置より後に遅れているように認識されていた場合に、自車両が前記対象地物の認識位置から前記距離情報に示される距離を実際に進行した際に、前記自車位置情報に示される自車位置を前記進路変更交差点上に移動させて前記自車位置情報を補正する構成とすると好適である。   In addition, when the vehicle position information is recognized so that the vehicle position information is delayed behind the actual position of the vehicle due to an error, the vehicle position correction unit is configured to detect the vehicle from the recognition position of the target feature. When the vehicle travels the distance indicated by the distance information, it is preferable to correct the vehicle position information by moving the vehicle position indicated by the vehicle position information onto the route change intersection.

この構成によれば、自車位置情報が誤差によって自車両の実際の位置より後に遅れているように認識されていた場合に、進路変更学習情報により特定される進路変更交差点の道路情報中の位置に合わせて自車位置情報を適切に補正することができる。   According to this configuration, when the vehicle position information is recognized as being behind the actual position of the vehicle due to an error, the position in the road information of the route change intersection specified by the route change learning information Accordingly, the vehicle position information can be corrected appropriately.

また、前記道路情報は、複数のリンク及びノードの接続関係により道路を表す情報であり、前記進路変更情報は、前記進路変更動作の際に自車両が通行したリンクの経路の情報、及び前記進路変更動作が行われた交差点に対応するノードの情報の一方又は双方を含む構成とすると好適である。   Further, the road information is information representing a road by a connection relationship between a plurality of links and nodes, and the route change information is information on a route of a link traveled by the own vehicle during the route change operation, and the route A configuration including one or both of the node information corresponding to the intersection where the changing operation is performed is preferable.

この構成によれば、進路変更情報を、複数のリンク及びノードの接続関係により道路を表す道路情報との関係で進路変更交差点を適切に特定できる情報とすることができる。   According to this configuration, the route change information can be information that can appropriately specify a route change intersection in relation to road information that represents a road by a connection relationship between a plurality of links and nodes.

また、前記道路情報取得手段は、前記自車位置情報に基づいて、自車両の周辺の前記道路情報を所定の地図情報記憶手段から取得する構成とすると好適である。   Further, it is preferable that the road information acquisition unit acquires the road information around the host vehicle from a predetermined map information storage unit based on the host vehicle position information.

この構成によれば、自車位置情報の補正のために必要な道路情報を適切に取得することができる。   According to this configuration, road information necessary for correcting the vehicle position information can be appropriately acquired.

また、自車両の進路変更動作を検出する進路変更検出手段と、前記進路変更検出手段による自車両の進路変更動作の検出より前に前記画像認識手段により認識された対象地物について、当該対象地物の認識位置から自車両の進路変更が行われた位置までの距離を表す距離情報を取得する距離情報取得手段と、前記進路変更動作が行われた交差点である進路変更交差点を特定可能な進路変更情報と、当該進路変更動作について前記距離情報取得手段により取得された前記距離情報とを含む検出動作情報を記憶する検出動作情報記憶手段と、同じ進路変更動作が複数回検出されることにより前記検出動作情報記憶手段に記憶された、同じ進路変更動作についての複数の前記検出動作情報に基づいて、前記進路変更学習情報を生成する進路変更学習情報生成手段と、を備え、前記進路変更学習情報生成手段により生成された前記進路変更学習情報が、前記進路変更学習情報記憶手段に記憶される構成とすると好適である。   Further, a route change detection means for detecting a course change operation of the host vehicle, and a target feature recognized by the image recognition means prior to the detection of the course change operation of the host vehicle by the route change detection means, Distance information acquisition means for acquiring distance information indicating the distance from the recognition position of the object to the position where the course of the host vehicle has been changed, and a path that can identify the course change intersection that is the intersection where the course change operation has been performed Detection operation information storage means for storing detection operation information including change information and the distance information acquired by the distance information acquisition means for the course change operation, and the same course change operation is detected a plurality of times. Course change learning that generates the course change learning information based on a plurality of the detected action information for the same course change operation stored in the detected action information storage means Comprising a multi-address generating means, wherein the course change learning information generated by the course change learning information generating means, it is preferable that a configuration stored in the course change learning information storing section.

この構成によれば、自車両の進路変更動作を、当該進路変更動作より前に画像認識された対象地物との距離の情報に関係付けて適切に学習し、その学習結果を進路変更学習情報として進路変更学習情報記憶手段に記憶することができる。またこの際、自車両の進路変更動作のそれぞれの検出結果としての検出動作情報に誤差が含まれる場合であっても、進路変更学習情報を生成する際には、複数の検出動作情報を用いて誤差を平均化することができる。よって、自車両の進路変更動作の学習結果の精度を高めることが可能となる。   According to this configuration, the course change operation of the host vehicle is appropriately learned in relation to the distance information with the target feature that has been image-recognized before the course change operation, and the learning result is the course change learning information. Can be stored in the course change learning information storage means. At this time, even when the detection operation information as a detection result of each of the course change operations of the own vehicle includes an error, when generating the course change learning information, a plurality of detection operation information is used. Errors can be averaged. Therefore, it is possible to improve the accuracy of the learning result of the course changing operation of the host vehicle.

また、複数の対象地物についての位置情報及び属性情報を含む地物情報が記憶された地物情報記憶手段と、前記自車位置情報に基づいて、前記地物情報記憶手段から自車両の周辺の前記地物情報を取得する地物情報取得手段と、を更に備え、前記画像認識手段は、前記地物情報に基づいて、前記画像情報に含まれる対象地物の認識処理を行う構成とすると好適である。   Further, a feature information storage means storing feature information including position information and attribute information about a plurality of target features, and the surroundings of the vehicle from the feature information storage means based on the vehicle position information. And a feature information obtaining unit that obtains the feature information, and the image recognition unit performs a recognition process of the target feature included in the image information based on the feature information. Is preferred.

この構成によれば、地物情報記憶手段から取得した自車両の周辺の地物情報に基づいて画像認識処理を行うことができるため、対象地物の認識率を高め、誤認識を抑制することが可能となる。したがって、自車位置情報の補正や進路変更学習情報の生成の処理の精度を高めることが可能となる。   According to this configuration, since the image recognition process can be performed based on the feature information around the own vehicle acquired from the feature information storage unit, the recognition rate of the target feature is increased and erroneous recognition is suppressed. Is possible. Therefore, it is possible to improve the accuracy of the process of correcting the vehicle position information and generating the course change learning information.

また、前記対象地物は、道路の路面に設けられた道路標示であると好適である。   The target feature is preferably a road marking provided on a road surface.

この構成によれば、道路標識、案内標識、信号機等の立体的な地物と比較して比較的画像認識が容易な道路標示を対象地物とすることになるので、対象地物の認識率を高めることが可能となる。したがって、自車位置情報の補正や進路変更学習情報の生成の処理を行うことができる頻度を高めることが可能となる。   According to this configuration, since a road sign that is relatively easy to recognize images as a target feature compared to a three-dimensional feature such as a road sign, a guide sign, and a traffic light is used as a target feature, the recognition rate of the target feature Can be increased. Therefore, it is possible to increase the frequency at which the processing for correcting the vehicle position information and the generation of the course change learning information can be performed.

本発明に係るナビゲーション装置の特徴構成は、上記の各構成を備えた自車位置認識装置と、前記道路情報を含む地図情報が格納された地図情報記憶手段と、前記地図情報及び前記自車位置認識装置により認識された前記自車位置情報を参照して動作するアプリケーションプログラムと、前記アプリケーションプログラムに従って動作して案内情報を出力する案内情報出力手段と、を備える点にある。   The characteristic configuration of the navigation device according to the present invention includes a vehicle position recognition device having the above-described configurations, map information storage means storing map information including the road information, the map information, and the vehicle position. An application program that operates by referring to the vehicle position information recognized by a recognition device, and a guide information output unit that operates according to the application program and outputs guide information.

この特徴構成によれば、進路変更学習情報を用いて補正した補正後の自車位置情報に基づいて案内情報の出力を行うことができる。したがって、例えば自車位置の表示や経路案内等をより適切に行うことが可能となる。   According to this feature configuration, guidance information can be output based on the corrected vehicle position information corrected using the course change learning information. Therefore, for example, the display of the vehicle position and route guidance can be performed more appropriately.

本発明に係る自車位置認識プログラムの特徴構成は、自車両の現在位置を表す自車位置情報を取得する自車位置情報取得ステップと、道路情報を取得する道路情報取得ステップと、自車両の周辺の画像情報を取得する画像情報取得ステップと、前記画像情報に含まれる対象地物の画像認識処理を行う画像認識ステップと、前記画像認識ステップにより前記対象地物が認識された場合に、自車両の過去の進路変更動作を学習して生成され、自車両の進路変更動作が行われた交差点である進路変更交差点を特定可能な進路変更情報と、当該進路変更動作より前に画像認識された対象地物について当該対象地物の認識位置から自車両の進路変更動作が行われた位置までの距離情報と、を有する進路変更学習情報が記憶された進路変更学習情報記憶手段から、前記認識された対象地物についての前記進路変更学習情報を取得する進路変更学習情報取得ステップと、前記進路変更学習情報取得ステップにより取得した前記進路変更学習情報に基づいて、前記自車位置情報に基づく当該対象地物の認識位置から前記距離情報に示される距離だけ進行した位置が、前記進路変更情報により特定される進路変更交差点の前記道路情報中の位置と一致するように前記自車位置情報を補正する自車位置補正ステップと、をコンピュータに実行させる点にある。   The characteristic configuration of the vehicle position recognition program according to the present invention includes: a vehicle position information acquisition step that acquires vehicle position information that represents a current position of the vehicle; a road information acquisition step that acquires road information; An image information acquisition step for acquiring peripheral image information, an image recognition step for performing image recognition processing of a target feature included in the image information, and when the target feature is recognized by the image recognition step, It was generated by learning the past course change operation of the vehicle, and the course change information that can identify the course change intersection that is the intersection where the course change operation of the host vehicle was performed, and the image was recognized before the course change operation. A route change learning information storage device storing route change learning information having distance information from the recognition position of the target feature to a position where the route change operation of the host vehicle is performed for the target feature From the course change learning information acquisition step for acquiring the course change learning information for the recognized target feature, and the vehicle position based on the course change learning information acquired by the course change learning information acquisition step The own vehicle so that a position traveled by a distance indicated by the distance information from a recognized position of the target feature based on the information coincides with a position in the road information of the course change intersection specified by the course change information. The vehicle position correction step for correcting the position information is executed by a computer.

この特徴構成によれば、自車両の過去の進路変更動作を、当該進路変更動作より前に画像認識された対象地物との距離の情報に関係付けて学習した進路変更学習情報を用い、同じ対象地物を画像認識した場合に、当該進路変更学習情報に基づいて、自車位置情報を進路変更交差点の道路情報中の位置に合わせて補正することができる。すなわち、自車両の過去の進路変更動作の検出結果と当該検出前の対象地物の画像認識結果とを学習した情報を用いて、自車位置情報を適切に補正することができる。またこの際、自車両の過去の進路変更動作を学習して生成された進路変更学習情報を用いているので、当該進路変更学習情報により特定される進路変更交差点での現在の自車両の進路変更動作の有無に関係なく、自車位置情報を補正することができる。   According to this characteristic configuration, the same course change learning information obtained by relating the past course change operation of the host vehicle to the information on the distance to the target feature that has been image-recognized before the course change operation is the same. When the target feature is image-recognized, the vehicle position information can be corrected according to the position in the road information of the course change intersection based on the course change learning information. That is, the vehicle position information can be appropriately corrected using information obtained by learning the detection result of the past course change operation of the host vehicle and the image recognition result of the target feature before the detection. At this time, since the course change learning information generated by learning the past course change operation of the host vehicle is used, the course change of the current host vehicle at the course change intersection specified by the course change learning information is performed. The vehicle position information can be corrected regardless of whether or not there is an operation.

更に、進路変更学習情報により特定される進路変更交差点の道路情報中の位置に合わせて自車位置情報を補正するので、自車位置情報が誤差によって自車両の実際の位置より先に進んでいるように認識されていた場合であっても、自車位置情報に示される自車位置が当該進路変更交差点を超えて先へ進むことを防止できる。したがって、例えば、この自車位置認識プログラムをナビゲーション装置のナビゲーションプログラムに適用した場合における地図上への自車位置表示に際して、自車位置情報が自車両の実際の位置より先に進んでいる状態から自車両が進路変更した場合にも、地図上の自車位置が当該進路変更交差点を超えて直進した位置から進路変更後の道路上へ位置飛びすることを防止できる。   Furthermore, since the own vehicle position information is corrected according to the position in the road information of the course change intersection specified by the course change learning information, the own vehicle position information advances ahead of the actual position of the own vehicle due to an error. Even when the vehicle is recognized as such, the vehicle position indicated in the vehicle position information can be prevented from proceeding beyond the route change intersection. Therefore, for example, when the vehicle position is displayed on the map when this vehicle position recognition program is applied to the navigation program of the navigation device, the vehicle position information is advanced from the actual position of the vehicle. Even when the host vehicle changes the course, it is possible to prevent the position of the host vehicle on the map from jumping from the position where the host vehicle goes straight beyond the course change intersection onto the road after the course change.

次に、本発明の実施形態について図面に基づいて説明する。図1は、本実施形態に係るナビゲーション装置1の概略構成を示すブロック図である。このナビゲーション装置1は、本発明の実施形態としての自車位置認識装置2を含んで構成されている。このナビゲーション装置1は、自車両C(図4参照)の過去の進路変更動作を、当該進路変更動作より前に画像認識された対象地物との距離の情報に関係付けて学習した進路変更学習情報Sを用い、同じ対象地物を画像認識した場合に、当該進路変更学習情報Sに基づいて、自車位置情報Pを進路変更交差点N(図7参照)の道路情報Ra中の位置に合わせて補正する処理を行う。また、このような進路変更学習情報Sを取得するために、このナビゲーション装置1は、自車両Cの進路変更動作を検出し、当該進路変更動作の検出より前に画像認識された対象地物との距離の情報に関係付けて学習する。更に、本実施形態においては、ナビゲーション装置1は、対象地物の画像認識結果に基づいて、対象地物の位置や地物属性等も表す地物情報Fの学習も行う。   Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a navigation device 1 according to the present embodiment. The navigation device 1 includes a host vehicle position recognition device 2 as an embodiment of the present invention. The navigation device 1 learns the course change operation of the host vehicle C (see FIG. 4) in relation to the information on the distance from the target feature that has been image-recognized before the course change operation. When the same target feature is image-recognized using the information S, the vehicle position information P is matched with the position in the road information Ra of the course change intersection N (see FIG. 7) based on the course change learning information S. To correct. In addition, in order to acquire such course change learning information S, the navigation device 1 detects the course change operation of the host vehicle C, and the target feature that has been image-recognized prior to the detection of the course change operation. Learning in relation to the distance information. Furthermore, in this embodiment, the navigation apparatus 1 also learns the feature information F that also represents the position of the target feature, the feature attribute, and the like based on the image recognition result of the target feature.

図1に示すナビゲーション装置1の各機能部は、互いに共通の或いはそれぞれ独立のCPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。そして、これらの各機能部は、互いに情報の受け渡しを行うことができるように構成されている。また、ナビゲーション装置1の各データベースDB1〜DB5は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウェア構成として備えている。以下、本実施形態に係るナビゲーション装置1の各部の構成について詳細に説明する。   The functional units of the navigation device 1 shown in FIG. 1 are hardware units that perform various processes on input data using a common arithmetic processing unit such as a CPU as a core member. Alternatively, it is implemented by software (program) or both. Each of these functional units is configured to exchange information with each other. Further, each of the databases DB1 to DB5 of the navigation device 1 is a recording medium that can store information, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, and its drive. And a device having a means as a hardware configuration. Hereinafter, the configuration of each part of the navigation device 1 according to the present embodiment will be described in detail.

1.地図データベース
地図データベースDB1は、所定の区画毎に分けられた地図情報Mが記憶されたデータベースである。図2は、地図データベースDB1に記憶されている地図情報Mの構成の例を示す図である。この図に示すように、地図情報Mは、交差点に対応する多数のノードnと、各交差点間を結ぶ道路に対応するリンクkとの接続関係により道路ネットワークを表す道路情報Raを有している。各ノードnは、緯度及び経度で表現された地図上の位置(座標)の情報を有している。各リンクkは、ノードnを介して接続されている。また、各リンクkは、その属性情報として、道路種別、リンク長、道路幅、リンク形状を表現するための形状補間点等の情報を有している。ここで、道路種別情報は、例えば、自動車専用道路、市街道路、細街路、山岳路等のように、道路を複数の種別に区分した際の道路種別の情報である。これらのリンクkの属性情報が、道路属性情報Rb(図1参照)に相当する。そして、本実施形態においては、この地図データベースDB1が、地図情報記憶手段として機能する。なお、図2においては、一つの区画の道路情報Raのみを図示し、他の区画の道路情報Raは省略して示している。
1. Map database The map database DB1 is a database in which map information M divided into predetermined sections is stored. FIG. 2 is a diagram illustrating an example of the configuration of the map information M stored in the map database DB1. As shown in this figure, the map information M has road information Ra representing a road network by connection relations between a large number of nodes n corresponding to intersections and links k corresponding to roads connecting the intersections. . Each node n has information on the position (coordinates) on the map expressed by latitude and longitude. Each link k is connected via a node n. Each link k has information such as a road type, a link length, a road width, and a shape interpolation point for expressing a link shape as attribute information. Here, the road type information is information on the road type when the road is divided into a plurality of types, such as an automobile-only road, a city road, a narrow street, a mountain road, and the like. The attribute information of these links k corresponds to the road attribute information Rb (see FIG. 1). And in this embodiment, this map database DB1 functions as a map information storage means. In FIG. 2, only the road information Ra of one section is illustrated, and the road information Ra of other sections is omitted.

2.地物データベース
地物データベースDB2は、道路上や道路周辺に設けられた各種の地物の情報、すなわち地物情報Fが記憶されたデータベースである。図1に示すように、本実施形態においては、地物データベースDB2には、初期地物情報Fa及び学習地物情報Fbの2種類の情報が記憶される。ここで、初期地物情報Faとは、地物データベースDB2に予め整備されて記憶されている複数の地物についての地物情報Fである。このような初期地物情報Faは、道路情報Raを含む地図情報Mが整備されている全ての地域の中で、大都市周辺や幹線道路等の一部の地域についてのみ整備されている。一方、学習地物情報Fbとは、後述するように、画像認識部24による対象地物の画像認識結果を用いて学習した結果として学習地物情報生成部44により生成され、地物データベースDB2に記憶される地物情報Fである。なお、以下の説明において、単に「地物情報F」というときは、これら初期地物情報Fa及び学習地物情報Fbを総称するものとする。本実施形態においては、この地物データベースDB2が、地物情報記憶手段として機能する。
2. Feature database The feature database DB2 is a database in which information on various features provided on or around the road, that is, feature information F is stored. As shown in FIG. 1, in this embodiment, two types of information, initial feature information Fa and learning feature information Fb, are stored in the feature database DB2. Here, the initial feature information Fa is feature information F about a plurality of features that are prepared and stored in advance in the feature database DB2. Such initial feature information Fa is maintained only in some areas such as the periphery of a large city and a main road among all areas where the map information M including the road information Ra is maintained. On the other hand, the learning feature information Fb is generated by the learning feature information generation unit 44 as a result of learning using the image recognition result of the target feature by the image recognition unit 24, as will be described later, and is stored in the feature database DB2. This is feature information F to be stored. In the following description, when “feature information F” is simply referred to, the initial feature information Fa and the learned feature information Fb are collectively referred to. In this embodiment, this feature database DB2 functions as a feature information storage unit.

この地物データベースDB2に地物情報Fが記憶される地物には、道路の路面に設けられた道路標示(ペイント標示)が含まれている。図3は、地物データベースDB2に記憶されている道路標示の地物情報Fの例を示す図である。このような道路標示に係る地物としては、例えば、横断歩道、停止線、最高速度等を表す速度標示、ゼブラゾーン、道路に沿って車線を分ける区画線(実線、破線、二重線等の各種区画線を含む。)、各車線の進行方向を指定する進行方向別通行区分標示(矢印標示、例えば、直進矢印、右折矢印等を含む)等が含まれる。なお、地物情報Fが記憶される地物としては、このような道路標示のほか、信号機、標識、陸橋、トンネル等の各種の地物も含めることができる。   Features for which feature information F is stored in the feature database DB2 include road markings (paint markings) provided on the road surface. FIG. 3 is a diagram illustrating an example of the feature information F of the road marking stored in the feature database DB2. Features such as road markings include, for example, pedestrian crossings, stop lines, speed markings representing maximum speed, zebra zones, lane markings that divide lanes along the road (solid lines, broken lines, double lines, etc.) Including various lane markings), traffic direction markings by direction of travel that specify the direction of travel of each lane (including arrow markings such as straight arrows, right turn arrows, etc.), and the like. In addition to such road markings, the features in which the feature information F is stored can include various features such as traffic lights, signs, overpasses, and tunnels.

また、地物情報Fは、その内容として各地物の位置情報と、それに関連付けられた地物属性情報とを有している。ここで、位置情報は、道路情報Raを構成するリンクk又はノードn等と関連付けられた各地物の代表点の地図上の位置(座標)、及び各地物の向きの情報を有している。本例では、代表点は、各地物の長さ方向及び幅方向の中央部付近に設定される。また、地物属性情報は、各地物を他の地物と識別するための識別情報(地物ID)、各地物の地物種別を表す種別情報、或いは、地物の形状、大きさ、色彩等の地物形態情報等を含んでいる。ここで、地物種別は、具体的には、「横断歩道」、「停止線」、「速度標示(30km/時)」等のような、基本的に同じ形態を有する地物の種別を表す情報である。また、地物情報Fは、近接する他の地物との関係を表す地物関係情報や、当該他の地物との間の地物間距離を表す地物間距離情報を有する構成としても好適である。ここで、地物関係情報は、自車両C(図4参照)が道路に沿って進行中に、一つの地物を画像認識することにより、前方に存在する他の地物を予測できるようにするための情報である。また、地物間距離情報は、そのような前方に存在する地物までの自車両Cからの距離を正確に予測するための情報である。   The feature information F includes position information of each feature and feature attribute information associated therewith as its contents. Here, the position information includes information on the position (coordinates) on the map of the representative point of each feature associated with the link k or the node n constituting the road information Ra, and the direction of each feature. In this example, the representative point is set near the center in the length direction and width direction of each feature. The feature attribute information includes identification information (feature ID) for identifying each feature from other features, type information indicating the feature type of each feature, or the shape, size, and color of the feature. The feature form information such as is included. Here, the feature type specifically indicates the type of feature having basically the same form such as “pedestrian crossing”, “stop line”, “speed indication (30 km / hour)”, and the like. Information. In addition, the feature information F may include feature-related information that represents a relationship with other nearby features and distance information between features that represents the distance between the features with the other features. Is preferred. Here, the feature-related information can predict other features existing ahead by recognizing one feature image while the host vehicle C (see FIG. 4) is traveling along the road. It is information to do. Further, the distance information between features is information for accurately predicting the distance from the host vehicle C to such a feature existing ahead.

3.地物学習データベース
地物学習データベースDB3は、後述する認識地物情報生成部42により生成された認識地物情報Aを記憶するデータベースである。この地物学習データベースDB3内には、画像認識部24による認識に成功した複数の対象地物のそれぞれについての認識地物情報Aが記憶される。この地物学習データベースDB3に記憶される認識地物情報Aの具体的な内容については、後で詳細に説明する。本実施形態においては、この地物学習データベースDB3が、認識地物記憶手段として機能する。
3. Feature Learning Database The feature learning database DB3 is a database that stores recognized feature information A generated by a recognized feature information generating unit 42 described later. In this feature learning database DB3, recognized feature information A for each of a plurality of target features that have been successfully recognized by the image recognition unit 24 is stored. Specific contents of the recognized feature information A stored in the feature learning database DB3 will be described in detail later. In the present embodiment, this feature learning database DB3 functions as a recognized feature storage means.

4.進路変更学習データベース
進路変更学習データベースDB4は、後述する検出動作情報生成部48により生成された検出動作情報Bを記憶するデータベースである。この進路変更学習データベースDB4内には、進路変更検出部17により検出された複数の進路変更動作のそれぞれについての検出動作情報Bが記憶される。この進路変更学習データベースDB4に記憶される検出動作情報Bの具体的な内容については、後で詳細に説明する。本実施形態においては、この進路変更学習データベースDB4が、検出動作情報記憶手段として機能する。
4). Course Change Learning Database The course change learning database DB4 is a database that stores detection operation information B generated by a detection operation information generation unit 48 described later. In this course change learning database DB4, detection operation information B for each of a plurality of course change operations detected by the course change detection unit 17 is stored. Specific contents of the detection operation information B stored in the course change learning database DB4 will be described in detail later. In this embodiment, this course change learning database DB4 functions as a detection operation information storage unit.

5.進路変更データベース
進路変更データベースDB5は、後述する進路変更学習情報生成部50により生成された進路変更学習情報Sを記憶するデータベースである。この進路変更データベースDB5内には、進路変更検出部17により検出された複数の進路変更動作のそれぞれについての進路変更学習情報Sが記憶される。この進路変更データベースDB5に記憶される進路変更学習情報Sの具体的な内容については、後で詳細に説明する。本実施形態においては、この進路変更データベースDB5が、進路変更学習情報記憶手段として機能する。
5). Course Change Database The course change database DB5 is a database that stores the course change learning information S generated by the course change learning information generation unit 50 described later. In the course change database DB5, course change learning information S for each of the plurality of course change operations detected by the course change detection unit 17 is stored. Specific contents of the course change learning information S stored in the course change database DB5 will be described in detail later. In this embodiment, this course change database DB5 functions as a course change learning information storage unit.

6.画像情報取得部
画像情報取得部12は、撮像装置11により撮像した自車両の周辺の画像情報Gを取得する画像情報取得手段として機能する。ここで、撮像装置11は、撮像素子を備えた車載カメラ等であって、少なくとも自車両Cの周辺の道路の路面を撮像可能な位置に設けられている。このような撮像装置11としては、例えば、図4に示すような自車両Cの後方の路面を撮像するバックカメラを用いると好適である。画像情報取得部12は、撮像装置11により撮像した撮像情報をフレームメモリ(不図示)などを介して所定の時間間隔で取り込む。この際の画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部12は、撮像装置11により撮像した複数フレームの画像情報Gを連続的に取得することができる。ここで取得された画像情報Gは、画像認識部24へ出力される。
6). Image Information Acquisition Unit The image information acquisition unit 12 functions as an image information acquisition unit that acquires image information G around the host vehicle captured by the imaging device 11. Here, the imaging device 11 is an in-vehicle camera or the like provided with an imaging element, and is provided at a position where at least a road surface of the road around the host vehicle C can be imaged. As such an imaging device 11, for example, it is preferable to use a back camera that images the road surface behind the host vehicle C as shown in FIG. The image information acquisition unit 12 captures imaging information captured by the imaging device 11 at predetermined time intervals via a frame memory (not shown). The time interval for capturing the image information G at this time can be set to, for example, about 10 to 50 ms. Thereby, the image information acquisition unit 12 can continuously acquire the image information G of a plurality of frames captured by the imaging device 11. The acquired image information G is output to the image recognition unit 24.

7.自車位置情報取得部
自車位置情報取得部16は、自車両Cの現在位置を示す自車位置情報Pを取得する自車位置情報取得手段として機能する。ここでは、自車位置情報取得部16は、GPS受信機13、方位センサ14、及び距離センサ15と接続されている。ここで、GPS受信機13は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置情報取得部16へ出力される。自車位置情報取得部16では、GPS受信機13で受信されたGPS衛星からの信号を解析し、自車両Cの現在位置(座標)、進行方位、移動速度等の情報を取得することができる。方位センサ14は、自車両Cの進行方位又はその進行方位の変化を検出するセンサである。この方位センサ14は、例えば、ジャイロスコープや、地磁気センサ等により構成される。そして、方位センサ14は、その検出結果を自車位置情報取得部16へ出力する。距離センサ15は、自車両Cの車速や移動距離を検出するセンサである。この距離センサ15は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Cの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。そして、距離センサ15は、その検出結果としての車速及び移動距離の情報を自車位置情報取得部16へ出力する。また、本実施形態においては、方位センサ14及び距離センサ15は、その検出結果を、進路変更検出部17へも出力する。
7). Own vehicle position information acquisition unit The own vehicle position information acquisition unit 16 functions as own vehicle position information acquisition means for acquiring own vehicle position information P indicating the current position of the own vehicle C. Here, the vehicle position information acquisition unit 16 is connected to the GPS receiver 13, the direction sensor 14, and the distance sensor 15. Here, the GPS receiver 13 is a device that receives GPS signals from GPS (Global Positioning System) satellites. This GPS signal is normally received every second and is output to the vehicle position information acquisition unit 16. The own vehicle position information acquisition unit 16 can analyze a signal from a GPS satellite received by the GPS receiver 13 and acquire information such as a current position (coordinates), a traveling direction, and a moving speed of the own vehicle C. . The direction sensor 14 is a sensor that detects the traveling direction of the host vehicle C or a change in the traveling direction. The azimuth sensor 14 is constituted by, for example, a gyroscope, a geomagnetic sensor, or the like. Then, the direction sensor 14 outputs the detection result to the vehicle position information acquisition unit 16. The distance sensor 15 is a sensor that detects the vehicle speed and the moving distance of the host vehicle C. The distance sensor 15 is, for example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft or wheel of the vehicle rotates by a certain amount, a yaw / G sensor that detects the acceleration of the host vehicle C, and an integration of the detected acceleration. Configured by a circuit or the like. Then, the distance sensor 15 outputs information on the vehicle speed and movement distance as the detection result to the vehicle position information acquisition unit 16. In the present embodiment, the azimuth sensor 14 and the distance sensor 15 also output the detection results to the course change detection unit 17.

自車位置情報取得部16は、これらのGPS受信機13、方位センサ14及び距離センサ15からの出力に基づいて、公知の方法により自車位置を特定する演算を行う。また、自車位置情報取得部16は、後述する道路情報取得部23により地図データベースDB1から抽出された自車位置周辺の道路情報Raを取得し、それに基づいて公知のマップマッチングを行うことにより自車位置を道路情報Raに示される道路上に合わせる補正も行う。更に、本実施形態においては、自車位置情報取得部16により取得された自車位置情報Pは、更にその位置精度を高めるべく自車位置情報補正部51により補正される。このような本実施形態における最も特徴的な構成である自車位置情報補正部51の構成については、後で詳細に説明する。このようにして、自車位置情報取得部16は、座標(緯度及び経度)で表された自車両Cの現在位置の情報、及び自車両Cの進行方位の情報を含む自車位置情報Pを取得する。   Based on the outputs from the GPS receiver 13, the azimuth sensor 14, and the distance sensor 15, the own vehicle position information acquisition unit 16 performs a calculation for specifying the own vehicle position by a known method. In addition, the vehicle position information acquisition unit 16 acquires road information Ra around the vehicle position extracted from the map database DB1 by a road information acquisition unit 23, which will be described later, and performs known map matching based on the acquired road information Ra. Correction for matching the vehicle position to the road indicated by the road information Ra is also performed. Further, in the present embodiment, the vehicle position information P acquired by the vehicle position information acquisition unit 16 is corrected by the vehicle position information correction unit 51 in order to further improve the position accuracy. The configuration of the vehicle position information correction unit 51, which is the most characteristic configuration in this embodiment, will be described in detail later. Thus, the own vehicle position information acquisition unit 16 obtains the own vehicle position information P including the current position information of the own vehicle C represented by the coordinates (latitude and longitude) and the traveling direction information of the own vehicle C. get.

8.進路変更検出部
進路変更検出部17は、自車両Cの進路変更動作を検出する進路変更動作検出手段として機能する。図1に示すように、進路変更検出部17は、自車両Cの各部に設けられた各種センサからの信号の入力を受けて自車両Cの進路変更動作を検出する。進路変更検出部17に信号を出力する各種センサとしては、上述した方位センサ14及び距離センサ15のほか、例えば、ステアリングセンサ19や加速度センサ20等がある。ここで、ステアリングセンサ19は、自車両Cの運転者によるステアリング操作を検出するセンサであり、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。また、加速度センサ20は、自車両Cの進行方向や横方向の加速度を検出するセンサである。
8). Course Change Detection Unit The course change detection unit 17 functions as a course change operation detection unit that detects a course change operation of the host vehicle C. As shown in FIG. 1, the course change detection unit 17 detects a course change operation of the host vehicle C in response to input of signals from various sensors provided in each part of the host vehicle C. Various sensors that output signals to the course change detection unit 17 include, for example, the steering sensor 19 and the acceleration sensor 20 in addition to the direction sensor 14 and the distance sensor 15 described above. Here, the steering sensor 19 is a sensor that detects a steering operation by the driver of the host vehicle C, such as an optical rotation sensor attached to the rotating part of the steering wheel, a rotary resistance volume, an angle sensor attached to the wheel part, and the like. Consists of. The acceleration sensor 20 is a sensor that detects acceleration in the traveling direction and lateral direction of the host vehicle C.

本実施形態において、進路変更検出部17により検出される自車両Cの進路変更動作とは、交差点において自車両Cが進行中の道路を道なりに直進する場合以外の、右折や左折等の自車両Cの動作である。そして、進路変更検出部17は、方位センサ14及び距離センサ15により検出される自車両Cの走行軌跡、ステアリングセンサ19により検出されるステアリングの操作量及び操作時間、加速度センサ20により検出される自車両Cに作用する加速度等の情報等に基づいて、自車両Cの右折や左折等の進路変更動作を検出する。   In the present embodiment, the course change operation of the host vehicle C detected by the course change detection unit 17 is an auto turn such as a right turn or a left turn other than a case where the host vehicle C travels straight on a road on the road at the intersection. This is the operation of the vehicle C. Then, the course change detection unit 17 detects the travel locus of the host vehicle C detected by the direction sensor 14 and the distance sensor 15, the steering operation amount and operation time detected by the steering sensor 19, and the self-detection detected by the acceleration sensor 20. Based on information such as acceleration acting on the vehicle C, a route change operation such as a right turn or a left turn of the host vehicle C is detected.

また、進路変更検出部17は、進路変更情報生成部18を備えている。この進路変更情報生成部18は、進路変更検出部17により自車両Cの進路変更動作が検出された場合に、例えば図7に示すように、当該進路変更動作の内容を表す進路変更情報Baを生成する進路変更情報生成手段として機能する。この進路変更情報Baは、後述するように検出動作情報B及び進路変更学習情報Sの一部を構成する。本実施形態においては、進路変更情報Baは、進路変更の態様を表す態様情報Bdと、当該進路変更動作が行われた交差点である進路変更交差点Nを特定するための交差点特定情報Beと、を有して構成される。   The course change detection unit 17 includes a course change information generation unit 18. When the course change operation of the host vehicle C is detected by the course change detection unit 17, for example, as shown in FIG. 7, the course change information generation unit 18 generates the course change information Ba representing the content of the course change operation. It functions as a route change information generating means for generating. The route change information Ba constitutes a part of the detection operation information B and the route change learning information S as described later. In the present embodiment, the route change information Ba includes the mode information Bd indicating the route change mode and the intersection specification information Be for specifying the route change intersection N that is the intersection where the route change operation is performed. It is configured.

ここで、態様情報Bdは、進路変更検出部17により検出された進路変更動作の種別を、他の進路変更動作に対して識別するための分類を表す情報である。したがって、態様情報Bdは、例えば、「左折」、「右折」、「転回(Uターン)」等の情報となる。なお、これらの態様情報Bdの分類は単なる一例であり、これらの分類の細分化のレベルは、任意に決定することができる。   Here, the mode information Bd is information representing a classification for identifying the type of the course changing operation detected by the course changing detector 17 with respect to other course changing operations. Therefore, the mode information Bd is information such as “left turn”, “right turn”, “turn (U-turn)”, and the like. The classification of the mode information Bd is merely an example, and the level of subdivision of these classifications can be arbitrarily determined.

また、交差点特定情報Beは、自車両Cの進路変更動作が行われた進路変更交差点Nを特定するための情報である。本実施形態においては、進路変更動作の際に自車両Cが通行したリンクk(図7(a)参照)の経路の情報を、交差点特定情報Beとしている。具体的には、図7(b)に示すように、交差点特定情報Beは、進路変更交差点Nにおける進路変更動作の際に自車両Cが通行した複数のリンクkと、当該複数のリンクkを自車両Cが通行した順序とを特定するために、自車両Cが通行した順序にリンク識別情報(ここでは、リンクID)を配列してなるリンク配列情報としている。図7(b)の例では、交差点特定情報Beは、「ID=○○○○→ID=△△△△」となっている。したがって、この交差点特定情報Beによれば、図7(a)に示す、「ID=○○○○」及び「ID=△△△△」の2つのリンクkの接続点のノードn(ID=○×○×)に対応する交差点が進路変更交差点Nであることを、道路情報Raに基づいて特定することができる。   The intersection specifying information Be is information for specifying the course changing intersection N where the course changing operation of the host vehicle C is performed. In the present embodiment, the information on the route of the link k (see FIG. 7A) through which the host vehicle C traveled during the course changing operation is the intersection specifying information Be. Specifically, as shown in FIG. 7B, the intersection identification information Be includes a plurality of links k that the host vehicle C has traveled during a course change operation at the course change intersection N, and the plurality of links k. In order to specify the order in which the host vehicle C has passed, link identification information (here, link IDs) is arranged in the order in which the host vehicle C has passed. In the example of FIG. 7B, the intersection specifying information Be is “ID = ◯◯◯◯ → ID = ΔΔΔΔ”. Therefore, according to the intersection specifying information Be, the node n (ID = ID) of the connection point of the two links k “ID = XXX” and “ID = ΔΔΔΔ” shown in FIG. It can be specified based on the road information Ra that the intersection corresponding to (XX) is the course change intersection N.

ところで、交差点特定情報Beに関して、例えば、図8(a)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より先に進んでいるように認識されていた場合、自車位置情報Pに示される自車位置が、進路変更交差点Nのノードn(ID=○×○×)を超えて直進方向のID=□□□□のリンクkに進行した後の状態で、実際の自車両Cによる左折の進路変更動作が行われる。よって、自車位置情報Pの位置飛びが発生して自車位置情報Pに示される自車位置が進路変更後のID=△△△△のリンクkに移動する。この場合には、進路変更動作の際に自車位置情報Pに示される自車位置が通行したリンクkのリンクIDの配列は、「ID=○○○○→ID=□□□□→ID=△△△△」となる。しかし、道路情報Raに基づいて、実際の自車両CはID=□□□□のリンクkを通行していないことは判断できるので、この場合の交差点特定情報Beは、「ID=○○○○→ID=△△△△」とする。一方、例えば、図8(b)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より後に遅れているように認識されていた場合、自車位置情報Pに示される自車位置が、ID=○○○○のリンクkの進行中であって進路変更交差点Nのノードn(ID=○×○×)への到達前の状態で、実際の自車両Cによる左折の進路変更動作が行われる。よって、自車位置情報Pの位置飛びが発生して自車位置情報Pに示される自車位置が進路変更後のID=△△△△のリンクkに移動する。この場合には、進路変更動作の際に自車位置情報Pに示される自車位置が通行したリンクkのリンクIDの配列は、「ID=○○○○→ID=△△△△」となり、交差点特定情報Beは、「ID=○○○○→ID=△△△△」とする。   By the way, with respect to the intersection specifying information Be, for example, as shown in FIG. 8A, if the vehicle position information P is recognized to be ahead of the actual position of the vehicle C due to an error, In a state after the vehicle position indicated in the vehicle position information P has advanced to the link k of ID = □□□□ in the straight direction beyond the node n (ID = ○ × ○ ×) of the route change intersection N, The actual route change operation of the left turn by the own vehicle C is performed. Therefore, a position jump of the own vehicle position information P occurs, and the own vehicle position indicated in the own vehicle position information P moves to the link k of ID = ΔΔΔΔ after the course change. In this case, the link ID array of the link k through which the vehicle position indicated by the vehicle position information P passes during the course changing operation is “ID = XXXXXX → ID = □□□□ → ID = △△△△ 」. However, based on the road information Ra, it can be determined that the actual host vehicle C does not pass the link k of ID = □□□□. Therefore, the intersection specifying information Be in this case is “ID = ○○○ ○ → ID = ΔΔΔΔ ”. On the other hand, for example, as shown in FIG. 8B, when the vehicle position information P is recognized as being delayed behind the actual position of the vehicle C due to an error, the vehicle position information P is indicated. Turn left by the actual own vehicle C in the state where the own vehicle position is in progress of the link k of ID = ○○○○ and before reaching the node n (ID = ○ × ○ ×) of the route change intersection N The course changing operation is performed. Therefore, a position jump of the own vehicle position information P occurs, and the own vehicle position indicated in the own vehicle position information P moves to the link k of ID = ΔΔΔΔ after the course change. In this case, the arrangement of the link IDs of the link k through which the vehicle position indicated by the vehicle position information P passes during the course changing operation is “ID = XXXXX → ID = ΔΔΔΔ”. The intersection specifying information Be is assumed to be “ID = ◯◯◯◯ → ID = ΔΔΔΔ”.

9.道路情報取得部
道路情報取得部23は、自車位置情報取得部16で取得された自車位置情報Pに基づいて、自車両Cの周辺の道路情報Raを地図データベースDB1から抽出して取得する道路情報取得手段として機能する。すなわち、道路情報取得部23は、自車位置情報取得部16、進路変更挙動検出部17の進路変更情報生成部18、自車位置情報補正部51、及びナビゲーション用演算部27等において必要とする範囲の自車両Cの周辺の道路情報Raを地図データベースDB1から抽出し、当該各部へ出力する。
9. Road Information Acquisition Unit The road information acquisition unit 23 extracts and acquires road information Ra around the own vehicle C from the map database DB1 based on the own vehicle position information P acquired by the own vehicle position information acquisition unit 16. It functions as a road information acquisition means. That is, the road information acquisition unit 23 is required in the own vehicle position information acquisition unit 16, the course change information generation unit 18 of the course change behavior detection unit 17, the host vehicle position information correction unit 51, the navigation calculation unit 27, and the like. The road information Ra around the vehicle C in the range is extracted from the map database DB1 and output to the respective parts.

10.画像認識部
画像認識部24は、画像情報取得部12で取得された画像情報Gに含まれる対象地物の画像認識処理を行う画像認識手段として機能する。本実施形態においては、画像認識部24は、道路の路面に設けられた道路標示を対象地物として画像認識処理を行う。具体的には、画像認識部24は、対象地物の画像認識に際しては、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている対象地物(道路標示)の輪郭情報を抽出する。その後、画像認識部24は、抽出された地物の輪郭情報と、対象地物となり得る各種地物の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる対象地物の画像を抽出する。また、画像認識部24は、抽出された地物の輪郭情報と特徴量がマッチングする地物の地物種別を、画像情報Gに含まれる対象地物の地物種別として認識する。そして、画像認識部24は、パターンマッチングに成功した場合に対象地物の画像認識に成功したと判定する。一方、画像認識部24は、画像情報Gについて画像認識処理を行った結果、パターンマッチングに失敗した場合には、対象地物の画像認識に失敗したと判定する。
10. Image Recognizing Unit The image recognizing unit 24 functions as an image recognizing unit that performs an image recognizing process on a target feature included in the image information G acquired by the image information acquiring unit 12. In the present embodiment, the image recognition unit 24 performs image recognition processing using a road marking provided on the road surface as a target feature. Specifically, the image recognition unit 24 performs binarization processing, edge detection processing, and the like on the image information G when performing image recognition of the target feature, and the target feature included in the image information G The contour information of (road marking) is extracted. After that, the image recognition unit 24 performs pattern matching between the extracted contour information of the feature and the feature quantities of various feature forms that can be the target feature, so that the target feature included in the image information G is detected. Extract images. In addition, the image recognition unit 24 recognizes the feature type of the feature whose feature information matches the contour information of the extracted feature as the feature type of the target feature included in the image information G. Then, the image recognition unit 24 determines that the image recognition of the target feature has succeeded when the pattern matching is successful. On the other hand, as a result of performing the image recognition process on the image information G, the image recognition unit 24 determines that the image recognition of the target feature has failed when the pattern matching fails.

また、本実施形態においては、画像認識部24は、地物属性情報生成部25を備えている。地物属性情報生成部25は、画像認識部24により認識された対象地物について、当該対象地物の属性を表す地物属性情報を生成する地物属性情報生成手段として機能する。この地物属性情報は、後述するように認識地物情報A及び学習地物情報Fbの一部を構成する。ここで、地物属性情報により表される対象地物の属性は、当該一つの対象地物を他の対象地物と識別できるものであればよい。したがって、例えば、地物属性情報は、当該対象地物の地物種別、当該対象地物の具体的形状や大きさ、当該対象地物が存在するリンクkのリンクID、当該対象地物が存在する概略の位置等の中から選択される一又は二以上の情報を有して構成される。このような地物属性情報を構成する情報は、画像認識部24による当該対象地物の画像認識結果や、当該対象地物が認識された画像情報Gの取得時の自車位置情報P等に基づいて生成される。   In the present embodiment, the image recognition unit 24 includes a feature attribute information generation unit 25. The feature attribute information generation unit 25 functions as a feature attribute information generation unit that generates, for the target feature recognized by the image recognition unit 24, feature attribute information representing the attribute of the target feature. This feature attribute information constitutes a part of the recognized feature information A and the learned feature information Fb as described later. Here, the attribute of the target feature represented by the feature attribute information may be anything that can identify the one target feature from other target features. Therefore, for example, the feature attribute information includes the feature type of the target feature, the specific shape and size of the target feature, the link ID of the link k where the target feature exists, and the target feature exists. It is configured to have one or more pieces of information selected from the approximate positions. Information constituting such feature attribute information is, for example, the image recognition result of the target feature by the image recognition unit 24, or the vehicle position information P at the time of acquiring the image information G in which the target feature is recognized. Based on.

11.ナビゲーション用演算部
ナビゲーション用演算部27は、自車位置表示、出発地から目的地までの経路探索、目的地までの経路案内、目的地検索等のナビゲーション機能を実行するためにアプリケーションプログラム28に従って動作する演算処理手段である。ここで、アプリケーションプログラム28は、自車位置情報P、地図情報M、進路変更学習情報S、及び地物情報F等を参照して、ナビゲーション用演算部27に各種のナビゲーション機能を実行させる。例えば、ナビゲーション用演算部27は、自車位置情報Pに基づいて地図データベースDB1から自車両C周辺の地図情報Mを取得して表示入力装置29の表示画面に地図の画像を表示するとともに、当該地図の画像上に、自車位置情報Pに基づいて自車位置マークを重ね合わせて表示する処理を行う。また、ナビゲーション用演算部27は、地図データベースDB1に記憶された地図情報Mに基づいて、所定の出発地から目的地までの経路探索を行う。更に、ナビゲーション用演算部27は、探索された出発地から目的地までの経路と自車位置情報Pとに基づいて、表示入力装置29及び音声出力装置30の一方又は双方を用いて、運転者に対する経路案内を行う。表示入力装置29は、液晶表示装置等の表示装置とタッチパネルや操作スイッチ等の入力装置が一体となったものである。音声出力装置30は、スピーカ等を有して構成されている。本実施形態においては、ナビゲーション用演算部27、表示入力装置29、及び音声出力装置30が、本発明における案内情報出力手段31として機能する。
11. Navigation Calculation Unit The navigation calculation unit 27 operates in accordance with the application program 28 to execute navigation functions such as display of the vehicle position, route search from the departure place to the destination, route guidance to the destination, and destination search. Arithmetic processing means. Here, the application program 28 refers to the vehicle position information P, the map information M, the course change learning information S, the feature information F, and the like, and causes the navigation calculation unit 27 to execute various navigation functions. For example, the navigation calculation unit 27 acquires map information M around the host vehicle C from the map database DB1 based on the host vehicle position information P, displays a map image on the display screen of the display input device 29, and Based on the vehicle position information P, the vehicle position mark is superimposed and displayed on the map image. Further, the navigation calculation unit 27 performs a route search from a predetermined departure place to a destination based on the map information M stored in the map database DB1. Furthermore, the navigation calculation unit 27 uses one or both of the display input device 29 and the audio output device 30 based on the searched route from the departure point to the destination and the vehicle position information P, and uses the driver or the driver. Route guidance for. The display input device 29 is a combination of a display device such as a liquid crystal display device and an input device such as a touch panel and operation switches. The audio output device 30 includes a speaker and the like. In the present embodiment, the navigation calculation unit 27, the display input device 29, and the voice output device 30 function as the guidance information output means 31 in the present invention.

12.認識位置情報取得部
認識位置情報取得部41は、画像認識部24により画像認識に成功した対象地物について、当該対象地物の認識位置を表す認識位置情報を取得する認識位置情報取得手段として機能する。本実施形態においては、認識位置情報取得部41は、まず、画像認識部24による画像認識処理において、対象地物の画像認識に成功したか否かを監視する。そして、画像認識部24により、対象地物の画像認識に成功した場合には、認識位置情報取得部41は、当該画像認識結果と、自車位置情報取得部16により取得された自車位置情報Pとに基づいて当該対象地物の認識位置を導出する。ここでは、認識位置情報取得部41は、認識に成功した対象地物の画像を含む画像情報Gを取得した際の自車位置情報Pを、当該対象地物の認識位置情報として取得する。このように取得される対象地物の認識位置情報は、自車位置情報Pを基準として導出されるため、自車位置情報Pが有する誤差を反映した位置の情報となる。
12 Recognition position information acquisition unit The recognition position information acquisition unit 41 functions as a recognition position information acquisition unit that acquires recognition position information representing the recognition position of the target feature for the target feature that has been successfully recognized by the image recognition unit 24. To do. In the present embodiment, the recognition position information acquisition unit 41 first monitors whether or not the image recognition of the target feature has succeeded in the image recognition processing by the image recognition unit 24. When the image recognition unit 24 succeeds in image recognition of the target feature, the recognition position information acquisition unit 41 acquires the image recognition result and the vehicle position information acquired by the vehicle position information acquisition unit 16. Based on P, the recognition position of the target feature is derived. Here, the recognition position information acquisition part 41 acquires the own vehicle position information P when acquiring the image information G including the image of the target feature that has been successfully recognized as the recognition position information of the target feature. Since the recognition position information of the target feature acquired in this way is derived based on the own vehicle position information P, it becomes position information reflecting an error of the own vehicle position information P.

13.認識地物情報生成部
認識地物情報生成部42は、画像認識部24により画像認識に成功した対象地物について、地物属性情報生成部25により生成された当該対象地物の地物属性情報と、認識位置情報取得部41により取得された当該対象地物の認識位置情報とを含む認識地物情報Aを生成する認識地物情報生成手段として機能する。そして、認識地物情報生成部42は、生成した認識地物情報Aを地物学習データベースDB3に記憶する。以下、認識地物情報生成部42が行う処理の詳細について、図5及び図6を用いて説明する。図5は、対象地物の画像認識結果に基づく地物情報Fの学習処理の概要を説明するための説明図である。そして、図5(a)は、自車両Cが走行する実際の道路に設けられた道路標示(対象地物)の一例である。この例では、画像認識部24は、速度標示の「30」の文字を対象地物f1としての画像認識することになる。図5(b)は、地物学習データベースDB3に記憶された認識地物情報Aの一例である。図5(c)は、地物学習データベースDB3に記憶された学習結果が反映された地物データベースDB2の一例である。
13. Recognized feature information generating unit The recognized feature information generating unit 42 is the feature attribute information of the target feature generated by the feature attribute information generating unit 25 for the target feature that has been successfully recognized by the image recognizing unit 24. And a recognized feature information generating unit that generates recognized feature information A including the recognized position information of the target feature acquired by the recognized position information acquiring unit 41. Then, the recognized feature information generation unit 42 stores the generated recognized feature information A in the feature learning database DB3. Hereinafter, details of the processing performed by the recognized feature information generation unit 42 will be described with reference to FIGS. 5 and 6. FIG. 5 is an explanatory diagram for explaining an outline of the learning process of the feature information F based on the image recognition result of the target feature. FIG. 5A is an example of a road marking (target feature) provided on an actual road on which the host vehicle C travels. In this example, the image recognizing unit 24 recognizes the image of the character “30” of the speed indicator as the target feature f1. FIG. 5B is an example of the recognized feature information A stored in the feature learning database DB3. FIG. 5C is an example of the feature database DB2 in which the learning result stored in the feature learning database DB3 is reflected.

本実施形態においては、認識地物情報生成部42は、図5(b)に示すように、各対象地物について認識地物情報Aを、認識位置情報取得部41により取得された認識位置情報に基づいて、当該認識位置情報が示す当該対象地物の認識位置が属する所定の位置範囲についての学習値として生成する。そして、認識地物情報生成部42は、当該対象地物を認識する度に学習値を前記位置範囲毎に加算して記憶することとしている。本例では、所定の位置範囲は、道路を表すリンクkに沿った方向に一定距離毎に区分され設定された範囲であり、例えば、リンクkに沿った方向に0.5〔m〕毎に区分された範囲とする。また、学習値は、一つの対象地物の画像認識に成功する毎に、地物学習データベースDB3における当該対象地物の認識位置が属する位置範囲に加算される値であり、例えば、一つの対象地物の画像認識に成功する毎に1点とする。すなわち、本例では、認識地物情報Aは、対象地物の認識位置情報として、当該対象地物の認識位置が含まれる位置範囲を表す情報と、その学習値「1」の情報を有して構成される。   In the present embodiment, the recognized feature information generation unit 42 recognizes the recognized feature information A for each target feature, as shown in FIG. Is generated as a learning value for a predetermined position range to which the recognition position of the target feature indicated by the recognition position information belongs. The recognized feature information generation unit 42 adds and stores the learning value for each position range every time the target feature is recognized. In this example, the predetermined position range is a range that is divided and set at a certain distance in the direction along the link k representing the road, for example, every 0.5 [m] in the direction along the link k. The range is divided. The learning value is a value added to the position range to which the recognition position of the target feature belongs in the feature learning database DB3 every time image recognition of one target feature is successful. Each time a feature image is successfully recognized, one point is given. That is, in this example, the recognized feature information A includes information indicating a position range including the recognized position of the target feature and information of the learning value “1” as the recognized position information of the target feature. Configured.

図6は、図5(b)に示す地物学習データベースDB3に記憶された学習値の対象地物f1に関する部分の拡大図である。例えば、図5(a)の例において、対象地物f1の画像認識に成功した場合であって、認識位置情報取得部41により取得された対象地物f1の認識位置が、図6中に「a4」として示される位置範囲であった場合には、この図6中に破線で示すように、当該位置範囲a4の学習値に1が加算される。そして、自車両Cが同じ道路を複数回通行することにより、同じ対象地物f1が複数回画像認識されると、地物学習データベースDB3には、図5(b)及び図6に示すように、当該対象地物が認識される毎に生成された複数の認識地物情報Aとしての学習値が、当該対象地物の認識位置を表す位置範囲毎に積算されて蓄積される。そして、後述するように、学習値が所定の学習しきい値T1以上になると、学習地物情報生成部44により当該対象地物についての学習地物情報Fbが生成され、地物データベースDB2に記憶される。図5の例では、図5(c)に示すように、対象地物f1に対応する学習地物情報Fb1が、地物データベースDB2に記憶される。   FIG. 6 is an enlarged view of a portion related to the target feature f1 of the learning value stored in the feature learning database DB3 shown in FIG. For example, in the example of FIG. 5A, when the image recognition of the target feature f1 is successful, the recognition position of the target feature f1 acquired by the recognition position information acquisition unit 41 is “ In the case of the position range indicated as “a4”, 1 is added to the learning value of the position range a4 as indicated by a broken line in FIG. And if the same target feature f1 is image-recognized a plurality of times when the own vehicle C passes the same road a plurality of times, the feature learning database DB3 stores the feature target database as shown in FIG. 5B and FIG. The learning values as the plurality of recognition feature information A generated each time the target feature is recognized are accumulated and accumulated for each position range representing the recognition position of the target feature. Then, as will be described later, when the learning value becomes equal to or greater than a predetermined learning threshold value T1, learning feature information Fb for the target feature is generated by the learning feature information generation unit 44 and stored in the feature database DB2. Is done. In the example of FIG. 5, as shown in FIG. 5C, learning feature information Fb1 corresponding to the target feature f1 is stored in the feature database DB2.

また、認識地物情報生成部42は、当該認識地物情報Aが示す対象地物を他の対象地物に対して識別可能な状態とするため、地物属性情報生成部25により生成された当該対象地物の地物属性情報を有している。すなわち、地物学習データベースDB3に記憶される認識地物情報Aは、当該対象地物の認識位置情報としての位置範囲を表す情報及びその学習値「1」の情報を有するとともに、当該対象地物の地物属性を表す地物属性情報が関連付けられて構成されている。上記のとおり、この地物属性情報は、例えば、地物属性情報は、当該対象地物の地物種別、当該対象地物の具体的形状や大きさ、当該対象地物が存在するリンクkのリンクID、当該対象地物が存在する概略の位置等の中から選択される一又は二以上の情報を有して構成される。   In addition, the recognized feature information generation unit 42 is generated by the feature attribute information generation unit 25 so that the target feature indicated by the recognized feature information A can be distinguished from other target features. It has the feature attribute information of the target feature. That is, the recognized feature information A stored in the feature learning database DB3 includes information indicating the position range as the recognition position information of the target feature and information of the learning value “1”, and the target feature. The feature attribute information representing the feature attributes of the two is associated with each other. As described above, for example, the feature attribute information includes the feature type of the target feature, the specific shape and size of the target feature, and the link k where the target feature exists. It is configured with one or more information selected from a link ID, an approximate position where the target feature exists, and the like.

14.推測位置判定部
推測位置判定部43は、地物学習データベースDB3に記憶された各対象地物についての複数の前記認識位置情報を統計的に処理して求めた推測位置情報を取得する推測位置情報取得手段として機能する。そのため、推測位置判定部43は、同じ対象地物が複数回画像認識されることにより地物学習データベースDB3に記憶された、同じ対象地物についての複数の認識地物情報Aに基づいて、図5に示すように、当該対象地物についての推測認識位置paを判定し、当該推測認識位置paを当該対象地物の道路上の位置に変換することにより当該対象地物の推測位置pgを判定する処理を行う。本実施形態においては、推測位置判定部43は、まず、同じ対象地物についての複数の認識地物情報Aの分布に基づいて、当該分布の代表値を当該対象地物についての推測認識位置paとして判定する。ここでは、分布の代表値として最頻値を用いる。すなわち、推測位置判定部43は、各対象地物についての認識地物情報Aとしての学習値が、最初に所定の学習しきい値T1以上となった位置範囲を代表する位置を、当該対象地物についての推測認識位置paと判定する。一例として、図5の例における対象地物f1の推測認識位置paを判定する場合の判定方法について説明する。図6に示すように、対象地物f1についての認識地物情報Aとしての学習値は、位置範囲a4において最初に学習しきい値T1以上となっている。したがって、推測位置判定部43は、位置範囲a4を代表する位置、例えば位置範囲a4の中央位置pa4を、対象地物f1の推測認識位置paと判定する。
14 Estimated position determination unit The estimated position determination unit 43 acquires estimated position information obtained by statistically processing a plurality of the recognized position information for each target feature stored in the feature learning database DB3. It functions as an acquisition means. Therefore, the estimated position determination unit 43 is based on a plurality of recognized feature information A for the same target feature stored in the feature learning database DB3 by image recognition of the same target feature multiple times. 5, the estimated recognition position pa for the target feature is determined, and the estimated position pg of the target feature is determined by converting the estimated recognition position pa into a position on the road of the target feature. Perform the process. In the present embodiment, the estimated position determination unit 43 first determines a representative value of the distribution based on the distribution of the plurality of recognized feature information A for the same target feature, and the estimated recognition position pa for the target feature. Judge as. Here, the mode value is used as the representative value of the distribution. That is, the estimated position determination unit 43 determines the position representing the position range in which the learning value as the recognized feature information A for each target feature first becomes equal to or greater than the predetermined learning threshold T1. The estimated recognition position pa for the object is determined. As an example, a determination method in the case of determining the estimated recognition position pa of the target feature f1 in the example of FIG. 5 will be described. As shown in FIG. 6, the learning value as the recognized feature information A for the target feature f1 is initially equal to or greater than the learning threshold value T1 in the position range a4. Therefore, the estimated position determination unit 43 determines a position representing the position range a4, for example, the center position pa4 of the position range a4, as the estimated recognition position pa of the target feature f1.

次に、推測位置判定部43は、上記のようにして判定された対象地物の推測認識位置paを、当該対象地物の道路上の位置に変換して当該対象地物の推測位置pgを判定する。このような変換は、撮像装置11の取付位置、取付角度、及び画角等から理論上求められる自車両Cと画像情報G中の対象地物との位置関係に基づいて行うことができる。そして、このようにして推測位置判定部43により求められた対象地物の推測位置pgを表す情報が、当該対象地物の推測位置情報として取得される。   Next, the estimated position determination unit 43 converts the estimated recognition position pa of the target feature determined as described above into a position on the road of the target feature, and calculates the estimated position pg of the target feature. judge. Such conversion can be performed based on the positional relationship between the subject vehicle C and the target feature in the image information G, which is theoretically determined from the mounting position, mounting angle, and angle of view of the imaging device 11. Information representing the estimated position pg of the target feature obtained by the estimated position determination unit 43 in this way is acquired as estimated position information of the target feature.

15.学習地物情報生成部
学習地物情報生成部44は、同じ対象地物が複数回画像認識されることにより地物学習データベースDB3に記憶された同じ対象地物についての複数の認識地物情報Aに基づいて、当該対象地物の学習結果を表す学習地物情報Fbを生成する学習地物情報生成手段として機能する。ここで、学習地物情報Fbは、複数の認識地物情報Aに示される同じ対象地物についての地物属性情報と、推測位置判定部43により当該対象地物についての複数の認識位置情報Aを統計的に処理して求めた、当該対象地物の推測位置pgを表す推測位置情報とを含んで構成される。すなわち、学習地物情報生成部44は、推測位置判定部43により取得された各対象地物の推測位置pgを表す推測位置情報と、当該対象地物についての認識地物情報Aに含まれる地物属性情報とを関連付けて学習地物情報Fbを生成する。またこの際、学習地物情報生成部44は、各学習地物情報Fbの地物属性情報として、各地物を他の地物と識別するための識別情報(地物ID)を付与する。これにより、学習地物情報Fbは、初期地物情報Faと同様に、位置情報及びそれに関連付けられた地物属性情報を備えた情報として生成される。そして、この学習地物情報生成部44で生成された学習地物情報Fbは、地物データベースDB2に記憶される。本実施形態においては、図5(c)に示すように、学習地物情報Fb1が、学習地物情報生成部44により生成され、地物データベースDB2に記憶されている。なお、この図に表されている黒い四角形「■」は、学習地物情報Fb1の位置情報が示す対象地物f1の推測位置pgを表している。
15. Learning feature information generation unit The learning feature information generation unit 44 recognizes a plurality of pieces of recognized feature information A about the same target feature stored in the feature learning database DB3 by image recognition of the same target feature multiple times. The learning feature information generating means for generating the learning feature information Fb representing the learning result of the target feature. Here, the learned feature information Fb includes feature attribute information about the same target feature indicated in the plurality of recognized feature information A, and a plurality of recognized position information A about the target feature by the estimated position determination unit 43. And estimated position information that represents the estimated position pg of the target feature. That is, the learning feature information generation unit 44 includes the estimated position information representing the estimated position pg of each target feature acquired by the estimated position determination unit 43 and the feature included in the recognized feature information A about the target feature. Learning feature information Fb is generated in association with the object attribute information. At this time, the learned feature information generation unit 44 assigns identification information (feature ID) for distinguishing each feature from other features as the feature attribute information of each learned feature information Fb. Thereby, the learning feature information Fb is generated as information including the position information and the feature attribute information associated therewith like the initial feature information Fa. The learned feature information Fb generated by the learned feature information generation unit 44 is stored in the feature database DB2. In the present embodiment, as shown in FIG. 5C, learning feature information Fb1 is generated by the learning feature information generation unit 44 and stored in the feature database DB2. The black square “■” shown in this figure represents the estimated position pg of the target feature f1 indicated by the position information of the learned feature information Fb1.

16.関係情報生成部
関係情報生成部45は、進路変更検出部17により自車両Cの進路変更動作が検出された場合に、当該検出された自車両Cの進路変更動作と、当該進路変更動作の検出より前に画像認識部24により認識された対象地物との関係を表す関係情報Br(図7参照)を取得する関係情報取得手段として機能する。ここで、関係情報生成部45は、自車両Cの移動距離を検出する移動距離検出手段としての距離センサ15、及び自車両Cの現在位置を表す自車位置情報Pを取得する自車位置情報取得部16の少なくとも一方からの情報に基づいて関係情報Brを取得する。そのため、本実施形態においては、関係情報生成部45は、図1に示すように、距離情報生成部46及び地物特定情報生成部47を有して構成されている。そこで、以下に、これら距離情報生成部46及び地物特定情報生成部47が行う処理の詳細について説明する。
16. Relationship Information Generation Unit When the route change operation of the host vehicle C is detected by the route change detection unit 17, the relationship information generation unit 45 detects the detected route change operation of the host vehicle C and the route change operation. It functions as a relationship information acquisition unit that acquires relationship information Br (see FIG. 7) that represents a relationship with the target feature recognized by the image recognition unit 24 earlier. Here, the relationship information generation unit 45 acquires distance information 15 as a movement distance detection unit that detects the movement distance of the own vehicle C, and own vehicle position information that acquires own vehicle position information P that represents the current position of the own vehicle C. The relationship information Br is acquired based on information from at least one of the acquisition units 16. Therefore, in this embodiment, the relationship information generation part 45 is comprised including the distance information generation part 46 and the feature specific information generation part 47 as shown in FIG. Therefore, the details of the processing performed by the distance information generation unit 46 and the feature identification information generation unit 47 will be described below.

なお、以下の説明においては、自車両Cの進路変更動作の具体例に関する検出動作情報B及び進路変更学習情報Sの内容を示す図7を適宜参照する。ここで、図7(a)は、自車両Cが実際に走行する道路の状況の具体例を示している。この図7(a)の例では、自車両Cは、速度標示の「30」の文字の対象地物f1の上を通過した後、距離100〔m〕進行してから交差点Nで左折している。したがって、本例では、画像認識部24が対象地物f1を画像認識した後に、距離100〔m〕進行した交差点Nにおいて進路変更検出部17が自車両Cの「左折」の進路変更動作を検出することになる。図7(b)は、当該進路変更動作についての検出動作情報Bの例を示し、図7(c)は、当該進路変更動作についての進路変更学習情報Sの例を示している。   In the following description, FIG. 7 showing the contents of the detection operation information B and the route change learning information S regarding a specific example of the route change operation of the host vehicle C will be referred to as appropriate. Here, Fig.7 (a) has shown the specific example of the condition of the road where the own vehicle C actually drive | works. In the example of FIG. 7 (a), the host vehicle C passes over the target feature f1 indicated by the character “30” in the speed indicator, and after making a distance of 100 m, turns left at the intersection N. Yes. Accordingly, in this example, after the image recognition unit 24 recognizes the target feature f1, the route change detection unit 17 detects the route change operation of the “left turn” of the host vehicle C at the intersection N that has traveled a distance of 100 [m]. Will do. FIG. 7B shows an example of the detection operation information B for the route change operation, and FIG. 7C shows an example of the route change learning information S for the route change operation.

16−1.距離情報生成部
距離情報生成部46は、進路変更検出部17による自車両Cの進路変更動作の検出より前に画像認識部24により認識された対象地物について、当該対象地物の認識位置から自車両Cの進路変更が行われた位置までの距離を表す距離情報Bc(図7(b)参照)を取得する距離情報取得手段として機能する。すなわち、距離情報生成部46は、図7(a)の例に示すように、画像認識部24により対象地物f1が認識された後に、進路変更検出部17により自車両Cの進路変更動作が検出された場合に、当該対象地物の認識位置から当該進路変更動作の検出位置までの距離である地物−進路変更間距離Lを検出して距離情報Bcを生成する。そのため、本実施形態においては、距離情報生成部46は、距離センサ15により検出される自車両Cの移動距離の情報を用いて、地物−進路変更間距離Lを検出する。
16-1. Distance Information Generating Unit The distance information generating unit 46 detects the target feature recognized by the image recognizing unit 24 before the course change detecting unit 17 detects the course changing operation of the host vehicle C from the recognition position of the target feature. It functions as distance information acquisition means for acquiring distance information Bc (see FIG. 7B) that represents the distance to the position where the course of the host vehicle C has been changed. That is, as shown in the example of FIG. 7A, the distance information generation unit 46 performs the course change operation of the host vehicle C by the course change detection unit 17 after the target feature f1 is recognized by the image recognition unit 24. When detected, the distance L between the feature and the course change, which is the distance from the recognition position of the target feature to the detection position of the course change operation, is detected to generate distance information Bc. Therefore, in the present embodiment, the distance information generation unit 46 detects the feature-course change distance L using information on the movement distance of the host vehicle C detected by the distance sensor 15.

すなわち、距離情報生成部46は、画像認識部24により対象地物が認識された際の自車両Cの位置を始点とし、進路変更検出部17により自車両Cの進路変更動作が検出されるまでの自車両Cの移動距離を地物−進路変更間距離Lとして検出する。このように距離センサ15からの出力を用いることにより、自車位置情報Pとは無関係に地物−進路変更間距離Lを検出することができる。そして、距離情報生成部46は、このように検出した地物−進路変更間距離Lを表す情報を距離情報Bcとする。図7(a)に示す例では、実際の地物−進路変更間距離Lが100〔m〕である。したがって、当該地物−進路変更間距離Lの距離センサ15による検出結果として、図7(b)に示すように、距離センサ15の検出誤差が含まれた値が、距離情報生成部46により距離情報Bcとして生成される。   That is, the distance information generation unit 46 starts from the position of the host vehicle C when the target feature is recognized by the image recognition unit 24, and until the course change operation of the host vehicle C is detected by the course change detection unit 17. The moving distance of the host vehicle C is detected as the feature-path change distance L. In this way, by using the output from the distance sensor 15, the feature-path change distance L can be detected regardless of the vehicle position information P. Then, the distance information generation unit 46 sets the information indicating the detected feature-path change distance L as distance information Bc. In the example shown in FIG. 7A, the actual feature-route change distance L is 100 [m]. Therefore, as a detection result of the distance L between the feature and the course change by the distance sensor 15, as shown in FIG. 7B, a value including the detection error of the distance sensor 15 is converted into a distance by the distance information generation unit 46. Generated as information Bc.

16−2.地物特定情報生成部
地物特定情報生成部47は、画像認識部24により認識された対象地物を特定するための地物特定情報Bbを生成する地物特定情報生成手段として機能する。すなわち、地物特定情報生成部47は、図7(a)の例に示すように、画像認識部24により対象地物f1が認識された後に、進路変更検出部17により自車両Cの進路変更動作が検出された場合に、当該認識された対象地物f1を特定するための地物特定情報Bbを生成する。本実施形態においては、地物特定情報Bbは、地物学習データベースDB3に記憶された認識地物情報Aを特定するための識別情報(図7(b)の例では地物ID(ID=××××))としている。すなわち、地物特定情報生成部47は、画像認識部24により対象地物f1が認識された後、当該認識された対象地物f1についての認識地物情報Aが認識地物情報生成部42により生成され、地物学習データベースDB3に記憶される際に、当該認識地物情報Aを特定するための識別情報を取得する。そして、地物特定情報生成部47は、当該識別情報を地物特定情報Bbとして生成する。これにより、後述する検出動作情報B又は進路変更学習情報Sに含まれる地物特定情報Bbに基づいて、地物学習データベースDB3に記憶された認識地物情報Aを参照することにより、検出動作情報B又は進路変更学習情報Sに示される対象地物の地物属性や認識位置を特定することが可能となる。
16-2. The feature specifying information generating unit The feature specifying information generating unit 47 functions as a feature specifying information generating unit that generates the feature specifying information Bb for specifying the target feature recognized by the image recognition unit 24. That is, as shown in the example of FIG. 7A, the feature specifying information generation unit 47 changes the course of the host vehicle C by the course change detection unit 17 after the target feature f1 is recognized by the image recognition unit 24. When the motion is detected, the feature specifying information Bb for specifying the recognized target feature f1 is generated. In the present embodiment, the feature specifying information Bb is identification information for specifying the recognized feature information A stored in the feature learning database DB3 (the feature ID (ID = × in the example of FIG. 7B)). Xxx)). That is, the feature specifying information generating unit 47 recognizes the recognized feature information A about the recognized target feature f1 by the recognized feature information generating unit 42 after the image recognition unit 24 recognizes the target feature f1. When it is generated and stored in the feature learning database DB3, identification information for specifying the recognized feature information A is acquired. Then, the feature specifying information generation unit 47 generates the identification information as the feature specifying information Bb. Accordingly, the detection operation information is obtained by referring to the recognized feature information A stored in the feature learning database DB3 on the basis of the feature specifying information Bb included in the detection operation information B or the course change learning information S described later. It becomes possible to specify the feature attribute and recognition position of the target feature indicated in B or the course change learning information S.

なお、地物学習データベースDB3に記憶された認識地物情報Aを特定するための識別情報は、各認識地物情報Aに付された地物IDに限られるものではなく、例えば、地物学習データベースDB3内の各認識地物情報Aの格納場所等のような他の情報とすることも可能である。   The identification information for specifying the recognized feature information A stored in the feature learning database DB3 is not limited to the feature ID given to each recognized feature information A. For example, the feature learning Other information such as the storage location of each recognized feature information A in the database DB3 may be used.

そして、図7(b)に示すように、本実施形態においては、距離情報生成部46により生成された距離情報Bcと、地物特定情報生成部47により生成された地物特定情報Bbとにより、関係情報Brが構成される。   7B, in the present embodiment, the distance information Bc generated by the distance information generating unit 46 and the feature specifying information Bb generated by the feature specifying information generating unit 47 are used. , Relationship information Br is configured.

17.検出動作情報生成部
検出動作情報生成部48は、進路変更動作が行われた進路変更交差点Nを特定可能な進路変更情報Baと、当該進路変更動作について距離情報生成部46により取得された距離情報Bcとを含む検出動作情報Bを生成する検出進路変更動作生成手段として機能する。本実施形態においては、検出動作情報Bは、更に地物特定情報Bbを含んでいる。上記のとおり、進路変更情報Baは、進路変更検出部17により自車両Cの進路変更動作が検出された際に進路変更情報生成部18により生成される。また、関係情報Brを構成する距離情報Bc及び地物特定情報Bbは、関係情報生成部45の距離情報生成部46及び地物特定情報生成部47により生成される。そこで、検出動作情報生成部48は、これらの進路変更情報Baと距離情報Bcを含む関係情報Brとを関連付けて検出動作情報Bを生成する。そして、検出動作情報生成部48は、生成した検出動作情報Bを進路変更学習データベースDB4に記憶する。
17. Detection Operation Information Generation Unit The detection operation information generation unit 48 includes route change information Ba that can identify the route change intersection N where the route change operation has been performed, and distance information acquired by the distance information generation unit 46 regarding the route change operation. It functions as detection course change operation generation means for generating detection operation information B including Bc. In the present embodiment, the detection operation information B further includes feature specifying information Bb. As described above, the route change information Ba is generated by the route change information generation unit 18 when the route change detection unit 17 detects the route change operation of the host vehicle C. Further, the distance information Bc and the feature specifying information Bb constituting the relationship information Br are generated by the distance information generating unit 46 and the feature specifying information generating unit 47 of the relationship information generating unit 45. Therefore, the detection operation information generation unit 48 generates the detection operation information B by associating the route change information Ba and the relationship information Br including the distance information Bc. Then, the detection operation information generation unit 48 stores the generated detection operation information B in the course change learning database DB4.

ここで、ある一つの進路変更動作についての複数の検出動作情報Bでは、当該進路変更動作の進路変更の態様及び進路変更交差点N、並びに当該進路変更動作の検出前に画像認識される対象地物は同一となる。したがって、本実施形態においては、検出動作情報生成部48は、同じ進路変更動作についての複数の検出動作情報Bについて、進路変更情報Ba及び地物特定情報Bbを共通とした一まとめの情報として進路変更学習データベースDB4に記憶する。図7(b)は、図7(a)の例に示される一つの進路変更動作(交差点Nでの「左折」)についての複数の検出動作情報Bを一つにまとめて格納した例を示している。この例では、検出動作情報Bは、態様情報Bdが「左折」であって、交差点特定情報Beが「ID=○○○○→ID=△△△△」である進路変更動作を内容とする一つの進路変更情報Baと、「ID=××××」の識別情報を内容とする地物特定情報Bbとに関連付けられた複数の距離情報Bcにより構成されている。そして、これら複数の距離情報Bcは、距離センサ15による検出誤差を含むため、実際の地物−進路変更間距離Lである100〔m〕に近い値ではあるが、それぞれ若干異なる値となっている。   Here, in the plurality of detection operation information B for a certain course change operation, the course change mode of the course change operation, the course change intersection N, and the target feature that is image-recognized before the detection of the course change operation is performed. Are the same. Therefore, in the present embodiment, the detection operation information generation unit 48 uses the route change information Ba and the feature specifying information Bb as a set of information about the plurality of detection operation information B for the same route change operation. It memorize | stores in change learning database DB4. FIG. 7B shows an example in which a plurality of detection operation information B for one course changing operation (“left turn” at the intersection N) shown in the example of FIG. ing. In this example, the detection operation information B includes a course changing operation in which the mode information Bd is “left turn” and the intersection identification information Be is “ID = XXXXXX → ID = ΔΔΔΔ”. It is composed of a plurality of distance information Bc associated with one course change information Ba and feature specifying information Bb containing identification information of “ID = xxxx”. And since these several distance information Bc includes the detection error by the distance sensor 15, although it is a value close | similar to 100 [m] which is the actual feature-distance change distance L, each becomes a little different value. Yes.

18.平均距離判定部
平均距離判定部49は、同じ進路変更動作についての複数の検出動作情報Bに示される同じ進路変更動作についての複数の距離情報Bcの平均値を判定し、平均距離情報Scを生成する。本実施形態においては、平均距離判定部49は、ある一つの進路変更動作について進路変更情報Ba及び地物特定情報Bbを共通として一つにまとめて記憶された検出動作情報Bの複数の距離情報Bcについて平均値を判定する。そして、判定された同じ進路変更動作についての複数の距離情報Bcの平均値を、平均距離情報Scとして生成する。図7(c)に示される進路変更学習情報Sの例では、平均距離情報Scは、図7(b)の例に示される一つの進路変更動作(「左折」)についての検出動作情報Bの複数の距離情報Bcの全ての値の平均値(「100.1〔m〕」)となっている。そして、このように平均距離判定部49により生成される平均距離情報Scと、同じ進路変更動作についての複数の検出動作情報Bに共通する地物特定情報Bbとにより、本発明における統計的関係情報Srが構成される。よって、本実施形態においては、平均距離判定部49は、複数の検出動作情報Bに示される同じ進路変更動作についての複数の関係情報Brを統計的に処理して求めた統計的関係情報Srを生成する統計的関係情報生成手段として機能する。
18. Average distance determination unit The average distance determination unit 49 determines an average value of a plurality of distance information Bc for the same course changing operation indicated in the plurality of detection operation information B for the same course changing operation, and generates average distance information Sc. To do. In the present embodiment, the average distance determination unit 49 includes a plurality of pieces of distance information of the detection operation information B that are stored together as a common route change information Ba and feature specifying information Bb for a certain route change operation. An average value is determined for Bc. And the average value of several distance information Bc about the determined same course change operation | movement is produced | generated as average distance information Sc. In the example of the course change learning information S shown in FIG. 7C, the average distance information Sc is the detection operation information B for one course change action (“left turn”) shown in the example of FIG. It is an average value (“100.1 [m]”) of all values of the plurality of distance information Bc. The statistical relationship information in the present invention is obtained from the average distance information Sc generated by the average distance determination unit 49 and the feature specifying information Bb common to the plurality of detection operation information B for the same course changing operation. Sr is configured. Therefore, in the present embodiment, the average distance determination unit 49 uses the statistical relationship information Sr obtained by statistically processing the plurality of relationship information Br for the same course changing operation indicated by the plurality of detection operation information B. It functions as a statistical relationship information generation means for generating.

19.進路変更学習情報生成部
進路変更学習情報生成部50は、進路変更学習データベースDB4に記憶された検出動作情報Bに基づいて、対象地物と関係付けられた自車両Cの過去の進路変更動作の学習結果を表す進路変更学習情報Sを生成する進路変更学習情報生成手段として機能する。本実施形態においては、進路変更学習情報生成部50は、基本的に、同じ進路変更動作が複数回検出されることにより進路変更学習データベースDB4に記憶された、同じ進路変更動作についての複数の検出動作情報Bに基づいて進路変更学習情報Sを生成する。そして、進路変更学習情報Sは、自車両Cの進路変更動作が行われた進路変更交差点Nを特定可能な進路変更情報Baと、当該進路変更動作より前に画像認識された対象地物について当該対象地物の認識位置から自車両Cの進路変更動作が行われた位置までの距離情報としての平均距離情報Scを含む統計的関係情報Srと、を有して構成される。したがって、この進路変更学習情報Sは、ある一つの進路変更動作についての複数の検出動作情報Bについて共通の進路変更情報Ba及び地物特定情報Bbと、当該進路変更動作についての複数の検出動作情報Bに示される同じ進路変更動作についての複数の距離情報Bcの平均値である平均距離情報Scとを関連付けた情報として構成される。図7(c)に示される例では、進路変更学習情報Sは、態様情報Bdが「左折」であって、交差点特定情報Beが「ID=○○○○→ID=△△△△」である進路変更動作を内容とする一つの進路変更情報Baと、「ID=××××」の識別情報を内容とする地物特定情報Bbと、これらに関連付けられた「100.1〔m〕」を内容とする平均距離情報Scとにより構成されている。そして、進路変更学習情報生成部50は、生成した進路変更学習情報Sを進路変更データベースDB5に記憶する。
19. Course Change Learning Information Generation Unit Course change learning information generation unit 50 is based on the detected action information B stored in the course change learning database DB4, and the past course change operation of the host vehicle C associated with the target feature. It functions as a course change learning information generating means for generating course change learning information S representing the learning result. In the present embodiment, the course change learning information generation unit 50 basically detects a plurality of detections for the same course change operation stored in the course change learning database DB4 by detecting the same course change operation a plurality of times. Based on the motion information B, the course change learning information S is generated. The course change learning information S includes the course change information Ba that can identify the course change intersection N where the course change operation of the host vehicle C has been performed, and the target features that are image-recognized before the course change operation. And statistical relationship information Sr including average distance information Sc as distance information from the recognized position of the target feature to the position where the course change operation of the host vehicle C is performed. Therefore, this course change learning information S includes common course change information Ba and feature specifying information Bb for a plurality of detection operation information B for a certain course change operation, and a plurality of detection operation information for the course change operation. B is configured as information associated with average distance information Sc that is an average value of a plurality of distance information Bc for the same course changing operation shown in B. In the example shown in FIG. 7C, the course change learning information S includes the mode information Bd of “left turn” and the intersection specification information Be of “ID = ◯◯◯◯ → ID = ΔΔΔΔ”. One course change information Ba containing a certain course change operation, feature specifying information Bb containing identification information “ID = xxx”, and “100.1 [m]” associated therewith ”And the average distance information Sc. The course change learning information generation unit 50 stores the generated course change learning information S in the course change database DB5.

なお、進路変更学習情報生成部50は、ある一つの進路変更動作について進路変更学習データベースDB4に一つの検出動作情報Bしかない場合には、当該一つの検出動作情報Bに基づいて進路変更学習情報Sを生成する。この場合、進路変更学習情報Sの統計的関係情報Srに含まれる平均距離情報Scが、検出動作情報Bの距離情報Bcと同じになるため、進路変更学習情報Sの内容は、実質的に検出動作情報Bと同じとなる。以下では、複数の検出動作情報Bに基づいて進路変更学習情報Sを生成する場合を例として説明する。   When there is only one detection operation information B in the route change learning database DB4 for a certain route change operation, the route change learning information generation unit 50 determines the route change learning information based on the one detection operation information B. S is generated. In this case, since the average distance information Sc included in the statistical relationship information Sr of the course change learning information S is the same as the distance information Bc of the detection operation information B, the content of the course change learning information S is substantially detected. The same as the operation information B. Below, the case where the course change learning information S is generated based on a plurality of detection operation information B will be described as an example.

20.自車位置情報補正部
このナビゲーション装置1に含まれる自車位置認識装置2は、以上のようにして生成された進路変更学習情報Sを用いて、自車位置情報補正部51により、自車位置情報取得部16で取得された自車位置情報Pの補正を行う。すなわち、自車位置情報補正部51は、画像認識部24により対象地物が認識された場合に、進路変更データベースDB5に記憶された当該対象地物についての進路変更学習情報Sに基づいて、自車位置情報Pを補正する自車位置補正手段として機能する。そのため、本実施形態においては、自車位置情報補正部51は、画像認識部24により認識された対象地物についての進路変更学習情報Sを進路変更データベースDB5から抽出する学習情報抽出部52と、抽出された進路変更学習情報Sと道路情報Raとに基づいて自車位置情報Pを補正する処理を行う第一補正処理部53とを有している。また、本実施形態においては、自車位置情報補正部51は、画像認識部24により認識された対象地物についての進路変更学習情報Sが存在しない場合等に、対象地物の画像認識結果に基づいて自車位置情報Pを補正する処理を行う第二補正処理部54も有している。以下では、自車位置情報補正部51のこれらの各部の構成についてそれぞれ説明する。
20. Self-vehicle position information correction unit The self-vehicle position recognition device 2 included in the navigation device 1 uses the course change learning information S generated as described above to cause the self-vehicle position information correction unit 51 to The vehicle position information P acquired by the information acquisition unit 16 is corrected. That is, when the target feature is recognized by the image recognizing unit 24, the own vehicle position information correcting unit 51 is based on the route change learning information S about the target feature stored in the route change database DB5. It functions as own vehicle position correcting means for correcting the vehicle position information P. Therefore, in the present embodiment, the own vehicle position information correction unit 51 extracts the course change learning information S about the target feature recognized by the image recognition unit 24 from the course change database DB5, A first correction processing unit 53 that performs processing for correcting the vehicle position information P based on the extracted course change learning information S and road information Ra. Further, in the present embodiment, the vehicle position information correction unit 51 uses the image recognition result of the target feature when the course change learning information S about the target feature recognized by the image recognition unit 24 does not exist. A second correction processing unit 54 that performs processing for correcting the vehicle position information P based on the vehicle is also provided. Below, the structure of these each part of the own vehicle position information correction | amendment part 51 is each demonstrated.

20−1.学習情報抽出部
学習情報抽出部52は、画像認識部24により対象地物が画像認識された際に、当該認識された対象地物についての進路変更学習情報Sを進路変更データベースDB5から抽出して取得する進路変更学習情報抽出手段として機能する。そのため、学習情報抽出部52は、自車両Cの走行中、画像認識部24により対象地物の画像認識に成功するか否かを監視する。そして、対象地物の画像認識に成功した場合には、進路変更データベースDB5を検索し、当該対象地物についての進路変更学習情報Sを抽出する。進路変更データベースDB5内における、当該対象地物についての進路変更学習情報Sの検索は、各進路変更学習情報Sに含まれる地物特定情報Bbに基づいて行われる。すなわち、画像認識部24において対象地物の画像認識に成功した場合には、地物属性情報生成部25において地物属性情報が生成される。そこで、学習情報抽出部52は、当該生成された地物属性情報に基づいて、地物属性が一致する地物情報Fを地物データベースDB2から抽出する。そして、学習情報抽出部52は、当該地物情報Fの識別情報(地物ID)と一致する識別情報の地物特定情報Bbを有する進路変更学習情報Sを、進路変更データベースDB5内で検索して抽出する。この学習情報抽出部52により抽出された進路変更学習情報Sが、第一補正処理部53において自車位置情報Pの補正に用いられる。
20-1. Learning Information Extraction Unit The learning information extraction unit 52 extracts the course change learning information S about the recognized target feature from the course change database DB5 when the target feature is image-recognized by the image recognition unit 24. It functions as a route change learning information extraction means to obtain. Therefore, the learning information extraction unit 52 monitors whether or not the image recognition unit 24 succeeds in image recognition of the target feature while the host vehicle C is traveling. Then, when the image recognition of the target feature is successful, the route change database DB5 is searched, and the route change learning information S about the target feature is extracted. The search for the course change learning information S for the target feature in the course change database DB5 is performed based on the feature specifying information Bb included in each course change learning information S. That is, if the image recognition unit 24 succeeds in image recognition of the target feature, the feature attribute information generation unit 25 generates the feature attribute information. Therefore, the learning information extraction unit 52 extracts the feature information F having the same feature attribute from the feature database DB2 based on the generated feature attribute information. Then, the learning information extraction unit 52 searches the course change database DB5 for course change learning information S having the feature identification information Bb of the identification information that matches the identification information (feature ID) of the feature information F. To extract. The course change learning information S extracted by the learning information extraction unit 52 is used for correcting the vehicle position information P in the first correction processing unit 53.

20−2.第一補正処理部
第一補正処理部53は、学習情報抽出部52により抽出された進路変更学習情報Sと道路情報Raとに基づいて自車位置情報Pを補正する処理を行う補正処理手段として機能する。すなわち、第一補正処理部53は、画像認識部24により認識された対象地物についての進路変更学習情報Sに含まれる進路変情報Ba及び平均距離情報Scに基づいて、当該対象地物が認識された際の自車位置情報Pに基づく当該対象地物の認識位置から平均距離情報Scに示される距離だけ進行した位置が、進路変更情報Baにより特定される進路変更交差点Nの道路情報Ra中の位置と一致するように自車位置情報Pを補正する。このような第一補正処理部53による自車位置情報Pの補正処理の具体例について、図8及び図9を用いて以下に説明する。なお、図8は、第一補正処理部53による自車位置情報Pの補正を行わない場合の自車両C及び自車位置情報Pの軌跡を示し、図9は、第一補正処理部53による自車位置情報Pの補正を行った場合の自車両C及び自車位置情報Pの軌跡を示している。
20-2. First Correction Processing Unit The first correction processing unit 53 is a correction processing unit that performs processing for correcting the vehicle position information P based on the course change learning information S and the road information Ra extracted by the learning information extraction unit 52. Function. That is, the first correction processing unit 53 recognizes the target feature based on the course change information Ba and the average distance information Sc included in the course change learning information S about the target feature recognized by the image recognition unit 24. In the road information Ra of the route change intersection N specified by the route change information Ba, the position that has traveled by the distance indicated by the average distance information Sc from the recognized position of the target feature based on the own vehicle position information P at the time The vehicle position information P is corrected so as to match the position of the vehicle. A specific example of the correction processing of the vehicle position information P by the first correction processing unit 53 will be described below with reference to FIGS. 8 and 9. 8 shows the trajectory of the host vehicle C and the host vehicle position information P when the host vehicle position information P is not corrected by the first correction processor 53. FIG. The trajectory of the own vehicle C and the own vehicle position information P when the own vehicle position information P is corrected is shown.

図8に示すように、第一補正処理部53による自車位置情報Pの補正を行わない場合には、自車位置情報Pの進行方向の誤差によって、リンクkの途中で自車位置情報Pの進行方位を変更しようとすることによる異なるリンクkへの位置飛びが発生する場合がある。例えば、図8(a)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より先に進んでいるように認識されていた状態で自車両Cの進路変更動作が行われた場合、自車位置情報Pに示される自車位置が、交差点Nのノードn(ID=○×○×)を超えて直進方向のID=□□□□のリンクkに進行した後の状態で、実際の自車両Cによる左折の進路変更動作が行われる。よって、ID=□□□□のリンクkの途中で自車位置情報Pの位置飛びが発生して自車位置情報Pに示される自車位置が進路変更後のID=△△△△のリンクkに移動する。一方、自車両Cの進路変更動作が行われなかった場合には、図8(a)において二点鎖線で示すように、自車位置情報P´が誤差によって自車両C´の実際の位置より先に進んでいるように認識されている状態が補正されることもなく、自車位置情報Pが誤差を含んだまま更に走行することになる。   As shown in FIG. 8, when the vehicle position information P is not corrected by the first correction processing unit 53, the vehicle position information P in the middle of the link k due to an error in the traveling direction of the vehicle position information P. There is a case where a position jump to a different link k occurs due to an attempt to change the travel direction. For example, as shown in FIG. 8A, the course change operation of the host vehicle C is performed in a state where the host vehicle position information P is recognized to be ahead of the actual position of the host vehicle C due to an error. In this case, after the vehicle position indicated in the vehicle position information P has traveled beyond the node n (ID = ○ × ○ ×) of the intersection N to the link k in the straight direction ID = □□□□ In the state, the route change operation of the left turn by the actual own vehicle C is performed. Therefore, a position jump of the own vehicle position information P occurs in the middle of the link k of ID = □□□□, and the own vehicle position indicated by the own vehicle position information P is a link of ID = Δ △△△ after the course is changed. Move to k. On the other hand, when the course change operation of the host vehicle C is not performed, the host vehicle position information P ′ is more than the actual position of the host vehicle C ′ due to an error, as indicated by a two-dot chain line in FIG. The state recognized as proceeding ahead is not corrected, and the vehicle position information P further travels with an error included.

また、例えば、図8(b)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より後に遅れているように認識されていた状態で自車両Cの進路変更動作が行われた場合、自車位置情報Pに示される自車位置が、ID=○○○○のリンクkの進行中であって交差点Nのノードn(ID=○×○×)への到達前の状態で、実際の自車両Cによる左折の進路変更動作が行われる。よって、ID=○○○○のリンクkの途中で自車位置情報Pの位置飛びが発生して自車位置情報Pに示される自車位置が進路変更後のID=△△△△のリンクkに移動する。一方、自車両Cの進路変更動作が行われなかった場合には、図8(b)において二点鎖線で示すように、自車位置情報P´が誤差によって自車両C´の実際の位置より後に遅れているように認識されている状態が補正されることもなく、自車位置情報Pが誤差を含んだまま更に走行することになる。   Further, for example, as shown in FIG. 8B, the course change operation of the host vehicle C is performed in a state where the host vehicle position information P is recognized as being delayed behind the actual position of the host vehicle C due to an error. If it is performed, the vehicle position indicated in the vehicle position information P is in progress of the link k with ID = XXX, and before reaching the node n (ID = XXXXX) at the intersection N In this state, the route change operation of the left turn by the actual own vehicle C is performed. Therefore, the position jump of the own vehicle position information P occurs in the middle of the link k of ID = ○○○○, and the own vehicle position indicated by the own vehicle position information P is the link of ID = △△△△ after the course is changed. Move to k. On the other hand, when the course change operation of the host vehicle C is not performed, the host vehicle position information P ′ is more erroneous than the actual position of the host vehicle C ′ due to an error, as indicated by a two-dot chain line in FIG. The state recognized as being delayed later is not corrected, and the vehicle position information P further travels with an error included.

以上の図8の例に示すような自車位置情報Pの位置飛びを抑制し、交差点Nにおける進路変更動作を行わなかった場合にも自車位置情報Pの補正を行うことを可能とするため、第一補正処理部53は、以下のような自車位置情報Pの補正を行う。ここでは、第一補正処理部53による自車位置情報Pの補正処理を、図9(a)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より先に進んでいるように認識されていた場合と、図9(b)に示すように、自車位置情報Pが自車両Cの実際の位置より後に遅れているように認識されていた場合とに分けて、それぞれ説明する。なお、いずれの場合の補正も、対象地物が認識された際の自車位置情報Pに基づく当該対象地物の認識位置から平均距離情報Scに示される距離だけ進行した位置が、進路変更情報Baにより特定される進路変更交差点Nの道路情報Ra中の位置と一致するように自車位置情報Pを補正するものである。   In order to suppress the position jump of the own vehicle position information P as shown in the example of FIG. 8 and to correct the own vehicle position information P even when the course changing operation at the intersection N is not performed. The first correction processing unit 53 corrects the vehicle position information P as follows. Here, the correction processing of the own vehicle position information P by the first correction processing unit 53 is advanced ahead of the actual position of the own vehicle C due to an error as shown in FIG. The vehicle position information P is divided into a case where the vehicle position information P is recognized as being delayed later than the actual position of the vehicle C, as shown in FIG. Each will be explained. In any case, in the correction in any case, the position changed by the distance indicated by the average distance information Sc from the recognized position of the target feature based on the own vehicle position information P when the target feature is recognized is the course change information. The own vehicle position information P is corrected so as to coincide with the position in the road information Ra of the route change intersection N specified by Ba.

図9(a)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より先に進んでいるように認識されていた場合には、自車両Cが進路変更交差点Nに到達する前、換言すれば、自車両Cが対象地物f1を画像認識してから進路変更交差点Nに到達するまでの距離を実際に移動する前に、自車位置情報Pに示される自車位置が進路変更交差点Nの道路情報Ra中の位置であるノードn(ID=○×○×)の位置に到達することになる。ここで、自車両Cが対象地物f1を画像認識してから進路変更交差点Nに到達するまでの距離は、同じ進路変更交差点Nにおける過去の自車両Cの進路変更動作に関わる、当該対象地物f1の認識位置から自車両Cの進路変更が行われた位置までの距離である地物−進路変更間距離Lに等しい。そして、上記のとおり、進路変更学習情報Sに含まれる平均距離情報Scは、実際の地物−進路変更間距離Lをほぼ正確に表している。そこで、この場合には、第一補正処理部53は、自車位置情報Pに示される自車位置が進路変更情報Baにより特定される進路変更交差点N上に到達した後、自車両Cが対象地物f1の認識位置から平均距離情報Scに示される距離を実際に進行するまでの間、自車位置情報Pに示される自車位置を進路変更交差点N上に停止させる。この際、自車両Cの実際の移動距離の情報は、距離センサ15により取得することができる。これにより、自車位置情報Pに示される自車位置に実際の自車両Cの位置が追いついて一致するので、自車位置情報Pを補正することができる。その結果、自車位置情報取得部16は、このような補正後の高精度な自車位置情報Pを取得する。   As shown in FIG. 9A, when the vehicle position information P is recognized as being advanced ahead of the actual position of the host vehicle C due to an error, the host vehicle C becomes a course change intersection N. Before the vehicle arrives, in other words, before the vehicle C actually moves the distance from the image recognition of the target feature f1 to the route change intersection N, the vehicle shown in the vehicle position information P The position reaches the position of the node n (ID = OxOx), which is the location in the road information Ra of the route change intersection N. Here, the distance from the time when the host vehicle C recognizes the target feature f1 until it reaches the route change intersection N is the target location related to the previous route change operation of the host vehicle C at the same route change intersection N. It is equal to the feature-route change distance L, which is the distance from the recognition position of the object f1 to the position where the course change of the host vehicle C is performed. As described above, the average distance information Sc included in the course change learning information S almost accurately represents the actual feature-path change distance L. Therefore, in this case, the first correction processing unit 53 targets the host vehicle C after the host vehicle position indicated by the host vehicle position information P reaches the course change intersection N specified by the course change information Ba. The host vehicle position indicated by the host vehicle position information P is stopped on the course change intersection N until the distance indicated by the average distance information Sc actually travels from the recognized position of the feature f1. At this time, information on the actual travel distance of the host vehicle C can be acquired by the distance sensor 15. Thereby, since the actual position of the own vehicle C catches up and coincides with the own vehicle position indicated in the own vehicle position information P, the own vehicle position information P can be corrected. As a result, the host vehicle position information acquisition unit 16 acquires the corrected host vehicle position information P with high accuracy.

図9(a)に示す例では、自車位置情報Pが誤差によって自車両Cの実際の位置より40〔m〕先に進んでいるように認識されており、自車両Cが対象地物f1を画像認識してから進路変更交差点Nに到達するまでの距離が100〔m〕であるのに対して、自車位置情報Pに基づく当該対象地物f1の認識位置から進路変更交差点Nの道路情報Ra中の位置であるノードn(ID=○×○×)の位置までの距離が60〔m〕となっている。そこで、第一補正処理部53は、自車位置情報Pに示される自車位置が、60〔m〕進行して進路変更交差点Nに対応する道路情報Ra中のノードn(ID=○×○×)上に到達した後、自車位置情報Pに示される自車位置を当該ノードn(ID=○×○×)上に停止させる。この際の自車位置情報Pに示される自車位置の停止期間は、自車両Cが対象地物f1の認識位置から平均距離情報Scに示される距離100.1〔m〕(図7(c)参照)を実際に進行するまでの間の期間とする。これにより、自車位置情報Pに示される自車位置に実際の自車両Cの位置を追いつかせて両者の位置を一致させ、自車位置情報Pの補正が完了する。そして、このような自車位置情報Pの補正後は、自車位置情報Pの取得を通常どおり行う。それにより、補正後の自車位置情報Pに示される自車位置は、自車両Cの実際の位置の移動に従って移動することになる。なお、この第一補正処理部53による自車位置情報Pの補正は、進路変更交差点Nにおいて自車両Cが進路変更したか直進したかに関わらずに行うことができる。したがって、図9(a)において二点鎖線の自車両C´及び自車位置情報P´で示すように、自車両Cの進路変更動作が行われなかった場合にも、進路変更が行われた場合と同様に、自車位置情報Pが補正される。   In the example shown in FIG. 9A, it is recognized that the vehicle position information P is 40 m ahead of the actual position of the vehicle C due to an error, and the vehicle C is the target feature f1. The distance from the image recognition to the route change intersection N is 100 [m], whereas the road from the recognition position of the target feature f1 based on the vehicle position information P to the route change intersection N The distance to the position of the node n (ID = OxOx) which is the position in the information Ra is 60 [m]. Therefore, the first correction processing unit 53 determines that the vehicle position indicated by the vehicle position information P is 60 [m] and the node n (ID = XXXXX) in the road information Ra corresponding to the route change intersection N. X) After reaching the top, the vehicle position indicated in the vehicle position information P is stopped on the node n (ID = OxOx). At this time, the stop period of the host vehicle position indicated by the host vehicle position information P is the distance 100.1 [m] indicated by the average distance information Sc from the recognition position of the target feature f1 of the host vehicle C (FIG. )) Is the period until the actual progress. Thereby, the actual position of the own vehicle C is made to follow the own vehicle position indicated by the own vehicle position information P so that the positions of both coincide with each other, and the correction of the own vehicle position information P is completed. After such correction of the vehicle position information P, the acquisition of the vehicle position information P is performed as usual. Thereby, the own vehicle position indicated in the corrected own vehicle position information P moves according to the movement of the actual position of the own vehicle C. The correction of the host vehicle position information P by the first correction processing unit 53 can be performed regardless of whether the host vehicle C has changed its course or traveled straight at the course change intersection N. Accordingly, as shown by the two-dot chain line own vehicle C ′ and own vehicle position information P ′ in FIG. 9A, the course change was also made when the course change operation of the own vehicle C was not performed. As in the case, the vehicle position information P is corrected.

また、図9(b)に示すように、自車位置情報Pが誤差によって自車両Cの実際の位置より後に遅れているように認識されていた場合には、自車位置情報Pに示される自車位置が進路変更交差点Nの道路情報Ra中の位置であるノードn(ID=○×○×)の位置に到達する前に、自車両Cが進路変更交差点Nに到達する、換言すれば、自車両Cが対象地物f1を画像認識してから進路変更交差点Nに到達するまでの距離を実際に移動することになる。上記のとおり、自車両Cが対象地物f1を画像認識してから進路変更交差点Nに到達するまでの距離は、同じ進路変更交差点Nにおける過去の自車両Cの進路変更動作に関わる地物−進路変更間距離Lに等しく、進路変更学習情報Sに含まれる平均距離情報Scは、実際の地物−進路変更間距離Lをほぼ正確に表している。そこで、この場合には、第一補正処理部53は、自車両Cが対象地物f1の認識位置から平均距離情報Scに示される距離を実際に進行した際に、自車位置情報Pに示される自車位置を進路変更情報Baにより特定される進路変更交差点N上に瞬間的に移動(ジャンプ)させる。この際、自車両Cの実際の移動距離の情報は、距離センサ15により取得することができる。これにより、実際の自車両Cの位置に自車位置情報Pに示される自車位置が追いついて一致するので、自車位置情報Pを補正することができる。その結果、自車位置情報取得部16は、このような補正後の高精度な自車位置情報Pを取得する。   Further, as shown in FIG. 9B, when the vehicle position information P is recognized as being delayed behind the actual position of the vehicle C due to an error, the vehicle position information P is indicated. Before the vehicle position reaches the position of the node n (ID = OxOx), which is the position in the road information Ra of the route change intersection N, the host vehicle C reaches the route change intersection N, in other words. The vehicle C actually moves the distance from the image recognition of the target feature f1 to the route change intersection N. As described above, the distance from when the host vehicle C recognizes the target feature f1 to the route change intersection N is the feature related to the past route change operation of the host vehicle C at the same route change intersection N. The average distance information Sc which is equal to the course change distance L and is included in the course change learning information S almost accurately represents the actual feature-course change distance L. Therefore, in this case, the first correction processing unit 53 indicates the own vehicle position information P when the own vehicle C actually travels the distance indicated by the average distance information Sc from the recognition position of the target feature f1. The vehicle position to be moved is instantaneously moved (jumped) on the route change intersection N specified by the route change information Ba. At this time, information on the actual travel distance of the host vehicle C can be acquired by the distance sensor 15. As a result, the own vehicle position indicated by the own vehicle position information P catches up with the actual position of the own vehicle C, so that the own vehicle position information P can be corrected. As a result, the host vehicle position information acquisition unit 16 acquires the corrected host vehicle position information P with high accuracy.

図9(b)に示す例では、自車位置情報Pが誤差によって自車両Cの実際の位置より40〔m〕後に遅れているように認識されており、自車両Cが対象地物f1を画像認識してから進路変更交差点Nに到達するまでの距離が100〔m〕であるのに対して、自車位置情報Pに基づく当該対象地物f1の認識位置から進路変更交差点Nの道路情報Ra中の位置であるノードn(ID=○×○×)の位置までの距離が140〔m〕となっている。そこで、第一補正処理部53は、自車両Cが対象地物f1の認識位置から平均距離情報Scに示される距離100.1〔m〕(図7(c)参照)を実際に進行した際に、自車位置情報Pに示される自車位置を進路変更交差点Nに対応する道路情報Ra中のノードn(ID=○×○×)上に移動させる。これにより、自車位置情報Pに示される自車位置を実際の自車両Cの位置に追いつかせて両者の位置を一致させ、自車位置情報Pの補正が完了する。そして、このような自車位置情報Pの補正後は、自車位置情報Pの取得を通常どおり行う。それにより、補正後の自車位置情報Pに示される自車位置は、自車両Cの実際の位置の移動に従って移動することになる。なお、この第一補正処理部53による自車位置情報Pの補正は、進路変更交差点Nにおいて自車両Cが進路変更したか直進したかに関わらずに行うことができる。したがって、図9(b)において二点鎖線の自車両C´及び自車位置情報P´で示すように、自車両Cの進路変更動作が行われなかった場合にも、進路変更が行われた場合と同様に、自車位置情報Pが補正される。   In the example shown in FIG. 9B, it is recognized that the own vehicle position information P is delayed 40 [m] from the actual position of the own vehicle C due to an error, and the own vehicle C detects the target feature f1. While the distance from the image recognition to the route change intersection N is 100 [m], the road information of the route change intersection N from the recognized position of the target feature f1 based on the own vehicle position information P. The distance to the position of node n (ID = OxOx), which is the position in Ra, is 140 [m]. Therefore, the first correction processing unit 53 actually travels the distance 100.1 [m] (see FIG. 7C) indicated by the average distance information Sc from the recognition position of the target feature f1. Next, the vehicle position indicated by the vehicle position information P is moved onto the node n (ID = OxOx) in the road information Ra corresponding to the route change intersection N. As a result, the vehicle position indicated in the vehicle position information P is made to follow the actual position of the vehicle C, the positions of the two vehicles are matched, and the correction of the vehicle position information P is completed. After such correction of the vehicle position information P, the acquisition of the vehicle position information P is performed as usual. Thereby, the own vehicle position indicated in the corrected own vehicle position information P moves according to the movement of the actual position of the own vehicle C. The correction of the host vehicle position information P by the first correction processing unit 53 can be performed regardless of whether the host vehicle C has changed its course or traveled straight at the course change intersection N. Accordingly, as shown by the two-dot chain line of the own vehicle C ′ and the own vehicle position information P ′ in FIG. 9B, the course is changed even when the course change operation of the own vehicle C is not performed. As in the case, the vehicle position information P is corrected.

20−3.第二補正処理部
第二補正処理部54は、画像認識部24により認識された対象地物についての進路変更学習情報Sが存在しない場合等に、対象地物の画像認識結果に基づいて自車位置情報Pを補正する処理を行う補正処理手段として機能する。すなわち、第二補正処理部54は、画像認識部24による対象地物の画像認識処理の結果と、当該対象地物についての地物データベースDB2に記憶された地物情報Fとに基づいて自車位置情報Pを補正する。具体的には、第二補正処理部54は、まず、画像認識部24による画像認識処理の結果と、撮像装置11の取付位置、取付角度、及び画角等とに基づいて、対象地物の画像を含む画像情報Gの取得時における自車両Cと対象地物との位置関係を演算する。次に、第二補正処理部54は、画像認識部24により認識された対象地物についての地物情報Fを地物データベースDB2から抽出する。そして、第二補正処理部54は、この自車両Cと対象地物との位置関係の演算結果と、当該対象地物についての地物情報Fに含まれる当該対象地物の位置情報とに基づいて、自車両Cの進行方向における対象地物の位置情報(地物情報F)を基準とする高精度な自車両Cの位置情報を演算して取得する。そして、第二補正処理部54は、このようにして取得した高精度な自車両Cの位置情報に基づいて、自車位置情報取得部16で取得した自車位置情報Pを補正する。その結果、自車位置情報取得部16は、このような補正後の高精度な自車位置情報Pを取得する。
20-3. Second correction processing unit The second correction processing unit 54 is based on the image recognition result of the target feature when the course change learning information S about the target feature recognized by the image recognition unit 24 does not exist. It functions as a correction processing means for performing processing for correcting the position information P. That is, the second correction processing unit 54 is based on the result of the image recognition processing of the target feature by the image recognition unit 24 and the feature information F stored in the feature database DB2 for the target feature. The position information P is corrected. Specifically, the second correction processing unit 54 first determines the target feature based on the result of the image recognition processing by the image recognition unit 24 and the mounting position, mounting angle, and angle of view of the imaging device 11. The positional relationship between the host vehicle C and the target feature at the time of acquiring the image information G including the image is calculated. Next, the second correction processing unit 54 extracts the feature information F about the target feature recognized by the image recognition unit 24 from the feature database DB2. Then, the second correction processing unit 54 is based on the calculation result of the positional relationship between the host vehicle C and the target feature and the position information of the target feature included in the feature information F about the target feature. Thus, the position information of the target vehicle C in the traveling direction of the host vehicle C (feature information F) is calculated and acquired with high accuracy. And the 2nd correction process part 54 correct | amends the own vehicle position information P acquired by the own vehicle position information acquisition part 16 based on the highly accurate position information of the own vehicle C acquired in this way. As a result, the host vehicle position information acquisition unit 16 acquires the corrected host vehicle position information P with high accuracy.

21.進路変更動作の学習処理
次に、本実施形態に係るナビゲーション装置1に含まれる自車位置認識装置2において実行される自車両Cの進路変更動作の学習処理の手順(進路変更動作の学習プログラム)について説明する。図10は、本実施形態に係る進路変更動作学習処理の全体の手順を示すフローチャートである。また、図11は、本実施形態において、図10に示す進路変更動作の学習処理の一部として含まれる地物学習処理の手順を示すフローチャートである。以下に説明する処理の手順は、上記の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、ナビゲーション装置1が有する演算処理装置が、上記の各機能部を構成する進路変更動作の学習プログラムを実行するコンピュータとして動作する。以下では、まず、進路変更動作の学習処理の全体の手順について説明する。
21. Course Change Operation Learning Process Next, a course change operation learning process procedure of the host vehicle C executed by the host vehicle position recognition device 2 included in the navigation device 1 according to the present embodiment (a course change operation learning program). Will be described. FIG. 10 is a flowchart showing the overall procedure of the course change operation learning process according to the present embodiment. FIG. 11 is a flowchart showing the procedure of the feature learning process included as part of the course change operation learning process shown in FIG. 10 in the present embodiment. The processing procedure described below is executed by hardware and / or software (program) or both of the above-described functional units. When each of the functional units is configured by a program, the arithmetic processing device included in the navigation device 1 operates as a computer that executes a course change operation learning program that configures the functional units. Below, first, the whole procedure of the learning process of course change operation | movement is demonstrated.

21−1.進路変更動作の学習処理の全体の手順
図10に示すように、自車位置認識装置2では、まず、自車位置情報取得部16により自車位置情報Pを取得する(ステップ#01)。次に、画像情報取得部12により、撮像装置11により撮像した自車両Cの周辺の画像情報Gを取得する(ステップ#02)。その後、画像認識部24により、画像情報Gに含まれる対象地物の画像認識処理を行う(ステップ#03)。このステップ#03により対象地物が認識されなかった場合には(ステップ#04:No)、処理はステップ#01へ戻り、再び自車位置情報P及び画像情報Gの取得を行う。そして、ステップ#03により画像情報Gに含まれる対象地物を認識した場合には(ステップ#04:Yes)、地物学習処理を実行する(ステップ#05)。この地物学習処理の手順については、後に図11に示すフローチャートに基づいて詳細に説明する。
21-1. Overall Procedure of Course Change Operation Learning Process As shown in FIG. 10, in the vehicle position recognition device 2, first, the vehicle position information acquisition unit 16 acquires the vehicle position information P (step # 01). Next, the image information acquisition unit 12 acquires image information G around the host vehicle C imaged by the imaging device 11 (step # 02). Thereafter, the image recognition unit 24 performs image recognition processing of the target feature included in the image information G (step # 03). If the target feature is not recognized in step # 03 (step # 04: No), the process returns to step # 01, and the vehicle position information P and the image information G are acquired again. When the target feature included in the image information G is recognized in step # 03 (step # 04: Yes), the feature learning process is executed (step # 05). The procedure of the feature learning process will be described later in detail based on the flowchart shown in FIG.

また、ステップ#05の地物学習処理と並行して、関係情報生成部45の距離情報生成部46により、地物−進路変更間距離Lの測定を開始する(ステップ#06)。ここで、地物−進路変更間距離Lは、上記のとおり、ステップ#03により認識された対象地物の認識位置から、後述するステップ#07により検出される自車両Cの進路変更動作の検出位置までの距離である。このステップ#06では、ステップ#03により対象地物が認識された際の自車両Cの位置を始点として距離の測定を開始する。次に、進路変更検出部17により、自車両Cの進路変更動作の検出処理を実行する(ステップ#07)。このステップ#07の進路変更動作検出処理では、進路変更検出部17は自車両Cの進路変更動作を検出可能な状態で待機する。そして、自車両Cの進路変更動作を検出するまでに(ステップ#08:No)、測定中の地物−進路変更間距離Lが所定の中止しきい値以上となった場合には(ステップ#16:Yes)、地物−進路変更間距離Lの測定を中止し(ステップ#17)、処理を終了する。一方、測定中の地物−進路変更間距離Lが所定の中止しきい値未満の状態で(ステップ#16:No)、自車両Cの進路変更動作を検出した場合には(ステップ#08:Yes)、距離情報生成部46による地物−進路変更間距離Lの測定を終了する(ステップ#09)。その後、測定された地物−進路変更間距離Lを表す距離情報Bcと、地物特定情報生成部47により生成される地物特定情報Bbとにより構成される関係情報Brを取得する(ステップ#10)。   In parallel with the feature learning process in step # 05, the distance information generation unit 46 of the relation information generation unit 45 starts measuring the distance L between the feature and the course change (step # 06). Here, the distance L between the feature and the course change is, as described above, the detection of the course change operation of the host vehicle C detected in step # 07 described later from the recognition position of the target feature recognized in step # 03. The distance to the position. In step # 06, the distance measurement is started from the position of the host vehicle C when the target feature is recognized in step # 03. Next, the course change detection unit 17 performs a course change operation detection process for the host vehicle C (step # 07). In the course change operation detection process of step # 07, the course change detection unit 17 stands by in a state where the course change operation of the host vehicle C can be detected. Then, when the route change operation of the host vehicle C is detected (step # 08: No), when the feature-route change distance L being measured is equal to or greater than a predetermined stop threshold value (step #). 16: Yes), the measurement of the distance L between the feature and the course change is stopped (step # 17), and the process ends. On the other hand, when the course change operation of the host vehicle C is detected in a state where the distance L between the feature being measured and the course change is less than the predetermined stop threshold (step # 16: No) (step # 08: Yes), the measurement of the distance L between the feature and the course change by the distance information generating unit 46 is finished (step # 09). Thereafter, relation information Br including distance information Bc representing the measured feature-distance change distance L and feature specifying information Bb generated by the feature specifying information generating unit 47 is acquired (step #). 10).

次に、検出動作情報生成部48により、ステップ#07で検出された進路変更動作が行われた進路変更交差点Nを特定可能な進路変更情報Baと、当該進路変更動作についてステップ#10で取得された関係情報Br(距離情報Bcを含む)とを含む検出動作情報Bを生成する(ステップ#11)。そして、生成した検出動作情報Bを進路変更学習データベースDB4に記憶する(ステップ#12)。次に、以上の処理によって進路変更学習データベースDB4に記憶された同じ進路変更動作についての複数の検出動作情報Bに基づいて、平均距離判定部49により、平均距離情報Scを生成する(ステップ#13)。ここで、平均距離情報Scは、上記のとおり、同じ進路変更動作についての複数の検出動作情報Bに示される同じ進路変更動作についての複数の距離情報Bcの平均値の情報とされる。その後、同じ進路変更動作が複数回検出されることにより進路変更学習データベースDB4に記憶された同じ進路変更動作についての複数の検出動作情報Bに基づいて、進路変更学習情報生成部50により、対象地物と関係付けられた自車両Cの過去の進路変更動作の学習結果を表す進路変更学習情報Sを生成する(ステップ#14)。そして、生成した進路変更学習情報Sを進路変更データベースDB5に記憶する(ステップ#15)。以上で、自車位置認識装置2における進路変更動作の学習処理の全体の手順を終了する。   Next, the route change information Ba that can identify the route change intersection N where the route change operation detected in step # 07 is performed is acquired by the detection operation information generation unit 48 and the route change operation is acquired in step # 10. The detection operation information B including the related information Br (including the distance information Bc) is generated (step # 11). Then, the generated detection operation information B is stored in the course change learning database DB4 (step # 12). Next, average distance information Sc is generated by the average distance determination unit 49 based on a plurality of detection operation information B for the same course change operation stored in the course change learning database DB4 by the above processing (step # 13). ). Here, as described above, the average distance information Sc is information on the average value of the plurality of distance information Bc for the same course changing operation shown in the plurality of detection operation information B for the same course changing operation. Then, based on a plurality of detection operation information B about the same route change operation stored in the route change learning database DB4 by detecting the same route change operation a plurality of times, the route change learning information generation unit 50 causes the target location The course change learning information S representing the learning result of the past course change operation of the host vehicle C associated with the object is generated (step # 14). Then, the generated course change learning information S is stored in the course change database DB5 (step # 15). Thus, the entire procedure of the course change operation learning process in the vehicle position recognition device 2 is completed.

21−2.地物学習処理の手順
次に、本実施形態に係る進路変更動作の学習処理の一部として含まれる地物学習処理の手順について説明する。図10のステップ#05の地物学習処理では、図11に示すように、まず、認識位置情報取得部41により、図10のステップ#03で認識した対象地物の認識位置情報を自車位置情報Pに基づいて取得する(ステップ#21)。次に、認識地物情報生成部42により、学習値の情報を有する認識地物情報Aを生成する(ステップ#22)。すなわち、上記のとおり、認識地物情報Aは、対象地物の認識時に地物属性情報生成部25により生成された当該対象地物の地物属性情報と、ステップ#21で取得された当該対象地物の認識位置情報に基づく位置範囲毎の学習値の情報とが関連付けられて構成される。そして、例えば図5(b)に示すように、このような学習値の情報を有する認識地物情報Aを地物学習データベースDB3に記憶する(ステップ#23)。ここで、地物学習データベースDB3に記憶された当該対象地物についての認識地物情報Aの学習値が、所定の学習しきい値T1未満である場合には(ステップ#24:No)、処理はそのまま終了する。
21-2. Next, the procedure of the feature learning process included as a part of the learning process of the course changing operation according to the present embodiment will be described. In the feature learning process in step # 05 of FIG. 10, as shown in FIG. 11, first, the recognized position information of the target feature recognized in step # 03 of FIG. Obtained based on the information P (step # 21). Next, the recognized feature information A having the learning value information is generated by the recognized feature information generation unit 42 (step # 22). That is, as described above, the recognized feature information A includes the feature attribute information of the target feature generated by the feature attribute information generating unit 25 when the target feature is recognized, and the target acquired in step # 21. The learning value information for each position range based on the recognized position information of the feature is associated with each other. Then, for example, as shown in FIG. 5B, the recognized feature information A having such learning value information is stored in the feature learning database DB3 (step # 23). Here, when the learning value of the recognized feature information A for the target feature stored in the feature learning database DB3 is less than the predetermined learning threshold T1 (step # 24: No), processing is performed. Ends as is.

一方、地物学習データベースDB3に記憶された当該対象地物についての認識地物情報Aの学習値が、所定の学習しきい値T1以上である場合には(ステップ#24:Yes)、推測位置判定部43により、当該対象地物の推測位置pgを判定する(ステップ#25)。その後、学習地物情報生成部44により、当該対象地物についての、ステップ#25で判定された推測位置pgと当該対象地物についての認識地物情報Aに含まれる地物属性情報とを関連付けた学習地物情報Fbを生成する(ステップ#26)。そして、生成した学習地物情報Fbを地物データベースDB2に記憶する(ステップ#27)。以上で、地物学習処理の手順を終了する。   On the other hand, when the learning value of the recognized feature information A for the target feature stored in the feature learning database DB3 is equal to or greater than a predetermined learning threshold T1 (step # 24: Yes), the estimated position The determination unit 43 determines the estimated position pg of the target feature (step # 25). Thereafter, the learned feature information generation unit 44 associates the estimated position pg determined in step # 25 for the target feature with the feature attribute information included in the recognized feature information A for the target feature. Learning feature information Fb is generated (step # 26). Then, the generated learned feature information Fb is stored in the feature database DB2 (step # 27). This is the end of the feature learning processing procedure.

22.自車位置認識処理
次に、本実施形態に係るナビゲーション装置1に含まれる自車位置認識装置2において実行される自車位置認識処理の手順(自車位置認識プログラム)について説明する。図12は、本実施形態に係る自車位置認識処理の全体の手順を示すフローチャートである。また、図13は、本実施形態において、図12のステップ#37の自車位置情報補正処理の手順を示すフローチャートである。以下に説明する処理の手順は、上記の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、ナビゲーション装置1が有する演算処理装置が、上記の各機能部を構成する自車位置認識プログラムを実行するコンピュータとして動作する。以下では、まず、自車位置認識処理の全体の手順について説明する。
22. Next, the procedure of the vehicle position recognition process (vehicle position recognition program) executed in the vehicle position recognition device 2 included in the navigation device 1 according to the present embodiment will be described. FIG. 12 is a flowchart showing an overall procedure of the vehicle position recognition process according to the present embodiment. FIG. 13 is a flowchart showing the procedure of the vehicle position information correction process in step # 37 of FIG. 12 in the present embodiment. The processing procedure described below is executed by hardware and / or software (program) or both of the above-described functional units. When each of the above function units is configured by a program, the arithmetic processing device included in the navigation device 1 operates as a computer that executes the vehicle position recognition program that configures each of the above function units. Below, first, the whole procedure of the own vehicle position recognition process will be described.

22−1.自車位置認識処理の全体の手順
図12に示すように、自車位置認識装置2における自車位置認識処理では、まず、自車位置情報取得部16により自車位置情報Pを取得する(ステップ#31)。次に、道路情報取得部23により、ステップ#31で取得された自車位置情報Pに基づいて、自車両Cの周辺の道路情報Raを地図データベースDB1から抽出して取得する(ステップ#32)。その後、画像情報取得部12により、撮像装置11により撮像した自車両Cの周辺の画像情報Gを取得する(ステップ#33)。そして、画像認識部24により、画像情報Gに含まれる対象地物の画像認識処理を行う(ステップ#34)。このステップ#34により対象地物が認識されなかった場合には(ステップ#35:No)、処理はステップ#31へ戻り、再び自車位置情報P及び画像情報G等の取得を行う。そして、ステップ#34により画像情報Gに含まれる対象地物を認識した場合には(ステップ#35:Yes)、自車位置情報補正部51の学習情報抽出部52により、当該認識された対象地物についての進路変更学習情報Sを進路変更データベースDB5から抽出して取得する(ステップ#36)。そして、ステップ#36で取得した進路変更学習情報Sに基づいて、自車位置情報補正部51の第一補正処理部53により、自車位置情報Pを補正する処理を行う(ステップ#37)。この第一補正処理部53による自車位置情報Pの補正処理の手順については、後に図13に示すフローチャートに基づいて詳細に説明する。以上で、自車位置認識装置2における自車位置認識処理の手順を終了する。
22-1. Overall Procedure of Own Vehicle Position Recognition Process As shown in FIG. 12, in the own vehicle position recognition process in the own vehicle position recognition device 2, first, the own vehicle position information acquisition unit 16 acquires the own vehicle position information P (step # 31). Next, the road information acquisition unit 23 extracts and acquires road information Ra around the host vehicle C from the map database DB1 based on the host vehicle position information P acquired in step # 31 (step # 32). . Thereafter, the image information acquisition unit 12 acquires image information G around the host vehicle C imaged by the imaging device 11 (step # 33). Then, the image recognition unit 24 performs image recognition processing of the target feature included in the image information G (step # 34). If the target feature is not recognized in step # 34 (step # 35: No), the process returns to step # 31, and the vehicle position information P, the image information G, and the like are acquired again. When the target feature included in the image information G is recognized in step # 34 (step # 35: Yes), the learned target extraction unit 52 of the vehicle position information correction unit 51 recognizes the recognized target feature. The course change learning information S about the object is extracted and acquired from the course change database DB5 (step # 36). Then, based on the course change learning information S acquired at step # 36, the first correction processing unit 53 of the own vehicle position information correction unit 51 performs a process of correcting the own vehicle position information P (step # 37). The procedure of the correction processing of the vehicle position information P by the first correction processing unit 53 will be described in detail later based on the flowchart shown in FIG. Above, the procedure of the own vehicle position recognition process in the own vehicle position recognition apparatus 2 is complete | finished.

22−2.自車位置情報補正処理の手順
次に、自車位置情報補正部51による、自車位置情報補正処理の手順について説明する。図12のステップ#37の自車位置情報補正処理では、図13に示すように、まず、ステップ#36で取得した進路変更学習情報Sに含まれる進路変情報Ba及び平均距離情報Sc(図7(c)参照)を取得する(ステップ#41)。次に、進路変情報Baにより特定される進路変更交差点Nの道路情報Ra中の位置の情報を取得する(ステップ#42)。図9の例においては、ステップ#32で取得された道路情報Ra中における進路変更交差点Nに対応するノードn(ID=○×○×)の位置の情報が、進路変情報Baに含まれる交差点特定情報Beと道路情報Raとに基づいて取得される。その後、自車位置情報Pに示される自車位置が進路変更交差点N上に到達したか否かの判断(ステップ#43)、及び、対象地物の認識位置からの自車両Cの移動距離が平均距離情報Scに示される距離に到達したか否かの判断(ステップ#44)を行う。ここで、ステップ#43の判断は、自車位置情報Pに示される自車位置が、ステップ#42で取得された進路変更交差点Nに対応するノードn(ID=○×○×)の道路情報Ra中での位置に一致したか否かに基づいて行う。また、ステップ#44の判断は、ステップ#35で対象地物の画像認識に成功した際の当該対象地物の認識位置を始点として距離センサ15により検出される自車両Cの移動距離が、ステップ#42で取得された平均距離情報Scに示される距離以上となったか否かに基づいて行う。
22-2. Procedure of own vehicle position information correction processing Next, a procedure of own vehicle position information correction processing by the own vehicle position information correction unit 51 will be described. In the own vehicle position information correction process in step # 37 of FIG. 12, first, the course change information Ba and the average distance information Sc (FIG. 7) included in the course change learning information S acquired in step # 36, as shown in FIG. (See (c)) is acquired (step # 41). Next, information on the position in the road information Ra of the course change intersection N specified by the course change information Ba is acquired (step # 42). In the example of FIG. 9, the information on the position of the node n (ID = OxOx) corresponding to the course change intersection N in the road information Ra acquired in step # 32 is included in the course change information Ba. It is acquired based on the specific information Be and the road information Ra. Thereafter, it is determined whether or not the vehicle position indicated by the vehicle position information P has reached the course change intersection N (step # 43), and the movement distance of the vehicle C from the recognition position of the target feature is It is determined whether or not the distance indicated by the average distance information Sc has been reached (step # 44). Here, the judgment of step # 43 is based on the road information of the node n (ID = OxOx) corresponding to the course change intersection N acquired in step # 42. This is based on whether or not the position in Ra matches. Further, the determination in step # 44 is based on the movement distance of the host vehicle C detected by the distance sensor 15 starting from the recognition position of the target feature when the target feature has been successfully recognized in step # 35. This is performed based on whether or not the distance indicated by the average distance information Sc acquired in # 42 is greater than or equal to the distance.

そして、対象地物の認識位置からの自車両Cの移動距離が平均距離情報Scに示される距離に到達する前に(ステップ#44:No)、自車位置情報Pに示される自車位置が進路変更交差点N上に到達した場合には(ステップ#43:Yes)、自車位置情報Pが誤差によって自車両Cの実際の位置より先に進んでいるように認識されていたということになる。したがって、この場合には、第一補正処理部53により、自車位置情報Pに示される自車位置を進路変更交差点N上に停止させる(ステップ#45)。具体的には、図9(a)に示すように、自車位置情報Pに示される自車位置を、進路変更交差点Nに対応する道路情報Ra中のノードn(ID=○×○×)上に停止させる。次に再び、対象地物の認識位置からの自車両Cの移動距離が平均距離情報Scに示される距離に到達したか否かの判断(ステップ#46)を行う。そして、対象地物の認識位置からの自車両Cの移動距離が平均距離情報Scに示される距離に到達するまでは(ステップ#44:No)、自車位置情報Pに示される自車位置を進路変更交差点N上に停止させた状態を継続する(ステップ#45)。その後、対象地物の認識位置からの自車両Cの移動距離が平均距離情報Scに示される距離に到達した際には(ステップ#44:Yes)、自車位置情報Pの取得を通常どおり行う通常動作状態に戻す(ステップ#47)。   And before the moving distance of the own vehicle C from the recognition position of the target feature reaches the distance indicated by the average distance information Sc (step # 44: No), the own vehicle position indicated by the own vehicle position information P is When the vehicle has reached the route change intersection N (step # 43: Yes), it means that the vehicle position information P has been recognized as being ahead of the actual position of the vehicle C due to an error. . Accordingly, in this case, the first correction processing unit 53 stops the own vehicle position indicated by the own vehicle position information P on the route change intersection N (step # 45). Specifically, as shown in FIG. 9A, the vehicle position indicated by the vehicle position information P is set to the node n (ID = ○ × ○ ×) in the road information Ra corresponding to the route change intersection N. Stop on top. Next, it is determined again whether or not the moving distance of the host vehicle C from the recognition position of the target feature has reached the distance indicated by the average distance information Sc (step # 46). And until the moving distance of the own vehicle C from the recognition position of the target feature reaches the distance indicated by the average distance information Sc (step # 44: No), the own vehicle position indicated by the own vehicle position information P is determined. The state stopped on the route change intersection N is continued (step # 45). Thereafter, when the moving distance of the host vehicle C from the recognition position of the target feature has reached the distance indicated by the average distance information Sc (step # 44: Yes), the host vehicle position information P is acquired as usual. The normal operation state is restored (step # 47).

一方、自車位置情報Pに示される自車位置が進路変更交差点N上に到達する前に(ステップ#43:No)、対象地物の認識位置からの自車両Cの移動距離が平均距離情報Scに示される距離に到達した場合には(ステップ#44:Yes)、自車位置情報Pが誤差によって自車両Cの実際の位置より後に遅れているように認識されていたということになる。したがって、この場合には、第一補正処理部53により、自車位置情報Pに示される自車位置を進路変更情報Baにより特定される進路変更交差点N上に瞬間的に移動させる(ステップ#48)。その後、自車位置情報Pの取得を通常どおり行う通常動作状態に戻す(ステップ#47)。以上で、自車位置情報補正処理の手順を終了する。   On the other hand, before the own vehicle position indicated by the own vehicle position information P reaches the route change intersection N (step # 43: No), the moving distance of the own vehicle C from the recognition position of the target feature is the average distance information. When the distance indicated by Sc is reached (step # 44: Yes), it means that the vehicle position information P is recognized as being delayed behind the actual position of the vehicle C due to an error. Therefore, in this case, the first correction processing unit 53 instantaneously moves the own vehicle position indicated by the own vehicle position information P onto the route change intersection N specified by the route change information Ba (step # 48). ). Thereafter, the vehicle position information P is returned to the normal operation state where the vehicle position information P is acquired as usual (step # 47). This is the end of the procedure for correcting the vehicle position information.

23.その他の実施形態 23. Other embodiments

(1)上記の実施形態においては、進路変更情報Baを構成する交差点特定情報Beが、進路変更動作の際に自車両Cが通行したリンクの経路の情報である場合の例について説明した。しかし、本発明の実施形態はこれに限定されるものではない。したがって、例えば、進路変更情報Baを構成する交差点特定情報Beを、自車両Cの進路変更動作が行われた交差点に対応するノードnの情報とすることも、本発明の好適な実施形態の一つである。この場合、交差点特定情報Beは、例えば、自車両Cが進路変更動作を行った交差点に対応するノードnを特定するためのノード識別情報(ノードID等)とすることができる。 (1) In the above embodiment, an example has been described in which the intersection specifying information Be constituting the route change information Ba is information on the route of the link that the host vehicle C has traveled during the route change operation. However, the embodiment of the present invention is not limited to this. Therefore, for example, the intersection specifying information Be constituting the route change information Ba may be information on the node n corresponding to the intersection where the route change operation of the host vehicle C is performed. One. In this case, the intersection specifying information Be can be, for example, node identification information (node ID or the like) for specifying the node n corresponding to the intersection where the host vehicle C has performed the course changing operation.

(2)上記の実施形態においては、自車位置情報補正部51による自車位置情報Pの補正に際して、進路変更交差点Nにおいて自車両Cの実際の位置に自車位置情報Pが一致するように、自車位置情報Pに示される自車位置を進路変更交差点N上に停止させ、又は自車位置情報Pに示される自車位置を進路変更交差点N上に瞬間的に移動させる場合の例について説明した。しかし、自車位置情報補正部51の第一補正処理部53による自車位置情報Pの補正処理の具体的態様はこれに限定されるものではない。したがって、例えば、画像認識部24により対象地物を認識した後、当該対象地物の認識位置から進路変更交差点Nまでの間において、自車位置情報Pに示される自車位置が自車両Cの実際の位置に次第に近づくように自車位置情報Pの進路変更交差点Nへ向かう移動速度を調節し、進路変更交差点Nで自車位置情報Pに示される自車位置が自車両Cの実際の位置と一致するように自車位置情報Pを補正することも本発明の好適な実施形態の一つである。この場合、具体的には、図9(a)及び(b)を参照して、自車位置情報Pに基づく対象地物f1の認識位置から進路変更交差点Nの道路情報Ra中の位置であるノードnまでの距離を、自車位置情報Pに示される自車位置が移動する時間と、自車両Cが進路変更学習情報Sに含まれる平均距離情報Scを進行する時間とが一致するように、自車位置情報Pに示される自車位置の進路変更交差点Nへ向かう移動速度を調節すると好適である。この際、自車位置情報Pが誤差によって自車両Cの実際の位置より先に進んでいるように認識されていた場合には、自車位置情報Pの進路変更交差点Nへ向かう移動速度が自車両Cの実際の移動速度よりも遅くなるように調整され、自車位置情報Pが誤差によって自車両Cの実際の位置より後に遅れているように認識されていた場合には、自車位置情報Pの進路変更交差点Nへ向かう移動速度が自車両Cの実際の移動速度よりも速くなるように調整される。 (2) In the above-described embodiment, when the vehicle position information correction unit 51 corrects the vehicle position information P, the vehicle position information P matches the actual position of the vehicle C at the route change intersection N. An example in which the vehicle position indicated in the vehicle position information P is stopped on the route change intersection N or the vehicle position indicated in the vehicle position information P is instantaneously moved on the route change intersection N. explained. However, the specific mode of the correction processing of the vehicle position information P by the first correction processing unit 53 of the vehicle position information correction unit 51 is not limited to this. Therefore, for example, after the target feature is recognized by the image recognition unit 24, the host vehicle position indicated by the host vehicle position information P between the target feature recognition position and the course change intersection N is that of the host vehicle C. The moving speed of the host vehicle position information P toward the course change intersection N is adjusted so as to gradually approach the actual position, and the host vehicle position indicated by the host vehicle position information P at the course change intersection N is the actual position of the host vehicle C. It is one of the preferred embodiments of the present invention to correct the vehicle position information P so as to match. In this case, specifically, referring to FIGS. 9A and 9B, the position in the road information Ra from the recognized position of the target feature f1 based on the own vehicle position information P to the course change intersection N is shown. As for the distance to the node n, the time when the vehicle position indicated by the vehicle position information P moves and the time when the vehicle C travels the average distance information Sc included in the course change learning information S coincide with each other. It is preferable to adjust the moving speed of the vehicle position toward the route change intersection N indicated by the vehicle position information P. At this time, if the own vehicle position information P is recognized as being advanced ahead of the actual position of the own vehicle C due to an error, the moving speed toward the course change intersection N of the own vehicle position information P is automatically determined. If the vehicle position information P is adjusted so as to be slower than the actual moving speed of the vehicle C and the vehicle position information P is recognized as being delayed behind the actual position of the vehicle C due to an error, the vehicle position information The moving speed toward the route change intersection N of P is adjusted so as to be faster than the actual moving speed of the host vehicle C.

(3)上記の実施形態においては、画像認識部24が、画像情報取得部12で取得された画像情報Gに対して常時画像認識処理を行うことにより、画像情報Gに含まれている対象地物を認識する処理を行う場合を例として説明した。しかし、上記のように、自車位置認識装置2が地物データベースDB2を備えていることから、当該地物データベースDB2に記憶された地物情報Fを用いて画像認識処理を行う構成としても好適である。この場合、自車位置認識装置2は、複数の対象地物についての位置情報及び属性情報を含む地物情報Fが記憶された地物情報記憶手段としての地物データベースDB2に加えて、自車位置情報Pに基づいて、地物データベースDB2から自車両Cの周辺の地物情報Fを取得する地物情報取得手段を備え、画像認識部24が、当該取得された地物情報Fに基づいて、画像情報Gに含まれる対象地物の認識処理を行う構成とすると好適である。この際、地物情報取得手段により取得する地物情報Fは、上述した初期地物情報Fa及び学習地物情報Fbのいずれであっても良い。このような構成とすれば、対象地物の認識率を高め、誤認識を抑制することが可能となる。したがって、自車位置情報Pの補正や進路変更学習情報Sの生成の処理の精度を高めることが可能となる。 (3) In the above embodiment, the image recognition unit 24 always performs the image recognition process on the image information G acquired by the image information acquisition unit 12, so that the target location included in the image information G is obtained. The case where processing for recognizing an object is performed has been described as an example. However, since the vehicle position recognition device 2 includes the feature database DB2 as described above, it is also suitable as a configuration for performing image recognition processing using the feature information F stored in the feature database DB2. It is. In this case, the own vehicle position recognition device 2 includes the own vehicle in addition to the feature database DB2 as the feature information storage means in which the feature information F including the position information and attribute information about the plurality of target features is stored. On the basis of the position information P, a feature information acquisition unit that acquires the feature information F around the host vehicle C from the feature database DB2 is provided, and the image recognition unit 24 is based on the acquired feature information F. It is preferable that the target feature included in the image information G is recognized. At this time, the feature information F acquired by the feature information acquisition unit may be either the initial feature information Fa or the learned feature information Fb described above. With such a configuration, it is possible to increase the recognition rate of the target feature and suppress erroneous recognition. Therefore, it is possible to improve the accuracy of the process of correcting the vehicle position information P and generating the course change learning information S.

(4)上記の実施形態では、図7(b)に示すように、同じ進路変更動作についての複数の検出動作情報Bについて、進路変更情報Ba及び地物特定情報Bbを共通とした一まとめの情報として進路変更学習データベースDB4に記憶する場合の例について説明した。しかし、進路変更学習データベースDB4に記憶する際の検出動作情報Bの形式はこのようなものに限定されるものではない。したがって、同じ進路変更動作についての複数の検出動作情報Bを、それぞれ別個に進路変更学習データベースDB4に記憶する構成とすることも、本発明の好適な実施形態の一つである。 (4) In the above embodiment, as shown in FIG. 7B, for a plurality of detection operation information B for the same route change operation, a set of route change information Ba and feature specifying information Bb in common. An example of storing information in the course change learning database DB4 as information has been described. However, the format of the detection operation information B when stored in the course change learning database DB4 is not limited to this. Therefore, it is also a preferred embodiment of the present invention that a plurality of detection operation information B for the same course changing operation is stored separately in the course changing learning database DB4.

(5)上記の実施形態では、同じ進路変更動作についての複数の検出動作情報Bに示される同じ進路変更動作についての複数の距離情報Bcの平均値を判定して平均距離情報Scを生成し、これを進路変更学習情報Sの距離情報とする場合を例として説明した。しかし、進路変更学習情報Sの距離情報の内容はこれに限定されるものではない。したがって、例えば、同じ進路変更動作についての複数の距離情報Bcの分布に基づいて、当該分布の最頻値や中央値等の他の代表値を統計的距離情報として判定し、当該統計的距離情報を進路変更学習情報Sの距離情報とすることも、本発明の好適な実施形態の一つである。 (5) In the above-described embodiment, the average distance information Sc is generated by determining the average value of the plurality of distance information Bc for the same course change operation indicated in the plurality of detection action information B for the same course change operation, The case where this is the distance information of the course change learning information S has been described as an example. However, the content of the distance information of the course change learning information S is not limited to this. Therefore, for example, based on the distribution of a plurality of distance information Bc for the same course changing operation, other representative values such as the mode value and median value of the distribution are determined as the statistical distance information, and the statistical distance information Is also the distance information of the course change learning information S is one of the preferred embodiments of the present invention.

(6)上記の実施形態では、認識位置情報取得部41により取得する認識位置情報を、画像認識に成功した際の自車両Cの位置を表す情報とする場合の例について説明した。しかし、対象地物の認識位置を表す認識位置情報として取得する位置情報は、これに限定されるものではない。したがって、例えば、画像認識に成功した対象地物について、自車位置情報Pと画像情報Gの画像認識結果とに基づいて、自車位置情報Pを基準とする当該対象地物の道路上の位置を演算し、当該道路上の対象地物の位置を認識位置情報として認識位置情報取得部41により取得する構成とすることも、本発明の好適な実施形態の一つである。 (6) In the above embodiment, an example has been described in which the recognition position information acquired by the recognition position information acquisition unit 41 is information representing the position of the host vehicle C when image recognition is successful. However, the position information acquired as the recognition position information indicating the recognition position of the target feature is not limited to this. Therefore, for example, for a target feature that has been successfully image-recognized, based on the vehicle position information P and the image recognition result of the image information G, the position of the target feature on the road based on the vehicle position information P It is also one of preferred embodiments of the present invention that the recognition position information acquisition unit 41 acquires the position of the target feature on the road as the recognition position information.

(7)上記の実施形態では、推測位置判定部43が、同じ対象地物についての複数の認識地物情報Aの分布に基づいて、当該分布の最頻値を当該対象地物の推測認識位置paとして判定し、当該推測認識位置paを、対象地物の道路上の位置に変換して対象地物の推測位置pgを判定する構成である場合の例について説明した。しかし、推測位置判定部43による推測位置pgの判定方法はこれに限定されない。したがって、例えば、認識地物情報Aの分布に基づいて、当該分布の平均値や中央値等の他の代表値を当該対象地物の推測認識位置paとして判定する構成とすることも、本発明の好適な実施形態の一つである。 (7) In the above embodiment, the estimated position determination unit 43 determines the mode of the distribution based on the distribution of the plurality of recognized feature information A for the same target feature. An example has been described in which it is determined as pa and the estimated recognition position pa is converted into a position on the road of the target feature to determine the estimated position pg of the target feature. However, the determination method of the estimated position pg by the estimated position determination unit 43 is not limited to this. Therefore, for example, based on the distribution of the recognized feature information A, another representative value such as an average value or a median value of the distribution may be determined as the estimated recognition position pa of the target feature. This is one of the preferred embodiments.

(8)上記の実施形態では、道路の路面に設けられた各種の道路標示を対象地物とする場合を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、道路の周辺に設けられた様々な地物を対象地物とすることが可能である。したがって、例えば、道路標識、案内標識、看板、信号機、マンホール等の各種の地物を対象地物とすることが可能である。 (8) In the above embodiment, the case where various road markings provided on the road surface are the target features has been described as an example. However, the embodiment of the present invention is not limited to this, and various features provided around the road can be the target features. Therefore, for example, various features such as road signs, guide signs, signboards, traffic lights, manholes, and the like can be used as target features.

(9)上記の実施形態における各データベースDB1〜DB5の分け方は単なる一例であり、各データベースDB1〜DB5のハードウェア構成を限定するものではない。したがって、例えば、地物データベースDB2と地物学習データベースDB3とを一つのデータベースとし、進路変更学習データベースDB4と進路変更データベースDB5とを一つのデータベースとし、或いは、地図データベースDB1と地物データベースDB2とを一つのデータベースとするなど、任意の構成を採用することができる。 (9) The way of dividing the databases DB1 to DB5 in the above embodiment is merely an example, and the hardware configuration of each of the databases DB1 to DB5 is not limited. Therefore, for example, the feature database DB2 and the feature learning database DB3 are one database, the course change learning database DB4 and the course change database DB5 are one database, or the map database DB1 and the feature database DB2 are Any configuration such as a single database can be employed.

(10)上記の実施形態では、本発明に係る自車位置認識装置2を含むナビゲーション装置1の全ての構成が自車両Cに搭載される場合を例として説明した。しかし、本発明の実施形態はこれに限定されるものではない。すなわち、各データベースDB1〜DB5を含む自車位置認識装置2の一部の構成が、図14に示すように、無線通信回線等を介して、複数の車両Cと通信可能に接続されたサーバ装置60に設置された構成とすることも、本発明の好適な実施形態の一つである。自車位置認識装置2をこのような構成とすれば、複数の車両Cによる進路変更動作の学習結果や対象地物の学習結果をサーバ装置60に設置された進路変更学習データベースDB4や地物学習データベースDB3に集積することができる。したがって、より多くの検出動作情報Bや認識地物情報Aを用いて、迅速に進路変更学習情報Sや学習地物情報Fbを生成することが可能となる。また、地図データベースDB1や地物データベースDB2をサーバ装置60に設置し、随時更新する構成とすることにより、常に最新の道路情報Raや地物情報F等を自車両Cの運転者に提供することが可能となる。なお、サーバ装置60に設置する自車位置認識装置2の構成は、各データベースDB1〜DB5に限られず、撮像装置11や自車位置情報取得部16等のような、自車両Cに搭載する必要がある構成以外の全ての構成を、サーバ装置60に設置することが可能である。 (10) In the above embodiment, the case where all the configurations of the navigation device 1 including the vehicle position recognition device 2 according to the present invention are mounted on the vehicle C has been described as an example. However, the embodiment of the present invention is not limited to this. That is, a server device in which a part of the configuration of the vehicle position recognition device 2 including each of the databases DB1 to DB5 is communicably connected to a plurality of vehicles C via a wireless communication line or the like as shown in FIG. It is also one of the preferred embodiments of the present invention to have a configuration installed at 60. If the own vehicle position recognizing device 2 has such a configuration, the route change learning database DB4 or the feature learning in which the learning result of the route changing operation by the plurality of vehicles C and the learning result of the target feature are installed in the server device 60 are used. It can be accumulated in the database DB3. Therefore, it is possible to quickly generate the course change learning information S and the learning feature information Fb by using more detection operation information B and recognition feature information A. In addition, by installing the map database DB1 and the feature database DB2 in the server device 60 and updating them as needed, the latest road information Ra, feature information F, etc. are always provided to the driver of the vehicle C. Is possible. The configuration of the vehicle position recognition device 2 installed in the server device 60 is not limited to each of the databases DB1 to DB5, and needs to be mounted on the vehicle C such as the imaging device 11 and the vehicle position information acquisition unit 16. All configurations other than a certain configuration can be installed in the server device 60.

(11)上記の各実施形態では、本発明に係る自車位置認識装置2をナビゲーション装置1に利用する場合の例について説明した。しかし、本発明の実施形態はこれに限定されるものではない。したがって、例えば、本発明に係る自車位置認識装置2を、ナビゲーション装置1とは無関係な車両の走行制御装置等に利用する等のように、本発明を上記の実施形態とは異なる他の構成に適用することも当然に可能である。 (11) In each of the above embodiments, an example in which the vehicle position recognition device 2 according to the present invention is used for the navigation device 1 has been described. However, the embodiment of the present invention is not limited to this. Therefore, for example, the present invention is different from the above-described embodiment, such as using the vehicle position recognition device 2 according to the present invention for a travel control device for a vehicle unrelated to the navigation device 1. Of course, it is also possible to apply to.

本発明は、自車両の進路変更動作の検出結果を用いて自車位置情報を補正する自車位置認識装置及び自車位置認識プログラムに好適に利用することが可能である。   INDUSTRIAL APPLICABILITY The present invention can be suitably used for a host vehicle position recognition device and a host vehicle position recognition program that corrects host vehicle position information using a detection result of a course change operation of the host vehicle.

本発明の実施形態に係る自車位置認識装置を含むナビゲーション装置の概略構成を示すブロック図The block diagram which shows schematic structure of the navigation apparatus containing the own vehicle position recognition apparatus which concerns on embodiment of this invention. 地図データベースに記憶されている地図情報の構成の例を示す図The figure which shows the example of a structure of the map information memorize | stored in the map database 地物データベースに記憶されている道路標示の地物情報の例を示す図The figure which shows the example of the feature information of the road marking memorize | stored in the feature database 自車両への撮像装置の配置構成の一例を示す図The figure which shows an example of the arrangement configuration of the imaging device to the own vehicle 対象地物の画像認識結果に基づく地物情報の学習処理の概要を説明するための説明図Explanatory drawing for demonstrating the outline of the learning process of the feature information based on the image recognition result of the target feature 図5(b)に示す学習データベースに記憶された学習値の要部拡大図FIG. 5B is an enlarged view of the main part of the learning value stored in the learning database shown in FIG. 自車両の進路変更動作の具体例に関する検出動作情報及び進路変更学習情報の内容を示す図The figure which shows the content of the detection operation information regarding the specific example of the course change operation | movement of the own vehicle, and course change learning information 本発明に係る自車位置情報の補正を行わない場合の自車両及び自車位置情報の軌跡を示す図The figure which shows the locus | trajectory of the own vehicle when not correcting the own vehicle position information which concerns on this invention, and own vehicle position information 本発明に係る自車位置情報の補正を行った場合の自車両及び自車位置情報の軌跡を示す図The figure which shows the locus | trajectory of the own vehicle at the time of correcting the own vehicle position information which concerns on this invention, and own vehicle position information 本発明の実施形態に係る進路変更動作の学習処理の全体の手順を示すフローチャートThe flowchart which shows the whole procedure of the learning process of the course change operation | movement which concerns on embodiment of this invention. 本発明の実施形態に係る地物学習処理の手順を示すフローチャートThe flowchart which shows the procedure of the feature learning process which concerns on embodiment of this invention. 本発明の実施形態に係る自車位置認識処理の全体の手順を示すフローチャートThe flowchart which shows the whole procedure of the own vehicle position recognition process which concerns on embodiment of this invention. 本発明の実施形態に係る自車位置情報補正処理の手順を示すフローチャートThe flowchart which shows the procedure of the own vehicle position information correction process which concerns on embodiment of this invention. 本発明の実施形態に係る自車位置認識装置の一部の構成がサーバ装置に設置された例を示す図The figure which shows the example by which the one part structure of the own vehicle position recognition apparatus which concerns on embodiment of this invention was installed in the server apparatus.

符号の説明Explanation of symbols

1:ナビゲーション装置
2:自車位置認識装置
12:画像情報取得部(画像情報取得手段)
16:自車位置情報取得部(自車位置情報取得手段)
17:進路変更検出部(進路変更動作検出手段)
23:道路情報取得部(道路情報取得手段)
24:画像認識部(画像認識手段)
28:アプリケーションプログラム
31:案内情報出力手段
46:距離情報生成部(距離情報取得手段)
50:進路変更学習情報生成部(進路変更学習情報生成手段)
51:自車位置情報補正部(自車位置情報補正手段)
DB1:地図データベース(地図情報記憶手段)
DB2:地物データベース(地物情報記憶手段)
DB4:進路変更学習データベース(検出動作情報記憶手段)
DB5:進路変更データベース(進路変更学習情報記憶手段)
C:自車両
G:画像情報
P:自車位置情報
M:地図情報
Ra:道路情報
n:ノード
k:リンク
F:地物情報
f1:対象地物
B:検出動作情報
Ba:進路変更情報
Bc:距離情報(検出動作情報が含む距離情報)
S:進路変更学習情報
Sc:平均距離情報(進路変更学習情報が有する距離情報)
1: Navigation device 2: Vehicle position recognition device 12: Image information acquisition unit (image information acquisition means)
16: Own vehicle position information acquisition unit (own vehicle position information acquisition means)
17: Course change detection unit (Course change operation detection means)
23: Road information acquisition unit (road information acquisition means)
24: Image recognition unit (image recognition means)
28: Application program 31: Guidance information output means 46: Distance information generation unit (distance information acquisition means)
50: Course change learning information generation unit (course change learning information generation means)
51: Own vehicle position information correction unit (own vehicle position information correction means)
DB1: Map database (map information storage means)
DB2: Feature database (feature information storage means)
DB4: Course change learning database (detection operation information storage means)
DB5: Course change database (Course change learning information storage means)
C: own vehicle G: image information P: own vehicle position information M: map information Ra: road information n: node k: link F: feature information f1: target feature B: detection operation information Ba: route change information Bc: Distance information (distance information included in detection operation information)
S: Course change learning information Sc: Average distance information (distance information possessed by course change learning information)

Claims (10)

自車両の現在位置を表す自車位置情報を取得する自車位置情報取得手段と、
道路情報を取得する道路情報取得手段と、
自車両の周辺の画像情報を取得する画像情報取得手段と、
前記画像情報に含まれる対象地物の画像認識処理を行う画像認識手段と、
自車両の過去の進路変更動作を学習して生成され、自車両の進路変更動作が行われた交差点である進路変更交差点を特定可能な進路変更情報と、当該進路変更動作より前に画像認識された対象地物について当該対象地物の認識位置から自車両の進路変更動作が行われた位置までの距離情報と、を有する進路変更学習情報が記憶された進路変更学習情報記憶手段と、
前記画像認識手段により前記対象地物が認識された場合に、当該対象地物についての前記進路変更学習情報に基づいて、前記自車位置情報に基づく当該対象地物の認識位置から前記距離情報に示される距離だけ進行した位置が、前記進路変更情報により特定される進路変更交差点の前記道路情報中の位置と一致するように前記自車位置情報を補正する自車位置補正手段と、
を備える自車位置認識装置。
Own vehicle position information acquisition means for acquiring own vehicle position information representing the current position of the own vehicle;
Road information acquisition means for acquiring road information;
Image information acquisition means for acquiring image information around the host vehicle;
Image recognition means for performing image recognition processing of a target feature included in the image information;
It is generated by learning the previous course change operation of the host vehicle, and the course change information that can identify the course change intersection that is the intersection where the course change operation of the host vehicle has been performed, and the image is recognized before the course change operation. Route change learning information storage means storing route change learning information having distance information from the recognized position of the target feature to the position where the course change operation of the host vehicle has been performed,
When the target feature is recognized by the image recognition means, based on the course change learning information about the target feature, the recognition position of the target feature based on the own vehicle position information is changed to the distance information. Vehicle position correction means for correcting the vehicle position information so that the position traveled by the indicated distance matches the position in the road information of the route change intersection specified by the route change information;
A vehicle position recognition device comprising:
前記自車位置補正手段は、前記自車位置情報が誤差によって自車両の実際の位置より先に進んでいるように認識されていた場合に、前記自車位置情報に示される自車位置が前記進路変更交差点上に到達した後、自車両が前記対象地物の認識位置から前記距離情報に示される距離を実際に進行するまでの間、前記自車位置情報に示される自車位置を前記進路変更交差点上に停止させて前記自車位置情報を補正する請求項1に記載の自車位置認識装置。   When the vehicle position correction means recognizes that the vehicle position information is ahead of the actual position of the vehicle due to an error, the vehicle position indicated in the vehicle position information is After reaching the route change intersection, the vehicle position indicated in the vehicle position information is changed to the route until the vehicle actually travels the distance indicated in the distance information from the recognition position of the target feature. The own vehicle position recognition device according to claim 1, wherein the own vehicle position information is corrected by stopping on the changed intersection. 前記自車位置補正手段は、前記自車位置情報が誤差によって自車両の実際の位置より後に遅れているように認識されていた場合に、自車両が前記対象地物の認識位置から前記距離情報に示される距離を実際に進行した際に、前記自車位置情報に示される自車位置を前記進路変更交差点上に移動させて前記自車位置情報を補正する請求項1又は2に記載の自車位置認識装置。   The own vehicle position correcting means, when the own vehicle position information is recognized as being delayed behind the actual position of the own vehicle due to an error, the own vehicle is the distance information from the recognition position of the target feature The vehicle position information is corrected by moving the vehicle position indicated by the vehicle position information onto the route change intersection when the vehicle actually travels the distance shown in FIG. Car position recognition device. 前記道路情報は、複数のリンク及びノードの接続関係により道路を表す情報であり、
前記進路変更情報は、前記進路変更動作の際に自車両が通行したリンクの経路の情報、及び前記進路変更動作が行われた交差点に対応するノードの情報の一方又は双方を含む請求項1から3のいずれか一項に記載の自車位置認識装置。
The road information is information representing a road by a connection relationship of a plurality of links and nodes,
The route change information includes one or both of information on a route of a link traveled by the host vehicle during the route change operation and information on a node corresponding to an intersection where the route change operation is performed. The vehicle position recognition device according to any one of claims 3 to 4.
前記道路情報取得手段は、前記自車位置情報に基づいて、自車両の周辺の前記道路情報を所定の地図情報記憶手段から取得する請求項1から4のいずれか一項に記載の自車位置認識装置。   5. The vehicle position according to claim 1, wherein the road information acquisition unit acquires the road information around the host vehicle from a predetermined map information storage unit based on the host vehicle position information. Recognition device. 自車両の進路変更動作を検出する進路変更検出手段と、
前記進路変更検出手段による自車両の進路変更動作の検出より前に前記画像認識手段により認識された対象地物について、当該対象地物の認識位置から自車両の進路変更が行われた位置までの距離を表す距離情報を取得する距離情報取得手段と、
前記進路変更動作が行われた交差点である進路変更交差点を特定可能な進路変更情報と、当該進路変更動作について前記距離情報取得手段により取得された前記距離情報とを含む検出動作情報を記憶する検出動作情報記憶手段と、
同じ進路変更動作が複数回検出されることにより前記検出動作情報記憶手段に記憶された、同じ進路変更動作についての複数の前記検出動作情報に基づいて、前記進路変更学習情報を生成する進路変更学習情報生成手段と、を備え、
前記進路変更学習情報生成手段により生成された前記進路変更学習情報が、前記進路変更学習情報記憶手段に記憶される請求項1から5のいずれか一項に記載の自車位置認識装置。
A course change detection means for detecting a course change operation of the host vehicle;
With respect to the target feature recognized by the image recognition unit prior to the detection of the route change operation of the host vehicle by the route change detection unit, from the recognition position of the target feature to the position where the route change of the host vehicle has been performed. Distance information acquisition means for acquiring distance information representing a distance;
Detection that stores detection operation information including route change information that can identify a route change intersection that is an intersection on which the route change operation has been performed, and the distance information that is acquired by the distance information acquisition unit regarding the route change operation Motion information storage means;
Course change learning that generates the course change learning information based on a plurality of the detected action information for the same course change operation stored in the detected action information storage means by detecting the same course change operation a plurality of times An information generating means,
The host vehicle position recognition apparatus according to any one of claims 1 to 5, wherein the course change learning information generated by the course change learning information generation unit is stored in the course change learning information storage unit.
複数の対象地物についての位置情報及び属性情報を含む地物情報が記憶された地物情報記憶手段と、前記自車位置情報に基づいて、前記地物情報記憶手段から自車両の周辺の前記地物情報を取得する地物情報取得手段と、を更に備え、
前記画像認識手段は、前記地物情報に基づいて、前記画像情報に含まれる対象地物の認識処理を行う請求項1から6のいずれか一項に記載の自車位置認識装置。
Feature information storage means storing feature information including position information and attribute information about a plurality of target features, and based on the vehicle position information, the feature information storage means and the surroundings of the vehicle A feature information acquisition means for acquiring feature information;
The vehicle position recognition device according to any one of claims 1 to 6, wherein the image recognition unit performs a recognition process of a target feature included in the image information based on the feature information.
前記対象地物は、道路の路面に設けられた道路標示である請求項1から7の何れか一項に記載の自車位置認識装置。   The vehicle position recognition device according to any one of claims 1 to 7, wherein the target feature is a road marking provided on a road surface. 請求項1から8のいずれか一項に記載の自車位置認識装置と、
前記道路情報を含む地図情報が格納された地図情報記憶手段と、
前記地図情報及び前記自車位置認識装置により認識された前記自車位置情報を参照して動作するアプリケーションプログラムと、
前記アプリケーションプログラムに従って動作して案内情報を出力する案内情報出力手段と、
を備えるナビゲーション装置。
The vehicle position recognition device according to any one of claims 1 to 8,
Map information storage means storing map information including the road information;
An application program that operates with reference to the map information and the vehicle position information recognized by the vehicle position recognition device;
Guidance information output means that operates according to the application program and outputs guidance information;
A navigation device comprising:
自車両の現在位置を表す自車位置情報を取得する自車位置情報取得ステップと、
道路情報を取得する道路情報取得ステップと、
自車両の周辺の画像情報を取得する画像情報取得ステップと、
前記画像情報に含まれる対象地物の画像認識処理を行う画像認識ステップと、
前記画像認識ステップにより前記対象地物が認識された場合に、自車両の過去の進路変更動作を学習して生成され、自車両の進路変更動作が行われた交差点である進路変更交差点を特定可能な進路変更情報と、当該進路変更動作より前に画像認識された対象地物について当該対象地物の認識位置から自車両の進路変更動作が行われた位置までの距離情報と、を有する進路変更学習情報が記憶された進路変更学習情報記憶手段から、前記認識された対象地物についての前記進路変更学習情報を取得する進路変更学習情報取得ステップと、
前記進路変更学習情報取得ステップにより取得した前記進路変更学習情報に基づいて、前記自車位置情報に基づく当該対象地物の認識位置から前記距離情報に示される距離だけ進行した位置が、前記進路変更情報により特定される進路変更交差点の前記道路情報中の位置と一致するように前記自車位置情報を補正する自車位置補正ステップと、
をコンピュータに実行させる自車位置認識プログラム。
Own vehicle position information acquisition step for acquiring own vehicle position information indicating the current position of the own vehicle;
A road information acquisition step for acquiring road information;
An image information acquisition step of acquiring image information around the host vehicle;
An image recognition step for performing an image recognition process of the target feature included in the image information;
When the target feature is recognized by the image recognition step, it is possible to identify a course change intersection that is generated by learning a past course change operation of the own vehicle and is an intersection where the course change operation of the own vehicle has been performed. Route change information, and distance information from the recognition position of the target feature to the position where the route change operation of the host vehicle is performed for the target feature that has been image-recognized before the route change operation. A course change learning information acquisition step of acquiring the course change learning information about the recognized target feature from the course change learning information storage means in which learning information is stored;
Based on the course change learning information acquired in the course change learning information acquisition step, a position that has traveled a distance indicated by the distance information from a recognized position of the target feature based on the vehicle position information is the course change. A vehicle position correction step for correcting the vehicle position information so as to coincide with the position in the road information of the course change intersection specified by the information;
A vehicle position recognition program that runs a computer.
JP2007171893A 2007-06-29 2007-06-29 Own vehicle position recognition device and own vehicle position recognition program Expired - Fee Related JP4817019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007171893A JP4817019B2 (en) 2007-06-29 2007-06-29 Own vehicle position recognition device and own vehicle position recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007171893A JP4817019B2 (en) 2007-06-29 2007-06-29 Own vehicle position recognition device and own vehicle position recognition program

Publications (2)

Publication Number Publication Date
JP2009008591A JP2009008591A (en) 2009-01-15
JP4817019B2 true JP4817019B2 (en) 2011-11-16

Family

ID=40323810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007171893A Expired - Fee Related JP4817019B2 (en) 2007-06-29 2007-06-29 Own vehicle position recognition device and own vehicle position recognition program

Country Status (1)

Country Link
JP (1) JP4817019B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011038860A (en) * 2009-08-07 2011-02-24 Alpine Electronics Inc Method for updating position on road and device
JP5915480B2 (en) * 2012-09-26 2016-05-11 トヨタ自動車株式会社 Own vehicle position calibration apparatus and own vehicle position calibration method
KR102044703B1 (en) * 2018-02-14 2019-12-02 엘지전자 주식회사 Autonomous vehicle and method of controlling the same

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3129846B2 (en) * 1992-08-19 2001-01-31 アイシン・エィ・ダブリュ株式会社 Vehicle navigation system
JP2840036B2 (en) * 1994-09-14 1998-12-24 アイシン・エィ・ダブリュ株式会社 Vehicle navigation system
JP3958133B2 (en) * 2002-07-12 2007-08-15 アルパイン株式会社 Vehicle position measuring apparatus and method
JP2006047246A (en) * 2004-08-09 2006-02-16 Xanavi Informatics Corp Route searching method for navigation system
JP2006298115A (en) * 2005-04-19 2006-11-02 Aisin Aw Co Ltd Driving-support method and driving-support device
JP4421549B2 (en) * 2005-11-29 2010-02-24 アイシン・エィ・ダブリュ株式会社 Driving assistance device

Also Published As

Publication number Publication date
JP2009008591A (en) 2009-01-15

Similar Documents

Publication Publication Date Title
JP7040867B2 (en) System, method and program
JP4831434B2 (en) Feature information collection device, feature information collection program, own vehicle position recognition device, and navigation device
JP4366664B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP4446201B2 (en) Image recognition apparatus and image recognition method
JP4437556B2 (en) Feature information collecting apparatus and feature information collecting method
JP4703605B2 (en) Feature extraction method, image recognition method and feature database creation method using the same
JP4569837B2 (en) Feature information collecting apparatus and feature information collecting method
JP6280409B2 (en) Self-vehicle position correction method, landmark data update method, in-vehicle device, server, and self-vehicle position data correction system
JP4984152B2 (en) Image recognition system, server device, and image recognition device
JP4953012B2 (en) Image recognition device, program for image recognition device, navigation device using the same, and program for navigation device
JP2009134429A (en) Image recognition apparatus and image recognition program
JP5141969B2 (en) Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP4875509B2 (en) Navigation device and navigation method
JP4831433B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP4817019B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP2010139478A (en) Navigation device
JP4789868B2 (en) Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same
JP5099460B2 (en) Feature information collecting apparatus and feature information collecting method
JP4789869B2 (en) Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same
JP2009058430A (en) Navigation apparatus and program
JP5071737B2 (en) Lane determination device, lane determination program, and navigation device using the same
JP2010185879A (en) Device and method for recognizing position of own car

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110817

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4817019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees