JP4453046B2 - Vehicle behavior learning apparatus and vehicle behavior learning program - Google Patents

Vehicle behavior learning apparatus and vehicle behavior learning program Download PDF

Info

Publication number
JP4453046B2
JP4453046B2 JP2007171894A JP2007171894A JP4453046B2 JP 4453046 B2 JP4453046 B2 JP 4453046B2 JP 2007171894 A JP2007171894 A JP 2007171894A JP 2007171894 A JP2007171894 A JP 2007171894A JP 4453046 B2 JP4453046 B2 JP 4453046B2
Authority
JP
Japan
Prior art keywords
behavior
information
vehicle
learning
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007171894A
Other languages
Japanese (ja)
Other versions
JP2008275575A (en
Inventor
功一 中尾
正樹 中村
知章 石川
基揮 勘場
総 逢坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007171894A priority Critical patent/JP4453046B2/en
Priority to US12/076,067 priority patent/US8155826B2/en
Priority to EP08004826A priority patent/EP1975564A3/en
Priority to CN2008100836681A priority patent/CN101275840B/en
Publication of JP2008275575A publication Critical patent/JP2008275575A/en
Application granted granted Critical
Publication of JP4453046B2 publication Critical patent/JP4453046B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、特定の車両位置における車両の特定の挙動を学習可能な車両挙動学習装置及び車両挙動学習プログラムに関する。   The present invention relates to a vehicle behavior learning device and a vehicle behavior learning program capable of learning a specific behavior of a vehicle at a specific vehicle position.

自家用車など、特定の運転者が同一の経路を頻繁に運転する場合、特定の自車位置において高い頻度で特定の挙動を行うことがある。挙動とは、例えば自宅や職場、店など特定の場所へ向かう際の右左折や減速、窓の開閉、ライトのオン/オフ、オートマッチック変速装置におけるキックダウンなどである。近年、多くの車両に経路案内を行うナビゲーションシステムが搭載されているが、ナビゲーションシステムの精度をさらに向上させることが望まれている。また、ナビゲーションシステムが有する諸機能を経路案内以外の用途に拡大することも種々検討されている。下記に出典を示す特許文献1にはナビゲーションシステムを搭載した車両における死角モニタの制御装置に関する発明が記載されている。   When a specific driver, such as a private car, frequently drives the same route, a specific behavior may be frequently performed at a specific position of the vehicle. The behavior includes, for example, turning left or right when heading to a specific place such as home, work, or shop, opening / closing a window, turning on / off a light, kicking down in an auto-matching transmission. In recent years, a navigation system that performs route guidance is mounted on many vehicles, and it is desired to further improve the accuracy of the navigation system. Further, various studies have been made to expand various functions of the navigation system to applications other than route guidance. Japanese Patent Application Publication No. JP-A-2001-259542, which is cited below, describes an invention relating to a control device for a blind spot monitor in a vehicle equipped with a navigation system.

この死角モニタの制御装置は、死角モニタを起動する手動スイッチが操作された時、ナビゲーションシステムから入力される車両が位置した地点に関するデータを起動情報として記憶する。そして、ナビゲーションシステムからの入力情報に対して起動情報を検索、照合して車両が当該地点に位置した時に、死角モニタの起動信号を送出する。このナビゲーションシステムは、交差点などの座標点を結ぶ線(リンク)によって道路情報を管理している。手動スイッチが操作された地点がリンクの番号が付された道路である場合には、起動情報は、当該リンクの番号、座標、車両の走行方向を含んで記憶される。当該地点がリンクの番号が付された道路以外である場合には、座標、車両の走行方向を含んで起動情報が記憶される。また、車両が位置する地点は、GPSシステムを利用すると共に、車速信号や角速度信号に基づいて自律航法により推定するハイブリッドシステムを用いて求められる。   This blind spot monitor control device stores, as activation information, data relating to the point at which the vehicle is input, which is input from the navigation system, when a manual switch for activating the blind spot monitor is operated. Then, when the vehicle is located at the point after searching and collating the activation information with respect to the input information from the navigation system, a blind spot monitor activation signal is transmitted. This navigation system manages road information using lines (links) connecting coordinate points such as intersections. When the point where the manual switch is operated is a road with a link number, the activation information is stored including the link number, coordinates, and the traveling direction of the vehicle. If the point is other than a road with a link number, activation information including coordinates and the traveling direction of the vehicle is stored. Further, the location where the vehicle is located is determined by using a GPS system and a hybrid system that estimates by autonomous navigation based on a vehicle speed signal and an angular velocity signal.

特開2002−286459号公報(第1〜14、第24〜28段落等参照)JP 2002-286458 A (see paragraphs 1 to 14, paragraphs 24 to 28, etc.)

特許文献1に記載の死角モニタの制御装置は、ハイブリッドシステムを用いて自車の位置を求める。しかし、特許文献1にも記載されているように、GPS測位であれ自律航法による測位であれ、測位値には誤差が含まれ、実際の走行位置からはずれてしまう。そこで、いわゆるマップマッチング処理によって最も確からしい位置が推定される。   The blind spot monitor control device described in Patent Literature 1 obtains the position of the host vehicle using a hybrid system. However, as described in Japanese Patent Laid-Open No. 2004-228561, whether the positioning is performed by GPS positioning or autonomous navigation, the positioning value includes an error and deviates from the actual traveling position. Therefore, the most likely position is estimated by so-called map matching processing.

ところで、死角モニタの起動操作に限らず、車両における種々の特定の挙動は、特定の地点において実施されることが多い。例えば、大きな道から細街路への右左折や、キックダウンなどは、自宅や職場、店など、特定の場所へのアプローチの際に実施される。大きな道から分岐する細街路は、多くあり、その間隔も狭いことが多い。細街路の間隔が、測位値の誤差よりも小さいような場合には、測位結果から車両の挙動を予測することは困難である。   By the way, not only the activation operation of the blind spot monitor but various specific behaviors in the vehicle are often performed at specific points. For example, a left-right turn from a large road to a narrow street, kick-down, etc. are performed when approaching a specific place such as a home, a workplace or a store. There are many narrow streets that diverge from large roads, and the intervals are often narrow. When the narrow street interval is smaller than the positioning value error, it is difficult to predict the behavior of the vehicle from the positioning result.

本願発明は、上記課題に鑑みて創案されたもので、道路上の特定の位置における頻度の高い車両の挙動を、高い位置精度を伴って学習することが可能な車両挙動学習装置及び車両挙動学習プログラムを提供することを目的とする。   The present invention was devised in view of the above problems, and is a vehicle behavior learning device and vehicle behavior learning capable of learning a high-frequency vehicle behavior at a specific position on a road with high positional accuracy. The purpose is to provide a program.

上記目的を達成するための本発明に係る車両挙動学習装置の特徴構成は、自車両の現在位置を示す自車位置情報を取得する自車位置情報取得手段と、自車両の周辺の画像情報を取得する画像情報取得手段と、複数の対象地物についての位置情報及び属性情報を含む地物情報が記憶された地物情報記憶手段と、前記自車位置情報に基づいて、前記地物情報記憶手段から自車両の周辺の前記地物情報を取得する地物情報取得手段と、前記地物情報に基づいて、前記画像情報に含まれる対象地物の認識処理を行う画像認識手段と、前記画像認識手段による対象地物の画像認識に成功した位置から所定範囲内の自車両の挙動を検出する挙動検出手段と、前記自車位置情報に基づいて、前記挙動検出手段による自車両の挙動の検出結果を表す挙動検出情報を、当該挙動が検出された検出位置の情報と関連づけて記憶する検出結果記憶手段と、自車両が同じ場所を複数回通行することにより前記検出結果記憶手段に記憶された、同じ挙動についての複数の前記挙動検出情報に基づいて、繰り返し検出される自車両の挙動を学習挙動として抽出し、当該学習挙動の属性情報及び位置情報を前記画像認識に成功した対象地物の地物情報と関連づけた学習挙動情報として出力する学習挙動抽出手段と、を備え、前記学習挙動抽出手段は、複数の車両と通信可能に接続され、前記挙動検出手段が自車両の挙動として外部から自車両に加わる外的要因による自車両の動作を検出する場合、複数の車両が同じ場所を通行することにより各車両の前記検出結果記憶手段に記憶された、車両の挙動についての複数の挙動検出情報に基づいて、再現性を有して検出される自車両の挙動を前記学習挙動として抽出する点にある。 The characteristic configuration of the vehicle behavior learning apparatus according to the present invention for achieving the above object includes: own vehicle position information acquisition means for acquiring own vehicle position information indicating the current position of the own vehicle; and image information around the own vehicle. Image information acquisition means for acquiring, feature information storage means for storing feature information including position information and attribute information for a plurality of target features, and the feature information storage based on the vehicle position information A feature information acquisition unit that acquires the feature information around the vehicle from the unit, an image recognition unit that performs a recognition process of the target feature included in the image information based on the feature information, and the image A behavior detecting means for detecting the behavior of the host vehicle within a predetermined range from a position at which the image of the target feature has been successfully recognized by the recognition means; and a detection of the behavior of the host vehicle by the behavior detecting means based on the host vehicle position information. Behavior detection information indicating the result And a plurality of the same behavior stored in the detection result storage means when the host vehicle passes through the same place a plurality of times. Based on the behavior detection information, the behavior of the host vehicle that is repeatedly detected is extracted as the learning behavior, and the attribute information and the position information of the learning behavior are associated with the feature information of the target feature that has succeeded in the image recognition. Learning behavior extraction means for outputting as learning behavior information, and the learning behavior extraction means is communicably connected to a plurality of vehicles, and the behavior detection means is externally applied to the own vehicle from the outside as the behavior of the own vehicle. When detecting the movement of the own vehicle due to a factor, a plurality of vehicle behaviors stored in the detection result storage means of each vehicle when the plurality of vehicles pass through the same place. Based on the behavior detection information, certain behavior of the vehicle detected with a reproducible point extracted as the learned behavior.

この特徴構成によれば、学習挙動情報は、対象地物の画像認識に成功した位置から所定範囲内における自車両の挙動が検出された挙動検出情報と、挙動が検出された検出位置の情報とを含む。つまり、特定の位置に存在する対象地物と、自車両の挙動とが関連づけられて学習挙動情報として出力される。また、学習挙動情報は、特定の位置に存在する対象地物を基準とする場所において、繰り返し検出される自車両の挙動を含むので、特定の位置において高い頻度で出現する自車両の挙動を示すものとなる。GPS測位や自律航法のみによる測位に比べて、対象地物を認識することによる測位方法を併せて利用することにより、高い位置精度を実現することができる。従って、対象地物に対して関連づけられた本特徴構成の学習挙動情報も、高い位置精度を有するものとなる。その結果、道路上の特定の位置における頻度の高い車両の挙動を、高い位置精度を伴って学習することが可能な車両挙動学習装置を提供することが可能となる。また、学習挙動抽出手段から出力される学習挙動情報を用いることによって、画像認識された対象地物を基準として、車両の挙動を予測することも可能となる。
ところで、外的要因による自車両の挙動は、程度の差はあっても、複数の別の車両においても共通に生じる挙動である。つまり、道路の状況や天候など、受動的な原因によって発生するので、同一の車両において繰り返し同じ挙動が検出されなくても、複数の車両において同じ挙動が再現されれば学習挙動情報とすることができる。本特徴によれば、学習挙動抽出手段が、複数の車両と通信可能に接続されているので、自車両において検出された挙動が1回であっても、他の車両において検出された挙動と合わせることで、再現性を有する挙動とすることができる。その結果、幅広く車両の挙動を学習することができる。
According to this feature configuration, the learning behavior information includes the behavior detection information in which the behavior of the host vehicle is detected within a predetermined range from the position at which image recognition of the target feature is successful, and the information on the detection position in which the behavior is detected. including. That is, the target feature existing at a specific position and the behavior of the host vehicle are associated and output as learning behavior information. In addition, the learning behavior information includes the behavior of the own vehicle that is repeatedly detected at a location based on the target feature existing at the specific position, and thus indicates the behavior of the own vehicle that frequently appears at the specific position. It will be a thing. Compared with positioning based only on GPS positioning or autonomous navigation, high positioning accuracy can be realized by using a positioning method based on recognition of target features. Therefore, the learning behavior information of this feature configuration associated with the target feature also has high position accuracy. As a result, it is possible to provide a vehicle behavior learning device capable of learning the behavior of a vehicle with a high frequency at a specific position on the road with high positional accuracy. Further, by using the learning behavior information output from the learning behavior extracting means, it is possible to predict the behavior of the vehicle with reference to the target feature that has been image-recognized.
By the way, the behavior of the own vehicle due to an external factor is a behavior that occurs in common in a plurality of other vehicles even if there is a difference in degree. In other words, it occurs due to passive causes such as road conditions and weather, so even if the same behavior is not repeatedly detected in the same vehicle, it can be used as learned behavior information if the same behavior is reproduced in multiple vehicles. it can. According to this feature, since the learning behavior extracting means is communicably connected to a plurality of vehicles, even if the behavior detected in the own vehicle is one time, it is matched with the behavior detected in other vehicles. Thus, a reproducible behavior can be obtained. As a result, it is possible to learn a wide range of vehicle behaviors.

ここで、前記挙動検出手段により検出される自車両の挙動には、少なくとも自車両の動作を含み、自車両の各部における運転者の操作の受け付けを含んでも好適である。
なお、本願において、自車両の動作には、運転者の操作によって生じる自車両の各部や車両全体の動作、或いは、外部から自車両に加わる外的要因によって生じる自車両の各部や車両全体の動作等が含まれる。
Here, wherein the behavior of the host vehicle detected by the behavior detecting means includes operation of at least the vehicle, the reception of the driver's operation in each part of the vehicle is also preferable in I free.
In the present application, the operation of the host vehicle includes the operation of each part of the host vehicle and the entire vehicle caused by the operation of the driver, or the operation of each part of the host vehicle and the entire vehicle caused by an external factor applied to the host vehicle from the outside. Etc. are included.

自車両の挙動には、運転者による自発的な操作に伴って発生するものと、道路の状況や天候など、受動的な原因によって発生するものとがある。例えば、運転者の自発的な操作とは、ステアリング操作、シフト操作、アクセルやブレーキの操作、空調装置の操作、窓の開閉操作、ナビゲーション装置やオーディオの操作などである。そして、このような運転者の自発的な操作により生じる自車両の挙動として、例えば、ステアリング操作によって生じる自車両の進行方向の変化や横方向加速度の変化、シフト操作やアクセル操作等による変速機の変速段の変更(キックダウンやシフトダウン等)、ブレーキやアクセルの操作により発生する進行方向加速度の変化などがある。一方、受動的な原因によって生じる自車両の挙動として、例えば、カーブを走行することにより発生する横加速度の変化、段差通過により生じる振動・衝撃、坂道を走行する際の進行方向加速度の変化などがある。本発明に係る挙動検出手段は、これら運転者の自発的な操作の受け付け、及び運転者の操作や外的要因等による自車両の動作の少なくとも一方を自車両の挙動として検出するので、幅広く自車両の挙動を検出することができる。   There are two types of behavior of the host vehicle: one that occurs in response to a driver's own operation, and one that occurs due to passive causes such as road conditions and weather. For example, the driver's spontaneous operation includes a steering operation, a shift operation, an accelerator or brake operation, an air conditioner operation, a window opening / closing operation, a navigation device or an audio operation. As the behavior of the host vehicle caused by such a driver's spontaneous operation, for example, a change in the traveling direction of the host vehicle or a change in lateral acceleration caused by a steering operation, a shift operation or an accelerator operation, etc. There are changes in the gear position (kick down, shift down, etc.), changes in the acceleration in the traveling direction caused by the operation of the brake and accelerator, and the like. On the other hand, the behavior of the host vehicle caused by passive causes includes, for example, changes in lateral acceleration caused by running on a curve, vibrations / impacts caused by stepping, changes in acceleration in the traveling direction when running on a slope, etc. is there. The behavior detecting means according to the present invention detects at least one of the autonomous operation of the driver and the operation of the own vehicle due to the driver's operation or an external factor as the behavior of the own vehicle. The behavior of the vehicle can be detected.

また、本発明に係る車両挙動学習装置が、前記学習挙動情報に基づいて、当該対象地物に関連づけられた前記挙動を予測する挙動予測手段を備えると好適である。   In addition, it is preferable that the vehicle behavior learning device according to the present invention includes behavior prediction means for predicting the behavior associated with the target feature based on the learned behavior information.

この構成によれば、上述したように、高い位置精度を伴って学習された、道路上の特定の位置における頻度の高い車両の挙動を示す学習挙動情報を利用して、その挙動を予測することができる。つまり、画像認識された対象地物を基準として、精度よく自車両の挙動を予測することができる。   According to this configuration, as described above, the learning behavior information indicating the behavior of the vehicle with a high frequency at a specific position on the road learned with high position accuracy is used to predict the behavior. Can do. That is, it is possible to accurately predict the behavior of the host vehicle on the basis of the image-recognized target feature.

本発明に係る車両挙動学習装置が前記挙動予測手段を備える場合、前記挙動予測手段は、前記挙動の予測結果を、自車両の案内情報の出力のための演算処理を行うナビゲーション用演算手段に対して出力すると好適である。   When the vehicle behavior learning device according to the present invention includes the behavior predicting unit, the behavior predicting unit outputs the prediction result of the behavior to a navigation calculating unit that performs arithmetic processing for outputting guidance information of the host vehicle. Is preferably output.

この構成によれば、挙動予測手段の予測結果に基づいて、ナビゲーション用演算手段が適切な案内情報の出力を行うことが可能となる。例えば、右折や左折等の自車両の挙動を予測して、自車位置表示や経路案内を精度良く行うことが可能となる。   According to this configuration, based on the prediction result of the behavior prediction unit, the navigation calculation unit can output appropriate guidance information. For example, it is possible to predict the behavior of the host vehicle such as a right turn or a left turn, and to accurately display the host vehicle position and route guidance.

本発明に係る車両挙動学習装置が前記挙動予測手段を備える場合、前記挙動予測手段が、前記挙動の予測結果を、前記運転者の操作を再現する自車両内の制御装置に対して出力すると好適である。   When the vehicle behavior learning device according to the present invention includes the behavior prediction unit, it is preferable that the behavior prediction unit outputs the behavior prediction result to a control device in the host vehicle that reproduces the operation of the driver. It is.

この構成によれば、挙動予測手段の予測結果に基づいて、当該制御装置は運転者の操作を再現することができる。つまり、運転者の能動的な操作のアシストを行ったり、あるいは能動的な操作に先行して同一の操作を実施したりすることができる。その結果、運転者による能動的な操作が遅れたり、失念していたりしても、確実に車両の挙動を再現することができる。   According to this structure, the said control apparatus can reproduce a driver | operator's operation based on the prediction result of a behavior prediction means. That is, it is possible to assist the driver in active operation, or to perform the same operation prior to the active operation. As a result, the behavior of the vehicle can be reliably reproduced even if the active operation by the driver is delayed or forgotten.

本発明に係る車両挙動学習装置が前記挙動予測手段を備える場合、前記挙動予測手段が、前記挙動の予測結果を、自車両の動作を最適化する制御装置に対して出力すると好適である。   When the vehicle behavior learning device according to the present invention includes the behavior prediction unit, the behavior prediction unit preferably outputs the behavior prediction result to a control device that optimizes the operation of the host vehicle.

この構成によれば、挙動予測手段の予測結果に基づいて、当該制御装置が自車両の挙動を最適化することができる。例えば、シフト制御装置や、エンジン制御装置、ハイブリッド車両のモータ制御装置、アクティブサスペンションの制御装置などは、挙動予測手段の予測結果に基づいて自車両の挙動を最適化することができる。その結果、乗車中の快適性の向上や、燃費向上などを図ることができる。   According to this structure, the said control apparatus can optimize the behavior of the own vehicle based on the prediction result of a behavior prediction means. For example, a shift control device, an engine control device, a motor control device for a hybrid vehicle, a control device for an active suspension, and the like can optimize the behavior of the host vehicle based on the prediction result of the behavior prediction means. As a result, it is possible to improve comfort while riding and improve fuel efficiency.

ここで、前記対象地物が、道路の路面に設けられた道路標示であると好適である。   Here, it is preferable that the target feature is a road marking provided on a road surface.

道路標示は、法令によってその寸法などが規定されている。従って、画像認識手段による認識処理の負荷を軽減することができると共に、正確な位置判定も可能である。つまり、高い精度で自車両の位置情報を得ることができる。その結果、車両の挙動を、高い位置精度を伴って学習することが可能な車両挙動学習装置を提供することができる。   The dimensions of road markings are regulated by law. Therefore, it is possible to reduce the load of recognition processing by the image recognition means and to perform accurate position determination. That is, the position information of the host vehicle can be obtained with high accuracy. As a result, it is possible to provide a vehicle behavior learning device capable of learning the behavior of the vehicle with high positional accuracy.

また、前記地物情報記憶手段には、前記地物情報として、予め記憶された初期地物情報、及び前記画像認識手段により前記地物情報とは無関係に行われた地物の画像認識処理の結果に基づいて学習して記憶された学習地物情報の一方又は双方が記憶されていると好適である。 Further, in the above feature information storing means, wherein the feature information, previously stored initial feature information,及beauty before Symbol image recognition unit by Ri the feature information and the feature that place independently in It is preferable that one or both of the learned feature information learned and stored based on the result of the image recognition process is stored.

この構成によれば、地物情報記憶手段に、初期地物情報が記憶されている場合には、当該初期地物情報を用いた車両挙動学習を行うことが可能であり、学習地物情報が記憶されている場合には、当該学習地物情報を用いた車両挙動学習を行うことが可能である。そして、初期地物情報と学習地物情報の双方が記憶されている場合には、状況に応じてこれらの一方又は双方を用いた車両挙動学習を行うことが可能である。また、学習地物情報が記憶される構成では、初期地物情報が整備されていない道路であっても、自車両が走行したことがある道路について地物情報を順次整備していくことが可能となる。よって、自車両の走行経路に従って車両挙動学習を行うことができる道路や地域を拡大することができ、更には、初期地物情報を整備するための手間や費用を削減することも可能となる。   According to this configuration, when the initial feature information is stored in the feature information storage means, it is possible to perform vehicle behavior learning using the initial feature information, and the learned feature information If stored, it is possible to perform vehicle behavior learning using the learned feature information. When both the initial feature information and the learned feature information are stored, it is possible to perform vehicle behavior learning using one or both of them according to the situation. In addition, in the configuration in which learning feature information is stored, it is possible to sequentially prepare feature information for roads on which the vehicle has traveled, even on roads for which initial feature information is not maintained. It becomes. Therefore, it is possible to expand roads and areas where vehicle behavior learning can be performed according to the travel route of the host vehicle, and it is also possible to reduce labor and cost for maintaining initial feature information.

また、前記挙動が検出された検出位置の情報は、当該挙動の検出位置を表す座標情報、及び前記画像認識に成功した対象地物の当該画像認識に成功した位置から当該挙動の検出位置までの距離情報の一方又は双方を含む構成とすると好適である。   The information on the detection position where the behavior is detected includes coordinate information indicating the detection position of the behavior, and the position of the target feature that has succeeded in the image recognition to the detection position of the behavior. A configuration including one or both of the distance information is preferable.

この構成によれば、前記挙動の検出位置の情報を、当該検出位置を単独で表す情報、及び当該検出位置を前記画像認識に成功した対象地物との関係を示す地物−挙動間の距離で表す情報の一方又は双方を用いて、適切に表すことが可能となる。また、前記距離情報を含む構成とした場合には、当該距離情報を用いて、前記学習挙動の位置情報として前記画像認識に成功した対象地物の位置から当該学習挙動の位置までの距離情報を含む学習挙動情報を、学習挙動抽出手段によって容易に生成して出力することが可能となる。   According to this configuration, the information on the detection position of the behavior, the information indicating the detection position alone, and the distance between the feature and the behavior indicating the relationship between the detection position and the target feature that has succeeded in the image recognition. It is possible to appropriately express using one or both of the information represented by. Further, in the case of the configuration including the distance information, using the distance information, the distance information from the position of the target feature that has succeeded in the image recognition to the position of the learning behavior is used as the position information of the learning behavior. The learning behavior information including it can be easily generated and output by the learning behavior extraction means.

更に、前記学習挙動情報に係る前記学習挙動の位置情報は、当該学習挙動の位置を表す座標情報、及び前記画像認識に成功した対象地物の位置から当該学習挙動の位置までの距離情報の一方又は双方を含む構成とすると好適である。   Further, the position information of the learning behavior related to the learning behavior information is one of coordinate information representing the position of the learning behavior and distance information from the position of the target feature that has succeeded in the image recognition to the position of the learning behavior. Or it is suitable if it is set as the structure containing both.

この構成によれば、前記学習挙動の位置情報を、当該学習挙動の位置を単独で表す情報、及び当該学習挙動の位置を前記画像認識に成功した対象地物との関係を示す地物−学習挙動間の距離で表す情報の一方又は双方を用いて、適切に表すことが可能となる。また、前記距離情報を含む構成とした場合には、前記学習挙動情報に示される前記対象地物の画像認識に成功した際に、当該対象地物の画像認識に成功した位置を基準としてより正確に学習挙動の発生を予測することが可能となる。   According to this configuration, the position information of the learning behavior, the information indicating the position of the learning behavior alone, and the feature-learning indicating the relationship between the position of the learning behavior and the target feature that has succeeded in the image recognition It is possible to appropriately represent one or both of the information represented by the distance between the behaviors. Further, in the case of the configuration including the distance information, when the image recognition of the target feature indicated in the learning behavior information is successful, it is more accurate based on the position where the image recognition of the target feature is successful. It is possible to predict the occurrence of learning behavior.

また、本発明に係るナビゲーション装置の特徴構成は、上述した何れかの特徴構成を備えた車両挙動学習装置と、地図情報が記憶された地図情報記憶手段と、前記車両挙動学習装置により出力された前記学習挙動情報及び前記地図情報の一方又は双方を参照して動作する複数のアプリケーションプログラムと、前記アプリケーションプログラムに従って動作して案内情報を出力する案内情報出力手段と、を備える点にある。   In addition, the characteristic configuration of the navigation device according to the present invention is output by the vehicle behavior learning device having any of the above-described characteristic configurations, the map information storage means in which the map information is stored, and the vehicle behavior learning device. And a plurality of application programs that operate with reference to one or both of the learning behavior information and the map information, and guide information output means that operates according to the application program and outputs guide information.

この特徴構成によれば、アプリケーションプログラムは、高い精度を伴って学習された学習挙動情報を利用して動作することが可能である。従って、より高い精度を有して案内情報を出力することができる。例えば、自宅など頻繁に利用する細街路に対しての屈曲動作が挙動として学習されていれば、細街路近傍の大きな道に誤ってマップマッチングすることなく、正確に細街路へのマップマッチングを実施することができる。   According to this feature configuration, the application program can operate using learning behavior information learned with high accuracy. Therefore, the guide information can be output with higher accuracy. For example, if bending behavior on frequently used narrow streets such as home is learned as a behavior, map matching to narrow streets can be performed accurately without accidental map matching to large streets near narrow streets can do.

また、本発明に係る車両挙動学習プログラムの特徴構成は、自車両の現在位置を示す自車位置情報を取得する自車位置情報取得工程と、自車両の周辺の画像情報を取得する画像情報取得工程と、複数の対象地物についての位置情報及び属性情報を含む地物情報が記憶された地物情報記憶手段から、前記自車位置情報に基づいて自車両の周辺の前記地物情報を取得する地物情報取得工程と、前記地物情報に基づいて、前記画像情報に含まれる対象地物の認識処理を行う画像認識工程と、前記画像認識手段による対象地物の画像認識に成功した位置から所定範囲内の自車両の挙動を検出する挙動検出工程と、前記自車位置情報に基づいて、前記挙動検出手段による自車両の挙動の検出結果を表す挙動検出情報を、当該挙動が検出された検出位置の情報と関連づけて検出結果記憶手段に記憶させる検出結果記憶工程と、自車両が同じ場所を複数回通行することにより前記検出結果記憶手段に記憶された、同じ自車両の挙動についての複数の挙動検出情報に基づいて、繰り返し検出される自車両の挙動を学習挙動として抽出し、当該学習挙動の属性情報及び位置情報を前記画像認識に成功した対象地物の地物情報と関連づけた学習挙動検出情報として出力する学習挙動抽出工程と、をコンピュータに実行させ、前記学習挙動抽出工程では、前記挙動検出工程により自車両の挙動として外部から自車両に加わる外的要因による自車両の動作を検出する場合、複数の車両と通信し、複数の車両が同じ場所を通行することにより各車両の前記検出結果記憶手段に記憶された、車両の挙動についての複数の挙動検出情報に基づいて、再現性を有して検出される自車両の挙動を前記学習挙動として抽出する点にある。 Further, the vehicle behavior learning program according to the present invention is characterized by a vehicle position information acquisition step for acquiring own vehicle position information indicating the current position of the own vehicle, and image information acquisition for acquiring image information around the own vehicle. The feature information around the own vehicle is acquired based on the own vehicle position information from the feature information storage means storing the feature information including position information and attribute information about the plurality of target features. A feature information acquisition step, an image recognition step for recognizing a target feature included in the image information based on the feature information, and a position at which image recognition of the target feature by the image recognition means is successful. The behavior detection step for detecting the behavior of the host vehicle within a predetermined range from the host vehicle and the behavior detection information representing the detection result of the behavior of the host vehicle by the behavior detection means are detected based on the host vehicle position information. Of the detected position A detection result storing step for storing in the detection result storage means in association with the information, and a plurality of behavior detections for the behavior of the same own vehicle stored in the detection result storage means when the own vehicle passes the same place a plurality of times Based on the information, the behavior of the subject vehicle that is repeatedly detected is extracted as the learning behavior, and the learning behavior detection information that associates the attribute information and the position information of the learning behavior with the feature information of the target feature that has succeeded in the image recognition. A learning behavior extraction step that is output as a computer, and in the learning behavior extraction step, the behavior detection step detects the behavior of the host vehicle due to an external factor that is externally applied to the host vehicle as the behavior of the host vehicle. , Communicating with a plurality of vehicles, and the plurality of vehicles passing through the same place and stored in the detection result storage means of each vehicle, Based on the number of behavior detection information, certain behavior of the vehicle detected with a reproducible point extracted as the learned behavior.

この特徴構成によれば、学習挙動情報は、対象地物の画像認識に成功した位置から所定範囲内における自車両の挙動が検出された挙動検出情報と、挙動が検出された検出位置の情報とを含む。つまり、特定の位置に存在する対象地物と、自車両の挙動とが関連づけられて学習挙動情報として出力される。また、学習挙動情報は、特定の位置に存在する対象地物を基準とする場所において、繰り返し検出される自車両の挙動を含むので、特定の位置において高い頻度で出現する自車両の挙動を示すものとなる。GPS測位や自律航法のみによる測位に比べて、対象地物を認識することによる測位方法を併せて利用すれば、より高い位置精度を実現することができる。従って、対象地物に対して関連づけられた本特徴構成の学習挙動情報も、高い位置精度を有するものとなる。その結果、道路上の特定の位置における頻度の高い車両の挙動を、高い位置精度を伴って学習することが可能な車両挙動学習プログラムを提供することが可能となる。また、学習挙動抽出工程において複数の車両と通信するので、自車両において検出された挙動が1回であっても、他の車両において検出された挙動と合わせることで、再現性を有する挙動とすることができる。その結果、幅広く車両の挙動を学習することができる。
According to this feature configuration, the learning behavior information includes the behavior detection information in which the behavior of the host vehicle is detected within a predetermined range from the position at which image recognition of the target feature is successful, and the information on the detection position in which the behavior is detected. including. That is, the target feature existing at a specific position and the behavior of the host vehicle are associated and output as learning behavior information. In addition, the learning behavior information includes the behavior of the own vehicle that is repeatedly detected at a location based on the target feature existing at the specific position, and thus indicates the behavior of the own vehicle that frequently appears at the specific position. It will be a thing. Compared with positioning by only GPS positioning or autonomous navigation, higher positioning accuracy can be realized by using a positioning method by recognizing a target feature. Therefore, the learning behavior information of this feature configuration associated with the target feature also has high position accuracy. As a result, it is possible to provide a vehicle behavior learning program capable of learning the behavior of a vehicle with a high frequency at a specific position on the road with high positional accuracy. Moreover, since it communicates with several vehicles in a learning behavior extraction process, even if the behavior detected in the own vehicle is 1 time, it is set as the behavior which has reproducibility by combining with the behavior detected in other vehicles. be able to. As a result, it is possible to learn a wide range of vehicle behaviors.

以下、本発明の実施形態を図面に基づいて説明する。図1は、本実施形態に係る車両挙動学習装置2を含むナビゲーション装置1の構成例を模式的に示すブロック図である。図2は、図1に示される地図データベース13及び地物データベース15に記憶される情報の構成例を示す説明図である。地図データベース13は本発明の地図情報記憶手段に、地物データベース15は本発明の地物情報記憶手段に相当する。図1に示すように、ナビゲーション装置1は、車両挙動学習装置2と、地図データベース13と、アプリケーションプログラム16と、案内情報出力部(案内情報出力手段)28と、の各機能部を備えている。車両挙動学習装置2は、自車位置情報取得部3と、画像情報取得部4と、地物情報取得部5と、画像認識部6と、挙動検出部7と、検出結果記憶部8と、学習挙動抽出部9と、の各機能部を備えている。これらの機能部は、マイクロプロセッサやDSP(digital signal processor)などの演算処理装置を中核部材として、ハードウェア及びソフトウェア(プログラム)の一方又は双方により構築される。つまり、これらの各機能部は、ハードウェア及びソフトウェアの協働によって、入力された種々のデータに対して処理を実行する。上記各機能部の詳細については後述する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing a configuration example of a navigation device 1 including a vehicle behavior learning device 2 according to the present embodiment. FIG. 2 is an explanatory diagram showing a configuration example of information stored in the map database 13 and the feature database 15 shown in FIG. The map database 13 corresponds to the map information storage means of the present invention, and the feature database 15 corresponds to the feature information storage means of the present invention. As shown in FIG. 1, the navigation device 1 includes functional units of a vehicle behavior learning device 2, a map database 13, an application program 16, and a guidance information output unit (guidance information output means) 28. . The vehicle behavior learning device 2 includes a host vehicle position information acquisition unit 3, an image information acquisition unit 4, a feature information acquisition unit 5, an image recognition unit 6, a behavior detection unit 7, a detection result storage unit 8, And a learning behavior extracting unit 9. These functional units are constructed by one or both of hardware and software (program) using an arithmetic processing unit such as a microprocessor or a DSP (digital signal processor) as a core member. That is, each of these functional units executes processing on various input data by cooperation of hardware and software. Details of each functional unit will be described later.

〔地図データベース及び地物データベース〕
地図データベース13は、所定の領域毎に分けられた複数の地図情報Mと、この地図情報Mに関連付けられた複数の地物情報Fとが記憶されたデータベースである。図2には、地図データベース13に記憶されている地図情報M及び地物データベース15に記憶されている地物情報Fの構成例が示されている。この図に示すように、地図データベース13には、道路ネットワークレイヤm1、道路形状レイヤm2、地物レイヤm3が記憶されている。本実施形態においては、これらの各レイヤm1〜m3に格納された情報により地図データベース13の地図情報Mが構成され、その中の地物レイヤm3に格納された情報により地物データベース15の地物情報Fが構成されている。
[Map database and feature database]
The map database 13 is a database in which a plurality of map information M divided for each predetermined area and a plurality of feature information F associated with the map information M are stored. FIG. 2 shows a configuration example of the map information M stored in the map database 13 and the feature information F stored in the feature database 15. As shown in the figure, the map database 13 stores a road network layer m1, a road shape layer m2, and a feature layer m3. In the present embodiment, the map information M of the map database 13 is configured by the information stored in each of these layers m1 to m3, and the features of the feature database 15 are configured by the information stored in the feature layer m3 therein. Information F is configured.

道路ネットワークレイヤm1は、道路間の接続情報を示すレイヤである。具体的には、緯度及び経度等の座標で表現された地図上の位置情報を有する多数のノードnの情報と、2つのノードnを連結して道路を構成する多数のリンクkの情報とを有して構成されている。また、各リンクkは、そのリンク情報として、道路の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。また、道路形状レイヤm2は、道路ネットワークレイヤm1に関連付けられて記憶され、道路の形状を示すレイヤである。具体的には、2つのノードnの間(リンクk上)に配置されて緯度及び経度等の座標で表現された地図上の位置情報を有する多数の道路形状補完点sの情報や、道路幅wの情報等を有して構成されている。   The road network layer m1 is a layer indicating connection information between roads. Specifically, information on a large number of nodes n having position information on a map expressed by coordinates such as latitude and longitude, and information on a large number of links k constituting the road by connecting the two nodes n. It is configured. Each link k includes information such as the type of road (type of highway, toll road, national road, prefectural road, etc.) and link length as link information. The road shape layer m2 is a layer that is stored in association with the road network layer m1 and indicates the shape of the road. Specifically, information on a number of road shape complementary points s having position information on a map arranged between two nodes n (on a link k) and expressed by coordinates such as latitude and longitude, and road width w information and the like.

地物レイヤm3は、道路ネットワークレイヤm1及び道路形状レイヤm2に関連付けられて構成され、道路上や道路周辺に設けられた各種の地物の情報、即ち地物情報Fが記憶されているレイヤである。この地物レイヤm3に地物情報Fが記憶される地物には、道路の路面に設けられた道路標示(ペイント標示)が含まれている。このような道路標示に係る地物としては、例えば、道路に沿って車線を分ける区画線(実線、破線、二重線等の各種区画線を含む。)、各車線の進行方向を指定する進行方向別通行区分標示、横断歩道、停止線、速度表示、ゼブラゾーン等が含まれる。尚、地物情報Fが記憶される地物としては、このような道路標示のほか、信号機、標識、陸橋、トンネル等の各種の地物も含めることができる。   The feature layer m3 is configured in association with the road network layer m1 and the road shape layer m2, and is a layer in which information on various features provided on the road and around the road, that is, the feature information F is stored. is there. The feature in which the feature information F is stored in the feature layer m3 includes a road marking (paint marking) provided on the road surface. Examples of features related to such road markings include, for example, lane markings that divide lanes along the road (including various lane markings such as solid lines, broken lines, and double lines), and progressions that specify the traveling direction of each lane. Includes direction-specific traffic markings, pedestrian crossings, stop lines, speed indications, zebra zones, and more. In addition to such road markings, the features in which the feature information F is stored can include various features such as traffic lights, signs, overpasses, and tunnels.

また、地物情報Fは、その内容として各地物の位置情報及び属性情報を含んでいる。ここで、位置情報は、リンクk又はノードn等と関連付けられた各地物の代表点の地図上の位置(緯度及び経度等の座標)及び各地物の向きの情報を有している。本例では、代表点は、各地物の長さ方向及び幅方向の中心に設定される。属性情報は、各地物の形態を表す形態情報や各地物の種別を表す種別情報等を含んでいる。ここで、形態情報は、各地物の形状、大きさ、色彩等の情報を有している。種別情報は、具体的には、「区画線(実線、破線、二重線等の線種も含む)」、「進行方向別通行区分標示」、「横断歩道」等の道路標示種別を示す情報である。   The feature information F includes position information and attribute information of each feature as its contents. Here, the position information includes information on the position (coordinates such as latitude and longitude) of the representative point of each feature associated with the link k or the node n on the map and the direction of each feature. In this example, the representative point is set at the center in the length direction and the width direction of each feature. The attribute information includes form information representing the form of each feature, type information representing the type of each feature, and the like. Here, the form information includes information such as the shape, size, and color of each feature. The type information specifically includes information indicating road marking types such as “division line (including line types such as solid line, broken line, double line)”, “traveling direction indication according to traveling direction”, “pedestrian crossing”, etc. It is.

〔自車位置演算部〕
自車位置情報取得部3は、自車位置即ち自車両の現在位置を示す自車位置情報Lを取得する自車位置情報取得手段として機能する。本例では自車位置情報取得部3は、GPS受信機23、方位センサ24、及び距離センサ25と接続されている。
GPS受信機23は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置情報取得部3へ出力される。自車位置情報取得部3は、受け取ったGPS衛星からの信号を解析し、自車両の現在位置(緯度及び経度等の座標)、進行方位、移動速度等の情報を取得する。
方位センサ24は、自車両の進行方位又はその進行方位の変化を検出し、その検出結果を自車位置情報取得部3へ出力する。この方位センサ24は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。
距離センサ25は、自車両の車速や移動距離を検出し、その検出結果としての車速及び移動距離の情報を自車位置情報取得部3へ出力する。この距離センサ25は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両の加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。
[Vehicle position calculation unit]
The own vehicle position information acquisition unit 3 functions as own vehicle position information acquisition means for acquiring own vehicle position information L indicating the own vehicle position, that is, the current position of the own vehicle. In this example, the vehicle position information acquisition unit 3 is connected to the GPS receiver 23, the direction sensor 24, and the distance sensor 25.
The GPS receiver 23 is a device that receives GPS signals from GPS (Global Positioning System) satellites. This GPS signal is normally received every second and output to the vehicle position information acquisition unit 3. The own vehicle position information acquisition unit 3 analyzes the received signal from the GPS satellite, and acquires information such as the current position of the own vehicle (coordinates such as latitude and longitude), traveling direction, and moving speed.
The direction sensor 24 detects the traveling direction of the host vehicle or a change in the traveling direction and outputs the detection result to the host vehicle position information acquisition unit 3. The azimuth sensor 24 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like.
The distance sensor 25 detects the vehicle speed and travel distance of the host vehicle, and outputs information on the vehicle speed and travel distance as a detection result to the host vehicle position information acquisition unit 3. The distance sensor 25 integrates, for example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft or wheel of the vehicle rotates a certain amount, a yaw / G sensor that detects the acceleration of the host vehicle, and the detected acceleration. It is composed of a circuit or the like.

自車位置情報取得部3は、これらのGPS受信機23、方位センサ24及び距離センサ25からの出力に基づいて、公知の方法により自車位置を特定する演算を行う。また、自車位置情報取得部3は、地図データベース13から取得した自車位置周辺の地図情報Mに基づいて公知のマップマッチングを行うことにより自車位置を地図情報Mに示される道路上に調整する。   Based on the outputs from the GPS receiver 23, the azimuth sensor 24, and the distance sensor 25, the own vehicle position information acquisition unit 3 performs a calculation for specifying the own vehicle position by a known method. The vehicle position information acquisition unit 3 adjusts the vehicle position on the road indicated by the map information M by performing known map matching based on the map information M around the vehicle position acquired from the map database 13. To do.

このようにして取得される自車位置の情報は、各センサ23〜25の検出精度等に起因する誤差を含む場合がある。また、このようにして取得される自車位置の情報は、自車両が進行中の道路が複数レーンを有している場合において自車両が進行中のレーンまでを正確に特定できていない場合がある。そこで、本実施形態においては、後述するレーン特定部17から、自車両が進行中の道路における自車両が存在するレーンを特定したレーン特定情報Jが自車位置情報取得部3に供給される。自車位置情報取得部3は、上記の自車位置を特定する演算結果とレーン特定部17から供給されたレーン特定情報Jとにより、緯度及び経度等の座標で表された自車両の現在位置の情報、自車両の進行方位の情報、及び自車両が進行中のレーンに関するレーン特定情報Jを含む自車位置情報Lを取得する。この自車位置情報Lは、自車位置情報補正部11、地物情報取得部5、認識条件設定部14、及びナビゲーション用演算部12へ出力される。   The information on the vehicle position acquired in this way may include an error caused by the detection accuracy of each of the sensors 23 to 25. In addition, the information on the vehicle position acquired in this way may not be able to accurately identify the lane in which the host vehicle is in progress when the road on which the host vehicle is in progress has multiple lanes. is there. Therefore, in the present embodiment, lane specifying information J specifying the lane in which the host vehicle is present on the road where the host vehicle is traveling is supplied to the host vehicle position information acquiring unit 3 from a lane specifying unit 17 described later. The own vehicle position information acquisition unit 3 uses the calculation result for specifying the own vehicle position and the lane identification information J supplied from the lane identification unit 17 to indicate the current position of the own vehicle represented by coordinates such as latitude and longitude. , Information on the traveling direction of the host vehicle, and host vehicle position information L including lane identification information J regarding the lane in which the host vehicle is traveling. The vehicle position information L is output to the vehicle position information correction unit 11, the feature information acquisition unit 5, the recognition condition setting unit 14, and the navigation calculation unit 12.

〔画像情報取得部〕
画像情報取得部4は、撮像装置21により撮像した自車位置周辺の画像情報Gを取得する画像情報取得手段として機能する。ここで、撮像装置21は、撮像素子を備えたカメラ等であって、少なくとも自車両(自車位置)の周辺の道路の路面を撮像可能な位置に設けられている。このような撮像装置21としては、例えばバックカメラ等を用いることができる。画像情報取得部4は、撮像装置21により撮像した撮像情報をフレームメモリ(不図示)などを介して所定の時間間隔で取り込む。この際画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部4は、撮像装置21により撮像した複数フレームの画像情報Gを連続的に取得する。ここで取得された画像情報Gは、画像認識部6へ出力される。
[Image information acquisition unit]
The image information acquisition unit 4 functions as an image information acquisition unit that acquires image information G around the vehicle position captured by the imaging device 21. Here, the imaging device 21 is a camera or the like provided with an imaging element, and is provided at a position where at least a road surface of a road around the own vehicle (own vehicle position) can be imaged. As such an imaging device 21, for example, a back camera or the like can be used. The image information acquisition unit 4 captures imaging information captured by the imaging device 21 at predetermined time intervals via a frame memory (not shown). At this time, the time interval for capturing the image information G can be set to about 10 to 50 ms, for example. Thereby, the image information acquisition unit 4 continuously acquires image information G of a plurality of frames captured by the imaging device 21. The image information G acquired here is output to the image recognition unit 6.

〔地物情報取得部〕
地物情報取得部5は、地物データベース15から画像認識処理の対象となる対象地物ftの地物情報Fを抽出する地物情報取得手段として機能する。本例では、地物情報取得部5は、自位置情報Lの進行方向の位置を補正する処理に用いるために、後述する認識条件設定部14により設定された1つの対象地物ftについての地物情報Fを地物データベース15から取得する。ここで取得された地物情報Fには、上記のとおり、対象地物ftの位置情報及び形態情報が含まれている。地物情報取得部5により抽出された対象地物ftの地物情報Fは、画像認識部6、自車位置情報補正部11、検出結果記憶部9、挙動予測部10、認識条件設定部14へ出力される。
[Feature Information Acquisition Department]
The feature information acquisition unit 5 functions as a feature information acquisition unit that extracts the feature information F of the target feature ft to be subjected to image recognition processing from the feature database 15. In this example, the feature information acquisition unit 5 uses the ground information for one target feature ft set by the recognition condition setting unit 14 to be described later in order to use it for the process of correcting the position in the traveling direction of the own position information L. Object information F is acquired from the feature database 15. The feature information F acquired here includes position information and form information of the target feature ft as described above. The feature information F of the target feature ft extracted by the feature information acquisition unit 5 includes an image recognition unit 6, a vehicle position information correction unit 11, a detection result storage unit 9, a behavior prediction unit 10, and a recognition condition setting unit 14. Is output.

また、地物情報取得部5は、レーン特定部17によるレーン特定情報Jを取得する処理に用いるために、自位置情報Lに基づいて、自車両が進行中の道路における自車位置周辺の区画線の地物情報Fを地物データベース15から抽出する。地物情報取得部5により抽出された区画線の地物情報Fは、画像認識部6及びレーン特定部17へ出力される。   In addition, the feature information acquisition unit 5 uses the lane identification unit 17 to acquire the lane identification information J, and based on the own position information L, the area around the own vehicle position on the road on which the own vehicle is traveling Line feature information F is extracted from the feature database 15. The lane marking feature information F extracted by the feature information acquisition unit 5 is output to the image recognition unit 6 and the lane identification unit 17.

〔認識条件設定部〕
認識条件設定部14は、画像認識部における画像認識処理の認識条件を設定する認識条件設定手段として機能する。
認識条件設定部14は、画像認識処理の対象とする対象地物ftを設定する。対象地物ftは、地物データベース15に地物情報Fが記憶された地物の中から、撮像装置21による撮像範囲に入る自位置の周辺の1又は2以上の地物から選択される。本例では認識条件設定部14は、自車位置情報取得部3により取得された自車位置情報Lと、地物データベース15に記憶された地物情報Fとに基づいて、自車両が進行中のレーン内における進行方向の最も近い位置に存在する1つの地物を対象地物ftに設定する。尚、本例では、自車両の進行方向において、対象地物ftが探索される範囲は所定距離内に規定される。従って、自車両の進行方向の所定距離内に地物が存在しない場合には、対象地物ftは設定されない。
[Recognition condition setting section]
The recognition condition setting unit 14 functions as a recognition condition setting unit that sets a recognition condition for image recognition processing in the image recognition unit.
The recognition condition setting unit 14 sets a target feature ft to be subjected to image recognition processing. The target feature ft is selected from among the features whose feature information F is stored in the feature database 15, from one or more features in the vicinity of the own position that falls within the imaging range of the imaging device 21. In this example, the recognition condition setting unit 14 is proceeding based on the vehicle position information L acquired by the vehicle position information acquisition unit 3 and the feature information F stored in the feature database 15. One feature existing at the closest position in the traveling direction in the lane is set as the target feature ft. In the present example, the range in which the target feature ft is searched is defined within a predetermined distance in the traveling direction of the host vehicle. Therefore, the target feature ft is not set when there is no feature within a predetermined distance in the traveling direction of the host vehicle.

また、認識条件設定部14は、画像情報Gに対する各対象地物ftについての画像認識処理を行う範囲である画像認識範囲を設定する。画像認識範囲は、本実施形態では、自車両(自車位置)の進行方向に区画される範囲である。この範囲は、対象地物ftの自位置の進行方向の長さに応じて設定され、地物情報Fに含まれる形態情報から求められる。例えば、対象地物ftが停止線である場合よりも、速度表示など自車両の進行方向に長い場合の方が長い範囲に設定される。設定された画像認識範囲の情報は、画像認識部6へ出力される。そして、画像認識部6は、設定された画像認識範囲内の画像情報Gに対して、対象地物ftの画像認識処理を行う。   In addition, the recognition condition setting unit 14 sets an image recognition range that is a range in which image recognition processing is performed on each target feature ft with respect to the image information G. In the present embodiment, the image recognition range is a range defined in the traveling direction of the host vehicle (host vehicle position). This range is set according to the length of the target feature ft in its traveling direction and is obtained from the form information included in the feature information F. For example, a longer range is set when the target feature ft is longer in the traveling direction of the host vehicle, such as speed display, than when the target feature ft is a stop line. Information on the set image recognition range is output to the image recognition unit 6. Then, the image recognition unit 6 performs image recognition processing of the target feature ft on the image information G within the set image recognition range.

〔画像認識部〕
画像認識部6は、画像情報取得部4で取得された画像情報Gに対する画像認識処理を行う画像認識手段として機能する。本実施形態においては、画像認識部6は、認識条件設定部14により設定された画像認識範囲に規定される範囲内について、画像情報Gに対する画像認識処理を行う。この際、画像認識部6は、地物情報取得部5で抽出された対象地物ftの地物情報Fを用いて対象地物ftの画像認識処理を行う。具体的には、画像認識部6は、画像情報取得部4で取得された画像情報Gの中から画像認識範囲の画像情報Gを抽出する。各画像情報Gにおける撮像領域の情報は、予め取得された撮像装置21の校正情報に基づいて予め演算された自車位置と撮像領域との位置関係と、自位置情報Lとに基づいて求めることができる。ここで、撮像装置21の校正情報とは、自車両への撮像装置21の取り付け位置、取り付け角度、及び画角等に基づく情報(並進・回転・カメラ内部パラメータ)である。
(Image recognition unit)
The image recognition unit 6 functions as an image recognition unit that performs image recognition processing on the image information G acquired by the image information acquisition unit 4. In the present embodiment, the image recognition unit 6 performs image recognition processing on the image information G within the range defined by the image recognition range set by the recognition condition setting unit 14. At this time, the image recognition unit 6 performs image recognition processing of the target feature ft using the feature information F of the target feature ft extracted by the feature information acquisition unit 5. Specifically, the image recognition unit 6 extracts image information G in the image recognition range from the image information G acquired by the image information acquisition unit 4. The information of the imaging region in each image information G is obtained based on the positional relationship between the own vehicle position and the imaging region calculated in advance based on the calibration information of the imaging device 21 acquired in advance and the own location information L. Can do. Here, the calibration information of the imaging device 21 is information (translation / rotation / camera internal parameters) based on the mounting position, the mounting angle, and the angle of view of the imaging device 21 to the host vehicle.

画像認識部6は、このように得られた各画像情報Gの撮像領域の情報に基づいて、画像認識範囲の画像情報Gを抽出する。具体的には、画像認識部6は、抽出された画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。その後、画像認識部6は、抽出された地物の輪郭情報と、地物情報取得部5で取得された対象地物ftの地物情報Fに含まれる形態情報とを比較し、それらが一致するか否かを判定する。地物の輪郭情報と対象地物ftの地物情報Fに含まれる形態情報とが一致する場合には、対象地物ftの画像認識に成功したと判定し、その画像認識結果を自車位置情報補正部11へ出力する。尚、対象地物ftの画像認識に失敗した場合には、自車位置情報補正部11へは画像認識結果が出力されず、従って自車位置情報補正部11による自位置情報Lの補正も行われない。   The image recognizing unit 6 extracts the image information G in the image recognition range based on the information of the imaging area of each image information G obtained in this way. Specifically, the image recognition unit 6 performs binarization processing, edge detection processing, and the like on the extracted image information G, and outline information of the feature (road marking) included in the image information G To extract. After that, the image recognition unit 6 compares the extracted contour information of the feature with the form information included in the feature information F of the target feature ft acquired by the feature information acquisition unit 5, and they match. It is determined whether or not to do. If the contour information of the feature matches the form information included in the feature information F of the target feature ft, it is determined that the image recognition of the target feature ft has succeeded, and the image recognition result is determined as the vehicle position. The information is output to the information correction unit 11. If the image recognition of the target feature ft fails, the image recognition result is not output to the own vehicle position information correction unit 11, and therefore the own position information L is also corrected by the own vehicle position information correction unit 11. I will not.

また、画像認識部6は、レーン特定部17におけるレーン特定情報Jの取得のために、地物情報取得部5で抽出された自車両が進行中の道路における自車位置周辺の区画線の地物情報Fを用いて、自車両の周辺の区画線の画像認識を行う。具体的には、画像認識部6は、画像情報取得部4で取得された画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。その後、画像認識部6は、抽出された地物の輪郭情報と、区画線の地物情報Fに含まれる形態情報とに基づいて、自車両の周辺の区画線の位置及び区画線の種別の認識を行う。そして、画像認識部6は、この区画線の画像認識結果を、レーン特定部17へ出力する。   Further, the image recognition unit 6 is configured to acquire the lane identification information J in the lane identification unit 17 so that the lane markings around the vehicle position on the road on which the vehicle extracted by the feature information acquisition unit 5 is traveling are displayed. Using the object information F, image recognition of the lane markings around the host vehicle is performed. Specifically, the image recognition unit 6 performs binarization processing, edge detection processing, and the like on the image information G acquired by the image information acquisition unit 4, and the features ( (Road marking) contour information is extracted. Thereafter, the image recognition unit 6 determines the position of the lane line and the type of the lane line around the own vehicle based on the extracted contour information of the feature and the form information included in the lane line feature information F. Recognize. Then, the image recognition unit 6 outputs the image recognition result of the lane markings to the lane specifying unit 17.

〔自車位置情報補正部〕
自車位置情報補正部11は、画像認識部6による画像認識処理の結果と、地物情報取得部5により取得された地物情報Fに含まれる対象地物ftの位置情報とに基づいて自位置情報Lを補正する自位置情報補正手段として機能する。本実施形態では、自車位置情報補正部11は、車両の進行方向に沿って自車位置情報Lを補正する。具体的には、自車位置情報補正部6は、まず、画像認識部6による画像認識結果と、撮像装置21の校正情報とに基づいて、対象地物ftの画像を含む画像情報Gの取得時における自車両と対象地物ftとの位置関係を演算する。次に、自車位置情報補正部11は、自車両と対象地物ftとの位置関係の演算結果と、地物情報Fに含まれる対象地物ftの位置情報とに基づいて、自車両の進行方向における対象地物ftの位置情報(地物情報F)を基準とする高精度な自車両の位置情報を演算する。自車位置情報補正部11は、この高精度な自車両の位置情報に基づいて、自車位置情報取得部3で取得した自車位置情報Lに含まれる、自車両の進行方向の現在位置の情報を補正する。その結果、自車位置情報取得部11は、補正後の高精度な自位置情報Lを取得することになる。
[Vehicle position information correction unit]
The own vehicle position information correction unit 11 is based on the result of the image recognition process by the image recognition unit 6 and the position information of the target feature ft included in the feature information F acquired by the feature information acquisition unit 5. It functions as own position information correction means for correcting the position information L. In the present embodiment, the vehicle position information correction unit 11 corrects the vehicle position information L along the traveling direction of the vehicle. Specifically, the own vehicle position information correction unit 6 first acquires the image information G including the image of the target feature ft based on the image recognition result by the image recognition unit 6 and the calibration information of the imaging device 21. The positional relationship between the host vehicle and the target feature ft at the time is calculated. Next, the host vehicle position information correction unit 11 calculates the position of the host vehicle based on the calculation result of the positional relationship between the host vehicle and the target feature ft and the position information of the target feature ft included in the feature information F. The position information of the subject vehicle is calculated with high accuracy based on the position information (feature information F) of the target feature ft in the traveling direction. The own vehicle position information correcting unit 11 is based on this highly accurate position information of the own vehicle, and includes the current position in the traveling direction of the own vehicle included in the own vehicle position information L acquired by the own vehicle position information acquiring unit 3. Correct the information. As a result, the own vehicle position information acquiring unit 11 acquires the corrected own position information L with high accuracy.

〔レーン特定部〕
レーン特定部17は、自車両が進行中の道路において自車両が存在するレーンを特定したレーン特定情報Jを取得する。レーン特定部17は、自車両が進行中の道路における自車位置周辺の区画線の地物情報Fと、画像情報Gに含まれる区画線に対する画像認識結果とに基づいて、自車両が進行中のレーンを特定する演算を行って、レーン特定情報Jを取得する。具体的には、例えば、レーン特定部17は、画像認識部6による画像認識結果に示される自車両の周辺の区画線の種別(実線、破線、二重線等の線種)及び配置と、自位置周辺の区画線の地物情報Fに含まれる形態情報とに基づいて、自車両が進行中のレーンを特定する。
[Lane specific part]
The lane specifying unit 17 acquires lane specifying information J specifying the lane in which the host vehicle is present on the road on which the host vehicle is traveling. The lane specifying unit 17 is proceeding based on the feature information F of the lane marking around the vehicle position on the road where the host vehicle is traveling, and the image recognition result for the lane marking included in the image information G. The lane specifying information J is obtained by performing an operation for specifying the lane. Specifically, for example, the lane specifying unit 17 includes a type (line type such as a solid line, a broken line, and a double line) and an arrangement of the surrounding lines of the host vehicle indicated in the image recognition result by the image recognition unit 6; Based on the form information included in the feature information F of the lane marking around the own position, the lane in which the host vehicle is in progress is specified.

例えば、図3に示すような画像情報Gが取得された場合において、図4に示すような自車両周辺の地図情報Mが取得された場合には、自車両が存在するレーンは、3車線の中の中央車線であると特定することができる。即ち、図3に示す画像情報Gに示される画像中では、自車両の位置である画像の幅方向中央に対して両側に破線の区画線があり、更にその両外側にそれぞれ実線の区画線がある。一方、図4に示す地図情報Mによれば、自車両が走行している道路は3車線であり、道路の幅方向両側には実線の区画線の地物情報Fが存在し、道路の幅方向中央側には各車線を区切る破線の区画線の地物情報Fが存在していることがわかる。従って、レーン特定部17は、これらの情報を対比することにより、自車両が存在するレーンが3車線の中の中央車線であると特定することができる。   For example, when the image information G as shown in FIG. 3 is acquired and the map information M around the host vehicle as shown in FIG. 4 is acquired, the lane where the host vehicle exists is a three-lane lane. It can be identified as the middle lane. That is, in the image shown in the image information G shown in FIG. 3, there are broken lane markings on both sides with respect to the center in the width direction of the image, which is the position of the host vehicle, and solid lane markings are further provided on both sides. is there. On the other hand, according to the map information M shown in FIG. 4, the road on which the host vehicle is traveling is three lanes, and the feature information F of the solid line is present on both sides in the width direction of the road. It can be seen that the feature information F of the broken lane markings that divide each lane exists on the center side in the direction. Therefore, the lane specification unit 17 can specify that the lane in which the host vehicle exists is the central lane in the three lanes by comparing these pieces of information.

また、レーン特定部17は、画像認識結果に示される区画線の位置情報に基づいて、自車両が区画線を跨いだか否かにより車線変更の有無を判定し、自車両が進行中のレーンを特定する。尚、レーン特定部17は、自車両が進行中のレーンの特定が必要な場合、即ち自車両が進行中の道路が進行方向(片側)に複数レーンを有している場合にのみレーンを特定する演算を行う。そして、レーン特定部17は、自車両が進行中のレーンを特定する情報であるレーン特定情報Jを自車位置情報取得部3へ供給する。これにより、自位置演算部3は、上記のとおり、自車両が進行中のレーンに関するレーン特定情報Jを含む自位置情報Lを生成する。従って、本実施形態において、レーン特定部17は、自車位置情報取得部3とともに自車位置情報取得手段18として機能する。   Further, the lane specifying unit 17 determines whether or not the lane has been changed based on whether or not the own vehicle straddles the lane line based on the position information of the lane line indicated in the image recognition result, and determines the lane in which the own vehicle is traveling. Identify. The lane identification unit 17 identifies a lane only when it is necessary to identify the lane in which the host vehicle is traveling, that is, when the road on which the host vehicle is traveling has multiple lanes in the traveling direction (one side). Perform the operation. The lane specifying unit 17 then supplies lane specifying information J, which is information for specifying the lane in which the host vehicle is in progress, to the own vehicle position information acquiring unit 3. Thereby, the own position calculation part 3 produces | generates the own position information L containing the lane specific information J regarding the lane in which the own vehicle is advancing as above-mentioned. Therefore, in the present embodiment, the lane identification unit 17 functions as the vehicle position information acquisition unit 18 together with the vehicle position information acquisition unit 3.

〔挙動検出部〕
挙動検出部7は、画像認識部6による対象地物の画像認識に成功した位置から所定範囲内の自車両の挙動を検出する挙動検出手段として機能する。図1に示すように、挙動検出部7は、挙動入力手段として機能する、自車両に備えられた各種スイッチや各種センサからの入力を受けて自車両の挙動を検出する。各種スイッチとは、例えば空調スイッチ31やライティングスイッチ33、ウィンドウスイッチ35、オーディオの操作スイッチ(不図示)などである。また、各種センサとは、例えば振動センサ37、照度センサ39、加速度センサ(不図示)、アクセルセンサ(不図示)、ブレーキセンサ(不図示)などである。
[Behavior detection unit]
The behavior detection unit 7 functions as a behavior detection unit that detects the behavior of the host vehicle within a predetermined range from the position where the image recognition unit 6 has succeeded in image recognition of the target feature. As shown in FIG. 1, the behavior detection unit 7 detects the behavior of the host vehicle in response to inputs from various switches and various sensors provided in the host vehicle that function as behavior input means. Examples of the various switches include an air conditioning switch 31, a lighting switch 33, a window switch 35, and an audio operation switch (not shown). The various sensors include, for example, a vibration sensor 37, an illuminance sensor 39, an acceleration sensor (not shown), an accelerator sensor (not shown), a brake sensor (not shown), and the like.

空調スイッチ31は冷暖房の設定や外気導入、室内循環などの切り替えを行うスイッチである。ライティングスイッチ33は、車両の灯火装置の点灯や消灯、ハイビームやロービームの設定などの切り替えを行うスイッチである。ウィンドウスイッチ35は、窓の開閉の指示を行うスイッチである。振動センサ37は、自車両に伝わる振動を検出するセンサである。その検出結果は、例えばアクティブサスペンションの制御装置などに伝達されて、サスペンションが最適な堅さに調整される。照度センサ39は自車両の外の明るさを検出するセンサである。その検出結果は、例えば灯火装置の制御装置に伝達されて、灯火装置の点灯や消灯が自動的に制御される。加速度センサは、自車両の加速や減速の加速度を検出するセンサである。アクセルセンサは、運転者によるアクセルペダルの操作量(アクセル開度)を検出するセンサである。ブレーキセンサは、運転者によるブレーキペダルの操作量やブレーキ踏力等を検出するセンサである。   The air conditioning switch 31 is a switch for switching between setting of air conditioning and heating, introduction of outside air, indoor circulation, and the like. The lighting switch 33 is a switch for switching on / off of a lighting device of a vehicle, setting of a high beam and a low beam, and the like. The window switch 35 is a switch for instructing opening / closing of a window. The vibration sensor 37 is a sensor that detects vibration transmitted to the host vehicle. The detection result is transmitted to, for example, a control device for an active suspension, and the suspension is adjusted to an optimum stiffness. The illuminance sensor 39 is a sensor that detects the brightness outside the host vehicle. The detection result is transmitted to, for example, a control device of the lighting device, and lighting and extinguishing of the lighting device are automatically controlled. The acceleration sensor is a sensor that detects acceleration of the own vehicle and acceleration of deceleration. The accelerator sensor is a sensor that detects an operation amount (accelerator opening) of an accelerator pedal by a driver. The brake sensor is a sensor that detects an operation amount of a brake pedal, a brake depression force, and the like by a driver.

本実施形態において、挙動検出部7により検出される自車両の挙動には、自車両の各部における運転者の操作の受け付け、及び自車両の動作が含まれる。また、この自車両の動作には、運転者の操作によって生じる自車両の各部や車両全体の動作、或いは、外部から自車両に加わる外的要因によって生じる自車両の各部や車両全体の動作等が含まれる。例えば、空調スイッチ31やライティングスイッチ33、ウィンドウスイッチ35、オーディオの操作スイッチなどの各種スイッチの操作、アクセルセンサやブレーキセンサ等の各種センサ等により検出される運転者の操作は、自車両の各部における運転者の操作の受け付けに係る挙動として、挙動検出部7により検出される。   In the present embodiment, the behavior of the host vehicle detected by the behavior detection unit 7 includes reception of a driver's operation at each part of the host vehicle and the operation of the host vehicle. In addition, the operation of the own vehicle includes the operation of each part of the own vehicle and the entire vehicle caused by the operation of the driver, or the operation of each part of the own vehicle and the entire vehicle caused by an external factor applied to the own vehicle from the outside. included. For example, the operation of various switches such as the air conditioning switch 31, the lighting switch 33, the window switch 35, and the audio operation switch, and the driver's operation detected by various sensors such as an accelerator sensor and a brake sensor are performed in each part of the own vehicle. The behavior detecting unit 7 detects the behavior related to the reception of the driver's operation.

また、例えば、運転者のステアリング操作により方位センサ24が検出する自車両の進行方位の変化、運転者のアクセルペダルやブレーキペダルの操作により加速度センサが検出する自車両の加速度の変化、運転者のシフト操作やアクセル操作による変速機の変速段の変更等、運転者の操作の受け付けの結果として各種センサ等により検出される自車両の動作は、運転者の操作による自車両の動作に係る挙動として、挙動検出部7により検出される。また、例えば、ナビゲーション装置1のモニタ26と一体的に設けられたタッチパネルやリモートコントローラへの入力に基づくナビゲーション装置1の動作も、運転者の操作による自車両の動作に係る挙動として、挙動検出部7により検出される。このようなナビゲーション装置1の動作としては、例えば、運転者の操作に基づく、渋滞情報の取得、地図表示縮尺の変更、画面表示輝度の変更、案内経路の変更等が含まれる。   Further, for example, a change in the traveling direction of the own vehicle detected by the direction sensor 24 by the steering operation of the driver, a change in the acceleration of the own vehicle detected by the acceleration sensor by an operation of the accelerator pedal or the brake pedal by the driver, The behavior of the host vehicle that is detected by various sensors as a result of accepting the driver's operation, such as a change in the gear position of the transmission by a shift operation or an accelerator operation, is a behavior related to the behavior of the host vehicle by the driver's operation. , Detected by the behavior detection unit 7. Further, for example, the operation of the navigation device 1 based on an input to a touch panel or a remote controller provided integrally with the monitor 26 of the navigation device 1 is also a behavior detection unit as a behavior related to the operation of the host vehicle by the driver's operation. 7 is detected. Such operations of the navigation device 1 include, for example, acquisition of traffic jam information, change of map display scale, change of screen display brightness, change of guidance route, and the like based on the operation of the driver.

また、例えば、段差や荒れた路面を通過することにより振動センサ37が検出する自車両の振動、坂道を走行することにより加速度センサが検出する自車両の加速度の変化、カーブを走行することにより方位センサ24が検出する自車両の進行方位の変化等、外的要因によって生じて各種センサ等により検出される自車両の動作は、外的要因による自車両の動作に係る挙動として、挙動検出部7により検出される。   Further, for example, the vibration of the own vehicle detected by the vibration sensor 37 by passing through a step or a rough road surface, the change in the acceleration of the own vehicle detected by the acceleration sensor by traveling on a hill, or the direction by traveling on a curve The behavior of the subject vehicle caused by an external factor such as a change in the traveling direction of the subject vehicle detected by the sensor 24 and detected by various sensors or the like is regarded as a behavior related to the behavior of the subject vehicle due to the external factor. Is detected.

挙動検出部7は、画像認識手段6が画像認識に成功した対象地物の自車位置情報Lに基づいて設定される所定範囲内における自車両の挙動を検出する。例えば、横断歩道有りを示す道路標示(菱形マーク)を検出した後、所定範囲内に自車両が右折又は左折した場合には、この挙動を検出する。この挙動は、方位センサ24により検出される自車両の進行方位の変化、各種スイッチとして機能する方向指示器からの入力、各種センサとして機能するステアリングの回転を検出する操舵角センサからの入力等に基づいて検出することができる。挙動検出部7は、検出した挙動を自車位置情報Lと関連づけて、挙動検出情報Bとして出力する。   The behavior detection unit 7 detects the behavior of the host vehicle within a predetermined range set based on the host vehicle position information L of the target feature that the image recognition unit 6 has succeeded in image recognition. For example, this behavior is detected when the vehicle turns right or left within a predetermined range after detecting a road marking (diamond mark) indicating the presence of a pedestrian crossing. This behavior is caused by changes in the traveling direction of the host vehicle detected by the direction sensor 24, input from a direction indicator that functions as various switches, input from a steering angle sensor that detects rotation of a steering that functions as various sensors, and the like. Can be detected on the basis. The behavior detection unit 7 associates the detected behavior with the vehicle position information L and outputs it as behavior detection information B.

〔検出結果記憶手段〕
検出結果記憶部8は、自車位置情報Lに基づいて、挙動検出部7による自車両の挙動の検出結果を表す挙動検出情報Bを、当該挙動が検出された検出位置の情報と関連づけて記憶する検出結果記憶手段として機能する。本実施形態においては、当該挙動が検出された検出位置の情報は、当該挙動の検出位置を表す座標情報とする。このような挙動の検出位置を表す座標情報は、当該挙動を検出した際の自車位置情報Lが示す自車両の現在位置の座標に基づいて導出される。なお、検出結果記憶部8は、運転者など個人を特定する手段が自車両に設けられている場合には、個人別に挙動検出情報を記憶してもよい。
[Detection result storage means]
Based on the vehicle position information L, the detection result storage unit 8 stores behavior detection information B representing the detection result of the behavior of the vehicle by the behavior detection unit 7 in association with information on the detection position where the behavior is detected. Functions as a detection result storage means. In the present embodiment, the information of the detection position where the behavior is detected is coordinate information representing the detection position of the behavior. The coordinate information representing the detected position of the behavior is derived based on the coordinates of the current position of the host vehicle indicated by the host vehicle position information L when the behavior is detected. Note that the detection result storage unit 8 may store behavior detection information for each individual when means for identifying the individual such as a driver is provided in the host vehicle.

〔学習挙動抽出部〕
学習挙動抽出部9は、自車両の挙動を学習挙動として抽出し、当該学習挙動の属性情報及び位置情報を画像認識に成功した対象地物の地物情報Fと関連づけた学習挙動情報Rとして出力する学習挙動抽出手段29として機能する。本実施形態においては、この学習挙動情報Rに係る当該学習挙動の位置情報は、当該学習挙動の位置を表す座標情報とする。このような学習挙動の位置を表す座標情報は、検出結果記憶部8に記憶された挙動検出情報Bと関連付けられた当該挙動の検出位置の情報、ここでは、上記のとおり当該挙動の検出位置を表す座標情報に基づいて導出される。そして、出力された学習挙動情報Rは、学習挙動データベース19に記憶される。この学習挙動データベース19も、学習挙動抽出手段29として機能する。
[Learning behavior extraction unit]
The learning behavior extraction unit 9 extracts the behavior of the host vehicle as learning behavior, and outputs the learning behavior attribute information and position information as learning behavior information R associated with the feature information F of the target feature that has been successfully image-recognized. Functions as learning behavior extraction means 29. In the present embodiment, the position information of the learning behavior related to the learning behavior information R is coordinate information representing the position of the learning behavior. The coordinate information representing the position of such learning behavior is information on the detection position of the behavior associated with the behavior detection information B stored in the detection result storage unit 8, here, the detection position of the behavior is as described above. Derived based on the coordinate information to represent. The output learning behavior information R is stored in the learning behavior database 19. This learning behavior database 19 also functions as learning behavior extraction means 29.

ここで、学習挙動は、自車両が同じ場所を複数回通行することにより検出結果記憶部8に記憶された、同じ自車両の挙動についての複数の挙動検出情報Bに基づいて、繰り返し検出される自車両の挙動とすることができる。例えば、ある地点において方向指示器を左折側に操作して、自車両を左折させる挙動や、ある地点において空調器を外気導入から内気循環に切り替える挙動などである。   Here, the learning behavior is repeatedly detected based on a plurality of behavior detection information B about the behavior of the same own vehicle, which is stored in the detection result storage unit 8 when the own vehicle passes the same place a plurality of times. It can be the behavior of the host vehicle. For example, there is a behavior in which the direction indicator is operated to the left at a certain point to turn the host vehicle to the left, or a behavior in which the air conditioner is switched from the introduction of outside air to the inside air circulation at a certain point.

この場合、学習挙動データベース19は、図5に示すように車ごとに整備された各車適応データベース200と見ることができる。上述したように、運転者など個人を特定する手段が設けられている場合は、さらに個人適応データベースを構成してもよい。一方、地図データベース13や地物データベース15は、各車に依存することなく道路に対して整備された共通データベース100と見ることができる。図5に示すように共通データベース100はデータベース管理センタ300と無線又は有線により通信可能に構成することができる。データベース管理センタ300の地図データベース13Cや地物データベース15Cに記憶された地図情報MCや地物情報FCは、随時情報が更新される。自車両の地図データベース13や地物データベース15は、記憶された地図情報Mや地物情報Fの内容を通信によって最新の情報に更新することができる。   In this case, the learning behavior database 19 can be viewed as each vehicle adaptation database 200 maintained for each vehicle as shown in FIG. As described above, when means for identifying an individual such as a driver is provided, a personal adaptation database may be further configured. On the other hand, the map database 13 and the feature database 15 can be viewed as a common database 100 maintained for roads without depending on each vehicle. As shown in FIG. 5, the common database 100 can be configured to be communicable with the database management center 300 wirelessly or by wire. The map information MC and the feature information FC stored in the map database 13C and the feature database 15C of the database management center 300 are updated as needed. The map database 13 and the feature database 15 of the own vehicle can update the contents of the stored map information M and feature information F to the latest information by communication.

また、学習挙動は、学習挙動抽出部9が複数の車両と通信可能に接続され、且つ自車両の挙動として外部から自車両に加わる外的要因による自車両の動作を検出する場合には、以下のような挙動とすることができる。図6は、自車両の学習挙動抽出部9Aが、他の車両の学習挙動抽出部9Bと、データベース管理センタ300を介して通信可能に接続されている例を示している。勿論、学習挙動抽出部9同士が直接通信可能であってもよい。このような場合、学習挙動は、複数の車両が同じ場所を通行することにより各車両の検出結果記憶手段に記憶された、車両の挙動についての複数の挙動検出情報に基づいて、再現性を有して検出される自車両の挙動とすることができる。   Further, the learning behavior is the following when the learning behavior extraction unit 9 is connected to be able to communicate with a plurality of vehicles and detects the behavior of the host vehicle due to an external factor applied to the host vehicle from the outside as the behavior of the host vehicle. The behavior can be as follows. FIG. 6 shows an example in which the learning behavior extraction unit 9A of the own vehicle is connected to the learning behavior extraction unit 9B of another vehicle via the database management center 300 so as to be communicable. Of course, the learning behavior extraction units 9 may be able to communicate with each other directly. In such a case, the learning behavior has reproducibility based on a plurality of behavior detection information about the behavior of the vehicle stored in the detection result storage means of each vehicle when the plurality of vehicles pass through the same place. Thus, the behavior of the host vehicle can be detected.

例えば、ある地点において複数の車両が、振動センサ37によって同様の振動を検出するような挙動である。この場合、振動は道路の段差などを起因とすることが考えられ、各車両には依存しない挙動と見ることができる。従って、個々の車両はそれぞれ1回しか振動を検出しなくとも、複数の車両がほぼ同一の地点において同様の振動を検出したとすれば、充分な再現性を有して検出される挙動とすることができる。   For example, the behavior is such that a plurality of vehicles detect similar vibrations by the vibration sensor 37 at a certain point. In this case, the vibration may be caused by a road step or the like, and can be regarded as a behavior independent of each vehicle. Therefore, even if each vehicle detects vibrations only once, if a plurality of vehicles detect similar vibrations at almost the same point, the behavior is detected with sufficient reproducibility. be able to.

この場合、学習挙動データベース19は、図6に示すように車ごとに整備された各車適応データベース200と、各車に依存することなく整備された共通データベース100との両方であると見ることができる。図6に示すように、学習挙動データベース19には、車ごと(個人ごと)に整備された学習挙動情報Raと、各車に依存することなく例えば道路に対して整備された学習挙動情報Rbとを記憶している。学習挙動情報Raは、各車適応データベース200に属し、学習挙動情報Rbは、共通データベース100に属する。図6に示すように共通データベース100はデータベース管理センタ300と無線又は有線により通信可能に構成することができる。   In this case, the learning behavior database 19 can be viewed as both the vehicle adaptation database 200 maintained for each vehicle as shown in FIG. 6 and the common database 100 maintained without depending on each vehicle. it can. As shown in FIG. 6, the learning behavior database 19 includes learning behavior information Ra maintained for each vehicle (for each individual), learning behavior information Rb maintained for a road without depending on each vehicle, and the like. Is remembered. The learning behavior information Ra belongs to each vehicle adaptation database 200, and the learning behavior information Rb belongs to the common database 100. As shown in FIG. 6, the common database 100 can be configured to be communicable with the database management center 300 by wireless or wired communication.

上述したように、データベース管理センタ300の地図データベース13Cや地物データベース15Cに記憶された地図情報MCや地物情報FCは、随時情報が更新される。自車両の地図データベース13や地物データベース15は、記憶された地図情報Mや地物情報Fの内容を通信によって最新の情報に更新することができる。また、データベース管理センタ300には、複数の車両と通信可能に接続される学習挙動抽出部9を利用して整備された学習挙動データベース19Cが備えられている。学習挙動データベース19Cに記憶された学習挙動情報RCは、随時更新される。自車両の学習挙動データベース19は、記憶するデータの内、各車に依存することなく整備される学習挙動情報Rbを通信によって更新することができる。   As described above, the map information MC and the feature information FC stored in the map database 13C and the feature database 15C of the database management center 300 are updated as needed. The map database 13 and the feature database 15 of the own vehicle can update the contents of the stored map information M and feature information F to the latest information by communication. Further, the database management center 300 is provided with a learning behavior database 19 </ b> C prepared using a learning behavior extraction unit 9 that is communicably connected to a plurality of vehicles. The learning behavior information RC stored in the learning behavior database 19C is updated as needed. The learning behavior database 19 of the own vehicle can update learning behavior information Rb maintained without depending on each vehicle among the stored data by communication.

〔挙動予測部〕
挙動予測部10は、学習挙動情報Rに基づいて、当該対象地物に関連づけられた挙動を予測する挙動予測手段として機能する。そして、予測結果を、ナビゲーション用演算部12など、自車両の種々の制御手段に対して出力する。種々の制御手段とは運転者の操作を再現する自車両内の制御装置や、運転者の操作や外的要因によって生じる自車両の動作を最適化する制御装置である。具体的な例については、後述する。
[Behavior Prediction Unit]
The behavior prediction unit 10 functions as a behavior prediction unit that predicts the behavior associated with the target feature based on the learning behavior information R. And a prediction result is output with respect to the various control means of the own vehicle, such as the calculating part 12 for navigation. The various control means are a control device in the own vehicle that reproduces the driver's operation, and a control device that optimizes the operation of the own vehicle caused by the driver's operation and external factors. A specific example will be described later.

〔車両挙動を学習し予測する手順〕
以下、図7及び図8のフローチャートを利用して、車両挙動を学習する手順及び車両挙動を予測する手順について説明する。以下に説明する処理の手順は、上記の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、ナビゲーション装置1が有する演算処理装置が、上記の各機能部を構成する車両挙動学習プログラムを実行するコンピュータとして動作する。
[Procedure for learning and predicting vehicle behavior]
Hereinafter, the procedure for learning the vehicle behavior and the procedure for predicting the vehicle behavior will be described using the flowcharts of FIGS. 7 and 8. The processing procedure described below is executed by hardware and / or software (program) or both of the above-described functional units. When each of the above functional units is configured by a program, the arithmetic processing device included in the navigation device 1 operates as a computer that executes a vehicle behavior learning program that configures each of the above functional units.

自車位置情報取得部3により、自車両の現在位置を示す自車位置情報Lが取得される(自車位置情報取得工程#1)。画像情報取得部4により、自車両の周辺の画像情報Gが取得される(画像情報取得工程#2)。地物情報取得部5により、複数の対象地物についての位置情報及び属性情報を含む地物情報Fが記憶された地物データベース15から、自車位置情報Lに基づいて自車両の周辺の地物情報Fが取得される(地物情報取得工程#3)。画像認識部6により、地物情報Fに基づいて、画像情報Gに含まれる対象地物の認識処理が行われ、自車位置情報補正部11により自車位置情報Lが補正される(画像認識工程#4)。以上の工程により、自車両が通行する道路が地物情報Fを有し、対象地物が認識された場合には、自車両が高精度自車位置認識状態にあることになる。自車両がこのような高精度自車位置認識状態にある場合には、上述したように自車両の挙動を学習することが可能である。従って、高精度自車位置認識状態にあるか否かが、適用条件判定工程#5において判定される。認識状態にある場合には、以下の工程#11〜#13が実施され、自車両の挙動が学習される。   The own vehicle position information acquisition unit 3 acquires own vehicle position information L indicating the current position of the own vehicle (own vehicle position information acquisition step # 1). Image information G around the host vehicle is acquired by the image information acquisition unit 4 (image information acquisition step # 2). From the feature database 15 in which the feature information F including position information and attribute information about a plurality of target features is stored by the feature information acquisition unit 5, Object information F is acquired (feature information acquisition step # 3). Based on the feature information F, the image recognition unit 6 recognizes the target feature included in the image information G, and the vehicle position information correction unit 11 corrects the vehicle position information L (image recognition). Step # 4). By the above process, when the road on which the host vehicle passes has the feature information F and the target feature is recognized, the host vehicle is in a highly accurate host vehicle position recognition state. When the host vehicle is in such a highly accurate host vehicle position recognition state, the behavior of the host vehicle can be learned as described above. Therefore, it is determined in the application condition determination step # 5 whether or not the vehicle is in a highly accurate vehicle position recognition state. When in the recognition state, the following steps # 11 to # 13 are performed to learn the behavior of the host vehicle.

尚、対象地物を画像認識できないまま所定距離以上走行すると、自車位置情報Lの誤差が大きくなる可能性があるので、高精度自車位置認識状態ではなくなる。そこで、自車位置情報Lの誤差が比較的小さいとみなすことができる小さい範囲、即ち画像認識部6による対象地物の画像認識に成功した位置から所定範囲内の自車両の挙動が、挙動検出部7により検出される(挙動検出工程#11)。挙動検出工程#11において検出される自車両の挙動は、自車両の各部における運転者の操作の受け付け、及び運転者の操作や外部から自車両に加わる外的要因によって生じる自車両の動作の少なくとも一方を含むものである。次に、自車位置情報Lに基づき、挙動検出部7による自車両の挙動の検出結果を表す挙動検出情報Bが、当該挙動が検出された検出位置の情報と関連づけて検出結果記憶部8に記憶される(検出結果記憶工程#12)。   Note that if the target feature is traveled for a predetermined distance or longer without being able to recognize the image, the error of the vehicle position information L may increase, and therefore the vehicle is not in a highly accurate vehicle position recognition state. Accordingly, the behavior of the host vehicle within a predetermined range from the small range in which the error of the host vehicle position information L can be regarded as being relatively small, that is, the position where the image recognition unit 6 successfully recognized the target feature is detected. Detected by the unit 7 (behavior detection step # 11). The behavior of the host vehicle detected in the behavior detection step # 11 is at least the operation of the host vehicle caused by the reception of the driver's operation at each part of the host vehicle and the driver's operation or external factors applied to the host vehicle from the outside. Including one. Next, based on the own vehicle position information L, the behavior detection information B representing the detection result of the behavior of the own vehicle by the behavior detection unit 7 is associated with the information on the detection position where the behavior is detected in the detection result storage unit 8. Stored (detection result storage step # 12).

そして、学習挙動抽出部9により、挙動検出情報Bに基づいて学習挙動が抽出され、学習挙動情報Rが出力される(学習挙動抽出工程#13)。上述したように、自車両が同じ場所を複数回通行することにより検出結果記憶部8に記憶された、同じ自車両の挙動についての複数の挙動検出情報Bに基づいて、繰り返し検出される自車両の挙動が学習挙動として抽出される。そして、当該学習挙動の属性情報及び位置情報が画像認識に成功した対象地物の地物情報と関連づけて学習挙動情報Rとして出力される。学習挙動情報Rは、学習挙動データベース19に登録され、自車両内の種々の制御装置により参照される。   Then, the learning behavior extraction unit 9 extracts the learning behavior based on the behavior detection information B, and outputs the learning behavior information R (learning behavior extraction step # 13). As described above, the own vehicle is repeatedly detected based on the plurality of behavior detection information B about the behavior of the same own vehicle, which is stored in the detection result storage unit 8 when the own vehicle passes the same place a plurality of times. Are extracted as learning behaviors. Then, the attribute information and position information of the learning behavior are output as learning behavior information R in association with the feature information of the target feature that has been successfully image-recognized. The learning behavior information R is registered in the learning behavior database 19 and is referred to by various control devices in the host vehicle.

また、学習挙動抽出工程#13は、挙動検出工程#11が自車両の挙動として外部から自車両に加わる外的要因による自車両の動作を検出する場合、複数の車両において検出され、検出された検出位置の情報と関連づけられた挙動に対する挙動検出情報Bを共有して実施することが可能である。この場合には、複数の車両が同じ場所を通行することにより各車両の検出結果記憶部8に記憶された、車両の挙動についての複数の挙動検出情報Bに基づいて、再現性を有して検出される自車両の挙動が学習挙動として抽出される。そして、当該学習挙動の属性情報及び位置情報が前記画像認識に成功した対象地物の地物情報と関連づけた学習挙動情報Rとして出力される。   In addition, the learning behavior extracting step # 13 is detected and detected in a plurality of vehicles when the behavior detecting step # 11 detects the operation of the own vehicle due to an external factor applied to the own vehicle from the outside as the behavior of the own vehicle. It is possible to share the behavior detection information B for the behavior associated with the detection position information. In this case, it has reproducibility based on the plurality of behavior detection information B about the behavior of the vehicle, which is stored in the detection result storage unit 8 of each vehicle when the plurality of vehicles pass through the same place. The detected behavior of the host vehicle is extracted as a learning behavior. Then, the attribute information and the position information of the learning behavior are output as learning behavior information R associated with the feature information of the target feature that has succeeded in the image recognition.

以上の工程により、自車両の挙動が学習される。以下、学習した学習挙動情報Rを用いて、自車両の挙動を予測する手順について説明する。図8に示すように、自車両の挙動を学習する際と同様に、自車位置情報取得工程#1、画像情報取得工程#2、地物情報取得工程#3、画像認識工程#4が実施される。以上の工程により、自車両が通行する道路が地物情報Fを有し、対象地物が認識されている場合には、自車両が高精度自車位置認識状態にあることになる。自車両がこのような高精度自車位置認識状態にある場合には、上述したように自車両の挙動を予測することが可能である。従って、高精度自車位置認識状態にあるか否かが、適用条件判定工程#5において判定される。認識状態にある場合には、以下の工程#21が実施され、自車両の挙動が予測される。   Through the above steps, the behavior of the host vehicle is learned. Hereinafter, a procedure for predicting the behavior of the host vehicle using the learned behavior information R learned will be described. As shown in FIG. 8, the own vehicle position information acquisition step # 1, the image information acquisition step # 2, the feature information acquisition step # 3, and the image recognition step # 4 are performed in the same manner as when learning the behavior of the own vehicle. Is done. According to the above steps, when the road on which the host vehicle passes has the feature information F and the target feature is recognized, the host vehicle is in a highly accurate host vehicle position recognition state. When the host vehicle is in such a highly accurate host vehicle position recognition state, the behavior of the host vehicle can be predicted as described above. Therefore, it is determined in the application condition determination step # 5 whether or not the vehicle is in a highly accurate vehicle position recognition state. When in the recognition state, the following step # 21 is performed, and the behavior of the host vehicle is predicted.

挙動予測部10により、学習挙動情報Rに基づいて、当該対象地物に関連づけられた挙動が予測される(挙動予測工程#21)。上述したように、挙動検出工程#11において検出される自車両の挙動は、自車両の各部における運転者の操作の受け付け、及び運転者の操作や外部から自車両に加わる外的要因によって生じる自車両の動作の少なくとも一方を含む。従って、挙動予測工程#21における予測結果に基づいて、学習挙動情報Rが、運転者の操作を再現する自車両内の制御装置に対して出力される。また、挙動予測工程#21における予測結果に基づいて、学習挙動情報Rが、運転者の操作や外的要因によって生じる自車両の動作を最適化する制御装置に対して出力される。   Based on the learning behavior information R, the behavior prediction unit 10 predicts the behavior associated with the target feature (behavior prediction step # 21). As described above, the behavior of the host vehicle detected in the behavior detection step # 11 is determined by the driver's operation in each part of the host vehicle, the driver's operation, and external factors applied to the host vehicle from the outside. It includes at least one of the operations of the vehicle. Therefore, based on the prediction result in the behavior prediction step # 21, the learning behavior information R is output to the control device in the host vehicle that reproduces the driver's operation. Further, based on the prediction result in the behavior prediction step # 21, the learning behavior information R is output to a control device that optimizes the operation of the host vehicle caused by the driver's operation or external factors.

〔適用例1〕
以下、本発明に係る車両挙動学習装置2の具体的な適用例について説明する。図9は、自車位置情報取得部3により取得される自車位置情報Lの軌跡に基づいて車両挙動を学習する例を示す説明図である。本例において、自車両50は幹線道路K1を走行し、別の幹線道路K2との大きな交差点N2に至る前に交差点N3において細街路K3へと左折する。平行する幹線道路K2と、細街路K3とが近い場合、つまり交差点N2とN3との距離が短い場合、自車位置情報取得部3は自車位置情報Lに示される自車両50の現在位置を誤った道路上にマップマッチングする場合がある。自車両50は、図9に実線で示すように進行しているにも拘わらず、自車位置情報Lに示される自車両50の現在位置が、図9に破線で示すように幹線道路K2上にマップマッチングされ、当該自車位置情報Lに示される自車両50の位置が自車位置マーク60としてモニタ26に表示される場合がある。このような誤マッチングは、運転者により手動で、あるいはナビゲーション用演算部12により自動で、修正されるが、短時間であっても誤った位置を示す自車位置マーク60がモニタ26に表示されることになる。本発明の車両挙動学習装置2を用いることによって、このような誤マッチングを抑制することができる。
[Application Example 1]
Hereinafter, specific application examples of the vehicle behavior learning device 2 according to the present invention will be described. FIG. 9 is an explanatory diagram illustrating an example of learning the vehicle behavior based on the trajectory of the vehicle position information L acquired by the vehicle position information acquisition unit 3. In this example, the host vehicle 50 travels on the main road K1 and makes a left turn to the narrow street K3 at the intersection N3 before reaching the large intersection N2 with another main road K2. When the parallel main road K2 and the narrow street K3 are close, that is, when the distance between the intersections N2 and N3 is short, the own vehicle position information acquisition unit 3 determines the current position of the own vehicle 50 indicated by the own vehicle position information L. Map matching may occur on the wrong road. Although the host vehicle 50 is traveling as shown by the solid line in FIG. 9, the current position of the host vehicle 50 indicated by the host vehicle position information L is on the main road K2 as shown by the broken line in FIG. The position of the host vehicle 50 indicated by the host vehicle position information L is displayed on the monitor 26 as the host vehicle position mark 60 in some cases. Such erroneous matching is corrected manually by the driver or automatically by the navigation calculation unit 12, but the vehicle position mark 60 indicating an incorrect position is displayed on the monitor 26 even for a short time. Will be. By using the vehicle behavior learning device 2 of the present invention, such erroneous matching can be suppressed.

図9に示す例では、自車両50の運転者は、交差点N3に至る前に方向指示器を操作し、ブレーキを操作して自車両50を減速させ、交差点N3においては左折の操舵を行う。このような方向指示器、ブレーキ、ステアリングへの運転者による操作は、挙動検出部9により車両の挙動として検出される。また、このような自車両50の左折動作に伴い、方位センサ24により検出される自車両50の進行方位の変化も、運転者の操作の結果生じる自車両50の挙動として挙動検出部9により検出される。一方、自車両50は、交差点N3へ接近する前、交差点N1を通過している。交差点N1の前後には、地物としての横断歩道C1及びC2があり、これらは対象地物として画像認識される。本例では、自車両50の進行方向側の端部(図中の■部)を位置情報とする対象地物として認識される。これら対象地物の一方又は双方を基準として、交差点N3における自車両50の屈曲動作(本例では左折)が車両挙動として検出結果記憶部8に記憶される。すなわち、この車両挙動の検出結果を表す挙動検出情報Bは、対象地物としての横断歩道C1及びC2の一方又は双方を基準として、自車位置情報補正部11により補正された自車位置情報Lに基づく当該挙動の検出位置の情報と関連付けられて検出結果記憶部8に記憶される。   In the example shown in FIG. 9, the driver of the host vehicle 50 operates the direction indicator before reaching the intersection N3, operates the brake to decelerate the host vehicle 50, and performs left turn steering at the intersection N3. Such an operation by the driver to the direction indicator, the brake, and the steering is detected by the behavior detection unit 9 as the behavior of the vehicle. Further, along with such a left turn operation of the host vehicle 50, a change in the traveling direction of the host vehicle 50 detected by the direction sensor 24 is also detected by the behavior detection unit 9 as a behavior of the host vehicle 50 resulting from the driver's operation. Is done. On the other hand, the host vehicle 50 passes through the intersection N1 before approaching the intersection N3. Before and after the intersection N1, there are pedestrian crossings C1 and C2 as features, and these are image-recognized as target features. In this example, it is recognized as a target feature whose position information is an end portion (■ in the figure) on the traveling direction side of the host vehicle 50. Based on one or both of these target features, the bending operation (left turn in this example) of the host vehicle 50 at the intersection N3 is stored in the detection result storage unit 8 as the vehicle behavior. That is, the behavior detection information B representing the detection result of the vehicle behavior is the vehicle position information L corrected by the vehicle position information correction unit 11 based on one or both of the pedestrian crossings C1 and C2 as the target features. Is stored in the detection result storage unit 8 in association with information on the detection position of the behavior based on.

この細街路K3への左折が例えば自宅への経路であれば、自車両50は、幹線道路K1から細街路K3へ至る同じ経路を複数回通行する。したがって、検出結果記憶部8には、自車両50の同一の挙動についての複数回の挙動検出情報Bが記憶される。このように繰り返し検出される自車両50の挙動は、学習挙動抽出部9によって学習挙動として抽出される。そして、この学習挙動の属性情報及び位置情報が、画像認識に成功した対象地物の地物情報と関連づけた学習挙動情報Rとして学習挙動データベース19に記憶される。本例では、属性情報とは、交差点N3における左折や、方向指示器の操作を特定する情報である。また、位置情報とは、当該学習挙動の位置を表す座標情報であり、検出結果記憶部8に記憶された挙動検出情報Bと関連付けられた当該挙動の検出位置の情報に基づいて導出される。本例では、学習挙動情報Rの位置情報に示される位置は、交差点N3内の位置となる。   If the left turn to the narrow street K3 is a route to the home, for example, the host vehicle 50 passes the same route from the main road K1 to the narrow street K3 a plurality of times. Therefore, the detection result storage unit 8 stores a plurality of times of behavior detection information B for the same behavior of the host vehicle 50. The behavior of the host vehicle 50 repeatedly detected in this manner is extracted as a learning behavior by the learning behavior extraction unit 9. The learning behavior attribute information and position information are stored in the learning behavior database 19 as learning behavior information R associated with the feature information of the target feature that has been successfully image-recognized. In this example, the attribute information is information that identifies a left turn at the intersection N3 or an operation of the direction indicator. The position information is coordinate information representing the position of the learning behavior, and is derived based on the information on the detection position of the behavior associated with the behavior detection information B stored in the detection result storage unit 8. In this example, the position indicated in the position information of the learning behavior information R is a position in the intersection N3.

図10は、ナビゲーション用演算部12による自車位置表示において車両挙動の予測結果を利用する例を示す説明図である。上述したように、自車両50の学習挙動情報Rが学習挙動データベース19に記憶された状態で、自車両50が幹線道路K1を通行する場合を考える。自車両50が交差点N1を通過すると、画像認識部6により横断歩道C1及びC2を対象地物として認識する。挙動予測部10は、横断歩道C1及びC2に関連づけられた学習挙動情報Rを取得し、交差点N3において自車両50が左折する可能性が高いことを予測する。また、挙動予測部10は、このような挙動の予測結果を、ナビゲーション用演算部12(ナビゲーション用演算手段の一例)に対して出力する。そして、予測された位置において自車両50が左折すると、ナビゲーション用演算部12は、自車両50が、幹線道路K2ではなく細街路K3に進入したと判定して、自車位置マーク60を細街路K3上に合わせてモニタ26に表示させる。また、この際、挙動予測部10が、このような挙動の予測結果を自車位置情報取得部3に対して出力し、自車位置情報Lを補正する構成としても好適である。   FIG. 10 is an explanatory diagram illustrating an example in which the prediction result of the vehicle behavior is used in the display of the vehicle position by the navigation calculation unit 12. As described above, a case is considered in which the host vehicle 50 passes the main road K1 in a state where the learning behavior information R of the host vehicle 50 is stored in the learning behavior database 19. When the host vehicle 50 passes through the intersection N1, the image recognition unit 6 recognizes the crosswalks C1 and C2 as target features. The behavior prediction unit 10 acquires the learning behavior information R associated with the pedestrian crossings C1 and C2, and predicts that the host vehicle 50 is highly likely to turn left at the intersection N3. Further, the behavior prediction unit 10 outputs such a behavior prediction result to the navigation calculation unit 12 (an example of navigation calculation means). When the host vehicle 50 turns left at the predicted position, the navigation calculation unit 12 determines that the host vehicle 50 has entered the narrow street K3 instead of the main road K2, and sets the own vehicle position mark 60 to the narrow street. It is displayed on the monitor 26 along with K3. At this time, it is also preferable that the behavior prediction unit 10 outputs a prediction result of such behavior to the vehicle position information acquisition unit 3 to correct the vehicle position information L.

このように、本発明に係る車両挙動学習装置2を適用することによって、ナビゲーション装置1における自車位置表示や経路案内の精度を向上させることができる。   Thus, by applying the vehicle behavior learning device 2 according to the present invention, the accuracy of the vehicle position display and route guidance in the navigation device 1 can be improved.

〔適用例2〕
上述した適用例1では、自車両50の挙動として、自車両50の各部において受け付けられる運転者の操作、及び当該運転者の操作の結果生じる自車両50の動作を挙動検出部7が検出する場合を示した。本適用例2では、外部から自車両50に加わる外的要因による自車両50の動作が挙動として検出される場合の例について説明する。
[Application Example 2]
In the application example 1 described above, as the behavior of the host vehicle 50, the behavior detection unit 7 detects the operation of the driver accepted in each unit of the host vehicle 50 and the operation of the host vehicle 50 resulting from the operation of the driver. showed that. In the second application example, an example in which an operation of the host vehicle 50 due to an external factor applied to the host vehicle 50 from the outside is detected as a behavior will be described.

ナビゲーション装置1からの道路情報を元に、自車両50のサスペンションの減衰力を制御し、カーブ走行時の操舵安定性を向上し、或いは段差における振動の減衰力を最適に制御するシステムがある。これらは、サスペンションの制御とナビゲーション装置1とが協調して実施されることから、ナビ協調サスペンションシステムと称される。通常、このナビ協調サスペンションシステムは、主としてナビゲーション装置1がGPS受信機23や方位センサ24、距離センサ25などを通じて取得する自車位置情報Lを用いて実施される。しかし、上述したように、この自車位置情報Lは誤差を含むため、サスペンションの制御が最適な位置からずれる場合がある。   There is a system that controls the damping force of the suspension of the host vehicle 50 based on the road information from the navigation device 1 to improve the steering stability when traveling on a curve or optimally controls the damping force of vibration at a step. These are referred to as a navigation cooperative suspension system because the suspension control and the navigation device 1 are implemented in cooperation. Normally, this navigation cooperative suspension system is implemented mainly using the vehicle position information L acquired by the navigation device 1 through the GPS receiver 23, the direction sensor 24, the distance sensor 25, and the like. However, as described above, since the vehicle position information L includes an error, the suspension control may deviate from the optimum position.

本発明に係る挙動学習装置2を適用すると、サスペンションの振動センサ37や方位センサ24、ヨー・Gセンサなどにより、カーブ走行や段差通過の挙動が、挙動検出情報Bとして検出される。上述したように、この挙動検出情報Bは、地物情報Fと関連付けられて学習挙動情報Rとして学習挙動データベース19に記憶される。この学習挙動情報Rは、同じ自車両50の挙動についての複数の挙動検出情報Bに基づいて、繰り返し検出される自車両50の挙動が抽出されたものとすることができる。   When the behavior learning apparatus 2 according to the present invention is applied, the behavior of curve running or step passing is detected as behavior detection information B by the suspension vibration sensor 37, the direction sensor 24, the yaw / G sensor, and the like. As described above, this behavior detection information B is associated with the feature information F and stored in the learning behavior database 19 as learning behavior information R. The learning behavior information R can be obtained by extracting the behavior of the own vehicle 50 that is repeatedly detected based on a plurality of behavior detection information B regarding the behavior of the same own vehicle 50.

一方、この挙動は、外部から自車両50に加わる外的要因による自車両50の動作に基づくものである。このため、運転者や車両への依存性が低く、道路自体への依存性が高い。従って、図6に基づいて説明したように、複数の車両が同じ場所を通行することにより各車両の検出結果記憶部8に記憶された複数の挙動検出情報Bに基づいて、再現性を有して検出される車両の挙動が抽出されたものとすることもできる。   On the other hand, this behavior is based on the operation of the host vehicle 50 due to external factors applied to the host vehicle 50 from the outside. For this reason, the dependence on the driver and the vehicle is low, and the dependence on the road itself is high. Therefore, as described with reference to FIG. 6, when a plurality of vehicles pass through the same place, the vehicle has reproducibility based on the plurality of behavior detection information B stored in the detection result storage unit 8 of each vehicle. The behavior of the vehicle detected in this way can also be extracted.

このようにして抽出され、記憶された学習挙動情報Rに基づいて、該当する対象地物に関連づけられた段差通過やカーブ走行などの挙動が挙動予測部10によって予測される。そして、この予測結果に基づいてナビ協調サスペンションシステムの制御が実施される。したがって、例えば、道路の特定の場所に段差が生じている場合に、当該段差の通行時に振動・衝撃を受けることを予測して、最適なサスペンションの制御を行うことが可能となる。その結果、従来に比べてより精密な制御が可能となる。尚、サスペンションの制御装置は、本発明における自車両50の動作を最適化する制御装置に相当する。   Based on the learned behavior information R extracted and stored in this manner, behavior prediction unit 10 predicts behavior such as step passing and curve traveling associated with the target feature. Then, the navigation cooperative suspension system is controlled based on the prediction result. Therefore, for example, when there is a step at a specific place on the road, it is possible to predict that a vibration / impact is received when the step is passed, and to perform optimal suspension control. As a result, more precise control is possible than in the prior art. The suspension control device corresponds to a control device that optimizes the operation of the host vehicle 50 in the present invention.

〔適用例3〕
本適用例3では、ナビゲーション装置1からの道路情報と運転者の操作の受け付けとを元に、自車両50のエンジンやオートマチックトランスミッションなどを最適に制御する例について説明する。これは、オートマチックトランスミッションなどのシフト制御とナビゲーショ装置1とが協調して実施されることから、ナビ協調シフト制御と称される。例えば、上り坂を走行する際、運転者の好みによって、登坂車線などをゆっくりと登ったり、キックダウンを行って高速で登ったりする場合がある。挙動検出部7は、例えばこのキックダウンの動作を挙動検出情報Bとして検出する。この挙動が同じ対象地物を基準として、繰り返し検出された場合には、この運転操作を運転者の癖として学習する。つまり、この挙動検出情報Bは、地物情報Fと関連付けられて学習挙動情報Rとして学習挙動データベース19に記憶される。
[Application Example 3]
In this application example 3, an example in which the engine of the host vehicle 50, an automatic transmission, and the like are optimally controlled based on road information from the navigation device 1 and reception of a driver's operation will be described. This is referred to as navigation cooperative shift control because the shift control of the automatic transmission or the like and the navigation device 1 are performed in cooperation. For example, when traveling uphill, depending on the driver's preference, the climbing lane may be slowly climbed or the kickdown may be performed at high speed. The behavior detection unit 7 detects, for example, this kick-down operation as behavior detection information B. When this behavior is repeatedly detected based on the same target feature, this driving operation is learned as a driver's habit. That is, this behavior detection information B is stored in the learning behavior database 19 as learning behavior information R in association with the feature information F.

挙動予測部10は、記憶された学習挙動情報Rに基づいて、画像認識部6により該当する対象地物を認識した際に、シフトダウンが必要であると予測する。この予測結果に基づいて、ナビ協調シフト制御システムは、燃費なども考慮して最適なシフト制御を行う。尚、この制御は、エンジン、トランスミッションなどいわゆるパワートレインの種々の機構に対して実施することができる。また、駆動力源としてエンジンとモータとを有したハイブリッド車両では、各駆動力源の動作状態を最適な状態とするように制御することができる。   Based on the stored learning behavior information R, the behavior prediction unit 10 predicts that downshifting is necessary when the image recognition unit 6 recognizes the corresponding target feature. Based on the prediction result, the navigation cooperative shift control system performs optimum shift control in consideration of fuel consumption and the like. This control can be performed for various mechanisms of a so-called power train such as an engine and a transmission. Further, in a hybrid vehicle having an engine and a motor as driving force sources, control can be performed so that the operating state of each driving force source is in an optimum state.

〔適用例4〕
運転者の操作の受け付けに係る自車両50の挙動として、運転者によるサンバイザーの操作を検出してもよい。この際、GPS受信機23からは、時刻情報や日付情報も取得可能である。従って、運転者がまぶしさを感じる時間帯、場所、方角と合わせて学習挙動情報Rを抽出し、記憶することができる。挙動予測部10が、この学習挙動情報Rに基づいて運転者がまぶしさを感じることを予測すると、例えば、モニタ26の輝度を高く調整する、電動サンバイザーを駆動する、などの制御を各装置の制御部が実施する。
[Application Example 4]
The operation of the sun visor by the driver may be detected as the behavior of the host vehicle 50 related to the reception of the driver's operation. At this time, time information and date information can also be acquired from the GPS receiver 23. Therefore, the learning behavior information R can be extracted and stored together with the time zone, place, and direction in which the driver feels dazzling. When the behavior predicting unit 10 predicts that the driver feels dazzled based on the learned behavior information R, for example, each device performs control such as adjusting the brightness of the monitor 26 or driving the electric sun visor. Implemented by the control unit.

〔適用例5〕
運転者の操作の受け付けに係る自車両50の挙動として、運転者による空調装置の操作を空調スイッチ31からの入力に基づいて検出してもよい。例えば、通常は空調装置を外気導入で使用する運転者が、ある地点において繰り返し内気循環に切り替えるという挙動を、学習挙動情報Rとして抽出し、記憶する。これは、運転者が交通量の多い幹線道路を走行する際に、他の車両の排気ガスが自車両50に浸入しないように、空調スイッチ31を操作する場合の例である。挙動予測部10は、学習挙動情報Rに基づいて、空調装置が操作されることを予測する。空調装置の制御部は、この予測結果に基づいて、自動的に外気導入から内気循環に切り替える。内気循環への切り替えが遅れ、排気ガスが自車両50にわずかでも浸入すると、不快であるが、このように自動的に切り替わることで、車内の快適性が確保される。
[Application Example 5]
As the behavior of the host vehicle 50 related to the reception of the driver's operation, the operation of the air conditioner by the driver may be detected based on the input from the air conditioning switch 31. For example, a behavior in which a driver who normally uses an air conditioner for introducing outside air repeatedly switches to inside air circulation at a certain point is extracted and stored as learning behavior information R. This is an example of the case where the air conditioning switch 31 is operated so that the exhaust gas of another vehicle does not enter the host vehicle 50 when the driver travels on a highway with a high traffic volume. Based on the learning behavior information R, the behavior prediction unit 10 predicts that the air conditioner is operated. The control unit of the air conditioner automatically switches from outside air introduction to inside air circulation based on the prediction result. If switching to the inside air circulation is delayed and even a slight amount of exhaust gas enters the host vehicle 50, it is uncomfortable, but the automatic switching in this way ensures comfort in the vehicle.

以上説明したように、本発明によって、自車両の位置を高精度に測位し、道路上の特定の位置で実施される頻度の高い車両の挙動を学習することが可能な車両挙動学習装置を提供することができる。   As described above, according to the present invention, there is provided a vehicle behavior learning device capable of measuring the position of the host vehicle with high accuracy and learning the behavior of a vehicle that is frequently performed at a specific position on a road. can do.

〔その他の実施形態〕
(1)上記の実施形態においては特に説明はしなかったが、地物データベース15に記憶されている地物情報Fは、予め記憶された初期地物情報、及び地物情報Fとは無関係な画像認識部6による地物の画像認識結果に基づいて学習して記憶された学習地物情報の双方とすると好適である。ここで、初期地物情報とは、地物データベース15に予め整備されて記憶されている複数の地物についての地物情報Fである。このような初期地物情報を、地図情報Mが整備されている全ての地域について整備するためには、多くの手間と費用が必要となる。よって、初期地物情報は、大都市周辺や幹線道路等の一部の地域についてのみ整備されている場合が多い。そこで、地物データベース15に初期地物情報と学習地物情報の双方を記憶した構成とする場合には、初期地物情報が整備されていない地域等において、学習地物情報を用いて自車両の挙動の学習を行う構成とすると好適である。
ここで、学習地物情報は、例えば以下のようにして学習され、地物データベース15に記憶される。すなわち、地物の情報を学習するために、画像認識部6は、地物情報Fとは無関係に、画像情報取得部4において取得した画像情報Gに含まれる地物の画像認識処理を行う。そして、地物の画像認識に成功した場合には、当該地物の認識位置を求め、当該認識位置を表す認識位置情報を、当該地物が識別可能な状態で所定の地物学習データベース等に記憶する。これにより、自車両が同じ道路を繰り返し走行すれば、同じ地物が複数回画像認識され、前記地物学習データベースに同じ地物についての複数の認識位置情報が記憶されることになる。そこで、所定の推測位置判定手段により、当該地物の推測位置を判定し、所定の学習地物情報生成手段により、地物の推測位置を表す位置情報と、当該地物についての画像認識結果に基づく属性情報とを関連付けた情報を学習地物情報として生成し、地物データベース15に記憶する。
なお、地物データベース15に記憶されている地物情報Fを初期地物情報のみとし、或いは学習地物情報のみとすることも、当然に可能である。
[Other Embodiments]
(1) Although not specifically described in the above embodiment, the feature information F stored in the feature database 15 is irrelevant to the initial feature information stored in advance and the feature information F. It is preferable to use both of the learned feature information learned and stored based on the image recognition result of the feature by the image recognition unit 6. Here, the initial feature information is feature information F about a plurality of features that are prepared and stored in advance in the feature database 15. In order to maintain such initial feature information in all areas where the map information M is maintained, a lot of labor and cost are required. Therefore, the initial feature information is often maintained only for a part of a region such as a metropolitan area or a main road. Therefore, when both the initial feature information and the learned feature information are stored in the feature database 15, the vehicle using the learned feature information in an area where the initial feature information is not maintained. It is preferable to adopt a configuration for learning the behavior of the above.
Here, the learned feature information is learned as follows, for example, and stored in the feature database 15. That is, in order to learn the feature information, the image recognition unit 6 performs image recognition processing of the feature included in the image information G acquired by the image information acquisition unit 4 regardless of the feature information F. If the image recognition of the feature is successful, the recognition position of the feature is obtained, and the recognition position information representing the recognition position is stored in a predetermined feature learning database or the like in a state where the feature can be identified. Remember. Thus, if the host vehicle repeatedly travels on the same road, the same feature is image-recognized a plurality of times, and a plurality of recognized position information for the same feature is stored in the feature learning database. Therefore, the estimated position of the feature is determined by a predetermined estimated position determination unit, and the position information indicating the estimated position of the feature and the image recognition result for the feature are determined by the predetermined learned feature information generation unit. Information associated with the attribute information based on it is generated as learned feature information and stored in the feature database 15.
Of course, the feature information F stored in the feature database 15 may be only the initial feature information or only the learned feature information.

(2)上記の実施形態では、前記挙動検出情報Bに関連付けられる挙動の検出位置の情報、及び学習挙動情報Rに係る学習挙動の位置情報が、当該挙動の検出位置又は当該学習挙動の位置を表す座標情報である場合を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、挙動の検出位置の情報及び学習挙動の位置情報を、他の態様により当該挙動の位置を表す情報としてもよい。したがって、例えば、挙動が検出された検出位置の情報及び学習挙動の位置情報の一方又は双方を、当該挙動の検出前に画像認識に成功した対象地物との関係で当該挙動の位置を表す情報とすることも、本発明の好適な実施形態の一つである。具体的には、例えば、挙動の検出位置の情報を、画像認識に成功した対象地物の当該画像認識に成功した位置から当該挙動の検出位置までの距離情報としても好適である。このようにすれば、挙動の検出位置を、画像認識に成功した対象地物との関係を示す地物−挙動間の距離を用いて適切に表すことができる。また、これと同様に、学習挙動情報Rに係る学習挙動の位置情報を、画像認識に成功した対象地物の位置から当該学習挙動の位置までの距離情報としても好適である。このようにすれば、学習挙動の位置を、画像認識に成功した対象地物との関係を示す地物−挙動間の距離を用いて適切に表すことができる。また、このように対象地物との距離情報により学習挙動の位置を表すことにより、学習挙動情報Rに示される対象地物の画像認識に成功した際に、当該対象地物の画像認識に成功した位置を基準としてより正確に学習挙動の発生を予測することが可能となる。
また、前記挙動検出情報Bに関連付けられる挙動の検出位置の情報、及び学習挙動情報Rに係る学習挙動の位置情報の一方又は双方が、当該挙動の検出位置又は当該学習挙動の位置を表す座標情報と、前記対象地物との距離情報との双方を有する構成としても好適である。
(2) In the above embodiment, the information on the detection position of the behavior associated with the behavior detection information B and the position information on the learning behavior related to the learning behavior information R indicate the detection position of the behavior or the position of the learning behavior. The case where the coordinate information is expressed has been described as an example. However, the embodiment of the present invention is not limited to this, and the information on the detection position of the behavior and the position information on the learning behavior may be information representing the position of the behavior in another manner. Therefore, for example, information indicating the position of the behavior in relation to the target feature that has been successfully image-recognized before detecting the behavior of one or both of the information of the detected position where the behavior is detected and the position information of the learning behavior This is also a preferred embodiment of the present invention. Specifically, for example, the information on the detection position of the behavior is also preferably used as distance information from the position at which the image recognition of the target feature that has been successfully recognized to the detection position of the behavior is successful. If it does in this way, the detection position of a behavior can be appropriately expressed using the distance between the feature and the behavior which shows the relationship with the target feature which succeeded in image recognition. Similarly, the position information of the learning behavior related to the learning behavior information R is also suitable as the distance information from the position of the target feature that has been successfully recognized to the position of the learning behavior. In this way, the position of the learning behavior can be appropriately represented using the distance between the feature and the behavior indicating the relationship with the target feature that has been successfully recognized by the image. In addition, by representing the position of the learning behavior by the distance information with the target feature in this way, when the image recognition of the target feature indicated in the learning behavior information R is successful, the image recognition of the target feature is successful. It is possible to predict the occurrence of learning behavior more accurately based on the determined position.
In addition, one or both of behavior detection position information associated with the behavior detection information B and learning behavior position information related to the learning behavior information R is coordinate information indicating the detection position of the behavior or the position of the learning behavior. And distance information with respect to the target feature.

(3)上記の実施形態では、車両挙動学習装置2を含むナビゲーション装置1の全ての構成が自車両に搭載される場合を例として説明した。しかし、本発明の実施形態はこのような構成に限定されるものではない。すなわち、例えば、撮像装置21を除く一部の構成が、インターネット等の通信ネットワークを介して接続された状態で自車両の外に設置されており、ネットワークを介して情報や信号の送受信を行うことにより、車両挙動学習装置2及びナビゲーション装置1を構成することも、本発明の好適な実施形態の一つである。したがって、例えば、地図データベース13や地物データベース15を、無線通信回線等を介して自車両と通信可能に接続されたサーバ装置に設置し、自車位置情報Lに基づいてサーバ装置から取得した地物情報Fや地図情報Mに基づいて、車両挙動学習装置2を含むナビゲーション装置1の動作を行わせる構成とすることも、本発明の好適な実施形態の一つである。 (3) In the above embodiment, the case where all the configurations of the navigation device 1 including the vehicle behavior learning device 2 are mounted on the host vehicle has been described as an example. However, the embodiment of the present invention is not limited to such a configuration. That is, for example, a part of the configuration excluding the imaging device 21 is installed outside the host vehicle while being connected via a communication network such as the Internet, and transmits and receives information and signals via the network. Thus, configuring the vehicle behavior learning device 2 and the navigation device 1 is also one preferred embodiment of the present invention. Therefore, for example, the map database 13 or the feature database 15 is installed in a server device that is communicably connected to the host vehicle via a wireless communication line or the like, and is acquired from the server device based on the host vehicle position information L. A configuration in which the operation of the navigation device 1 including the vehicle behavior learning device 2 is performed based on the object information F and the map information M is also a preferred embodiment of the present invention.

(4)上記の実施形態では、車両挙動学習装置2が挙動予測部10を備え、自車両50の挙動の予測結果を自車両50の各制御部等に出力する構成である場合を例として説明した。しかし、本発明に係る車両挙動学習装置2の構成は、これに限定されるものではなく、挙動予測部10を備えない構成とすることも、本発明の好適な実施形態の一つである。例えば、車両挙動学習装置2は、右折や左折等の自車両50の進路変更に関わる挙動と、地図情報Mに含まれる道路形状等とに基づいて、当該進路変更の挙動が地図上の道路形状に適合するように、自車位置情報取得部3により取得される自車位置情報Lを補正する自車位置情報補正手段を備える構成としても好適である。この場合、本発明に係る車両挙動学習装置2は、自車位置認識装置の一部を構成する。 (4) In the above embodiment, the case where the vehicle behavior learning device 2 includes the behavior prediction unit 10 and outputs the behavior prediction result of the host vehicle 50 to each control unit of the host vehicle 50 will be described as an example. did. However, the configuration of the vehicle behavior learning device 2 according to the present invention is not limited to this, and a configuration not including the behavior prediction unit 10 is also a preferred embodiment of the present invention. For example, the vehicle behavior learning device 2 determines that the behavior of the course change is based on the road shape on the map based on the behavior related to the course change of the host vehicle 50 such as a right turn or a left turn and the road shape included in the map information M. So that the vehicle position information correction means for correcting the vehicle position information L acquired by the vehicle position information acquisition unit 3 is suitable. In this case, the vehicle behavior learning device 2 according to the present invention constitutes a part of the vehicle position recognition device.

本発明は、特定の車両位置における車両の特定の挙動を学習可能な車両挙動学習装置に及び車両挙動学習プログラムに好適に利用することが可能である。   The present invention can be suitably used for a vehicle behavior learning apparatus capable of learning a specific behavior of a vehicle at a specific vehicle position and a vehicle behavior learning program.

本発明の実施形態に係る車両挙動学習装置を含むナビゲーション装置の構成例を模式的に示すブロック図The block diagram which shows typically the structural example of the navigation apparatus containing the vehicle behavior learning apparatus which concerns on embodiment of this invention. 地図データベース及び地物データベースに記憶される情報の構成例を示す説明図Explanatory drawing which shows the example of a structure of the information memorize | stored in a map database and a feature database 画像情報の一例を示す図The figure which shows an example of image information 自車両周辺の地図情報の一例を示す図The figure which shows an example of the map information around the own vehicle 学習挙動データベースの構成の一例を模式的に示すブロック図Block diagram schematically showing an example of the structure of a learning behavior database 学習挙動データベースの構成の他の例を模式的に示すブロック図Block diagram schematically showing another example of the structure of the learning behavior database 車両挙動を学習する手順の一例を示すフローチャートFlow chart showing an example of a procedure for learning vehicle behavior 車両挙動を予測する手順の一例を示すフローチャートFlow chart showing an example of a procedure for predicting vehicle behavior ナビゲーション装置の経路案内に基づいて車両挙動を学習する例を示す説明図Explanatory drawing which shows the example which learns a vehicle behavior based on the route guidance of a navigation apparatus ナビゲーション装置の経路案内において車両挙動の予測結果を利用する例を示す説明図Explanatory drawing which shows the example which utilizes the prediction result of a vehicle behavior in the route guidance of a navigation apparatus

符号の説明Explanation of symbols

1:ナビゲーション装置
2:車両挙動学習装置
3:自車位置演算部(自車位置情報取得手段)
4:画像情報取得部(画像情報取得手段)
5:地物情報取得部(地物情報取得手段)
6:画像認識部(画像認識手段)
7:挙動検出部(挙動検出手段)
8:検出結果記憶部(検出結果記憶手段)
9:学習挙動抽出部(学習挙動抽出手段)
10:挙動予測部(挙動予測手段)
11:自車位置補正部(自車位置補正手段)
12:ナビゲーション用演算部(案内情報出力手段)
13:地図データベース(地図情報記憶手段)
15:地物データベース(地物情報記憶手段)
16:アプリケーションプログラム(案内情報出力手段)
17:レーン特定部(自車位置情報取得手段)
18:自車位置情報取得手段
19:学習挙動データベース
21:カメラ、撮影部
23:GPS受信機
24:方位センサ
25:距離センサ
26:モニタ(案内情報出力手段)
27:スピーカ(案内情報出力手段)
28:案内情報出力部(案内情報出力手段)
B:挙動検出情報
F、FC:地物情報
G:画像情報
L:自車位置情報
M、MC:地図情報
R、Ra、Rb、RC:学習挙動情報
1: Navigation device 2: Vehicle behavior learning device 3: Own vehicle position calculation unit (own vehicle position information acquisition means)
4: Image information acquisition unit (image information acquisition means)
5: Feature information acquisition unit (feature information acquisition means)
6: Image recognition unit (image recognition means)
7: Behavior detection unit (behavior detection means)
8: Detection result storage unit (detection result storage means)
9: Learning behavior extraction unit (learning behavior extraction means)
10: Behavior prediction unit (behavior prediction means)
11: Own vehicle position correcting unit (own vehicle position correcting means)
12: Navigation calculation unit (guidance information output means)
13: Map database (map information storage means)
15: Feature database (feature information storage means)
16: Application program (guidance information output means)
17: Lane specific part (own vehicle position information acquisition means)
18: own vehicle position information acquisition means 19: learning behavior database 21: camera, photographing unit 23: GPS receiver 24: direction sensor 25: distance sensor 26: monitor (guidance information output means)
27: Speaker (guidance information output means)
28: Guidance information output unit (guidance information output means)
B: Behavior detection information F, FC: Feature information G: Image information L: Own vehicle position information M, MC: map information R, Ra, Rb, RC: learning behavior information

Claims (11)

自車両の現在位置を示す自車位置情報を取得する自車位置情報取得手段と、
自車両の周辺の画像情報を取得する画像情報取得手段と、
複数の対象地物についての位置情報及び属性情報を含む地物情報が記憶された地物情報記憶手段と、
前記自車位置情報に基づいて、前記地物情報記憶手段から自車両の周辺の前記地物情報を取得する地物情報取得手段と、
前記地物情報に基づいて、前記画像情報に含まれる対象地物の認識処理を行う画像認識手段と、
前記画像認識手段による対象地物の画像認識に成功した位置から所定範囲内の自車両の挙動を検出する挙動検出手段と、
前記自車位置情報に基づいて、前記挙動検出手段による自車両の挙動の検出結果を表す挙動検出情報を、当該挙動が検出された検出位置の情報と関連づけて記憶する検出結果記憶手段と、
自車両が同じ場所を複数回通行することにより前記検出結果記憶手段に記憶された、同じ挙動についての複数の前記挙動検出情報に基づいて、繰り返し検出される自車両の挙動を学習挙動として抽出し、当該学習挙動の属性情報及び位置情報を前記画像認識に成功した対象地物の地物情報と関連づけた学習挙動情報として出力する学習挙動抽出手段と、を備え
前記学習挙動抽出手段は、複数の車両と通信可能に接続され、前記挙動検出手段が自車両の挙動として外部から自車両に加わる外的要因による自車両の動作を検出する場合、複数の車両が同じ場所を通行することにより各車両の前記検出結果記憶手段に記憶された、車両の挙動についての複数の挙動検出情報に基づいて、再現性を有して検出される自車両の挙動を前記学習挙動として抽出する車両挙動学習装置。
Own vehicle position information acquisition means for acquiring own vehicle position information indicating the current position of the own vehicle;
Image information acquisition means for acquiring image information around the host vehicle;
Feature information storage means in which feature information including position information and attribute information about a plurality of target features is stored;
Feature information acquisition means for acquiring the feature information around the host vehicle from the feature information storage means based on the vehicle position information;
Image recognition means for performing recognition processing of the target feature included in the image information based on the feature information;
Behavior detecting means for detecting the behavior of the host vehicle within a predetermined range from a position where the image recognition means has succeeded in image recognition of the target feature;
Detection result storage means for storing behavior detection information representing a detection result of the behavior of the own vehicle by the behavior detection means in association with information on a detection position where the behavior is detected, based on the vehicle position information;
Based on a plurality of behavior detection information on the same behavior stored in the detection result storage means when the host vehicle passes the same place a plurality of times, the behavior of the own vehicle repeatedly detected is extracted as a learning behavior. Learning behavior extraction means for outputting the learning behavior attribute information and position information as learning behavior information associated with the feature information of the target feature that has succeeded in the image recognition ,
The learning behavior extracting means is connected to be able to communicate with a plurality of vehicles, and when the behavior detecting means detects an action of the own vehicle due to an external factor applied to the own vehicle from the outside as a behavior of the own vehicle, the plurality of vehicles are The learning of the behavior of the own vehicle detected with reproducibility based on a plurality of behavior detection information about the behavior of the vehicle stored in the detection result storage means of each vehicle by passing through the same place Vehicle behavior learning device that extracts behavior.
前記学習挙動情報に基づいて、当該対象地物に関連づけられた前記挙動を予測する挙動予測手段を備える、請求項に記載の車両挙動学習装置。 The vehicle behavior learning device according to claim 1 , further comprising behavior prediction means for predicting the behavior associated with the target feature based on the learned behavior information. 前記挙動予測手段は、前記挙動の予測結果を、自車両の案内情報の出力のための演算処理を行うナビゲーション用演算手段に対して出力する請求項に記載の車両挙動学習装置。 The vehicle behavior learning device according to claim 2 , wherein the behavior prediction unit outputs the prediction result of the behavior to a navigation calculation unit that performs a calculation process for outputting guidance information of the host vehicle. 前記挙動予測手段は、前記挙動の予測結果を、前記運転者の操作を再現する自車両内の制御装置に対して出力する、請求項に記載の車両挙動学習装置。 The vehicle behavior learning device according to claim 2 , wherein the behavior prediction unit outputs the prediction result of the behavior to a control device in the host vehicle that reproduces the operation of the driver. 前記挙動予測手段は、前記挙動の予測結果を、自車両の動作を最適化する制御装置に対して出力する、請求項に記載の車両挙動学習装置。 The vehicle behavior learning device according to claim 2 , wherein the behavior prediction unit outputs the prediction result of the behavior to a control device that optimizes the operation of the host vehicle. 前記対象地物は、道路の路面に設けられた道路標示である請求項1〜の何れか一項に記載の車両挙動学習装置。 The vehicle behavior learning device according to any one of claims 1 to 5 , wherein the target feature is a road marking provided on a road surface. 前記地物情報記憶手段には、前記地物情報として、予め記憶された初期地物情報、及び前記画像認識手段により前記地物情報とは無関係に行われた地物の画像認識処理の結果に基づいて学習して記憶された学習地物情報の一方又は双方が記憶されている請求項1〜の何れか一項に記載の車両挙動学習装置。 The said feature information storing means, wherein the feature information, previously stored initial feature information, image recognition of the feature that has been performed independently of the I Ri said feature information in及beauty before Symbol image recognition means The vehicle behavior learning apparatus according to any one of claims 1 to 6 , wherein one or both of learned feature information learned and stored based on a processing result is stored. 前記挙動が検出された検出位置の情報は、当該挙動の検出位置を表す座標情報、及び前記画像認識に成功した対象地物の当該画像認識に成功した位置から当該挙動の検出位置までの距離情報の一方又は双方を含む請求項1〜の何れか一項に記載の車両挙動学習装置。 The information on the detection position where the behavior is detected includes coordinate information representing the detection position of the behavior, and distance information from the position where the image recognition of the target feature that succeeded in the image recognition succeeded to the detection position of the behavior The vehicle behavior learning device according to any one of claims 1 to 7 , including one or both of the following. 前記学習挙動情報に係る前記学習挙動の位置情報は、当該学習挙動の位置を表す座標情報、及び前記画像認識に成功した対象地物の位置から当該学習挙動の位置までの距離情報の一方又は双方を含む請求項1〜の何れか一項に記載の車両挙動学習装置。 The learning behavior position information related to the learning behavior information includes one or both of coordinate information representing the position of the learning behavior and distance information from the position of the target feature that has succeeded in the image recognition to the position of the learning behavior. The vehicle behavior learning device according to any one of claims 1 to 8 , further comprising: 請求項1〜の何れか一項に記載の車両挙動学習装置と、
地図情報が記憶された地図情報記憶手段と、
前記車両挙動学習装置により出力された前記学習挙動情報及び前記地図情報の一方又は双方を参照して動作する複数のアプリケーションプログラムと、
前記アプリケーションプログラムに従って動作して案内情報を出力する案内情報出力手段と、
を備えるナビゲーション装置。
The vehicle behavior learning device according to any one of claims 1 to 9 ,
Map information storage means for storing map information;
A plurality of application programs that operate with reference to one or both of the learning behavior information and the map information output by the vehicle behavior learning device;
Guidance information output means that operates according to the application program and outputs guidance information;
A navigation device comprising:
自車両の現在位置を示す自車位置情報を取得する自車位置情報取得工程と、
自車両の周辺の画像情報を取得する画像情報取得工程と、
複数の対象地物についての位置情報及び属性情報を含む地物情報が記憶された地物情報記憶手段から、前記自車位置情報に基づいて自車両の周辺の前記地物情報を取得する地物情報取得工程と、
前記地物情報に基づいて、前記画像情報に含まれる対象地物の認識処理を行う画像認識工程と、
前記画像認識手段による対象地物の画像認識に成功した位置から所定範囲内の自車両の挙動を検出する挙動検出工程と、
前記自車位置情報に基づいて、前記挙動検出手段による自車両の挙動の検出結果を表す挙動検出情報を、当該挙動が検出された検出位置の情報と関連づけて検出結果記憶手段に記憶させる検出結果記憶工程と、
自車両が同じ場所を複数回通行することにより前記検出結果記憶手段に記憶された、同じ自車両の挙動についての複数の挙動検出情報に基づいて、繰り返し検出される自車両の挙動を学習挙動として抽出し、当該学習挙動の属性情報及び位置情報を前記画像認識に成功した対象地物の地物情報と関連づけた学習挙動検出情報として出力する学習挙動抽出工程と、をコンピュータに実行させ
前記学習挙動抽出工程では、前記挙動検出工程により自車両の挙動として外部から自車両に加わる外的要因による自車両の動作を検出する場合、複数の車両と通信し、複数の車両が同じ場所を通行することにより各車両の前記検出結果記憶手段に記憶された、車両の挙動についての複数の挙動検出情報に基づいて、再現性を有して検出される自車両の挙動を前記学習挙動として抽出する車両挙動学習プログラム。
Own vehicle position information acquisition step of acquiring own vehicle position information indicating the current position of the own vehicle;
An image information acquisition step of acquiring image information around the host vehicle;
A feature that acquires the feature information around the host vehicle based on the host vehicle position information from a feature information storage unit that stores feature information including position information and attribute information about a plurality of target features. Information acquisition process;
Based on the feature information, an image recognition step for performing recognition processing of the target feature included in the image information;
A behavior detection step of detecting the behavior of the host vehicle within a predetermined range from a position at which image recognition of the target feature by the image recognition means is successful;
Based on the vehicle position information, a detection result for storing behavior detection information representing a detection result of the behavior of the vehicle by the behavior detection unit in a detection result storage unit in association with information on a detection position where the behavior is detected Memory process;
Based on a plurality of behavior detection information about the behavior of the same own vehicle stored in the detection result storage means when the own vehicle passes the same place a plurality of times, the behavior of the own vehicle repeatedly detected as a learning behavior Extracting and outputting the learning behavior attribute information and the position information of the learning behavior as learning behavior detection information associated with the feature information of the target feature that has succeeded in the image recognition, and causing the computer to execute ,
In the learning behavior extracting step, when detecting the operation of the host vehicle due to an external factor applied to the host vehicle from the outside as the behavior of the host vehicle by the behavior detecting step, the plurality of vehicles communicate with each other, Based on a plurality of behavior detection information about the vehicle behavior stored in the detection result storage means of each vehicle by passing, the behavior of the host vehicle detected with reproducibility is extracted as the learning behavior vehicle behavior learning program to be.
JP2007171894A 2007-03-30 2007-06-29 Vehicle behavior learning apparatus and vehicle behavior learning program Expired - Fee Related JP4453046B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007171894A JP4453046B2 (en) 2007-03-30 2007-06-29 Vehicle behavior learning apparatus and vehicle behavior learning program
US12/076,067 US8155826B2 (en) 2007-03-30 2008-03-13 Vehicle behavior learning apparatuses, methods, and programs
EP08004826A EP1975564A3 (en) 2007-03-30 2008-03-14 Vehicle behaviour learning apparatus and vehicle behaviour learning program
CN2008100836681A CN101275840B (en) 2007-03-30 2008-03-14 Vehicle behavior learning apparatuses and methods

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007091049 2007-03-30
JP2007171894A JP4453046B2 (en) 2007-03-30 2007-06-29 Vehicle behavior learning apparatus and vehicle behavior learning program

Publications (2)

Publication Number Publication Date
JP2008275575A JP2008275575A (en) 2008-11-13
JP4453046B2 true JP4453046B2 (en) 2010-04-21

Family

ID=39995503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007171894A Expired - Fee Related JP4453046B2 (en) 2007-03-30 2007-06-29 Vehicle behavior learning apparatus and vehicle behavior learning program

Country Status (2)

Country Link
JP (1) JP4453046B2 (en)
CN (1) CN101275840B (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009045511A1 (en) * 2009-10-09 2011-04-14 Robert Bosch Gmbh Device for learning function of operating assistance of motor vehicle, is formed for receiving current location position of motor vehicle from positioning system, where device activates or deactivates operating assistance
JP5195732B2 (en) * 2009-12-14 2013-05-15 トヨタ自動車株式会社 Driving learning system and driving support system
JP5057184B2 (en) * 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 Image processing system and vehicle control system
CN101937194B (en) * 2010-09-27 2012-12-19 鸿富锦精密工业(深圳)有限公司 Intelligence control system with learning function and method thereof
EP2629275B1 (en) * 2010-10-15 2016-08-03 Toyota Jidosha Kabushiki Kaisha Vehicle information processing system and driving assistance system
WO2012160636A1 (en) 2011-05-23 2012-11-29 トヨタ自動車株式会社 Information processing system for vehicle
WO2013018220A1 (en) * 2011-08-04 2013-02-07 トヨタ自動車 株式会社 Vehicle-use information processing device and vehicle-use information processing method
EP2752347B1 (en) * 2011-08-29 2017-11-08 Toyota Jidosha Kabushiki Kaisha Vehicular information-processing device and vehicular information-processing method
CN102506885B (en) * 2011-10-31 2014-02-26 武汉光庭科技有限公司 Method for planning paths according to habit data of users
CN103287434B (en) * 2012-02-22 2015-12-02 厦门金龙联合汽车工业有限公司 A kind of running conditions of vehicle engine self-adaptive system
CN103134489B (en) * 2013-01-29 2015-12-23 北京凯华信业科贸有限责任公司 The method of target localization is carried out based on mobile terminal
KR102371587B1 (en) * 2015-05-22 2022-03-07 현대자동차주식회사 Apparatus and method for providing guidance information using crosswalk recognition result
KR101843773B1 (en) * 2015-06-30 2018-05-14 엘지전자 주식회사 Advanced Driver Assistance System, Display apparatus for vehicle and Vehicle
CN107924195B (en) * 2015-09-08 2020-11-10 苹果公司 Intent recognition
US10217363B2 (en) * 2015-10-29 2019-02-26 Faraday&Future Inc. Methods and systems for electronically assisted lane entrance
JP6593240B2 (en) * 2016-03-30 2019-10-23 アイシン・エィ・ダブリュ株式会社 Recommended lane guidance system and recommended lane guidance program
CN105702038B (en) * 2016-04-15 2018-02-09 北京信路威科技股份有限公司 A kind of intelligent cruise method based on GPS location
CN107323455A (en) * 2017-06-30 2017-11-07 成都志博科技有限公司 The obstacle avoidance of vehicle simultaneously plans new line system in real time
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US11273836B2 (en) 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
JP7136035B2 (en) * 2018-08-31 2022-09-13 株式会社デンソー Map generation device and map generation method
CN109685037B (en) * 2019-01-08 2021-03-05 北京汉王智远科技有限公司 Real-time action recognition method and device and electronic equipment
JP6791331B2 (en) * 2019-03-27 2020-11-25 株式会社Jvcケンウッド Recording control device, recording control method, and program
WO2022024232A1 (en) * 2020-07-28 2022-02-03 三菱電機株式会社 Display control device and display control method
JP7341971B2 (en) * 2020-10-15 2023-09-11 株式会社データ・テック Travel route suggestion system
CN112327800A (en) * 2020-10-27 2021-02-05 深圳市元征科技股份有限公司 Vehicle detection method and device and diagnosis equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047234A (en) * 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
DE19842176A1 (en) * 1998-09-15 2000-03-16 Bosch Gmbh Robert Method to identify traffic signs in surroundings of vehicle and for vehicle navigation, involves including satellite-based navigation system and unit to identify vehicle signs, which are used to update data from each other

Also Published As

Publication number Publication date
JP2008275575A (en) 2008-11-13
CN101275840A (en) 2008-10-01
CN101275840B (en) 2012-11-07

Similar Documents

Publication Publication Date Title
JP4453046B2 (en) Vehicle behavior learning apparatus and vehicle behavior learning program
JP4427759B2 (en) Vehicle behavior learning apparatus and vehicle behavior learning program
US8155826B2 (en) Vehicle behavior learning apparatuses, methods, and programs
US10556600B2 (en) Assessment of human driving performance using autonomous vehicles
US20190346845A1 (en) Autonomous control of a motor vehicle on the basis of lane data; motor vehicle
US7429825B2 (en) Headlight beam control system and headlight beam control method
JP2019073261A (en) Systems and methods for providing collaborative control of vehicle
JP7039940B2 (en) Vehicle control unit
JP4577827B2 (en) Next road prediction device for traveling vehicle
US11703347B2 (en) Method for producing an autonomous navigation map for a vehicle
CN107533800A (en) Cartographic information storage device, automatic Pilot control device, control method, program and storage medium
JP2015210720A (en) Driving support apparatus
US11338819B2 (en) Cloud-based vehicle calibration system for autonomous driving
JP2005098853A (en) Map data updating method and map data updating apparatus
JP2005172578A (en) Navigation system
CN113313933B (en) Lane-based routing system for an autonomous vehicle
US11254326B2 (en) Automatic comfort score system based on human driving reference data
US20210078588A1 (en) Autonomous driving monitoring system
JP2020077308A (en) Driving assist device, driving assist system, driving assist method, and program
US10175055B2 (en) Navigation system
CN112985825B (en) Method for determining the ride stability of an autopilot system
CN113671971B (en) Dynamic parameter server for an autonomous vehicle
JP4591313B2 (en) Vehicle control system
US20230314166A1 (en) Map reliability determination apparatus and driving assistance apparatus
US11662219B2 (en) Routing based lane guidance system under traffic cone situation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100107

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4453046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150212

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees