JP2006160032A - Driving state determination device and its method - Google Patents
Driving state determination device and its method Download PDFInfo
- Publication number
- JP2006160032A JP2006160032A JP2004352940A JP2004352940A JP2006160032A JP 2006160032 A JP2006160032 A JP 2006160032A JP 2004352940 A JP2004352940 A JP 2004352940A JP 2004352940 A JP2004352940 A JP 2004352940A JP 2006160032 A JP2006160032 A JP 2006160032A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driving state
- state
- driving
- various information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、運転状態判定装置及び運転状態判定方法に関し、特に自動車等の車両の運転状態を判定する運転状態判定装置及び運転状態判定方法に関する。 The present invention relates to a driving state determination device and a driving state determination method, and more particularly to a driving state determination device and a driving state determination method for determining a driving state of a vehicle such as an automobile.
現在、米国等を中心に法的な搭載の義務化が検討されているドライビングレコーダを実現する上で、車線変更、右左折、及び駐車操作等の車両の運転状態を自動的に判定する技術の開発が強く要求されている。また、運転支援システムやエージョント等のサービスを提供する上でも、運転状態がタイムリーに、かつ、正確に判定されることで、より高度で快適なアプリケーションを提供することが可能となる。
しかしながら、既に開示されている技術のほとんどは、運転状態の判定そのものを目的としているものではなく、あるサービスの提供等を目的として特定の又は一部の運転状態を検出するといったものにとどまる。 However, most of the technologies already disclosed are not intended to determine the driving state itself, but only to detect a specific or partial driving state for the purpose of providing a certain service or the like.
例えば、特許文献1に記載されている技術は、車両の進行方向における物体の検出を目的として、右左折等の一部の運転状態を検出するものである。
For example, the technique described in
一方、特許文献2には、ブレーキ、アクセル、操舵角、シフト操作、及びウィンカーの各操作データから、「減速」、「停止」、「転回」、「進路変更」、「回避」、「後退」、「右左折」、及び「合流」等の複数の運転状態を判定する旨が記載されている。しかし、特許文献2による開示内容では、例えば、「旋回」、「車線変更」、「右左折」、「合流」を正確に区別して判定することは困難であるという問題がある。すなわち、「車線変更」と「右左折」とについては、ウィンカー操作、操舵角、ブレーキ操作、アクセル操作、及びシフト操作の全てが同じ条件でも、両者が発生し得るからである。また、例えば、ウィンカー操作をしないで「右左折」を行うような場合にも、「右左折」と「旋回」との区別が困難である。
On the other hand, in
本発明は、上記の点に鑑みてなされたものであって、車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法の提供を目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide a driving state determination device and a driving state determination method that can appropriately determine the driving state of a vehicle.
そこで上記課題を解決するため、本発明は、請求項1に記載されるように、車両に搭載され、当該車両の運転状態を判定する運転状態判定装置であって、当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することを特徴とする。
Accordingly, in order to solve the above-described problem, the present invention is an operation state determination device that is mounted on a vehicle and determines the operation state of the vehicle, as described in
このような運転状態判定装置では、車両の各部の状態だけで無く、外部環境に関する情報をも入力情報とするニューラルネットワークを用いて運転状態を判定するため、車両の運転状態を適切に判定することができる。 In such a driving state determination device, since the driving state is determined using a neural network that uses not only the state of each part of the vehicle but also information related to the external environment as input information, the driving state of the vehicle is appropriately determined. Can do.
また、上記課題を解決するため、本発明は、上記運転状態判定装置における運転状態判定方法としてもよい。 Moreover, in order to solve the said subject, this invention is good also as the driving | running state determination method in the said driving | running state determination apparatus.
本発明によれば、車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the driving | running state determination apparatus and driving | running state determination method which can determine the driving | running state of a vehicle appropriately can be provided.
以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における運転状態判定システムの構成例を示す図である。図1において、運転支援システム1は、自動車等の車両に搭載され、車両の運転状態を自動的に判定することにより、その運転状態に応じたサービスをドライバーに提供するシステムであり、環境情報認識ECU11、車両情報認識ECU12、判定処理ECU13、運転状態記録ECU14、及び運転支援ECU15等の各種ECUと、それぞれのECUに接続された各種センサ等と、運転記録DB(データベース)16と等より構成される。ここで、ECU(Electronic Control Unit)は、マイクロコンピュータによって構成されており、例えば、制御プログラムを格納するROM、演算結果等を格納する読書き可能なRAM、タイマ、カウンタ、入力インターフェイス、及び出力インターフェイス等を有する装置を意味する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an operation state determination system according to an embodiment of the present invention. In FIG. 1, a
環境情報認識ECU11は、車間用レンジセンサ111、車線画像認識センサ112、信号画像認識センサ113、標識画像認識センサ114、一時停止線画像認識センサ115、歩行者画像認識センサ116、車両周辺センサ117、交通環境情報取得用通信装置118、及びカーナビゲーションシステム119等からの入力情報に基づき、車両の外部環境に関する各種情報、特に、当該車両の走行を何らかの形で制限する情報(以下「環境情報」という。)を認識するECUである。
The environmental information recognition ECU 11 includes an
車間用レンジセンサ111は、前方の車両との車間距離を検出するセンサである。車線画像認識センサ112は、カメラより入力される車線画像に基づいて車線との距離を検出するセンサである。信号画像認識センサ113は、カメラより入力される前方の信号の画像に基づいて、当該信号の色を検出するセンサである。標識画像認識センサ114は、カメラより入力される前方の交通標識の画像に基づいて、当該交通標識の意味を特定するセンサである。一時停止線画像認識センサ115は、カメラより入力される一時停止線の画像に基づいて、当該一時停止線までの距離を検出するセンサである。歩行者画像認識センサ116は、カメラより入力される前方の歩行者の画像に基づいて、歩行者の存在を検出するセンサである。車両周辺センサ117は、車両周辺の障害物等を検出するセンサである。交通環境情報取得用通信装置118は、事故や渋滞等の交通環境情報を通信により取得する装置である。カーナビゲーションシステム119は、いわゆるカーナビゲーションシステムであり、車両の現在位置や現在草稿している道路形態(直線、交差点、T字路等)を地図データ等より判定するシステムである。
The
車両情報認識ECU12は、車速センサ121、舵角センサ122、アクセル開度センサ123、ブレーキ踏込み度センサ124、及びウィンカー操作センサ125等からの入力情報に基づき、車両の各部の状態を示す各種の情報(以下「車両情報」という。)を認識するECUである。
The vehicle information recognition ECU 12 is a variety of information indicating the state of each part of the vehicle based on input information from the
車速センサ121は、車速を検出するセンサである。舵角センサ122は、舵角を検出するセンサである。アクセル開度センサ123は、アクセルの踏み込み度を検出するセンサである。ブレーキ踏込み度センサ124は、ブレーキの踏込み度を検出するセンサである。ウィンカー操作センサ125は、ウィンカーの操作を検出するセンサである。
The
判定処理ECU13は、環境情報認識ECU11によって認識された環境情報と、車両情報認識ECU12によって認識された車両情報とに基づいて、車両の運転状態を判定するECUである。
The
運転状態記録ECU14は、判定処理ECU13によって判定された運転状態を運転記録DB16に記録すると共に、判定処理ECU13による判定結果が誤っていた場合に(実際の運転状態と異なっていた場合に)、判定処理ECU13における判定ロジックを修正するECUである。
The driving state recording ECU 14 records the driving state determined by the
運転支援ECU15は、判定処理ECU13によって判定された運転状態に応じた運転支援サービスを、例えば、ディスプレイ151、スピーカ152、又はアクチュエータ153等を介して提供するECUである。
The
本実施の形態において、判定処理ECU13による運転状態の判定処理は、階層的に細分化された運転状態の定義に基づいてロジック化されている。図2は、本発明の実施の形態における運転状態の定義例を示す図である。
In the present embodiment, the determination processing of the driving state by the
図2に示される表201において、運転状態はL1(レベル1)からL3までの3階層に細分化されている。最も大きな分類であるL1としては、「前進」、「後進」、及び「停止」が定義されている。また、L1を細分化したL2においては、「前進」について「直進」及び「曲がる」が、「後進」について「真っ直ぐ後進」及び「バック旋回」が、「停止」について「一時停止」、「停車(アイドリング状態)」及び「駐車」がそれぞれ定義されている。更に、L2を細分化したL3として、「直進」について「加速」、「等速」及び「減速」が、「曲がる」について「旋回(カーブ)」、「右左折」及び「車線変更」が定義されている。 In the table 201 shown in FIG. 2, the operation state is subdivided into three layers from L1 (level 1) to L3. As the largest category L1, “forward”, “reverse”, and “stop” are defined. In L2, which is a subdivision of L1, “straight forward” and “turn” for “forward”, “straight reverse” and “back turn” for “reverse”, “pause”, “stop” for “stop” (Idling state) "and" parking "are defined respectively. Furthermore, L3 is divided into L2, and “Acceleration”, “Constant speed” and “Deceleration” are defined for “Straight”, “Turn (curve)”, “Turn left and right” and “Change lane” for “Turn” Has been.
また、表201においては、L2又はL3のそれぞれの運転状態を判定するにあたり重みの高い入力情報が定義されている。例えば、加速(L3)を判定するためには、車速、アクセル、ブレーキ、及び操舵角に関する情報が重要である旨が定義されている。かかる定義に基づいて判定処理ECU13に組み込まれた運転状態の判定ロジックは、例えば、図3のようになる。図3は、判定処理ECUによる運転状態の判定処理を説明するためのフローチャートである。
In Table 201, input information having a high weight is defined in determining each of the operating states of L2 or L3. For example, in order to determine acceleration (L3), it is defined that information on vehicle speed, accelerator, brake, and steering angle is important. The operation state determination logic incorporated in the
図3のステップS101において、車両情報認識ECU12からの車両情報に基づいて、IG(イグニッション)がOFFであるか否かを判定する。イグニッションがOFFであると判定した場合は(S101でYes)、運転状態は「駐車」状態であると判定する(S102)。イグニッションがOFFでないと判定した場合は(S101でNo)、ステップS103に進み、車両情報に基づいて、車速は0(km/h)であるか否かを判定する。車速が0であると判定した場合は(S103でYes)、ステップS104に進み、車両情報に基づいて、所定時間(ここでは、α分とする。)以上停車しているか否かを判定する。α分以上停車していると判定した場合は(S104でYes)、運転状態は「停車」状態であると判定し(S105)、そうでない場合は(S104でNo)、運転状態は「一時停止」状態であると判定する(S106)。
In step S101 of FIG. 3, it is determined whether or not IG (ignition) is OFF based on the vehicle information from the vehicle
一方、ステップS103において車速は0でないと判定した場合は(S103でNo)、ステップS107に進み、車両情報に基づいて、シフトポジションはR(Rear)であるか否かを判定する。シフトポジションはRであると判定した場合は(S107でYes)、運転状態は「後進」状態であると判定する(S108)。シフトポジジョンはRでないと判定し場合は、ステップS109に進み、車両情報に基づいて、操舵角は0(度)付近であるか否かを判定する。 On the other hand, when it is determined in step S103 that the vehicle speed is not 0 (No in S103), the process proceeds to step S107, and it is determined whether or not the shift position is R (Rear) based on the vehicle information. When it is determined that the shift position is R (Yes in S107), it is determined that the driving state is the “reverse” state (S108). If it is determined that the shift position is not R, the process proceeds to step S109 to determine whether or not the steering angle is near 0 (degrees) based on the vehicle information.
操舵角は0付近であると判定した場合は(S109でYes)、運転状態は「直進」状態であると判定し(S110)、更に、「直進」に属する下層の運転状態まで特定すべくステップS111からS115の処理を行う。すなわち、加速度が0(km/s2)付近であると判定した場合は(S111でYes)、「等速」状態であると判定する(S112)。また、加速度は0付近でないと判定した場合は(S111でNo)、加速度はプラス(+)であるか否かを判定し(S113)、プラスである場合は、運転状態は「加速」状態と判定し(S114)、そうでない場合は、運転状態は「減速」状態であると判定する(S115)。 If it is determined that the steering angle is near 0 (Yes in S109), it is determined that the driving state is the “straight-ahead” state (S110), and further, a step is performed to specify the lower-level driving state belonging to “straight-ahead”. The processing from S111 to S115 is performed. That is, when it is determined that the acceleration is near 0 (km / s 2 ) (Yes in S1111), it is determined that the state is “constant speed” (S112). If it is determined that the acceleration is not near 0 (No in S111), it is determined whether the acceleration is positive (+) (S113). If the acceleration is positive, the driving state is an “acceleration” state. It judges (S114), and when that is not right, it determines with a driving | running state being a "deceleration" state (S115).
一方、ステップS109において操舵角は0付近でないと判定した場合は(S109でNo)、ステップS116に進み、車両情報に基づいて、ウィンカーは作動しているか否かを判定する。ウィンカーは作動していると判定した場合は(S116でYes)、ステップS117に進み、車両情報に基づいて、操舵角は大きいか否かを判定する。後述するように、操舵角の大きさによって「右左折」であるか、又は「車線変更」であるかが判定される。したがって、ここでの操舵角が大きいか否かの基準は、右左折と車線変更とを区別できる程度に、経験値等に基づいて定めればよい。 On the other hand, if it is determined in step S109 that the steering angle is not near 0 (No in S109), the process proceeds to step S116, and it is determined whether the winker is operating based on the vehicle information. When it is determined that the winker is operating (Yes in S116), the process proceeds to step S117, and it is determined whether the steering angle is large based on the vehicle information. As will be described later, it is determined whether the vehicle is “right / left turn” or “lane change” depending on the size of the steering angle. Therefore, the criterion for determining whether or not the steering angle is large may be determined based on experience values or the like so that the right / left turn and the lane change can be distinguished.
かかる基準に基づいて、操舵角は大きいと判定した場合は(S117でYes)、ステップS118に進み、運転状態は「右左折」であると判定し、更に、ウィンカーの状態に基づいて「右折」であるか「左折」であるかを判定する。すなわち、ウィンカーが右を指示している場合は「右折」と判定し(S120)、そうでない場合は「左折」と判定する(S121)。 If it is determined that the steering angle is large based on this criterion (Yes in S117), the process proceeds to step S118, where it is determined that the driving state is “turn left / right”, and “turn right” based on the winker state. Or “left turn”. That is, if the turn signal indicates the right, it is determined as “right turn” (S120), and otherwise, it is determined as “left turn” (S121).
ステップS117において操舵角は大きくないと判定した場合は(S117でNo)、ステップS112に進み、運転状態は「車線変更」であると判定し、更に、ウィンカーの状態に基づいて右車線への変更であるか、あるいは左車線への変更であるかを判定する。すなわち、ウィンカーが右を指示している場合は「右車線へ」の車線変更であると判定し(S124)、そうでない場合は「左車線へ」の車線変更であると判定する(S125)。 When it is determined in step S117 that the steering angle is not large (No in S117), the process proceeds to step S112, where it is determined that the driving state is “lane change”, and further, the right lane is changed based on the blinker state. Or whether it is a change to the left lane. That is, when the turn signal indicates the right, it is determined that the lane change is “to the right lane” (S124). Otherwise, it is determined that the lane change is “to the left lane” (S125).
一方、ステップS116においてウィンカーは作動していないと判定した場合は(S116でNo)、運転状態は「車線変更」、「右左折」又は「旋回」のいずれかであると判定し(S127)、更に、操舵角に基づいて左右の別を判定する(S127)。すなわち、操舵角が右方向である場合は(S127でYes)、「右旋回」、「右折」又は「右車線へ」の車線変更であると判定し(S128)、そうでない場合は(S127でNo)、「左旋回」、「左折」又は「左車線へ」の車線変更であると判定する(S129)。 On the other hand, if it is determined in step S116 that the winker is not operating (No in S116), it is determined that the driving state is one of “lane change”, “right / left turn”, or “turn” (S127), Further, the left / right distinction is determined based on the steering angle (S127). That is, when the steering angle is rightward (Yes in S127), it is determined that the lane is changed to “turn right”, “turn right” or “to right lane” (S128), and otherwise (S127). No), it is determined that the lane change is “turn left”, “turn left” or “to left lane” (S129).
このように、図3においては、主に、車両情報に基づく条件分岐(IF−THENルール)によって、各種の運転状態が判定される。 As described above, in FIG. 3, various driving states are determined mainly by conditional branching (IF-THEN rule) based on vehicle information.
ところで、図3の処理による運転状態の判定結果には、ステップS128及びS129において曖昧さが残っている。すなわち、「旋回」、「右左折」又は「車線変更」の区別が特定されていない。これらの区別には、微妙な判断が必要であり、また、ドライバーの癖等の影響を受けやすいといったことがその要因の一つとして挙げられる。そこで、本実施の形態における判定処理ECU13は、ニューラルネットワークを用いてこれらの運転状態の判定を行う。
By the way, the ambiguity remains in the determination result of the driving state by the process of FIG. 3 in steps S128 and S129. That is, the distinction between “turn”, “turn left / right” or “change lane” is not specified. One of the reasons for this distinction is that it requires delicate judgments and is easily affected by driver's habits. Therefore, the
図4は、車線変更の状態を判定するためのニューラルネットワークの例を示す図である。図4のニューラルネットワーク131は、図2において「車線変更」に対する重みの高い入力情報として定義されている、操舵角、車速、ウィンカー、シフトポジション、カーナビゲーションシステム119の地図データ、及び車線画像認識センサ113による車線認識結果等を入力情報として、又は重み付けの高い入力情報として用いる。一般に、ニューラルネットワークにおける各ニューロンにおいては、入力値の和が閾値を超えると発火(出力)が行われるが、ニューラルネットワーク131の入力層のニューロン(図中において一番左側の列のニューロン)においては、例えば、判定直前までの過去の一定時間内(例えば、30秒〜1分)の遷移を表すグラフの波形情報が入力情報とされる。そして、その波形情報と予め閾値として定めされている波形情報との類似度(例えば、%)が高い場合は発火が行われる。例えば、入力情報としての「車速」については、判定直前までの車速の遷移を表すグラフの波形情報が相当する。そして、車速の波形情報が、予め閾値として定められている車速の波形情報と比較され、類似度が所定値以上である場合は、当該ニューロンから1が出力され、そうでない場合は0が出力されるというわけである。
FIG. 4 is a diagram illustrating an example of a neural network for determining a lane change state. The
波形情報の類似度の判断は、既に公知の各種の手法、例えば、残差マッチング、正規化相関法、位相限定相関、幾何マッチング、ベクトル相関、又は一般化ハフ変換等を用いて行えばよい。但し、車速等の時系列図系に関しては、車速レベルのばらつきが大きいため、リサイズの影響を受け難い幾何マッチング等が望ましい。また、シフトチェンジ等の時系列図系に関しては、シンプルな残差マッチング等が望ましい。 The similarity of the waveform information may be determined using various known methods such as residual matching, normalized correlation method, phase-only correlation, geometric matching, vector correlation, or generalized Hough transform. However, regarding time-series charts such as vehicle speed, since there is a large variation in the vehicle speed level, geometric matching that is not easily affected by resizing is desirable. For time series charts such as shift changes, simple residual matching is desirable.
なお、入力層と中間層との各接続、及び中間層と出力層との各接続には予め重み付けがなされており、中間層においては、入力層からの入力にその重み付けがなされた値の総和に基づいて出力が行われるのは、一般的なニューラルネットワークと同様である。 Each connection between the input layer and the intermediate layer and each connection between the intermediate layer and the output layer are weighted in advance, and in the intermediate layer, the sum of the weighted values for the input from the input layer. The output is performed based on the same as in a general neural network.
判定処理ECU13は、ニューラルネットワーク131を用いて、「右旋回」、「右折」、及び「右車線へ」の車線変更等のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
The
ところで、図2においてL1〜L3として定義された運転状態についても、更に細分化することができる。しかしながら、細分化が進めば進むほど、それぞれの運転状態の差異は微妙なものとなり、また、ドライバーの癖等の影響を受けやすくなる。そこで、本実施の形態における判定処理ECU13は、ステップS128やS129の場合だけでなく、更に細分化等された運転状態についてもニューラルネットワークを用いて判定する。以下、代表的な例について説明する。
Incidentally, the operating states defined as L1 to L3 in FIG. 2 can be further subdivided. However, as the subdivision progresses, the difference in each driving state becomes more subtle and more susceptible to the influence of the driver's habit. Therefore, the
図5は、一時停止の下層の運転状態の定義例を示す図である。図5の表202においては、表201(図2)においてL2として定義されている「一時停止」が、その原因に基づいて、更に分類され、分類されたそれぞれの運転状態はL4として定義されている。すなわち、「信号による」ものであるのか、「一時停止標識による」ものであるのか、「前方車(他車)による」ものであるのか、「人・障害物による」ものであるのか、又は「その他による」ものであるのか等に分類されている。一時停止に係るL4の判定については、例えば、図6に示されるようなニューラルネットワークを用いて行われる。 FIG. 5 is a diagram illustrating a definition example of the operation state in the lower layer of the temporary stop. In the table 202 of FIG. 5, the “pause” defined as L2 in the table 201 (FIG. 2) is further classified based on the cause, and each of the classified operation states is defined as L4. Yes. That is, whether it is “by a signal”, “by a stop sign”, “by a preceding vehicle (other vehicle)”, “by a person / obstacle”, or “ It is classified as “other”. The determination of L4 related to the temporary stop is performed using, for example, a neural network as shown in FIG.
図6は、一時停止の状態を判定するためのニューラルネットワークの例を示す図である。図6のニューラルネットワーク132は、表202において重みの高い入力情報として定義されている、車速、シフトポジション、車速=0の時間、信号画像認識センサ113による信号認識の結果、標識画像認識センサ114による標識認識の結果、車間用レンジセンサ111による他車認識の結果、及び歩行者画像認識センサ116及び車両周辺センサ117等による歩行者及び障害物等の認識結果等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク132を用いて、「信号による」、「一時停止標識による」、「前方車(他車)による」、「人・障害物による」、及び「その他による」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
FIG. 6 is a diagram illustrating an example of a neural network for determining a paused state. The
また、図7は、駐車操作の下層の運転状態の定義例を示す図である。図7の表203においては、表201(図2)においてL2として定義されている「直進」、「曲がる」、「真っ直ぐ後進」、「バック旋回」、「一時停止」、「停車(アイドリング状態)」の下層(「直進」及び「曲がる」については、そのL3である、「加速」、「等速」、「減速」、「旋回(カーブ)」、「右左折」、「車線変更」の下層)として、L4に「駐車操作」という運転状態が共通に定義され、その「駐車操作」の下層(L5)として、「バック入れ」、「縦列」、及び「前入れ」が定義されている。「駐車操作」に係るL5の判定については、例えば、図8に示されるようなニューラルネットワークを用いて行われる。 Moreover, FIG. 7 is a figure which shows the example of a definition of the driving state of the lower layer of parking operation. In Table 203 of FIG. 7, “straight forward”, “turn”, “straight reverse”, “back turn”, “pause”, “stop” (idling state) defined as L2 in Table 201 (FIG. 2) The lower layer of “Straight” and “Turn” are the lower layers of “Acceleration”, “Constant velocity”, “Deceleration”, “Turning (curve)”, “Turn left / right”, “Change lane” ), A driving state “parking operation” is commonly defined in L4, and “back-in”, “column”, and “front-in” are defined as lower layers (L5) of the “parking operation”. The determination of L5 related to “parking operation” is performed using, for example, a neural network as shown in FIG.
図8は、駐車操作の状態を判定するためのニューラルネットワークの例を示す図である。図8のニューラルネットワーク133は、表203において重みの高い入力情報として定義されている、L2(「直進」及び「曲がる」についてはL3)の運転状態の遷移の状況、シフトポジション、車両周辺センサ117からの車両周辺情報、及びカーナビゲーションシステム119からのナビ情報(例えば、駐車場の位置情報)等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク133を用いて、「バック入れ」、「縦列」、及び「前入れ」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
FIG. 8 is a diagram illustrating an example of a neural network for determining the state of the parking operation. The
なお、L2等の運転状態の遷移の状況とは、例えば、判定直前までの所定時間(例えば、30秒〜1分)において、各運転状態が発生したタイミングを示す情報(例えば、波形情報)等が相当する。 The state of transition of the driving state such as L2 is, for example, information (for example, waveform information) indicating the timing at which each driving state occurs in a predetermined time (for example, 30 seconds to 1 minute) immediately before the determination. Corresponds.
更に、図9は、車線変更の下層の運転状態の定義例を示す図である。図9の表204においては、表201(図2)においてL3として定義されている「車線変更」の下層(L4)として、「追い越し車線へ」、「合流」、「走行車線へ」、及び「縦列駐車」が定義されている。「車線変更」に係るL4の判定については、例えば、図10に示されるようなニューラルネットワークを用いて行われる。 Furthermore, FIG. 9 is a figure which shows the example of a definition of the driving | running state of the lower layer of a lane change. In the table 204 of FIG. 9, as the lower layer (L4) of “lane change” defined as L3 in the table 201 (FIG. 2), “to overtaking lane”, “join”, “to driving lane”, and “ "Parallel parking" is defined. The determination of L4 related to “lane change” is performed, for example, using a neural network as shown in FIG.
図10は、車線変更の状態を判定するためのニューラルネットワークの例を示す図である。図10のニューラルネットワーク134は、表204において重みの高い入力情報として定義されている、操舵角、車速、ウィンカーの状態、シフトポジション、ナビ情報、及び車線画像認識センサ112からの車線認識結果等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク134を用いて、「追い越し車線へ」、「合流」、「走行車線へ」、及び「縦列駐車」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
FIG. 10 is a diagram illustrating an example of a neural network for determining the state of lane change. The
判定処理ECU13によって判定された運転状態に応じて、運転支援ECU15は、各種のサービスを提供することができる。例えば、「駐車操作」と判定された際に、ディスプレイ151に車両周辺映像を映したりしてもよい。また、運転に影響のない「一時停止」と判定された際に、マッサージシートを稼動させたり、メールの着信をアナウンスしたりしてもよい。更に、「車線変更」と判定された場合に、車線変更先における後方の車両との距離に応じて警報を鳴らしてもよい。
The driving
各種のニューラルネットワークを用いて行われた判定結果は、運転状態記録ECU14にも出力され、運転状態記録ECU14によって運転記録DB16に記録される。運転状態記録ECU14は、また、判定結果と実際の運転状態との差違を検出し、その差違に基づいて、ニューラルネットワークの各層(入力層、中間層及び出力層)間の接続の重み付けの修正を行う(ニューラルネットワークの学習)。実際の運転状態は、例えば、ナビ情報における走行軌跡によって特定することができる。すなわち、判定処理ECU13によって右折と判定されたが、ナビ情報における走行軌跡では車線変更であったと確認された場合は、当該ナビ情報を教師信号として、関連するニューラルネットワークの学習を行う。
The determination results made using various neural networks are also output to the driving
なお、学習のロジックについては、既に確立されている公知の手法(例えば、バックプロパゲーション法(BP法)等)を用いて行えばよい。 The learning logic may be performed using a well-known method that has already been established (for example, the back-propagation method (BP method)).
上述したように、本実施の形態における運転状態判定システム1によれば、車速や操舵角、又はアクセル開度等の車両自体の情報(車両情報)だけでなく、車外の外部環境の情報(環境情報)についても様々な情報を入力情報として用いると共に、階層的に細分化された運転状態の定義に基づく判定ロジックによって運転状態を判定するため、細かいレベルまで特定された判定結果を自動的に出力することができる。また、ニューラルネットワークを用いて運転状態を判定するため、微妙な判断が必要とされる運転状態についても妥当性の高い判定結果を得ることが可能となる。また、学習機能によって、判定結果のミスを判定ロジック(ニューラルネットワークの重み付け)にフィードバックすることができるため、ドライバーの癖等に対応した判定が可能となる。
As described above, according to the driving
なお、本実施の形態においては、L3までについてはフローチャート、すなわち条件分岐(IF−THENルール)によって判定し、それ以下についてニューラルネットワークによって判定する例について説明したが、ニューラルネットワークを用いないで、最下層のレベルまで条件分岐によって判定を行ってもよい。但し、この場合は、ドライバーの癖を反映した判定結果を得るのは困難となる。 In the present embodiment, an example in which up to L3 is determined by a flowchart, that is, by a conditional branch (IF-THEN rule), and the following is determined by a neural network has been described. The determination may be made by conditional branching to a lower level. However, in this case, it is difficult to obtain a determination result reflecting the driver's habit.
一方、条件分岐を用いないで、上位のレベル(L1)からニューラルネットワークによって判定を行ってもよい。但し、ニューラルネットワークを用いた演算は、一般に高い負荷が要求され、処理速度も遅くなりがちである。したがって、本実施の形態のように、あるレベルまでは条件分岐によって判定し、それ以下については、ニューラルネットワークを用いて判定するといった方式が、処理の高速性と判断の柔軟性との調和という観点から望ましい。 On the other hand, the determination may be made by the neural network from the upper level (L1) without using the conditional branch. However, computation using a neural network generally requires a high load and tends to slow down the processing speed. Therefore, as in the present embodiment, a method of determining by a conditional branch up to a certain level, and using a neural network for a lower level, is a viewpoint of harmony between high speed of processing and flexibility of determination. Desirable from.
但し、必ずしも本実施の形態のようにL3とL4との間を条件分岐とニューラルネットワークとの境界にする必要はない。どのレベルを条件分岐とニューラルネットワークとの境界とするかは、システムに要求される特性に応じて定めればよい。すなわち、条件分岐によって判定する範囲が広ければ広いほど、判定処理の高速化と画一化を図ることができる一方、ニューラルネットワークによって判定する範囲が広ければ広いほど、ドライバーの癖等に応じた柔軟性及び多様性のある判定結果が得られる可能性が高まる。 However, it is not always necessary to set the boundary between the conditional branch and the neural network between L3 and L4 as in the present embodiment. Which level is used as the boundary between the conditional branch and the neural network may be determined according to characteristics required for the system. In other words, the wider the range determined by conditional branching, the faster and uniform the determination process, while the wider the range determined by the neural network, the more flexible the driver's habits The possibility that a determination result having sex and diversity is obtained increases.
なお、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Note that the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims.
1 運転状態判定システム
11 環境情報認識ECU
12 車両情報認識ECU
13 判定処理ECU
14 運転状態記録ECU
15 運転支援ECU
16 運転記録DB
111 車間用レンジセンサ
112 車線画像認識センサ
113 信号画像認識センサ
114 標識画像認識センサ
115 一時停止線画像認識センサ
116 歩行者画像認識センサ
117 車両周辺センサ
118 交通環境情報取得用通信装置
119 カーナビゲーションシステム
121 車速センサ
122 舵角センサ
123 アクセル開度センサ
124 ブレーキ踏み込みセンサ
125 ウィンカー操作センサ
151 ディスプレイ
152 スピーカ
153 アクチュエータ
1 Operating
12 Vehicle information recognition ECU
13 judgment processing ECU
14 Operating state recording ECU
15 Driving assistance ECU
16 Operation record DB
111 Vehicle-to-
Claims (5)
当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、
当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、
前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することを特徴とする運転状態判定装置。 A driving state determination device that is mounted on a vehicle and determines a driving state of the vehicle,
Vehicle state detecting means for detecting various information indicating the state of each part of the vehicle;
An external environment detection means for detecting various information related to the external environment of the vehicle;
Driving state determination for determining the driving state of the vehicle using a neural network that calculates the occurrence probability of each driving state using various information indicating the state of each part of the vehicle and various information regarding the external environment as input information And a driving state determination device.
前記運転状態判定手段は、少なくとも前記車両の各部の状態を示す各種の情報に基づく条件分岐によって、所定の階層までの運転状態を判定することを特徴とする請求項1乃至3いずれか一項記載の運転状態判定装置。 Each operating state is defined in advance hierarchically subdivided,
The said driving | running state determination means determines the driving | running state to a predetermined | prescribed hierarchy by the conditional branch based on the various information which shows the state of each part of the said vehicle at least. Driving state determination device.
当該車両の各部の状態を示す各種の情報を検出する車両状態検出手順と、
当該車両の外部環境に関する各種の情報を検出する外部環境検出手順と、
前記車両の各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手順とを有することを特徴とする運転状態判定方法。 A driving state determination method for determining a driving state of a vehicle,
A vehicle state detection procedure for detecting various information indicating the state of each part of the vehicle;
An external environment detection procedure for detecting various information related to the external environment of the vehicle;
Driving state for determining the driving state of the vehicle using a neural network that calculates the occurrence probability of each driving state by using various information indicating the state of each part of the vehicle and various information regarding the external environment as input information An operating state determination method comprising: a determination procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004352940A JP2006160032A (en) | 2004-12-06 | 2004-12-06 | Driving state determination device and its method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004352940A JP2006160032A (en) | 2004-12-06 | 2004-12-06 | Driving state determination device and its method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006160032A true JP2006160032A (en) | 2006-06-22 |
Family
ID=36662521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004352940A Pending JP2006160032A (en) | 2004-12-06 | 2004-12-06 | Driving state determination device and its method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006160032A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008195220A (en) * | 2007-02-13 | 2008-08-28 | Denso Corp | Traffic lane change support device and program |
JP2009012571A (en) * | 2007-07-03 | 2009-01-22 | Toyota Motor Corp | Corner learning system |
JP2012159955A (en) * | 2011-01-31 | 2012-08-23 | Yazaki Corp | Image recording control method, image recognition device, and on-vehicle image recording device |
CN103235563A (en) * | 2013-03-18 | 2013-08-07 | 东南大学 | Industrial field equipment energy efficiency evaluation method |
JP2015207171A (en) * | 2014-04-21 | 2015-11-19 | トヨタ自動車株式会社 | Driving assist device |
CN107176098A (en) * | 2017-07-10 | 2017-09-19 | 辽宁工业大学 | A kind of poor automatic monitoring warning device in blind area of lubrication groove and control method |
WO2018135605A1 (en) * | 2017-01-23 | 2018-07-26 | パナソニックIpマネジメント株式会社 | Event prediction system, event prediction method, program, and moving body |
WO2018135509A1 (en) * | 2017-01-23 | 2018-07-26 | パナソニックIpマネジメント株式会社 | Event prediction system, event prevention method, program, and recording medium having same recorded therein |
JP2019131141A (en) * | 2018-02-02 | 2019-08-08 | Kddi株式会社 | On-vehicle control device |
WO2020188942A1 (en) * | 2019-03-15 | 2020-09-24 | 本田技研工業株式会社 | Vehicle communication device and program |
JP2021039464A (en) * | 2019-09-02 | 2021-03-11 | 株式会社デンソーテン | Traveling status recording device |
-
2004
- 2004-12-06 JP JP2004352940A patent/JP2006160032A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008195220A (en) * | 2007-02-13 | 2008-08-28 | Denso Corp | Traffic lane change support device and program |
JP2009012571A (en) * | 2007-07-03 | 2009-01-22 | Toyota Motor Corp | Corner learning system |
JP2012159955A (en) * | 2011-01-31 | 2012-08-23 | Yazaki Corp | Image recording control method, image recognition device, and on-vehicle image recording device |
CN103235563A (en) * | 2013-03-18 | 2013-08-07 | 东南大学 | Industrial field equipment energy efficiency evaluation method |
CN103235563B (en) * | 2013-03-18 | 2014-12-17 | 东南大学 | Industrial field equipment energy efficiency evaluation method |
JP2015207171A (en) * | 2014-04-21 | 2015-11-19 | トヨタ自動車株式会社 | Driving assist device |
WO2018135509A1 (en) * | 2017-01-23 | 2018-07-26 | パナソニックIpマネジメント株式会社 | Event prediction system, event prevention method, program, and recording medium having same recorded therein |
WO2018135605A1 (en) * | 2017-01-23 | 2018-07-26 | パナソニックIpマネジメント株式会社 | Event prediction system, event prediction method, program, and moving body |
CN107176098A (en) * | 2017-07-10 | 2017-09-19 | 辽宁工业大学 | A kind of poor automatic monitoring warning device in blind area of lubrication groove and control method |
CN107176098B (en) * | 2017-07-10 | 2023-07-07 | 辽宁工业大学 | Automatic monitoring and early warning device for inner wheel difference blind area and control method |
JP2019131141A (en) * | 2018-02-02 | 2019-08-08 | Kddi株式会社 | On-vehicle control device |
WO2020188942A1 (en) * | 2019-03-15 | 2020-09-24 | 本田技研工業株式会社 | Vehicle communication device and program |
JPWO2020188942A1 (en) * | 2019-03-15 | 2020-09-24 | ||
CN113632152A (en) * | 2019-03-15 | 2021-11-09 | 本田技研工业株式会社 | Vehicle communication device and program |
US11760371B2 (en) | 2019-03-15 | 2023-09-19 | Honda Motor Co., Ltd | Vehicle communication device and non-transitory computer-readable recording medium storing program |
JP7379463B2 (en) | 2019-03-15 | 2023-11-14 | 本田技研工業株式会社 | Vehicle communication device and program |
JP2021039464A (en) * | 2019-09-02 | 2021-03-11 | 株式会社デンソーテン | Traveling status recording device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6575818B2 (en) | Driving support method, driving support device using the same, automatic driving control device, vehicle, driving support system, program | |
CN111137284B (en) | Early warning method and early warning device based on driving distraction state | |
US20220187834A1 (en) | Generating trajectories for autonomous vehicles | |
JP2019144975A (en) | Vehicle control device | |
EP3647136B1 (en) | Vehicle traveling assistance method and vehicle traveling assistance device | |
JP4182131B2 (en) | Arousal level determination device and arousal level determination method | |
CN113291308A (en) | Vehicle self-learning lane-changing decision-making system and method considering driving behavior characteristics | |
US11661061B2 (en) | Method and device for assisting a driver in a vehicle | |
US10583841B2 (en) | Driving support method, data processor using the same, and driving support system using the same | |
US11587461B2 (en) | Context-sensitive adjustment of off-road glance time | |
JP2021026720A (en) | Driving support device, method for controlling vehicle, and program | |
US20230143515A1 (en) | Driving assistance apparatus | |
WO2019155778A1 (en) | Collision avoidance assistance device, program, and collision avoidance assistance method | |
JP2006160032A (en) | Driving state determination device and its method | |
US11091174B2 (en) | Vehicle control device | |
CN113272197B (en) | Device and method for improving an auxiliary system for lateral vehicle movement | |
US9177040B2 (en) | Information processing device for vehicle and database | |
JP2010182148A (en) | Travelling condition recording device | |
JP2001034897A (en) | Driving support system | |
JP2008105511A (en) | Driving support apparatus | |
JP6617602B2 (en) | Maneuvering detection system and maneuvering detection method | |
US11403948B2 (en) | Warning device of vehicle and warning method thereof | |
CN115273461A (en) | Intersection driving method and device for vehicle, vehicle and storage medium | |
CN114348014A (en) | Lane departure early warning method, device, vehicle and medium | |
JP4457882B2 (en) | Driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090602 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091027 |