JP2006160032A - Driving state determination device and its method - Google Patents

Driving state determination device and its method Download PDF

Info

Publication number
JP2006160032A
JP2006160032A JP2004352940A JP2004352940A JP2006160032A JP 2006160032 A JP2006160032 A JP 2006160032A JP 2004352940 A JP2004352940 A JP 2004352940A JP 2004352940 A JP2004352940 A JP 2004352940A JP 2006160032 A JP2006160032 A JP 2006160032A
Authority
JP
Japan
Prior art keywords
vehicle
driving state
state
driving
various information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004352940A
Other languages
Japanese (ja)
Inventor
Masaaki Uechi
正昭 上地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004352940A priority Critical patent/JP2006160032A/en
Publication of JP2006160032A publication Critical patent/JP2006160032A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving state determination device and its method capable of appropriately determining the driving state of a vehicle. <P>SOLUTION: The driving state determination device which is mounted to the vehicle and determines the driving state of the vehicle, has a vehicle state detection means detecting various information showing the state of each part of the vehicle, an external environment detection means detecting various information related to the external environment of the vehicle, and a driving state determination means which determines the driving state of the vehicle using a neural network calculating the occurrence probability of each driving state by making various information showing the state of each part of the vehicle and various information related to the external environment as the input information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、運転状態判定装置及び運転状態判定方法に関し、特に自動車等の車両の運転状態を判定する運転状態判定装置及び運転状態判定方法に関する。   The present invention relates to a driving state determination device and a driving state determination method, and more particularly to a driving state determination device and a driving state determination method for determining a driving state of a vehicle such as an automobile.

現在、米国等を中心に法的な搭載の義務化が検討されているドライビングレコーダを実現する上で、車線変更、右左折、及び駐車操作等の車両の運転状態を自動的に判定する技術の開発が強く要求されている。また、運転支援システムやエージョント等のサービスを提供する上でも、運転状態がタイムリーに、かつ、正確に判定されることで、より高度で快適なアプリケーションを提供することが可能となる。
特開2000−233699号公報 特開2004−53267号公報
A technology that automatically determines the driving status of vehicles such as lane changes, left and right turns, and parking operations in order to realize driving recorders that are currently being considered to be legally required to be mounted mainly in the United States. Development is strongly required. In providing services such as a driving support system and an agent, it is possible to provide a more advanced and comfortable application by determining the driving state in a timely and accurate manner.
JP 2000-233699 A JP 2004-53267 A

しかしながら、既に開示されている技術のほとんどは、運転状態の判定そのものを目的としているものではなく、あるサービスの提供等を目的として特定の又は一部の運転状態を検出するといったものにとどまる。   However, most of the technologies already disclosed are not intended to determine the driving state itself, but only to detect a specific or partial driving state for the purpose of providing a certain service or the like.

例えば、特許文献1に記載されている技術は、車両の進行方向における物体の検出を目的として、右左折等の一部の運転状態を検出するものである。   For example, the technique described in Patent Document 1 detects a part of the driving state such as a right or left turn for the purpose of detecting an object in the traveling direction of the vehicle.

一方、特許文献2には、ブレーキ、アクセル、操舵角、シフト操作、及びウィンカーの各操作データから、「減速」、「停止」、「転回」、「進路変更」、「回避」、「後退」、「右左折」、及び「合流」等の複数の運転状態を判定する旨が記載されている。しかし、特許文献2による開示内容では、例えば、「旋回」、「車線変更」、「右左折」、「合流」を正確に区別して判定することは困難であるという問題がある。すなわち、「車線変更」と「右左折」とについては、ウィンカー操作、操舵角、ブレーキ操作、アクセル操作、及びシフト操作の全てが同じ条件でも、両者が発生し得るからである。また、例えば、ウィンカー操作をしないで「右左折」を行うような場合にも、「右左折」と「旋回」との区別が困難である。   On the other hand, in Patent Document 2, “deceleration”, “stop”, “turn”, “change of course”, “avoidance”, “reverse” are obtained from operation data of brake, accelerator, steering angle, shift operation, and winker. , “Turn left / right”, and “join” are described. However, the disclosed content of Patent Document 2 has a problem that it is difficult to accurately distinguish and determine, for example, “turn”, “lane change”, “right / left turn”, and “merge”. That is, with respect to “lane change” and “right / left turn”, both can occur even when the winker operation, the steering angle, the brake operation, the accelerator operation, and the shift operation are all the same. Further, for example, even when a “right / left turn” is performed without a winker operation, it is difficult to distinguish between “right / left turn” and “turn”.

本発明は、上記の点に鑑みてなされたものであって、車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法の提供を目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a driving state determination device and a driving state determination method that can appropriately determine the driving state of a vehicle.

そこで上記課題を解決するため、本発明は、請求項1に記載されるように、車両に搭載され、当該車両の運転状態を判定する運転状態判定装置であって、当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することを特徴とする。   Accordingly, in order to solve the above-described problem, the present invention is an operation state determination device that is mounted on a vehicle and determines the operation state of the vehicle, as described in claim 1, wherein the state of each part of the vehicle is determined. Vehicle state detection means for detecting various information shown, external environment detection means for detecting various information related to the external environment of the vehicle, various information indicating the state of each part of the vehicle, and various information related to the external environment And a driving state determination means for determining the driving state of the vehicle using a neural network that calculates the occurrence probability of each driving state using the above as input information.

このような運転状態判定装置では、車両の各部の状態だけで無く、外部環境に関する情報をも入力情報とするニューラルネットワークを用いて運転状態を判定するため、車両の運転状態を適切に判定することができる。   In such a driving state determination device, since the driving state is determined using a neural network that uses not only the state of each part of the vehicle but also information related to the external environment as input information, the driving state of the vehicle is appropriately determined. Can do.

また、上記課題を解決するため、本発明は、上記運転状態判定装置における運転状態判定方法としてもよい。   Moreover, in order to solve the said subject, this invention is good also as the driving | running state determination method in the said driving | running state determination apparatus.

本発明によれば、車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the driving | running state determination apparatus and driving | running state determination method which can determine the driving | running state of a vehicle appropriately can be provided.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における運転状態判定システムの構成例を示す図である。図1において、運転支援システム1は、自動車等の車両に搭載され、車両の運転状態を自動的に判定することにより、その運転状態に応じたサービスをドライバーに提供するシステムであり、環境情報認識ECU11、車両情報認識ECU12、判定処理ECU13、運転状態記録ECU14、及び運転支援ECU15等の各種ECUと、それぞれのECUに接続された各種センサ等と、運転記録DB(データベース)16と等より構成される。ここで、ECU(Electronic Control Unit)は、マイクロコンピュータによって構成されており、例えば、制御プログラムを格納するROM、演算結果等を格納する読書き可能なRAM、タイマ、カウンタ、入力インターフェイス、及び出力インターフェイス等を有する装置を意味する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an operation state determination system according to an embodiment of the present invention. In FIG. 1, a driving support system 1 is a system that is mounted on a vehicle such as an automobile and automatically determines the driving state of the vehicle to provide a service corresponding to the driving state to the driver. The ECU 11, the vehicle information recognition ECU 12, the determination processing ECU 13, the driving state recording ECU 14, the driving support ECU 15, and the like, the various sensors connected to the ECUs, the driving record DB (database) 16, and the like. The Here, the ECU (Electronic Control Unit) is constituted by a microcomputer, for example, a ROM for storing a control program, a readable / writable RAM for storing calculation results, a timer, a counter, an input interface, and an output interface. And the like.

環境情報認識ECU11は、車間用レンジセンサ111、車線画像認識センサ112、信号画像認識センサ113、標識画像認識センサ114、一時停止線画像認識センサ115、歩行者画像認識センサ116、車両周辺センサ117、交通環境情報取得用通信装置118、及びカーナビゲーションシステム119等からの入力情報に基づき、車両の外部環境に関する各種情報、特に、当該車両の走行を何らかの形で制限する情報(以下「環境情報」という。)を認識するECUである。   The environmental information recognition ECU 11 includes an inter-vehicle range sensor 111, a lane image recognition sensor 112, a signal image recognition sensor 113, a sign image recognition sensor 114, a temporary stop line image recognition sensor 115, a pedestrian image recognition sensor 116, a vehicle periphery sensor 117, Based on input information from the traffic environment information acquisition communication device 118, the car navigation system 119, and the like, various types of information related to the external environment of the vehicle, particularly information that restricts the traveling of the vehicle in some form (hereinafter referred to as "environment information"). ECU) that recognizes.

車間用レンジセンサ111は、前方の車両との車間距離を検出するセンサである。車線画像認識センサ112は、カメラより入力される車線画像に基づいて車線との距離を検出するセンサである。信号画像認識センサ113は、カメラより入力される前方の信号の画像に基づいて、当該信号の色を検出するセンサである。標識画像認識センサ114は、カメラより入力される前方の交通標識の画像に基づいて、当該交通標識の意味を特定するセンサである。一時停止線画像認識センサ115は、カメラより入力される一時停止線の画像に基づいて、当該一時停止線までの距離を検出するセンサである。歩行者画像認識センサ116は、カメラより入力される前方の歩行者の画像に基づいて、歩行者の存在を検出するセンサである。車両周辺センサ117は、車両周辺の障害物等を検出するセンサである。交通環境情報取得用通信装置118は、事故や渋滞等の交通環境情報を通信により取得する装置である。カーナビゲーションシステム119は、いわゆるカーナビゲーションシステムであり、車両の現在位置や現在草稿している道路形態(直線、交差点、T字路等)を地図データ等より判定するシステムである。   The inter-vehicle range sensor 111 is a sensor that detects the inter-vehicle distance from the vehicle ahead. The lane image recognition sensor 112 is a sensor that detects the distance from the lane based on the lane image input from the camera. The signal image recognition sensor 113 is a sensor that detects the color of the signal based on the image of the front signal input from the camera. The sign image recognition sensor 114 is a sensor that identifies the meaning of the traffic sign based on the image of the front traffic sign input from the camera. The pause line image recognition sensor 115 is a sensor that detects the distance to the pause line based on the pause line image input from the camera. The pedestrian image recognition sensor 116 is a sensor that detects the presence of a pedestrian based on a forward pedestrian image input from a camera. The vehicle surrounding sensor 117 is a sensor that detects an obstacle or the like around the vehicle. The traffic environment information acquisition communication device 118 is a device that acquires traffic environment information such as an accident or traffic jam by communication. The car navigation system 119 is a so-called car navigation system, and is a system for determining the current position of the vehicle and the road form (straight line, intersection, T-junction, etc.) currently drafted from map data or the like.

車両情報認識ECU12は、車速センサ121、舵角センサ122、アクセル開度センサ123、ブレーキ踏込み度センサ124、及びウィンカー操作センサ125等からの入力情報に基づき、車両の各部の状態を示す各種の情報(以下「車両情報」という。)を認識するECUである。   The vehicle information recognition ECU 12 is a variety of information indicating the state of each part of the vehicle based on input information from the vehicle speed sensor 121, the steering angle sensor 122, the accelerator opening sensor 123, the brake depression degree sensor 124, the winker operation sensor 125, and the like. It is an ECU that recognizes (hereinafter referred to as “vehicle information”).

車速センサ121は、車速を検出するセンサである。舵角センサ122は、舵角を検出するセンサである。アクセル開度センサ123は、アクセルの踏み込み度を検出するセンサである。ブレーキ踏込み度センサ124は、ブレーキの踏込み度を検出するセンサである。ウィンカー操作センサ125は、ウィンカーの操作を検出するセンサである。   The vehicle speed sensor 121 is a sensor that detects the vehicle speed. The steering angle sensor 122 is a sensor that detects the steering angle. The accelerator opening sensor 123 is a sensor that detects the degree of depression of the accelerator. The brake depression degree sensor 124 is a sensor that detects the degree of depression of the brake. The winker operation sensor 125 is a sensor that detects the operation of the winker.

判定処理ECU13は、環境情報認識ECU11によって認識された環境情報と、車両情報認識ECU12によって認識された車両情報とに基づいて、車両の運転状態を判定するECUである。   The determination processing ECU 13 is an ECU that determines the driving state of the vehicle based on the environmental information recognized by the environmental information recognition ECU 11 and the vehicle information recognized by the vehicle information recognition ECU 12.

運転状態記録ECU14は、判定処理ECU13によって判定された運転状態を運転記録DB16に記録すると共に、判定処理ECU13による判定結果が誤っていた場合に(実際の運転状態と異なっていた場合に)、判定処理ECU13における判定ロジックを修正するECUである。   The driving state recording ECU 14 records the driving state determined by the determination processing ECU 13 in the driving record DB 16 and determines when the determination result by the determination processing ECU 13 is incorrect (when different from the actual driving state). The ECU corrects the determination logic in the process ECU 13.

運転支援ECU15は、判定処理ECU13によって判定された運転状態に応じた運転支援サービスを、例えば、ディスプレイ151、スピーカ152、又はアクチュエータ153等を介して提供するECUである。   The driving support ECU 15 is an ECU that provides a driving support service corresponding to the driving state determined by the determination processing ECU 13 via, for example, the display 151, the speaker 152, the actuator 153, or the like.

本実施の形態において、判定処理ECU13による運転状態の判定処理は、階層的に細分化された運転状態の定義に基づいてロジック化されている。図2は、本発明の実施の形態における運転状態の定義例を示す図である。   In the present embodiment, the determination processing of the driving state by the determination processing ECU 13 is logicalized based on the definition of the driving state hierarchically subdivided. FIG. 2 is a diagram illustrating a definition example of an operation state in the embodiment of the present invention.

図2に示される表201において、運転状態はL1(レベル1)からL3までの3階層に細分化されている。最も大きな分類であるL1としては、「前進」、「後進」、及び「停止」が定義されている。また、L1を細分化したL2においては、「前進」について「直進」及び「曲がる」が、「後進」について「真っ直ぐ後進」及び「バック旋回」が、「停止」について「一時停止」、「停車(アイドリング状態)」及び「駐車」がそれぞれ定義されている。更に、L2を細分化したL3として、「直進」について「加速」、「等速」及び「減速」が、「曲がる」について「旋回(カーブ)」、「右左折」及び「車線変更」が定義されている。   In the table 201 shown in FIG. 2, the operation state is subdivided into three layers from L1 (level 1) to L3. As the largest category L1, “forward”, “reverse”, and “stop” are defined. In L2, which is a subdivision of L1, “straight forward” and “turn” for “forward”, “straight reverse” and “back turn” for “reverse”, “pause”, “stop” for “stop” (Idling state) "and" parking "are defined respectively. Furthermore, L3 is divided into L2, and “Acceleration”, “Constant speed” and “Deceleration” are defined for “Straight”, “Turn (curve)”, “Turn left and right” and “Change lane” for “Turn” Has been.

また、表201においては、L2又はL3のそれぞれの運転状態を判定するにあたり重みの高い入力情報が定義されている。例えば、加速(L3)を判定するためには、車速、アクセル、ブレーキ、及び操舵角に関する情報が重要である旨が定義されている。かかる定義に基づいて判定処理ECU13に組み込まれた運転状態の判定ロジックは、例えば、図3のようになる。図3は、判定処理ECUによる運転状態の判定処理を説明するためのフローチャートである。   In Table 201, input information having a high weight is defined in determining each of the operating states of L2 or L3. For example, in order to determine acceleration (L3), it is defined that information on vehicle speed, accelerator, brake, and steering angle is important. The operation state determination logic incorporated in the determination processing ECU 13 based on this definition is, for example, as shown in FIG. FIG. 3 is a flowchart for explaining the determination process of the driving state by the determination process ECU.

図3のステップS101において、車両情報認識ECU12からの車両情報に基づいて、IG(イグニッション)がOFFであるか否かを判定する。イグニッションがOFFであると判定した場合は(S101でYes)、運転状態は「駐車」状態であると判定する(S102)。イグニッションがOFFでないと判定した場合は(S101でNo)、ステップS103に進み、車両情報に基づいて、車速は0(km/h)であるか否かを判定する。車速が0であると判定した場合は(S103でYes)、ステップS104に進み、車両情報に基づいて、所定時間(ここでは、α分とする。)以上停車しているか否かを判定する。α分以上停車していると判定した場合は(S104でYes)、運転状態は「停車」状態であると判定し(S105)、そうでない場合は(S104でNo)、運転状態は「一時停止」状態であると判定する(S106)。   In step S101 of FIG. 3, it is determined whether or not IG (ignition) is OFF based on the vehicle information from the vehicle information recognition ECU 12. When it is determined that the ignition is OFF (Yes in S101), it is determined that the driving state is the “parking” state (S102). If it is determined that the ignition is not OFF (No in S101), the process proceeds to step S103, and it is determined whether the vehicle speed is 0 (km / h) based on the vehicle information. When it is determined that the vehicle speed is 0 (Yes in S103), the process proceeds to step S104, and it is determined whether or not the vehicle has stopped for a predetermined time (here, α minutes) based on the vehicle information. If it is determined that the vehicle has stopped for more than α minutes (Yes in S104), it is determined that the driving state is a “stop” state (S105). Otherwise (No in S104), the driving state is “temporarily stopped”. ] State (S106).

一方、ステップS103において車速は0でないと判定した場合は(S103でNo)、ステップS107に進み、車両情報に基づいて、シフトポジションはR(Rear)であるか否かを判定する。シフトポジションはRであると判定した場合は(S107でYes)、運転状態は「後進」状態であると判定する(S108)。シフトポジジョンはRでないと判定し場合は、ステップS109に進み、車両情報に基づいて、操舵角は0(度)付近であるか否かを判定する。   On the other hand, when it is determined in step S103 that the vehicle speed is not 0 (No in S103), the process proceeds to step S107, and it is determined whether or not the shift position is R (Rear) based on the vehicle information. When it is determined that the shift position is R (Yes in S107), it is determined that the driving state is the “reverse” state (S108). If it is determined that the shift position is not R, the process proceeds to step S109 to determine whether or not the steering angle is near 0 (degrees) based on the vehicle information.

操舵角は0付近であると判定した場合は(S109でYes)、運転状態は「直進」状態であると判定し(S110)、更に、「直進」に属する下層の運転状態まで特定すべくステップS111からS115の処理を行う。すなわち、加速度が0(km/s)付近であると判定した場合は(S111でYes)、「等速」状態であると判定する(S112)。また、加速度は0付近でないと判定した場合は(S111でNo)、加速度はプラス(+)であるか否かを判定し(S113)、プラスである場合は、運転状態は「加速」状態と判定し(S114)、そうでない場合は、運転状態は「減速」状態であると判定する(S115)。 If it is determined that the steering angle is near 0 (Yes in S109), it is determined that the driving state is the “straight-ahead” state (S110), and further, a step is performed to specify the lower-level driving state belonging to “straight-ahead”. The processing from S111 to S115 is performed. That is, when it is determined that the acceleration is near 0 (km / s 2 ) (Yes in S1111), it is determined that the state is “constant speed” (S112). If it is determined that the acceleration is not near 0 (No in S111), it is determined whether the acceleration is positive (+) (S113). If the acceleration is positive, the driving state is an “acceleration” state. It judges (S114), and when that is not right, it determines with a driving | running state being a "deceleration" state (S115).

一方、ステップS109において操舵角は0付近でないと判定した場合は(S109でNo)、ステップS116に進み、車両情報に基づいて、ウィンカーは作動しているか否かを判定する。ウィンカーは作動していると判定した場合は(S116でYes)、ステップS117に進み、車両情報に基づいて、操舵角は大きいか否かを判定する。後述するように、操舵角の大きさによって「右左折」であるか、又は「車線変更」であるかが判定される。したがって、ここでの操舵角が大きいか否かの基準は、右左折と車線変更とを区別できる程度に、経験値等に基づいて定めればよい。   On the other hand, if it is determined in step S109 that the steering angle is not near 0 (No in S109), the process proceeds to step S116, and it is determined whether the winker is operating based on the vehicle information. When it is determined that the winker is operating (Yes in S116), the process proceeds to step S117, and it is determined whether the steering angle is large based on the vehicle information. As will be described later, it is determined whether the vehicle is “right / left turn” or “lane change” depending on the size of the steering angle. Therefore, the criterion for determining whether or not the steering angle is large may be determined based on experience values or the like so that the right / left turn and the lane change can be distinguished.

かかる基準に基づいて、操舵角は大きいと判定した場合は(S117でYes)、ステップS118に進み、運転状態は「右左折」であると判定し、更に、ウィンカーの状態に基づいて「右折」であるか「左折」であるかを判定する。すなわち、ウィンカーが右を指示している場合は「右折」と判定し(S120)、そうでない場合は「左折」と判定する(S121)。   If it is determined that the steering angle is large based on this criterion (Yes in S117), the process proceeds to step S118, where it is determined that the driving state is “turn left / right”, and “turn right” based on the winker state. Or “left turn”. That is, if the turn signal indicates the right, it is determined as “right turn” (S120), and otherwise, it is determined as “left turn” (S121).

ステップS117において操舵角は大きくないと判定した場合は(S117でNo)、ステップS112に進み、運転状態は「車線変更」であると判定し、更に、ウィンカーの状態に基づいて右車線への変更であるか、あるいは左車線への変更であるかを判定する。すなわち、ウィンカーが右を指示している場合は「右車線へ」の車線変更であると判定し(S124)、そうでない場合は「左車線へ」の車線変更であると判定する(S125)。   When it is determined in step S117 that the steering angle is not large (No in S117), the process proceeds to step S112, where it is determined that the driving state is “lane change”, and further, the right lane is changed based on the blinker state. Or whether it is a change to the left lane. That is, when the turn signal indicates the right, it is determined that the lane change is “to the right lane” (S124). Otherwise, it is determined that the lane change is “to the left lane” (S125).

一方、ステップS116においてウィンカーは作動していないと判定した場合は(S116でNo)、運転状態は「車線変更」、「右左折」又は「旋回」のいずれかであると判定し(S127)、更に、操舵角に基づいて左右の別を判定する(S127)。すなわち、操舵角が右方向である場合は(S127でYes)、「右旋回」、「右折」又は「右車線へ」の車線変更であると判定し(S128)、そうでない場合は(S127でNo)、「左旋回」、「左折」又は「左車線へ」の車線変更であると判定する(S129)。   On the other hand, if it is determined in step S116 that the winker is not operating (No in S116), it is determined that the driving state is one of “lane change”, “right / left turn”, or “turn” (S127), Further, the left / right distinction is determined based on the steering angle (S127). That is, when the steering angle is rightward (Yes in S127), it is determined that the lane is changed to “turn right”, “turn right” or “to right lane” (S128), and otherwise (S127). No), it is determined that the lane change is “turn left”, “turn left” or “to left lane” (S129).

このように、図3においては、主に、車両情報に基づく条件分岐(IF−THENルール)によって、各種の運転状態が判定される。   As described above, in FIG. 3, various driving states are determined mainly by conditional branching (IF-THEN rule) based on vehicle information.

ところで、図3の処理による運転状態の判定結果には、ステップS128及びS129において曖昧さが残っている。すなわち、「旋回」、「右左折」又は「車線変更」の区別が特定されていない。これらの区別には、微妙な判断が必要であり、また、ドライバーの癖等の影響を受けやすいといったことがその要因の一つとして挙げられる。そこで、本実施の形態における判定処理ECU13は、ニューラルネットワークを用いてこれらの運転状態の判定を行う。   By the way, the ambiguity remains in the determination result of the driving state by the process of FIG. 3 in steps S128 and S129. That is, the distinction between “turn”, “turn left / right” or “change lane” is not specified. One of the reasons for this distinction is that it requires delicate judgments and is easily affected by driver's habits. Therefore, the determination processing ECU 13 in the present embodiment determines these operating states using a neural network.

図4は、車線変更の状態を判定するためのニューラルネットワークの例を示す図である。図4のニューラルネットワーク131は、図2において「車線変更」に対する重みの高い入力情報として定義されている、操舵角、車速、ウィンカー、シフトポジション、カーナビゲーションシステム119の地図データ、及び車線画像認識センサ113による車線認識結果等を入力情報として、又は重み付けの高い入力情報として用いる。一般に、ニューラルネットワークにおける各ニューロンにおいては、入力値の和が閾値を超えると発火(出力)が行われるが、ニューラルネットワーク131の入力層のニューロン(図中において一番左側の列のニューロン)においては、例えば、判定直前までの過去の一定時間内(例えば、30秒〜1分)の遷移を表すグラフの波形情報が入力情報とされる。そして、その波形情報と予め閾値として定めされている波形情報との類似度(例えば、%)が高い場合は発火が行われる。例えば、入力情報としての「車速」については、判定直前までの車速の遷移を表すグラフの波形情報が相当する。そして、車速の波形情報が、予め閾値として定められている車速の波形情報と比較され、類似度が所定値以上である場合は、当該ニューロンから1が出力され、そうでない場合は0が出力されるというわけである。   FIG. 4 is a diagram illustrating an example of a neural network for determining a lane change state. The neural network 131 of FIG. 4 is defined as input information with high weight for “lane change” in FIG. 2, steering angle, vehicle speed, winker, shift position, map data of the car navigation system 119, and lane image recognition sensor. The lane recognition result by 113 is used as input information or as highly weighted input information. In general, in each neuron in the neural network, firing (output) is performed when the sum of input values exceeds a threshold value, but in the neuron of the input layer of the neural network 131 (the neuron in the leftmost column in the figure). For example, the waveform information of the graph representing the transition within the past fixed time (for example, 30 seconds to 1 minute) immediately before the determination is used as the input information. And when the similarity (for example,%) of the waveform information and the waveform information predetermined as a threshold value is high, ignition is performed. For example, “vehicle speed” as input information corresponds to waveform information of a graph representing a transition in vehicle speed until immediately before the determination. Then, the vehicle speed waveform information is compared with the vehicle speed waveform information set as a threshold value in advance. When the similarity is equal to or higher than a predetermined value, 1 is output from the neuron, and 0 is output otherwise. That is why.

波形情報の類似度の判断は、既に公知の各種の手法、例えば、残差マッチング、正規化相関法、位相限定相関、幾何マッチング、ベクトル相関、又は一般化ハフ変換等を用いて行えばよい。但し、車速等の時系列図系に関しては、車速レベルのばらつきが大きいため、リサイズの影響を受け難い幾何マッチング等が望ましい。また、シフトチェンジ等の時系列図系に関しては、シンプルな残差マッチング等が望ましい。   The similarity of the waveform information may be determined using various known methods such as residual matching, normalized correlation method, phase-only correlation, geometric matching, vector correlation, or generalized Hough transform. However, regarding time-series charts such as vehicle speed, since there is a large variation in the vehicle speed level, geometric matching that is not easily affected by resizing is desirable. For time series charts such as shift changes, simple residual matching is desirable.

なお、入力層と中間層との各接続、及び中間層と出力層との各接続には予め重み付けがなされており、中間層においては、入力層からの入力にその重み付けがなされた値の総和に基づいて出力が行われるのは、一般的なニューラルネットワークと同様である。   Each connection between the input layer and the intermediate layer and each connection between the intermediate layer and the output layer are weighted in advance, and in the intermediate layer, the sum of the weighted values for the input from the input layer. The output is performed based on the same as in a general neural network.

判定処理ECU13は、ニューラルネットワーク131を用いて、「右旋回」、「右折」、及び「右車線へ」の車線変更等のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。   The determination processing ECU 13 uses the neural network 131 to calculate the occurrence probabilities of “right turn”, “right turn”, and “to the right lane”, and determine the driving state with the highest occurrence probability. Adopt as a result.

ところで、図2においてL1〜L3として定義された運転状態についても、更に細分化することができる。しかしながら、細分化が進めば進むほど、それぞれの運転状態の差異は微妙なものとなり、また、ドライバーの癖等の影響を受けやすくなる。そこで、本実施の形態における判定処理ECU13は、ステップS128やS129の場合だけでなく、更に細分化等された運転状態についてもニューラルネットワークを用いて判定する。以下、代表的な例について説明する。   Incidentally, the operating states defined as L1 to L3 in FIG. 2 can be further subdivided. However, as the subdivision progresses, the difference in each driving state becomes more subtle and more susceptible to the influence of the driver's habit. Therefore, the determination processing ECU 13 in this embodiment determines not only the cases of steps S128 and S129 but also the subdivided operation state using a neural network. Hereinafter, typical examples will be described.

図5は、一時停止の下層の運転状態の定義例を示す図である。図5の表202においては、表201(図2)においてL2として定義されている「一時停止」が、その原因に基づいて、更に分類され、分類されたそれぞれの運転状態はL4として定義されている。すなわち、「信号による」ものであるのか、「一時停止標識による」ものであるのか、「前方車(他車)による」ものであるのか、「人・障害物による」ものであるのか、又は「その他による」ものであるのか等に分類されている。一時停止に係るL4の判定については、例えば、図6に示されるようなニューラルネットワークを用いて行われる。   FIG. 5 is a diagram illustrating a definition example of the operation state in the lower layer of the temporary stop. In the table 202 of FIG. 5, the “pause” defined as L2 in the table 201 (FIG. 2) is further classified based on the cause, and each of the classified operation states is defined as L4. Yes. That is, whether it is “by a signal”, “by a stop sign”, “by a preceding vehicle (other vehicle)”, “by a person / obstacle”, or “ It is classified as “other”. The determination of L4 related to the temporary stop is performed using, for example, a neural network as shown in FIG.

図6は、一時停止の状態を判定するためのニューラルネットワークの例を示す図である。図6のニューラルネットワーク132は、表202において重みの高い入力情報として定義されている、車速、シフトポジション、車速=0の時間、信号画像認識センサ113による信号認識の結果、標識画像認識センサ114による標識認識の結果、車間用レンジセンサ111による他車認識の結果、及び歩行者画像認識センサ116及び車両周辺センサ117等による歩行者及び障害物等の認識結果等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク132を用いて、「信号による」、「一時停止標識による」、「前方車(他車)による」、「人・障害物による」、及び「その他による」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。   FIG. 6 is a diagram illustrating an example of a neural network for determining a paused state. The neural network 132 in FIG. 6 is defined as input information having a high weight in the table 202. The vehicle speed, the shift position, the time when the vehicle speed = 0, the signal recognition result by the signal image recognition sensor 113, and the sign image recognition sensor 114. As a result of the sign recognition, the result of recognition of other vehicles by the inter-vehicle range sensor 111, the result of recognition of pedestrians and obstacles by the pedestrian image recognition sensor 116 and the vehicle periphery sensor 117, etc. as input information or high weighting Used as input information. The determination processing ECU 13 uses the neural network 132 to select “by signal”, “by stop sign”, “by front vehicle (other vehicle)”, “by person / obstacle”, and “by other”. The occurrence probability is calculated, and the driving state with the highest occurrence probability is adopted as the determination result.

また、図7は、駐車操作の下層の運転状態の定義例を示す図である。図7の表203においては、表201(図2)においてL2として定義されている「直進」、「曲がる」、「真っ直ぐ後進」、「バック旋回」、「一時停止」、「停車(アイドリング状態)」の下層(「直進」及び「曲がる」については、そのL3である、「加速」、「等速」、「減速」、「旋回(カーブ)」、「右左折」、「車線変更」の下層)として、L4に「駐車操作」という運転状態が共通に定義され、その「駐車操作」の下層(L5)として、「バック入れ」、「縦列」、及び「前入れ」が定義されている。「駐車操作」に係るL5の判定については、例えば、図8に示されるようなニューラルネットワークを用いて行われる。   Moreover, FIG. 7 is a figure which shows the example of a definition of the driving state of the lower layer of parking operation. In Table 203 of FIG. 7, “straight forward”, “turn”, “straight reverse”, “back turn”, “pause”, “stop” (idling state) defined as L2 in Table 201 (FIG. 2) The lower layer of “Straight” and “Turn” are the lower layers of “Acceleration”, “Constant velocity”, “Deceleration”, “Turning (curve)”, “Turn left / right”, “Change lane” ), A driving state “parking operation” is commonly defined in L4, and “back-in”, “column”, and “front-in” are defined as lower layers (L5) of the “parking operation”. The determination of L5 related to “parking operation” is performed using, for example, a neural network as shown in FIG.

図8は、駐車操作の状態を判定するためのニューラルネットワークの例を示す図である。図8のニューラルネットワーク133は、表203において重みの高い入力情報として定義されている、L2(「直進」及び「曲がる」についてはL3)の運転状態の遷移の状況、シフトポジション、車両周辺センサ117からの車両周辺情報、及びカーナビゲーションシステム119からのナビ情報(例えば、駐車場の位置情報)等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク133を用いて、「バック入れ」、「縦列」、及び「前入れ」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。   FIG. 8 is a diagram illustrating an example of a neural network for determining the state of the parking operation. The neural network 133 in FIG. 8 is defined as input information having a high weight in the table 203, the transition state of the driving state of L2 (L3 for “straight” and “turn”), the shift position, and the vehicle surrounding sensor 117. Vehicle periphery information from the vehicle, navigation information from the car navigation system 119 (for example, parking lot position information), and the like are used as input information or highly weighted input information. The determination processing ECU 13 uses the neural network 133 to calculate the occurrence probabilities of “back insertion”, “column”, and “front insertion”, and adopts the driving state with the highest occurrence probability as the determination result.

なお、L2等の運転状態の遷移の状況とは、例えば、判定直前までの所定時間(例えば、30秒〜1分)において、各運転状態が発生したタイミングを示す情報(例えば、波形情報)等が相当する。   The state of transition of the driving state such as L2 is, for example, information (for example, waveform information) indicating the timing at which each driving state occurs in a predetermined time (for example, 30 seconds to 1 minute) immediately before the determination. Corresponds.

更に、図9は、車線変更の下層の運転状態の定義例を示す図である。図9の表204においては、表201(図2)においてL3として定義されている「車線変更」の下層(L4)として、「追い越し車線へ」、「合流」、「走行車線へ」、及び「縦列駐車」が定義されている。「車線変更」に係るL4の判定については、例えば、図10に示されるようなニューラルネットワークを用いて行われる。   Furthermore, FIG. 9 is a figure which shows the example of a definition of the driving | running state of the lower layer of a lane change. In the table 204 of FIG. 9, as the lower layer (L4) of “lane change” defined as L3 in the table 201 (FIG. 2), “to overtaking lane”, “join”, “to driving lane”, and “ "Parallel parking" is defined. The determination of L4 related to “lane change” is performed, for example, using a neural network as shown in FIG.

図10は、車線変更の状態を判定するためのニューラルネットワークの例を示す図である。図10のニューラルネットワーク134は、表204において重みの高い入力情報として定義されている、操舵角、車速、ウィンカーの状態、シフトポジション、ナビ情報、及び車線画像認識センサ112からの車線認識結果等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク134を用いて、「追い越し車線へ」、「合流」、「走行車線へ」、及び「縦列駐車」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。   FIG. 10 is a diagram illustrating an example of a neural network for determining the state of lane change. The neural network 134 in FIG. 10 includes the steering angle, vehicle speed, blinker state, shift position, navigation information, lane recognition result from the lane image recognition sensor 112, and the like, which are defined as high-weight input information in Table 204. Used as input information or highly weighted input information. The determination processing ECU 13 uses the neural network 134 to calculate the occurrence probabilities of “to overtaking lane”, “join”, “to driving lane”, and “parallel parking”, and to determine the driving state with the highest occurrence probability. Adopt as a judgment result.

判定処理ECU13によって判定された運転状態に応じて、運転支援ECU15は、各種のサービスを提供することができる。例えば、「駐車操作」と判定された際に、ディスプレイ151に車両周辺映像を映したりしてもよい。また、運転に影響のない「一時停止」と判定された際に、マッサージシートを稼動させたり、メールの着信をアナウンスしたりしてもよい。更に、「車線変更」と判定された場合に、車線変更先における後方の車両との距離に応じて警報を鳴らしてもよい。   The driving support ECU 15 can provide various services according to the driving state determined by the determination processing ECU 13. For example, when it is determined as “parking operation”, a vehicle peripheral image may be displayed on the display 151. Further, when it is determined as “pause” that does not affect driving, a massage sheet may be activated or an incoming mail may be announced. Furthermore, when it is determined that “lane change”, an alarm may be sounded according to the distance from the rear vehicle at the lane change destination.

各種のニューラルネットワークを用いて行われた判定結果は、運転状態記録ECU14にも出力され、運転状態記録ECU14によって運転記録DB16に記録される。運転状態記録ECU14は、また、判定結果と実際の運転状態との差違を検出し、その差違に基づいて、ニューラルネットワークの各層(入力層、中間層及び出力層)間の接続の重み付けの修正を行う(ニューラルネットワークの学習)。実際の運転状態は、例えば、ナビ情報における走行軌跡によって特定することができる。すなわち、判定処理ECU13によって右折と判定されたが、ナビ情報における走行軌跡では車線変更であったと確認された場合は、当該ナビ情報を教師信号として、関連するニューラルネットワークの学習を行う。   The determination results made using various neural networks are also output to the driving state recording ECU 14 and recorded in the driving record DB 16 by the driving state recording ECU 14. The driving state recording ECU 14 also detects a difference between the determination result and the actual driving state, and corrects the weighting of the connection between each layer (input layer, intermediate layer and output layer) of the neural network based on the difference. Do (Neural network learning). The actual driving state can be specified by, for example, a travel locus in the navigation information. That is, when it is determined that the right turn is made by the determination processing ECU 13, but it is confirmed that the lane has been changed in the travel locus in the navigation information, the related neural network is learned using the navigation information as a teacher signal.

なお、学習のロジックについては、既に確立されている公知の手法(例えば、バックプロパゲーション法(BP法)等)を用いて行えばよい。   The learning logic may be performed using a well-known method that has already been established (for example, the back-propagation method (BP method)).

上述したように、本実施の形態における運転状態判定システム1によれば、車速や操舵角、又はアクセル開度等の車両自体の情報(車両情報)だけでなく、車外の外部環境の情報(環境情報)についても様々な情報を入力情報として用いると共に、階層的に細分化された運転状態の定義に基づく判定ロジックによって運転状態を判定するため、細かいレベルまで特定された判定結果を自動的に出力することができる。また、ニューラルネットワークを用いて運転状態を判定するため、微妙な判断が必要とされる運転状態についても妥当性の高い判定結果を得ることが可能となる。また、学習機能によって、判定結果のミスを判定ロジック(ニューラルネットワークの重み付け)にフィードバックすることができるため、ドライバーの癖等に対応した判定が可能となる。   As described above, according to the driving state determination system 1 in the present embodiment, not only information on the vehicle itself (vehicle information) such as vehicle speed, steering angle, or accelerator opening, but also information on the external environment outside the vehicle (environment) (Information) is also used as input information, and because the driving state is determined by the determination logic based on the hierarchically divided driving state definition, the determination result specified to a fine level is automatically output. can do. In addition, since the operation state is determined using the neural network, it is possible to obtain a highly appropriate determination result for the operation state that requires delicate determination. In addition, the learning function can feed back an error in the determination result to the determination logic (weighting of the neural network), so that a determination corresponding to a driver's habit or the like is possible.

なお、本実施の形態においては、L3までについてはフローチャート、すなわち条件分岐(IF−THENルール)によって判定し、それ以下についてニューラルネットワークによって判定する例について説明したが、ニューラルネットワークを用いないで、最下層のレベルまで条件分岐によって判定を行ってもよい。但し、この場合は、ドライバーの癖を反映した判定結果を得るのは困難となる。   In the present embodiment, an example in which up to L3 is determined by a flowchart, that is, by a conditional branch (IF-THEN rule), and the following is determined by a neural network has been described. The determination may be made by conditional branching to a lower level. However, in this case, it is difficult to obtain a determination result reflecting the driver's habit.

一方、条件分岐を用いないで、上位のレベル(L1)からニューラルネットワークによって判定を行ってもよい。但し、ニューラルネットワークを用いた演算は、一般に高い負荷が要求され、処理速度も遅くなりがちである。したがって、本実施の形態のように、あるレベルまでは条件分岐によって判定し、それ以下については、ニューラルネットワークを用いて判定するといった方式が、処理の高速性と判断の柔軟性との調和という観点から望ましい。   On the other hand, the determination may be made by the neural network from the upper level (L1) without using the conditional branch. However, computation using a neural network generally requires a high load and tends to slow down the processing speed. Therefore, as in the present embodiment, a method of determining by a conditional branch up to a certain level, and using a neural network for a lower level, is a viewpoint of harmony between high speed of processing and flexibility of determination. Desirable from.

但し、必ずしも本実施の形態のようにL3とL4との間を条件分岐とニューラルネットワークとの境界にする必要はない。どのレベルを条件分岐とニューラルネットワークとの境界とするかは、システムに要求される特性に応じて定めればよい。すなわち、条件分岐によって判定する範囲が広ければ広いほど、判定処理の高速化と画一化を図ることができる一方、ニューラルネットワークによって判定する範囲が広ければ広いほど、ドライバーの癖等に応じた柔軟性及び多様性のある判定結果が得られる可能性が高まる。   However, it is not always necessary to set the boundary between the conditional branch and the neural network between L3 and L4 as in the present embodiment. Which level is used as the boundary between the conditional branch and the neural network may be determined according to characteristics required for the system. In other words, the wider the range determined by conditional branching, the faster and uniform the determination process, while the wider the range determined by the neural network, the more flexible the driver's habits The possibility that a determination result having sex and diversity is obtained increases.

なお、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Note that the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims.

本発明の実施の形態における運転状態判定システムの構成例を示す図である。It is a figure which shows the structural example of the driving | running state determination system in embodiment of this invention. 本発明の実施の形態における運転状態の定義例を示す図である。It is a figure which shows the example of a definition of the driving | running state in embodiment of this invention. 判定処理ECUによる運転状態の判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the determination process of the driving | running state by determination process ECU. 車線変更の状態を判定するためのニューラルネットワークの例を示す図である。It is a figure which shows the example of the neural network for determining the state of lane change. 一時停止の下層の運転状態の定義例を示す図である。It is a figure which shows the example of a definition of the driving | running state of the lower layer of a temporary stop. 一時停止の状態を判定するためのニューラルネットワークの例を示す図である。It is a figure which shows the example of the neural network for determining the state of a temporary stop. 駐車操作の下層の運転状態の定義例を示す図である。It is a figure which shows the example of a definition of the driving | running state of the lower layer of parking operation. 駐車操作の状態を判定するためのニューラルネットワークの例を示す図である。It is a figure which shows the example of the neural network for determining the state of parking operation. 車線変更の下層の運転状態の定義例を示す図である。It is a figure which shows the example of a definition of the driving | running state of the lower layer of a lane change. 車線変更の状態を判定するためのニューラルネットワークの例を示す図である。It is a figure which shows the example of the neural network for determining the state of lane change.

符号の説明Explanation of symbols

1 運転状態判定システム
11 環境情報認識ECU
12 車両情報認識ECU
13 判定処理ECU
14 運転状態記録ECU
15 運転支援ECU
16 運転記録DB
111 車間用レンジセンサ
112 車線画像認識センサ
113 信号画像認識センサ
114 標識画像認識センサ
115 一時停止線画像認識センサ
116 歩行者画像認識センサ
117 車両周辺センサ
118 交通環境情報取得用通信装置
119 カーナビゲーションシステム
121 車速センサ
122 舵角センサ
123 アクセル開度センサ
124 ブレーキ踏み込みセンサ
125 ウィンカー操作センサ
151 ディスプレイ
152 スピーカ
153 アクチュエータ
1 Operating state determination system 11 Environmental information recognition ECU
12 Vehicle information recognition ECU
13 judgment processing ECU
14 Operating state recording ECU
15 Driving assistance ECU
16 Operation record DB
111 Vehicle-to-vehicle range sensor 112 Lane image recognition sensor 113 Signal image recognition sensor 114 Sign image recognition sensor 115 Pause line image recognition sensor 116 Pedestrian image recognition sensor 117 Vehicle periphery sensor 118 Communication device 119 for obtaining traffic environment information Car navigation system 121 Vehicle speed sensor 122 Rudder angle sensor 123 Accelerator opening sensor 124 Brake depression sensor 125 Blinker operation sensor 151 Display 152 Speaker 153 Actuator

Claims (5)

車両に搭載され、当該車両の運転状態を判定する運転状態判定装置であって、
当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、
当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、
前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することを特徴とする運転状態判定装置。
A driving state determination device that is mounted on a vehicle and determines a driving state of the vehicle,
Vehicle state detecting means for detecting various information indicating the state of each part of the vehicle;
An external environment detection means for detecting various information related to the external environment of the vehicle;
Driving state determination for determining the driving state of the vehicle using a neural network that calculates the occurrence probability of each driving state using various information indicating the state of each part of the vehicle and various information regarding the external environment as input information And a driving state determination device.
実際の運転状態を教師信号として前記ニューラルネットワークの学習を行わせる学習手段を更に有することを特徴とする請求項1記載の運転状態判定装置。 The driving state determination device according to claim 1, further comprising learning means for learning the neural network using an actual driving state as a teacher signal. 前記実際の運転状態は、当該車両に搭載されるカーナビゲーションシステムによる当該車両の走行軌跡を示す情報に基づいて判定させることを特徴とする請求項1又は2記載の運転状態判定装置。 The driving state determination device according to claim 1, wherein the actual driving state is determined based on information indicating a traveling locus of the vehicle by a car navigation system mounted on the vehicle. 前記各運転状態は、予め階層的に細分化されて定義されており、
前記運転状態判定手段は、少なくとも前記車両の各部の状態を示す各種の情報に基づく条件分岐によって、所定の階層までの運転状態を判定することを特徴とする請求項1乃至3いずれか一項記載の運転状態判定装置。
Each operating state is defined in advance hierarchically subdivided,
The said driving | running state determination means determines the driving | running state to a predetermined | prescribed hierarchy by the conditional branch based on the various information which shows the state of each part of the said vehicle at least. Driving state determination device.
車両の運転状態を判定する運転状態判定方法であって、
当該車両の各部の状態を示す各種の情報を検出する車両状態検出手順と、
当該車両の外部環境に関する各種の情報を検出する外部環境検出手順と、
前記車両の各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手順とを有することを特徴とする運転状態判定方法。
A driving state determination method for determining a driving state of a vehicle,
A vehicle state detection procedure for detecting various information indicating the state of each part of the vehicle;
An external environment detection procedure for detecting various information related to the external environment of the vehicle;
Driving state for determining the driving state of the vehicle using a neural network that calculates the occurrence probability of each driving state by using various information indicating the state of each part of the vehicle and various information regarding the external environment as input information An operating state determination method comprising: a determination procedure.
JP2004352940A 2004-12-06 2004-12-06 Driving state determination device and its method Pending JP2006160032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004352940A JP2006160032A (en) 2004-12-06 2004-12-06 Driving state determination device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004352940A JP2006160032A (en) 2004-12-06 2004-12-06 Driving state determination device and its method

Publications (1)

Publication Number Publication Date
JP2006160032A true JP2006160032A (en) 2006-06-22

Family

ID=36662521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004352940A Pending JP2006160032A (en) 2004-12-06 2004-12-06 Driving state determination device and its method

Country Status (1)

Country Link
JP (1) JP2006160032A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195220A (en) * 2007-02-13 2008-08-28 Denso Corp Traffic lane change support device and program
JP2009012571A (en) * 2007-07-03 2009-01-22 Toyota Motor Corp Corner learning system
JP2012159955A (en) * 2011-01-31 2012-08-23 Yazaki Corp Image recording control method, image recognition device, and on-vehicle image recording device
CN103235563A (en) * 2013-03-18 2013-08-07 东南大学 Industrial field equipment energy efficiency evaluation method
JP2015207171A (en) * 2014-04-21 2015-11-19 トヨタ自動車株式会社 Driving assist device
CN107176098A (en) * 2017-07-10 2017-09-19 辽宁工业大学 A kind of poor automatic monitoring warning device in blind area of lubrication groove and control method
WO2018135605A1 (en) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 Event prediction system, event prediction method, program, and moving body
WO2018135509A1 (en) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 Event prediction system, event prevention method, program, and recording medium having same recorded therein
JP2019131141A (en) * 2018-02-02 2019-08-08 Kddi株式会社 On-vehicle control device
WO2020188942A1 (en) * 2019-03-15 2020-09-24 本田技研工業株式会社 Vehicle communication device and program
JP2021039464A (en) * 2019-09-02 2021-03-11 株式会社デンソーテン Traveling status recording device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195220A (en) * 2007-02-13 2008-08-28 Denso Corp Traffic lane change support device and program
JP2009012571A (en) * 2007-07-03 2009-01-22 Toyota Motor Corp Corner learning system
JP2012159955A (en) * 2011-01-31 2012-08-23 Yazaki Corp Image recording control method, image recognition device, and on-vehicle image recording device
CN103235563A (en) * 2013-03-18 2013-08-07 东南大学 Industrial field equipment energy efficiency evaluation method
CN103235563B (en) * 2013-03-18 2014-12-17 东南大学 Industrial field equipment energy efficiency evaluation method
JP2015207171A (en) * 2014-04-21 2015-11-19 トヨタ自動車株式会社 Driving assist device
WO2018135509A1 (en) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 Event prediction system, event prevention method, program, and recording medium having same recorded therein
WO2018135605A1 (en) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 Event prediction system, event prediction method, program, and moving body
CN107176098A (en) * 2017-07-10 2017-09-19 辽宁工业大学 A kind of poor automatic monitoring warning device in blind area of lubrication groove and control method
CN107176098B (en) * 2017-07-10 2023-07-07 辽宁工业大学 Automatic monitoring and early warning device for inner wheel difference blind area and control method
JP2019131141A (en) * 2018-02-02 2019-08-08 Kddi株式会社 On-vehicle control device
WO2020188942A1 (en) * 2019-03-15 2020-09-24 本田技研工業株式会社 Vehicle communication device and program
JPWO2020188942A1 (en) * 2019-03-15 2020-09-24
CN113632152A (en) * 2019-03-15 2021-11-09 本田技研工业株式会社 Vehicle communication device and program
US11760371B2 (en) 2019-03-15 2023-09-19 Honda Motor Co., Ltd Vehicle communication device and non-transitory computer-readable recording medium storing program
JP7379463B2 (en) 2019-03-15 2023-11-14 本田技研工業株式会社 Vehicle communication device and program
JP2021039464A (en) * 2019-09-02 2021-03-11 株式会社デンソーテン Traveling status recording device

Similar Documents

Publication Publication Date Title
JP6575818B2 (en) Driving support method, driving support device using the same, automatic driving control device, vehicle, driving support system, program
CN111137284B (en) Early warning method and early warning device based on driving distraction state
US20220187834A1 (en) Generating trajectories for autonomous vehicles
JP2019144975A (en) Vehicle control device
EP3647136B1 (en) Vehicle traveling assistance method and vehicle traveling assistance device
JP4182131B2 (en) Arousal level determination device and arousal level determination method
CN113291308A (en) Vehicle self-learning lane-changing decision-making system and method considering driving behavior characteristics
US11661061B2 (en) Method and device for assisting a driver in a vehicle
US10583841B2 (en) Driving support method, data processor using the same, and driving support system using the same
US11587461B2 (en) Context-sensitive adjustment of off-road glance time
JP2021026720A (en) Driving support device, method for controlling vehicle, and program
US20230143515A1 (en) Driving assistance apparatus
WO2019155778A1 (en) Collision avoidance assistance device, program, and collision avoidance assistance method
JP2006160032A (en) Driving state determination device and its method
US11091174B2 (en) Vehicle control device
CN113272197B (en) Device and method for improving an auxiliary system for lateral vehicle movement
US9177040B2 (en) Information processing device for vehicle and database
JP2010182148A (en) Travelling condition recording device
JP2001034897A (en) Driving support system
JP2008105511A (en) Driving support apparatus
JP6617602B2 (en) Maneuvering detection system and maneuvering detection method
US11403948B2 (en) Warning device of vehicle and warning method thereof
CN115273461A (en) Intersection driving method and device for vehicle, vehicle and storage medium
CN114348014A (en) Lane departure early warning method, device, vehicle and medium
JP4457882B2 (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091027