JP2017151694A - Safety confirmation diagnostic system and safety confirmation diagnostic method - Google Patents
Safety confirmation diagnostic system and safety confirmation diagnostic method Download PDFInfo
- Publication number
- JP2017151694A JP2017151694A JP2016033099A JP2016033099A JP2017151694A JP 2017151694 A JP2017151694 A JP 2017151694A JP 2016033099 A JP2016033099 A JP 2016033099A JP 2016033099 A JP2016033099 A JP 2016033099A JP 2017151694 A JP2017151694 A JP 2017151694A
- Authority
- JP
- Japan
- Prior art keywords
- safety confirmation
- driver
- evaluation
- driving scene
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、運転者の安全確認行動が適切になされているかどうかを診断する安全確認診断システム及び安全確認診断方法に関する。 The present invention relates to a safety confirmation diagnosis system and a safety confirmation diagnosis method for diagnosing whether or not a driver's safety confirmation behavior is appropriately performed.
車両の挙動に基づいて安全確認が必要な運転シーンを検出し、また、運転者の視線を検出し、検出した運転者の視線に基づいて安全確認が必要な運転シーンに応じた運転者の安全確認行動が実行されたかどうかを評価するシステムが提案されている(例えば特許文献1、2参照)。
Detecting driving scenes that require safety confirmation based on vehicle behavior, detecting driver's gaze, and driving safety according to driving scenes that require safety confirmation based on the detected driver's gaze A system for evaluating whether a confirmation action has been executed has been proposed (see, for example,
例えば車線変更の運転シーンが検出された場合について、考察してみる。車線変更の運転シーンといっても、道路形状が合流の場合と、道路形状が分岐の場合とでは、適切な安全確認行動に違いがあるが、上記従来構成のシステムでは、そのような違いを考慮していなかった。また、高速道路の本線を直進中であっても、前方に合流がある場合は、合流路の車両を注意しながら運転する必要があり、また、合流や分岐がなくても時々周囲の状況を確認する必要があるが、上記従来構成のシステムでは、そのような確認行動が実行されたかどうかを評価していなかった。 For example, let us consider a case where a driving scene for changing lanes is detected. Even if it is a driving scene of lane change, there is a difference in the appropriate safety confirmation behavior when the road shape is merged and when the road shape is branched. Did not consider. In addition, even if you are traveling straight on the main road of the expressway, if there is a merge ahead, you need to drive the vehicle in the merge path with caution, and sometimes you may not be able to meet Although it is necessary to confirm, the system having the above-described conventional configuration does not evaluate whether or not such a confirmation action is executed.
更に、車線変更時の安全確認行動は、車線変更前と車線変更中とでは安全確認行動が異なるが、上記従来構成のシステムでは、そのような違いを考慮していなかった。また、運転者の視線を検出する視線検出装置は、かなり高価であるという問題もあった。また、運転者がメガネを装着していると、運転者の視線を正確に検出することができないという問題もあった。 Furthermore, the safety confirmation behavior at the time of lane change differs between the safety confirmation behavior before the lane change and during the lane change, but such a difference is not considered in the system of the conventional configuration. Further, the gaze detection device that detects the driver's gaze has a problem that it is quite expensive. In addition, when the driver is wearing glasses, there is a problem that the driver's line of sight cannot be accurately detected.
本発明の目的は、車両の運転シーンを細かく検出し、安全確認行動を高精度に診断することができ、また、製造コストを低減することができる安全確認診断システム及び安全確認診断方法を提供することにある。 An object of the present invention is to provide a safety confirmation diagnosis system and a safety confirmation diagnosis method capable of detecting a vehicle driving scene in detail, diagnosing safety confirmation behavior with high accuracy, and reducing manufacturing costs. There is.
請求項1の発明は、車両の運転者の顔を撮影するカメラ(2)と、運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、車両の運転シーンを検出する運転シーン検出部(9)と、運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)と、運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価する安全確認行動評価部(11)とを備えたシステムである。
The invention of
請求項8の発明は、車両の運転者の顔を撮影するカメラ(2)と、運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、車両の運転シーンを検出する運転シーン検出部(9)と、運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)とを備えた安全確認診断方法であって、運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価するようにした方法である。
The invention of
以下、本発明の第1実施形態について、図1ないし図14を参照して説明する。本実施形態の安全確認診断システム1は、図示しない車両に搭載される車載システムである。安全確認診断システム1は、図1に示すように、カメラ2と、顔向き検出部3と、GPS受信機4と、地図データ記憶部5と、ウィンカー信号検出部6と、車速検出部7と、操舵状態検出部8と、運転シーン検出部9と、評価区間分割部10と、安全確認行動評価部11と、評価基準学習部12と、アドバイス提示部13と、管理者向け伝達部14とを備えて構成されている。
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. The safety
カメラ2は、車両の運転者の顔を撮影し、撮影した運転者の顔の画像データを顔向き検出部3へ出力する。顔向き検出部3は、カメラ2からの画像データを入力し、その画像データの中から運転者の顔画像を抽出し、その顔画像に基づいて運転者の顔の向きを検出し、顔向き検出結果を安全確認行動評価部11へ出力する。
The
GPS受信機4は、車両の現在位置を検出し、位置検出結果を運転シーン検出部9へ出力する。地図データ記憶部5は、DVDやハードディスクや半導体メモリ等で構成され、道路地図情報を含む道路地図データや種々のデータを記憶している。運転シーン検出部9は、地図データ記憶部5の道路地図データに基づいて車両が走行している走行道路や車両の現在位置の場所等を参照することが可能である。
The
ウィンカー信号検出部6は、ウィンカーの点灯状態を検出し、検出信号を運転シーン検出部9へ出力する。車速検出部7は、車速センサ等の信号に基づいて車両の速度を検出し、車速検出信号を運転シーン検出部9へ出力する。操舵状態検出部8は、ハンドル舵角センサやジャイロ等の信号に基づいて車両の操舵状態を検出し、操舵状態検出信号を運転シーン検出部9へ出力する。
The winker
運転シーン検出部9は、GPS受信機4、地図データ記憶部5、ウィンカー信号検出部6、車速検出部7及び操舵状態検出部8からの各信号を取得し、例えば「高速道路での車線変更」等の車両の運転シーンを検出し、検出結果を評価区間分割部10へ出力する。
The driving
評価区間分割部10は、運転シーン検出部9からの検出結果を取得し、運転シーンを評価基準の異なる評価区間に分割し、分割結果を安全確認行動評価部11へ出力する。
安全確認行動評価部11は、顔向き検出部3からの検出結果及び評価区間分割部10からの分割結果を取得し、運転シーン及び評価区間毎に安全確認行動を評価する、即ち、運転者が安全確認行動を適切に行なったか否かを判定する。安全確認行動評価部11は、判定結果(即ち、運転者が安全確認行動を適切に行なったと判定した結果または運転者が安全確認行動を適切に行なわなかったと判定した結果のどちらか、或いは、両方の判定結果)に応じた安全確認行動判定信号をアドバイス提示部13及び管理者向け伝達部14へ出力する。
The evaluation
The safety confirmation
評価基準学習部12は、安全確認行動評価部11から運転シーン毎の顔向き情報を取得し、運転シーン毎及び評価区間毎の評価基準を学習し、評価区間毎の顔向き角度の閾値と顔向き時間の閾値を決定し、決定した閾値を安全確認行動評価部11へ出力する。
The evaluation
アドバイス提示部13は、安全確認行動評価部11から安全確認行動判定信号を入力し、例えば運転者が安全確認行動を適切に行わなかったと判定された判定結果を入力したときには、運転者に対して安全確認行動を十分行なうように注意したり、休憩等を提案したりするアドバイスを提示する。この場合、アドバイス提示部13は、例えば、表示装置にアドバイスに対応するメッセージを表示したり、アドバイスに対応するメッセージを音声で出力したりするように構成することが好ましい。
The
管理者向け伝達部14は、安全確認行動評価部11から安全確認行動判定信号を入力したときに、運転者の安全確認行動の評価の情報と、安全確認行動の評価が発生したときの車両の位置の情報と、安全確認行動の評価が発生した時刻の情報とを安全確認行動評価部11から取得し、これら取得した各情報を無線通信(例えば携帯電話通信)を介して車両例えばトラックやバス等の商用車を管理する管理事務所に伝達する。尚、このような情報伝達処理は、車両が商用車の場合に行なう。
When the safety confirmation behavior evaluation signal is input from the safety confirmation
また、無線通信の代わりにメモリカード等の記録媒体に上記各情報を記憶させ、この記憶させた記録媒体を車両から取り外して管理事務所に運び込むことにより、上記各情報を管理事務所に伝達するように構成しても良い。また、管理事務所においては、運転者に対して車両の運転の指導を実施する際に、上記伝達された安全確認運転の評価の各情報を用いることができる。 Further, instead of wireless communication, each information is stored in a recording medium such as a memory card, and the stored information is transferred to the management office by removing the stored recording medium from the vehicle and carrying it to the management office. You may comprise as follows. Further, in the management office, when the vehicle driving instruction is given to the driver, each information of the transmitted safety confirmation driving evaluation can be used.
次に、運転シーン検出部9の制御、即ち、動作について、図2のフローチャートに従って説明する。図2のステップS10においては、運転シーン検出部9は、GPS受信機4、地図データ記憶部5、ウィンカー信号検出部6、車速検出部7及び操舵状態検出部8からの各信号、即ち、各情報を取得する。続いて、ステップS20へ進み、運転シーン検出部9は、GPS受信機4からの位置検出結果に基づいて車両の現在位置を測定する。
Next, the control, that is, the operation of the driving
そして、ステップS30へ進み、運転シーン検出部9は、車両の位置情報と、車速情報と、操舵状態の情報(例えば角速度情報等)と、地図データとを参照し、更に、ナビゲーションシステムで用いられる技術を用いて、車両が走行する走行道路及び走行箇所を特定する。そして、運転シーン検出部9は、上記特定した走行道路及び走行箇所と、ウィンカー点灯信号の検出情報とを参照することにより、図6の表に示すような種々の運転シーン、例えば、高速道路または車両専用道における「車線変更」、「本線合流」、「本線離脱」、「合流あり直進(第1車線)」、「合流あり直進(第1車線以外)」、「分岐あり直進」、「単路直進」等を特定することができる。尚、上記した車両の各運転シーンを高速道路または車両専用道と共に、具体的に図示した図を、図7に示す。
In step S30, the driving
この場合、例えば運転シーンが「車線変更」であれば、ウィンカー点灯の3秒前を運転シーンの始点とし、ウィンカー消灯時点を運転シーンの終点とする。また、運転シーンが「合流ありの直進」であれば、合流終了地点の300m手前を運転シーンの始点、合流終了地点を運転シーンの終点として、走行車線に応じて運転シーンを分ける。合流終了地点については、車両位置と地図データから検出された道路リンクにおいて、本線リンクと合流リンクが接続されているノードを通過した場合、図7においては、本線リンクと本線リンクの切替わりが発生した場合、あらかじめ設定した合流終了地点とリンク切替わり地点の距離差から合流終了地点を求めることができる。尚、走行車線の認識については、カメラにより白線を認識する方法や、本線合流からの右車線変更、左車線変更の発生数と地図データに格納された道路リンク毎の車線数のデータに基づいて車線を認識する方法があり、これらの方法を適宜用いることが好ましい。 In this case, for example, if the driving scene is “lane change”, the starting point of the driving scene is set to 3 seconds before the blinker is turned on, and the end point of the driving scene is set to the time when the blinker is turned off. Also, if the driving scene is “straight ahead with merging”, the driving scene is divided according to the driving lane, with the driving scene starting point 300 m before the merging end point and the merging end point as the ending point of the driving scene. As for the merge end point, when the road link detected from the vehicle position and the map data passes through the node where the main link and the merge link are connected, the switching between the main link and the main link occurs in FIG. In this case, the merge end point can be obtained from the distance difference between the preset merge end point and the link switching point. The lane recognition is based on the method of recognizing the white line with the camera, the number of occurrences of right lane change and left lane change from the main line merge, and the number of lanes for each road link stored in the map data. There are methods for recognizing lanes, and these methods are preferably used as appropriate.
尚、図6は、高速道路または車両専用道において特定する運転シーンについて示す表である。これに対して、一般道において特定する運転シーンについて示す表を、図8に示す。この図8に示す一般道における運転シーンについても、上述した制御とほぼ同様にして検出することができる。 FIG. 6 is a table showing driving scenes specified on an expressway or a vehicle-only road. On the other hand, the table | surface shown about the driving scene specified in a general road is shown in FIG. The driving scene on the general road shown in FIG. 8 can also be detected in substantially the same manner as the above-described control.
続いて、図2のステップS40へ進み、運転シーン検出部9は、検出された運転シーンの種別の情報と、検出された運転シーンに関連する種々の情報(例えば運転シーン始点の時刻や地点の情報、運転シーン終点の時刻や地点の情報、車両の速度や角速度の情報等)と、それら情報の履歴の情報とを内部のメモリに記憶する。これにより、図2の制御を終了する。
Subsequently, the process proceeds to step S40 in FIG. 2, and the driving
次に、顔向き検出部3の制御、即ち、動作について、図3のフローチャートに従って説明する。図3のステップS110においては、カメラ2からの画像データを入力する。続いて、ステップS120へ進み、顔向き検出部3は、入力した画像データの中から運転者の顔画像を抽出する。そして、ステップS130へ進み、顔向き検出部3は、抽出した顔画像と、予め作成しておいた多数の顔向きのテンプレート画像とについて、マッチング処理を行い、相関値を計算し、最も相関値の高いテンプレート画像の顔向き角度から運転者の顔向き角度を検出(即ち、推定)する。尚、予め作成しておいた多数の顔向きのテンプレート画像としては、例えば−45度から45度までの15度毎の顔向きのテンプレート画像を作成し、内部のメモリに記憶しておくことが好ましい。
Next, the control, that is, the operation of the face
また、顔向きの検出技術としては、特開2000−97676号公報や特開2003−44853号公報に記載された構成があり、これら構成を適宜用いるように構成しても良い。 Further, as a face orientation detection technique, there are configurations described in Japanese Patent Laid-Open Nos. 2000-97676 and 2003-44853, and these configurations may be used as appropriate.
次いで、図3のステップS140へ進み、顔向き検出部3は、上記したように検出された顔向き角度の情報(即ち、顔向きデータ)を内部のメモリに記憶する。これにより、図3の制御を終了する。
Next, the process proceeds to step S140 in FIG. 3, and the face
次に、評価区間分割部10の制御、即ち、動作について、図4のフローチャートに従って説明する。図4のステップS210においては、評価区間分割部10は、運転シーン検出部9から運転シーン、ウィンカー信号、車速、操舵状態(例えば舵角センサの舵角情報またはジャイロセンサの角速度情報等)の各情報を取得する。続いて、ステップS220へ進み、評価区間分割部10は、上記取得した各情報に基づいて運転行動の変化点を検出する。そして、ステップS230へ進み、評価区間分割部10は、上記検出した変化点に基づいて運転シーンを複数の評価区間に分割し、評価区間分割情報を生成する。
Next, the control, that is, the operation of the evaluation
ここで、運転シーンが例えば「車線変更」である場合において、複数の評価区間に分割する処理について、図9を参照して説明する。「車線変更」を行なう場合、ウインカーを点灯する前に車線変更が可能かどうか周囲の安全状況を確認することが好ましく、この時期を区間(即ち、評価区間)1とする。そして、ウィンカーを点灯後、車線変更先の安全を確認し、ハンドルを切り始める。この時期を区間2とする。この後、車線変更前の車線から、車線変更先の車線の状況を確認しながら、変更先の車線に進入し、ハンドルを切返す。この時期を区間3とする。続いて、ハンドル角度を元に戻し、ウィンカーを消灯する。この時期を区間4とする。
Here, when the driving scene is, for example, “lane change”, a process of dividing into a plurality of evaluation sections will be described with reference to FIG. 9. When performing “lane change”, it is preferable to check the surrounding safety situation to determine whether or not the lane change is possible before the turn signal is turned on. After turning on the blinker, confirm the safety of the lane change destination and start turning the steering wheel. This period is defined as
この構成において、区間1から区間4まで分割する分割基準点は、ウィンカー点灯時点p1、ハンドル切始め時点p2、ハンドル切返し時点p3である。これらの時点p1、p2、p3は、運転行動の変化点であり、ウィンカー信号及び角速度の情報に基づいて求めることができる。
In this configuration, the division reference points to be divided from the
具体的には、ハンドルの切始め時点p2とハンドルの切返し時点p3は、角速度ωの時間差分である角加速度Δωを算出し、この算出した角加速度Δωの正のピークまたは負のピークに基づいて求めることができる。 Specifically, the steering wheel turning start time point p2 and the steering wheel turning back time point p3 calculate an angular acceleration Δω that is a time difference between the angular velocities ω, and based on the calculated positive or negative peak of the angular acceleration Δω. Can be sought.
ハンドルの切始め時点p2は、ウィンカー点灯後、最初の以下条件を満たす時点とみなすことができる。
右車線変更時は、Δω<−Δω1の下に凸のピーク値の時点
左車線変更時は、Δω>Δω1の上に凸のピーク値の時点
また、ハンドルの切返し時点p3は、ウィンカー消灯前、最後の以下条件を満たす時点とみなすことができる。
The steering wheel turning start time point p2 can be regarded as the first time point that satisfies the following conditions after the blinker lights up.
When changing to the right lane, when the peak value is convex below Δω <−Δω1 When changing to the left lane, when the peak value is convex above Δω> Δω1, the turning point p3 of the steering wheel is It can be regarded as the time when the following conditions are met.
右車線変更時は、Δω>Δω2の上に凸のピーク値の時点
左車線変更時は、Δω<−Δω2の下に凸のピーク値の時点
Δω1とΔω2は、車両や車速等の条件で設定される設定値である。尚、ピークの判定は、角加速度Δωの時間差分値である角躍度ΔΔωを算出して行なう。上記角躍度ΔΔωが正から負に変化した時点が上に凸のピークであり、角躍度ΔΔωが負から正に変化した時点が下に凸のピークである。
When changing to the right lane, when the peak value is convex above Δω> Δω2 When changing to the left lane, when the peak value is convex below Δω <-Δω2, Δω1 and Δω2 are set according to conditions such as the vehicle and vehicle speed. Is the set value. The peak is determined by calculating an angular jerk ΔΔω that is a time difference value of the angular acceleration Δω. The point at which the angle jerk ΔΔω changes from positive to negative is an upwardly convex peak, and the point at which the angle jerk ΔΔω changes from negative to positive is a downwardly convex peak.
尚、区間1の開始時点p0は、ウィンカー点灯時点p1の例えば3秒前の時点とする。また、区間4の終了時点(即ち、ハンドル戻し時点)p4は、ウィンカーを消灯する時点である。
Note that the start time point p0 of the
図9中のグラフにおいて、実線の曲線K1は角速度ωを示し、破線の曲線K2は角加速度Δωを示し、1点鎖線の曲線K3は角躍度ΔΔωを示す。本実施形態では、角加速度Δωの変化パターンから車線変更挙動を検出して区間の分割を行なっている。また、実線Sは車線変更状態を示し、「0」は合図前(即ち、ウィンカー点灯前)、「1」は合図後(即ち、ウィンカー点灯後)、「2」は旋回中(即ち、ハンドルの操作中)、「3」は旋回後から合図終了(即ち、ウィンカー消灯)までを示す。 In the graph in FIG. 9, the solid curve K1 indicates the angular velocity ω, the broken curve K2 indicates the angular acceleration Δω, and the dashed-dotted curve K3 indicates the angular jerk ΔΔω. In the present embodiment, the lane change behavior is detected from the change pattern of the angular acceleration Δω to divide the section. Also, the solid line S indicates the lane change state, “0” before the signal (that is, before the blinker lights), “1” after the signal (that is, after the blinker lights), and “2” that is turning (that is, the steering wheel) “During operation”, “3” indicates from the end of the turn to the end of the signal (ie, blinker extinction).
尚、上記実施形態では、角加速度Δωの変化パターンから車両の車線変更挙動を検出して区間1〜4の分割を行なったが、これに限られるものではなく、例えば車両の前方を撮影する車載カメラ(即ち、白線検出部)により道路の車線を区切る白線を検出し、検出した白線の位置と車両の位置との位置関係から車線変更挙動(即ち、運転行動の変化点)を検出して区間1〜4の分割を行なうように構成しても良い。
In the above embodiment, the lane change behavior of the vehicle is detected from the change pattern of the angular acceleration Δω and the
また、運転シーンが例えば「合流あり直進」の場合の評価区間の分割においては、図10に示すように、合流終了地点r1から手前例えば300mの地点をr4とし、地点r4と合流終了地点r1との間を例えば100m毎に3分割し、3割した区間を手前から順に区間1、区間2、区間3とする。
Further, in the division of the evaluation section when the driving scene is, for example, “straight with merge”, as shown in FIG. For example, the interval is divided into three for every 100 m, and the divided sections are set as a
このようにして各運転シーンを評価区間に分割し、分割した評価区間、即ち、評価区間分割情報を一覧表にして示したものが、図11である。この図11に示すように、各運転シーンの各評価区間には、区間の開始点と終了点の条件データと、評価対象であるか否かの識別データと、顔向き角度の閾値のデータと、顔向き時間の閾値のデータとが対応付けられている。図11に示す評価区間分割情報のデータテーブルは、予め作成され、評価区間分割部10の内部のメモリに記憶されている。評価区間分割部10は、運転シーン検出部9から検出された運転シーンの情報を受信すると、図11のデータテーブルに基づいて上記検出された運転シーンに対応する評価区間分割情報を取得し、上記検出された運転シーンの情報と上記評価区間分割情報とを安全確認行動評価部11へ出力する。これにより、図4の制御を終了する。
Each driving scene is divided into evaluation sections in this way, and the divided evaluation sections, that is, evaluation section division information is shown in a list in FIG. As shown in FIG. 11, in each evaluation section of each driving scene, the condition data of the start point and end point of the section, identification data indicating whether or not it is an evaluation target, threshold value data of the face orientation angle, Are associated with threshold value data of the face orientation time. A data table of evaluation section division information shown in FIG. 11 is created in advance and stored in a memory inside the evaluation
次に、安全確認行動評価部11の制御、即ち、動作について、図5のフローチャートに従って説明する。図5のステップS310においては、安全確認行動評価部11は、運転シーン検出部9により検出された運転シーンの情報と、評価区間分割部10から出力された上記検出された運転シーンに対応する評価区間分割情報と、顔向き検出部3により検出された運転者の顔向き角度の情報とを取得する。
Next, the control, that is, the operation of the safety confirmation
続いて、ステップS320へ進み、安全確認行動評価部11は、検出された運転シーン内の手前からn番目(nの初期値は「1」)の評価区間が評価対象区間であるか否かを判断する。本実施形態の場合、図11の表に示すように、評価対象区間が設定されている。このステップS320において、評価区間が評価対象区間でないときには(NO)、ステップS370へ進み、安全確認行動評価部11は、運転シーン内の全ての評価区間を評価したか否かを判断する。ここで、全ての評価区間を評価していないときには(NO)、nをカウントアップして、ステップS320へ戻り、次の評価区間について評価対象区間であるか否かを判断する。
Then, it progresses to step S320 and the safety confirmation
さて、上記ステップS320において、評価区間が評価対象区間であるときには(YES)、ステップS330へ進み、安全確認行動評価部11は、上記評価区間の顔向き角度の閾値を参照する。続いて、ステップS340へ進み、評価区間において検出された運転者の顔向き角度が上記閾値を越えているか否かを判断する。
In step S320, when the evaluation section is an evaluation target section (YES), the process proceeds to step S330, and the safety confirmation
このステップS340において、検出された運転者の顔向き角度が上記閾値を越えていると(YES)、ステップS350へ進み、安全確認行動評価部11は、該当評価区間において運転者による安全確認行動が適切になされていると判定し、判定結果を内部のメモリに記憶する。また、上記ステップS340で、検出された運転者の顔向き角度が上記閾値を越えていないときには(NO)、ステップS360へ進み、安全確認行動評価部11は、該当評価区間において運転者による安全確認行動が適切になされていないと判定し、判定結果を内部のメモリに記憶する。
In step S340, if the detected driver's face angle exceeds the threshold (YES), the process proceeds to step S350, and the safety confirmation
次いで、ステップS370へ進み、安全確認行動評価部11は、運転シーン内の全ての評価区間を評価したか否かを判断する。ここで、全ての評価区間を評価していないときには(NO)、nをカウントアップして、ステップS320へ戻り、次の評価区間について評価対象区間であるか否かを判断し、以下上述した処理を繰り返し実行する。
Subsequently, it progresses to step S370 and the safety confirmation
また、上記ステップS370において、全ての評価区間の評価が完了したときには(YES)、ステップS380へ進み、安全確認行動評価部11は、運転シーン内の全ての評価区間において運転者による安全確認行動が適切になされているか否かを判断する。ここで、全ての評価区間において運転者による安全確認行動が適切になされているときには(YES)、ステップS390へ進み、安全確認行動評価部11は、該当運転シーンについて、運転者による安全確認行動が適切になされていると判定し、その判定結果を内部のメモリに記憶する。これにより、図5の制御を終了する。
In step S370, when all the evaluation sections have been evaluated (YES), the process proceeds to step S380, and the safety confirmation
また、上記ステップS380において、運転者による安全確認行動が適切になされていない評価区間が1つでもあるときには(NO)、ステップS400へ進み、安全確認行動評価部11は、該当運転シーンについて、運転者による安全確認行動が適切になされていないと判定し、その判定結果を内部のメモリに記憶する。これにより、図5の制御を終了する。
In step S380, when there is even one evaluation section in which the safety confirmation action by the driver is not properly performed (NO), the process proceeds to step S400, and the safety confirmation
次に、各運転シーンの評価区間毎の顔向き角度の閾値及び顔向き時間の閾値を決定する方法について説明する。自動車運転教習員や運輸会社等で認められた模範運転者等による実際の模範運転から、各運転シーンの評価区間毎の顔向き角度のデータを収集し、各運転シーンの評価区間毎に、図12(a)に示すような、顔向き角度と顔向き頻度の関係を示す特性図を作成する。この図12(a)から、前方以外の顔向き角度であって最も分布の多い(即ち、顔向き頻度のピークの)顔向き角度B1を、顔向き角度の閾値とする。そして、この最も分布の多い顔向き角度B1における顔向き時間(即ち、顔向き角度B1に顔向きを保持している時間)と顔向き頻度の関係を示す特性図、即ち、図12(b)を作成する。この図12(b)から、顔向き時間の平均値T1を、顔向き時間の閾値とする。これら閾値B1、T1は、図11に示す評価区間分割情報内のデータとして保存され、安全確認行動評価部11及び評価基準学習部12の内部のメモリに記憶される。このような各運転シーンの評価区間毎の顔向き角度の閾値及び顔向き時間の閾値を決定する処理(即ち、評価基準を決定または学習する処理)は、情報センタやメーカにて実施される。尚、上記閾値を決定する処理を、評価基準学習部12において実行するように構成しても良い。また、本実施形態では、評価基準を模範運転者の顔向き角度から決定または学習するように構成したが、これに限られるものではなく、模範運転者の代わりに、その車両を運転する運転者の普段の運転で検出された運転者の顔向き角度から決定または学習するかように構成しても良い。
Next, a method for determining the face angle threshold and the face time threshold for each evaluation section of each driving scene will be described. Data on the face angle for each evaluation section of each driving scene is collected from the actual driving by an exemplary driver approved by an automobile driving instructor or a transportation company, and the figure is displayed for each evaluation section of each driving scene. A characteristic diagram showing the relationship between the face orientation angle and the face orientation frequency as shown in FIG. From FIG. 12A, the face orientation angle B1 that is the face orientation angle other than the front and has the most distribution (that is, the peak of the face orientation frequency) is set as the threshold value of the face orientation angle. FIG. 12B is a characteristic diagram showing the relationship between the face orientation time at the face orientation angle B1 with the most distribution (ie, the time during which the face orientation is held at the face orientation angle B1) and the face orientation frequency. Create From FIG. 12B, the average value T1 of the face direction time is set as a threshold value of the face direction time. These threshold values B1 and T1 are stored as data in the evaluation section division information shown in FIG. 11, and are stored in the memories inside the safety confirmation
さて、例えば運転シーンが「車線変更」の評価区間1〜4について、模範運転者の顔向き角度を測定したデータ(即ち、顔向き分布の測定結果)の一例を、図13(a)に示す。そして、安全確認が不十分な運転者の顔向き角度を測定したデータ(即ち、顔向き分布の測定結果)の一例を図13(b)に示す。
Now, for example, for the
図13において、各区間の顔向き分布は、複数回の右車線変更における各区間毎の顔向き角度の検出結果の分布である。区間1から区間4に至る顔向き分布の変化がわかり、それらについて模範運転者と安全確認が不十分な運転者との違いが明確にわかる。図13から、複数回の運転シーンにおける区間毎の顔向き分布について、模範運転者の顔向き分布を基準として、一般の運転者の顔向き分布を評価してもよいことがわかる。評価の方法としては、平均値を比較したり、平均値と標準偏差σを加えた値を比較したり、また、顔向き分布のピーク位置について比較したりする方法がある。
In FIG. 13, the face orientation distribution of each section is a distribution of detection results of face orientation angles for each section in a plurality of right lane changes. Changes in the face orientation distribution from
また、運転シーンが「車線変更」、「合流あり直進」、「単路直進」の場合について、顔向き角度と顔向き頻度との関係(即ち、顔向き分布)を測定した結果を、図14に示す。図14(a)は模範運転者の顔向き分布を示し、図14(b)は安全確認が不十分な運転者の顔向き分布を示す。図14(a)、(b)において、1点鎖線の曲線C1は「車線変更」の場合であり、破線の曲線C2は「合流あり直進」の場合であり、実線の曲線C3は「単路直進」の場合である。尚、図13の測定データに基づいて、図14の曲線C1を得ることができる。 Further, the results of measuring the relationship between the face angle and the face direction frequency (ie, the face direction distribution) in the case where the driving scene is “lane change”, “straight forward with merging”, and “straight forward” are shown in FIG. Shown in FIG. 14A shows a model driver's face orientation distribution, and FIG. 14B shows a driver's face orientation distribution for which safety confirmation is insufficient. 14 (a) and 14 (b), the one-dot chain line curve C1 is the case of “lane change”, the dashed curve C2 is “straight with merging”, and the solid curve C3 is “single road” This is the case of “straight ahead”. Note that the curve C1 of FIG. 14 can be obtained based on the measurement data of FIG.
図14においては、各運転シーンを区間分割していないが、運転シーン毎に比較しても、模範運転者と安全確認が不十分な運転者との間で明確な違いが見られる。このため、図14(a)に示す模範運転者の顔向き分布を基準として、一般の運転者の顔向き分布を評価してもよいことがわかる。 In FIG. 14, each driving scene is not divided into sections, but even when compared for each driving scene, there is a clear difference between the model driver and a driver whose safety is insufficient. For this reason, it turns out that a general driver's face direction distribution may be evaluated on the basis of the model driver's face direction distribution shown in Drawing 14 (a).
このような構成の本実施形態によれば、運転シーン検出部9により車両の運転シーンを検出し、検出した運転シーンを評価区間分割部10により評価基準の異なる評価区間に分割し、安全確認行動評価部11により運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価するように構成したので、車両の運転シーンを評価区間に分割して細かく検出することができると共に、安全確認行動を高精度に診断することができる。また、本実施形態においては、視線検出装置を用いないので、製造コストを低減することができる。
According to this embodiment having such a configuration, a driving scene of the vehicle is detected by the driving
また、本実施形態では、評価区間分割部10によって、運転シーンの情報、ウィンカー信号の情報、車速の情報、及び、操舵状態の情報に基づいて運転行動の変化点p1、p2、p3を検出し、検出した変化点p1、p2、p3に基づいて前記運転シーンを評価区間に分割するように構成したので、評価基準の異なる評価区間に精度良く分割することが得切る。この構成の場合、運転行動の変化点としては、ウィンカー点灯時点p1、ハンドル切始め時点p2及びハンドル切返し時点p3を用いることが好ましい。
In the present embodiment, the evaluation
更に、本実施形態では、運転シーン検出部9によって、車両が走行する車線が異なるときには、異なる運転シーンとして運転シーンを検出するように構成したので、運転シーンをきめ細かく検出することができ、安全確認行動の診断精度をより一層向上できる。
Furthermore, in the present embodiment, the driving
また、本実施形態の図9に示す「車線変更」の運転シーンにおいて、ウィンカーの点灯時間について、安全確認行動の評価を実施することが可能である。具体的には、図9に示す区間2は、ウィンカー点灯からハンドル切始めまでの区間であり、この区間2の長さ(即ち、時間)に基づいて運転者によるウィンカー点灯操作の良し悪しを評価することができる。
Further, in the driving scene of “lane change” shown in FIG. 9 of the present embodiment, it is possible to evaluate the safety confirmation behavior with respect to the blinker lighting time. Specifically,
尚、図9に示す評価区間の分割処理において、ウィンカー点灯が遅すぎたり、ウィンカーを早く消灯したりすると、ハンドルの切始めの時点やハンドルの切返しのピークの時点が見つからない事態が発生することがある。このような場合には、検出できない区間は評価無効区間、あるいは、異常運転行動の区間として、評価区間分割部10の内部のメモリに記憶するように構成することが好ましい。
In the evaluation section dividing process shown in FIG. 9, if the blinker is turned on too late or the blinker is turned off early, a situation may occur in which the start point of the steering wheel or the peak point of the steering wheel return is not found. There is. In such a case, it is preferable that a section that cannot be detected is stored in a memory inside the evaluation
(第2実施形態)
図15及び図16は、本発明の第2実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第2実施形態では、オートクルーズやレーンキープアシストや自動車線変更等の自動走行を実行することができる自動走行装置を備えた車両に適用した。尚、車線変更を自動で行う技術としては、例えば特開平11−339186号公報に記載された構成が知られている。
(Second Embodiment)
15 and 16 show a second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In 2nd Embodiment, it applied to the vehicle provided with the automatic travel apparatus which can perform automatic driving | running | working, such as an auto cruise, a lane keep assist, and a vehicle line change. As a technique for automatically changing the lane, for example, a configuration described in JP-A-11-339186 is known.
オートクルーズやレーンキープアシスト等の自動走行を実行している場合であっても、安全運行の責任が運転者にある以上、運転者は常に安全確認を行う必要がある。このため第2実施形態においても、各運転シーンの評価区間毎に安全確認行動の評価を行い、運転者による安全確認行動が適切にできていないと判定された場合には、安全確認行動をするようアドバイスを提示したり、安全確認方向を提示したりする。また、第2実施形態では、運転者による安全確認行動が適切にできていないと繰り返し判定された場合には、自動走行装置の動作モードを変更する、例えば車両速度を設定値以下に制御したり、自動車線変更を不可としたりする。 Even when automatic driving such as auto cruise or lane keeping assist is being executed, the driver is always required to confirm safety as long as the driver is responsible for safe driving. Therefore, also in the second embodiment, the safety confirmation action is evaluated for each evaluation section of each driving scene, and if it is determined that the safety confirmation action by the driver is not properly performed, the safety confirmation action is performed. To provide advice and to provide safety confirmation directions. Further, in the second embodiment, when it is repeatedly determined that the safety confirmation action by the driver is not properly performed, the operation mode of the automatic travel device is changed, for example, the vehicle speed is controlled to a set value or less. Or change the car line.
第2実施形態の安全確認診断システム21は、図15に示すように、第1実施形態の安全確認診断システム1の構成に加えて、自動走行装置作動検出部22と自動走行装置モード変更制御部23を備えている。自動走行装置作動検出部22は、オートクルーズやレーンキープアシストや自動車線変更等を実行する自動走行装置の作動状態を検出し、検出信号を安全確認行動評価部11へ送信する。
As shown in FIG. 15, the safety confirmation
自動走行装置モード変更制御部23は、安全確認行動評価部11から安全確認行動判定信号と自動走行装置の作動状態の検出信号とを入力し、自動走行装置の動作モードを変更する必要があるか否かを判断し、変更する必要があるときには、変更制御信号を自動走行装置へ出力する。
Whether the automatic traveling device mode
次に、第2実施形態の自動走行装置モード変更制御部23の制御、即ち、動作について、図16のフローチャートに従って説明する。図16のステップS410においては、自動走行装置モード変更制御部23は、安全確認行動評価部11から安全確認行動判定信号及び自動走行装置の作動状態の検出信号等の情報を取得する。続いて、ステップS420へ進み、自動走行装置モード変更制御部23は、検出された運転シーンの評価区間毎に安全確認ができているか否かを判断する。ここで、全ての評価区間について安全確認ができているときには、ステップS420にて「YES」へ進み、図16の制御を終了する。
Next, the control, that is, the operation of the automatic travel device mode
また、上記ステップS420において、少なくとも1つの評価区間について安全確認ができていないときには(NO)、ステップS430へ進み、自動走行装置モード変更制御部23は、安全確認ができていない評価区間及び運転シーンに基づいて自動走行装置の動作モード変更処理を実行する。この場合、自動走行装置モード変更制御部23は、例えば安全確認ができていないと繰り返し判定されたような場合に、例えば車両速度を設定値以下に制御したり、自動車線変更を不可としたりする等の自動走行装置の動作モードの変更を行なうことを指示する変更指示信号を自動走行装置へ送信する。これにより、図16の制御を終了する。
In step S420, when safety confirmation has not been performed for at least one evaluation section (NO), the process proceeds to step S430, and the automatic travel device mode
尚、上述した以外の第2実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第2実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第2実施形態によれば、自動走行装置を備えた車両においても、運転者による安全確認行動を正確に判定することができ、また、自動走行中に安全確認行動が実行されないときには、それに対応するように自動走行装置の動作モードを変更することができる。 The configurations of the second embodiment other than those described above are the same as the configurations of the first embodiment. Therefore, in the second embodiment, substantially the same operational effects as in the first embodiment can be obtained. In particular, according to the second embodiment, even in a vehicle equipped with an automatic travel device, it is possible to accurately determine the safety confirmation behavior by the driver, and when the safety confirmation behavior is not executed during automatic travel, The operation mode of the automatic travel device can be changed to correspond.
(第3実施形態)
図17及び図18は、本発明の第3実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第3実施形態では、運転者の視線を検出する視線検出部24を設け、この視線検出部24により検出した視線検出結果を安全確認行動評価部11へ出力するように構成した。
(Third embodiment)
17 and 18 show a third embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In the third embodiment, the
視線検出部24は、顔向き検出部3から、運転者の顔画像のデータを入力し、入力した運転者の顔画像のデータに基づいて運転者の視線を推定(即ち、検出)する。この場合、視線検出部24は、運転者の顔画像から左右の目の画像を抽出し、抽出した左右の目の画像から眼球と虹彩の位置関係を取得する。更に、視線検出部24は、取得した眼球と虹彩の位置関係と、顔向き検出部3により検出された運転者の顔向き角度とに基づいて、運転者の視線方向を検出するように構成されている。
The line-of-
そして、視線検出部24は、推定した運転者の視線方向の検出結果を安全確認行動評価部11へ出力する。安全確認行動評価部11は、視線検出部24からの運転者の視線方向の検出結果を考慮して運転者の安全確認行動が適切になされたか否かを判定するように構成されている。
Then, the line-of-
次に、第3実施形態の視線検出部24の制御、即ち、動作について、図18のフローチャートに従って説明する。図18のステップS510においては、視線検出部24は、顔向き検出部3から運転者の顔画像のデータを入力する。続いて、ステップS520へ進み、視線検出部24は、顔向き検出部3から運転者の顔向き角度の情報を取得する。
Next, the control, that is, the operation of the line-of-
次いで、ステップS530へ進み、視線検出部24は、抽出した運転者の顔画像に基づいて運転者の視線方向を検出(即ち、推定)する。そして、ステップS540へ進み、視線検出部24は、推定した運転者の視線方向の検出結果を、内部のメモリに記憶(即ち、保存)すると共に、安全確認行動評価部11へ出力する。これにより、図18の制御を終了する。
Next, the process proceeds to step S530, and the line-of-
尚、上述した以外の第3実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第3実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第3実施形態によれば、安全確認行動評価部11は、視線検出部24による運転者の視線の検出結果を考慮して運転者の安全確認行動を判定するように構成したので、安全確認行動の判定精度を向上させることができる。
The configuration of the third embodiment other than that described above is the same as the configuration of the first embodiment. Therefore, in the third embodiment, substantially the same operational effects as in the first embodiment can be obtained. In particular, according to the third embodiment, the safety confirmation
(第4実施形態)
図19は、本発明の第4実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第1実施形態では、高速道または車両専用道における運転シーンについて、運転者の安全確認行動を評価するように構成したが、第4実施形態では、一般道における運転シーンについても、運転者の安全確認行動を評価するように構成した。
(Fourth embodiment)
FIG. 19 shows a fourth embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In the first embodiment, the driver's safety confirmation behavior is evaluated for a driving scene on a highway or a vehicle-only road. However, in the fourth embodiment, the driver's safety is also evaluated for a driving scene on a general road. It was configured to evaluate confirmation behavior.
具体的には、図19に示すように、一般道において、「車線変更」、・・・、「単路直進」の各運転シーンについて、複数の評価区間に分割し、分割した各評価区間毎に、第1実施形態とほぼ同様にして、運転者の安全確認行動を評価(即ち、判定)するように構成した。 Specifically, as shown in FIG. 19, on a general road, for each driving scene of “lane change”,..., “Straight line straight”, the driving scene is divided into a plurality of evaluation sections. In the same manner as in the first embodiment, the driver's safety confirmation behavior is evaluated (ie, determined).
尚、上述した以外の第4実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第4実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。 The configurations of the fourth embodiment other than those described above are the same as the configurations of the first embodiment. Therefore, also in the fourth embodiment, substantially the same operational effects as in the first embodiment can be obtained.
また、上記した各実施形態においては、各運転シーンの評価区間毎において、顔向き角度または顔向き時間が各閾値を超えているかどうかで運転者の安全確認行動を評価するように構成したが、これに代えて、各運転シーンの評価区間毎において、顔向き角度の分布の形に基づいて安全確認行動を評価するように構成しても良い。 In each embodiment described above, in each evaluation section of each driving scene, it is configured to evaluate the driver's safety confirmation behavior based on whether the face angle or the face time exceeds each threshold. Alternatively, the safety confirmation action may be evaluated based on the shape of the face angle distribution in each evaluation section of each driving scene.
図面中、1は安全確認診断システム、2はカメラ、3は顔向き検出部、6はウィンカー信号検出部、9は運転シーン検出部、10は評価区間分割部、11は安全確認行動評価部、12は評価基準学習部、13はアドバイス提示部、14は管理者向け伝達部、21は安全確認診断システム、22は自動走行装置作動検出部、23は自動走行装置モード変更制御部、24は視線検出部である。 In the drawings, 1 is a safety confirmation diagnostic system, 2 is a camera, 3 is a face direction detection unit, 6 is a blinker signal detection unit, 9 is a driving scene detection unit, 10 is an evaluation section division unit, 11 is a safety confirmation action evaluation unit, 12 is an evaluation criterion learning unit, 13 is an advice presenting unit, 14 is a transmission unit for managers, 21 is a safety confirmation diagnostic system, 22 is an automatic travel device operation detection unit, 23 is an automatic travel device mode change control unit, and 24 is a line of sight. It is a detection unit.
Claims (11)
運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、
車両の運転シーンを検出する運転シーン検出部(9)と、
運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)と、
運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価する安全確認行動評価部(11)と
を備えた安全確認診断システム。 A camera (2) that captures the face of the driver of the vehicle;
A face direction detection unit (3) for detecting the direction of the driver's face based on the image data of the driver's face;
A driving scene detector (9) for detecting a driving scene of the vehicle;
An evaluation section dividing unit (10) for dividing the driving scene into evaluation sections having different evaluation criteria;
A safety confirmation diagnosis system comprising a safety confirmation action evaluation unit (11) that evaluates a driver's safety confirmation action based on a driver's face direction and an evaluation section of a vehicle driving scene.
前記評価区間分割部(10)は、検出した白線の位置と車両の位置との位置関係から運転行動の変化点を検出して前記運転シーンを分割するように構成されていることを特徴とする請求項1記載の安全確認診断システム。 It has a white line detector that detects the white line of the road,
The evaluation section dividing unit (10) is configured to divide the driving scene by detecting a change point of driving action from a positional relationship between the detected position of the white line and the position of the vehicle. The safety confirmation diagnostic system according to claim 1.
前記安全確認行動評価部(11)による安全確認行動の評価結果に基づいて、自動走行装置の動作モードを変更する必要があるか否かを判断する自動走行装置モード変更制御部(23)と
を備えた請求項1から8のいずれか一項記載の安全確認診断システム。 An automatic traveling device operation detecting unit (22) for detecting an operating state of the automatic traveling device;
An automatic traveling device mode change control unit (23) for determining whether or not it is necessary to change the operation mode of the automatic traveling device based on the evaluation result of the safety confirmation behavior by the safety confirmation behavior evaluating unit (11). The safety confirmation diagnostic system according to any one of claims 1 to 8, further comprising:
前記安全確認行動評価部(11)は、運転者の視線の検出結果を考慮して運転者の安全確認行動を評価するように構成されている請求項1から9のいずれか一項記載の安全確認診断システム。 A gaze detection unit (24) for detecting the gaze of the driver,
The safety according to any one of claims 1 to 9, wherein the safety confirmation action evaluation unit (11) is configured to evaluate a driver's safety confirmation action in consideration of a detection result of the driver's line of sight. Confirmation diagnostic system.
運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価するようにした安全確認診断方法。
A camera (2) that captures the face of the driver of the vehicle, a face direction detection unit (3) that detects the face direction of the driver based on image data of the driver's face, and a driving scene of the vehicle A safety confirmation diagnosing method comprising a driving scene detecting unit (9) and an evaluation section dividing unit (10) for dividing a driving scene into evaluation sections having different evaluation criteria,
A safety confirmation diagnosis method for evaluating a driver's safety confirmation behavior based on a driver's face direction and an evaluation section of a vehicle driving scene.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033099A JP2017151694A (en) | 2016-02-24 | 2016-02-24 | Safety confirmation diagnostic system and safety confirmation diagnostic method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033099A JP2017151694A (en) | 2016-02-24 | 2016-02-24 | Safety confirmation diagnostic system and safety confirmation diagnostic method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017151694A true JP2017151694A (en) | 2017-08-31 |
Family
ID=59739084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016033099A Pending JP2017151694A (en) | 2016-02-24 | 2016-02-24 | Safety confirmation diagnostic system and safety confirmation diagnostic method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017151694A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647708A (en) * | 2018-04-28 | 2018-10-12 | 清华-伯克利深圳学院筹备办公室 | Driver evaluation's method, apparatus, equipment and storage medium |
JP6414309B1 (en) * | 2017-10-20 | 2018-10-31 | オムロン株式会社 | Driving skill evaluation device, vehicle, and program |
JP2019105729A (en) * | 2017-12-12 | 2019-06-27 | 株式会社テイクアンドシー | Person evaluation device, program, and, method |
JP2020021323A (en) * | 2018-08-01 | 2020-02-06 | 三菱ロジスネクスト株式会社 | Determination device and determination method |
JP2020123214A (en) * | 2019-01-31 | 2020-08-13 | 矢崎エナジーシステム株式会社 | Drive evaluation system and in-vehicle device |
JPWO2020049737A1 (en) * | 2018-09-07 | 2020-09-10 | 株式会社オファサポート | Driving skill evaluation system, method and program |
US11834073B2 (en) | 2020-09-24 | 2023-12-05 | Toyota Jidosha Kabushiki Kaisha | Autonomous driving system |
JP7415471B2 (en) | 2019-11-18 | 2024-01-17 | 株式会社ジェイテクト | Driving evaluation device, driving evaluation system, in-vehicle device, external evaluation device, and driving evaluation program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08127264A (en) * | 1994-10-28 | 1996-05-21 | Toyota Motor Corp | Occupant detection device and auxiliary machinery controller which uses the occupant detection device |
JPH10119673A (en) * | 1996-10-14 | 1998-05-12 | Toyota Motor Corp | Automatic alarm actuator for vehicle |
JP2004157880A (en) * | 2002-11-07 | 2004-06-03 | Toyota Central Res & Dev Lab Inc | Confirmation action evaluation device |
JP2011159217A (en) * | 2010-02-03 | 2011-08-18 | Fuji Heavy Ind Ltd | Confirmation action support device |
JP2014181020A (en) * | 2013-03-21 | 2014-09-29 | Denso Corp | Travel control device |
JP2015141516A (en) * | 2014-01-28 | 2015-08-03 | 株式会社デンソー | Driving evaluating device |
JP2015141432A (en) * | 2014-01-27 | 2015-08-03 | 株式会社デンソー | Vehicle operation evaluation system |
-
2016
- 2016-02-24 JP JP2016033099A patent/JP2017151694A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08127264A (en) * | 1994-10-28 | 1996-05-21 | Toyota Motor Corp | Occupant detection device and auxiliary machinery controller which uses the occupant detection device |
JPH10119673A (en) * | 1996-10-14 | 1998-05-12 | Toyota Motor Corp | Automatic alarm actuator for vehicle |
JP2004157880A (en) * | 2002-11-07 | 2004-06-03 | Toyota Central Res & Dev Lab Inc | Confirmation action evaluation device |
JP2011159217A (en) * | 2010-02-03 | 2011-08-18 | Fuji Heavy Ind Ltd | Confirmation action support device |
JP2014181020A (en) * | 2013-03-21 | 2014-09-29 | Denso Corp | Travel control device |
JP2015141432A (en) * | 2014-01-27 | 2015-08-03 | 株式会社デンソー | Vehicle operation evaluation system |
JP2015141516A (en) * | 2014-01-28 | 2015-08-03 | 株式会社デンソー | Driving evaluating device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6414309B1 (en) * | 2017-10-20 | 2018-10-31 | オムロン株式会社 | Driving skill evaluation device, vehicle, and program |
JP2019079151A (en) * | 2017-10-20 | 2019-05-23 | オムロン株式会社 | Driving skill evaluation device, vehicle, and program |
JP2019105729A (en) * | 2017-12-12 | 2019-06-27 | 株式会社テイクアンドシー | Person evaluation device, program, and, method |
CN108647708A (en) * | 2018-04-28 | 2018-10-12 | 清华-伯克利深圳学院筹备办公室 | Driver evaluation's method, apparatus, equipment and storage medium |
JP2020021323A (en) * | 2018-08-01 | 2020-02-06 | 三菱ロジスネクスト株式会社 | Determination device and determination method |
JPWO2020049737A1 (en) * | 2018-09-07 | 2020-09-10 | 株式会社オファサポート | Driving skill evaluation system, method and program |
JP2020123214A (en) * | 2019-01-31 | 2020-08-13 | 矢崎エナジーシステム株式会社 | Drive evaluation system and in-vehicle device |
JP7267760B2 (en) | 2019-01-31 | 2023-05-02 | 矢崎エナジーシステム株式会社 | Driving evaluation system and in-vehicle device |
JP7415471B2 (en) | 2019-11-18 | 2024-01-17 | 株式会社ジェイテクト | Driving evaluation device, driving evaluation system, in-vehicle device, external evaluation device, and driving evaluation program |
US11834073B2 (en) | 2020-09-24 | 2023-12-05 | Toyota Jidosha Kabushiki Kaisha | Autonomous driving system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017151694A (en) | Safety confirmation diagnostic system and safety confirmation diagnostic method | |
KR102051142B1 (en) | System for managing dangerous driving index for vehicle and method therof | |
CN110533900B (en) | Method for assisting the driving of at least one motor vehicle, assistance system and motor vehicle | |
GB2604514A (en) | Systems and methods for determining road safety | |
JP6654923B2 (en) | Map information output device | |
CN110198875B (en) | Improvements in or relating to driver assistance systems | |
JP2017529517A (en) | Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car | |
JP2010125923A (en) | Emergency refuge device | |
US11042154B2 (en) | Transportation equipment and traveling control method therefor | |
US20150220796A1 (en) | Sign recognition apparatus and method for determining left- or right-hand traffic division and distance unit | |
CN112046481B (en) | Automatic driving device and method | |
WO2018135509A1 (en) | Event prediction system, event prevention method, program, and recording medium having same recorded therein | |
JP6941178B2 (en) | Automatic operation control device and method | |
JP2020123339A (en) | Cooperative blind spot alarm method and apparatus of vehicle-to-vehicle communication infrastructure with fault tolerance and fluctuation robustness under extreme situation | |
JP2018127084A (en) | Automatic drive vehicle | |
KR20220030232A (en) | Apparatus and method For Warning a signal violation vehicle at intersection | |
US20210291837A1 (en) | Concentration degree determination device, concentration degree determination method, and program for determining concentration degree | |
JP2017129973A (en) | Driving support apparatus and driving support method | |
JP6631569B2 (en) | Operating state determining apparatus, operating state determining method, and program for determining operating state | |
JP4985319B2 (en) | Driving support device | |
JP6617602B2 (en) | Maneuvering detection system and maneuvering detection method | |
JP7376996B2 (en) | Vehicle dangerous situation determination device, vehicle dangerous situation determination method, and program | |
WO2023029469A1 (en) | Vehicle traveling warning method and apparatus | |
JP2018094294A (en) | State estimation system | |
JP7333702B2 (en) | VEHICLE DANGEROUS SITUATION DETERMINATION DEVICE, VEHICLE DANGEROUS SITUATION DETERMINATION METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190521 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190911 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20190911 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190920 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20190924 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20191129 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20191203 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200421 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20200915 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210209 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20210316 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20210420 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210420 |