JP2017151694A - Safety confirmation diagnostic system and safety confirmation diagnostic method - Google Patents

Safety confirmation diagnostic system and safety confirmation diagnostic method Download PDF

Info

Publication number
JP2017151694A
JP2017151694A JP2016033099A JP2016033099A JP2017151694A JP 2017151694 A JP2017151694 A JP 2017151694A JP 2016033099 A JP2016033099 A JP 2016033099A JP 2016033099 A JP2016033099 A JP 2016033099A JP 2017151694 A JP2017151694 A JP 2017151694A
Authority
JP
Japan
Prior art keywords
safety confirmation
driver
evaluation
driving scene
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016033099A
Other languages
Japanese (ja)
Inventor
伊藤 靖之
Yasuyuki Ito
靖之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016033099A priority Critical patent/JP2017151694A/en
Publication of JP2017151694A publication Critical patent/JP2017151694A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable safety confirmation behavior to be accurately diagnosed by finely detecting a driving scene of a vehicle and to reduce a manufacturing cost.SOLUTION: A safety confirmation diagnostic system comprises: a camera (2) which images a driver's face; a face direction detection section (3) which detects a direction of the driver's face on the basis of image data on the driver's face; a driving scene detection section (9) which detects a driving scene of a vehicle; an evaluation zone separation section (10) which separates the driving scene into evaluation zones with different evaluation criteria; and a safety confirmation behavior evaluation section (11) which evaluates safety confirmation behavior of the driver on the basis of the direction of the driver's face and the evaluation zones of the driving scene of the vehicle.SELECTED DRAWING: Figure 1

Description

本発明は、運転者の安全確認行動が適切になされているかどうかを診断する安全確認診断システム及び安全確認診断方法に関する。   The present invention relates to a safety confirmation diagnosis system and a safety confirmation diagnosis method for diagnosing whether or not a driver's safety confirmation behavior is appropriately performed.

車両の挙動に基づいて安全確認が必要な運転シーンを検出し、また、運転者の視線を検出し、検出した運転者の視線に基づいて安全確認が必要な運転シーンに応じた運転者の安全確認行動が実行されたかどうかを評価するシステムが提案されている(例えば特許文献1、2参照)。   Detecting driving scenes that require safety confirmation based on vehicle behavior, detecting driver's gaze, and driving safety according to driving scenes that require safety confirmation based on the detected driver's gaze A system for evaluating whether a confirmation action has been executed has been proposed (see, for example, Patent Documents 1 and 2).

特開2012−247871号公報JP 2012-247871 A 特開2015−141432号公報JP, 2015-141432, A

例えば車線変更の運転シーンが検出された場合について、考察してみる。車線変更の運転シーンといっても、道路形状が合流の場合と、道路形状が分岐の場合とでは、適切な安全確認行動に違いがあるが、上記従来構成のシステムでは、そのような違いを考慮していなかった。また、高速道路の本線を直進中であっても、前方に合流がある場合は、合流路の車両を注意しながら運転する必要があり、また、合流や分岐がなくても時々周囲の状況を確認する必要があるが、上記従来構成のシステムでは、そのような確認行動が実行されたかどうかを評価していなかった。   For example, let us consider a case where a driving scene for changing lanes is detected. Even if it is a driving scene of lane change, there is a difference in the appropriate safety confirmation behavior when the road shape is merged and when the road shape is branched. Did not consider. In addition, even if you are traveling straight on the main road of the expressway, if there is a merge ahead, you need to drive the vehicle in the merge path with caution, and sometimes you may not be able to meet Although it is necessary to confirm, the system having the above-described conventional configuration does not evaluate whether or not such a confirmation action is executed.

更に、車線変更時の安全確認行動は、車線変更前と車線変更中とでは安全確認行動が異なるが、上記従来構成のシステムでは、そのような違いを考慮していなかった。また、運転者の視線を検出する視線検出装置は、かなり高価であるという問題もあった。また、運転者がメガネを装着していると、運転者の視線を正確に検出することができないという問題もあった。   Furthermore, the safety confirmation behavior at the time of lane change differs between the safety confirmation behavior before the lane change and during the lane change, but such a difference is not considered in the system of the conventional configuration. Further, the gaze detection device that detects the driver's gaze has a problem that it is quite expensive. In addition, when the driver is wearing glasses, there is a problem that the driver's line of sight cannot be accurately detected.

本発明の目的は、車両の運転シーンを細かく検出し、安全確認行動を高精度に診断することができ、また、製造コストを低減することができる安全確認診断システム及び安全確認診断方法を提供することにある。   An object of the present invention is to provide a safety confirmation diagnosis system and a safety confirmation diagnosis method capable of detecting a vehicle driving scene in detail, diagnosing safety confirmation behavior with high accuracy, and reducing manufacturing costs. There is.

請求項1の発明は、車両の運転者の顔を撮影するカメラ(2)と、運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、車両の運転シーンを検出する運転シーン検出部(9)と、運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)と、運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価する安全確認行動評価部(11)とを備えたシステムである。   The invention of claim 1 includes a camera (2) that captures the face of the driver of the vehicle, a face direction detector (3) that detects the face direction of the driver based on image data of the driver's face, A driving scene detection unit (9) for detecting a driving scene of the vehicle, an evaluation section dividing unit (10) for dividing the driving scene into evaluation sections having different evaluation criteria, and evaluation of the driver's face direction and the driving scene of the vehicle It is a system provided with the safety confirmation action evaluation part (11) which evaluates a driver | operator's safety confirmation action based on a section.

請求項8の発明は、車両の運転者の顔を撮影するカメラ(2)と、運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、車両の運転シーンを検出する運転シーン検出部(9)と、運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)とを備えた安全確認診断方法であって、運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価するようにした方法である。   The invention of claim 8 includes a camera (2) that captures the face of the driver of the vehicle, a face direction detector (3) that detects the face direction of the driver based on image data of the driver's face, A safety confirmation diagnosis method comprising a driving scene detection unit (9) for detecting a driving scene of a vehicle and an evaluation section dividing unit (10) for dividing the driving scene into evaluation sections having different evaluation criteria. In this method, the driver's safety confirmation behavior is evaluated based on the face direction and the evaluation section of the driving scene of the vehicle.

本発明の第1実施形態を示す安全確認診断システムのブロック図The block diagram of the safety check diagnostic system which shows 1st Embodiment of this invention 運転シーンの検出制御のフローチャートFlowchart of driving scene detection control 顔向き角度の検出制御のフローチャートFlow chart of face angle detection control 評価区間分割制御のフローチャートFlow chart of evaluation section division control 安全確認診断制御のフローチャートFlow chart of safety confirmation diagnosis control 高速道等の運転シーン、判定条件等の関係を表にして示す図Diagram showing the relationship between driving scenes such as expressways, judgment conditions, etc. 運転シーンの例を示す図Diagram showing an example of driving scene 一般道の運転シーンを表にして示す図A diagram showing a general road driving scene as a table 評価区間の分割制御を説明する図The figure explaining division control of an evaluation section 他の運転シーンの評価区間の分割制御の例を説明する図The figure explaining the example of the division | segmentation control of the evaluation area of another driving scene 高速道等の評価区間分割情報を一覧表にして示す図Figure showing evaluation section division information such as expressways as a list (a)は顔向き角度と顔向き頻度の関係を示す特性図、(b)は顔向き時間と顔向き頻度の関係を示す特性図(A) is a characteristic diagram showing the relationship between the face orientation angle and the face orientation frequency, and (b) is a characteristic diagram showing the relationship between the face orientation time and the face orientation frequency. 顔向き分布の測定結果を示す図The figure which shows the measurement result of face orientation distribution 複数の運転シーンの顔向き分布を示す図A diagram showing the face orientation distribution of multiple driving scenes 本発明の第2実施形態を示す安全確認診断システムのブロック図The block diagram of the safety check diagnostic system which shows 2nd Embodiment of this invention 自動走行装置のモード変更の制御のフローチャートFlow chart of control of mode change of automatic travel device 本発明の第3実施形態を示す安全確認診断システムのブロック図The block diagram of the safety check diagnostic system which shows 3rd Embodiment of this invention 視線を検出する制御のフローチャートFlow chart of control for detecting line of sight 一般道の評価区間分割情報を一覧表にして示す図Figure showing a list of evaluation section division information for general roads

以下、本発明の第1実施形態について、図1ないし図14を参照して説明する。本実施形態の安全確認診断システム1は、図示しない車両に搭載される車載システムである。安全確認診断システム1は、図1に示すように、カメラ2と、顔向き検出部3と、GPS受信機4と、地図データ記憶部5と、ウィンカー信号検出部6と、車速検出部7と、操舵状態検出部8と、運転シーン検出部9と、評価区間分割部10と、安全確認行動評価部11と、評価基準学習部12と、アドバイス提示部13と、管理者向け伝達部14とを備えて構成されている。   Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. The safety confirmation diagnosis system 1 of this embodiment is an in-vehicle system that is mounted on a vehicle (not shown). As shown in FIG. 1, the safety confirmation diagnosis system 1 includes a camera 2, a face orientation detection unit 3, a GPS receiver 4, a map data storage unit 5, a blinker signal detection unit 6, and a vehicle speed detection unit 7. The steering state detection unit 8, the driving scene detection unit 9, the evaluation section division unit 10, the safety confirmation behavior evaluation unit 11, the evaluation criterion learning unit 12, the advice presentation unit 13, and the manager transmission unit 14 It is configured with.

カメラ2は、車両の運転者の顔を撮影し、撮影した運転者の顔の画像データを顔向き検出部3へ出力する。顔向き検出部3は、カメラ2からの画像データを入力し、その画像データの中から運転者の顔画像を抽出し、その顔画像に基づいて運転者の顔の向きを検出し、顔向き検出結果を安全確認行動評価部11へ出力する。   The camera 2 photographs the face of the driver of the vehicle and outputs image data of the photographed driver's face to the face orientation detection unit 3. The face orientation detection unit 3 inputs image data from the camera 2, extracts a driver's face image from the image data, detects the driver's face orientation based on the face image, and detects the face orientation. The detection result is output to the safety confirmation action evaluation unit 11.

GPS受信機4は、車両の現在位置を検出し、位置検出結果を運転シーン検出部9へ出力する。地図データ記憶部5は、DVDやハードディスクや半導体メモリ等で構成され、道路地図情報を含む道路地図データや種々のデータを記憶している。運転シーン検出部9は、地図データ記憶部5の道路地図データに基づいて車両が走行している走行道路や車両の現在位置の場所等を参照することが可能である。   The GPS receiver 4 detects the current position of the vehicle and outputs a position detection result to the driving scene detection unit 9. The map data storage unit 5 includes a DVD, a hard disk, a semiconductor memory, and the like, and stores road map data including road map information and various data. The driving scene detection unit 9 can refer to the traveling road on which the vehicle is traveling, the location of the current position of the vehicle, and the like based on the road map data in the map data storage unit 5.

ウィンカー信号検出部6は、ウィンカーの点灯状態を検出し、検出信号を運転シーン検出部9へ出力する。車速検出部7は、車速センサ等の信号に基づいて車両の速度を検出し、車速検出信号を運転シーン検出部9へ出力する。操舵状態検出部8は、ハンドル舵角センサやジャイロ等の信号に基づいて車両の操舵状態を検出し、操舵状態検出信号を運転シーン検出部9へ出力する。   The winker signal detection unit 6 detects the lighting state of the winker and outputs a detection signal to the driving scene detection unit 9. The vehicle speed detection unit 7 detects the speed of the vehicle based on a signal from a vehicle speed sensor or the like, and outputs a vehicle speed detection signal to the driving scene detection unit 9. The steering state detection unit 8 detects the steering state of the vehicle based on signals from a steering angle sensor, a gyro, and the like, and outputs a steering state detection signal to the driving scene detection unit 9.

運転シーン検出部9は、GPS受信機4、地図データ記憶部5、ウィンカー信号検出部6、車速検出部7及び操舵状態検出部8からの各信号を取得し、例えば「高速道路での車線変更」等の車両の運転シーンを検出し、検出結果を評価区間分割部10へ出力する。   The driving scene detection unit 9 acquires signals from the GPS receiver 4, the map data storage unit 5, the blinker signal detection unit 6, the vehicle speed detection unit 7, and the steering state detection unit 8, for example, “lane change on a highway” ”Is detected and the detection result is output to the evaluation section dividing unit 10.

評価区間分割部10は、運転シーン検出部9からの検出結果を取得し、運転シーンを評価基準の異なる評価区間に分割し、分割結果を安全確認行動評価部11へ出力する。
安全確認行動評価部11は、顔向き検出部3からの検出結果及び評価区間分割部10からの分割結果を取得し、運転シーン及び評価区間毎に安全確認行動を評価する、即ち、運転者が安全確認行動を適切に行なったか否かを判定する。安全確認行動評価部11は、判定結果(即ち、運転者が安全確認行動を適切に行なったと判定した結果または運転者が安全確認行動を適切に行なわなかったと判定した結果のどちらか、或いは、両方の判定結果)に応じた安全確認行動判定信号をアドバイス提示部13及び管理者向け伝達部14へ出力する。
The evaluation section dividing unit 10 acquires the detection result from the driving scene detecting unit 9, divides the driving scene into evaluation sections having different evaluation criteria, and outputs the divided result to the safety confirmation action evaluating unit 11.
The safety confirmation action evaluation unit 11 acquires the detection result from the face direction detection unit 3 and the division result from the evaluation section dividing unit 10, and evaluates the safety confirmation action for each driving scene and evaluation section. It is determined whether or not safety confirmation actions have been appropriately performed. The safety confirmation action evaluation unit 11 determines the determination result (that is, either the result of determining that the driver has appropriately performed the safety confirmation action or the result of determination that the driver has not appropriately performed the safety confirmation action, or both. To the advice presenting unit 13 and the transmitting unit 14 for the manager.

評価基準学習部12は、安全確認行動評価部11から運転シーン毎の顔向き情報を取得し、運転シーン毎及び評価区間毎の評価基準を学習し、評価区間毎の顔向き角度の閾値と顔向き時間の閾値を決定し、決定した閾値を安全確認行動評価部11へ出力する。   The evaluation criterion learning unit 12 acquires face orientation information for each driving scene from the safety confirmation behavior evaluating unit 11, learns an evaluation criterion for each driving scene and for each evaluation section, and determines the face orientation angle threshold value and the face for each evaluation section. A threshold value for the direction time is determined, and the determined threshold value is output to the safety confirmation action evaluation unit 11.

アドバイス提示部13は、安全確認行動評価部11から安全確認行動判定信号を入力し、例えば運転者が安全確認行動を適切に行わなかったと判定された判定結果を入力したときには、運転者に対して安全確認行動を十分行なうように注意したり、休憩等を提案したりするアドバイスを提示する。この場合、アドバイス提示部13は、例えば、表示装置にアドバイスに対応するメッセージを表示したり、アドバイスに対応するメッセージを音声で出力したりするように構成することが好ましい。   The advice presenting unit 13 inputs a safety confirmation behavior determination signal from the safety confirmation behavior evaluation unit 11 and, for example, when a determination result determined that the driver did not appropriately perform the safety confirmation behavior is input to the driver Give advice to pay attention to safety confirmation actions and suggest breaks. In this case, it is preferable that the advice presenting unit 13 be configured to display a message corresponding to the advice on the display device or to output a message corresponding to the advice by voice, for example.

管理者向け伝達部14は、安全確認行動評価部11から安全確認行動判定信号を入力したときに、運転者の安全確認行動の評価の情報と、安全確認行動の評価が発生したときの車両の位置の情報と、安全確認行動の評価が発生した時刻の情報とを安全確認行動評価部11から取得し、これら取得した各情報を無線通信(例えば携帯電話通信)を介して車両例えばトラックやバス等の商用車を管理する管理事務所に伝達する。尚、このような情報伝達処理は、車両が商用車の場合に行なう。   When the safety confirmation behavior evaluation signal is input from the safety confirmation behavior evaluation unit 11, the transmission unit 14 for the manager receives information on the evaluation of the driver's safety confirmation behavior and the vehicle when the safety confirmation behavior is evaluated. Information on the position and information on the time at which the evaluation of the safety confirmation action occurred is acquired from the safety confirmation action evaluation unit 11, and the acquired information is transmitted to the vehicle such as a truck or bus via wireless communication (for example, mobile phone communication). To the management office that manages commercial vehicles. Such information transmission processing is performed when the vehicle is a commercial vehicle.

また、無線通信の代わりにメモリカード等の記録媒体に上記各情報を記憶させ、この記憶させた記録媒体を車両から取り外して管理事務所に運び込むことにより、上記各情報を管理事務所に伝達するように構成しても良い。また、管理事務所においては、運転者に対して車両の運転の指導を実施する際に、上記伝達された安全確認運転の評価の各情報を用いることができる。   Further, instead of wireless communication, each information is stored in a recording medium such as a memory card, and the stored information is transferred to the management office by removing the stored recording medium from the vehicle and carrying it to the management office. You may comprise as follows. Further, in the management office, when the vehicle driving instruction is given to the driver, each information of the transmitted safety confirmation driving evaluation can be used.

次に、運転シーン検出部9の制御、即ち、動作について、図2のフローチャートに従って説明する。図2のステップS10においては、運転シーン検出部9は、GPS受信機4、地図データ記憶部5、ウィンカー信号検出部6、車速検出部7及び操舵状態検出部8からの各信号、即ち、各情報を取得する。続いて、ステップS20へ進み、運転シーン検出部9は、GPS受信機4からの位置検出結果に基づいて車両の現在位置を測定する。   Next, the control, that is, the operation of the driving scene detection unit 9 will be described with reference to the flowchart of FIG. In step S10 of FIG. 2, the driving scene detection unit 9 receives signals from the GPS receiver 4, the map data storage unit 5, the winker signal detection unit 6, the vehicle speed detection unit 7, and the steering state detection unit 8, that is, Get information. Then, it progresses to step S20 and the driving scene detection part 9 measures the present position of a vehicle based on the position detection result from the GPS receiver 4. FIG.

そして、ステップS30へ進み、運転シーン検出部9は、車両の位置情報と、車速情報と、操舵状態の情報(例えば角速度情報等)と、地図データとを参照し、更に、ナビゲーションシステムで用いられる技術を用いて、車両が走行する走行道路及び走行箇所を特定する。そして、運転シーン検出部9は、上記特定した走行道路及び走行箇所と、ウィンカー点灯信号の検出情報とを参照することにより、図6の表に示すような種々の運転シーン、例えば、高速道路または車両専用道における「車線変更」、「本線合流」、「本線離脱」、「合流あり直進(第1車線)」、「合流あり直進(第1車線以外)」、「分岐あり直進」、「単路直進」等を特定することができる。尚、上記した車両の各運転シーンを高速道路または車両専用道と共に、具体的に図示した図を、図7に示す。   In step S30, the driving scene detection unit 9 refers to the vehicle position information, vehicle speed information, steering state information (for example, angular velocity information), and map data, and is further used in the navigation system. Using the technology, the travel road and the travel location where the vehicle travels are specified. Then, the driving scene detection unit 9 refers to the identified driving road and the driving location and the detection information of the blinker lighting signal, so that various driving scenes as shown in the table of FIG. “Change lane”, “Main line merge”, “Leave main line”, “Straight with merging (1st lane)”, “Straight with merging (other than 1st lane)”, “Straight with branch”, “Single It is possible to specify “straight ahead”. In addition, the figure which specifically illustrated each driving scene of the above-mentioned vehicle with a highway or a vehicle exclusive road is shown in FIG.

この場合、例えば運転シーンが「車線変更」であれば、ウィンカー点灯の3秒前を運転シーンの始点とし、ウィンカー消灯時点を運転シーンの終点とする。また、運転シーンが「合流ありの直進」であれば、合流終了地点の300m手前を運転シーンの始点、合流終了地点を運転シーンの終点として、走行車線に応じて運転シーンを分ける。合流終了地点については、車両位置と地図データから検出された道路リンクにおいて、本線リンクと合流リンクが接続されているノードを通過した場合、図7においては、本線リンクと本線リンクの切替わりが発生した場合、あらかじめ設定した合流終了地点とリンク切替わり地点の距離差から合流終了地点を求めることができる。尚、走行車線の認識については、カメラにより白線を認識する方法や、本線合流からの右車線変更、左車線変更の発生数と地図データに格納された道路リンク毎の車線数のデータに基づいて車線を認識する方法があり、これらの方法を適宜用いることが好ましい。   In this case, for example, if the driving scene is “lane change”, the starting point of the driving scene is set to 3 seconds before the blinker is turned on, and the end point of the driving scene is set to the time when the blinker is turned off. Also, if the driving scene is “straight ahead with merging”, the driving scene is divided according to the driving lane, with the driving scene starting point 300 m before the merging end point and the merging end point as the ending point of the driving scene. As for the merge end point, when the road link detected from the vehicle position and the map data passes through the node where the main link and the merge link are connected, the switching between the main link and the main link occurs in FIG. In this case, the merge end point can be obtained from the distance difference between the preset merge end point and the link switching point. The lane recognition is based on the method of recognizing the white line with the camera, the number of occurrences of right lane change and left lane change from the main line merge, and the number of lanes for each road link stored in the map data. There are methods for recognizing lanes, and these methods are preferably used as appropriate.

尚、図6は、高速道路または車両専用道において特定する運転シーンについて示す表である。これに対して、一般道において特定する運転シーンについて示す表を、図8に示す。この図8に示す一般道における運転シーンについても、上述した制御とほぼ同様にして検出することができる。   FIG. 6 is a table showing driving scenes specified on an expressway or a vehicle-only road. On the other hand, the table | surface shown about the driving scene specified in a general road is shown in FIG. The driving scene on the general road shown in FIG. 8 can also be detected in substantially the same manner as the above-described control.

続いて、図2のステップS40へ進み、運転シーン検出部9は、検出された運転シーンの種別の情報と、検出された運転シーンに関連する種々の情報(例えば運転シーン始点の時刻や地点の情報、運転シーン終点の時刻や地点の情報、車両の速度や角速度の情報等)と、それら情報の履歴の情報とを内部のメモリに記憶する。これにより、図2の制御を終了する。   Subsequently, the process proceeds to step S40 in FIG. 2, and the driving scene detection unit 9 includes information on the type of the detected driving scene and various information related to the detected driving scene (for example, the time and point of the driving scene start point). Information, information on the time and point of the driving scene end point, information on the speed and angular velocity of the vehicle, etc.) and history information of these information are stored in the internal memory. Thereby, the control of FIG. 2 is terminated.

次に、顔向き検出部3の制御、即ち、動作について、図3のフローチャートに従って説明する。図3のステップS110においては、カメラ2からの画像データを入力する。続いて、ステップS120へ進み、顔向き検出部3は、入力した画像データの中から運転者の顔画像を抽出する。そして、ステップS130へ進み、顔向き検出部3は、抽出した顔画像と、予め作成しておいた多数の顔向きのテンプレート画像とについて、マッチング処理を行い、相関値を計算し、最も相関値の高いテンプレート画像の顔向き角度から運転者の顔向き角度を検出(即ち、推定)する。尚、予め作成しておいた多数の顔向きのテンプレート画像としては、例えば−45度から45度までの15度毎の顔向きのテンプレート画像を作成し、内部のメモリに記憶しておくことが好ましい。   Next, the control, that is, the operation of the face direction detection unit 3 will be described with reference to the flowchart of FIG. In step S110 of FIG. 3, image data from the camera 2 is input. Then, it progresses to step S120 and the face direction detection part 3 extracts a driver | operator's face image from the input image data. Then, the process proceeds to step S130, and the face direction detection unit 3 performs matching processing on the extracted face image and many face-oriented template images created in advance, calculates a correlation value, and obtains the highest correlation value. The face orientation angle of the driver is detected (ie, estimated) from the face orientation angle of the template image having a high height. As a number of face-oriented template images created in advance, for example, face-oriented template images of every 15 degrees from -45 degrees to 45 degrees may be created and stored in the internal memory. preferable.

また、顔向きの検出技術としては、特開2000−97676号公報や特開2003−44853号公報に記載された構成があり、これら構成を適宜用いるように構成しても良い。   Further, as a face orientation detection technique, there are configurations described in Japanese Patent Laid-Open Nos. 2000-97676 and 2003-44853, and these configurations may be used as appropriate.

次いで、図3のステップS140へ進み、顔向き検出部3は、上記したように検出された顔向き角度の情報(即ち、顔向きデータ)を内部のメモリに記憶する。これにより、図3の制御を終了する。   Next, the process proceeds to step S140 in FIG. 3, and the face orientation detection unit 3 stores information on the face orientation angle detected as described above (that is, face orientation data) in an internal memory. Thereby, the control of FIG. 3 is terminated.

次に、評価区間分割部10の制御、即ち、動作について、図4のフローチャートに従って説明する。図4のステップS210においては、評価区間分割部10は、運転シーン検出部9から運転シーン、ウィンカー信号、車速、操舵状態(例えば舵角センサの舵角情報またはジャイロセンサの角速度情報等)の各情報を取得する。続いて、ステップS220へ進み、評価区間分割部10は、上記取得した各情報に基づいて運転行動の変化点を検出する。そして、ステップS230へ進み、評価区間分割部10は、上記検出した変化点に基づいて運転シーンを複数の評価区間に分割し、評価区間分割情報を生成する。   Next, the control, that is, the operation of the evaluation section dividing unit 10 will be described with reference to the flowchart of FIG. In step S210 of FIG. 4, the evaluation section dividing unit 10 receives each of the driving scene, the blinker signal, the vehicle speed, the steering state (for example, the steering angle information of the steering angle sensor or the angular velocity information of the gyro sensor) from the driving scene detection unit 9. Get information. Then, it progresses to step S220 and the evaluation area division part 10 detects the change point of driving action based on each acquired said information. And it progresses to step S230 and the evaluation area division part 10 divides | segments a driving scene into a some evaluation area based on the detected change point, and produces | generates evaluation area division information.

ここで、運転シーンが例えば「車線変更」である場合において、複数の評価区間に分割する処理について、図9を参照して説明する。「車線変更」を行なう場合、ウインカーを点灯する前に車線変更が可能かどうか周囲の安全状況を確認することが好ましく、この時期を区間(即ち、評価区間)1とする。そして、ウィンカーを点灯後、車線変更先の安全を確認し、ハンドルを切り始める。この時期を区間2とする。この後、車線変更前の車線から、車線変更先の車線の状況を確認しながら、変更先の車線に進入し、ハンドルを切返す。この時期を区間3とする。続いて、ハンドル角度を元に戻し、ウィンカーを消灯する。この時期を区間4とする。   Here, when the driving scene is, for example, “lane change”, a process of dividing into a plurality of evaluation sections will be described with reference to FIG. 9. When performing “lane change”, it is preferable to check the surrounding safety situation to determine whether or not the lane change is possible before the turn signal is turned on. After turning on the blinker, confirm the safety of the lane change destination and start turning the steering wheel. This period is defined as section 2. Then, while confirming the status of the lane to which the lane is changed from the lane before the lane is changed, the vehicle enters the changed lane and turns the steering wheel. This period is defined as section 3. Subsequently, the steering wheel angle is returned to the original, and the blinker is turned off. This period is referred to as section 4.

この構成において、区間1から区間4まで分割する分割基準点は、ウィンカー点灯時点p1、ハンドル切始め時点p2、ハンドル切返し時点p3である。これらの時点p1、p2、p3は、運転行動の変化点であり、ウィンカー信号及び角速度の情報に基づいて求めることができる。   In this configuration, the division reference points to be divided from the section 1 to the section 4 are the blinker lighting time point p1, the steering wheel turning start time point p2, and the steering wheel turning back time point p3. These time points p1, p2, and p3 are changing points of driving behavior, and can be obtained based on the blinker signal and angular velocity information.

具体的には、ハンドルの切始め時点p2とハンドルの切返し時点p3は、角速度ωの時間差分である角加速度Δωを算出し、この算出した角加速度Δωの正のピークまたは負のピークに基づいて求めることができる。   Specifically, the steering wheel turning start time point p2 and the steering wheel turning back time point p3 calculate an angular acceleration Δω that is a time difference between the angular velocities ω, and based on the calculated positive or negative peak of the angular acceleration Δω. Can be sought.

ハンドルの切始め時点p2は、ウィンカー点灯後、最初の以下条件を満たす時点とみなすことができる。
右車線変更時は、Δω<−Δω1の下に凸のピーク値の時点
左車線変更時は、Δω>Δω1の上に凸のピーク値の時点
また、ハンドルの切返し時点p3は、ウィンカー消灯前、最後の以下条件を満たす時点とみなすことができる。
The steering wheel turning start time point p2 can be regarded as the first time point that satisfies the following conditions after the blinker lights up.
When changing to the right lane, when the peak value is convex below Δω <−Δω1 When changing to the left lane, when the peak value is convex above Δω> Δω1, the turning point p3 of the steering wheel is It can be regarded as the time when the following conditions are met.

右車線変更時は、Δω>Δω2の上に凸のピーク値の時点
左車線変更時は、Δω<−Δω2の下に凸のピーク値の時点
Δω1とΔω2は、車両や車速等の条件で設定される設定値である。尚、ピークの判定は、角加速度Δωの時間差分値である角躍度ΔΔωを算出して行なう。上記角躍度ΔΔωが正から負に変化した時点が上に凸のピークであり、角躍度ΔΔωが負から正に変化した時点が下に凸のピークである。
When changing to the right lane, when the peak value is convex above Δω> Δω2 When changing to the left lane, when the peak value is convex below Δω <-Δω2, Δω1 and Δω2 are set according to conditions such as the vehicle and vehicle speed. Is the set value. The peak is determined by calculating an angular jerk ΔΔω that is a time difference value of the angular acceleration Δω. The point at which the angle jerk ΔΔω changes from positive to negative is an upwardly convex peak, and the point at which the angle jerk ΔΔω changes from negative to positive is a downwardly convex peak.

尚、区間1の開始時点p0は、ウィンカー点灯時点p1の例えば3秒前の時点とする。また、区間4の終了時点(即ち、ハンドル戻し時点)p4は、ウィンカーを消灯する時点である。   Note that the start time point p0 of the section 1 is a time point, for example, 3 seconds before the blinker lighting time point p1. Also, the end point of section 4 (that is, the steering wheel return point) p4 is a point in time when the blinker is turned off.

図9中のグラフにおいて、実線の曲線K1は角速度ωを示し、破線の曲線K2は角加速度Δωを示し、1点鎖線の曲線K3は角躍度ΔΔωを示す。本実施形態では、角加速度Δωの変化パターンから車線変更挙動を検出して区間の分割を行なっている。また、実線Sは車線変更状態を示し、「0」は合図前(即ち、ウィンカー点灯前)、「1」は合図後(即ち、ウィンカー点灯後)、「2」は旋回中(即ち、ハンドルの操作中)、「3」は旋回後から合図終了(即ち、ウィンカー消灯)までを示す。   In the graph in FIG. 9, the solid curve K1 indicates the angular velocity ω, the broken curve K2 indicates the angular acceleration Δω, and the dashed-dotted curve K3 indicates the angular jerk ΔΔω. In the present embodiment, the lane change behavior is detected from the change pattern of the angular acceleration Δω to divide the section. Also, the solid line S indicates the lane change state, “0” before the signal (that is, before the blinker lights), “1” after the signal (that is, after the blinker lights), and “2” that is turning (that is, the steering wheel) “During operation”, “3” indicates from the end of the turn to the end of the signal (ie, blinker extinction).

尚、上記実施形態では、角加速度Δωの変化パターンから車両の車線変更挙動を検出して区間1〜4の分割を行なったが、これに限られるものではなく、例えば車両の前方を撮影する車載カメラ(即ち、白線検出部)により道路の車線を区切る白線を検出し、検出した白線の位置と車両の位置との位置関係から車線変更挙動(即ち、運転行動の変化点)を検出して区間1〜4の分割を行なうように構成しても良い。   In the above embodiment, the lane change behavior of the vehicle is detected from the change pattern of the angular acceleration Δω and the sections 1 to 4 are divided. However, the present invention is not limited to this. A white line that divides the lane of the road is detected by a camera (that is, a white line detection unit), and a lane change behavior (that is, a change point of driving behavior) is detected from the positional relationship between the detected position of the white line and the position of the vehicle. You may comprise so that the division | segmentation of 1-4 may be performed.

また、運転シーンが例えば「合流あり直進」の場合の評価区間の分割においては、図10に示すように、合流終了地点r1から手前例えば300mの地点をr4とし、地点r4と合流終了地点r1との間を例えば100m毎に3分割し、3割した区間を手前から順に区間1、区間2、区間3とする。   Further, in the division of the evaluation section when the driving scene is, for example, “straight with merge”, as shown in FIG. For example, the interval is divided into three for every 100 m, and the divided sections are set as a section 1, a section 2, and a section 3 from the front.

このようにして各運転シーンを評価区間に分割し、分割した評価区間、即ち、評価区間分割情報を一覧表にして示したものが、図11である。この図11に示すように、各運転シーンの各評価区間には、区間の開始点と終了点の条件データと、評価対象であるか否かの識別データと、顔向き角度の閾値のデータと、顔向き時間の閾値のデータとが対応付けられている。図11に示す評価区間分割情報のデータテーブルは、予め作成され、評価区間分割部10の内部のメモリに記憶されている。評価区間分割部10は、運転シーン検出部9から検出された運転シーンの情報を受信すると、図11のデータテーブルに基づいて上記検出された運転シーンに対応する評価区間分割情報を取得し、上記検出された運転シーンの情報と上記評価区間分割情報とを安全確認行動評価部11へ出力する。これにより、図4の制御を終了する。   Each driving scene is divided into evaluation sections in this way, and the divided evaluation sections, that is, evaluation section division information is shown in a list in FIG. As shown in FIG. 11, in each evaluation section of each driving scene, the condition data of the start point and end point of the section, identification data indicating whether or not it is an evaluation target, threshold value data of the face orientation angle, Are associated with threshold value data of the face orientation time. A data table of evaluation section division information shown in FIG. 11 is created in advance and stored in a memory inside the evaluation section division section 10. When the evaluation section dividing unit 10 receives the information of the driving scene detected from the driving scene detecting unit 9, the evaluation section dividing unit 10 acquires evaluation section dividing information corresponding to the detected driving scene based on the data table of FIG. Information of the detected driving scene and the evaluation section division information are output to the safety confirmation action evaluation unit 11. Thereby, the control of FIG. 4 is terminated.

次に、安全確認行動評価部11の制御、即ち、動作について、図5のフローチャートに従って説明する。図5のステップS310においては、安全確認行動評価部11は、運転シーン検出部9により検出された運転シーンの情報と、評価区間分割部10から出力された上記検出された運転シーンに対応する評価区間分割情報と、顔向き検出部3により検出された運転者の顔向き角度の情報とを取得する。   Next, the control, that is, the operation of the safety confirmation action evaluation unit 11 will be described with reference to the flowchart of FIG. In step S <b> 310 of FIG. 5, the safety confirmation action evaluation unit 11 performs the evaluation corresponding to the detected driving scene output from the evaluation section dividing unit 10 and the information of the driving scene detected by the driving scene detection unit 9. The section division information and information on the driver's face orientation angle detected by the face orientation detector 3 are acquired.

続いて、ステップS320へ進み、安全確認行動評価部11は、検出された運転シーン内の手前からn番目(nの初期値は「1」)の評価区間が評価対象区間であるか否かを判断する。本実施形態の場合、図11の表に示すように、評価対象区間が設定されている。このステップS320において、評価区間が評価対象区間でないときには(NO)、ステップS370へ進み、安全確認行動評価部11は、運転シーン内の全ての評価区間を評価したか否かを判断する。ここで、全ての評価区間を評価していないときには(NO)、nをカウントアップして、ステップS320へ戻り、次の評価区間について評価対象区間であるか否かを判断する。   Then, it progresses to step S320 and the safety confirmation action evaluation part 11 determines whether the nth evaluation area (initial value of n is "1") from the near side in the detected driving scene is an evaluation object area. to decide. In the case of this embodiment, as shown in the table of FIG. 11, an evaluation target section is set. In step S320, when the evaluation section is not the evaluation target section (NO), the process proceeds to step S370, and the safety confirmation action evaluation unit 11 determines whether or not all the evaluation sections in the driving scene have been evaluated. Here, when all the evaluation sections have not been evaluated (NO), n is counted up, the process returns to step S320, and it is determined whether or not the next evaluation section is an evaluation target section.

さて、上記ステップS320において、評価区間が評価対象区間であるときには(YES)、ステップS330へ進み、安全確認行動評価部11は、上記評価区間の顔向き角度の閾値を参照する。続いて、ステップS340へ進み、評価区間において検出された運転者の顔向き角度が上記閾値を越えているか否かを判断する。   In step S320, when the evaluation section is an evaluation target section (YES), the process proceeds to step S330, and the safety confirmation action evaluation unit 11 refers to the face angle angle threshold of the evaluation section. Then, it progresses to step S340 and it is judged whether the driver | operator's face direction angle detected in the evaluation area exceeds the said threshold value.

このステップS340において、検出された運転者の顔向き角度が上記閾値を越えていると(YES)、ステップS350へ進み、安全確認行動評価部11は、該当評価区間において運転者による安全確認行動が適切になされていると判定し、判定結果を内部のメモリに記憶する。また、上記ステップS340で、検出された運転者の顔向き角度が上記閾値を越えていないときには(NO)、ステップS360へ進み、安全確認行動評価部11は、該当評価区間において運転者による安全確認行動が適切になされていないと判定し、判定結果を内部のメモリに記憶する。   In step S340, if the detected driver's face angle exceeds the threshold (YES), the process proceeds to step S350, and the safety confirmation action evaluation unit 11 performs the safety confirmation action by the driver in the corresponding evaluation section. It is determined that it is properly performed, and the determination result is stored in an internal memory. In step S340, when the detected driver's face angle does not exceed the threshold value (NO), the process proceeds to step S360, and the safety confirmation action evaluation unit 11 performs safety confirmation by the driver in the corresponding evaluation section. It determines with action not being performed appropriately, and memorize | stores a determination result in internal memory.

次いで、ステップS370へ進み、安全確認行動評価部11は、運転シーン内の全ての評価区間を評価したか否かを判断する。ここで、全ての評価区間を評価していないときには(NO)、nをカウントアップして、ステップS320へ戻り、次の評価区間について評価対象区間であるか否かを判断し、以下上述した処理を繰り返し実行する。   Subsequently, it progresses to step S370 and the safety confirmation action evaluation part 11 judges whether all the evaluation areas in the driving scene were evaluated. Here, when all the evaluation sections have not been evaluated (NO), n is counted up, and the process returns to step S320 to determine whether or not the next evaluation section is an evaluation target section. Repeatedly.

また、上記ステップS370において、全ての評価区間の評価が完了したときには(YES)、ステップS380へ進み、安全確認行動評価部11は、運転シーン内の全ての評価区間において運転者による安全確認行動が適切になされているか否かを判断する。ここで、全ての評価区間において運転者による安全確認行動が適切になされているときには(YES)、ステップS390へ進み、安全確認行動評価部11は、該当運転シーンについて、運転者による安全確認行動が適切になされていると判定し、その判定結果を内部のメモリに記憶する。これにより、図5の制御を終了する。   In step S370, when all the evaluation sections have been evaluated (YES), the process proceeds to step S380, and the safety confirmation action evaluation unit 11 performs the safety confirmation action by the driver in all the evaluation sections in the driving scene. Determine if it is done properly. Here, when the safety confirmation action by the driver is appropriately performed in all the evaluation sections (YES), the process proceeds to step S390, and the safety confirmation action evaluation unit 11 performs the safety confirmation action by the driver for the corresponding driving scene. It is determined that it is properly performed, and the determination result is stored in an internal memory. Thereby, the control of FIG. 5 is terminated.

また、上記ステップS380において、運転者による安全確認行動が適切になされていない評価区間が1つでもあるときには(NO)、ステップS400へ進み、安全確認行動評価部11は、該当運転シーンについて、運転者による安全確認行動が適切になされていないと判定し、その判定結果を内部のメモリに記憶する。これにより、図5の制御を終了する。   In step S380, when there is even one evaluation section in which the safety confirmation action by the driver is not properly performed (NO), the process proceeds to step S400, and the safety confirmation action evaluation unit 11 performs driving for the corresponding driving scene. It is determined that the safety confirmation action by the person is not properly performed, and the determination result is stored in the internal memory. Thereby, the control of FIG. 5 is terminated.

次に、各運転シーンの評価区間毎の顔向き角度の閾値及び顔向き時間の閾値を決定する方法について説明する。自動車運転教習員や運輸会社等で認められた模範運転者等による実際の模範運転から、各運転シーンの評価区間毎の顔向き角度のデータを収集し、各運転シーンの評価区間毎に、図12(a)に示すような、顔向き角度と顔向き頻度の関係を示す特性図を作成する。この図12(a)から、前方以外の顔向き角度であって最も分布の多い(即ち、顔向き頻度のピークの)顔向き角度B1を、顔向き角度の閾値とする。そして、この最も分布の多い顔向き角度B1における顔向き時間(即ち、顔向き角度B1に顔向きを保持している時間)と顔向き頻度の関係を示す特性図、即ち、図12(b)を作成する。この図12(b)から、顔向き時間の平均値T1を、顔向き時間の閾値とする。これら閾値B1、T1は、図11に示す評価区間分割情報内のデータとして保存され、安全確認行動評価部11及び評価基準学習部12の内部のメモリに記憶される。このような各運転シーンの評価区間毎の顔向き角度の閾値及び顔向き時間の閾値を決定する処理(即ち、評価基準を決定または学習する処理)は、情報センタやメーカにて実施される。尚、上記閾値を決定する処理を、評価基準学習部12において実行するように構成しても良い。また、本実施形態では、評価基準を模範運転者の顔向き角度から決定または学習するように構成したが、これに限られるものではなく、模範運転者の代わりに、その車両を運転する運転者の普段の運転で検出された運転者の顔向き角度から決定または学習するかように構成しても良い。   Next, a method for determining the face angle threshold and the face time threshold for each evaluation section of each driving scene will be described. Data on the face angle for each evaluation section of each driving scene is collected from the actual driving by an exemplary driver approved by an automobile driving instructor or a transportation company, and the figure is displayed for each evaluation section of each driving scene. A characteristic diagram showing the relationship between the face orientation angle and the face orientation frequency as shown in FIG. From FIG. 12A, the face orientation angle B1 that is the face orientation angle other than the front and has the most distribution (that is, the peak of the face orientation frequency) is set as the threshold value of the face orientation angle. FIG. 12B is a characteristic diagram showing the relationship between the face orientation time at the face orientation angle B1 with the most distribution (ie, the time during which the face orientation is held at the face orientation angle B1) and the face orientation frequency. Create From FIG. 12B, the average value T1 of the face direction time is set as a threshold value of the face direction time. These threshold values B1 and T1 are stored as data in the evaluation section division information shown in FIG. 11, and are stored in the memories inside the safety confirmation action evaluation unit 11 and the evaluation reference learning unit 12. Such processing for determining the face angle threshold and the face time threshold for each evaluation section of each driving scene (that is, processing for determining or learning evaluation criteria) is performed by an information center or a manufacturer. The process for determining the threshold value may be executed by the evaluation criterion learning unit 12. In the present embodiment, the evaluation criterion is configured to be determined or learned from the face angle of the model driver. However, the present invention is not limited to this, and the driver who drives the vehicle instead of the model driver. It may be configured to determine or learn from the face orientation angle of the driver detected in the normal driving.

さて、例えば運転シーンが「車線変更」の評価区間1〜4について、模範運転者の顔向き角度を測定したデータ(即ち、顔向き分布の測定結果)の一例を、図13(a)に示す。そして、安全確認が不十分な運転者の顔向き角度を測定したデータ(即ち、顔向き分布の測定結果)の一例を図13(b)に示す。   Now, for example, for the evaluation sections 1 to 4 where the driving scene is “lane change”, an example of data obtained by measuring the face angle of the model driver (that is, the measurement result of the face orientation distribution) is shown in FIG. . FIG. 13B shows an example of data obtained by measuring the driver's face orientation angle for which safety confirmation is insufficient (that is, the measurement result of the face orientation distribution).

図13において、各区間の顔向き分布は、複数回の右車線変更における各区間毎の顔向き角度の検出結果の分布である。区間1から区間4に至る顔向き分布の変化がわかり、それらについて模範運転者と安全確認が不十分な運転者との違いが明確にわかる。図13から、複数回の運転シーンにおける区間毎の顔向き分布について、模範運転者の顔向き分布を基準として、一般の運転者の顔向き分布を評価してもよいことがわかる。評価の方法としては、平均値を比較したり、平均値と標準偏差σを加えた値を比較したり、また、顔向き分布のピーク位置について比較したりする方法がある。   In FIG. 13, the face orientation distribution of each section is a distribution of detection results of face orientation angles for each section in a plurality of right lane changes. Changes in the face orientation distribution from section 1 to section 4 are known, and the difference between the model driver and the driver whose safety is insufficient is clearly understood. From FIG. 13, it can be seen that the facial orientation distribution of a general driver may be evaluated with respect to the facial orientation distribution of each section in a plurality of driving scenes with reference to the facial orientation distribution of the model driver. As an evaluation method, there are a method of comparing average values, comparing a value obtained by adding the average value and standard deviation σ, and comparing peak positions of face orientation distributions.

また、運転シーンが「車線変更」、「合流あり直進」、「単路直進」の場合について、顔向き角度と顔向き頻度との関係(即ち、顔向き分布)を測定した結果を、図14に示す。図14(a)は模範運転者の顔向き分布を示し、図14(b)は安全確認が不十分な運転者の顔向き分布を示す。図14(a)、(b)において、1点鎖線の曲線C1は「車線変更」の場合であり、破線の曲線C2は「合流あり直進」の場合であり、実線の曲線C3は「単路直進」の場合である。尚、図13の測定データに基づいて、図14の曲線C1を得ることができる。   Further, the results of measuring the relationship between the face angle and the face direction frequency (ie, the face direction distribution) in the case where the driving scene is “lane change”, “straight forward with merging”, and “straight forward” are shown in FIG. Shown in FIG. 14A shows a model driver's face orientation distribution, and FIG. 14B shows a driver's face orientation distribution for which safety confirmation is insufficient. 14 (a) and 14 (b), the one-dot chain line curve C1 is the case of “lane change”, the dashed curve C2 is “straight with merging”, and the solid curve C3 is “single road” This is the case of “straight ahead”. Note that the curve C1 of FIG. 14 can be obtained based on the measurement data of FIG.

図14においては、各運転シーンを区間分割していないが、運転シーン毎に比較しても、模範運転者と安全確認が不十分な運転者との間で明確な違いが見られる。このため、図14(a)に示す模範運転者の顔向き分布を基準として、一般の運転者の顔向き分布を評価してもよいことがわかる。   In FIG. 14, each driving scene is not divided into sections, but even when compared for each driving scene, there is a clear difference between the model driver and a driver whose safety is insufficient. For this reason, it turns out that a general driver's face direction distribution may be evaluated on the basis of the model driver's face direction distribution shown in Drawing 14 (a).

このような構成の本実施形態によれば、運転シーン検出部9により車両の運転シーンを検出し、検出した運転シーンを評価区間分割部10により評価基準の異なる評価区間に分割し、安全確認行動評価部11により運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価するように構成したので、車両の運転シーンを評価区間に分割して細かく検出することができると共に、安全確認行動を高精度に診断することができる。また、本実施形態においては、視線検出装置を用いないので、製造コストを低減することができる。   According to this embodiment having such a configuration, a driving scene of the vehicle is detected by the driving scene detection unit 9, and the detected driving scene is divided into evaluation sections having different evaluation criteria by the evaluation section dividing unit 10, so that the safety confirmation action Since the evaluation unit 11 is configured to evaluate the safety confirmation behavior of the driver based on the direction of the driver's face and the evaluation section of the vehicle driving scene, the vehicle driving scene is divided into evaluation sections and detected in detail. In addition, the safety confirmation behavior can be diagnosed with high accuracy. Moreover, in this embodiment, since a line-of-sight detection apparatus is not used, manufacturing cost can be reduced.

また、本実施形態では、評価区間分割部10によって、運転シーンの情報、ウィンカー信号の情報、車速の情報、及び、操舵状態の情報に基づいて運転行動の変化点p1、p2、p3を検出し、検出した変化点p1、p2、p3に基づいて前記運転シーンを評価区間に分割するように構成したので、評価基準の異なる評価区間に精度良く分割することが得切る。この構成の場合、運転行動の変化点としては、ウィンカー点灯時点p1、ハンドル切始め時点p2及びハンドル切返し時点p3を用いることが好ましい。   In the present embodiment, the evaluation section dividing unit 10 detects driving action change points p1, p2, and p3 based on driving scene information, blinker signal information, vehicle speed information, and steering state information. Since the driving scene is divided into the evaluation sections based on the detected change points p1, p2, and p3, it is possible to accurately divide into the evaluation sections having different evaluation criteria. In this configuration, it is preferable to use the blinker lighting time point p1, the steering wheel turning start time point p2, and the steering wheel turning back time point p3 as the change points of the driving behavior.

更に、本実施形態では、運転シーン検出部9によって、車両が走行する車線が異なるときには、異なる運転シーンとして運転シーンを検出するように構成したので、運転シーンをきめ細かく検出することができ、安全確認行動の診断精度をより一層向上できる。   Furthermore, in the present embodiment, the driving scene detection unit 9 is configured to detect the driving scene as a different driving scene when the lane in which the vehicle travels is different, so that the driving scene can be detected in detail, and the safety confirmation The diagnostic accuracy of behavior can be further improved.

また、本実施形態の図9に示す「車線変更」の運転シーンにおいて、ウィンカーの点灯時間について、安全確認行動の評価を実施することが可能である。具体的には、図9に示す区間2は、ウィンカー点灯からハンドル切始めまでの区間であり、この区間2の長さ(即ち、時間)に基づいて運転者によるウィンカー点灯操作の良し悪しを評価することができる。   Further, in the driving scene of “lane change” shown in FIG. 9 of the present embodiment, it is possible to evaluate the safety confirmation behavior with respect to the blinker lighting time. Specifically, section 2 shown in FIG. 9 is a section from blinker lighting to the start of turning the steering wheel. Based on the length (that is, time) of this section 2, evaluation of the goodness or badness of the blinker lighting operation by the driver is evaluated. can do.

尚、図9に示す評価区間の分割処理において、ウィンカー点灯が遅すぎたり、ウィンカーを早く消灯したりすると、ハンドルの切始めの時点やハンドルの切返しのピークの時点が見つからない事態が発生することがある。このような場合には、検出できない区間は評価無効区間、あるいは、異常運転行動の区間として、評価区間分割部10の内部のメモリに記憶するように構成することが好ましい。   In the evaluation section dividing process shown in FIG. 9, if the blinker is turned on too late or the blinker is turned off early, a situation may occur in which the start point of the steering wheel or the peak point of the steering wheel return is not found. There is. In such a case, it is preferable that a section that cannot be detected is stored in a memory inside the evaluation section dividing unit 10 as an evaluation invalid section or an abnormal driving action section.

(第2実施形態)
図15及び図16は、本発明の第2実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第2実施形態では、オートクルーズやレーンキープアシストや自動車線変更等の自動走行を実行することができる自動走行装置を備えた車両に適用した。尚、車線変更を自動で行う技術としては、例えば特開平11−339186号公報に記載された構成が知られている。
(Second Embodiment)
15 and 16 show a second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In 2nd Embodiment, it applied to the vehicle provided with the automatic travel apparatus which can perform automatic driving | running | working, such as an auto cruise, a lane keep assist, and a vehicle line change. As a technique for automatically changing the lane, for example, a configuration described in JP-A-11-339186 is known.

オートクルーズやレーンキープアシスト等の自動走行を実行している場合であっても、安全運行の責任が運転者にある以上、運転者は常に安全確認を行う必要がある。このため第2実施形態においても、各運転シーンの評価区間毎に安全確認行動の評価を行い、運転者による安全確認行動が適切にできていないと判定された場合には、安全確認行動をするようアドバイスを提示したり、安全確認方向を提示したりする。また、第2実施形態では、運転者による安全確認行動が適切にできていないと繰り返し判定された場合には、自動走行装置の動作モードを変更する、例えば車両速度を設定値以下に制御したり、自動車線変更を不可としたりする。   Even when automatic driving such as auto cruise or lane keeping assist is being executed, the driver is always required to confirm safety as long as the driver is responsible for safe driving. Therefore, also in the second embodiment, the safety confirmation action is evaluated for each evaluation section of each driving scene, and if it is determined that the safety confirmation action by the driver is not properly performed, the safety confirmation action is performed. To provide advice and to provide safety confirmation directions. Further, in the second embodiment, when it is repeatedly determined that the safety confirmation action by the driver is not properly performed, the operation mode of the automatic travel device is changed, for example, the vehicle speed is controlled to a set value or less. Or change the car line.

第2実施形態の安全確認診断システム21は、図15に示すように、第1実施形態の安全確認診断システム1の構成に加えて、自動走行装置作動検出部22と自動走行装置モード変更制御部23を備えている。自動走行装置作動検出部22は、オートクルーズやレーンキープアシストや自動車線変更等を実行する自動走行装置の作動状態を検出し、検出信号を安全確認行動評価部11へ送信する。   As shown in FIG. 15, the safety confirmation diagnostic system 21 of the second embodiment includes an automatic traveling device operation detection unit 22 and an automatic traveling device mode change control unit in addition to the configuration of the safety confirmation diagnostic system 1 of the first embodiment. 23. The automatic travel device operation detection unit 22 detects the operation state of the automatic travel device that executes auto cruise, lane keep assist, vehicle line change, and the like, and transmits a detection signal to the safety confirmation action evaluation unit 11.

自動走行装置モード変更制御部23は、安全確認行動評価部11から安全確認行動判定信号と自動走行装置の作動状態の検出信号とを入力し、自動走行装置の動作モードを変更する必要があるか否かを判断し、変更する必要があるときには、変更制御信号を自動走行装置へ出力する。   Whether the automatic traveling device mode change control unit 23 receives the safety confirmation behavior determination signal and the detection signal of the operating state of the automatic traveling device from the safety confirmation behavior evaluation unit 11 and needs to change the operation mode of the automatic traveling device. If it is necessary to make a change, a change control signal is output to the automatic travel device.

次に、第2実施形態の自動走行装置モード変更制御部23の制御、即ち、動作について、図16のフローチャートに従って説明する。図16のステップS410においては、自動走行装置モード変更制御部23は、安全確認行動評価部11から安全確認行動判定信号及び自動走行装置の作動状態の検出信号等の情報を取得する。続いて、ステップS420へ進み、自動走行装置モード変更制御部23は、検出された運転シーンの評価区間毎に安全確認ができているか否かを判断する。ここで、全ての評価区間について安全確認ができているときには、ステップS420にて「YES」へ進み、図16の制御を終了する。   Next, the control, that is, the operation of the automatic travel device mode change control unit 23 according to the second embodiment will be described with reference to the flowchart of FIG. In step S410 of FIG. 16, the automatic travel device mode change control unit 23 acquires information such as a safety confirmation behavior determination signal and a detection signal of the operating state of the automatic travel device from the safety confirmation behavior evaluation unit 11. Then, it progresses to step S420 and the automatic travel device mode change control part 23 judges whether the safety confirmation is completed for every evaluation area of the detected driving scene. Here, when the safety confirmation is completed for all the evaluation sections, the process proceeds to “YES” in step S420, and the control of FIG.

また、上記ステップS420において、少なくとも1つの評価区間について安全確認ができていないときには(NO)、ステップS430へ進み、自動走行装置モード変更制御部23は、安全確認ができていない評価区間及び運転シーンに基づいて自動走行装置の動作モード変更処理を実行する。この場合、自動走行装置モード変更制御部23は、例えば安全確認ができていないと繰り返し判定されたような場合に、例えば車両速度を設定値以下に制御したり、自動車線変更を不可としたりする等の自動走行装置の動作モードの変更を行なうことを指示する変更指示信号を自動走行装置へ送信する。これにより、図16の制御を終了する。   In step S420, when safety confirmation has not been performed for at least one evaluation section (NO), the process proceeds to step S430, and the automatic travel device mode change control unit 23 performs the evaluation section and driving scene for which safety confirmation has not been performed. The operation mode changing process of the automatic travel device is executed based on the above. In this case, the automatic travel device mode change control unit 23 controls, for example, the vehicle speed to be equal to or lower than a set value, or disables the change of the lane, for example, when it is repeatedly determined that safety cannot be confirmed. A change instruction signal for instructing to change the operation mode of the automatic traveling device is transmitted to the automatic traveling device. Thereby, the control of FIG. 16 is terminated.

尚、上述した以外の第2実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第2実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第2実施形態によれば、自動走行装置を備えた車両においても、運転者による安全確認行動を正確に判定することができ、また、自動走行中に安全確認行動が実行されないときには、それに対応するように自動走行装置の動作モードを変更することができる。   The configurations of the second embodiment other than those described above are the same as the configurations of the first embodiment. Therefore, in the second embodiment, substantially the same operational effects as in the first embodiment can be obtained. In particular, according to the second embodiment, even in a vehicle equipped with an automatic travel device, it is possible to accurately determine the safety confirmation behavior by the driver, and when the safety confirmation behavior is not executed during automatic travel, The operation mode of the automatic travel device can be changed to correspond.

(第3実施形態)
図17及び図18は、本発明の第3実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第3実施形態では、運転者の視線を検出する視線検出部24を設け、この視線検出部24により検出した視線検出結果を安全確認行動評価部11へ出力するように構成した。
(Third embodiment)
17 and 18 show a third embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In the third embodiment, the gaze detection unit 24 that detects the gaze of the driver is provided, and the gaze detection result detected by the gaze detection unit 24 is output to the safety confirmation action evaluation unit 11.

視線検出部24は、顔向き検出部3から、運転者の顔画像のデータを入力し、入力した運転者の顔画像のデータに基づいて運転者の視線を推定(即ち、検出)する。この場合、視線検出部24は、運転者の顔画像から左右の目の画像を抽出し、抽出した左右の目の画像から眼球と虹彩の位置関係を取得する。更に、視線検出部24は、取得した眼球と虹彩の位置関係と、顔向き検出部3により検出された運転者の顔向き角度とに基づいて、運転者の視線方向を検出するように構成されている。   The line-of-sight detection unit 24 receives the driver's face image data from the face orientation detection unit 3 and estimates (ie, detects) the driver's line of sight based on the input driver's face image data. In this case, the gaze detection unit 24 extracts the left and right eye images from the driver's face image, and acquires the positional relationship between the eyeball and the iris from the extracted left and right eye images. Further, the gaze detection unit 24 is configured to detect the driver's gaze direction based on the acquired positional relationship between the eyeball and the iris and the driver's face orientation angle detected by the face orientation detection unit 3. ing.

そして、視線検出部24は、推定した運転者の視線方向の検出結果を安全確認行動評価部11へ出力する。安全確認行動評価部11は、視線検出部24からの運転者の視線方向の検出結果を考慮して運転者の安全確認行動が適切になされたか否かを判定するように構成されている。   Then, the line-of-sight detection unit 24 outputs the estimated detection result of the driver's line-of-sight direction to the safety confirmation action evaluation unit 11. The safety confirmation action evaluation unit 11 is configured to determine whether or not the driver's safety confirmation action has been appropriately performed in consideration of the detection result of the driver's line-of-sight direction from the line-of-sight detection unit 24.

次に、第3実施形態の視線検出部24の制御、即ち、動作について、図18のフローチャートに従って説明する。図18のステップS510においては、視線検出部24は、顔向き検出部3から運転者の顔画像のデータを入力する。続いて、ステップS520へ進み、視線検出部24は、顔向き検出部3から運転者の顔向き角度の情報を取得する。   Next, the control, that is, the operation of the line-of-sight detection unit 24 according to the third embodiment will be described with reference to the flowchart of FIG. In step S <b> 510 of FIG. 18, the line-of-sight detection unit 24 inputs driver face image data from the face orientation detection unit 3. Then, it progresses to step S520 and the gaze detection part 24 acquires the information of a driver | operator's face direction angle from the face direction detection part 3. FIG.

次いで、ステップS530へ進み、視線検出部24は、抽出した運転者の顔画像に基づいて運転者の視線方向を検出(即ち、推定)する。そして、ステップS540へ進み、視線検出部24は、推定した運転者の視線方向の検出結果を、内部のメモリに記憶(即ち、保存)すると共に、安全確認行動評価部11へ出力する。これにより、図18の制御を終了する。   Next, the process proceeds to step S530, and the line-of-sight detection unit 24 detects (that is, estimates) the driver's line-of-sight direction based on the extracted driver's face image. In step S540, the line-of-sight detection unit 24 stores (that is, stores) the estimated detection result of the driver's line-of-sight in the internal memory and outputs the result to the safety confirmation action evaluation unit 11. Thereby, the control of FIG. 18 is completed.

尚、上述した以外の第3実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第3実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第3実施形態によれば、安全確認行動評価部11は、視線検出部24による運転者の視線の検出結果を考慮して運転者の安全確認行動を判定するように構成したので、安全確認行動の判定精度を向上させることができる。   The configuration of the third embodiment other than that described above is the same as the configuration of the first embodiment. Therefore, in the third embodiment, substantially the same operational effects as in the first embodiment can be obtained. In particular, according to the third embodiment, the safety confirmation action evaluation unit 11 is configured to determine the driver's safety confirmation action in consideration of the detection result of the driver's line of sight by the line of sight detection unit 24. The determination accuracy of the confirmation action can be improved.

(第4実施形態)
図19は、本発明の第4実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第1実施形態では、高速道または車両専用道における運転シーンについて、運転者の安全確認行動を評価するように構成したが、第4実施形態では、一般道における運転シーンについても、運転者の安全確認行動を評価するように構成した。
(Fourth embodiment)
FIG. 19 shows a fourth embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In the first embodiment, the driver's safety confirmation behavior is evaluated for a driving scene on a highway or a vehicle-only road. However, in the fourth embodiment, the driver's safety is also evaluated for a driving scene on a general road. It was configured to evaluate confirmation behavior.

具体的には、図19に示すように、一般道において、「車線変更」、・・・、「単路直進」の各運転シーンについて、複数の評価区間に分割し、分割した各評価区間毎に、第1実施形態とほぼ同様にして、運転者の安全確認行動を評価(即ち、判定)するように構成した。   Specifically, as shown in FIG. 19, on a general road, for each driving scene of “lane change”,..., “Straight line straight”, the driving scene is divided into a plurality of evaluation sections. In the same manner as in the first embodiment, the driver's safety confirmation behavior is evaluated (ie, determined).

尚、上述した以外の第4実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第4実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。   The configurations of the fourth embodiment other than those described above are the same as the configurations of the first embodiment. Therefore, also in the fourth embodiment, substantially the same operational effects as in the first embodiment can be obtained.

また、上記した各実施形態においては、各運転シーンの評価区間毎において、顔向き角度または顔向き時間が各閾値を超えているかどうかで運転者の安全確認行動を評価するように構成したが、これに代えて、各運転シーンの評価区間毎において、顔向き角度の分布の形に基づいて安全確認行動を評価するように構成しても良い。   In each embodiment described above, in each evaluation section of each driving scene, it is configured to evaluate the driver's safety confirmation behavior based on whether the face angle or the face time exceeds each threshold. Alternatively, the safety confirmation action may be evaluated based on the shape of the face angle distribution in each evaluation section of each driving scene.

図面中、1は安全確認診断システム、2はカメラ、3は顔向き検出部、6はウィンカー信号検出部、9は運転シーン検出部、10は評価区間分割部、11は安全確認行動評価部、12は評価基準学習部、13はアドバイス提示部、14は管理者向け伝達部、21は安全確認診断システム、22は自動走行装置作動検出部、23は自動走行装置モード変更制御部、24は視線検出部である。   In the drawings, 1 is a safety confirmation diagnostic system, 2 is a camera, 3 is a face direction detection unit, 6 is a blinker signal detection unit, 9 is a driving scene detection unit, 10 is an evaluation section division unit, 11 is a safety confirmation action evaluation unit, 12 is an evaluation criterion learning unit, 13 is an advice presenting unit, 14 is a transmission unit for managers, 21 is a safety confirmation diagnostic system, 22 is an automatic travel device operation detection unit, 23 is an automatic travel device mode change control unit, and 24 is a line of sight. It is a detection unit.

Claims (11)

車両の運転者の顔を撮影するカメラ(2)と、
運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、
車両の運転シーンを検出する運転シーン検出部(9)と、
運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)と、
運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価する安全確認行動評価部(11)と
を備えた安全確認診断システム。
A camera (2) that captures the face of the driver of the vehicle;
A face direction detection unit (3) for detecting the direction of the driver's face based on the image data of the driver's face;
A driving scene detector (9) for detecting a driving scene of the vehicle;
An evaluation section dividing unit (10) for dividing the driving scene into evaluation sections having different evaluation criteria;
A safety confirmation diagnosis system comprising a safety confirmation action evaluation unit (11) that evaluates a driver's safety confirmation action based on a driver's face direction and an evaluation section of a vehicle driving scene.
前記評価区間分割部(10)は、前記運転シーン検出部(9)により検出された運転シーンの情報、ウィンカー信号の情報、車速の情報、及び、操舵状態の情報に基づいて運転行動の変化点を検出し、検出した変化点に基づいて前記運転シーンを分割するように構成されている請求項1記載の安全確認診断システム。   The evaluation section dividing unit (10) is a driving action change point based on the information on the driving scene, the information on the blinker signal, the information on the vehicle speed, and the information on the steering state detected by the driving scene detection unit (9). The safety confirmation diagnosis system according to claim 1, wherein the driving scene is divided based on the detected change point. 前記運転行動の変化点は、ウィンカー点灯時点、ハンドル切始め時点及びハンドル切返し時点であることを特徴とする請求項2記載の安全確認診断システム。   The safety confirmation diagnosis system according to claim 2, wherein the change points of the driving behavior are a blinker lighting time point, a steering wheel turning start time point, and a steering wheel turning back time point. 道路の白線を検出する白線検出部を備え、
前記評価区間分割部(10)は、検出した白線の位置と車両の位置との位置関係から運転行動の変化点を検出して前記運転シーンを分割するように構成されていることを特徴とする請求項1記載の安全確認診断システム。
It has a white line detector that detects the white line of the road,
The evaluation section dividing unit (10) is configured to divide the driving scene by detecting a change point of driving action from a positional relationship between the detected position of the white line and the position of the vehicle. The safety confirmation diagnostic system according to claim 1.
前記運転シーン検出部(9)は、車両が走行する車線が異なるときには、異なる運転シーンとして運転シーンを検出するように構成されている請求項1記載の安全確認診断システム。   The safety confirmation diagnosis system according to claim 1, wherein the driving scene detection unit (9) is configured to detect a driving scene as a different driving scene when the lane in which the vehicle travels is different. 前記安全確認行動評価部(11)の評価基準を運転者の普段の運転または模範運転者の運転に基づいて学習する評価基準学習部(12)を備えた請求項1記載の安全確認診断システム。   The safety confirmation diagnosis system according to claim 1, further comprising an evaluation criterion learning unit (12) for learning an evaluation criterion of the safety confirmation action evaluation unit (11) based on a driver's normal driving or an exemplary driver's driving. 前記安全確認行動評価部(11)からの安全確認行動の評価結果に基づいて、運転者に対してアドバイスを提案するアドバイス提示部(13)を備えた請求項1から6のいずれか一項記載の安全確認診断システム。   The advice presenting part (13) for proposing advice to the driver based on the evaluation result of the safety confirming action from the safety confirming action evaluating part (11). Safety confirmation diagnostic system. 前記安全確認行動評価部(11)からの安全確認行動の評価結果に基づいて、運転者の安全確認行動の評価結果の情報と、安全確認行動の評価を行なったときの車両の位置の情報と、安全確認行動の評価を行なったときの時刻の情報とを、車両を管理する管理事務所に伝達する管理者向け伝達部(14)を備えた請求項1から7のいずれか一項記載の安全確認診断システム。   Based on the evaluation result of the safety confirmation action from the safety confirmation action evaluation unit (11), information on the evaluation result of the driver's safety confirmation action, information on the position of the vehicle when the safety confirmation action is evaluated, and 8. The system according to claim 1, further comprising a transmission unit for an administrator (14) that transmits information on a time when the safety confirmation action is evaluated to a management office that manages the vehicle. Safety confirmation diagnostic system. 自動走行装置の作動状態を検出する自動走行装置作動検出部(22)と、
前記安全確認行動評価部(11)による安全確認行動の評価結果に基づいて、自動走行装置の動作モードを変更する必要があるか否かを判断する自動走行装置モード変更制御部(23)と
を備えた請求項1から8のいずれか一項記載の安全確認診断システム。
An automatic traveling device operation detecting unit (22) for detecting an operating state of the automatic traveling device;
An automatic traveling device mode change control unit (23) for determining whether or not it is necessary to change the operation mode of the automatic traveling device based on the evaluation result of the safety confirmation behavior by the safety confirmation behavior evaluating unit (11). The safety confirmation diagnostic system according to any one of claims 1 to 8, further comprising:
運転者の視線を検出する視線検出部(24)を備え、
前記安全確認行動評価部(11)は、運転者の視線の検出結果を考慮して運転者の安全確認行動を評価するように構成されている請求項1から9のいずれか一項記載の安全確認診断システム。
A gaze detection unit (24) for detecting the gaze of the driver,
The safety according to any one of claims 1 to 9, wherein the safety confirmation action evaluation unit (11) is configured to evaluate a driver's safety confirmation action in consideration of a detection result of the driver's line of sight. Confirmation diagnostic system.
車両の運転者の顔を撮影するカメラ(2)と、運転者の顔の画像データに基づいて運転者の顔の向きを検出する顔向き検出部(3)と、車両の運転シーンを検出する運転シーン検出部(9)と、運転シーンを評価基準の異なる評価区間に分割する評価区間分割部(10)とを備えた安全確認診断方法であって、
運転者の顔の向きと車両の運転シーンの評価区間とに基づいて運転者の安全確認行動を評価するようにした安全確認診断方法。
A camera (2) that captures the face of the driver of the vehicle, a face direction detection unit (3) that detects the face direction of the driver based on image data of the driver's face, and a driving scene of the vehicle A safety confirmation diagnosing method comprising a driving scene detecting unit (9) and an evaluation section dividing unit (10) for dividing a driving scene into evaluation sections having different evaluation criteria,
A safety confirmation diagnosis method for evaluating a driver's safety confirmation behavior based on a driver's face direction and an evaluation section of a vehicle driving scene.
JP2016033099A 2016-02-24 2016-02-24 Safety confirmation diagnostic system and safety confirmation diagnostic method Pending JP2017151694A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016033099A JP2017151694A (en) 2016-02-24 2016-02-24 Safety confirmation diagnostic system and safety confirmation diagnostic method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016033099A JP2017151694A (en) 2016-02-24 2016-02-24 Safety confirmation diagnostic system and safety confirmation diagnostic method

Publications (1)

Publication Number Publication Date
JP2017151694A true JP2017151694A (en) 2017-08-31

Family

ID=59739084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016033099A Pending JP2017151694A (en) 2016-02-24 2016-02-24 Safety confirmation diagnostic system and safety confirmation diagnostic method

Country Status (1)

Country Link
JP (1) JP2017151694A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647708A (en) * 2018-04-28 2018-10-12 清华-伯克利深圳学院筹备办公室 Driver evaluation's method, apparatus, equipment and storage medium
JP6414309B1 (en) * 2017-10-20 2018-10-31 オムロン株式会社 Driving skill evaluation device, vehicle, and program
JP2019105729A (en) * 2017-12-12 2019-06-27 株式会社テイクアンドシー Person evaluation device, program, and, method
JP2020021323A (en) * 2018-08-01 2020-02-06 三菱ロジスネクスト株式会社 Determination device and determination method
JP2020123214A (en) * 2019-01-31 2020-08-13 矢崎エナジーシステム株式会社 Drive evaluation system and in-vehicle device
JPWO2020049737A1 (en) * 2018-09-07 2020-09-10 株式会社オファサポート Driving skill evaluation system, method and program
US11834073B2 (en) 2020-09-24 2023-12-05 Toyota Jidosha Kabushiki Kaisha Autonomous driving system
JP7415471B2 (en) 2019-11-18 2024-01-17 株式会社ジェイテクト Driving evaluation device, driving evaluation system, in-vehicle device, external evaluation device, and driving evaluation program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08127264A (en) * 1994-10-28 1996-05-21 Toyota Motor Corp Occupant detection device and auxiliary machinery controller which uses the occupant detection device
JPH10119673A (en) * 1996-10-14 1998-05-12 Toyota Motor Corp Automatic alarm actuator for vehicle
JP2004157880A (en) * 2002-11-07 2004-06-03 Toyota Central Res & Dev Lab Inc Confirmation action evaluation device
JP2011159217A (en) * 2010-02-03 2011-08-18 Fuji Heavy Ind Ltd Confirmation action support device
JP2014181020A (en) * 2013-03-21 2014-09-29 Denso Corp Travel control device
JP2015141516A (en) * 2014-01-28 2015-08-03 株式会社デンソー Driving evaluating device
JP2015141432A (en) * 2014-01-27 2015-08-03 株式会社デンソー Vehicle operation evaluation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08127264A (en) * 1994-10-28 1996-05-21 Toyota Motor Corp Occupant detection device and auxiliary machinery controller which uses the occupant detection device
JPH10119673A (en) * 1996-10-14 1998-05-12 Toyota Motor Corp Automatic alarm actuator for vehicle
JP2004157880A (en) * 2002-11-07 2004-06-03 Toyota Central Res & Dev Lab Inc Confirmation action evaluation device
JP2011159217A (en) * 2010-02-03 2011-08-18 Fuji Heavy Ind Ltd Confirmation action support device
JP2014181020A (en) * 2013-03-21 2014-09-29 Denso Corp Travel control device
JP2015141432A (en) * 2014-01-27 2015-08-03 株式会社デンソー Vehicle operation evaluation system
JP2015141516A (en) * 2014-01-28 2015-08-03 株式会社デンソー Driving evaluating device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6414309B1 (en) * 2017-10-20 2018-10-31 オムロン株式会社 Driving skill evaluation device, vehicle, and program
JP2019079151A (en) * 2017-10-20 2019-05-23 オムロン株式会社 Driving skill evaluation device, vehicle, and program
JP2019105729A (en) * 2017-12-12 2019-06-27 株式会社テイクアンドシー Person evaluation device, program, and, method
CN108647708A (en) * 2018-04-28 2018-10-12 清华-伯克利深圳学院筹备办公室 Driver evaluation's method, apparatus, equipment and storage medium
JP2020021323A (en) * 2018-08-01 2020-02-06 三菱ロジスネクスト株式会社 Determination device and determination method
JPWO2020049737A1 (en) * 2018-09-07 2020-09-10 株式会社オファサポート Driving skill evaluation system, method and program
JP2020123214A (en) * 2019-01-31 2020-08-13 矢崎エナジーシステム株式会社 Drive evaluation system and in-vehicle device
JP7267760B2 (en) 2019-01-31 2023-05-02 矢崎エナジーシステム株式会社 Driving evaluation system and in-vehicle device
JP7415471B2 (en) 2019-11-18 2024-01-17 株式会社ジェイテクト Driving evaluation device, driving evaluation system, in-vehicle device, external evaluation device, and driving evaluation program
US11834073B2 (en) 2020-09-24 2023-12-05 Toyota Jidosha Kabushiki Kaisha Autonomous driving system

Similar Documents

Publication Publication Date Title
JP2017151694A (en) Safety confirmation diagnostic system and safety confirmation diagnostic method
KR102051142B1 (en) System for managing dangerous driving index for vehicle and method therof
CN110533900B (en) Method for assisting the driving of at least one motor vehicle, assistance system and motor vehicle
GB2604514A (en) Systems and methods for determining road safety
JP6654923B2 (en) Map information output device
CN110198875B (en) Improvements in or relating to driver assistance systems
JP2017529517A (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP2010125923A (en) Emergency refuge device
US11042154B2 (en) Transportation equipment and traveling control method therefor
US20150220796A1 (en) Sign recognition apparatus and method for determining left- or right-hand traffic division and distance unit
CN112046481B (en) Automatic driving device and method
WO2018135509A1 (en) Event prediction system, event prevention method, program, and recording medium having same recorded therein
JP6941178B2 (en) Automatic operation control device and method
JP2020123339A (en) Cooperative blind spot alarm method and apparatus of vehicle-to-vehicle communication infrastructure with fault tolerance and fluctuation robustness under extreme situation
JP2018127084A (en) Automatic drive vehicle
KR20220030232A (en) Apparatus and method For Warning a signal violation vehicle at intersection
US20210291837A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
JP2017129973A (en) Driving support apparatus and driving support method
JP6631569B2 (en) Operating state determining apparatus, operating state determining method, and program for determining operating state
JP4985319B2 (en) Driving support device
JP6617602B2 (en) Maneuvering detection system and maneuvering detection method
JP7376996B2 (en) Vehicle dangerous situation determination device, vehicle dangerous situation determination method, and program
WO2023029469A1 (en) Vehicle traveling warning method and apparatus
JP2018094294A (en) State estimation system
JP7333702B2 (en) VEHICLE DANGEROUS SITUATION DETERMINATION DEVICE, VEHICLE DANGEROUS SITUATION DETERMINATION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190911

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190920

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190924

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20191129

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20191203

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200421

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200915

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210209

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210316

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210420

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210420