JP4858516B2 - Face orientation detection device - Google Patents

Face orientation detection device Download PDF

Info

Publication number
JP4858516B2
JP4858516B2 JP2008233520A JP2008233520A JP4858516B2 JP 4858516 B2 JP4858516 B2 JP 4858516B2 JP 2008233520 A JP2008233520 A JP 2008233520A JP 2008233520 A JP2008233520 A JP 2008233520A JP 4858516 B2 JP4858516 B2 JP 4858516B2
Authority
JP
Japan
Prior art keywords
driver
face
facing
detection device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008233520A
Other languages
Japanese (ja)
Other versions
JP2010067058A (en
Inventor
重康 魚住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008233520A priority Critical patent/JP4858516B2/en
Publication of JP2010067058A publication Critical patent/JP2010067058A/en
Application granted granted Critical
Publication of JP4858516B2 publication Critical patent/JP4858516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の運転者等の顔の向きを検出する顔向き検出装置に関する。   The present invention relates to a face orientation detection device that detects the orientation of a face of a driver of a vehicle.

従来、車両の運転者の脇見運転を監視する等の目的で、運転者の顔をカメラによって撮影し、撮影された画像から運転者の顔の向きを検出することが行われている。例えば、特許文献1には、運転者が正面を向いているときの顔を撮影し、そのときの顔の画像から顔モデルを作成し、作成した顔モデルを用いて顔の向きを判定することが記載されている。
特開2003−308533号公報
2. Description of the Related Art Conventionally, for the purpose of monitoring a driver's side-view driving, a driver's face is photographed with a camera, and the direction of the driver's face is detected from the photographed image. For example, in Patent Document 1, a face is photographed when the driver is facing the front, a face model is created from the face image at that time, and the face orientation is determined using the created face model. Is described.
JP 2003-308533 A

ここで、カメラと運転者との位置関係は、運転者が運転席に座るときの姿勢等によって変化し、カメラは運転者に対して正面方向に必ずしも位置するわけではない。また、運転者によってドライビングポジションは様々であり、運転者自身が正面と感じる向きは運転者毎に異なる。したがって、カメラで撮影した画像において正面向きの運転者が映っていても(運転者がカメラの方を向いていても)、そのときの運転者が車両の正面を向いているとは限らず、運転者が車両の正面を向いている場合にカメラからは斜めを向いているように見えることもある。したがって、カメラで撮影した画像のみに基づいて運転者の顔の向きを判断すると、運転者が正面を向いているか否かを正確に判定することができないおそれがある。その結果、運転者の顔の向きを正確に検出することができないおそれがある。   Here, the positional relationship between the camera and the driver changes depending on the posture or the like when the driver sits in the driver's seat, and the camera is not necessarily positioned in the front direction with respect to the driver. The driving position varies depending on the driver, and the direction in which the driver feels front is different for each driver. Therefore, even if a driver facing the front is shown in the image taken by the camera (even if the driver is facing the camera), the driver at that time is not necessarily facing the front of the vehicle, When the driver is facing the front of the vehicle, the camera may appear to face diagonally. Therefore, if the orientation of the driver's face is determined based only on the image captured by the camera, it may not be possible to accurately determine whether the driver is facing the front. As a result, the driver's face orientation may not be detected accurately.

それ故、本発明の目的は、運転者の顔の向きを正確に検出することができる顔向き検出装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a face orientation detection device that can accurately detect the orientation of a driver's face.

上記課題を解決するために、本発明は以下の構成を採用した。すなわち、本発明は、車両の運転者の顔向きを検出する顔向き検出装置である。顔向き検出手段は、判断処理手段と、推測手段と、学習手段とを備えている。判断処理手段は、運転者を撮影する撮影手段によって撮影された画像を用いて当該運転者の顔向きを判断する判断処理を行う。推測手段は、運転者の運転状態に基づいて、運転者が正面を向いているか否かを推測する。学習手段は、運転者が正面を向いていると推測される場合に撮影手段によって撮影された画像から検出される顔向きが正面の向きであると判断されるように判断処理に関して学習を行う。   In order to solve the above problems, the present invention employs the following configuration. That is, the present invention is a face orientation detection device that detects the face orientation of a driver of a vehicle. The face orientation detection means includes a determination processing means, an estimation means, and a learning means. The determination processing means performs a determination process for determining the driver's face orientation using an image taken by the photographing means for photographing the driver. The estimation means estimates whether or not the driver is facing the front based on the driving state of the driver. The learning means learns about the determination process so that the face direction detected from the image captured by the image capturing means is determined to be the front direction when it is estimated that the driver is facing the front.

上記によれば、顔向き検出装置は、運転者が実際に正面を向いている場合における運転者の顔向きが、正面の向きであると判断されるように学習を行うことができる。したがって、運転者が正面を向いた状態が撮像手段に対して正面向きでない場合であっても、運転者にとっての実際の正面の向きを検出することができ、運転者の顔の向きを正確に検出することができる。   According to the above, the face orientation detection device can perform learning so that the driver's face orientation when the driver is actually facing the front is determined to be the front orientation. Therefore, even if the state where the driver is facing the front is not a front direction with respect to the imaging means, the actual front direction for the driver can be detected, and the driver's face direction can be accurately determined. Can be detected.

また、判断処理は、運転者の顔向きを検出して運転者が正面を向いているか否かを判断する処理であってもよい。このとき、学習手段は、判断処理において運転者が正面を向いていると判断される角度範囲を学習によって変更する。   Further, the determination process may be a process of detecting whether or not the driver's face is detected and determining whether or not the driver is facing the front. At this time, the learning means changes, by learning, an angle range in which it is determined that the driver is facing the front in the determination process.

上記によれば、学習によって、運転者にとっての実際の正面の向きに合わせて上記角度範囲を設定することができる。したがって、運転者が正面を向いているか否かの判断を正確に行うことができる。これによれば、例えば運転者が脇見運転をしているか否かを正確に判断することができる。   According to the above, the angle range can be set by learning according to the actual front direction for the driver. Therefore, it is possible to accurately determine whether or not the driver is facing the front. According to this, for example, it is possible to accurately determine whether or not the driver is driving aside.

また、学習手段は、撮影手段によって撮影された画像における中心位置と、当該画像における運転者の顔の位置とのオフセット量に基づいて学習を行うようにしてもよい。   The learning means may perform learning based on an offset amount between the center position in the image photographed by the photographing means and the position of the driver's face in the image.

上記によれば、オフセット量を考慮して学習が行われる。ここで、運転者にとっての正面方向は、オフセット量が大きくなるほど、運転者が撮像手段の正面位置に位置する場合における正面方向から、ずれると考えられる。したがって、オフセット量を考慮して学習を行うことによって、このようなずれを補正することができ、顔向きを正確に算出することができる。   According to the above, learning is performed in consideration of the offset amount. Here, it is considered that the front direction for the driver shifts from the front direction when the driver is located at the front position of the imaging unit as the offset amount increases. Therefore, by performing learning in consideration of the offset amount, such a shift can be corrected, and the face orientation can be accurately calculated.

また、判断処理手段は、撮影手段によって撮影された画像における運転者の顔の位置として、当該運転者の顔の所定部位の位置から顔の中心線の位置を算出してもよい。   In addition, the determination processing unit may calculate the position of the center line of the face from the position of a predetermined part of the driver's face as the position of the driver's face in the image photographed by the photographing unit.

上記によれば、撮影された画像における運転者の顔の位置を、顔の中心線によって容易に算出することができる。   According to the above, the position of the driver's face in the captured image can be easily calculated from the center line of the face.

また、判断処理手段は、撮影手段によって撮影された画像における運転者の顔の位置として、当該運転者の顔の両端の中心の位置を算出してもよい。   In addition, the determination processing unit may calculate the center positions of both ends of the driver's face as the position of the driver's face in the image captured by the imaging unit.

上記によれば、撮影された画像における運転者の顔の位置を、顔の両端の位置から容易に算出することができる。   According to the above, the position of the driver's face in the captured image can be easily calculated from the positions of both ends of the face.

また、推測手段は、車両の速度が所定の速度以上であることを少なくとも条件として、運転者が正面を向いていると推測してもよい。また、推測手段は、車両が直進走行していることを少なくとも条件として、運転者が正面を向いていると推測してもよい。   Further, the estimation means may estimate that the driver is facing the front at least on the condition that the speed of the vehicle is equal to or higher than a predetermined speed. Further, the estimation means may estimate that the driver is facing the front, at least on the condition that the vehicle is traveling straight ahead.

上記によれば、実際に運転者が正面を向いている可能性が高い場合における顔向きを正面の向きとして学習することができるので、運転者の顔の向きを正確に検出することができる。   According to the above, since it is possible to learn the face direction when the driver is likely to be facing the front as the front direction, the driver's face direction can be accurately detected.

さらに、推測手段は、撮影手段によって撮影された画像から検出される顔向きの変化量が所定量以下であることをさらに条件として、運転者が正面を向いていると推測してもよい。また、推測手段は、撮影手段によって撮影された画像から検出される顔向きが、運転者から撮影手段への方向を中心とした所定範囲内の向きであることをさらに条件として、運転者が正面を向いていると推測してもよい。また、推測手段は、車両のブレーキが操作中であることを少なくとも条件として、運転者が正面を向いていると推測してもよい。   Further, the estimation means may estimate that the driver is facing the front on the condition that the amount of change in the face direction detected from the image captured by the imaging means is not more than a predetermined amount. Further, the estimation means further determines that the face direction detected from the image photographed by the photographing means is within a predetermined range centered on the direction from the driver to the photographing means. You may guess that you are facing. The estimation means may estimate that the driver is facing the front at least on the condition that the brake of the vehicle is being operated.

上記によれば、実際に運転者が正面を向いている可能性がより高い場合における顔向きを正面の向きとして学習することができるので、運転者の顔の向きをより正確に検出することができる。   According to the above, since it is possible to learn the face direction when the driver is more likely to be facing the front as the front direction, it is possible to more accurately detect the driver's face direction. it can.

本発明によれば、運転者が実際に正面を向いている場合における運転者の顔向きが、正面の向きであると判断されるように学習を行うことによって、運転者にとっての実際の正面の向きを検出することができるので、運転者の顔の向きを正確に検出することができる。   According to the present invention, by performing learning so that the driver's face direction when the driver is actually facing the front is determined to be the front direction, the actual front for the driver is determined. Since the direction can be detected, the direction of the driver's face can be accurately detected.

以下、本発明の一実施形態に係る顔向き検出装置について説明する。図1は、本実施形態における顔向き検出装置の構成を示すブロック図である。図1に示すように、顔向き検出装置1は、カメラ2、ドライバモニタECU(Electronic Control Unit)3、ドライバサポートシステムECU(以下、「DSSECU」と記載)4、ステアリングセンサ5、ブレーキECU6、および車輪速センサ7を備えている。なお、本実施形態においては、ドライバモニタECU3とDSSECU4とが第1のCAN(Controller Area Network)8に接続されており、DSSECU4とステアリングセンサ5とブレーキECU6とが第2のCAN9に接続されているが、各構成間の通信形態はどのような形態であってもよい。   Hereinafter, a face orientation detection apparatus according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of the face orientation detection device in the present embodiment. As shown in FIG. 1, the face direction detection device 1 includes a camera 2, a driver monitor ECU (Electronic Control Unit) 3, a driver support system ECU (hereinafter referred to as “DSSECU”) 4, a steering sensor 5, a brake ECU 6, A wheel speed sensor 7 is provided. In the present embodiment, the driver monitor ECU 3 and the DSSECU 4 are connected to a first CAN (Controller Area Network) 8, and the DSSECU 4, the steering sensor 5, and the brake ECU 6 are connected to a second CAN 9. However, the communication form between the components may be any form.

顔向き検出装置1は、車両に搭載され、車両の運転者の顔の向き(顔向き)を検出するものである。また、本実施形態においては、顔向き検出装置1は、運転者が正面を向いているか否かを判断し、判断結果に応じて、運転者の安全を確保するための動作(ブレーキ等)を行うものである。以下、顔向き検出装置1の各部について説明する。   The face orientation detection device 1 is mounted on a vehicle and detects the face orientation (face orientation) of the driver of the vehicle. In the present embodiment, the face orientation detection device 1 determines whether or not the driver is facing the front, and performs an operation (brake or the like) for ensuring the safety of the driver according to the determination result. Is what you do. Hereinafter, each part of the face direction detection apparatus 1 will be described.

カメラ2は、運転者の顔を撮影する撮影手段であり、例えばCCDカメラや赤外線カメラ等である。カメラ2は、運転席に着座した運転者の顔を撮影可能な位置に設置される。カメラ2の設置場所の一例として、運転席のメーターフード内、メーターパネル内、およびステアリングコラム上等が挙げられる。また、カメラ2は、例えば、所定時間間隔で運転者の顔を撮影し、撮影した画像をドライバモニタECU3へ逐次出力する。   The camera 2 is a photographing means for photographing the driver's face, and is, for example, a CCD camera or an infrared camera. The camera 2 is installed at a position where the face of the driver seated in the driver's seat can be photographed. As an example of the installation location of the camera 2, the inside of the meter hood of a driver's seat, the inside of a meter panel, the steering column, etc. are mentioned. For example, the camera 2 captures the driver's face at predetermined time intervals, and sequentially outputs the captured images to the driver monitor ECU 3.

ドライバモニタECU3は、カメラ2による撮影画像を用いて画像認識を行い、運転者の顔向きを検出する。さらに本実施形態では、ドライバモニタECU3は、上記撮影画像を用いて画像認識を行い、運転者の目の状態(瞼開度(目の開き具合)等)を検出する。ドライバモニタECU3は、運転者の顔向きを示す顔向き情報、および、運転者の目の状態を示す状態情報を第1のCAN8を介してDSSECU4へ逐次出力する。   The driver monitor ECU 3 performs image recognition using an image captured by the camera 2 and detects the driver's face orientation. Further, in the present embodiment, the driver monitor ECU 3 performs image recognition using the captured image, and detects the state of the driver's eyes (such as eyelid opening (opening degree)). The driver monitor ECU 3 sequentially outputs face direction information indicating the driver's face direction and state information indicating the driver's eye state to the DSSECU 4 via the first CAN 8.

なお、本実施形態では、ドライバモニタECU3は、メインマイクロコンピュータ(以下メインマイコンと称す)、および、サブマイクロコンピュータ(以下サブマイコンと称す)という2つのマイコンを有している。メインマイコンは、運転者の顔向きの検出を主に行う。サブマイコンは、運転者の目の状態の検出を行う。つまり、ドライバモニタECU3は、上記2つのマイコンによって運転者の顔向きの検出と運転者の目の状態の検出とを並列処理することが可能であり、高速に検出を行うことができる。また、ドライバモニタECU3は、人の顔画像パターンを表すデータを記憶する記憶部を有している。   In the present embodiment, the driver monitor ECU 3 has two microcomputers: a main microcomputer (hereinafter referred to as a main microcomputer) and a sub microcomputer (hereinafter referred to as a sub microcomputer). The main microcomputer mainly detects the driver's face orientation. The sub-microcomputer detects the eye state of the driver. That is, the driver monitor ECU 3 can process the detection of the driver's face direction and the detection of the driver's eye state in parallel by the two microcomputers, and can perform detection at high speed. The driver monitor ECU 3 has a storage unit that stores data representing a human face image pattern.

DSSECU4は、ドライバモニタECU3からの情報に基づいて運転者の状態を判断する。具体的には、DSSECU4は、運転者の顔向きの情報を用いて、運転者が車両の正面を向いているか否か(脇見をしていないか否か)の判断を行う。さらに、本実施形態においては、DSSECU4は、運転者の目に関する顔情報を用いて、運転者が居眠りをしていないか否か等の判断を行う。また、DSSECU4は、これらの判断結果に基づき、車両に設置されている各種装置の動作を制御して運転者および乗員の安全を図る。例えば、上記判断結果に基づいて、運転者の状態が事故に繋がるような状態であると予想される場合には、車両の警告灯を点灯させたり警報ブザーを鳴動させたりして運転者に注意喚起を促す。また、例えば、DSSECU4は、車両に設けられたレーダ装置からの情報(他車両の位置や速度等の情報)に基づいて自車両と他車両との衝突予測を行うようにしてもよい。このとき、DSSECU4は、上記判断結果と衝突予測の結果とに基づいて、運転者に注意喚起を促したり、衝突回避のための動作(ブレーキを作動させる等)を行ったり、衝突時の被害を軽減させる動作(エアバックの作動を準備する等)を行ったりしてもよい。   The DSSECU 4 determines the state of the driver based on information from the driver monitor ECU 3. Specifically, the DSSECU 4 determines whether the driver is facing the front of the vehicle (whether the driver is not looking aside) using the information on the driver's face orientation. Furthermore, in this embodiment, DSSECU4 uses the face information regarding the driver's eyes to determine whether or not the driver is asleep. In addition, the DSSECU 4 controls the operation of various devices installed in the vehicle based on these determination results to ensure the safety of the driver and the occupant. For example, if it is predicted that the driver's condition will lead to an accident based on the above judgment result, be careful of the driver by turning on the warning light of the vehicle or sounding the alarm buzzer. Encourage arousal. Further, for example, the DSSECU 4 may perform a collision prediction between the own vehicle and the other vehicle based on information from a radar device provided in the vehicle (information such as the position and speed of the other vehicle). At this time, the DSSECU 4 urges the driver to be alerted based on the determination result and the collision prediction result, performs an operation for avoiding the collision (actuating a brake, etc.), and damages at the time of the collision. A mitigating action (such as preparing an airbag operation) may be performed.

ステアリングセンサ5、ブレーキECU6、および車輪速センサ7は、運転者の運転状態を検出する。具体的には、ステアリングセンサ5は、車両のステアリングの操舵角を検出する。検出された操舵角を示す操舵角情報は、第2のCAN9を介してDSSECU4へ出力される。ブレーキECU6は、車両のブレーキが運転者によって操作されているか否かを検出する。ブレーキが操作されているか否かを示すブレーキ情報は、第2のCAN9を介してDSSECU4へ出力される。車輪速センサ7は、車両の車輪の回転速度を検出する。検出された回転速度を示す速度情報はブレーキECU6および第2のCANを介してDSSECU4へ出力される。また、ブレーキECU6は、車両のブレーキの動作制御等を行う。本実施形態では、ブレーキECU6は、DSSECU4による指示に従ってブレーキを作動させる。   The steering sensor 5, the brake ECU 6, and the wheel speed sensor 7 detect the driving state of the driver. Specifically, the steering sensor 5 detects the steering angle of the vehicle steering. Steering angle information indicating the detected steering angle is output to the DSSECU 4 via the second CAN 9. The brake ECU 6 detects whether or not the vehicle brake is operated by the driver. Brake information indicating whether or not the brake is operated is output to the DSSECU 4 via the second CAN 9. The wheel speed sensor 7 detects the rotational speed of the vehicle wheel. Speed information indicating the detected rotation speed is output to the DSSECU 4 via the brake ECU 6 and the second CAN. The brake ECU 6 controls the operation of the brakes of the vehicle. In the present embodiment, the brake ECU 6 operates the brake according to an instruction from the DSSECU 4.

以下、顔向き検出装置1の動作を説明する。図2は、本実施形態における顔向き検出装置の動作の流れを示すフローチャートである。本実施形態においては、図2に示す動作は、ドライバモニタECU3およびDSSECU4によって行われる。また、図2に示す動作は、例えば車両の走行中、あるいは、車両のイグニッションスイッチがオンである間、実行される。   Hereinafter, the operation of the face orientation detection apparatus 1 will be described. FIG. 2 is a flowchart showing the flow of the operation of the face direction detection apparatus in the present embodiment. In the present embodiment, the operation shown in FIG. 2 is performed by the driver monitor ECU 3 and the DSSECU 4. 2 is executed, for example, while the vehicle is running or while the ignition switch of the vehicle is on.

図2において、まず、ステップS1において、ドライバモニタECU3は、カメラ2による撮影画像を取得する。続くステップS2において、ドライバモニタECU3(上記メインマイコン)は、顔向き検出処理を実行する。顔向き検出処理は、上記撮影画像に基づいて運転者の顔向き(顔向きの角度)を検出する処理である。本実施形態では、運転者の顔向きを判断する判断処理として、ステップS2において顔向きが検出され、後述するステップS8において検出された顔向きが正面の向きであるか否かが判断される。したがって、本実施形態では、ステップS2を実行するドライバモニタECU3およびステップS7を実行するDSSECU4が、請求項に記載の判断処理手段に相当する。以下、図3を参照して顔向き検出処理の詳細について説明する。   In FIG. 2, first, in step S <b> 1, the driver monitor ECU 3 acquires an image captured by the camera 2. In the subsequent step S2, the driver monitor ECU 3 (the main microcomputer) executes a face orientation detection process. The face orientation detection process is a process of detecting the driver's face orientation (face orientation angle) based on the captured image. In the present embodiment, as a determination process for determining the driver's face direction, the face direction is detected in step S2, and it is determined whether or not the face direction detected in step S8 described later is the front direction. Therefore, in the present embodiment, the driver monitor ECU 3 that executes step S2 and the DSSECU 4 that executes step S7 correspond to the determination processing means described in the claims. The details of the face orientation detection process will be described below with reference to FIG.

図3は、図2に示すステップS2(顔向き検出処理)の詳細を示すフローチャートである。図3におけるステップS11において、ドライバモニタECU3は、上記ステップS1で取得した撮影画像における運転者の顔における左右両端の位置を算出する。続くステップS12において、ドライバモニタECU3は、撮影画像における運転者の所定部位(ここでは、目、鼻、および口)の位置を算出する。なお、ステップS11およびS12における画像認識処理の内容はどのようなものであってもよい。ステップS12の次にステップS13の処理が実行される。   FIG. 3 is a flowchart showing details of step S2 (face orientation detection processing) shown in FIG. In step S11 in FIG. 3, the driver monitor ECU 3 calculates the positions of the left and right ends of the driver's face in the captured image acquired in step S1. In subsequent step S12, the driver monitor ECU 3 calculates the position of a predetermined part (here, eyes, nose, and mouth) of the driver in the captured image. Note that the content of the image recognition processing in steps S11 and S12 may be anything. Following step S12, the process of step S13 is executed.

ステップS13において、ドライバモニタECU3は、運転者の顔の中心線を算出する。顔の中心線とは、撮影画像上における顔の領域の中心(すなわち、運転者の左右両端の中心)ではなく、実際の顔における中心を通る線であり、両目の間、鼻、および口を通る線である。ドライバモニタECU3は、ステップS12で算出された各所定部位の位置を用いて上記中心線を算出する。ステップS13の次にステップS14の処理が実行される。   In step S13, the driver monitor ECU 3 calculates the center line of the driver's face. The center line of the face is not the center of the face area on the photographed image (that is, the center of the left and right sides of the driver) but the line passing through the center of the actual face. It is a line that passes through. The driver monitor ECU 3 calculates the center line using the position of each predetermined part calculated in step S12. Following step S13, the process of step S14 is executed.

ステップS14において、ドライバモニタECU3は、運転者の顔向きを算出する。顔向きは、上記ステップS11で算出された顔の左右両端の位置と、顔の中心線の位置とを用いて算出される。具体的には、ドライバモニタECU3は、顔の左端から中心線までの長さと、中心線から顔の右端までの長さの比率に基づいて顔向きを算出する。例えば、両者の長さが等しければ、顔向きは、カメラ2に対して正面の向き(0°)であると判断することができる。なお、ここでは、顔向きは、カメラ2の方向を0°とした角度(顔向き角度)で表されるものとする。以上のステップS14の完了後、ドライバモニタECU3は顔向き検出処理を終了する。なお、以上に説明した顔向き検出処理における顔向きの検出方法は一例であり、ドライバモニタECU3は、どのような方法で顔向きを検出してもよい。   In step S14, the driver monitor ECU 3 calculates the driver's face orientation. The face orientation is calculated using the positions of the left and right ends of the face calculated in step S11 and the position of the center line of the face. Specifically, the driver monitor ECU 3 calculates the face orientation based on the ratio of the length from the left end of the face to the center line and the length from the center line to the right end of the face. For example, if the lengths of both are equal, the face direction can be determined to be the front direction (0 °) with respect to the camera 2. Here, the face orientation is represented by an angle (face orientation angle) where the direction of the camera 2 is 0 °. After completion of the above step S14, the driver monitor ECU 3 ends the face orientation detection process. Note that the face orientation detection method in the face orientation detection process described above is an example, and the driver monitor ECU 3 may detect the face orientation by any method.

図2の説明に戻り、ステップS3において、ドライバモニタECU3(上記サブマイコン)は、運転者の目の瞼開度(目が開いている度合)を算出する。目の瞼開度は、どのような方法によって算出されてもよいが、上記ステップS2において目の部位が抽出されている場合には、ステップS2で得られた情報を用いて算出されてもよい。ステップS3の次にステップS4の処理が実行される。   Returning to FIG. 2, in step S <b> 3, the driver monitor ECU 3 (the sub-microcomputer) calculates the eyelid opening degree (the degree to which the eyes are open) of the driver. The eyelid opening degree may be calculated by any method, but may be calculated using the information obtained in step S2 when the eye part is extracted in step S2. . Following step S3, the process of step S4 is executed.

ステップS4において、ドライバモニタECU3は、ステップS2およびS3による処理結果をDSSECU4へ出力する。すなわち、運転者の顔向きを示す顔向き情報、および、運転者の目の状態を示す状態情報が第1のCAN8を介してDSSECU4へ出力される。ステップS4の次にステップS5の処理が実行される。   In step S4, the driver monitor ECU 3 outputs the processing results in steps S2 and S3 to the DSSECU 4. That is, face direction information indicating the driver's face direction and state information indicating the driver's eye state are output to the DSSECU 4 via the first CAN 8. Following step S4, the process of step S5 is executed.

ステップS5において、DSSECU4は、運転者の運転状態を表す(運転者の運転状態を判断するために用いる)各種情報を取得する。本実施形態では、DSSECU4は、ステアリングセンサ5から操舵角情報を取得し、ブレーキECU6からブレーキ情報を取得し、車輪速センサ7から速度情報を取得する。ステップS5の次にステップS6の処理が実行される。   In step S5, the DSSECU 4 acquires various types of information (used to determine the driving state of the driver) representing the driving state of the driver. In the present embodiment, the DSSECU 4 acquires steering angle information from the steering sensor 5, acquires brake information from the brake ECU 6, and acquires speed information from the wheel speed sensor 7. Following step S5, the process of step S6 is executed.

ステップS6において、DSSECU4は、運転者の運転状態に基づいて、運転者が正面を向いているか否かを推測する。本実施形態では、ステップS6を実行するDSSECU4が、請求項に記載の推測手段に相当する。本実施形態では、ステップS6における推測は、上記ステップS5で取得された情報、および、ドライバモニタECU3から入力される顔向き情報を用いて行われる。具体的には、DSSECU4は、次の[条件A]〜[条件D]の全ての条件が満たされる場合に運転者が正面を向いていると推測する。
[条件A]車両の速度が所定の速度以上であること
[条件B]車両が直進走行していること
[条件C]車両のブレーキが操作中であること
[条件D]現在の顔向きが、運転者からカメラ2への方向を中心とした所定範囲内の向きであること
[条件A]は上記速度情報により判断することができ、[条件B]は上記操舵角情報により判断することができ、[条件C]は上記ブレーキ情報により判断することができ、[条件D]は最後に実行されるステップS2で得られた顔向きにより判断することができる。なお、[条件D]における「現在の顔向き」とは、運転者が正面を向いていると推測される場合にカメラ2によって撮影された画像から検出される顔向きである。DSSECU4は、運転者が正面を向いていると推測される場合、ステップS7の処理を実行する。一方、運転者が正面を向いていると推測されない場合、DSSECU4は、ステップS7の処理をスキップして後述するステップS8の処理を実行する。
In step S6, the DSSECU 4 estimates whether the driver is facing the front based on the driving state of the driver. In this embodiment, DSSECU4 which performs step S6 is equivalent to the estimation means described in the claims. In the present embodiment, the estimation in step S6 is performed using the information acquired in step S5 and the face orientation information input from the driver monitor ECU 3. Specifically, the DSSECU 4 estimates that the driver is facing the front when all the following conditions [Condition A] to [Condition D] are satisfied.
[Condition A] The speed of the vehicle is a predetermined speed or more [Condition B] The vehicle is traveling straight [Condition C] The brake of the vehicle is being operated [Condition D] The current face direction is [Condition A] can be determined from the speed information, and [Condition B] can be determined from the steering angle information. [Condition C] can be determined based on the brake information, and [Condition D] can be determined based on the face orientation obtained in the last step S2. The “current face orientation” in [Condition D] is a face orientation detected from an image photographed by the camera 2 when it is estimated that the driver is facing the front. DSSECU4 performs the process of step S7, when it is estimated that the driver | operator is facing the front. On the other hand, when it is not estimated that the driver is facing the front, the DSSECU 4 skips the process of step S7 and executes the process of step S8 described later.

上記[条件A]〜[条件C]が満たされる場合には、運転者が正面を向いている可能性はかなり高いと考えられる。さらに、[条件D]によって、正面から大きく外れた向きを向いている場合に運転者が正面を向いていると推測されることを排除することができる。したがって、本実施形態によれば、上記[条件A]〜[条件D]が全て満たされることを条件とすることにより、運転者が正面を向いていることを正確に推測することができる。なお、他の実施形態においては、運転者が正面を向いていると推測するための条件は、上記に限らず、どのような条件であってもよい。例えば、[条件A]〜[条件D]のうちの一部の条件のみが用いられてもよいし、[条件A]〜[条件D]に加えてさらに別の条件が用いられてもよい。また、例えば、DSSECU4は、[条件D]に代えて(または[条件D]とともに)、「運転者の顔向きの(単位時間あたりにおける)変化量が所定量以下であること」を条件として用いてもよい。   When the above [Condition A] to [Condition C] are satisfied, the possibility that the driver is facing the front is considered to be quite high. Furthermore, it can be excluded from [Condition D] that the driver is presumed to be facing the front when facing a direction greatly deviating from the front. Therefore, according to the present embodiment, it is possible to accurately estimate that the driver is facing the front by satisfying all the above [Condition A] to [Condition D]. In other embodiments, the condition for estimating that the driver is facing the front is not limited to the above, and may be any condition. For example, only a part of [Condition A] to [Condition D] may be used, or another condition may be used in addition to [Condition A] to [Condition D]. Further, for example, instead of [Condition D] (or together with [Condition D]), DSSECU4 uses “the amount of change in the driver's face direction (per unit time) is a predetermined amount or less” as a condition. May be.

ステップS7において、DSSECU4は、後述するステップS8における判断処理に関して、現在の顔向きが正面の向きであると判断されるように学習を行う。本実施形態では、ステップS7を実行するDSSECU4が、請求項に記載の学習手段に相当する。以下、ステップS7における学習処理について、図4〜図9を参照して説明する。   In step S7, the DSSECU 4 performs learning so that the current face direction is determined to be the front direction with respect to the determination process in step S8 described later. In this embodiment, DSSECU4 which performs step S7 is equivalent to the learning means described in the claims. Hereinafter, the learning process in step S7 will be described with reference to FIGS.

まず、図4〜図7を参照して、学習処理を行う必要性について説明する。図4は、運転者Dとカメラ2との位置関係の例を示す図であり、図5は、図4に示す場合にカメラ2によって撮影される画像の例を示す図である。図4に示されるように、カメラ2の正面に運転者Dが位置する場合には、図5に示されるように、カメラ2による撮影画像における運転者Dの顔は、正面から見たものとなる。またこのとき、運転者Dの顔は、撮影画像の左右方向に関して中央に位置する。図4に示す場合においては、運転者Dにとっての正面方向は、カメラ2の方向を向く向きであり、撮影画像において運転者Dの顔向きが正面向きであれば、実際にも運転者Dは正面を向いていると判断することができる。   First, the necessity of performing learning processing will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of the positional relationship between the driver D and the camera 2, and FIG. 5 is a diagram illustrating an example of an image photographed by the camera 2 in the case illustrated in FIG. 4. As shown in FIG. 4, when the driver D is located in front of the camera 2, as shown in FIG. 5, the face of the driver D in the image taken by the camera 2 is viewed from the front. Become. At this time, the face of the driver D is located at the center in the left-right direction of the captured image. In the case shown in FIG. 4, the front direction for the driver D is the direction facing the direction of the camera 2. If the face direction of the driver D is the front direction in the photographed image, the driver D is actually It can be determined that it is facing the front.

また、図6は、運転者Dとカメラ2との位置関係の他の例を示す図であり、図7は、図6に示す場合にカメラ2によって撮影される画像の例を示す図である。図6に示されるように、カメラ2の正面の位置からずれた位置に運転者Dが位置する場合には、図7に示されるように、カメラ2による撮影画像における運転者Dの顔は、正面から見たものとはならない可能性がある。また、図6の場合においては、運転者にとっての正面方向(運転者D自身が正面と感じる方向)は、図4の場合における正面方向とは異なる可能性がある。以上より、図7に示す撮影画像における顔向きをそのまま運転者の顔向きとして判断すると、運転者にとっての正面方向を正確に判断することができないおそれがある。例えば、図7に示す撮影画像から、「運転者Dの顔向きは、正面方向よりやや外側の向きである」と判断するのは正確ではない。以上のように、カメラ2による撮影画像における顔向きをそのまま実際の運転者の顔向きとすることは適切ではなく、学習処理によって実際の運転者の正面方向を学習する必要がある。   6 is a diagram illustrating another example of the positional relationship between the driver D and the camera 2, and FIG. 7 is a diagram illustrating an example of an image captured by the camera 2 in the case illustrated in FIG. . As shown in FIG. 6, when the driver D is located at a position deviated from the front position of the camera 2, as shown in FIG. 7, the face of the driver D in the image taken by the camera 2 is It may not be seen from the front. In the case of FIG. 6, the front direction for the driver (direction in which the driver D perceives the front) may be different from the front direction in the case of FIG. 4. As described above, if the face orientation in the captured image shown in FIG. 7 is determined as it is as the driver's face orientation, the front direction for the driver may not be accurately determined. For example, it is not accurate to determine from the captured image shown in FIG. 7 that “the face direction of the driver D is slightly outward from the front direction”. As described above, it is not appropriate to set the face direction in the image taken by the camera 2 as it is as the actual driver's face direction, and it is necessary to learn the front direction of the actual driver through learning processing.

そこで、本実施形態では、DSSECU4は、正面を向いていると判断される範囲(正面範囲)を、ステップS7の学習処理において補正する。正面範囲とは、運転者が正面を向いているか否かを判断する処理(後述するステップS8)において用いられる情報であって、当該処理においては、ドライバモニタECU3から取得された顔向き(顔向き角度)が当該正面範囲内の値であれば、運転者は正面を向いていると判断される。図8は、正面範囲の一例を示す図である。正面範囲は、運転者Dからカメラ2への方向を基準(0°)とした角度で表され、具体的には、正面範囲の中心に対して一方の側の第1境界値Sと、他方の側の第2境界値Tとにより表される。なお、ここでは、上記基準に対して上記一方の側の角度を正の値で表し、上記基準に対して上記他方の側の角度を負の値で表す。したがって、図8においては、第1境界値Sは正の値であり、第2境界値Tは負の値である。また、本実施形態では、上記基準の方向を中心とした範囲を、正面範囲の初期値とする。   Therefore, in the present embodiment, the DSSECU 4 corrects the range determined to be facing the front (front range) in the learning process in step S7. The front range is information used in the process of determining whether or not the driver is facing the front (step S8 to be described later). In this process, the face orientation (face orientation) acquired from the driver monitor ECU 3 is used. If the angle) is a value within the front range, the driver is determined to be facing the front. FIG. 8 is a diagram illustrating an example of the front range. The front range is represented by an angle with the direction from the driver D to the camera 2 as a reference (0 °), specifically, the first boundary value S on one side with respect to the center of the front range, and the other The second boundary value T on the side of Here, the angle on the one side with respect to the reference is represented by a positive value, and the angle on the other side with respect to the reference is represented with a negative value. Therefore, in FIG. 8, the first boundary value S is a positive value, and the second boundary value T is a negative value. In the present embodiment, the range centered on the reference direction is set as the initial value of the front range.

ステップS7の学習処理においては、運転者が正面を向いていると推測された場合にカメラ2によって撮影された画像から検出される顔向き(ステップS2で検出された顔向き)が、正面の向きであると判断されるように、正面範囲が補正される。図9は、ステップS7の学習処理を説明するための図である。図9において、角度Aは、ステップS2で検出された現在の顔向き角度である。このとき、DSSECU4は、補正後の正面範囲を次の式(1)に従って算出する。
N=S+A
M=T−A …(1)
上式(1)において、変数Nは補正後の第1境界値であり、変数Mは補正後の第2境界値である。上式(1)によって、図9に示されるように、補正後の正面範囲は、現在の顔向き角度Aを中心とした範囲に補正される。
In the learning process in step S7, the face orientation detected from the image captured by the camera 2 when the driver is assumed to be facing the front (the face orientation detected in step S2) is the front orientation. The front range is corrected so as to be determined as follows. FIG. 9 is a diagram for explaining the learning process in step S7. In FIG. 9, the angle A is the current face angle detected in step S2. At this time, the DSSECU 4 calculates the corrected front range according to the following equation (1).
N = S + A
M = TA (1)
In the above equation (1), the variable N is the first boundary value after correction, and the variable M is the second boundary value after correction. By the above equation (1), as shown in FIG. 9, the corrected front range is corrected to a range centered on the current face angle A.

なお、DSSECU4は、上式(1)に代えて、下記の式(2)に従って補正後の正面範囲を算出してもよい。
N=S+L×P+A
M=T−L×Q−A …(2)
上式(2)において、変数Lは、撮影画像における中心位置から運転者の顔の位置までのオフセット量(図7参照)である。また、定数PおよびQは予め定められている。なお、撮影画像における運転者の顔の位置は、例えば、上記顔の中心線(ステップS13参照)の位置としてもよいし、顔の左右両端の位置の中心位置としてもよいし、顔の所定部位(例えば鼻の位置)としてもよい。ここで、運転者にとっての正面方向は、上記オフセット量Lが大きくなるほど(すなわち、運転者の位置がカメラ2の正面位置からずれるほど)、運転者がカメラ2の正面位置に位置する場合における正面方向から、ずれると考えられる。上式(2)は、このことを考慮して、オフセット量に応じた量だけ正面範囲を補正するようにしたものである。
The DSSECU 4 may calculate the corrected front range according to the following equation (2) instead of the above equation (1).
N = S + L × P + A
M = TL × Q−A (2)
In the above equation (2), the variable L is an offset amount (see FIG. 7) from the center position in the captured image to the position of the driver's face. The constants P and Q are determined in advance. Note that the position of the driver's face in the captured image may be, for example, the position of the centerline of the face (see step S13), the center position of the left and right ends of the face, or a predetermined part of the face (For example, the position of the nose). Here, the front direction for the driver is the front in the case where the driver is located at the front position of the camera 2 as the offset amount L becomes larger (that is, the position of the driver deviates from the front position of the camera 2). It is thought that it deviates from the direction. In consideration of this, the above equation (2) corrects the front range by an amount corresponding to the offset amount.

なお、上記ステップS7においては、正面範囲は、1回の補正で、現在の顔向き角度Aを中心とした範囲に補正された。ここで、他の実施形態においては、DSSECU4は、複数回の補正で、現在の顔向き角度Aを中心とした範囲となるように正面範囲を次第に補正してもよい。このとき、1回の補正で補正範囲を変化させる量は、上記オフセット量Lに応じて決定されてもよい。   In step S7, the front range is corrected to a range around the current face orientation angle A by one correction. Here, in another embodiment, the DSSECU 4 may gradually correct the front range so as to be a range centered on the current face orientation angle A by a plurality of corrections. At this time, the amount by which the correction range is changed by one correction may be determined according to the offset amount L.

図2の説明に戻り、ステップS8において、DSSECU4は、運転者が正面を向いているか否かを判断する。すなわち、DSSECU4は、上記ステップS2で検出された顔向き角度が、上記正面範囲内の値であるか否かを判断する。また、DSSECU4は、判断結果に基づいて、車両に設置されている各種装置の動作を制御して運転者および乗員の安全を図る。上記ステップS8の後、ステップS1の処理が再度実行される。以降、ステップS1〜S8の処理がくり返し実行される。   Returning to FIG. 2, in step S8, the DSSECU 4 determines whether or not the driver is facing the front. That is, the DSSECU 4 determines whether or not the face orientation angle detected in step S2 is a value within the front range. Further, the DSSECU 4 controls the operation of various devices installed in the vehicle based on the determination result to ensure the safety of the driver and the occupant. After step S8, the process of step S1 is executed again. Thereafter, the processes of steps S1 to S8 are repeatedly executed.

以上のように、本実施形態によれば、運転者が実際に正面を向いているか否かが推測され(ステップS6)、実際に正面を向いていると推測される場合における顔向き角度が、正面方向を向いているときの顔向き角度となるように学習が行われる(ステップS7)。したがって、運転者が正面を向いた状態が撮像手段に対して正面向きでない場合であっても、運転者にとっての実際の正面の向きを正確に検出することができ、運転者が正面を向いているか否かを正確に判断することができる。   As described above, according to the present embodiment, it is estimated whether or not the driver is actually facing the front (step S6), and the face orientation angle when it is estimated that the driver is actually facing the front is Learning is performed so that the face orientation angle when facing the front direction is obtained (step S7). Therefore, even when the state where the driver is facing the front is not the front direction with respect to the imaging means, the actual front direction for the driver can be accurately detected, and the driver is facing the front. It is possible to accurately determine whether or not.

なお、上記実施形態においては、顔向き検出装置は、運転者の顔向きを検出して運転者が正面を向いているか否かを判断するための判断処理に関して学習を行った。ここで、他の実施形態においては、判断処理は、カメラ2によって撮影された画像を用いて運転者の顔向きを判断する処理であればよく、正面を向いているか否かの判断を行うものでなくてもよい。例えば、判断処理は、運転者にとっての正面方向を基準(0°)として顔向き角度を算出する処理であってもよい。このとき、基準となる方向を学習によって補正することで、正面方向を基準とした顔向き角度を正確に算出することができる。   In the above-described embodiment, the face direction detection device has learned the determination process for detecting the driver's face direction and determining whether or not the driver is facing the front. Here, in another embodiment, the determination process may be a process that determines the driver's face orientation using an image captured by the camera 2 and determines whether or not the driver is facing the front. Not necessarily. For example, the determination process may be a process of calculating a face orientation angle with the front direction for the driver as a reference (0 °). At this time, the face direction angle based on the front direction can be accurately calculated by correcting the reference direction by learning.

本発明は、運転者の顔の向きを正確に検出すること等を目的として、例えば、運転者が脇見をしているか否かを判定する車両安全システム等に利用することが可能である。   The present invention can be used in, for example, a vehicle safety system that determines whether or not the driver is looking aside, for the purpose of accurately detecting the direction of the driver's face.

本実施形態における顔向き検出装置の構成を示すブロック図The block diagram which shows the structure of the face direction detection apparatus in this embodiment 本実施形態における顔向き検出装置の動作の流れを示すフローチャートThe flowchart which shows the flow of operation | movement of the face direction detection apparatus in this embodiment. 図2に示すステップS2(顔向き検出処理)の詳細を示すフローチャートThe flowchart which shows the detail of step S2 (face direction detection process) shown in FIG. 運転者Dとカメラ2との位置関係の例を示す図The figure which shows the example of the positional relationship of the driver | operator D and the camera 2 図4に示す場合にカメラ2によって撮影される画像の例を示す図The figure which shows the example of the image image | photographed with the camera 2 in the case shown in FIG. 運転者Dとカメラ2との位置関係の他の例を示す図The figure which shows the other example of the positional relationship of the driver | operator D and the camera 2 図6に示す場合にカメラ2によって撮影される画像の例を示す図The figure which shows the example of the image image | photographed with the camera 2 in the case shown in FIG. 正面範囲の一例を示す図Diagram showing an example of the front range ステップS7の学習処理を説明するための図The figure for demonstrating the learning process of step S7

符号の説明Explanation of symbols

1 顔向き検出装置
2 カメラ
3 ドライバモニタECU
4 ドライバサポートシステムECU
5 ステアリングセンサ
6 ブレーキECU
7 車輪速センサ
DESCRIPTION OF SYMBOLS 1 Face direction detection apparatus 2 Camera 3 Driver monitor ECU
4 Driver support system ECU
5 Steering sensor 6 Brake ECU
7 Wheel speed sensor

Claims (10)

車両の運転者の顔向きを検出する顔向き検出装置であって、
前記運転者を撮影する撮影手段によって撮影された画像を用いて当該運転者の顔向きを判断する判断処理を行う判断処理手段と、
前記運転者の運転状態に基づいて、前記運転者が正面を向いているか否かを推測する推測手段と、
前記運転者が正面を向いていると推測される場合に前記撮影手段によって撮影された画像から検出される顔向きが正面の向きであると判断されるように前記判断処理に関して学習を行う学習手段とを備える、顔向き検出装置。
A face direction detection device for detecting a face direction of a driver of a vehicle,
Determination processing means for performing determination processing for determining the driver's face orientation using an image photographed by the photographing means for photographing the driver;
Based on the driving state of the driver, an estimation means for estimating whether the driver is facing the front,
Learning means for learning about the determination processing so that when the driver is assumed to be facing the front, the face orientation detected from the image photographed by the photographing means is judged to be the front orientation. A face orientation detection device.
前記判断処理は、前記運転者の顔向きを検出して前記運転者が正面を向いているか否かを判断する処理であり、
前記学習手段は、前記判断処理において前記運転者が正面を向いていると判断される角度範囲を学習によって変更する、請求項1に記載の顔向き検出装置。
The determination process is a process of detecting whether or not the driver is facing and determining whether or not the driver is facing the front.
The face orientation detection device according to claim 1, wherein the learning unit changes, by learning, an angle range in which it is determined in the determination process that the driver is facing the front.
前記学習手段は、前記撮影手段によって撮影された画像における中心位置と、当該画像における前記運転者の顔の位置とのオフセット量に基づいて学習を行う、請求項1または請求項2のいずれか1項に記載の顔向き検出装置。   3. The learning device according to claim 1, wherein the learning unit performs learning based on an offset amount between a center position in the image photographed by the photographing unit and a position of the driver's face in the image. The face orientation detection device according to Item. 前記判断処理手段は、前記撮影手段によって撮影された画像における前記運転者の顔の位置として、当該運転者の顔の所定部位の位置から顔の中心線の位置を算出する、請求項3に記載の顔向き検出装置。   The said determination processing means calculates the position of the centerline of a face from the position of the predetermined part of the said driver | operator's face as a position of the said driver | operator's face in the image image | photographed by the said imaging | photography means. Face orientation detection device. 前記判断処理手段は、前記撮影手段によって撮影された画像における前記運転者の顔の位置として、当該運転者の顔の両端の中心の位置を算出する、請求項3に記載の顔向き検出装置。   The face orientation detection device according to claim 3, wherein the determination processing unit calculates the positions of the centers of both ends of the driver's face as the position of the driver's face in the image photographed by the photographing unit. 前記推測手段は、前記車両の速度が所定の速度以上であることを少なくとも条件として、前記運転者が正面を向いていると推測する、請求項1から請求項5のいずれか1項に記載の顔向き検出装置。   The said estimation means presumes that the said driver is facing the front at least on the condition that the speed of the said vehicle is more than predetermined | prescribed speed of any one of Claims 1-5. Face orientation detection device. 前記推測手段は、前記車両が直進走行していることを少なくとも条件として、前記運転者が正面を向いていると推測する、請求項1から請求項6のいずれか1項に記載の顔向き検出装置。   The face direction detection according to any one of claims 1 to 6, wherein the estimation means estimates that the driver is facing the front at least on the condition that the vehicle is traveling straight ahead. apparatus. 前記推測手段は、前記撮影手段によって撮影された画像から検出される顔向きの変化量が所定量以下であることをさらに条件として、前記運転者が正面を向いていると推測する、請求項6または請求項7のいずれか1項に記載の顔向き検出装置。   The said estimation means estimates that the said driver is facing the front on the condition that the variation | change_quantity of the face direction detected from the image image | photographed by the said imaging | photography means is below a predetermined amount further. Or the face direction detection apparatus of any one of Claim 7. 前記推測手段は、前記撮影手段によって撮影された画像から検出される顔向きが、前記運転者から前記撮影手段への方向を中心とした所定範囲内の向きであることをさらに条件として、前記運転者が正面を向いていると推測する、請求項6または請求項7のいずれか1項に記載の顔向き検出装置。   The estimation means is further provided that the face direction detected from the image photographed by the photographing means is a direction within a predetermined range centered on a direction from the driver to the photographing means. The face direction detection device according to claim 6, wherein the person is assumed to be facing the front. 前記推測手段は、前記車両のブレーキが操作中であることを少なくとも条件として、前記運転者が正面を向いていると推測する、請求項6または請求項7のいずれか1項に記載の顔向き検出装置。   The face direction according to any one of claims 6 and 7, wherein the estimation means estimates that the driver is facing the front, at least on the condition that the brake of the vehicle is being operated. Detection device.
JP2008233520A 2008-09-11 2008-09-11 Face orientation detection device Active JP4858516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008233520A JP4858516B2 (en) 2008-09-11 2008-09-11 Face orientation detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008233520A JP4858516B2 (en) 2008-09-11 2008-09-11 Face orientation detection device

Publications (2)

Publication Number Publication Date
JP2010067058A JP2010067058A (en) 2010-03-25
JP4858516B2 true JP4858516B2 (en) 2012-01-18

Family

ID=42192585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008233520A Active JP4858516B2 (en) 2008-09-11 2008-09-11 Face orientation detection device

Country Status (1)

Country Link
JP (1) JP4858516B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5272819B2 (en) * 2009-03-13 2013-08-28 オムロン株式会社 Information processing apparatus and method, and program
JP2011147270A (en) * 2010-01-14 2011-07-28 Aichi Elec Co Stator of generator and driver
JP3166475U (en) * 2010-09-07 2011-03-10 研治 片山 Rear-end collision warning device
JP6982767B2 (en) * 2017-03-31 2021-12-17 パナソニックIpマネジメント株式会社 Detection device, learning device, detection method, learning method, and program
JP6720951B2 (en) 2017-11-15 2020-07-08 オムロン株式会社 Driver status determination device, method and program
JP7067353B2 (en) * 2018-08-09 2022-05-16 トヨタ自動車株式会社 Driver information judgment device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3084996B2 (en) * 1993-02-15 2000-09-04 三菱電機株式会社 Inattentive judgment device
JP2006331323A (en) * 2005-05-30 2006-12-07 Toyota Motor Corp Vehicle deviation alarm device
JP4702100B2 (en) * 2006-02-27 2011-06-15 トヨタ自動車株式会社 Dozing determination device and dozing operation warning device
JP4893507B2 (en) * 2007-07-04 2012-03-07 オムロン株式会社 Aside look detection device and method, and program

Also Published As

Publication number Publication date
JP2010067058A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
JP4291741B2 (en) Lane departure warning device
JP4858516B2 (en) Face orientation detection device
JP3949073B2 (en) Parking assistance device
KR101950476B1 (en) Driver state sensing system, driver state sensing method, and vehicle including thereof
JP6323511B2 (en) Driver condition detection apparatus and method
JP6923458B2 (en) Electronic control device
JP2009294753A (en) Image processor and image processing method
WO2015079657A1 (en) Viewing area estimation device
WO2018167995A1 (en) Driver state estimation device and driver state estimation method
JP6439652B2 (en) In-vehicle device and in-vehicle system
KR101701050B1 (en) Method and system for alarming a wheel alignment of driving vehicle
JP4954960B2 (en) Vehicle alarm device
JP2014115859A (en) Inattentive driving determination device
KR101073259B1 (en) Method and Apparatus for Preventing Collision by Using Steering Control
JP6579496B2 (en) Driver state estimation device
JP2012003397A (en) Driver state detector
WO2013114871A1 (en) Driving assistance device and driving assistance method
JP2019121030A (en) Camera deviation detection device, camera deviation detection method, and irregularity detection device
JP2005165972A (en) Device for preventing lane deviation
JP2008042759A (en) Image processing apparatus
JP7320188B2 (en) Driver Abnormal Posture Detector
JP6023025B2 (en) Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system
JP6974192B2 (en) Camera misalignment detection device and camera misalignment detection method
JPH079880A (en) Abnormality warning device for driver
JP5747411B2 (en) Vehicle driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101020

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R151 Written notification of patent or utility model registration

Ref document number: 4858516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3