JP6785175B2 - Driver monitoring method and driver monitoring device - Google Patents

Driver monitoring method and driver monitoring device Download PDF

Info

Publication number
JP6785175B2
JP6785175B2 JP2017061013A JP2017061013A JP6785175B2 JP 6785175 B2 JP6785175 B2 JP 6785175B2 JP 2017061013 A JP2017061013 A JP 2017061013A JP 2017061013 A JP2017061013 A JP 2017061013A JP 6785175 B2 JP6785175 B2 JP 6785175B2
Authority
JP
Japan
Prior art keywords
driver
angle
camera
image
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017061013A
Other languages
Japanese (ja)
Other versions
JP2018163561A (en
Inventor
慧 上田
慧 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2017061013A priority Critical patent/JP6785175B2/en
Publication of JP2018163561A publication Critical patent/JP2018163561A/en
Application granted granted Critical
Publication of JP6785175B2 publication Critical patent/JP6785175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、ドライバの顔向き角度を検出するドライバモニタ方法及びドライバモニタ装置に係り、特に移動体の前後方向とカメラの撮像方向とのなす角度を補正する技術に関する。 The present invention relates to a driver monitoring method for detecting a driver's face-facing angle and a driver monitoring device, and more particularly to a technique for correcting an angle formed by a front-back direction of a moving body and an imaging direction of a camera.

従来におけるドライバモニタ装置として、例えば、特許文献1に開示されたものが知られている。該特許文献1では、運転席の正面に設けられたカメラを用いてドライバの顔を含む領域を撮像し、眼等の特徴点の位置の移動を検出することにより、ドライバが視認している領域を精度良く検出することが開示されている。 As a conventional driver monitor device, for example, the one disclosed in Patent Document 1 is known. In Patent Document 1, the area including the driver's face is imaged by using a camera provided in front of the driver's seat, and the movement of the position of a feature point such as an eye is detected to detect the area visually recognized by the driver. Is disclosed to be detected accurately.

特開2005−66023号公報Japanese Unexamined Patent Publication No. 2005-66023

上述した特許文献1に開示された従来例は、運転席の正面にカメラを設けており、車両の前後方向とカメラの撮像方向が一致するので、シート位置の変更等によりドライバが前後方向に移動した場合でも、ドライバの顔の向きを高精度に検出することができる。しかし、ドライバの前方にカメラ設けていない場合、即ち、車両の前後方向に対して平面視で所定の設置角度だけ傾けてカメラが設けられている場合には、シート位置が前後方向に移動すると、撮像方向に対する特徴点の方向が変化するので、ドライバの顔の向きを高精度に検出できなくなる。 In the conventional example disclosed in Patent Document 1 described above, a camera is provided in front of the driver's seat, and the front-rear direction of the vehicle coincides with the image pickup direction of the camera. Therefore, the driver moves in the front-rear direction by changing the seat position or the like. Even if this is the case, the orientation of the driver's face can be detected with high accuracy. However, if the camera is not provided in front of the driver, that is, if the camera is provided at a predetermined installation angle in a plan view with respect to the front-rear direction of the vehicle, the seat position moves in the front-rear direction. Since the direction of the feature point with respect to the imaging direction changes, the direction of the driver's face cannot be detected with high accuracy.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、カメラの撮像方向が移動体の前後方向に対して傾いている場合でも、ドライバの顔向き角度を高精度に検出することが可能なドライバモニタ方法、及びドライバモニタ装置を提供することにある。 The present invention has been made to solve such a conventional problem, and an object of the present invention is the driver's face even when the image pickup direction of the camera is tilted with respect to the front-rear direction of the moving body. It is an object of the present invention to provide a driver monitoring method capable of detecting an orientation angle with high accuracy, and a driver monitoring device.

上記目的を達成するため、本願発明は、カメラで撮像される画像内に基準点を設定し、ドライバが移動体の進行方向前方を向いているときに、カメラで撮像される画像内の基準点と、ドライバに設定した特徴点の画像内の位置との位置ずれに基づいて、基準角度を補正する。 In order to achieve the above object, the present invention sets a reference point in an image captured by the camera, and when the driver is facing forward in the traveling direction of the moving body, the reference point in the image captured by the camera is set. And, the reference angle is corrected based on the position deviation of the feature point set in the driver from the position in the image.

本発明に係るドライバモニタ方法及びドライバモニタ装置では、カメラの撮像方向が移動体の前後方向に対して傾いている場合でも、ドライバの顔向き角度を高精度に検出することが可能となる。 In the driver monitoring method and the driver monitoring device according to the present invention, it is possible to detect the face orientation angle of the driver with high accuracy even when the image pickup direction of the camera is tilted with respect to the front-rear direction of the moving body.

図1は、本発明の一実施形態に係るドライバモニタ装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a driver monitor device according to an embodiment of the present invention. 図2は、本発明の一実施形態に係るドライバモニタ装置の、各構成要素の取付位置を示す説明図である。FIG. 2 is an explanatory diagram showing mounting positions of each component of the driver monitor device according to the embodiment of the present invention. 図3は、運転席近傍に設けられるカメラ位置と、基準点、及びドライバの特徴点の位置関係を示す説明図である。FIG. 3 is an explanatory diagram showing the positional relationship between the camera position provided near the driver's seat, the reference point, and the feature point of the driver. 図4Aは、ずれ角度が生じていないときの、通常視認角度範囲R1と、ドライバが正常に運転しているときの顔向き範囲R2との関係を示す説明図である。FIG. 4A is an explanatory diagram showing the relationship between the normal viewing angle range R1 when the deviation angle does not occur and the face orientation range R2 when the driver is driving normally. 図4Bは、ずれ角度が生じているときの、通常視認角度範囲R1と、ドライバが正常に運転しているときの顔向き範囲R2との関係を示す説明図である。FIG. 4B is an explanatory diagram showing the relationship between the normal viewing angle range R1 when a deviation angle occurs and the face orientation range R2 when the driver is driving normally. 図5は、カメラ位置と、基準点、ドライバの特徴点、及び撮影面の位置関係を示す説明図である。FIG. 5 is an explanatory diagram showing the positional relationship between the camera position, the reference point, the feature point of the driver, and the photographing surface. 図6Aは、カメラと基準点、及び特徴点との位置関係を示す説明図である。FIG. 6A is an explanatory diagram showing the positional relationship between the camera, the reference point, and the feature point. 図6Bは、カメラの焦点距離fと撮影距離Lとの関係を示す説明図である。FIG. 6B is an explanatory diagram showing the relationship between the focal length f of the camera and the shooting distance L. 図7は、本発明の一実施形態に係るドライバモニタ装置の処理手順を示すフローチャートである。FIG. 7 is a flowchart showing a processing procedure of the driver monitoring device according to the embodiment of the present invention. 図8は、図7に示したオフセット角度の演算処理を示すフローチャートである。FIG. 8 is a flowchart showing the calculation process of the offset angle shown in FIG.

以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明の一実施形態に係るドライバモニタ装置の構成を示すブロック図、図2は車両(移動体)内での各構成要素の取付位置を示す説明図である。図1に示すように、本実施形態に係るドライバモニタ装置は、ドライバ監視器11と、運転コントローラ12と、警報器13と、HMIコントローラ14と、ディスプレイ15、及びメモリ16を備えている。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a driver monitor device according to an embodiment of the present invention, and FIG. 2 is an explanatory diagram showing mounting positions of each component in a vehicle (moving body). As shown in FIG. 1, the driver monitor device according to the present embodiment includes a driver monitor 11, an operation controller 12, an alarm device 13, an HMI controller 14, a display 15, and a memory 16.

ドライバ監視器11は、ドライバの顔を含む領域を撮像するカメラ21(ドライバを撮像可能に設置したカメラ)を備えており、該カメラ21で撮像したドライバの顔画像から、ドライバの顔の、車両の進行方向に対する角度(これを、「顔向き角度」とする)を検出する。そして、検出した角度データを運転コントローラ12に送信する。カメラ21は、例えばCCD、CMOS等のイメージセンサを搭載した光学的なカメラを用いることができる。また、ドライバ監視器11は、カメラ21で撮像した画面内の基準点と、ドライバに設定した特徴点の画面内の位置との位置ずれに基づいて、カメラ21の撮像方向と、車両の前後方向とのなす角度である設置角度(基準角度)を補正する補正部としての機能を備えている。本実施形態に記載する「画面」とは、カメラ21で撮像した画像をディスプレイ15に表示したものである。 The driver monitor 11 includes a camera 21 (a camera installed so that the driver can be imaged) that captures an area including the driver's face, and the driver's face, the vehicle, is obtained from the driver's face image captured by the camera 21. The angle with respect to the traveling direction of the camera (this is referred to as a "face-facing angle") is detected. Then, the detected angle data is transmitted to the operation controller 12. As the camera 21, for example, an optical camera equipped with an image sensor such as CCD or CMOS can be used. Further, the driver monitor 11 determines the imaging direction of the camera 21 and the front-rear direction of the vehicle based on the positional deviation between the reference point in the screen imaged by the camera 21 and the position of the feature point set in the driver in the screen. It has a function as a correction unit that corrects the installation angle (reference angle), which is the angle between the two. The "screen" described in the present embodiment is an image captured by the camera 21 displayed on the display 15.

カメラ21は撮像面がドライバ側を向いて配置されており、且つ、その撮像方向は、車両の前後方向に対して、平面視で所定の設置角度(後述するφ)だけ傾いた方向となるように配置されている。 The camera 21 is arranged so that the image pickup surface faces the driver side, and the image pickup direction is tilted by a predetermined installation angle (φ described later) in a plan view with respect to the front-rear direction of the vehicle. Is located in.

運転コントローラ12は、車両の運転に関する種々の制御を行うものであり、本実施形態では、ドライバ監視器11より出力されるドライバの顔向き角度データが取得されると、この顔向き角度データに基づいて警報を出力するか否かを判断する。例えば、ドライバが進行方向前方を向いているときの角度(基準角度)に対して、予め設定した閾値角度を超えて左方向、或いは右方向を向いたときには、警報器13、及びHMIコントローラ14に警報信号要求を出力する。 The driving controller 12 performs various controls related to the driving of the vehicle. In the present embodiment, when the driver's face-facing angle data output from the driver monitor 11 is acquired, the driving controller 12 is based on the face-facing angle data. To determine whether to output an alarm. For example, when the driver turns to the left or right beyond the preset threshold angle with respect to the angle (reference angle) when the driver is facing forward in the traveling direction, the alarm device 13 and the HMI controller 14 are used. Output an alarm signal request.

警報器13は、例えばスピーカを有しており、警報要求信号が与えられた際には「脇見運転です。前方を見てください」等の音声を出力して、ドライバに注意を促す。
HMIコントローラ14は、運転コントローラ12より警報信号要求が与えられたときに、ディスプレイ15に警報信号を出力する。
The alarm device 13 has, for example, a speaker, and when an alarm request signal is given, it outputs a voice such as "Looking aside. Look ahead" to alert the driver.
The HMI controller 14 outputs an alarm signal to the display 15 when an alarm signal request is given by the operation controller 12.

ディスプレイ15は、ドライバに提供する各種の情報を表示する機能を備えており、本実施形態では、HMIコントローラ14より警報信号が与えらえた際には、「脇見運転です。前方を見てください」等の文字画像を表示してドライバに注意を促す。
メモリ16は、警報器13より出力する音声信号やディスプレイ15に表示する文字画像のデータを記憶する。更に、後述するように、車両の前後方向に対するカメラ21の撮影方向の角度(設置角度)や、ドライバの特徴点の位置情報等を記憶する。
The display 15 has a function of displaying various information provided to the driver. In the present embodiment, when an alarm signal is given from the HMI controller 14, "It is an inattentive driving. Look ahead." The driver is alerted by displaying a character image such as.
The memory 16 stores audio signals output from the alarm device 13 and character image data to be displayed on the display 15. Further, as will be described later, the angle (installation angle) of the camera 21 in the shooting direction with respect to the front-rear direction of the vehicle, the position information of the feature points of the driver, and the like are stored.

そして、本実施形態に係るドライバモニタ装置は、ドライバ監視器11に搭載するカメラ21でドライバの顔画像を撮像し、更に、顔画像に含まれる特徴点(例えば、2つの眼の間、鼻、耳等)の位置の変化に基づいて、ドライバの顔向き角度を求める。そして、顔向き角度が閾値角度を超えていると判断した場合には、ドライバは脇見状態であると判断し、警報を発してドライバに脇見状態であることを知らせる。 Then, the driver monitor device according to the present embodiment captures the driver's face image with the camera 21 mounted on the driver monitor 11, and further, the feature points included in the face image (for example, between the two eyes, the nose, and the like. The driver's face orientation angle is obtained based on the change in the position of the ears, etc.). Then, when it is determined that the face-facing angle exceeds the threshold angle, the driver determines that the driver is in the inattentive state and issues an alarm to notify the driver that the inattentive state is in the inattentive state.

なお、本実施形態のドライバ監視器11、運転コントローラ12、HMIコントローラ14で示す各機能は、1又は複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置を含む。処理装置は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。 Each function shown by the driver monitor 11, the operation controller 12, and the HMI controller 14 of the present embodiment may be implemented by one or a plurality of processing circuits. The processing circuit includes a processing device including an electric circuit. Processing devices also include devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.

[顔向き角度に誤差が生じることの説明]
前述したように、本実施形態で用いるカメラ21は、その撮像方向が車両の前後方向に対して、平面視で設置角度φだけ傾いた位置に設けられている。
[Explanation that an error occurs in the face orientation angle]
As described above, the camera 21 used in the present embodiment is provided at a position where the imaging direction is tilted by the installation angle φ in a plan view with respect to the front-rear direction of the vehicle.

カメラ21の撮影領域とドライバとの位置関係を合わせるために、車両のシートの前後方向に基準を設定し、ドライバが車両の進行方向前方を向いたときの特徴点(例えば、2つの眼の中間点、鼻)の位置を基準点(図3に示すq1)として設定する。更に、ドライバをカメラ21で撮像したときの画面内の中心に基準点q1が位置するように、カメラ21の撮像方向を設定する。つまり、画面内に基準点q1を設定する。このように設定することで、カメラ21で撮像されるドライバの顔画像の変化(眼、鼻、口等の画像の変化)に基づいて、顔向き角度を検出することができる。 In order to match the positional relationship between the shooting area of the camera 21 and the driver, a reference is set in the front-rear direction of the vehicle seat, and the feature points when the driver faces forward in the traveling direction of the vehicle (for example, between the two eyes). The position of the point (point, nose) is set as the reference point (q1 shown in FIG. 3). Further, the imaging direction of the camera 21 is set so that the reference point q1 is located at the center of the screen when the driver is imaged by the camera 21. That is, the reference point q1 is set in the screen. By setting in this way, the face orientation angle can be detected based on the change in the face image of the driver (change in the image of the eyes, nose, mouth, etc.) captured by the camera 21.

しかし、ドライバが車両の進行方向前方を向いたときに、該ドライバの特徴点が常に画面内の基準点q1に位置するとは限らず、実際にはシートポジションを前後に適宜移動して好適な位置に移動することが多い。従って、基準点q1と車両運転時のドライバの特徴点との間にずれが生じてしまう。この状態でドライバの顔向き角度を検出すると大きな誤差が生じてしまう。以下、顔向き角度に誤差が生じる理由について詳細に説明する。 However, when the driver faces forward in the traveling direction of the vehicle, the feature point of the driver is not always located at the reference point q1 on the screen, and in reality, the seat position is appropriately moved back and forth to a suitable position. Often move to. Therefore, there is a gap between the reference point q1 and the characteristic point of the driver when driving the vehicle. If the driver's face angle is detected in this state, a large error will occur. Hereinafter, the reason why the face orientation angle has an error will be described in detail.

図3は、車両の運転席近傍の平面視を模式的に示す図であり、符号Zはステアリングを示している。図3において、車両の前後方向を符号d1で示している。また、前述した基準点をq1としている。従って、カメラ21から基準点q1に向かう方向がカメラ21の撮像方向であり、この撮像方向をd2とする。前後方向d1と撮像方向d2のなす角度が、設置角度φである。 FIG. 3 is a diagram schematically showing a plan view of the vicinity of the driver's seat of the vehicle, and reference numeral Z indicates steering. In FIG. 3, the front-rear direction of the vehicle is indicated by reference numeral d1. Further, the above-mentioned reference point is set to q1. Therefore, the direction from the camera 21 toward the reference point q1 is the imaging direction of the camera 21, and this imaging direction is d2. The angle formed by the front-back direction d1 and the imaging direction d2 is the installation angle φ.

また、シートが基準位置とされ、且つドライバが車両の進行方向前方を向いているときの、ドライバの特徴点が、カメラ21で撮像する画面の中心に位置するように、カメラ21を設定している。従って、この位置において、カメラ21でドライバを撮像すると、撮像される画面内の中心にドライバの特徴点(例えば、2つの眼の中間点、鼻)が位置することになる。なお、本実施形態では、一例として画面の中心に基準点q1を合わせる例を示しているが、本発明は、画面の中心に限定するものではない。 Further, the camera 21 is set so that the characteristic point of the driver when the seat is the reference position and the driver is facing forward in the traveling direction of the vehicle is located at the center of the screen imaged by the camera 21. There is. Therefore, when the driver is imaged by the camera 21 at this position, the characteristic points of the driver (for example, the midpoint between the two eyes and the nose) are located at the center of the imaged screen. In the present embodiment, an example in which the reference point q1 is aligned with the center of the screen is shown as an example, but the present invention is not limited to the center of the screen.

そして、この状態でドライバが顔の向きを左側、或いは右側に向けると、カメラ21で撮像される画像に含まれる眼、鼻、口等の位置が変化する。画像変化に基づき、周知の画像処理技術(例えば、特開2003−233803公報等に開示された技術)を用いてドライバの顔向き角度の変化を求めることができる。 Then, when the driver turns his face to the left or right in this state, the positions of the eyes, nose, mouth, etc. included in the image captured by the camera 21 change. Based on the image change, the change in the face orientation angle of the driver can be obtained by using a well-known image processing technique (for example, the technique disclosed in JP-A-2003-233803).

そして、通常運転で許容される顔向き角度(脇見でない顔向き角度)の範囲を「通常視認角度範囲」に設定し、ドライバの顔向き角度が通常視認角度範囲から外れたときに、ドライバは脇見であると判定する。図4Aは、通常視認角度範囲R1と、ドライバが正常に運転しているときの顔向き範囲R2との関係を示す説明図であり、例えば、カメラ21の設置角度φを25度としている。顔向き範囲R2は、通常視認角度範囲R1の内部に納まっているので、通常の顔向き角度では脇見と判定されることはない。また、ドライバの顔向き角度が点p1の方向となった場合には、通常視認角度範囲R1から外れるので、脇見であると判定する。 Then, the range of the face orientation angle (face orientation angle that is not looking aside) allowed in normal driving is set to the "normal viewing angle range", and when the driver's face orientation angle deviates from the normal viewing angle range, the driver looks aside. Is determined to be. FIG. 4A is an explanatory diagram showing the relationship between the normal viewing angle range R1 and the face orientation range R2 when the driver is driving normally. For example, the installation angle φ of the camera 21 is 25 degrees. Since the face orientation range R2 is housed inside the normal viewing angle range R1, it is not determined to be inattentive at the normal face orientation angle. Further, when the driver's face direction angle is in the direction of the point p1, it is out of the normal viewing angle range R1, so it is determined that the driver is looking aside.

ここで、シートの移動等によりドライバの位置が前後方向(図3に示すd1方向)に移動し、ドライバの特徴点が基準点q1と一致しない場合(例えば、図3の点q2に特徴点が移動した場合)には、ドライバの顔向き角度にずれが生じてしまう。即ち、運転時の前後方向の位置に応じて、ドライバの顔向き角度にずれが生じてしまう。例えば、図3に示す角度θoffset(後述するオフセット角度)を20度とする。その結果、図4Bに示すように、ドライバが正常に運転しているときの顔向き範囲R2が、通常視認角度範囲R1に対してずれが生じてしまう。即ち、ドライバの顔向き角度に「20度−25度=−5度」のずれが生じてしまう。このため、符号R3に示す領域は、ドライバは正常な顔向き角度であるにも関わらず、脇見であると誤判定してしまう。更に、ドライバの顔向き角度が点p1の方向となった場合でも、この方向が通常視認角度範囲R1の内部であると判定され、脇見を検出できなくなることが有る。 Here, when the position of the driver moves in the front-rear direction (d1 direction shown in FIG. 3) due to the movement of the seat or the like and the feature point of the driver does not match the reference point q1 (for example, the feature point is at the point q2 in FIG. 3). If it is moved), the driver's face orientation angle will shift. That is, the driver's face orientation angle shifts depending on the position in the front-rear direction during driving. For example, the angle θ offset (offset angle described later) shown in FIG. 3 is set to 20 degrees. As a result, as shown in FIG. 4B, the face orientation range R2 when the driver is driving normally is deviated from the normal viewing angle range R1. That is, the driver's face orientation angle deviates by "20 degrees-25 degrees = -5 degrees". Therefore, the region indicated by the reference numeral R3 is erroneously determined to be inattentive even though the driver has a normal face orientation angle. Further, even when the driver's face direction angle is the direction of the point p1, it is determined that this direction is inside the normal viewing angle range R1, and inattentiveness may not be detected.

これは、図3に示した基準点q1に対して、ドライバの特徴点q2(これを「現特徴点q2」とする)が前後方向d1に向けて距離Pだけ移動し、カメラ21から基準点q1に向く撮像方向d2と、カメラ21から現特徴点q2に向く方向d3(現特徴点方向)との間にずれ角度δθが生じたことに起因するものである。 This is because the driver's feature point q2 (referred to as the "current feature point q2") moves by a distance P in the front-rear direction d1 with respect to the reference point q1 shown in FIG. 3, and the reference point is moved from the camera 21. This is due to the occurrence of a shift angle δθ between the imaging direction d2 facing q1 and the direction d3 (current feature point direction) facing the current feature point q2 from the camera 21.

本実施形態では、上記のずれ角度δθを算出し、このずれ角度δθを用いて車両の前後方向d1とカメラ21の撮像方向d2とのなす角度を補正することにより、ドライバの顔向き角度を高精度に検出する。その結果、シート位置の変更によりドライバが基準位置に対して前後方向に移動した場合でも、図4Aに示したように、ドライバの顔向き範囲R2が、通常視認角度範囲R1の内部に納まるようにして、ドライバの脇見を高精度に検出する。 In the present embodiment, the shift angle δθ is calculated, and the shift angle δθ is used to correct the angle formed by the vehicle's front-rear direction d1 and the camera 21's imaging direction d2, thereby increasing the driver's face-facing angle. Detect with precision. As a result, even when the driver moves in the front-rear direction with respect to the reference position due to the change in the seat position, the face-facing range R2 of the driver is within the normal viewing angle range R1 as shown in FIG. 4A. It detects the driver's inattentiveness with high accuracy.

[ずれ角度δθの算出方法の説明]
次に、上述したずれ角度δθを算出する手順について説明する。図5は、前述した図3に、カメラ21により撮像する基準点q1を含む撮影面K1を記載した図である。カメラ21で撮像される画面は、撮影面K1の領域である。ドライバがシート位置の調整等により後方に移動し、特徴点が点q1から距離Pだけ後方の現特徴点q2に移動すると、この現特徴点q2は撮影面K1上で点q3に射影される。
[Explanation of calculation method of deviation angle δθ]
Next, the procedure for calculating the deviation angle δθ described above will be described. FIG. 5 is a diagram showing a photographing surface K1 including a reference point q1 imaged by the camera 21 in FIG. 3 described above. The screen imaged by the camera 21 is an area of the photographing surface K1. When the driver moves backward by adjusting the seat position or the like and the feature point moves to the current feature point q2 behind the point q1 by a distance P, the current feature point q2 is projected onto the point q3 on the photographing surface K1.

図6Aは、カメラ21の撮像方向d2と撮影面K1との関係を示す説明図、図6Bは、カメラ21の撮影倍率を示す説明図である。図6A、図6Bに示すように、カメラ21から点q1までの距離を撮影距離L、カメラ21の焦点距離をf、撮影倍率をαとする。撮影倍率αは、撮影距離Lと焦点距離fから、次の(1)式で示すことができる。
α=f/(L−f) …(1)
FIG. 6A is an explanatory diagram showing the relationship between the imaging direction d2 of the camera 21 and the photographing surface K1, and FIG. 6B is an explanatory diagram showing the photographing magnification of the camera 21. As shown in FIGS. 6A and 6B, the distance from the camera 21 to the point q1 is the shooting distance L, the focal length of the camera 21 is f, and the shooting magnification is α. The shooting magnification α can be expressed by the following equation (1) from the shooting distance L and the focal length f.
α = f / (L−f)… (1)

前後、左右、上下と移動するドライバの挙動を常に監視する必要があるため、一般的にドライバモニタ装置の光学系は、広角、つまり焦点距離が短い。この場合、焦点距離fは、撮影距離Lに対して極めて小さいので(f≪L)、(1)式の分母を「L」で置き換えることができる。なお、図6Bでは、理解促進のため撮影距離Lに対して焦点距離fを誇張した大きさで記載している。従って、次の(2)式が得られる。
α=f/L …(2)
Since it is necessary to constantly monitor the behavior of the driver moving back and forth, left and right, and up and down, the optical system of the driver monitoring device generally has a wide angle, that is, a short focal length. In this case, since the focal length f is extremely small with respect to the shooting distance L (f << L), the denominator of the equation (1) can be replaced with "L". In FIG. 6B, the focal length f is exaggerated with respect to the shooting distance L in order to promote understanding. Therefore, the following equation (2) can be obtained.
α = f / L ... (2)

また、図6Aに示す点q1と点q3の間の距離(カメラ21で撮像される画面上での位置ずれ量)をδXとすると、カメラ21のセンサ上での位置ずれ量は、距離δXに撮影倍率αを乗じて「α・δX」となる。つまり、カメラ21の画素サイズを「d」とすると、カメラ21のセンサ上で、(α・δX/d)ピクセル分の位置ずれが生じることになる。 Further, assuming that the distance between the points q1 and q3 shown in FIG. 6A (the amount of misalignment on the screen captured by the camera 21) is δX, the amount of misalignment on the sensor of the camera 21 is the distance δX. Multiply the shooting magnification α to obtain “α ・ δX”. That is, assuming that the pixel size of the camera 21 is "d", the position shift of (α · δX / d) pixels occurs on the sensor of the camera 21.

即ち、カメラ21で撮像される画面上で、画面の中心(基準点q1に対応)からNピクセルだけずれた位置(点q3に対応)に特徴点が検出された場合には、次の(3)式が成立する。
δX=N・d/α …(3)
That is, when a feature point is detected at a position (corresponding to the point q3) deviated by N pixels from the center of the screen (corresponding to the reference point q1) on the screen imaged by the camera 21, the following (3) ) Formula holds.
δX = N · d / α… (3)

更に、δX=L・tan(δθ)なる関係があるので、ずれ角度δθは次の(4)式で求めることができる。
δθ=tan−1((N・d)/(α・L)) …(4)
なお、ずれ角度δθは極めてゼロに近いので、(4)式は「tan−1」を「sin−1」に置き換えて演算してもよい。
Further, since there is a relationship of δX = L · tan (δθ), the deviation angle δθ can be obtained by the following equation (4).
δθ = tan -1 ((N · d) / (α · L))… (4)
Since the deviation angle δθ is extremely close to zero, the equation (4) may be calculated by replacing “tan -1 ” with “sin -1 ”.

また、図5に示すように、前後方向d1と、現特徴点方向d3と、のなす角度をオフセット角度θoffsetとすると、オフセット角度θoffsetは、次の(5)式で求めることができる。
θoffset=φ+δθ …(5)
なお、ずれ角度δθは、図中反時計回りを正方向としているので、図5に示す例ではマイナスとなる。
即ち、ずれ角度δθを用いて設置角度φ(撮像方向と前後方向とのなす角度である基準角度)を補正し、補正後の基準角度であるオフセット角度θoffsetを求めることができる。
Further, as shown in FIG. 5, if the angle formed by the front-rear direction d1 and the current feature point direction d3 is the offset angle θoffset, the offset angle θoffset can be obtained by the following equation (5).
θ offset = φ + δθ… (5)
Since the deviation angle δθ is in the positive direction in the counterclockwise direction in the figure, it is negative in the example shown in FIG.
That is, the installation angle φ (reference angle which is the angle formed by the imaging direction and the front-back direction) can be corrected by using the deviation angle δθ, and the offset angle θ offset which is the corrected reference angle can be obtained.

或いは、図5に示すように、カメラ21から前後方向d1までの垂直距離を距離Aとし、カメラ21から点q1までの前後方向d1に向く距離を距離Bとし、更に、ずれ角度δθを用いて距離Pを求めることができるので、距離、A、B、Pを用いて、次の(6)式でオフセット角度θoffsetを求めることができる。
θoffset=tan−1(A/(B+P)) …(6)
Alternatively, as shown in FIG. 5, the vertical distance from the camera 21 to the front-rear direction d1 is defined as the distance A, the distance from the camera 21 to the point q1 in the front-rear direction d1 is defined as the distance B, and the deviation angle δθ is used. Since the distance P can be obtained, the offset angle θ offset can be obtained by the following equation (6) using the distances A, B, and P.
θ offset = tan -1 (A / (B + P))… (6)

このようにして、ずれ角度δθ、及びオフセット角度θoffsetを求めることができる。そして、オフセット角度θoffsetを用いて、ドライバが車両を運転しているときに検出される顔向き角度(補正前)を補正することにより、正確な顔向き角度を求めることができる。 In this way, the deviation angle δθ and the offset angle θoffset can be obtained. Then, by using the offset angle θ offset to correct the face orientation angle (before correction) detected when the driver is driving the vehicle, an accurate face orientation angle can be obtained.

例えば、カメラ21の撮像面の中心を基準点q1に合わせた状態で、ドライバの顔向き角度(補正前)θoutを検出した場合には、「θout−θoffset」を演算し、この演算結果を顔向き角度θdとすることにより、ドライバの顔向き角度を高精度に算出できる。そして、算出した顔向き角度θdが予め設定した閾値角度よりも大きいと判定した場合に、ドライバは脇見であると判定することができる。 For example, when the driver's face orientation angle (before correction) θout is detected with the center of the imaging surface of the camera 21 aligned with the reference point q1, "θout−θoffset" is calculated and the calculation result is calculated as the face. By setting the orientation angle θd, the face orientation angle of the driver can be calculated with high accuracy. Then, when it is determined that the calculated face orientation angle θd is larger than the preset threshold angle, the driver can determine that he / she is looking aside.

[処理手順の説明]
次に、図7、図8に示すフローチャートを参照して、本実施形態に係るドライバモニタ装置の具体的な処理手順について説明する。
[Explanation of processing procedure]
Next, a specific processing procedure of the driver monitoring device according to the present embodiment will be described with reference to the flowcharts shown in FIGS. 7 and 8.

初めに、図7に示すステップS11において、ドライバ監視器11は、車両のイグニッションがオンであるか否かを判断し、オンである場合には(ステップS11でYES)、ステップS12において、カメラ21で撮像する画面上での現特徴点q2を設定する。前述したように、現特徴点q2は、ドライバがシートの位置調整等により前後方向に移動し、且つドライバが車両の進行方向前方を向いたときの特徴点の位置である。本実施形態では、現特徴点q2を設定するタイミングとして、イグニッションがオンとされてから(運転開始から)所定時間T1の間にドライバを撮像した画面内の特徴点の平均を現特徴点とする。イグニッションオン直後の時間帯は、車両の運転が開始されておらずドライバは進行方向前方を向いている可能性が高いので、この時間帯で撮像される画面内の特徴点を検出することにより、精度の高い現特徴点q2の設定が可能となる。 First, in step S11 shown in FIG. 7, the driver monitor 11 determines whether or not the ignition of the vehicle is on, and if it is on (YES in step S11), the camera 21 in step S12. The current feature point q2 on the screen to be imaged with is set. As described above, the current feature point q2 is the position of the feature point when the driver moves in the front-rear direction by adjusting the position of the seat or the like and the driver faces forward in the traveling direction of the vehicle. In the present embodiment, as the timing for setting the current feature point q2, the average of the feature points in the screen in which the driver is imaged during the predetermined time T1 after the ignition is turned on (from the start of operation) is set as the current feature point. .. In the time zone immediately after the ignition is turned on, it is highly possible that the driver has not started driving and the driver is facing forward in the direction of travel. Therefore, by detecting the feature points on the screen captured in this time zone, It is possible to set the current feature point q2 with high accuracy.

ステップS13において、ドライバ監視器11は、オフセット角度θoffsetの演算処理を実施する。 In step S13, the driver monitor 11 performs arithmetic processing of the offset angle θ offset.

以下、図8に示すフローチャートを参照して、オフセット角度θoffsetの演算処理手順について説明する。
ステップS31において、ドライバ監視器11は、カメラ21のセンサ上での、基準点q1の位置、及び点q3の位置(図5参照)を検出する。
ステップS32において、ドライバ監視器11は、センサ上の基準点q1から点q3までのピクセル数Nを演算する。
Hereinafter, the calculation processing procedure of the offset angle θ offset will be described with reference to the flowchart shown in FIG.
In step S31, the driver monitor 11 detects the position of the reference point q1 and the position of the point q3 (see FIG. 5) on the sensor of the camera 21.
In step S32, the driver monitor 11 calculates the number of pixels N from the reference point q1 to the point q3 on the sensor.

ステップS33において、ドライバ監視器11は、上述した(3)式により撮影面K1の、カメラ21により撮像する画面内での基準点q1と点q3との間の距離である位置ずれ量δXを演算する。
ステップS34において、ドライバ監視器11は、位置ずれ量δXに基づいてドライバの現特徴点q2の、基準点q1からの距離Pを演算する。
In step S33, the driver monitor 11 calculates the amount of misalignment δX, which is the distance between the reference point q1 and the point q3 on the screen imaged by the camera 21 on the photographing surface K1 according to the above equation (3). To do.
In step S34, the driver monitor 11 calculates the distance P of the driver's current feature point q2 from the reference point q1 based on the misalignment amount δX.

ステップS35において、ドライバ監視器11は、上述した(4)式により、ずれ角度δθを演算する。
ステップS36において、ドライバ監視器11は、上述した(5)式、或いは(6)式により、オフセット角度θoffsetを演算する。
In step S35, the driver monitor 11 calculates the deviation angle δθ according to the above equation (4).
In step S36, the driver monitor 11 calculates the offset angle θ offset by the above-mentioned equation (5) or (6).

オフセット角度θoffsetが演算されると、図7のステップS14において、ドライバ監視器11は、カメラ21で撮像したドライバの画像から、顔向き角度(補正前)θoutを検出する。顔向き角度の検出方法は、上述したように周知の技術を使用することができる。
ステップS15において、ドライバ監視器11は、顔向き角度(補正前)θoutから、ステップS13の処理で演算したオフセット角度θoffsetを減じて、ドライバの顔向き角度θdを演算する。
When the offset angle θ offset is calculated, in step S14 of FIG. 7, the driver monitor 11 detects the face orientation angle (before correction) θ out from the driver image captured by the camera 21. As a method for detecting the face orientation angle, a well-known technique can be used as described above.
In step S15, the driver monitor 11 calculates the driver's face orientation angle θd by subtracting the offset angle θoffset calculated in the process of step S13 from the face orientation angle (before correction) θout.

ステップS16において、ドライバ監視器11は、ドライバの顔向き角度θdの絶対値と、予め設定した閾値角度とを比較し、|θd|≧(閾値角度)である場合には、ドライバは脇見であると判定し、ステップS17において、警報指令を出力する。図1に示す警報器13は、警報指令が出力されると、音声や光等によりドライバに対して警報を発する。更に、ディスプレイ15に警報を示す画像を表示する。その結果、ドライバが脇見であることを気づかせることができる。なお、図4Aにおいて、脇見判定の角度を左右対称にしない場合には、異なる2つの閾値角度(第1閾値角度、第2閾値角度)を設定し、(第1閾値角度)≧θd≧(第2閾値角度)とすることも可能である。 In step S16, the driver monitor 11 compares the absolute value of the driver's face-facing angle θd with the preset threshold angle, and if | θd | ≧ (threshold angle), the driver is looking aside. Is determined, and an alarm command is output in step S17. When the alarm command is output, the alarm device 13 shown in FIG. 1 issues an alarm to the driver by voice, light, or the like. Further, an image indicating an alarm is displayed on the display 15. As a result, the driver can be made aware that he is looking aside. In FIG. 4A, when the inattentiveness determination angle is not symmetrical, two different threshold angles (first threshold angle and second threshold angle) are set, and (first threshold angle) ≧ θd ≧ (third). It is also possible to set (2 threshold angles).

ステップS18において、ドライバ監視器11は、車両のイグニッションオンがオフとされたか否かを判断し、オフとされた場合には、本処理を終了する。 In step S18, the driver monitor 11 determines whether or not the ignition on of the vehicle has been turned off, and if it is turned off, the driver monitor 11 ends this process.

このようにして、本実施形態に係るドライバモニタ装置では、カメラ21で撮像した画面内に基準点q1を設定する。更に、シートの移動等によりドライバが前後方向に移動した場合に、移動した位置でドライバが進行方向前方を向いたときの特徴点の位置を現特徴点q2とする。そして、基準点q1と、現特徴点q2を画面内に射影した点q3との位置ずれδXを求める。位置ずれδXに基づいて、車両の前後方向d1とカメラ21の撮像方向d2とのなす角度である設置角度φ(基準角度)を補正する。即ち、カメラ21から基準点q1を向く撮像方向d2と、カメラ21から現特徴点q2を向く現特徴点方向d3とのなす角度であるずれ角度δθを演算し、このずれ角度δθを用いて、設置角度φを補正した角度であるオフセット角度θoffsetを演算する。従って、設置角度φを高精度に補正することができる。 In this way, in the driver monitor device according to the present embodiment, the reference point q1 is set in the screen imaged by the camera 21. Further, when the driver moves in the front-rear direction due to the movement of the seat or the like, the position of the feature point when the driver faces forward in the traveling direction at the moved position is defined as the current feature point q2. Then, the positional deviation δX between the reference point q1 and the point q3 that projects the current feature point q2 on the screen is obtained. Based on the misalignment δX, the installation angle φ (reference angle), which is the angle formed by the front-rear direction d1 of the vehicle and the image pickup direction d2 of the camera 21, is corrected. That is, a shift angle δθ, which is an angle formed by the imaging direction d2 facing the reference point q1 from the camera 21 and the current feature point direction d3 facing the current feature point q2 from the camera 21, is calculated, and this shift angle δθ is used. The offset angle θ offset, which is the angle obtained by correcting the installation angle φ, is calculated. Therefore, the installation angle φ can be corrected with high accuracy.

そして、ドライバの顔向き角度(補正前)θoutが検出されると、「θout−θoffset」を演算し、この演算結果をドライバの顔向き角度θdとする。よって、ドライバの顔向き角度を高精度に算出できる。その結果、例えば脇見運転を検出して、警報器13から警報信号を発することや、ディスプレイ15に警報を示す画像を表示することにより、ドライバに注意を促すことができる。 Then, when the driver's face angle (before correction) θout is detected, “θout−θoffset” is calculated, and the calculation result is set as the driver's face angle θd. Therefore, the face orientation angle of the driver can be calculated with high accuracy. As a result, for example, the driver can be alerted by detecting inattentive driving and issuing an alarm signal from the alarm device 13 or displaying an image indicating the alarm on the display 15.

更に、ドライバが基準位置にて進行方向前方を向いたときの、カメラ21で撮像した画面内での特徴点の位置を基準点q1とすることにより、設置角度φをより高精度に補正することが可能となる。 Further, the installation angle φ can be corrected with higher accuracy by setting the position of the feature point on the screen imaged by the camera 21 as the reference point q1 when the driver faces forward in the traveling direction at the reference position. Is possible.

また、基準点q1と、q3との位置ずれ量δXを算出し、更に、δX=L・tan(δθ)なる関係を用いて、ずれ角度δθを算出する。従って、ずれ角度δθを高精度に算出でき、ひいてはドライバの顔向き角度θdを高精度に求めることができる。 Further, the displacement amount δX between the reference point q1 and q3 is calculated, and further, the deviation angle δθ is calculated using the relationship δX = L · tan (δθ). Therefore, the deviation angle δθ can be calculated with high accuracy, and the face orientation angle θd of the driver can be obtained with high accuracy.

更に、本実施形態では、ドライバの顔向き角度が予め設定した閾値角度を超えている場合には、ドライバは脇見運転をしているものと判断して、警報を発する。従って、ドライバが脇見運転をした場合には、いち早く注意を喚起することが可能となる。 Further, in the present embodiment, when the face facing angle of the driver exceeds a preset threshold angle, it is determined that the driver is inattentive driving and an alarm is issued. Therefore, when the driver drives aside, it is possible to promptly call attention.

また、イグニッションがオンとされてから所定時間内に撮像した複数の画面に含まれる特徴点の平均を現特徴点q2として設定するので、現特徴点q2を高精度に設定することができ、顔向き検出の精度を向上させることができる。 Further, since the average of the feature points included in the plurality of screens imaged within a predetermined time after the ignition is turned on is set as the current feature point q2, the current feature point q2 can be set with high accuracy, and the face can be set. The accuracy of orientation detection can be improved.

[現特徴点の設定の第1変形例]
次に、現特徴点位置を設定する方法の第1変形例について説明する。第1変形例では、一定時間で区切られる時間帯毎に、ドライバの特徴点の平均を演算し、最新の平均を現特徴点する。この設定方法では、一定の時間が経過する毎に、現特徴点が更新されるので、経時変化が発生した場合でも検出精度を維持することができる。
[First modification of setting the current feature point]
Next, a first modification of the method of setting the current feature point position will be described. In the first modification, the average of the feature points of the driver is calculated for each time zone divided by a fixed time, and the latest average is used as the current feature point. In this setting method, the current feature points are updated every time a certain time elapses, so that the detection accuracy can be maintained even when a change with time occurs.

[現特徴点の設定の第2変形例]
次に、現特徴点を設定する方法の第2変形例について説明する。第2変形例では一定の時間間隔でドライバの特徴点を検出し、最新の時刻で検出した特徴点の位置を現特徴点とする。この設定方法では、平均を演算する必要がないので演算負荷を軽減することができる。
[Second modification of setting the current feature point]
Next, a second modification of the method of setting the current feature point will be described. In the second modification, the feature points of the driver are detected at regular time intervals, and the position of the feature points detected at the latest time is set as the current feature point. With this setting method, it is not necessary to calculate the average, so that the calculation load can be reduced.

[現特徴点の設定の第3変形例]
更に、現特徴点を設定する方法の第3変形例として、「今から初期位置を設定します。正面を向いて下さい。」というアナウンスを実施し、その後ドライバが正面を向いたときの特徴点の位置を現特徴点として設定する。こうすることにより、より確実に現特徴点を設定することが可能となる。
[Third modification example of setting the current feature point]
Furthermore, as a third modification of the method of setting the current feature point, an announcement "Set the initial position from now. Please face the front." Is made, and then the feature point when the driver faces the front. The position of is set as the current feature point. By doing so, it becomes possible to set the current feature point more reliably.

以上、本発明のドライバモニタ方法及びドライバモニタ装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。
例えば、顔向き角度が閾値角度を超えた場合に、ナビゲーション画像やテレビ画像を表示したディスプレイの表示を停止することにより、運転者がディスプレイに長時間見入ることを防止する機能として用いることができる。
Although the driver monitoring method and the driver monitoring device of the present invention have been described above based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part is an arbitrary configuration having the same function. Can be replaced with one.
For example, when the face orientation angle exceeds the threshold angle, the display of the display displaying the navigation image or the television image is stopped, so that the driver can be used as a function to prevent the driver from looking at the display for a long time.

更に、顔向き角度を用いた入力手段として用いることができる。例えば、ドライバが一定角度以上横方向を向いたときに、その方向のウィンカを作動させる等の機能として用いることができる。 Further, it can be used as an input means using the face orientation angle. For example, when the driver turns laterally by a certain angle or more, it can be used as a function of operating a winker in that direction.

また、上述した実施形態では、図2に示したように、右側にステアリングが設置された車両について説明したが、左側にステアリングが設置された車両についても適用することが可能である。更に、上述した実施形態では、移動体として車両を例に挙げて説明したが、本発明はこれに限定されるものではなく、鉄道や航空機等の他の移動体にも適用することが可能である。 Further, in the above-described embodiment, as shown in FIG. 2, the vehicle in which the steering wheel is installed on the right side has been described, but it can also be applied to the vehicle in which the steering wheel is installed on the left side. Further, in the above-described embodiment, the vehicle has been described as an example of the moving body, but the present invention is not limited to this, and can be applied to other moving bodies such as railways and aircraft. is there.

11 ドライバ監視器
12 運転コントローラ
13 警報器
14 HMIコントローラ
15 ディスプレイ
16 メモリ
21 カメラ
d1 前後方向
d2 撮像方向
d3 現特徴点方向
f 焦点距離
K1 撮影面
L 撮影距離
q1 基準点
q2 現特徴点
q3 点(基準点q1を含む撮影面K1上の現特徴点方向d3が交差する点)
R1 通常視認角度範囲
Z ステアリング
α 撮影倍率
δX 位置ずれ量
δθ ずれ角度
θoffset オフセット角度
θd 顔向き角度
θout 顔向き角度(補正前)
11 Driver monitor 12 Operation controller 13 Alarm 14 HMI controller 15 Display 16 Memory 21 Camera d1 Front-back direction d2 Imaging direction d3 Current feature point direction f Focal length K1 Shooting surface L Shooting distance q1 Reference point q2 Current feature point q3 points (reference) The point where the current feature point direction d3 on the photographing surface K1 including the point q1 intersects)
R1 Normal viewing angle range Z Steering α Shooting magnification δX Positional deviation amount δθ Displacement angle θoffset Offset angle θd Face orientation angle θout Face orientation angle (before correction)

Claims (7)

移動体のドライバの顔向き角度を検出するドライバモニタ方法であって、
前記ドライバを撮像可能に設置したカメラで撮像される画像内に基準点を設定し、
前記ドライバが前記移動体の進行方向前方を向いているときに、前記カメラで撮像される画像内の前記基準点と、前記ドライバに設定した特徴点の前記画像内の位置と、の位置ずれに基づいて、前記カメラの撮像方向と、前記移動体の前後方向とのなす角度である基準角度を補正すること
を特徴とするドライバモニタ方法。
It is a driver monitoring method that detects the face-facing angle of a moving driver.
A reference point is set in the image captured by the camera installed so that the driver can be imaged.
When the driver is facing forward in the traveling direction of the moving body, the position of the reference point in the image captured by the camera and the position of the feature point set in the driver in the image are displaced. Based on this, a driver monitoring method comprising correcting a reference angle, which is an angle formed by an image pickup direction of the camera and a front-rear direction of the moving body.
前記基準点を、
所定の基準位置にて前記ドライバが移動体の進行方向前方を向いているときに、前記カメラで撮像される画像内の、前記特徴点の位置に設定すること
を特徴とする請求項1に記載のドライバモニタ方法。
The reference point
The first aspect of claim 1, wherein when the driver is facing forward in the traveling direction of the moving body at a predetermined reference position, the driver is set to the position of the feature point in the image captured by the camera. Driver monitoring method.
補正後の前記基準角度を用いて、前記ドライバの顔向き角度を検出し、
検出した顔向き角度が、予め設定した閾値角度を超えたときに、前記ドライバは脇見運転であると判断すること
を特徴とする請求項1または2に記載のドライバモニタ方法。
Using the corrected reference angle, the face orientation angle of the driver is detected.
The driver monitoring method according to claim 1 or 2, wherein when the detected face-facing angle exceeds a preset threshold angle, the driver determines that the driver is inattentive driving.
前記移動体の運転開始から所定時間内に撮像した複数の画像に含まれる前記特徴点の位置の平均を、ドライバが移動体の進行方向前方を向いているときの前記特徴点の画像内の位置とすること
を特徴とする請求項1〜3のいずれか1項に記載のドライバモニタ方法。
The average of the positions of the feature points included in a plurality of images captured within a predetermined time from the start of operation of the moving body is the position in the image of the feature points when the driver is facing forward in the traveling direction of the moving body. The driver monitoring method according to any one of claims 1 to 3, wherein the driver monitoring method is characterized.
予め設定した一定時間で区切られる時間帯毎に、複数の画像に含まれる前記特徴点の位置の平均を算出し、最新の時間帯で算出した特徴点の位置の平均を、ドライバが移動体の進行方向前方を向いているときの前記特徴点の画像内の位置とすること
を特徴とする請求項1〜3のいずれか1項に記載のドライバモニタ方法。
The driver calculates the average of the positions of the feature points included in a plurality of images for each time zone divided by a preset fixed time, and the driver calculates the average of the positions of the feature points calculated in the latest time zone of the moving body. The driver monitoring method according to any one of claims 1 to 3, wherein the feature point is positioned in an image when facing forward in the traveling direction.
一定の時間間隔毎に前記カメラで撮像した画像に含まれる前記特徴点の位置を検出し、最新の時刻で検出した特徴点の位置を、ドライバが移動体の進行方向前方を向いているときの前記特徴点の画像内の位置とすること
を特徴とする請求項1〜3のいずれか1項に記載のドライバモニタ方法。
When the position of the feature point included in the image captured by the camera is detected at regular time intervals and the position of the feature point detected at the latest time is directed forward in the traveling direction of the moving body. The driver monitoring method according to any one of claims 1 to 3, wherein the feature point is located in an image.
移動体のドライバの顔向き角度を検出するドライバモニタ装置であって、
前記ドライバを撮像可能に設置したカメラと、
前記カメラで撮像される画像内に基準点を設定し、前記ドライバが前記移動体の進行方向前方を向いているときに、前記カメラで撮像した画像内の前記基準点と、前記ドライバに設定した特徴点の前記画像内の位置と、の位置ずれに基づいて、前記カメラの撮像方向と、前記移動体の前後方向とのなす角度である基準角度を補正する補正部と、
を備えたことを特徴とするドライバモニタ装置。
A driver monitoring device that detects the face-facing angle of a moving driver.
A camera with the driver installed so that it can take pictures
A reference point was set in the image captured by the camera, and when the driver was facing forward in the traveling direction of the moving body, the reference point in the image captured by the camera and the driver were set. A correction unit that corrects a reference angle, which is an angle between the imaging direction of the camera and the front-back direction of the moving body, based on the positional deviation of the feature points in the image.
A driver monitoring device characterized by being equipped with.
JP2017061013A 2017-03-27 2017-03-27 Driver monitoring method and driver monitoring device Active JP6785175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017061013A JP6785175B2 (en) 2017-03-27 2017-03-27 Driver monitoring method and driver monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017061013A JP6785175B2 (en) 2017-03-27 2017-03-27 Driver monitoring method and driver monitoring device

Publications (2)

Publication Number Publication Date
JP2018163561A JP2018163561A (en) 2018-10-18
JP6785175B2 true JP6785175B2 (en) 2020-11-18

Family

ID=63861030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017061013A Active JP6785175B2 (en) 2017-03-27 2017-03-27 Driver monitoring method and driver monitoring device

Country Status (1)

Country Link
JP (1) JP6785175B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6933986B2 (en) * 2018-02-06 2021-09-08 ヴィオニア スウェーデン エービー Target detection device, target detection method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4319535B2 (en) * 2003-12-19 2009-08-26 株式会社東海理化電機製作所 Face orientation detection device
JP2005196567A (en) * 2004-01-08 2005-07-21 Nissan Motor Co Ltd Face direction detecting device
JP2007253821A (en) * 2006-03-23 2007-10-04 Toyota Motor Corp Occupant imaging device
JP2009113621A (en) * 2007-11-06 2009-05-28 Toyota Motor Corp Occupant picture photographing device, and driving assisting device
JP2010113506A (en) * 2008-11-06 2010-05-20 Aisin Aw Co Ltd Occupant position detection device, occupant position detection method, and occupant position detection program
JP5549721B2 (en) * 2011-12-26 2014-07-16 株式会社デンソー Driver monitor device
JP6708152B2 (en) * 2017-03-14 2020-06-10 オムロン株式会社 Driver state estimating device and driver state estimating method

Also Published As

Publication number Publication date
JP2018163561A (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP6394281B2 (en) In-vehicle alert system, alarm control device
JP4926437B2 (en) Vehicle driving support device
US7379089B2 (en) Apparatus and method for monitoring the immediate surroundings of a vehicle
US20150070158A1 (en) Alert display device and alert display method
JP2005300315A (en) Object detection device
JP2007064804A (en) Obstacle detecting device for vehicle
US10005392B2 (en) Object alarm device and object alarm method
US10992920B2 (en) Stereo image processing device
US20170028917A1 (en) Driving assistance device and driving assistance method
US10220783B2 (en) Vehicle-mounted stereo camera device and method for correcting the same
WO2016042713A1 (en) Electronic mirror device
CN110194173B (en) Occupant monitoring device
WO2016092967A1 (en) Image generation device and image generation method
JP6785175B2 (en) Driver monitoring method and driver monitoring device
KR101697484B1 (en) Apparatus and method for warning a dangerous element of surrounding of vehicle
JP2017224066A (en) Looking aside state determination device
KR101480431B1 (en) Apparatus and method of warnning about lane departure of vehicle
JP2006213146A (en) Face direction determination device of driver
JP2016021712A (en) Image processing system and operation support system
JP7226930B2 (en) Calibration device and electronic mirror system
KR102010407B1 (en) Smart Rear-view System
US20200111227A1 (en) Orientation detection apparatus for vehicle, image processing system, vehicle, and orientation detection method for vehicle
WO2017042995A1 (en) In-vehicle stereo camera device and method for correcting same
JP7063024B2 (en) Detection device and detection system
JP4040620B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6785175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150