JP2010225089A - Driver monitor - Google Patents

Driver monitor Download PDF

Info

Publication number
JP2010225089A
JP2010225089A JP2009074314A JP2009074314A JP2010225089A JP 2010225089 A JP2010225089 A JP 2010225089A JP 2009074314 A JP2009074314 A JP 2009074314A JP 2009074314 A JP2009074314 A JP 2009074314A JP 2010225089 A JP2010225089 A JP 2010225089A
Authority
JP
Japan
Prior art keywords
driver
area
image
tracking
shielding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009074314A
Other languages
Japanese (ja)
Other versions
JP5302730B2 (en
Inventor
Kashu Takemae
嘉修 竹前
Takuhiro Omi
拓寛 大見
Shinichi Kojima
真一 小島
Takashi Naito
貴志 内藤
Satoru Nakanishi
悟 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2009074314A priority Critical patent/JP5302730B2/en
Publication of JP2010225089A publication Critical patent/JP2010225089A/en
Application granted granted Critical
Publication of JP5302730B2 publication Critical patent/JP5302730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driver monitor monitoring a driver by use of an image even when an object blocks an imaging part. <P>SOLUTION: The driver monitor monitoring a driver by use of an image includes: an image sensor 31 capturing the image of the driver; and an ECU (Electronic Control Unit) 2 detecting a hidden area R<SB>H</SB>that includes a handle in the image based on movement of the handle interposed between the driver and the image sensor 31, and searching an image area excluding the hidden area R<SB>H</SB>in the image to track a characteristic point of the driver. The driver monitor searches the image area excluding the hidden area R<SB>H</SB>in the captured image to track the characteristic point of the driver, so that the driver can be monitored with high accuracy even when the handle or the like blocks the image sensor 31. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、運転者を監視する装置に関するものである。   The present invention relates to an apparatus for monitoring a driver.

従来、運転者を監視する装置として、画像を用いて監視するものが知られている(例えば、特許文献1参照)。特許文献1記載の装置は、運転者の顔画像を撮像し、撮像した画像領域を探索して目の位置を検出するものである。この装置の撮像部は、ハンドルからオフセットした位置に配置されている。   Conventionally, what monitors using an image is known as a device which monitors a driver (for example, refer to patent documents 1). The device described in Patent Document 1 captures a driver's face image, searches the captured image area, and detects the position of the eyes. The imaging unit of this apparatus is disposed at a position offset from the handle.

特開2006−209442号公報JP 2006-209442 A

しかしながら、従来の装置にあっては、運転者を十分監視することができないおそれがある。例えば、ハンドル等の遮蔽物によって運転者の顔が遮られないように、運転者の正面以外から運転者の顔画像を撮像した場合、角度によっては正確な特徴量を抽出することが困難な場合がある。すなわち、運転者の監視を十分行うためには、運転者の正面を撮像方向とすることが好ましい。   However, the conventional apparatus may not be able to monitor the driver sufficiently. For example, when the driver's face image is captured from other than the front of the driver so that the driver's face is not blocked by an obstacle such as a handle, it may be difficult to extract an accurate feature amount depending on the angle There is. In other words, in order to sufficiently monitor the driver, it is preferable that the front of the driver be the imaging direction.

そこで、本発明はこのような技術課題を解決するためになされたものであって、撮像部を遮る遮蔽物が存在する状態であっても画像を用いて運転者を監視することができる運転者監視装置を提供することを目的とする。   Therefore, the present invention has been made to solve such technical problems, and a driver who can monitor a driver using an image even in a state where there is a shielding object that blocks the imaging unit. An object is to provide a monitoring device.

すなわち本発明に係る運転者監視装置は、画像を用いて運転者を監視する運転者監視装置であって、運転者の画像を撮像する撮像手段と、運転者と撮像手段との間に介在する遮蔽物の動きに基づいて、撮像手段により撮像された画像のうち遮蔽物が撮像された遮蔽領域を検出する遮蔽領域検出手段と、撮像手段により撮像された画像のうち遮蔽領域を除いた画像領域内を探索して運転者の特徴点を追跡する監視手段と、を備えて構成される。   That is, the driver monitoring apparatus according to the present invention is a driver monitoring apparatus that monitors a driver using an image, and is interposed between an imaging unit that captures an image of the driver and the driver and the imaging unit. Based on the movement of the shielding object, the shielding area detection means for detecting the shielding area where the shielding object is imaged among the images captured by the imaging means, and the image area excluding the shielding area from the image captured by the imaging means And monitoring means for searching for the inside and tracking the feature point of the driver.

この発明によれば、運転者を撮像した画像において、運転者と撮像手段との間に介在し可動する遮蔽物を追跡して遮蔽物が遮る遮蔽領域を検出し、撮像した画像のうち遮蔽領域を除く画像領域内を探索して運転者の特徴点を追跡することができる。このため、遮蔽領域を含む領域内を探索することで特徴点の追跡結果に誤差が生じることを回避することが可能となる。よって、撮像した画像に遮蔽領域が含まれる場合、すなわち撮像手段を遮る遮蔽物が存在する状態であっても、画像を用いて精度良く運転者を監視することができる。なお、ここでいう運転者の特徴点とは、体の比較的小さい部分(例えば目、鼻、口等)のみならず、体の比較的大きな部分(例えば顔や手等)を含むものである。   According to the present invention, in an image obtained by imaging a driver, a shielded area that is interposed between the driver and the imaging means is tracked to detect a shielded area that is blocked by the shield, and the shielded area of the captured image is detected. The driver's feature points can be tracked by searching in the image area excluding. For this reason, it is possible to avoid occurrence of an error in the tracking result of the feature point by searching in the area including the shielding area. Therefore, even when the captured image includes a shielding area, that is, in a state where there is a shielding object that blocks the imaging unit, the driver can be accurately monitored using the image. The feature points of the driver here include not only a relatively small part of the body (for example, eyes, nose, mouth, etc.) but also a relatively large part of the body (for example, face and hand).

ここで、遮蔽領域検出手段は、遮蔽物として、運転者に操作されるハンドル又はハンドルを操作する手を対象とすることが好適である。このように構成することにより、例えば撮像手段をハンドル後方に配置して運転者を正面から撮像することができるので、画像を用いて精度良く運転者を監視することが可能となる。   Here, it is preferable that the shielding area detecting unit is a handle operated by the driver or a hand operating the handle as the shielding object. By configuring in this way, for example, the imaging means can be arranged behind the steering wheel and the driver can be imaged from the front. Therefore, it is possible to monitor the driver with high accuracy using the image.

また、遮蔽領域検出手段は、遮蔽領域とハンドルの動作角度との関係を予め取得し、監視中におけるハンドルの動作角度に基づいて遮蔽領域を検出することが好適である。このように構成することで、遮蔽領域を的確に追跡して精度良く運転者を監視することができる。   Further, it is preferable that the shielding area detecting means obtains a relationship between the shielding area and the operation angle of the handle in advance and detects the shielding area based on the operation angle of the handle during monitoring. By comprising in this way, a driver | operator can be monitored accurately by tracking a shielding area exactly.

また、監視手段は、撮像手段により撮像された画像の一部を切り出した切出領域の画素情報と運転者の特徴点を反映させた追跡用テンプレートとをマッチング処理して運転者の特徴点を追跡し、切出領域に遮蔽領域が含まれる場合には、切出領域のうち遮蔽領域を除いた画像領域をマッチング処理の対象とすることが好適である。このように構成することにより、遮蔽領域と重なる領域を除いた領域のみをマッチング処理の対象とすることができるので、精度の高いテンプレートマッチングを行うことが可能となる。   In addition, the monitoring unit performs a matching process on the pixel information of the cut-out area obtained by cutting out a part of the image captured by the imaging unit and the tracking template that reflects the driver's feature point, thereby determining the driver's feature point. In the case where the occlusion area is included in the cut-out area, it is preferable that the image area excluding the occlusion area in the cut-out area is the target of the matching process. By configuring in this way, only the region excluding the region that overlaps the shielding region can be the target of the matching process, so that highly accurate template matching can be performed.

また、監視手段は、マッチング処理が成功した切出領域の画素情報を、次回の処理で用いる追跡用テンプレートとすることが好適である。このように構成することで、遮蔽領域を含めて追跡用のテンプレートを更新することができるので、遮蔽物が存在した場合であっても運転者の特徴点を精度良く追跡することが可能となる。   In addition, it is preferable that the monitoring unit uses the pixel information of the cutout area where the matching process is successful as a tracking template used in the next process. With this configuration, the tracking template including the shielding area can be updated, so that the feature point of the driver can be accurately tracked even when the shielding object exists. .

さらに、監視手段は、追跡用テンプレートに遮蔽領域が含まれる場合には、追跡用テンプレートのうち遮蔽領域を除いた画素情報を用いてマッチング処理を行うことが好適である。このように構成することで、精度の高いテンプレートマッチングを行うことが可能となる。   Furthermore, when the tracking template includes a shielded area, the monitoring unit preferably performs the matching process using pixel information excluding the shielded area in the tracking template. With this configuration, it is possible to perform highly accurate template matching.

また、本発明に係る運転者監視装置は、運転者を撮影した画像領域のうち運転者の撮影を遮る遮蔽物の動きに応じて画像領域の遮蔽物が無い領域から運転者の特徴点を探索することを特徴として構成される。本発明によれば、撮像した画像に遮蔽物による遮蔽領域が含まれる場合であっても画像を用いて精度良く運転者を監視することができる。   In addition, the driver monitoring device according to the present invention searches for a feature point of the driver from an image area in which there is no obstruction in the image area in accordance with the movement of the occlusion that blocks the image of the driver in the image area in which the driver is imaged. It is configured as a feature. According to the present invention, it is possible to monitor a driver with high accuracy using an image even if the captured image includes a shielding area by a shielding object.

実施形態に係る運転者監視装置を備える車両の構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of a vehicle provided with the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置の学習動作を示すフローチャートである。It is a flowchart which shows the learning operation | movement of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置の遮蔽領域検出動作を説明する概要図である。It is a schematic diagram explaining the shielding area | region detection operation | movement of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置の監視動作を示すフローチャートである。It is a flowchart which shows the monitoring operation | movement of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置の初期発見モードの実行動作を示すフローチャートである。It is a flowchart which shows execution operation | movement of the initial discovery mode of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置のトラッキングモードの実行動作を示すフローチャートである。It is a flowchart which shows execution operation of the tracking mode of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置の再探索モードの実行動作を示すフローチャートである。It is a flowchart which shows the execution operation | movement of the re-search mode of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置のエッジ処理、平滑化処理を説明する概要図である。It is a schematic diagram explaining the edge process of the driver | operator monitoring apparatus which concerns on embodiment, and a smoothing process. 実施形態に係る運転者監視装置のテンプレート作成処理を説明する概要図である。It is a schematic diagram explaining the template creation process of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置のテンプレートマッチング処理を説明する概要図である。It is a schematic diagram explaining the template matching process of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置のテンプレートマッチング処理を説明する概要図である。It is a schematic diagram explaining the template matching process of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置のテンプレートマッチング処理を説明する概要図である。It is a schematic diagram explaining the template matching process of the driver | operator monitoring apparatus which concerns on embodiment. 実施形態に係る運転者監視装置の更新テンプレートを示す概要図である。It is a schematic diagram which shows the update template of the driver | operator monitoring apparatus which concerns on embodiment.

以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same or an equivalent part, and the overlapping description is abbreviate | omitted.

本実施形態に係る運転者監視装置は、例えば走行支援機能や運転支援機能を有する車両に好適に採用されるものである。   The driver monitoring apparatus according to the present embodiment is suitably employed for a vehicle having a driving support function and a driving support function, for example.

最初に、本実施形態に係る運転者監視装置を備える車両の概要から説明する。図1は、本実施形態に係る運転者監視装置1を備える車両の概要図である。図1に示す車両3は、ハンドル角検出センサ30、画像センサ(撮像手段)31及びECU(Electronic Control Unit)2を備えている。ECUは、電子制御する自動車デバイスのコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random AccessMemory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。   First, an outline of a vehicle including the driver monitoring device according to the present embodiment will be described. FIG. 1 is a schematic diagram of a vehicle including a driver monitoring apparatus 1 according to the present embodiment. A vehicle 3 shown in FIG. 1 includes a handle angle detection sensor 30, an image sensor (imaging means) 31, and an ECU (Electronic Control Unit) 2. The ECU is a computer of an electronic device that is electronically controlled, and includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an input / output interface.

ハンドル角検出センサ30は、運転者が操作したハンドルのハンドル角θを検出するセンサである。ハンドル角θは、例えば、操舵していない状態を基準としたハンドル回転角である。ハンドル角検出センサ30として、例えばホール素子やフォトインタラプタ等の位置検出センサが用いられる。また、ハンドル角検出センサ30は、検出したハンドル角θをECU2に出力する機能を有している。   The handle angle detection sensor 30 is a sensor that detects the handle angle θ of the handle operated by the driver. The handle angle θ is, for example, a handle rotation angle based on a state where the steering is not performed. As the handle angle detection sensor 30, for example, a position detection sensor such as a Hall element or a photo interrupter is used. The handle angle detection sensor 30 has a function of outputting the detected handle angle θ to the ECU 2.

画像センサ31は、運転者の画像を撮像するセンサである。画像センサ31として、例えばCCDカメラ等が用いられる。また、画像センサ31は、撮像した画像情報をECU2へ出力する機能を有している。   The image sensor 31 is a sensor that captures an image of the driver. For example, a CCD camera or the like is used as the image sensor 31. The image sensor 31 has a function of outputting captured image information to the ECU 2.

ECU2は、遮蔽領域検出部20、遮蔽領域記録部21、探索範囲設定部22、顔初期テンプレート生成部23、特徴点初期テンプレート生成部24、顔追跡処理部25及び特徴点追跡処理部26を有している。   The ECU 2 includes a shielding area detection unit 20, a shielding area recording unit 21, a search range setting unit 22, a face initial template generation unit 23, a feature point initial template generation unit 24, a face tracking processing unit 25, and a feature point tracking processing unit 26. is doing.

遮蔽領域検出部20は、画像センサ31が撮像した画像においてハンドルが撮像された領域(遮蔽領域)を検出する機能を有している。遮蔽領域検出部20は、例えばハンドル検出用のテンプレートを、画像センサ31が撮像した画像とマッチングさせることにより遮蔽領域を検出する機能を有している。また、遮蔽領域検出部20は、検出した遮蔽領域に関する情報を、遮蔽領域記録部21へ出力する機能を有している。   The shielding area detection unit 20 has a function of detecting an area (shielding area) where a handle is captured in an image captured by the image sensor 31. The shielding area detection unit 20 has a function of detecting a shielding area by matching a handle detection template with an image captured by the image sensor 31, for example. The shielding area detection unit 20 has a function of outputting information about the detected shielding area to the shielding area recording unit 21.

遮蔽領域記録部21は、ハンドル角検出センサ30が出力したハンドル角θ及び遮蔽領域検出部20が出力した遮蔽領域に関する情報に基づいてハンドル角θと遮蔽領域との関係を記録する手段である。例えば、ECU2に備わるメモリ記録する。   The shielding area recording unit 21 is a unit that records the relationship between the steering wheel angle θ and the shielding area based on the steering wheel angle θ output by the steering wheel angle detection sensor 30 and the information regarding the shielding area output by the shielding area detection unit 20. For example, the memory provided in the ECU 2 is recorded.

探索範囲設定部22は、画像センサ31が撮像した画像の探索範囲を設定する機能を有している。探索範囲設定部22は、画像センサ31が撮像した画像のうち遮蔽領域を除いた領域を探索範囲として設定する機能を有している。例えば、探索範囲設定部22は、ハンドル角検出センサ30が出力した所定のハンドル角θ及び遮蔽領域記録部21が記録したハンドル角θと遮蔽領域との関係に基づいて、所定のハンドル角θでの遮蔽領域を特定して探索範囲を設定する機能を有している。また、設定した探索範囲を必要に応じて顔初期テンプレート生成部23、特徴点初期テンプレート生成部24、顔追跡処理部25及び特徴点追跡処理部26へ出力する機能を有している。   The search range setting unit 22 has a function of setting a search range of an image captured by the image sensor 31. The search range setting unit 22 has a function of setting, as a search range, an area excluding the shielding area from the image captured by the image sensor 31. For example, the search range setting unit 22 has a predetermined handle angle θ based on the relationship between the predetermined handle angle θ output from the handle angle detection sensor 30 and the handle angle θ recorded by the shielding region recording unit 21 and the shielding region. This function has a function of setting a search range by specifying a shielding area. In addition, it has a function of outputting the set search range to the face initial template generation unit 23, the feature point initial template generation unit 24, the face tracking processing unit 25, and the feature point tracking processing unit 26 as necessary.

顔初期テンプレート生成部23は、画像内の運転者の顔を探索するために用いるテンプレートを生成する機能を有している。顔初期テンプレート生成部23は、例えばニューラルネットワーク等の統計手法を用いて運転者の顔位置を画像の中から発見し、運転者の顔の初期テンプレートを作成する機能を有している。顔初期テンプレートは、更新されることがないテンプレートである。   The face initial template generation unit 23 has a function of generating a template used for searching for the driver's face in the image. The face initial template generation unit 23 has a function of finding a driver's face position from an image using a statistical method such as a neural network and creating an initial template of the driver's face. The face initial template is a template that is not updated.

特徴点初期テンプレート生成部24は、画像内の運転者の特徴点を探索するために用いられるテンプレートを作成する機能を有している。特徴点初期テンプレート生成部24は、例えばニューラルネットワークなどにより、運転者の顔の特徴点を画像の中から発見し、顔の特徴点の初期テンプレートを作成する機能を有している。顔の特徴点として、例えば目、鼻、口等が用いられる。特徴点初期テンプレートは、更新されることがないテンプレートである。   The feature point initial template generation unit 24 has a function of creating a template used for searching for a feature point of the driver in the image. The feature point initial template generation unit 24 has a function of finding a feature point of the driver's face from the image by using a neural network, for example, and creating an initial template of the face feature point. For example, eyes, nose, mouth and the like are used as facial feature points. The feature point initial template is a template that is not updated.

顔追跡処理部25は、画像センサ31が出力する画像内の運転者の顔を追跡する機能を有している。顔追跡処理部25は、例えば、顔トラッキングテンプレートを、画像センサ31が撮像した画像とマッチングさせることにより運転者の顔を検出して追跡する機能を有している。顔トラッキングテンプレートは、顔初期テンプレート生成部23が生成した顔初期テンプレートと同一のものを初期値とし、テンプレートマッチング処理が成功するたびに更新されるテンプレートである。   The face tracking processing unit 25 has a function of tracking the driver's face in the image output from the image sensor 31. The face tracking processing unit 25 has a function of detecting and tracking a driver's face by matching a face tracking template with an image captured by the image sensor 31, for example. The face tracking template is a template that is updated each time the template matching process is successful, with the same initial value as the face initial template generated by the face initial template generation unit 23 being used as an initial value.

特徴点追跡処理部26は、画像センサ31が出力する画像内における運転者の顔の特徴点を追跡する機能を有している。特徴点追跡処理部26は、例えば、特徴点トラッキングテンプレートを、画像センサ31が撮像した画像とマッチングさせることにより運転者の顔の特徴点を検出して追跡する機能を有している。特徴点トラッキングテンプレートは、特徴点初期テンプレート生成部24が生成した特徴点初期テンプレートと同一のものを初期値とし、テンプレートマッチング処理が成功するたびに更新されるテンプレートである。   The feature point tracking processing unit 26 has a function of tracking the feature points of the driver's face in the image output from the image sensor 31. The feature point tracking processing unit 26 has a function of detecting and tracking feature points of the driver's face by matching a feature point tracking template with an image captured by the image sensor 31, for example. The feature point tracking template is a template that is updated each time the template matching process is successful, with the same feature point initial template generated by the feature point initial template generation unit 24 as an initial value.

運転者監視装置1は、上述した画像センサ31及びECU2を備えて構成され、画像センサ31は撮像手段として機能し、ECU2は遮蔽領域検出手段及び監視手段として機能する。また、運転者監視装置1は、例えば警報システム等に監視結果を提供可能に構成されていてもよい。   The driver monitoring apparatus 1 includes the image sensor 31 and the ECU 2 described above. The image sensor 31 functions as an imaging unit, and the ECU 2 functions as a shielding area detection unit and a monitoring unit. Further, the driver monitoring device 1 may be configured to be able to provide a monitoring result to, for example, an alarm system.

次に、本実施形態に係る運転者監視装置1の動作について説明する。まず、監視動作の前処理となる学習動作から説明する。図2は、本実施形態に係る運転者監視装置1の学習動作を示すフローチャートである。図2に示す制御処理は、監視動作を行う前に、所定のタイミングで繰り返し実行される。監視動作とは後述する図4に示す動作のことであり、本実施形態においては一例として図2に示す処理を車両出荷前に実行する場合を説明する。なお、説明理解の容易性を考慮して、画像センサ31は、ハンドル後方に配置されている例を説明する。   Next, operation | movement of the driver | operator monitoring apparatus 1 which concerns on this embodiment is demonstrated. First, the learning operation that is the pre-processing of the monitoring operation will be described. FIG. 2 is a flowchart showing a learning operation of the driver monitoring apparatus 1 according to the present embodiment. The control process shown in FIG. 2 is repeatedly executed at a predetermined timing before performing the monitoring operation. The monitoring operation is an operation shown in FIG. 4 to be described later. In this embodiment, a case where the process shown in FIG. 2 is executed before vehicle shipment will be described as an example. In consideration of ease of understanding, an example in which the image sensor 31 is arranged behind the handle will be described.

図2に示す制御処理が開始されると、ハンドル角の検出処理及び記録処理から実行する(S10)。S10の処理は、ハンドル角検出センサ30が実行し、運転者により操作されたハンドルのハンドル角θを検出しECU2のメモリに記録する処理である。S10の処理が終了すると、遮蔽領域抽出処理及び記録処理へ移行する(S12)。   When the control process shown in FIG. 2 is started, the process is executed from the handle angle detection process and the recording process (S10). The process of S10 is a process executed by the handle angle detection sensor 30 to detect the handle angle θ of the handle operated by the driver and record it in the memory of the ECU 2. When the process of S10 ends, the process proceeds to the shielding area extraction process and the recording process (S12).

S12の処理は、遮蔽領域検出部20及び遮蔽領域記録部21が実行し、遮蔽領域の抽出及び記録を行う処理である。遮蔽領域検出部20は、S10の処理で検出したハンドル角θの時に画像センサ31により撮像された画像の中から遮蔽領域を検出する。例えば、ハンドルの模様等を反映したテンプレート(ハンドル検出用テンプレート)を事前に作成し、画像センサ31により撮像された画像全体を探索範囲としてテンプレートマッチング処理を行う。テンプレートマッチング処理の詳細について、図3を用いて説明する。図3は、遮蔽領域を検出するテンプレートマッチング処理を説明するための概要図である。図3(a)は、画像センサ31が運転者を正面から撮像した画像であって、遮蔽領域を検出する対象となる画像である。図3(a)に示す画像において、ハンドルが撮像された領域を遮蔽領域Rとする。また、図3(b)は、図3(a)に示す画像の一部を切り出した切出領域Rを示すものである。また、図3(c)画像は、図3(a)に示す画像から遮蔽領域Rを検出するためのハンドル検出用テンプレートTであり、事前にハンドルの画像情報を反映させて作成したものである。遮蔽領域検出部20は、図3(a)に示す画像から、ハンドル検出用テンプレートTと同一サイズの切出領域Rを切り出して、ハンドル検出用テンプレートTと切出領域Rとをマッチングする。テンプレートマッチングの方式として、例えば、類似度(SSD:Sum of Square Difference)に基づく方式、相違度(SAD:Sum of AbsoluteDifference)に基づく方式、正規化相関に基づく方式等が用いられる。例えばSADに基づく方式を用いた場合、遮蔽領域検出部20は、SADの結果により相違度が一定閾値以下である場合には、マッチング処理に用いた切出領域Rは遮蔽領域Rであると判定する。あるいは、切出領域Rを複数の領域に分割し、その各領域の輝度ヒストグラムとハンドル検出用テンプレートTの輝度ヒストグラムとの類似度を算出し、類似度が所定の閾値以上の場合には、マッチング処理に用いた切出領域Rは遮蔽領域Rであると判定してもよい。遮蔽領域検出部20は、切出領域Rを図3(a)に示す方向Hに沿って順次切り出してテンプレートマッチング処理をそれぞれ行う。そして、遮蔽領域記録部21は、テンプレートマッチング処理の結果を例えばECU2のメモリに記録する。遮蔽領域記録部21は、画像をxy平面とし、S10の処理で検出したハンドル角θと対応させて遮蔽領域Rを2次元配列H(x,y)として記録する。すなわち、ハンドル角θと遮蔽領域Rとの関係が記録される。遮蔽領域記録部21は、例えば、2次元配列H(x,y)において、遮蔽領域Rであれば1、それ以外の領域であれば0として記録する。S12の処理が終了すると、図3に示す制御処理を終了する。 The process of S12 is a process executed by the shielding area detection unit 20 and the shielding area recording unit 21 to extract and record the shielding area. The shielding area detection unit 20 detects a shielding area from the image captured by the image sensor 31 at the handle angle θ detected in the process of S10. For example, a template (handle detection template) reflecting a handle pattern or the like is created in advance, and template matching processing is performed using the entire image captured by the image sensor 31 as a search range. Details of the template matching process will be described with reference to FIG. FIG. 3 is a schematic diagram for explaining a template matching process for detecting a shielding area. FIG. 3A is an image in which the image sensor 31 images the driver from the front, and is an image that is a target for detecting the shielding area. In the image shown in FIG. 3A, a region where the handle is imaged is defined as a shielding region RH . Further, FIG. 3 (b) shows a cut region R K cut a part of the image shown in FIG. 3 (a). Further, FIG. 3 (c) image is a handle detection template T H for detecting the shielding region R H from the image shown in FIG. 3 (a), was created by pre reflecting the handle image information to It is. Shielding area detecting section 20, the image shown in FIG. 3 (a), is cut out cut-out region R K of the handle detection template T H and the same size, a template handle detecting T H and segment region R K Match. As a template matching method, for example, a method based on a similarity (SSD: Sum of Square Difference), a method based on a difference (SAD: Sum of Absolute Difference), a method based on a normalized correlation, or the like is used. For example, when using a method based on SAD, the occluding area detecting unit 20, when the degree of difference as a result of the SAD is equal to or less than a predetermined threshold, the cut region R K used in the matching process is shielded area R H Is determined. Alternatively, dividing the cut region R K into a plurality of regions, and calculates the similarity between the luminance histogram of the luminance histogram and the handle detection template T H of the respective regions, if the similarity is equal to or greater than a predetermined threshold value , cut region R K used in the matching process may be determined that the shielding region R H. Shielding area detecting unit 20 performs each template matching processing is sequentially cut along the cut region R K in the direction H shown in FIG. 3 (a). And the shielding area recording part 21 records the result of a template matching process in the memory of ECU2, for example. The shielding area recording unit 21 records the shielding area RH as a two-dimensional array H (x, y) in correspondence with the handle angle θ detected in the process of S10 on the xy plane. That is, the relationship between the handle angle θ and the shielding area RH is recorded. For example, in the two-dimensional array H (x, y), the shielding area recording unit 21 records 1 as the shielding area RH and records 0 as the other area. When the process of S12 ends, the control process shown in FIG. 3 ends.

図3に示す制御処理を全てのハンドル角θに対して繰り返し実行することにより、ハンドル角θに依存した遮蔽領域R(2次元配列H(x,y))を記録することができる。 By repeatedly executing the control process shown in FIG. 3 for all the handle angles θ, the shielding region R H (two-dimensional array H (x, y)) depending on the handle angle θ can be recorded.

次に、本実施形態に係る運転者監視装置1の監視動作について説明する。図4〜7は、本実施形態に係る運転者監視装置1の監視動作を示すフローチャートである。図4に示す制御処理は、例えばイグニッションオンされた時から所定のタイミングで繰り返し実行される。なお、説明理解の容易性を考慮して、画像センサ31は、ハンドル後方に配置されている例を説明する。   Next, the monitoring operation of the driver monitoring apparatus 1 according to the present embodiment will be described. 4-7 is a flowchart which shows the monitoring operation | movement of the driver | operator monitoring apparatus 1 which concerns on this embodiment. The control process shown in FIG. 4 is repeatedly executed at a predetermined timing from when the ignition is turned on, for example. In consideration of ease of understanding, an example in which the image sensor 31 is arranged behind the handle will be described.

図4に示すように、運転者監視装置1は、処理モード分岐判定処理から開始する(S20)。S20の処理は、初期発見モード、トラッキングモード及び再探索モードの3つのモードから制御モードを選択する処理である。初期発見モードは、画像内の運転者を発見しテンプレートの初期作成等を行う制御モードである。また、トラッキングモードは、画像内の運転者を追跡して監視する制御モードである。また、再探索モードは、画像内の運転者の発見を再度行う制御モードである。各モードの詳細は後述する。S20の処理として、ECU2は、例えば、ECU2のメモリに作成された初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグの値を判定してモードを選択する。例えば、フラグが1となっているモードを実行する。なお、以下では説明理解の容易性を考慮して、初期発見モードフラグの初期値として1、トラッキングモードフラグ及び再探索モードフラグの初期値として0が設定されているものとし、図4に示す制御処理をイグニッションONされてから最初に実行する場合を説明する。この場合、初期発見モードが選択され、初期発見制御モードの実行処理へ移行する(S22)。   As shown in FIG. 4, the driver monitoring device 1 starts from a processing mode branch determination process (S20). The process of S20 is a process of selecting a control mode from the three modes of the initial discovery mode, the tracking mode, and the re-search mode. The initial discovery mode is a control mode in which a driver in an image is discovered and a template is initially created. The tracking mode is a control mode for tracking and monitoring the driver in the image. The re-search mode is a control mode in which the driver in the image is found again. Details of each mode will be described later. As the process of S20, the ECU 2 determines the values of the initial discovery mode flag, the tracking mode flag, and the re-search mode flag created in the memory of the ECU 2, for example, and selects the mode. For example, a mode in which the flag is 1 is executed. In the following, in consideration of ease of explanation, it is assumed that 1 is set as the initial value of the initial discovery mode flag, and 0 is set as the initial values of the tracking mode flag and the re-search mode flag, and the control shown in FIG. A case where the process is first executed after the ignition is turned on will be described. In this case, the initial discovery mode is selected, and the process proceeds to the initial discovery control mode execution process (S22).

S22の処理は、初期発見モードを実行する処理である。S22の処理の詳細を、図5を用いて説明する。図5は、初期発見モードの実行動作を示すフローチャートである。図5に示すように、最初にハンドル角の検出処理及び記録処理から開始する(S30)。   The process of S22 is a process for executing the initial discovery mode. Details of the process of S22 will be described with reference to FIG. FIG. 5 is a flowchart showing the execution operation of the initial discovery mode. As shown in FIG. 5, first, the steering angle detection process and the recording process are started (S30).

S30の処理は、ハンドル角検出センサ30が実行し、運転者により操作されたハンドルのハンドル角θを検出しECU2のメモリに記録する処理である。S30の処理が終了すると、処理範囲限定処理へ移行する(S32)。   The process of S30 is a process executed by the handle angle detection sensor 30 to detect the handle angle θ of the handle operated by the driver and record it in the memory of the ECU 2. When the process of S30 ends, the process proceeds to a process range limiting process (S32).

S32の処理は、探索範囲設定部22が実行し、処理範囲を限定する処理である。探索範囲設定部22は、画像センサ31により撮像した画像を入力し、入力した画像の中で運転者の顔の発見(探索)を行う領域を設定する。例えば、探索範囲設定部22は、S30の処理で検知したハンドル角θに対応した2次元配列H(x,y)を、図2に示す制御処理によって記録されたメモリから入力し、入力した2次元配列H(x,y)の中で、値が0となる領域を探索範囲と設定する。すなわち遮蔽領域R以外の領域を探索範囲と設定する。S32の処理が終了すると、顔の初期発見処理へ移行する(S34)。 The process of S32 is a process executed by the search range setting unit 22 to limit the processing range. The search range setting unit 22 inputs an image picked up by the image sensor 31 and sets a region in which the driver's face is found (searched) in the input image. For example, the search range setting unit 22 inputs the two-dimensional array H (x, y) corresponding to the handle angle θ detected in the process of S30 from the memory recorded by the control process shown in FIG. In the dimensional array H (x, y), an area having a value of 0 is set as a search range. That is, a region other than the shielding region RH is set as the search range. When the process of S32 is completed, the process proceeds to a face initial discovery process (S34).

S34の処理は、顔初期テンプレート生成部23が実行し、顔の初期発見を行う処理である。顔初期テンプレート生成部23は、S32の処理により限定した探索範囲を対象としてニューラルネットワーク等を用いて顔の中心位置及び存在範囲Rを検出する。S34の処理が終了すると、特徴点の初期発見処理へ移行する(S36)。 The process of S34 is a process that is executed by the face initial template generation unit 23 and performs an initial discovery of a face. The face initial template generation unit 23 detects the center position of the face and the existence range R S using a neural network or the like for the search range limited by the process of S32. When the process of S34 is completed, the process proceeds to a feature point initial discovery process (S36).

S36の処理は、特徴点初期テンプレート生成部24が実行し、特徴点の初期発見を行う処理である。特徴点初期テンプレート生成部24は、S34の処理により検出した顔の存在範囲Rを対象としてニューラルネットワーク等を用いて顔の特徴点の位置を検出する。特徴点として、例えば、右目頭、右目尻、左目頭、左目尻、鼻腔中心、左右口端などが用いられる。S36の処理が終了すると、検出終了判定処理へ移行する(S38)。 The process of S36 is a process executed by the feature point initial template generation unit 24 to perform initial discovery of feature points. The feature point initial template generation unit 24 detects the position of the feature point of the face using a neural network or the like for the face existence range R S detected by the process of S34. As feature points, for example, right eye, right eye corner, left eye head, left eye corner, nasal cavity center, left and right mouth edges, and the like are used. When the process of S36 ends, the process proceeds to a detection end determination process (S38).

S38の処理は、特徴点初期テンプレート生成部24が実行し、全ての特徴点の位置を検出したか否かを判定する処理である。例えば、検出すべき特徴点は予め設定されている。S38の処理において、全ての特徴点の位置を検出していない場合には、ハンドル角検出処理へ再度移行する(S30)。このように、全ての特徴点の位置を検出するまで、S30からS38に示す処理を繰り返し実行する。   The process of S38 is a process executed by the feature point initial template generation unit 24 to determine whether or not the positions of all feature points have been detected. For example, the feature points to be detected are set in advance. If the positions of all the feature points have not been detected in the process of S38, the process proceeds to the handle angle detection process again (S30). In this way, the processes shown in S30 to S38 are repeatedly executed until the positions of all feature points are detected.

一方、S38の処理において、全ての特徴点の位置を検出した場合には、テンプレート作成処理へ移行する(S40)。S40の処理は、顔初期テンプレート生成部23及び特徴点初期テンプレート生成部24が実行し、顔の初期テンプレート、顔のトラッキングテンプレート、特徴点の初期テンプレート、及び特徴点のトラッキングテンプレートを作成する処理である。まず、トラッキングに適したテンプレートを作成すべく、画像センサ31から入力した画像を編集する。この処理について、図8を用いて説明する。図8(a)は、エッジを強調する処理過程を示す説明図であり、図8(b)は、平滑化処理過程を示す説明図である。図8(a)に示すように、画像センサ31から入力した濃淡画像Gに対して横ソーベルフィルタFをかけて横方向のエッジを強調した横ソーベルフィルタ画像Gとする。その後、横ソーベルフィルタ画像Gに対して3×3の平滑化フィルタFをかけて平滑化した横ソーベルフィルタ平滑化画像Gとする。横ソーベルフィルタ平滑化画像Gは、エッジが強調されているため光環境の変化に対する頑健性が高く、平滑化されていることでノイズが少ないという特徴がある。このため、横ソーベルフィルタ平滑化画像Gからテンプレートを作成することにより、最適なトラッキングを実現することができる。 On the other hand, if the positions of all the feature points are detected in the process of S38, the process proceeds to the template creation process (S40). The process of S40 is executed by the face initial template generation unit 23 and the feature point initial template generation unit 24 to create a face initial template, a face tracking template, a feature point initial template, and a feature point tracking template. is there. First, an image input from the image sensor 31 is edited in order to create a template suitable for tracking. This process will be described with reference to FIG. FIG. 8A is an explanatory diagram showing a process for emphasizing an edge, and FIG. 8B is an explanatory diagram showing a smoothing process. As shown in FIG. 8A, a horizontal Sobel filter image G 2 is obtained by applying a horizontal Sobel filter F 1 to the grayscale image G 1 input from the image sensor 31 and enhancing the edge in the horizontal direction. Thereafter, the horizontal Sobel filtered image G 2 horizontal Sobel filter smoothed image G 3 smoothed over a 3 × 3 smoothing filter F 2 against. Horizontal Sobel filter smoothed image G 3 are, the higher robustness to changes in light environments because the edge is emphasized, there is a feature that noise by being smoothed little. Thus, by creating a template from the side Sobel filter smoothed image G 3, it is possible to achieve optimal tracking.

次に、テンプレートの作成の詳細を、図9を用いて説明する。図9(a)は、顔初期テンプレート及び顔トラッキングテンプレートの作成を説明する概要図、図9(b)は、特徴点初期テンプレート及び特徴点トラッキングテンプレートの作成を説明する概要図である。顔初期テンプレート生成部23は、図9(a)に示すように、S34の処理で検出した顔の存在範囲Rを切り出し顔初期テンプレートTIKとして記録する。同様に、顔初期テンプレートTIKと同一の顔トラッキングテンプレートTTKを作成し記録する。また、特徴点初期テンプレート生成部24は、図9(b)に示すように、S36の処理で検出した各特長点の位置を基準に、縦横一定の幅の領域を切り出し特徴点初期テンプレートTITとして記録する。切り出す領域の大きさは、対象とする特徴点に応じて変化させる。同様に、特徴点初期テンプレートTITと同一の特徴点トラッキングテンプレートTTTを作成し記録する。上述した顔初期テンプレートTIK及び特徴点初期テンプレートTITは、一度記録された後に更新されることがないものである。反対に、顔トラッキングテンプレートTTK及び特徴点トラッキングテンプレートTTTは、トラッキングが成功するたびに更新されるものである。各テンプレートを作成すると、フラグ更新処理へ移行する(S42)。 Next, details of template creation will be described with reference to FIG. FIG. 9A is a schematic diagram illustrating creation of a face initial template and a face tracking template, and FIG. 9B is a schematic diagram illustrating creation of a feature point initial template and a feature point tracking template. As shown in FIG. 9A, the face initial template generation unit 23 cuts out the face existence range R S detected in the process of S34 and records it as a face initial template T IK . Similarly, a face tracking template T TK identical to the face initial template T IK is created and recorded. Further, as shown in FIG. 9B, the feature point initial template generation unit 24 cuts out a region having a certain vertical and horizontal width on the basis of the position of each feature point detected in the process of S36, and the feature point initial template T IT. Record as. The size of the region to be cut out is changed according to the target feature point. Similarly, to create a feature point initial template T same feature point tracking template T TT and IT is recorded. The face initial template T IK and the feature point initial template T IT described above are not updated after being recorded once. In contrast, the face tracking template T TK and the feature point tracking template T TT are updated each time tracking is successful. When each template is created, the process proceeds to flag update processing (S42).

S42の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、トラッキングモードフラグを0から1に変更する。これにより、初期発見モードからトラッキングモードへ移行することができる。S42の処理が終了すると、図5に示す制御処理を終了する。   The process of S42 is a process executed by the ECU 2 to update the flag. The ECU 2 changes the tracking mode flag from 0 to 1 after resetting the initial discovery mode flag, tracking mode flag, and re-search mode flag to 0. Thereby, it is possible to shift from the initial discovery mode to the tracking mode. When the process of S42 ends, the control process shown in FIG. 5 ends.

図4のS22の処理に戻り、図4に示す制御処理を終了する。次に、S42の処理で設定したフラグ状態、すなわち、初期発見モードフラグ及び再探索モードフラグが0、トラッキングモードフラグが1の場合について説明する。この場合、図4のS20の処理においてトラッキングモードが選択され、トラッキングモード実行処理へ移行する(S24)。   Returning to the process of S22 of FIG. 4, the control process shown in FIG. Next, the flag state set in the processing of S42, that is, the case where the initial discovery mode flag and the re-search mode flag are 0 and the tracking mode flag is 1 will be described. In this case, the tracking mode is selected in the process of S20 of FIG. 4, and the process proceeds to the tracking mode execution process (S24).

S24の処理は、トラッキングモードを実行する処理である。S24の処理の詳細を、図6を用いて説明する。図6は、トラッキングモードの実行動作を示すフローチャートである。図6に示すように、最初にハンドル角の検出処理及び記録処理から開始する(S50)。   The process of S24 is a process for executing the tracking mode. Details of the processing of S24 will be described with reference to FIG. FIG. 6 is a flowchart showing the tracking mode execution operation. As shown in FIG. 6, first, the process starts from the handle angle detection process and the recording process (S50).

S50の処理は、ハンドル角検出センサ30が実行し、ハンドルのハンドル角θを検出して記録する処理である。S50の処理は、図5のS30の処理と同様である。S50の処理が終了すると、処理範囲限定処理へ移行する(S52)。   The process of S50 is a process executed by the handle angle detection sensor 30 to detect and record the handle angle θ of the handle. The process of S50 is the same as the process of S30 of FIG. When the process of S50 ends, the process proceeds to a process range limiting process (S52).

S52の処理は、探索範囲設定部22が実行し、処理範囲を限定する処理である。S52の処理は、図5のS32の処理と同様である。S52の処理が終了すると、顔位置トラッキング処理へ移行する(S54)。   The process of S52 is a process executed by the search range setting unit 22 to limit the processing range. The process of S52 is the same as the process of S32 of FIG. When the processing of S52 is completed, the process proceeds to face position tracking processing (S54).

S54の処理は、探索範囲設定部22及び顔追跡処理部25が実行し、顔の発見を行う処理である。最初に、探索範囲設定部22が探索範囲をさらに限定する処理を行う。例えば、探索範囲設定部22は、顔初期テンプレート生成部23が図5のS34の処理で発見した顔の位置を中心に探索範囲(探索領域)を設定する。この設定について図10、11を用いて説明する。図10、11は、顔の探索処理を説明するための概要図である。探索範囲設定部22は、例えば図10に示すように、画像センサ31から入力した画像Zにおいて、縦横一定幅の探索領域Uを設定する。また、既に一度トラッキングモードを実行済みであって後述するトラッキング処理が成功している場合には、それ以降のフレームに対しては前回フレームでの顔位置を中心に縦横一定幅の探索範囲を設定する。 The process of S54 is a process executed by the search range setting unit 22 and the face tracking processing unit 25 to detect a face. First, the search range setting unit 22 performs processing for further limiting the search range. For example, the search range setting unit 22 sets a search range (search region) around the face position found by the face initial template generation unit 23 in the process of S34 of FIG. This setting will be described with reference to FIGS. 10 and 11 are schematic diagrams for explaining the face search process. For example, as shown in FIG. 10, the search range setting unit 22 sets a search area U 1 having a constant vertical and horizontal width in an image Z 1 input from the image sensor 31. If the tracking mode has already been executed and the tracking process described later has been successful, a search range with a constant width and width is set for the subsequent frames centering on the face position in the previous frame. To do.

ここで、図11に示すように、画像センサ31から入力した画像Zにおいて縦横一定幅の探索領域を設定すると、遮蔽領域Rと探索領域とが重なる場合がある。この場合には、探索範囲設定部22は、縦横一定幅の探索領域に含まれる遮蔽領域Rを除いた探索領域Uを設定する。このように設定することで、処理負荷を軽減することができる。 Here, as shown in FIG. 11, when a search area having a certain vertical and horizontal width is set in an image Z 2 input from the image sensor 31, the shielding area RH may overlap with the search area. In this case, the search range setting unit 22 sets the search area U 2 excluding the shielded area R H contained in the search region of vertical and horizontal constant width. With this setting, the processing load can be reduced.

次に、顔追跡処理部25は、設定した探索領域内で顔を探索する。顔追跡処理部25は、例えば図10に示すように、縦横一定幅の探索領域U内を探索する場合には、画像Zから図5のS40の処理で生成した顔トラッキングテンプレートTTKと同一サイズの切出領域RK1を切り出して、顔トラッキングテンプレートTTKと切出領域RK1とをマッチングする。テンプレートマッチングの方式としては、図2のS20の処理と同様に、類似度に基づく方式、相違度に基づく方式、正規化相関に基づく方式等が用いられる。また、顔追跡処理部25は、切出領域RK1を画像Zに示された方向Hに沿って順次切り出してテンプレートマッチング処理をそれぞれ行う。一方、図11に示す探索領域U内を探索する場合も、同様である。ここで、図11において、切出領域RK2の切り出す位置によっては、切出領域RK2に遮蔽領域Rが含まれる。この場合には、遮蔽領域R以外の切出領域RK2の画素を用いて顔トラッキングテンプレートTTKとマッチング処理を行う。このようにマッチングの対象とする領域を限定することにより、精度の高いマッチング処理を行うことができる。さらに、切出領域RK2に含まれる遮蔽領域Rの割合が所定値以上となる場合には、マッチング処理に利用できる画素数が少ないため、マッチング処理を実行しないこととする。あるいは、遮蔽領域Rの画素数が所定値以上である場合には、マッチング処理を実行しないこととする。このように動作することで、精度の低いマッチング処理を実行することを回避することができる。探索領域の全てにおいてマッチング処理が終了すると、トラッキング判定処理へ移行する(S56)。 Next, the face tracking processing unit 25 searches for a face within the set search area. Face tracking processing unit 25, for example, as shown in FIG. 10, in the case of searching the search region U in 1 aspect constant width, the face tracking templates T TK generated in the process of S40 in FIG. 5 from the image Z 1 cut out cut-out region R K1 of the same size, to match the face tracking templates T TK and segment region R K1. As a template matching method, a method based on similarity, a method based on dissimilarity, a method based on normalized correlation, and the like are used as in the process of S20 of FIG. The face tracking processing unit 25 performs each template matching processing is sequentially cut along the cut region R K1 in the direction H 1 shown in the image Z 1. On the other hand, even when searching through the search area U 2 shown in FIG. 11, the same. Here, in FIG. 11, depending on the position where the cutout region RK2 is cut out, the cutout region RK2 includes the shielding region RH . In this case, the face tracking template TTK and the matching process are performed using the pixels of the cutout region RK2 other than the shielding region RH . In this way, by limiting the regions to be matched, highly accurate matching processing can be performed. Furthermore, when the ratio of the shielding region RH included in the cutout region RK2 is equal to or greater than a predetermined value, the number of pixels that can be used for the matching processing is small, and thus the matching processing is not executed. Alternatively, when the number of pixels in the shielding region RH is equal to or greater than a predetermined value, the matching process is not executed. By operating in this way, it is possible to avoid performing a low-precision matching process. When the matching process is completed in all the search areas, the process proceeds to the tracking determination process (S56).

S56の処理は、顔追跡処理部25が実行し、顔のトラッキングが成功したか否かを判定する処理である。顔追跡処理部25は、例えば、S54の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rと遮蔽領域Rとの重複領域の画素数が所定値以下であることを満たす場合には、顔のトラッキングが成功したと判定する。あるいは、S54の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rに含まれる遮蔽領域Rの切出領域Rに対する割合が一定値以下であることを満たす場合には、顔のトラッキングが成功したと判定してもよい。S56の処理において、顔のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S58)。 The process of S56 is a process executed by the face tracking processing unit 25 to determine whether or not the face tracking is successful. Face tracking processing unit 25 is, for example, the maximum correlation value of the template matching in the processing of S54 is larger than a predetermined value, and the cut region R K at position where the maximum correlation value is obtained and the shielding region R H When the number of pixels in the overlapping area satisfies the predetermined value or less, it is determined that the face tracking is successful. Alternatively, in the maximum correlation value of the template matching in the processing of S54 is larger than a predetermined value, and cutting-out region R K of the shielding region R H where the maximum correlation value is included in the cut region R K at position obtained If the ratio to the value satisfies a certain value or less, it may be determined that the face tracking is successful. In the process of S56, when it is determined that the face tracking is successful, the process proceeds to the template update process (S58).

S58の処理は、顔追跡処理部25が実行し、顔トラッキングテンプレートTTKを更新する処理である。顔追跡処理部25は、トラッキングに成功した顔の位置を中心に縦横一定の幅の領域を切り出して、顔トラッキングテンプレートTTKとする。次回のフレームにおいて顔位置をトラッキングする際には、更新された顔トラッキングテンプレートTTKが用いられる。これにより、顔の表情変化や光環境の変化等へのロバスト性を向上することができる。ここで、例えば図13(a)に示すように、顔トラッキングテンプレートTTKが遮蔽領域Rを含む場合には、次回のフレームにおいてS54の処理(顔位置をトラッキングする処理)を行う際に、顔トラッキングテンプレートTTKのうち当該遮蔽領域Rを除いた領域を用いてマッチング処理を行う。これにより、マッチングの精度を向上させることができる。S58の処理が終了すると、特徴点位置トラッキング処理へ移行する(S60)。 The process of S58 is a process executed by the face tracking processing unit 25 to update the face tracking template TTK . The face tracking processing unit 25 cuts out an area having a constant vertical and horizontal width around the position of the face that has been successfully tracked, and uses it as a face tracking template TTK . When tracking the face position in the next frame, the updated face tracking template TTK is used. As a result, robustness to changes in facial expressions, changes in light environment, and the like can be improved. Here, for example, as shown in FIG. 13A, when the face tracking template TTK includes the shielding region RH , when performing the processing of S54 (processing for tracking the face position) in the next frame, A matching process is performed using the area | region except the said shielding area | region RH among the face tracking template TTK . Thereby, the precision of matching can be improved. When the process of S58 ends, the process proceeds to the feature point position tracking process (S60).

S60の処理は、探索範囲設定部22及び特徴点追跡処理部26が実行し、特徴点の位置をトラッキングする処理である。特徴点追跡処理部26は、テンプレートマッチングにより各特徴点のトラッキングを行う。図12を用いて処理の詳細を説明する。図12は、特徴点のトラッキングを説明するための概要図である。まず、探索範囲設定部22は、前回のフレームの顔位置(存在範囲RS−1)と今回のフレームの顔位置(存在範囲R)との差分を算出する。そして、前回の各特徴点Pの探索中心を、矢印Yに示すように、算出した差分に応じてシフトさせる。次に、シフトさせた各特徴点の探索中心を基準に縦横一定幅の探索範囲を設定する。この探索範囲の大きさは、各特徴点に応じて変更する。そして、この探索範囲において、S54の処理と同様にテンプレートマッチング処理を行う。探索領域の全てにおいてマッチング処理が終了すると、トラッキング判定処理へ移行する(S62)。 The process of S60 is a process executed by the search range setting unit 22 and the feature point tracking processing unit 26 to track the position of the feature point. The feature point tracking processing unit 26 tracks each feature point by template matching. Details of the processing will be described with reference to FIG. FIG. 12 is a schematic diagram for explaining feature point tracking. First, the search range setting unit 22 calculates the difference between the face position of the previous frame (existence range R S-1) and the face position of the current frame (present range R S). Then, as shown by the arrow Y, the search center of each previous feature point Pn is shifted according to the calculated difference. Next, a search range having a constant vertical and horizontal width is set based on the shifted search center of each feature point. The size of the search range is changed according to each feature point. Then, in this search range, the template matching process is performed similarly to the process of S54. When the matching process is completed in all the search areas, the process proceeds to the tracking determination process (S62).

S62の処理は、特徴点追跡処理部26が実行し、特徴点のトラッキングが成功したか否かを判定する処理である。特徴点追跡処理部26は、例えば、S60の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rと遮蔽領域Rとの重複領域の画素数が所定値以下であることを満たす場合には、特徴点のトラッキングが成功したと判定する。あるいは、S60の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rに含まれる遮蔽領域Rの切出領域Rに対する割合が一定値以下であることを満たす場合には、特徴点のトラッキングが成功したと判定してもよい。S62の処理において、特徴点のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S64)。 The process of S62 is a process executed by the feature point tracking processing unit 26 to determine whether or not the feature point tracking is successful. Feature point tracking processing unit 26 is, for example, the maximum correlation value of the template matching in the processing of S60 is larger than a predetermined value, and shielding the cut region R K at position where the maximum correlation value is obtained region R H If it satisfies that the number of pixels in the overlapping region with the number is equal to or less than a predetermined value, it is determined that the feature point tracking is successful. Alternatively, in the maximum correlation value of the template matching in the processing of S60 is larger than a predetermined value, and cutting-out region R K of the shielding region R H where the maximum correlation value is included in the cut region R K at position obtained If the ratio to the value satisfies a certain value or less, it may be determined that the feature point tracking is successful. In the process of S62, when it is determined that the feature point tracking is successful, the process proceeds to the template update process (S64).

S64の処理は、特徴点追跡処理部26が実行し、特徴点トラッキングテンプレートTTTを更新する処理である。顔追跡処理部25は、トラッキングに成功した顔の位置を中心に縦横一定の幅の領域を切り出して、特徴点トラッキングテンプレートTTTとする。次回のフレームにおいて顔位置をトラッキングする際には、更新された特徴点トラッキングテンプレートTTTが用いられる。これにより、顔の表情変化や光環境の変化等へのロバスト性を向上することができる。また、S58の処理と同様に、図13(b)に示すように、特徴点トラッキングテンプレートTTTが遮蔽領域Rを含む場合には、次回のフレームにおいてS60の処理(顔位置をトラッキングする処理)を行う際に、特徴点トラッキングテンプレートTTTのうち当該遮蔽領域Rを除いた領域を用いてマッチング処理を行う。これにより、マッチングの精度を向上させることができる。S64の処理が終了すると、フラグ更新処理へ移行する(S66)。 The process of S64 is a process executed by the feature point tracking processing unit 26 to update the feature point tracking template TTT . The face tracking processing unit 25 cuts out a region having a certain width and width around the position of the face that has been successfully tracked, and uses it as a feature point tracking template TTT . When the face position is tracked in the next frame, the updated feature point tracking template TTT is used. As a result, robustness to changes in facial expressions, changes in light environment, and the like can be improved. Similarly to the process of S58, as shown in FIG. 13B, when the feature point tracking template TTT includes the occluded region RH , the process of S60 (the process of tracking the face position) is performed in the next frame. ), Matching processing is performed using a region excluding the shielding region RH from the feature point tracking template TTT . Thereby, the precision of matching can be improved. When the processing of S64 is completed, the routine proceeds to flag update processing (S66).

S66の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、トラッキングモードフラグを0から1に変更する。これにより、トラッキングモードを継続することができる。S66の処理が終了すると、図6に示す制御処理を終了する。   The process of S66 is a process executed by the ECU 2 to update the flag. The ECU 2 changes the tracking mode flag from 0 to 1 after resetting the initial discovery mode flag, tracking mode flag, and re-search mode flag to 0. Thereby, tracking mode can be continued. When the process of S66 ends, the control process shown in FIG. 6 ends.

一方、S56の処理で顔のトラッキングが成功しなかった場合、又は、S62の処理で特徴点のトラッキングが成功しなかった場合には、フラグ更新処理へ移行する(S68)。S68の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、再探索モードフラグを0から1に変更する。これにより、トラッキングモードから再探索モードへ変更することができる。S68の処理が終了すると、図6に示す制御処理を終了する。   On the other hand, if the face tracking is not successful in the process of S56, or if the feature point tracking is not successful in the process of S62, the process proceeds to a flag update process (S68). The process of S68 is a process executed by the ECU 2 to update the flag. The ECU 2 changes the re-search mode flag from 0 to 1 after resetting the initial discovery mode flag, tracking mode flag, and re-search mode flag to 0. As a result, the tracking mode can be changed to the re-search mode. When the process of S68 ends, the control process shown in FIG. 6 ends.

以上で図6に示す制御処理を終了する。図6に示す制御処理を終了すると、図4のS24の処理に戻り、図4に示す制御処理を終了する。次に、S68の処理で設定したフラグ状態、すなわち、初期発見モードフラグ及びトラッキングモードフラグが0、再探索モードフラグが1の場合について説明する。この場合、図4のS20の処理において再探索モードが選択され、再探索モード実行処理へ移行する(S26)。   Thus, the control process shown in FIG. 6 is finished. When the control process shown in FIG. 6 ends, the process returns to the process of S24 of FIG. 4 and the control process shown in FIG. 4 ends. Next, the flag state set in the process of S68, that is, the case where the initial discovery mode flag and tracking mode flag are 0, and the re-search mode flag is 1, will be described. In this case, the re-search mode is selected in the process of S20 of FIG. 4, and the process proceeds to the re-search mode execution process (S26).

S26の処理は、再探索モードを実行する処理である。S26の処理の詳細を、図7を用いて説明する。図7は、再探索モードの実行動作を示すフローチャートである。図7に示すように、最初にハンドル角の検出処理及び記録処理から開始する(S70)。   The process of S26 is a process for executing the re-search mode. Details of the processing of S26 will be described with reference to FIG. FIG. 7 is a flowchart showing the execution operation of the re-search mode. As shown in FIG. 7, first, the process starts from the handle angle detection process and the recording process (S70).

S70の処理は、ハンドル角検出センサ30が実行し、ハンドルのハンドル角θを検出して記録する処理である。S70の処理は、図5のS30の処理と同様である。S50の処理が終了すると、処理範囲限定処理へ移行する(S72)。   The process of S70 is a process executed by the handle angle detection sensor 30 to detect and record the handle angle θ of the handle. The process of S70 is the same as the process of S30 of FIG. When the process of S50 ends, the process proceeds to a process range limiting process (S72).

S72の処理は、探索範囲設定部22が実行し、処理範囲を限定する処理である。S72の処理は、図5のS32の処理と同様である。S72の処理が終了すると、顔位置トラッキング処理へ移行する(S74)。   The process of S72 is a process executed by the search range setting unit 22 to limit the process range. The process of S72 is the same as the process of S32 of FIG. When the processing of S72 is completed, the routine proceeds to face position tracking processing (S74).

S74の処理は、探索範囲設定部22及び顔追跡処理部25が実行し、顔の発見を行う処理である。S74の処理は、図6のS54の処理とほぼ同様である。S74の処理とS54の処理とを比較すると、S74の処理では探索処理を実行する場合に顔初期テンプレートTIKを用いる点が相違する。その他の点は図6のS54の処理と同様である。S74の処理が終了すると、トラッキング判定処理へ移行する(S76)。 The process of S74 is a process executed by the search range setting unit 22 and the face tracking processing unit 25 to detect a face. The process of S74 is substantially the same as the process of S54 of FIG. Comparing the process of S74 and the process of S54, the process of S74 is different in that the face initial template T IK is used when executing the search process. The other points are the same as the process of S54 of FIG. When the process of S74 ends, the process proceeds to a tracking determination process (S76).

S76の処理は、顔追跡処理部25が実行し、顔のトラッキングが成功したか否かを判定する処理である。S76の処理は、図6のS56の処理と同様である。S76の処理において、顔のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S78)。   The process of S76 is a process executed by the face tracking processing unit 25 to determine whether or not the face tracking is successful. The process of S76 is the same as the process of S56 of FIG. In the process of S76, when it is determined that the face tracking is successful, the process proceeds to the template update process (S78).

S78の処理は、顔追跡処理部25が実行し、顔トラッキングテンプレートTTKを更新する処理である。S78の処理は、図6のS58の処理と同様である。S78の処理が終了すると、特徴点位置トラッキング処理へ移行する(S80)。 The process of S78 is a process executed by the face tracking processing unit 25 to update the face tracking template TTK . The process of S78 is the same as the process of S58 of FIG. When the process of S78 ends, the process proceeds to the feature point position tracking process (S80).

S80の処理は、探索範囲設定部22及び特徴点追跡処理部26が実行し、特徴点の位置をトラッキングする処理である。S80の処理は、図6のS60の処理とほぼ同様である。S80の処理とS60の処理とを比較すると、S80の処理では、特徴点初期テンプレートTITを用いる点が相違する。その他の点は図6のS60の処理と同様である。S80の処理が終了すると、トラッキング判定処理へ移行する(S82)。 The process of S80 is a process executed by the search range setting unit 22 and the feature point tracking processing unit 26 to track the position of the feature point. The process of S80 is substantially the same as the process of S60 of FIG. When the process of S80 is compared with the process of S60, the process of S80 is different in that the feature point initial template TIT is used. The other points are the same as the process of S60 of FIG. When the processing of S80 ends, the process proceeds to tracking determination processing (S82).

S82の処理は、特徴点追跡処理部26が実行し、特徴点のトラッキングが成功したか否かを判定する処理である。S82の処理は、図6のS62の処理と同様である。S82の処理において、特徴点のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S84)。   The process of S82 is a process executed by the feature point tracking processing unit 26 to determine whether or not the feature point tracking is successful. The process of S82 is the same as the process of S62 of FIG. In the process of S82, when it is determined that the feature point tracking is successful, the process proceeds to the template update process (S84).

S84の処理は、特徴点追跡処理部26が実行し、特徴点トラッキングテンプレートTTTを更新する処理である。S84の処理は、図6のS64の処理と同様である。S84の処理が終了すると、フラグ更新処理へ移行する(S86)。 The process of S84 is a process executed by the feature point tracking processing unit 26 to update the feature point tracking template TTT . The process of S84 is the same as the process of S64 of FIG. When the processing of S84 is completed, the routine proceeds to flag update processing (S86).

S86の処理は、ECU2が実行し、フラグの更新を行う処理である。S86の処理は、図6のS66の処理と同様である。S86の処理が終了すると、図7に示す制御処理を終了する。   The process of S86 is a process executed by the ECU 2 to update the flag. The process of S86 is the same as the process of S66 of FIG. When the process of S86 ends, the control process shown in FIG. 7 ends.

一方、S76の処理で顔のトラッキングが成功しなかった場合、又は、S82の処理で特徴点のトラッキングが成功しなかった場合には、フラグ更新処理へ移行する(S88)。S88の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、再探索モードフラグを0から1に変更する。これにより、再探索モードを継続することができる。S88の処理が終了すると、図7に示す制御処理を終了する。   On the other hand, if the face tracking is not successful in the process of S76, or the feature point tracking is not successful in the process of S82, the process proceeds to the flag update process (S88). The process of S88 is a process executed by the ECU 2 to update the flag. The ECU 2 changes the re-search mode flag from 0 to 1 after resetting the initial discovery mode flag, tracking mode flag, and re-search mode flag to 0. Thereby, the re-search mode can be continued. When the process of S88 ends, the control process shown in FIG. 7 ends.

以上で図7に示す制御処理を終了する。図7に示す制御処理を終了すると、図4のS26の処理に戻り、図4に示す制御処理を終了する。   The control process shown in FIG. When the control process shown in FIG. 7 ends, the process returns to S26 in FIG. 4 and the control process shown in FIG. 4 ends.

以上で図4に示す制御処理を終了する。図4に示す制御処理を実行することで、初期テンプレートとトラッキングテンプレートを登録する初期発見モード、運転者の顔移動に追従して顔特徴点の位置をトラッキングするとともにトラッキングに成功した場合にはトラッキングテンプレートを更新するトラッキングモード、顔位置あるいは顔特徴点のトラッキングに失敗した場合に初期テンプレートを用いて再探索する再探索モードの3つのモードを、条件によって遷移させて実行することが可能となる。ここで、初期発見モードでは、ニューラルネットワーク等の統計手法が用いられるため、検出精度は高いが処理負荷が大きい。このため、例えば運転者の顔が大きく移動してトラッキングに失敗した場合には、登録した初期テンプレートを用いて再探索する再探索モードに遷移させ、再発見した場合にトラッキングモードに遷移させることにより、処理負荷の軽減を図ることができる。   Thus, the control process shown in FIG. 4 is completed. By executing the control process shown in FIG. 4, an initial discovery mode in which an initial template and a tracking template are registered, tracking the position of facial feature points following the driver's face movement, and tracking if tracking is successful The tracking mode for updating the template and the re-search mode for re-searching using the initial template when the tracking of the face position or the facial feature point fails can be executed by changing according to the conditions. Here, since a statistical method such as a neural network is used in the initial discovery mode, the detection accuracy is high but the processing load is large. For this reason, for example, when the driver's face has moved greatly and tracking has failed, transition to the re-search mode for re-searching using the registered initial template, and transition to the tracking mode when rediscovered The processing load can be reduced.

上述したように、本実施形態に係る運転者監視装置1によれば、運転者を撮像した画像において、運転者と画像センサ31との間に介在し可動するハンドルを追跡してハンドルが遮る遮蔽領域Rを検出し、撮像した画像のうち遮蔽領域Rを除く画像領域内を探索して運転者の顔や顔特徴点を追跡することができる。このため、遮蔽領域Rを含む領域内を探索することで顔や顔特徴点の追跡結果に誤差が生じることを回避することが可能となる。よって、撮像した画像に遮蔽領域Rが含まれる場合、すなわち画像センサ31を遮るハンドルが存在する状態であっても、画像を用いて精度良く運転者を監視することができる。また、精度良く運転者を監視することができるので、監視結果を用いるシステム、例えば顔向き角度の算出や警報システム等の精度も向上させることができる。 As described above, according to the driver monitoring apparatus 1 according to the present embodiment, in the image obtained by imaging the driver, the shielding that the movable handle intervenes between the driver and the image sensor 31 is tracked and blocked. The region RH is detected, and the driver's face and facial feature points can be tracked by searching the image region excluding the shielding region RH among the captured images. For this reason, it is possible to avoid the occurrence of an error in the tracking result of the face and the facial feature point by searching in the region including the shielding region RH . Therefore, even when the captured image includes the shielding region RH , that is, in a state where a handle that blocks the image sensor 31 exists, the driver can be monitored with high accuracy using the image. In addition, since the driver can be monitored with high accuracy, the accuracy of a system using the monitoring result, for example, calculation of a face orientation angle or an alarm system can be improved.

また、本実施形態に係る運転者監視装置1によれば、遮蔽領域Rとハンドル角θとの関係を予め取得し、監視中におけるハンドル角θに基づいて遮蔽領域Rを検出することで、遮蔽領域Rを的確に追跡して精度良く運転者を監視することができる。 Further, according to the driver monitoring apparatus 1 according to the present embodiment, the relationship between the shielding area RH and the steering wheel angle θ is acquired in advance, and the shielding area RH is detected based on the steering wheel angle θ during monitoring. The driver can be accurately monitored by accurately tracking the shielding region RH .

また、本実施形態に係る運転者監視装置1によれば、遮蔽領域Rを除いた画像領域内において、画像センサ31により撮像された画像の一部を切り出した切出領域RK1、RK2の画素情報と運転者の特徴点を反映させたトラッキングテンプレートとをマッチング処理して運転者の特徴点を追跡し、切出領域RK1、RK2に遮蔽領域Rが含まれる場合には、切出領域RK1、RK2のうち遮蔽領域Rを除いた画像領域をマッチング処理の対象とすることにより、精度の高いテンプレートマッチングを行うことが可能となる。 Further, according to the driver monitoring apparatus 1 according to the present embodiment, the cutout areas R K1 and R K2 obtained by cutting out a part of the image captured by the image sensor 31 in the image area excluding the shielding area RH. If the pixel information and the tracking template reflecting the driver's feature points are matched to track the driver's feature points, and the cutout regions R K1 and R K2 include the shielding region R H , It is possible to perform highly accurate template matching by setting an image region excluding the shielding region RH out of the cutout regions R K1 and R K2 .

また、本実施形態に係る運転者監視装置1によれば、マッチング処理が成功した切出領域RK1、RK2の画素情報を、次回の処理で用いるトラッキングテンプレートとすることで、遮蔽領域Rを含めて追跡用のテンプレートを更新することができるので、遮蔽物が存在した場合であっても運転者の特徴点を精度良く追跡することが可能となる。 In addition, according to the driver monitoring device 1 according to the present embodiment, the pixel information of the cutout regions R K1 and R K2 that have been successfully matched is used as the tracking template used in the next processing, so that the shielding region R H is obtained. Since the tracking template including can be updated, the feature point of the driver can be accurately tracked even when there is an obstacle.

さらに、本実施形態に係る運転者監視装置1によれば、トラッキングテンプレートに遮蔽領域Rが含まれる場合には、トラッキングテンプレートのうち遮蔽領域Rを除いた画素情報を用いてマッチング処理を行うことが好適である。このように構成することで、精度の高いテンプレートマッチングを行うことが可能となる。 Furthermore, according to the driver monitoring apparatus 1 according to the present embodiment, when the shielding template includes the shielding region RH , the matching processing is performed using pixel information excluding the shielding region RH in the tracking template. Is preferred. With this configuration, it is possible to perform highly accurate template matching.

なお、上述した実施形態は本発明に係る運転者監視装置の一例を示すものである。本発明に係る運転者監視装置は、実施形態に係る運転者監視装置1に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る運転者監視装置を変形し、又は他のものに適用したものであってもよい。   In addition, embodiment mentioned above shows an example of the driver | operator monitoring apparatus which concerns on this invention. The driver monitoring device according to the present invention is not limited to the driver monitoring device 1 according to the embodiment, and the driver monitoring device according to the embodiment is modified without changing the gist described in each claim. Or, it may be applied to other things.

例えば、上述した実施形態では、遮蔽物をハンドルとして説明したが、ハンドルに限られるものではない。例えば、遮蔽物として、ハンドルのコラム部分(ステアリングコラム)、当該コラム部分に備わる灯火操作レバー、ワイパー操作レバー、ウィンカ操作レバー、ギアシフトレバー等、差し込まれたイグニッションキー及び付属物等、さらにはハンドルや上記レバーを操作する手であってもよい。この場合、各種レバーの操作については操作方向に応じた手の動き、ハンドルの操作においてはハンドルの操舵速度や回転角に応じた手の動きに基づいて、遮蔽される領域を学習して探索範囲から除外することもできる。また、遮蔽物として、運転者が眼鏡をしている場合にその眼鏡を直す手や、運転者が飲む飲料水の缶等であってもよい。上述した遮蔽物を処理対象とする場合には、実施形態に示すハンドルの例と同様に、事前に遮蔽物のテンプレートのパターンを学習し、図5のS32、図6のS52、図7のS72の処理においてテンプレートを用いて遮蔽物の領域を検出し探索範囲から除外すればよい。この場合、テンプレートでなく色ヒストグラム等を用いても良い。一方、上記の遮蔽物を事前に学習をすることが困難な場合もある。例えば、飲料水の缶等にあっては、全てのパターンを学習できない場合もある。このような場合には、図5のS32、図6のS52、図7のS72の処理において、ニューラルネットワークの学習(適合)により生成される初期テンプレートと、トラッキングパターンの数フレーム分の平均とをマッチングさせて、類似度が所定値未満である場合、すなわち急激に変化したと判定できる場合には、それらの領域を演算処理や探索範囲から除外することで、精度の高い監視処理を実行することができる。   For example, in the above-described embodiment, the shielding object is described as a handle, but is not limited to the handle. For example, as a shield, a column portion (steering column) of a handle, a light operation lever, a wiper operation lever, a winker operation lever, a gear shift lever, etc. provided in the column portion, an inserted ignition key and accessories, etc. The hand which operates the said lever may be sufficient. In this case, the search range is determined by learning the shielded area based on the movement of the hand according to the operation direction for the operation of the various levers, and the movement of the hand according to the steering speed and the rotation angle of the handle for the operation of the handle. Can also be excluded. Further, as the shielding object, when the driver is wearing glasses, a hand for correcting the glasses or a can of drinking water that the driver drinks may be used. When the above-described shielding object is to be processed, similar to the handle example shown in the embodiment, the template pattern of the shielding object is learned in advance, and S32 in FIG. 5, S52 in FIG. 6, and S72 in FIG. In this process, the area of the shielding object may be detected using a template and excluded from the search range. In this case, a color histogram or the like may be used instead of the template. On the other hand, it may be difficult to learn the shielding object in advance. For example, in a can of drinking water or the like, not all patterns may be learned. In such a case, in the processing of S32 in FIG. 5, S52 in FIG. 6, and S72 in FIG. 7, the initial template generated by learning (adaptation) of the neural network and the average of several frames of the tracking pattern are obtained. When matching is performed and the similarity is less than a predetermined value, that is, when it can be determined that it has changed suddenly, high-precision monitoring processing is executed by excluding those regions from the arithmetic processing and the search range. Can do.

また、上述した実施形態では、ハンドルの動作を回転角で検出する例を説明したが、遮蔽物の動作は回転動作に限られるものではなく、前後方向に動く場合には前後方向の角度も取得して学習することで、本実施形態に示す運転者監視装置1と同様に精度の高い監視処理を実行することができる。   In the above-described embodiment, the example in which the operation of the handle is detected by the rotation angle has been described. However, the operation of the shielding object is not limited to the rotation operation, and the angle in the front-rear direction is also acquired when moving in the front-rear direction. Thus, the monitoring process with high accuracy can be executed in the same manner as the driver monitoring apparatus 1 shown in the present embodiment.

また、上述した実施形態では、図2の処理を車両出荷前に行う例を説明したが、運転中に学習するものであってもよい。   Moreover, although embodiment mentioned above demonstrated the example which performs the process of FIG. 2 before vehicle shipment, you may learn during a driving | operation.

また、上述した実施形態では、ハンドル角を検出し遮蔽領域Rを探索範囲から除外することで監視精度を向上させる例を説明したが、ハンドル角が所定角度以上の場合には、追跡を中断するように構成してもよい。このように構成することで、特徴点の誤差を含んだまま追跡して監視対象物を見失うことを回避できるので、顔の向きを利用した警報システム等の誤作動を防止することが可能となる。 In the above-described embodiment, the example in which the monitoring accuracy is improved by detecting the steering wheel angle and excluding the shielding region RH from the search range has been described. However, the tracking is interrupted when the steering wheel angle is equal to or larger than a predetermined angle. You may comprise. By configuring in this way, it is possible to avoid losing sight of the monitored object by tracking while including the error of the feature point, and thus it is possible to prevent malfunctions such as an alarm system using the face orientation. .

1…運転者監視装置、2…ECU、30…ハンドル角度検出センサ、31…画像センサ(撮像手段)、20…遮蔽領域検出部(遮蔽領域検出手段)、21…遮蔽領域記録部(遮蔽領域検出手段)、22…探索範囲設定部(遮蔽領域検出手段)、23…顔初期テンプレート生成部、24…特徴点初期テンプレート生成部、25…顔追跡処理部(監視手段)、26…特徴点追跡処理部(監視手段)。 DESCRIPTION OF SYMBOLS 1 ... Driver monitoring apparatus, 2 ... ECU, 30 ... Handle angle detection sensor, 31 ... Image sensor (imaging means), 20 ... Shielding area detection part (shielding area detection means), 21 ... Shielding area recording part (shielding area detection) Means), 22 ... search range setting section (shielding area detection means), 23 ... face initial template generation section, 24 ... feature point initial template generation section, 25 ... face tracking processing section (monitoring means), 26 ... feature point tracking processing Department (monitoring means).

Claims (7)

画像を用いて運転者を監視する運転者監視装置であって、
運転者の画像を撮像する撮像手段と、
前記運転者と前記撮像手段との間に介在する遮蔽物の動きに基づいて、前記撮像手段により撮像された画像のうち前記遮蔽物が撮像された遮蔽領域を検出する遮蔽領域検出手段と、
前記撮像手段により撮像された画像のうち前記遮蔽領域を除いた画像領域内を探索して運転者の特徴点を追跡する監視手段と、
を備える運転者監視装置。
A driver monitoring device for monitoring a driver using an image,
Imaging means for capturing an image of the driver;
A shielding area detecting means for detecting a shielding area where the shielding object is imaged out of images captured by the imaging means based on a movement of the shielding object interposed between the driver and the imaging means;
Monitoring means for searching a feature area of the driver by searching in an image area excluding the shielding area among images taken by the imaging means;
A driver monitoring device comprising:
前記遮蔽領域検出手段は、前記遮蔽物として、運転者に操作されるハンドル又はハンドルを操作する手を対象とする請求項1に記載の運転者監視装置。   The driver monitoring apparatus according to claim 1, wherein the shielding area detection unit targets a handle operated by a driver or a hand operating the handle as the shielding object. 前記遮蔽領域検出手段は、前記遮蔽領域と前記ハンドルの動作角度との関係を予め取得し、監視中における前記ハンドルの動作角度に基づいて前記遮蔽領域を検出する請求項2に記載の運転者監視装置。   3. The driver monitoring according to claim 2, wherein the shielding area detecting unit acquires a relationship between the shielding area and the operation angle of the handle in advance and detects the shielding area based on the operation angle of the handle during monitoring. apparatus. 前記監視手段は、前記撮像手段により撮像された画像の一部を切り出した切出領域の画素情報と前記運転者の特徴点を反映させた追跡用テンプレートとをマッチング処理して前記運転者の特徴点を追跡し、前記切出領域に前記遮蔽領域が含まれる場合には、前記切出領域のうち前記遮蔽領域を除いた画像領域を前記マッチング処理の対象とする請求項1〜3の何れか一項に記載の運転者監視装置。   The monitoring unit performs a matching process on pixel information of a cut-out region obtained by cutting out a part of an image captured by the imaging unit and a tracking template that reflects the driver's feature points, thereby performing the driver characteristics. The point is tracked, and when the occlusion area is included in the cutout area, an image area excluding the occlusion area in the cutout area is the target of the matching process. The driver monitoring device according to one item. 前記監視手段は、前記マッチング処理が成功した前記切出領域の画素情報を、次回の処理で用いる前記追跡用テンプレートとする請求項4に記載の運転者監視装置。   The driver monitoring apparatus according to claim 4, wherein the monitoring unit uses, as the tracking template used in the next process, pixel information of the cut-out area where the matching process is successful. 前記監視手段は、前記追跡用テンプレートに遮蔽領域が含まれる場合には、前記追跡用テンプレートのうち前記遮蔽領域を除いた画素情報を用いて前記マッチング処理を行う請求項4又は5に記載の運転者監視装置。   The operation according to claim 4 or 5, wherein when the tracking template includes a shielding area, the monitoring unit performs the matching process using pixel information excluding the shielding area in the tracking template. Monitoring device. 運転者を撮影した画像領域のうち前記運転者の撮影を遮る遮蔽物の動きに応じて前記画像領域の前記遮蔽物が無い領域から前記運転者の特徴点を探索することを特徴とする運転者監視装置。   The driver is searched for a feature point of the driver from an area of the image area where the obstacle is not present in accordance with a movement of an obstacle that blocks the photographing of the driver among the image area where the driver is photographed. Monitoring device.
JP2009074314A 2009-03-25 2009-03-25 Driver monitoring device Active JP5302730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009074314A JP5302730B2 (en) 2009-03-25 2009-03-25 Driver monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009074314A JP5302730B2 (en) 2009-03-25 2009-03-25 Driver monitoring device

Publications (2)

Publication Number Publication Date
JP2010225089A true JP2010225089A (en) 2010-10-07
JP5302730B2 JP5302730B2 (en) 2013-10-02

Family

ID=43042177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009074314A Active JP5302730B2 (en) 2009-03-25 2009-03-25 Driver monitoring device

Country Status (1)

Country Link
JP (1) JP5302730B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057839A (en) * 2014-09-09 2016-04-21 株式会社デンソーアイティーラボラトリ Facial direction detection device and warning system for vehicle
WO2018163493A1 (en) * 2017-03-09 2018-09-13 オムロン株式会社 Monitoring device, method, and program
KR20190029344A (en) * 2017-09-12 2019-03-20 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
JP2020047088A (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
CN112183173A (en) * 2019-07-05 2021-01-05 北京字节跳动网络技术有限公司 Image processing method, device and storage medium
WO2021256288A1 (en) * 2020-06-19 2021-12-23 京セラ株式会社 Face structure estimation device, face structure estimation method, and face structure estimation program
WO2024023889A1 (en) * 2022-07-25 2024-02-01 株式会社コーセー Simulation system and method of simulation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362469A (en) * 2003-06-06 2004-12-24 Softopia Japan Foundation Apparatus and method for detecting moving object using active sensor, and program for detecting animal body
JP2005278898A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Sight line detector
WO2007037350A1 (en) * 2005-09-29 2007-04-05 Plusmic Corporation Horse position information analyzing and displaying method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362469A (en) * 2003-06-06 2004-12-24 Softopia Japan Foundation Apparatus and method for detecting moving object using active sensor, and program for detecting animal body
JP2005278898A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Sight line detector
WO2007037350A1 (en) * 2005-09-29 2007-04-05 Plusmic Corporation Horse position information analyzing and displaying method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057839A (en) * 2014-09-09 2016-04-21 株式会社デンソーアイティーラボラトリ Facial direction detection device and warning system for vehicle
WO2018163493A1 (en) * 2017-03-09 2018-09-13 オムロン株式会社 Monitoring device, method, and program
JP2018151683A (en) * 2017-03-09 2018-09-27 オムロン株式会社 Monitoring device, method, and program
KR20190029344A (en) * 2017-09-12 2019-03-20 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
KR101994439B1 (en) 2017-09-12 2019-06-28 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
US10549779B2 (en) 2017-09-12 2020-02-04 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling vehicle
JP2020047088A (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
WO2020059845A1 (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
JP7187918B2 (en) 2018-09-20 2022-12-13 いすゞ自動車株式会社 Vehicle monitoring device
CN112183173A (en) * 2019-07-05 2021-01-05 北京字节跳动网络技术有限公司 Image processing method, device and storage medium
CN112183173B (en) * 2019-07-05 2024-04-09 北京字节跳动网络技术有限公司 Image processing method, device and storage medium
WO2021256288A1 (en) * 2020-06-19 2021-12-23 京セラ株式会社 Face structure estimation device, face structure estimation method, and face structure estimation program
JP7345435B2 (en) 2020-06-19 2023-09-15 京セラ株式会社 Facial structure estimation device, facial structure estimation method, and facial structure estimation program
WO2024023889A1 (en) * 2022-07-25 2024-02-01 株式会社コーセー Simulation system and method of simulation

Also Published As

Publication number Publication date
JP5302730B2 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
JP5302730B2 (en) Driver monitoring device
EP3420530B1 (en) A device and method for determining a pose of a camera
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
JP2005300315A (en) Object detection device
JP2003098424A (en) Range finder based on image processing
JP2011180982A (en) Lane marker detecting apparatus
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
JP4836086B2 (en) 3D shape detector
JP2020067698A (en) Partition line detector and partition line detection method
CN107895344B (en) Video splicing device and method
JP3988574B2 (en) Image processing device
JP5107154B2 (en) Motion estimation device
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
JP5270319B2 (en) Image monitoring device
JP2008003696A (en) Image processing apparatus and image processing method
JP4421121B2 (en) Intruder detection method
JP2007233487A (en) Pedestrian detection method, device, and program
JP2015230515A (en) Subject tracking device and camera
JP5035139B2 (en) Eye image processing device
JP2017211765A (en) Object recognition device
JP4239834B2 (en) Object detection device
JP2008146132A (en) Image detection device, program, and image detection method
JP2009252094A (en) Facial image detector
JP6674127B2 (en) Image processing device, photographing device, program, device control system and device
JP6048384B2 (en) Image determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130621

R151 Written notification of patent or utility model registration

Ref document number: 5302730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250