JP2010128961A - Image monitoring apparatus - Google Patents

Image monitoring apparatus Download PDF

Info

Publication number
JP2010128961A
JP2010128961A JP2008305086A JP2008305086A JP2010128961A JP 2010128961 A JP2010128961 A JP 2010128961A JP 2008305086 A JP2008305086 A JP 2008305086A JP 2008305086 A JP2008305086 A JP 2008305086A JP 2010128961 A JP2010128961 A JP 2010128961A
Authority
JP
Japan
Prior art keywords
face position
search
image
face
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008305086A
Other languages
Japanese (ja)
Other versions
JP5270319B2 (en
Inventor
Kashu Takemae
嘉修 竹前
Takehiko Tanaka
勇彦 田中
Shoichi Hayasaka
祥一 早坂
Satoru Nakanishi
悟 中西
Takashi Naito
貴志 内藤
Shinichi Kojima
真一 小島
Takuhiro Omi
拓寛 大見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2008305086A priority Critical patent/JP5270319B2/en
Publication of JP2010128961A publication Critical patent/JP2010128961A/en
Application granted granted Critical
Publication of JP5270319B2 publication Critical patent/JP5270319B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image monitoring apparatus capable of searching a face position from an image in a short period of time. <P>SOLUTION: An ECU 20 for searching a face position of a driver from a captured image that is imaged by an image sensor 10 includes a face position early stage finding part 21 for finding (searching) the face position of the driver from the whole captured image acquired by the image sensor 10 and preparing a template, a face position tracking part 22 for tracking the face position of the driver in the captured image by template matching and updating the template, a face search position setting part 23 for setting a search area for searching the face position in the captured image, and a face position history recording part 24 for recording a search history of the face position and preparing a two-dimensional frequency histogram H (x, y). When fails in tracking the face position, the ECU 20 searches the face position in order of coordinates (x, y), the number of searching times of which is large with reference to the two-dimensional frequency histogram H (x, y). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置により取得した撮像画像から対象者の顔位置を探索して、対象者の状態を監視する画像監視装置に関する。   The present invention relates to an image monitoring apparatus that searches a face position of a target person from a captured image acquired by an image pickup apparatus and monitors the state of the target person.

従来、車両に搭載された撮像装置で撮像した撮像画像から運転者の顔位置を探索し、運転者の状態を監視する画像監視装置が知られている。この画像監視装置は、撮像された撮像画像の任意領域とテンプレートとのマッチングを取ることで運転者の顔位置を特定するものであり、一旦、顔位置が探索されると、その後は探索された顔位置に基づいて設定される小範囲の探索範囲において顔位置を探索し、顔位置を追跡している。   2. Description of the Related Art Conventionally, an image monitoring device that searches a driver's face position from a captured image captured by an imaging device mounted on a vehicle and monitors the state of the driver is known. This image monitoring device identifies a driver's face position by matching an arbitrary region of a captured image with a template, and once the face position is searched, it is searched A face position is searched in a small search range set based on the face position, and the face position is tracked.

ところで、このような撮像画像を用いて顔位置を追跡すると、運転者の顔が手などの障害物で隠れるなどして、顔位置を見失う(ロストする)ことがある。そこで、特許文献1では、探索範囲において顔位置を探索できなかった場合は、顔の移動速度が高くなるほど探索範囲を大きくすることで、顔位置のロストを防止している。
特開2001−195582号公報
By the way, if the face position is tracked using such a captured image, the face of the driver may be hidden (lost) because the face of the driver is hidden by an obstacle such as a hand. Therefore, in Patent Document 1, when the face position cannot be searched in the search range, the search range is increased as the face moving speed increases, thereby preventing the face position from being lost.
JP 2001-195582 A

しかしながら、特許文献1に記載の技術では、顔の移動速度に応じて探索範囲を変更するものであるため、運転者の顔が動いていない場合には対応できないという問題があった。しかも、特許文献1に記載の技術では、顔の移動速度によっては探索範囲が大きくなりすぎる可能性もあるため、探索速度の低下を十分に抑制することができないという問題もあった。   However, since the technique described in Patent Document 1 changes the search range according to the moving speed of the face, there is a problem that it cannot be handled when the driver's face is not moving. In addition, the technique described in Patent Document 1 has a problem that the search range may not be sufficiently suppressed because the search range may be too large depending on the moving speed of the face.

そこで、本発明は、短時間で撮像画像から顔位置の探索を行うことができる画像監視装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image monitoring apparatus that can search a face position from a captured image in a short time.

本発明に係る画像監視装置は、撮像手段によって取得した撮像画像における所定の切り出し領域とテンプレートとを順次適合させることにより撮像画像における対象者の顔位置を探索し、対象者の状況を監視する画像監視装置であって、顔位置の探索履歴を記録し、顔位置の探索に失敗した場合は、探索履歴に基づいて顔位置を再探索することを特徴とする。   The image monitoring apparatus according to the present invention searches for the face position of the target person in the picked-up image by sequentially matching a predetermined cutout area and the template in the picked-up image acquired by the image pickup means, and monitors the state of the target person The monitoring device records a face position search history and re-searches the face position based on the search history when the face position search fails.

本発明に係る画像監視装置によれば、顔位置の探索に失敗した場合は、顔位置の探索履歴に基づいて顔位置を再探索することで、顔位置の存在する確率の高い領域を優先的に探索することができる。このため、顔位置の探索に失敗しても、撮像画像から短時間で顔位置の探索を行うことができる。   According to the image monitoring apparatus of the present invention, when the search for the face position fails, the face position is re-searched based on the face position search history, so that an area having a high probability of the face position is preferentially used. To explore. For this reason, even if the face position search fails, the face position can be searched from the captured image in a short time.

この場合、再探索は、探索履歴における探索数の多い順に、顔位置を探索することが好ましい。この画像監視装置によれば、探索数の多い順に顔位置を再探索することで、顔位置が存在する可能性の高い順に顔位置を探索することができるため、より短時間で撮像画像から顔位置の探索を行うことができる。   In this case, in the re-search, it is preferable to search for the face position in descending order of the number of searches in the search history. According to this image monitoring apparatus, by re-searching the face position in the descending order of the number of searches, it is possible to search for the face position in descending order of the possibility that the face position exists. A position search can be performed.

また、撮像装置は車両に搭載され、車両の方向指示情報又は方向変更動作情報に対応させて顔位置の探索履歴を記録し、再探索は、探索に失敗したときの方向指示又は方向変更動作に対応した探索履歴における探索数の多い順に、顔位置を探索することが好ましい。この画像監視装置によれば、運転者は、車両の方向変更動作を行う場合は顔を傾けるなどの同じような動作を行う傾向にあることに鑑み、過去に探索された運転者の顔位置と方向指示又は方向変更動作とを対応付けて学習しておくことで、方向指示情報又は方向変更動作情報により顔位置の探索範囲を絞り込むことができるため、より短時間で撮像画像から顔位置の探索を行うことができる。   Also, the imaging device is mounted on a vehicle, records a face position search history corresponding to the vehicle direction instruction information or direction change operation information, and the re-search is a direction instruction or direction change operation when the search fails. It is preferable to search for face positions in descending order of the number of searches in the corresponding search history. According to this image monitoring apparatus, in view of the fact that the driver tends to perform a similar operation such as tilting a face when performing a direction change operation of the vehicle, the driver's face position searched in the past and By learning in association with direction indication or direction change operation, the search range of the face position can be narrowed down by the direction indication information or direction change operation information, so the face position search from the captured image in a shorter time It can be performed.

また、再探索は、探索履歴として記録された顔位置を含む探索実績範囲内において、探索に失敗した直前に探索された顔位置から外方に向けて行うことが好ましい。この画像監視装置によれば、再探索する範囲を過去に探索された顔位置を含む探索実績範囲とし、探索に失敗した直前に探索された顔位置から外方に向けて再探索することで、探索範囲を顔位置が存在する可能性の高い範囲に絞り込み、しかも、より顔位置が存在する可能性の高い順に顔位置を探索するため、より短時間で撮像画像から顔位置の探索を行うことができる。   Further, the re-search is preferably performed outward from the face position searched immediately before the search failed within the search result range including the face position recorded as the search history. According to this image monitoring device, the range to be re-searched is the search result range including the face position searched in the past, and by re-searching outward from the face position searched immediately before the search failed, To search the face position from the captured image in a shorter time in order to narrow down the search range to the range where the face position is likely to exist and to search for the face position in the order that the face position is more likely to exist. Can do.

本発明によれば、短時間で撮像画像から顔位置の探索を行うことができる。   According to the present invention, it is possible to search for a face position from a captured image in a short time.

[第1実施形態]
以下、図面を参照して、本発明に係る画像監視装置の好適な実施形態について詳細に説明する。本発明に係る画像監視装置は、車両に搭載された画像センサから取得した撮像画像から運転者の顔位置を探索して、運転者の状態を監視するものであり、例えば、運転者の顔位置から運転者の瞼の開閉状況を検知することで、運転者の居眠り状況を監視するものである。なお、全図中、同一又は相当部分には同一符号を付すこととする。
[First Embodiment]
DESCRIPTION OF EMBODIMENTS Hereinafter, a preferred embodiment of an image monitoring apparatus according to the present invention will be described in detail with reference to the drawings. An image monitoring apparatus according to the present invention searches for a driver's face position from a captured image acquired from an image sensor mounted on a vehicle and monitors the state of the driver. For example, the driver's face position The driver's snoozing situation is monitored by detecting the opening / closing situation of the driver's bag. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

図1は、本実施形態に係る画像監視装置のブロック構成を示した図である。図に示すように、本実施形態の画像監視装置1は、車両に搭載されており、運転者の顔を撮像する画像センサ10と、運転者の顔位置を探索するECU(Electronic Control Unit)20とを備えている。   FIG. 1 is a diagram showing a block configuration of an image monitoring apparatus according to the present embodiment. As shown in the figure, an image monitoring apparatus 1 according to the present embodiment is mounted on a vehicle, and includes an image sensor 10 that captures an image of a driver's face, and an ECU (Electronic Control Unit) 20 that searches for the position of the driver's face. And.

画像センサ10は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の半導体素子を用いたカメラで構成されており、車両のステアリングコラムなどに内蔵されており、運転席に座った運転者の顔を撮像する撮像装置である。そして、画像センサ10は、撮像した撮像画像をECU20に送信する。なお、画像センサ10は、夜間でも運転者の顔を撮像するために、赤外線カメラで構成してもよい。   The image sensor 10 includes a camera using a semiconductor element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The image sensor 10 is built in a steering column of a vehicle and is operated while sitting in a driver's seat. It is an imaging device which images a person's face. Then, the image sensor 10 transmits the captured image to the ECU 20. The image sensor 10 may be configured with an infrared camera in order to capture the driver's face even at night.

ECU20は、画像センサ10と電気的に接続されており、画像センサ10から送信された撮像画像を取得すると、この撮像画像から運転者の顔位置を探索して、運転者の状態を監視する制御部である。このため、ECU20は、顔位置初期発見部21と、顔位置追跡部22と、顔探索位置設定部23と、顔位置履歴記録部24として機能する。なお、ECU20は、例えば、CPU、ROM、RAMを含むコンピュータを主体として構成されている。   The ECU 20 is electrically connected to the image sensor 10. When the captured image transmitted from the image sensor 10 is acquired, the ECU 20 searches for the driver's face position from the captured image and monitors the driver's state. Part. Therefore, the ECU 20 functions as a face position initial finding unit 21, a face position tracking unit 22, a face search position setting unit 23, and a face position history recording unit 24. Note that the ECU 20 is mainly configured by a computer including a CPU, a ROM, and a RAM, for example.

顔位置初期発見部21は、ニューラルネットワークなどの周知の手法により、画像センサ10により取得した撮像画像全体から運転者の顔位置を発見(探索)するものである。この顔位置は、発見した顔の中心位置を撮像画像全体における座標値(x,y)で示したものである。また、顔位置初期発見部21は、撮像画像から運転者の顔位置を発見すると、この発見した顔位置に基づいて、運転者の顔のテンプレートを作成する。このテンプレートは、撮像画像から顔位置(x,y)を中心とした縦横一定の幅の矩形領域を切り出すことで作成される。なお、このテンプレートは、後述するテンプレートマッチングの処理速度及び適合性を向上させるために、運転者の顔と略同じ大きさの、又は運転者の顔より少し小さい矩形領域とするのが望ましい。   The face position initial finding unit 21 finds (searches) the driver's face position from the entire captured image acquired by the image sensor 10 using a known technique such as a neural network. This face position indicates the center position of the found face with coordinate values (x, y) in the entire captured image. When the face position initial finding unit 21 finds the driver's face position from the captured image, the face position initial finding unit 21 creates a driver face template based on the found face position. This template is created by cutting out a rectangular area having a constant vertical and horizontal width around the face position (x, y) from the captured image. In order to improve the processing speed and adaptability of template matching, which will be described later, it is desirable that the template be a rectangular area that is approximately the same size as the driver's face or slightly smaller than the driver's face.

顔位置追跡部22は、顔位置初期発見部21により顔位置が発見された後、テンプレートマッチングなどの周知の手法により、撮像画像における運転者の顔位置をトラッキング(追跡)するものである。このテンプレートマッチングは、撮像画像からテンプレートと同形の切り出し領域を順次切り出してテンプレートと対比し、このテンプレートにマッチング(適合)する切り出し領域を探索する手法である。なお、テンプレートマッチングの方式は、SAD(Sum of Absolute Difference)、SSD(Sum of Square Difference)、正規化相関などの何れであってもよい。そして、顔位置追跡部22は、撮像画像における所定の探索領域においてテンプレートマッチングにより運転者の顔位置を探索し、運転者の顔位置をトラッキングする。また、顔位置追跡部22は、運転者の顔位置を探索すると、この探索した顔位置の切り出し領域で、運転者の顔のテンプレートを更新する。   The face position tracking unit 22 tracks (tracks) the driver's face position in the captured image using a known method such as template matching after the face position is found by the face position initial finding unit 21. This template matching is a technique for sequentially searching out a cutout area having the same shape as a template from a captured image, comparing the cutout area with the template, and searching for a cutout area matching (matching) the template. The template matching method may be any of SAD (Sum of Absolute Difference), SSD (Sum of Square Difference), and normalized correlation. Then, the face position tracking unit 22 searches the driver's face position by template matching in a predetermined search region in the captured image, and tracks the driver's face position. Further, when the face position tracking unit 22 searches for the driver's face position, the face position tracking unit 22 updates the driver's face template in the searched face position extraction region.

顔探索位置設定部23は、撮像画像における顔位置を探索するための探索領域を設定するものである。すなわち、顔探索位置設定部23は、前回探索された顔位置を中心とした所定の矩形領域を探索領域として設定する。なお、この探索範囲は、テンプレートの矩形領域よりも大きな範囲であって、探索速度が低下しない程度の大きさの範囲となる。これにより、顔位置追跡部22は、顔探索位置設定部23により設定された探索領域において、顔位置を探索する。   The face search position setting unit 23 sets a search area for searching for a face position in a captured image. That is, the face search position setting unit 23 sets a predetermined rectangular area centered on the previously searched face position as a search area. This search range is a range larger than the rectangular region of the template, and is a size that does not decrease the search speed. As a result, the face position tracking unit 22 searches for the face position in the search region set by the face search position setting unit 23.

顔位置履歴記録部24は、顔位置初期発見部21及び顔位置追跡部22における顔位置の探索履歴を記録するものである。すなわち、顔位置履歴記録部24は、顔位置初期発見部21及び顔位置追跡部22において顔位置を探索すると、この探索した顔位置の座標値(x,y)を探索履歴として記録する。そして、顔位置履歴記録部24は、この探索履歴から、2次元頻度ヒストグラムH(x,y)を作成する。   The face position history recording unit 24 records a face position search history in the face position initial finding unit 21 and the face position tracking unit 22. That is, when the face position history recording unit 24 searches for a face position in the face position initial finding unit 21 and the face position tracking unit 22, the face position coordinate value (x, y) is recorded as a search history. Then, the face position history recording unit 24 creates a two-dimensional frequency histogram H (x, y) from this search history.

図2は、2次元頻度ヒストグラムの一例を示した図である。図2に示すように、2次元頻度ヒストグラムH(x,y)は、撮像画像をxy座標軸で表したものであり、顔位置が探索された数だけ、対応する座標(x,y)の値を加算(+1カウントアップ)するものである。このため、2次元頻度ヒストグラムH(x,y)を参照することで、顔位置が探索された頻度の多い位置を容易に探索することができる。   FIG. 2 is a diagram showing an example of a two-dimensional frequency histogram. As shown in FIG. 2, the two-dimensional frequency histogram H (x, y) represents the captured image on the xy coordinate axes, and the value of the corresponding coordinate (x, y) is as many as the number of face positions searched. Are added (+1 count up). Therefore, by referring to the two-dimensional frequency histogram H (x, y), it is possible to easily search for a frequently searched position where the face position is searched.

また、顔位置履歴記録部24は、2次元頻度ヒストグラムH(x,y)に用いるデータをFIFO(First In First Out)処理して、探索されてから所定時間(例えば、5〜10分)経過したデータは2次元頻度ヒストグラムH(x,y)から削除(−1カウントダウン)する。   Further, the face position history recording unit 24 performs a first in first out (FIFO) process on the data used for the two-dimensional frequency histogram H (x, y), and a predetermined time (for example, 5 to 10 minutes) has elapsed since the search. The deleted data is deleted (-1 countdown) from the two-dimensional frequency histogram H (x, y).

更に、顔位置履歴記録部24は、作成した2次元頻度ヒストグラムH(x,y)の平滑化処理を行い、2次元頻度ヒストグラムH’(x,y)を作成する。   Further, the face position history recording unit 24 smoothes the created two-dimensional frequency histogram H (x, y) to create a two-dimensional frequency histogram H ′ (x, y).

次に、図3を参照しながら、第1の実施形態に係る画像監視装置1の処理動作について説明する。図3は、第1の実施形態に係る画像監視装置の処理動作を示すフローチャートである。なお、以下に説明する処理は、画像監視装置1のECU20の処理によって行われるものであり、画像センサ10からECU20に撮像画像が送信されるたびに、下記の処理が繰り返し行われる。   Next, the processing operation of the image monitoring apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the image monitoring apparatus according to the first embodiment. Note that the processing described below is performed by the processing of the ECU 20 of the image monitoring apparatus 1, and the following processing is repeatedly performed each time a captured image is transmitted from the image sensor 10 to the ECU 20.

まず、運転者により車両のイグニションがONにされると、画像センサ10は、30f/S(1秒間に30フレーム)又は60f/Sの間隔で撮像を開始する。そして、ECU20は、この画像センサ10において撮像した運転者の顔の撮像画像を取得したことを契機として(ステップS1)、以下の処理を開始する。   First, when the ignition of the vehicle is turned on by the driver, the image sensor 10 starts imaging at an interval of 30 f / S (30 frames per second) or 60 f / S. Then, the ECU 20 starts the following process when the captured image of the driver's face captured by the image sensor 10 is acquired (step S1).

ECU20は、撮像画像を取得すると、ステップS1における撮像画像の取得が初回であるか否かを判定する(ステップS2)。すなわち、車両のイグニションをONにした直後などであって画像監視装置1の処理が始めての場合は、撮像画像の取得が初回であると判定し、撮像画像の取得が2回目以降であって前回の処理で既に顔位置を探索(又は発見)している場合は、撮像画像の取得が初回ではないと判定する。   When acquiring the captured image, the ECU 20 determines whether or not the captured image is acquired for the first time in step S1 (step S2). That is, immediately after the ignition of the vehicle is turned on and the processing of the image monitoring apparatus 1 is started, it is determined that the captured image is acquired for the first time, and the captured image is acquired for the second time or later. If the face position has already been searched (or found) in the process of (2), it is determined that the captured image is not acquired for the first time.

撮像画像の取得が初回であると判定した場合(ステップS2:YES)、ECU20は、取得した撮像画像から、運転者の顔位置の初期発見(探索)を行う(ステップS3)。顔位置の初期発見は、ステップS1において取得した撮像画像全体を探索範囲として、ニューラルネットワークなどの周知の手法を用いて運転者の顔を探索し、撮像画像における顔の中心座標を顔位置(x,y)として特定する。   When it is determined that the captured image is acquired for the first time (step S2: YES), the ECU 20 performs initial discovery (search) of the driver's face position from the acquired captured image (step S3). In the initial discovery of the face position, the driver's face is searched using a known method such as a neural network using the entire captured image acquired in step S1 as a search range, and the center coordinates of the face in the captured image are represented by the face position (x , Y).

次に、ECU20は、運転者の顔位置をトラッキングするためのテンプレートを作成する(ステップS4)。テンプレートの作成は、まず、ステップS1において取得した撮像画像(濃淡画像)に対して3×3の横ソーベルフィルタでフィルタ処理を行い、横ソーベルフィルタ画像を生成する。図4は、撮像画像を示した図であり、図5は、横ソーベルフィルタの一例を示す図であり、図6は、横ソーベルフィルタ画像を示した図である。図5に示すように、横ソーベルフィルタは、注目画素を中心とした9の画素に重み付けを行い合計することで、エッジが強調された画像を生成するものである。そして、図4に示す濃淡画像の撮像画像に対して、図5に示す3×3の横ソーベルフィルタでフィルタ処理を行うと、図6に示すエッジが強調された横ソーベルフィルタ画像が生成される。なお、横ソーベルフィルタによるフィルタ処理を行うことで、光環境の変化などに対する頑健性が向上する。   Next, the ECU 20 creates a template for tracking the driver's face position (step S4). The template is created by first filtering the captured image (grayscale image) acquired in step S1 with a 3 × 3 horizontal Sobel filter to generate a horizontal Sobel filter image. 4 is a diagram illustrating a captured image, FIG. 5 is a diagram illustrating an example of a horizontal Sobel filter, and FIG. 6 is a diagram illustrating a horizontal Sobel filter image. As shown in FIG. 5, the horizontal Sobel filter generates an image with emphasized edges by weighting and summing nine pixels centered on the target pixel. Then, when the captured image of the grayscale image shown in FIG. 4 is filtered by the 3 × 3 horizontal Sobel filter shown in FIG. 5, a horizontal Sobel filter image with the edge shown in FIG. 6 emphasized is generated. Is done. In addition, the robustness with respect to the change of an optical environment etc. improves by performing the filter process by a horizontal Sobel filter.

横ソーベルフィルタ画像を生成すると、次に、この横ソーベルフィルタ画像に対して3×3の平滑化フィルタで平滑化処理を行い、横ソーベルフィルタ平滑化画像を生成する。図7は、平滑化フィルタの一例を示した図であり、図8は、横ソーベルフィルタ平滑化画像を示した図である。図7に示すように、平滑化フィルタは、注目画素を中心とした9の画素に同一の重み付けを行い合計することで、ノイズなどを平滑化した画像を生成するものである。そして、図6に示す横ソーベルフィルタ画像に対して、図7に示す3×3の平滑化フィルタで平滑化処理を行うと、図8に示すノイズが平滑化された横ソーベルフィルタ平滑化画像が生成される。   Once the horizontal Sobel filter image is generated, the horizontal Sobel filter image is then smoothed with a 3 × 3 smoothing filter to generate a horizontal Sobel filter smoothed image. FIG. 7 is a diagram illustrating an example of a smoothing filter, and FIG. 8 is a diagram illustrating a horizontal Sobel filter smoothed image. As shown in FIG. 7, the smoothing filter generates an image in which noise and the like are smoothed by performing the same weighting and summing on nine pixels centered on the target pixel. When the horizontal Sobel filter image shown in FIG. 6 is smoothed by the 3 × 3 smoothing filter shown in FIG. 7, the horizontal Sobel filter smoothed by the noise shown in FIG. 8 is smoothed. An image is generated.

横ソーベルフィルタ平滑化画像を生成すると、次に、テンプレートの切り出し処理を行う。図9は、横ソーベルフィルタ平滑化画像からテンプレートを切り出す処理を説明するための図である。図9に示すように、テンプレートの切り出し処理は、横ソーベルフィルタ平滑化画像から、顔位置の座標(x,y)を中心とした縦横一定の幅の矩形領域Aを切り出す。そして、この切り出した矩形領域AをテンプレートTとする。   Once the horizontal Sobel filter smoothed image is generated, a template cut-out process is performed. FIG. 9 is a diagram for explaining processing for cutting out a template from a horizontal Sobel filter smoothed image. As shown in FIG. 9, in the template cut-out process, a rectangular area A having a constant vertical and horizontal width centered on the coordinates (x, y) of the face position is cut out from the horizontal Sobel filter smoothed image. The cut-out rectangular area A is set as a template T.

そして、ステップS4が終了すると、又は、上述したステップS2において撮像画像の取得が初回でないと判定した場合(ステップS2:NO)、ECU20は、テンプレートマッチングによる顔位置のトラッキングを行う(ステップS5)。図10は、顔位置のトラッキングを説明するための図である。図10に示すように、顔位置のトラッキングは、まず、前回に探索された顔位置を中心とした所定範囲の矩形領域を探索領域Bとして設定する。次に、この探索領域B内において、前回に探索された顔位置を中心とした縦横一定幅の矩形領域を切り出し領域Cとして順次切り出す。そして、ステップS4で作成されたテンプレートT又は後述するステップS9で更新されたテンプレートTを用いて、順次切り出し領域Cのテンプレートマッチングを行う。そして、テンプレートマッチングの値が所定の閾値以内にある切り出し領域Cが検出されると、この切り出し領域Cを、運転者の顔位置とする。   When step S4 ends or when it is determined in step S2 described above that the captured image acquisition is not the first time (step S2: NO), the ECU 20 performs tracking of the face position by template matching (step S5). FIG. 10 is a diagram for explaining the tracking of the face position. As shown in FIG. 10, in tracking of the face position, first, a rectangular area within a predetermined range centering on the face position searched last time is set as a search area B. Next, in this search area B, a rectangular area having a constant vertical and horizontal width centered on the face position searched last time is sequentially cut out as a cut-out area C. Then, template matching of the cutout region C is sequentially performed using the template T created in step S4 or the template T updated in step S9 described later. When a cutout area C having a template matching value within a predetermined threshold is detected, this cutout area C is set as the driver's face position.

次に、ECU20は、トラッキングが成功したか否かを判定する(ステップS6)。ステップS6において、トラッキングが成功したか否かは、ステップS5におけるテンプレートマッチングの値が所定の閾値以内にある切り出し領域が検出されたか否かによって判定する。   Next, the ECU 20 determines whether or not the tracking is successful (step S6). In step S6, whether or not the tracking is successful is determined by whether or not a cutout region in which the template matching value in step S5 is within a predetermined threshold is detected.

トラッキングが成功したと判定した場合(ステップS6:YES)、ECU20は、ステップS5において切り出した切り出し領域の中心座標(x,y)、すなわち、運転者の顔位置の座標(x,y)を記録する(ステップS7)。   When it is determined that the tracking is successful (step S6: YES), the ECU 20 records the center coordinates (x, y) of the clipped area cut out in step S5, that is, the coordinates (x, y) of the driver's face position. (Step S7).

そして、ECU20は、ステップS7において記録した顔位置の座標(x,y)に基づいて、2次元頻度ヒストグラムH(x,y)のカウントアップ処理を行うとともに、FIFO処理を行う(ステップS8)。すなわち、ステップS8では、ステップS7において記録した顔位置の座標(x,y)に対応する2次元頻度ヒストグラムH(x,y)の値を+1カウントアップし、一方で、ステップS7において記録してから所定時間経過した顔位置の座標(x、y)に対応する2次元頻度ヒストグラムH(x,y)の値を−1カウントダウンする。このように、2次元頻度ヒストグラムH(x,y)のデータをFIFO処理し、最新のデータによって顔位置の探索を行うことで、より高精度なトラッキングを行うことができる。   Then, the ECU 20 performs the count-up process of the two-dimensional frequency histogram H (x, y) and the FIFO process based on the face position coordinates (x, y) recorded in step S7 (step S8). That is, in step S8, the value of the two-dimensional frequency histogram H (x, y) corresponding to the coordinate (x, y) of the face position recorded in step S7 is incremented by 1, while the value is recorded in step S7. The value of the two-dimensional frequency histogram H (x, y) corresponding to the coordinate (x, y) of the face position after a predetermined time has elapsed is counted down by −1. As described above, by performing FIFO processing on the data of the two-dimensional frequency histogram H (x, y) and searching for the face position with the latest data, tracking with higher accuracy can be performed.

次に、ECU20は、テンプレートを更新する(ステップS9)。ステップS9において更新されるテンプレートは、ステップS4において作成したテンプレート又は前回のステップS9で更新したテンプレートである。そして、テンプレートの更新は、ステップS1で取得した撮像画像から、ステップS7において記録した顔位置の座標(x,y)を中心とした縦横一定の幅の矩形領域を切り出して、この切り出した画像でテンプレートを更新する。このようにテンプレートを更新することで、運転者の表情変化や光環境の変化などへのロバスト性を高めることができる。   Next, the ECU 20 updates the template (step S9). The template updated in step S9 is the template created in step S4 or the template updated in the previous step S9. The template is updated by cutting out a rectangular area having a constant width and width centered on the coordinates (x, y) of the face position recorded in step S7 from the captured image acquired in step S1. Update the template. By updating the template in this way, it is possible to improve the robustness to changes in the driver's facial expression and changes in the light environment.

一方、上述したステップS6においてトラッキングが失敗したと判定した場合(ステップS6:NO)、ECU20は、顔位置の探索を行う前段階として、2次元頻度ヒストグラムH(x,y)の平滑化処理を行う(ステップS10)。平滑化処理を行うための平滑化フィルタは、図7に示した3×3の平滑化フィルタを用いる。そして、この3×3の平滑化フィルタを用いて、2次元頻度ヒストグラムH(x,y)に平滑化処理を行い、2次元頻度ヒストグラムH’(x,y)を作成する。このように、顔位置の探索を行う前に2次元頻度ヒストグラムH(x,y)の平滑化処理を行うことで、トラッキングされた顔位置(x,y)の誤差やノイズの影響を低減させることができる。   On the other hand, when it is determined that the tracking has failed in step S6 described above (step S6: NO), the ECU 20 performs a smoothing process on the two-dimensional frequency histogram H (x, y) as a stage before performing the face position search. It performs (step S10). As the smoothing filter for performing the smoothing process, the 3 × 3 smoothing filter shown in FIG. 7 is used. Then, using the 3 × 3 smoothing filter, smoothing processing is performed on the two-dimensional frequency histogram H (x, y) to create a two-dimensional frequency histogram H ′ (x, y). As described above, the smoothing process of the two-dimensional frequency histogram H (x, y) is performed before the search for the face position, thereby reducing the error of the tracked face position (x, y) and the influence of noise. be able to.

次に、ECU20は、ステップS10において平滑化処理した2次元頻度ヒストグラムH’(x,y)を参照して、2次元頻度ヒストグラムH’(x,y)におけるカウント数の多い座標(x,y)から順に、運転者の顔位置を探索する(ステップS11)。ステップS11では、まず、2次元頻度ヒストグラムH’(x,y)の各座標を、カウント値の高い順にソートする(並べ替える)。そして、カウント値の高い座標から順にテンプレートマッチングを行う。このとき、ステップS5と同様に、前回探索された顔位置の座標(x,y)を中心とした所定の探索領域においてテンプレートマッチングを行うが、この探索領域において顔位置が探索されない場合は、テンプレートマッチングを行う範囲を広げていく。なお、テンプレートマッチングで用いるテンプレートは、ステップS4で作成されたテンプレート又はステップS9において更新されたテンプレートとなる。   Next, the ECU 20 refers to the two-dimensional frequency histogram H ′ (x, y) smoothed in step S10, and coordinates (x, y) having a large number of counts in the two-dimensional frequency histogram H ′ (x, y). ) In order, the driver's face position is searched (step S11). In step S11, first, the coordinates of the two-dimensional frequency histogram H '(x, y) are sorted (rearranged) in descending order of the count value. Then, template matching is performed in order from the coordinate with the highest count value. At this time, as in step S5, template matching is performed in a predetermined search area centered on the coordinates (x, y) of the previously searched face position. If the face position is not searched in this search area, the template is searched. Expand the range of matching. Note that the template used in template matching is the template created in step S4 or the template updated in step S9.

そして、上述したステップS9又はステップS11が終わると、一旦処理を終了して、再度ステップS1から処理を繰り返す。   And after step S9 or step S11 mentioned above is complete | finished, a process is once complete | finished and a process is repeated from step S1 again.

このように、第1の実施形態に係る画像監視装置1によれば、顔位置のトラッキングに失敗した場合は、2次元頻度ヒストグラムH(x,y)を参照して、過去の探索数の多い座標から順に顔位置を探索することで、顔位置が存在する可能性の高い順に顔位置を探索することができるため、より短時間で撮像画像から顔位置の探索を行うことができる。   Thus, according to the image monitoring apparatus 1 according to the first embodiment, when face position tracking fails, the number of past searches is large with reference to the two-dimensional frequency histogram H (x, y). By searching for the face position in order from the coordinates, it is possible to search for the face position in descending order of the possibility that the face position exists, so that the face position can be searched from the captured image in a shorter time.

[第2実施形態]
次に、第2の実施形態について説明する。第2の実施形態に係る画像監視装置は、第1の実施形態に係る画像監視装置にステアリング角度検出センサとウィンカー状態検出センサを加えたものであり、その他の構成は同一である。このため、以下では、第1の実施形態に係る画像監視装置と異なる部分のみ説明する。
[Second Embodiment]
Next, a second embodiment will be described. The image monitoring apparatus according to the second embodiment is obtained by adding a steering angle detection sensor and a winker state detection sensor to the image monitoring apparatus according to the first embodiment, and other configurations are the same. For this reason, below, only a different part from the image monitoring apparatus which concerns on 1st Embodiment is demonstrated.

図11は、第2の実施形態に係る画像監視装置のブロック構成を示した図である。図に示すように、第2の実施形態に係る画像監視装置101は、画像センサ10及びECU20に加え、更に、ステアリング角度検出センサ30と、ウィンカー状態検出センサ40とを備えている。   FIG. 11 is a diagram illustrating a block configuration of an image monitoring apparatus according to the second embodiment. As shown in the figure, the image monitoring apparatus 101 according to the second embodiment further includes a steering angle detection sensor 30 and a blinker state detection sensor 40 in addition to the image sensor 10 and the ECU 20.

ステアリング角度検出センサ30は、運転者の方向変更動作情報として、運転者が操作するステアリングのステアリング角度θを検出するセンサである。ステアリング角度検出センサ30は、例えば、ステアリング角度θを1°単位で検出してもよく、所定角度幅単位で検出してもよい。そして、ステアリング角度検出センサ30は、検出したステアリング角度θをECU20に送信する。   The steering angle detection sensor 30 is a sensor that detects the steering angle θ of the steering operated by the driver as the driver's direction change operation information. For example, the steering angle detection sensor 30 may detect the steering angle θ in units of 1 ° or may be detected in units of a predetermined angle width. Then, the steering angle detection sensor 30 transmits the detected steering angle θ to the ECU 20.

ウィンカー状態検出センサ40は、運転者の方向指示動作情報として、運転者が操作するウィンカーの状態を示すウィンカー状態φを検出するセンサである。このウィンカー状態φは、ウィンカーが右又は左に操作されたこと示す情報である。そして、ウィンカー状態検出センサ40は、検出したウィンカー状態φをECU20に送信する。   The winker state detection sensor 40 is a sensor that detects a winker state φ indicating the state of the winker operated by the driver as the direction instruction operation information of the driver. The winker state φ is information indicating that the winker has been operated to the right or left. Then, the blinker state detection sensor 40 transmits the detected blinker state φ to the ECU 20.

ECU20の顔位置履歴記録部24は、撮像画像から探索した顔位置を、この撮像画像が撮像された時点のステアリング角度θ及びウィンカー状態φに対応付けて、2次元頻度ヒストグラムH(x,y)を作成する。具体的には、ステアリング角度θとウィンカー状態φとの組合せごとに2次元頻度ヒストグラムH(x,y)を作成しておき、撮像画像から顔位置が探索されると、この撮像画像が撮像された時点のステアリング角度θ及びウィンカー状態φの組み合わせに対応する2次元頻度ヒストグラムH(x,y)に対して、顔位置の座標(x,y)の値を+1カウントアップする。なお、2次元頻度ヒストグラムH(x,y)は、ステアリング角度θが1°変わるごとに設けてもよく、ステアリング角度θが30°、60°、90°等の所定範囲変わるごとに設けてもよく、ステアリング角度θが+(プラス)側と−(マイナス)側とで分けて設けてもよい。   The face position history recording unit 24 of the ECU 20 associates the face position searched from the captured image with the steering angle θ and the winker state φ at the time when the captured image is captured, and the two-dimensional frequency histogram H (x, y). Create Specifically, a two-dimensional frequency histogram H (x, y) is created for each combination of the steering angle θ and the winker state φ, and when the face position is searched from the captured image, the captured image is captured. The value of the coordinate (x, y) of the face position is incremented by one with respect to the two-dimensional frequency histogram H (x, y) corresponding to the combination of the steering angle θ and the winker state φ at that time. The two-dimensional frequency histogram H (x, y) may be provided every time the steering angle θ changes by 1 °, or may be provided every time the steering angle θ changes by a predetermined range such as 30 °, 60 °, and 90 °. Alternatively, the steering angle θ may be provided separately on the + (plus) side and the − (minus) side.

次に、図12を参照しながら、第2の実施形態に係る画像監視装置101の処理動作について説明する。図12は、第2の実施形態に係る画像監視装置の処理動作を示すフローチャートである。なお、以下に説明する処理は、画像監視装置101のECU20の処理によって行われるものであり、画像センサ10からECU20に撮像画像が送信されるたびに、下記の処理が繰り返し行われる。   Next, the processing operation of the image monitoring apparatus 101 according to the second embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating the processing operation of the image monitoring apparatus according to the second embodiment. Note that the processing described below is performed by the processing of the ECU 20 of the image monitoring apparatus 101, and the following processing is repeatedly performed each time a captured image is transmitted from the image sensor 10 to the ECU 20.

まず、運転者により車両のイグニションがONにされると、第1の実施形態と同様に、ステップS1〜6が行われる。   First, when the ignition of the vehicle is turned on by the driver, steps S1 to S6 are performed as in the first embodiment.

そして、ステップS6において、トラッキングが成功したと判定した場合(ステップS6:YES)、ECU20は、ステップS5において切り出した切り出し領域の中心座標、すなわち、運転者の顔位置の座標(x,y)を記録するとともに、ステアリング角度検出センサ30が検出したステアリング角度θ及びウィンカー状態検出センサ40が検出したウィンカー状態φを検出して記録する(ステップS21)。   If it is determined in step S6 that the tracking has been successful (step S6: YES), the ECU 20 determines the center coordinates of the clip region cut out in step S5, that is, the coordinates (x, y) of the driver's face. In addition to recording, the steering angle θ detected by the steering angle detection sensor 30 and the winker state φ detected by the winker state detection sensor 40 are detected and recorded (step S21).

次に、ECU20は、ステップS21において記録した顔位置の座標(x,y)、ステアリング角度θ及びウィンカー状態φに基づいて、2次元頻度ヒストグラムH(x,y)のカウントアップ処理を行うとともに、FIFO処理を行う(ステップS22)。すなわち、ステップS22では、ステップS21において記録したステアリング角度θ及びウィンカー状態φの組合せに対応する2次元頻度ヒストグラムH(x,y)を選択し、この選択した2次元頻度ヒストグラムH(x,y)における顔位置の座標(x,y)に対応した値を+1カウントアップする。一方で、ステップS21において記録してから所定時間経過した顔位置の座標(x、y)に対応する2次元頻度ヒストグラムH(x,y)の値を−1カウントダウンする。このとき、所定時間経過した顔位置の座標(x,y)に対応する値を、全ての2次元頻度ヒストグラムH(x,y)から−1カウントダウンする。   Next, the ECU 20 performs a count-up process of the two-dimensional frequency histogram H (x, y) based on the face position coordinates (x, y), the steering angle θ, and the winker state φ recorded in step S21. FIFO processing is performed (step S22). That is, in step S22, a two-dimensional frequency histogram H (x, y) corresponding to the combination of the steering angle θ and the winker state φ recorded in step S21 is selected, and the selected two-dimensional frequency histogram H (x, y). The value corresponding to the coordinate (x, y) of the face position at +1 is counted up. On the other hand, the value of the two-dimensional frequency histogram H (x, y) corresponding to the coordinate (x, y) of the face position that has passed for a predetermined time after recording in step S21 is counted down by -1. At this time, the value corresponding to the coordinates (x, y) of the face position after a predetermined time is counted down by −1 from all the two-dimensional frequency histograms H (x, y).

次に、ECU20は、テンプレートを更新し(ステップS9)、一旦処理を終了する。   Next, the ECU 20 updates the template (step S9) and once ends the process.

一方、上述したステップS6においてトラッキングが失敗したと判定した場合(ステップS6:NO)、ECU20は、まず、ステップS1において取得した撮像画像が撮像された時点(又は、ステップS6においてトラッキングが失敗した時点)のステアリング角度θ及びウィンカー状態φを検出して記録する(ステップS23)。   On the other hand, when it is determined that the tracking has failed in step S6 described above (step S6: NO), the ECU 20 first times when the captured image acquired in step S1 is captured (or when tracking fails in step S6). ) Is detected and recorded (step S23).

そして、ECU20は、ステップS23において検出したステアリング角度θ及びウィンカー状態φの組合せに対応する2次元頻度ヒストグラムH(x,y)を選択し、顔位置の探索を行う前段階として、この選択した2次元頻度ヒストグラムH(x,y)の平滑化処理を行い、2次元頻度ヒストグラムH’(x,y)を作成する(ステップS10)。   Then, the ECU 20 selects a two-dimensional frequency histogram H (x, y) corresponding to the combination of the steering angle θ and the winker state φ detected in step S23, and this selected 2 is used as a previous stage for searching for the face position. A smoothing process is performed on the dimensional frequency histogram H (x, y) to create a two-dimensional frequency histogram H ′ (x, y) (step S10).

次に、ECU20は、ステップS10において平滑化処理した2次元頻度ヒストグラムH’(x,y)を参照して、2次元頻度ヒストグラムH’(x,y)におけるカウント数の多い座標(x,y)から、運転者の顔位置を探索する(ステップS11)。すなわち、ステップS11では、ステップS23において検出したステアリング角度θ及びウィンカー状態φの組合せに対応する2次元頻度ヒストグラムH(x,y)を参照して、顔位置を探索する。   Next, the ECU 20 refers to the two-dimensional frequency histogram H ′ (x, y) smoothed in step S10, and coordinates (x, y) having a large number of counts in the two-dimensional frequency histogram H ′ (x, y). ) To search for the driver's face position (step S11). That is, in step S11, the face position is searched with reference to the two-dimensional frequency histogram H (x, y) corresponding to the combination of the steering angle θ and the winker state φ detected in step S23.

そして、ステップS11の顔位置の探索が終わると、一旦処理を終了して、再度ステップS1から処理を繰り返す。   When the search for the face position in step S11 ends, the process is once ended, and the process is repeated again from step S1.

このように、第2の実施形態に係る画像監視装置101によれば、運転者は、車両の方向変更動作等を行う場合は、顔を傾けるなどの同じような動作を行う傾向にあることに鑑み、過去に探索された運転者の顔位置の座標(x,y)を、ステアリング角度θ及びウィンカー状態φとの組合せに対応付けて2次元頻度ヒストグラムH(x,y)に記録しておくことで、ステアリング角度θ及びウィンカー状態φにより顔位置の探索範囲を絞り込むことができるため、より短時間で撮像画像から顔位置の探索を行うことができる。   Thus, according to the image monitoring apparatus 101 according to the second embodiment, the driver tends to perform a similar operation such as tilting his / her face when performing a direction change operation of the vehicle. In view of this, the coordinates (x, y) of the driver's face position searched in the past are recorded in the two-dimensional frequency histogram H (x, y) in association with the combination of the steering angle θ and the winker state φ. Thus, since the search range of the face position can be narrowed down by the steering angle θ and the winker state φ, the face position can be searched from the captured image in a shorter time.

[第3実施形態]
次に、第3の実施形態について説明する。第3の実施形態に係る画像監視装置は、第1の実施形態に係る画像監視装置と基本的に構成が同じであり、その処理動作のみ相違する。このため、以下では、第1の実施形態に係る画像監視装置と異なる部分のみ説明する。
[Third Embodiment]
Next, a third embodiment will be described. The image monitoring apparatus according to the third embodiment has basically the same configuration as the image monitoring apparatus according to the first embodiment, and only the processing operation is different. For this reason, below, only a different part from the image monitoring apparatus which concerns on 1st Embodiment is demonstrated.

図13は、第3の実施形態に係る画像監視装置のブロック構成を示した図である。図に示すように、第3の実施形態に係る画像監視装置201は、画像監視装置1と同様に、画像センサ10と、ECU20とを備えており、ECU20は、顔位置初期発見部21と、顔位置追跡部22と、顔探索位置設定部23と、顔位置履歴記録部24として機能する。   FIG. 13 is a diagram illustrating a block configuration of an image monitoring apparatus according to the third embodiment. As shown in the figure, the image monitoring apparatus 201 according to the third embodiment includes an image sensor 10 and an ECU 20, as with the image monitoring apparatus 1, and the ECU 20 includes a face position initial finding unit 21, It functions as a face position tracking unit 22, a face search position setting unit 23, and a face position history recording unit 24.

そして、ECU20の顔位置履歴記録部24は、探索した顔位置を記録すると、2次元頻度ヒストグラムH(x,y)ではなく、2次元探索実績行列H(x,y)を作成する。図14は、2次元探索実績行列の一例を示した図である。図14に示すように、2次元探索実績行列H(x,y)は、撮像画像をxy座標軸で表したものであり、顔位置が探索された座標の値を1に変更するものである。このため、2次元探索実績行列H(x,y)を参照することで、顔位置が探索されたことのある位置を容易に探索することができる。なお、図14において、黒く塗り潰した座標領域は1を示しており、黒く塗り潰されていない座標領域は0を示している。   Then, when the searched face position is recorded, the face position history recording unit 24 of the ECU 20 creates a two-dimensional search result matrix H (x, y) instead of the two-dimensional frequency histogram H (x, y). FIG. 14 is a diagram illustrating an example of a two-dimensional search performance matrix. As shown in FIG. 14, the two-dimensional search performance matrix H (x, y) represents the captured image with the xy coordinate axes, and changes the value of the coordinates where the face position is searched to 1. For this reason, the position where the face position has been searched can be easily searched by referring to the two-dimensional search result matrix H (x, y). In FIG. 14, the coordinate area that is blacked out indicates 1, and the coordinate area that is not blacked out indicates 0.

次に、図15を参照しながら、第3の実施形態に係る画像監視装置201の処理動作について説明する。図15は、第3の実施形態に係る画像監視装置の処理動作を示すフローチャートである。なお、以下に説明する処理は、画像監視装置201のECU20の処理によって行われるものであり、画像センサ10からECU20に撮像画像が送信されるたびに、下記の処理が繰り返し行われる。   Next, the processing operation of the image monitoring apparatus 201 according to the third embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating the processing operation of the image monitoring apparatus according to the third embodiment. Note that the processing described below is performed by the processing of the ECU 20 of the image monitoring apparatus 201, and the following processing is repeatedly performed each time a captured image is transmitted from the image sensor 10 to the ECU 20.

まず、運転者により車両のイグニションがONにされると、第1の実施形態と同様に、ステップS1〜6が行われる。   First, when the ignition of the vehicle is turned on by the driver, steps S1 to S6 are performed as in the first embodiment.

そして、ステップS6において、トラッキングが成功したと判定した場合(ステップS6:YES)、ECU20は、運転者の顔位置の座標(x,y)を記録する(ステップS7)。   If it is determined in step S6 that the tracking is successful (step S6: YES), the ECU 20 records the coordinates (x, y) of the driver's face position (step S7).

次に、ECU20は、ステップS31において記録した顔位置の座標(x,y)に基づいて、2次元探索実績行列H(x,y)の書き換え処理を行うとともに、FIFO処理を行う(ステップS31)。すなわち、ステップS31では、ステップS7において記録した顔位置の座標(x,y)に対応する2次元探索実績行列H(x,y)の値が0である場合は、この値を1に変更する。なお、2次元探索実績行列H(x,y)の値が既に1に変更されている場合は、特にこの値を変更しない。一方、ステップS7において記録してから所定時間経過した顔位置の座標(x、y)に対応する2次元探索実績行列H(x,y)の値を0に変更する。   Next, the ECU 20 performs a rewrite process of the two-dimensional search result matrix H (x, y) and a FIFO process based on the coordinates (x, y) of the face position recorded in step S31 (step S31). . That is, in step S31, if the value of the two-dimensional search result matrix H (x, y) corresponding to the coordinate (x, y) of the face position recorded in step S7 is 0, this value is changed to 1. . If the value of the two-dimensional search result matrix H (x, y) has already been changed to 1, this value is not particularly changed. On the other hand, the value of the two-dimensional search performance matrix H (x, y) corresponding to the coordinates (x, y) of the face position that has passed for a predetermined time after recording in step S7 is changed to zero.

次に、ECU20は、テンプレートを更新し(ステップS9)、一旦処理を終了する。   Next, the ECU 20 updates the template (step S9) and once ends the process.

一方、上述したステップS6においてトラッキングが失敗したと判定した場合(ステップS6:NO)、ECU20は、2次元探索実績行列H(x,y)を参照して、探索実績範囲を算出する(ステップS32)。図16は、図14に示した2次元探索実績行列H(x,y)における探索実績範囲を示した図である。図16に示すように、探索実績範囲Dは、2次元探索実績行列H(x,y)において1に変更されているx座標及びy座標の最大値及び最小値を算出する。そして、この最大値及び最小値を囲む長方形の範囲を、探索実績範囲Dとする。すなわち、探索実績範囲Dは、FIFOで削除される前の間に、一度でも探索された座標を含む長方形の範囲となる。なお、この探索実績範囲Dは、例えば、2次元探索実績行列H(x,y)において1に変更されている座標を全て含む最小円の範囲としてもよい。   On the other hand, when it is determined that the tracking has failed in step S6 described above (step S6: NO), the ECU 20 refers to the two-dimensional search result matrix H (x, y) and calculates the search result range (step S32). ). FIG. 16 is a diagram showing a search result range in the two-dimensional search result matrix H (x, y) shown in FIG. As shown in FIG. 16, the search result range D calculates the maximum value and the minimum value of the x coordinate and the y coordinate that are changed to 1 in the two-dimensional search result matrix H (x, y). A rectangular range surrounding the maximum value and the minimum value is set as a search result range D. In other words, the search result range D is a rectangular range including the coordinates searched once even before being deleted by the FIFO. In addition, this search performance range D is good also as the range of the minimum circle | round | yen including all the coordinates changed into 1 in the two-dimensional search performance matrix H (x, y), for example.

そして、ECU20は、ステップS32において算出した探索実績範囲Dにおいて、運転者の顔を探索する(ステップS33)。図17は、2次元探索実績行列を用いた運転者の顔の探索を説明するための図である。図17に示すように、ステップS33では、トラッキングに失敗した直前に探索した顔位置の座標(x,y)を中心として、探索実績範囲内を内方から順に外方に向けて顔位置の探索を行う。すなわち、探索実績範囲内において、座標(x,y)と距離が近い座標から順に顔を探索していく。 Then, the ECU 20 searches for the driver's face in the search result range D calculated in step S32 (step S33). FIG. 17 is a diagram for explaining a driver's face search using a two-dimensional search result matrix. As shown in FIG. 17, in step S33, the position of the face is directed from the inside toward the outside in order from the inside of the search result range with the coordinates (x 0 , y 0 ) of the face position searched immediately before the tracking failure as the center. Search for. That is, the face is searched in order from the coordinates having a distance close to the coordinates (x 0 , y 0 ) within the search result range.

そして、ステップS33の顔位置の探索が終わると、一旦処理を終了して、再度ステップS1から処理を繰り返す。   When the search for the face position in step S33 is finished, the process is once ended, and the process is repeated from step S1 again.

このように、第3の実施形態に係る画像監視装置201によれば、トラッキングに失敗した場合に、探索する範囲を過去に探索された顔位置を含む探索実績範囲Dとし、探索に失敗した直前に探索された顔位置(x,y)から外方に向けて探索することで、探索範囲を顔位置が存在する可能性の高い範囲に絞り込み、しかも、より顔位置が存在する可能性の高い順に顔位置を探索するため、より短時間で撮像画像から顔位置の探索を行うことができる。 As described above, according to the image monitoring apparatus 201 according to the third embodiment, when tracking fails, the search range is the search result range D including the face position searched in the past, and immediately before the search fails. By searching outward from the face position (x 0 , y 0 ) searched for in ( 2 ), the search range is narrowed down to a range where the face position is likely to exist, and there is a possibility that more face positions exist Since the face positions are searched in descending order, the face position can be searched from the captured image in a shorter time.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。例えば、顔位置を示す座標は、撮像画像の1画素を示すものであってもよく、複数の画素範囲(所定領域)を示すものであってもよい。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, the coordinates indicating the face position may indicate one pixel of the captured image, or may indicate a plurality of pixel ranges (predetermined areas).

また、第3の実施形態では、探索実績範囲Dを用いて探索範囲を絞り込むように説明したが、例えば、ステアリング角度θ及びウィンカー状態φの組合せ毎に探索実績範囲を用意し、トラッキングが失敗した時点におけるステアリング角度θ及びウィンカー状態φの組合せに対応する探索実績範囲で、探索範囲を絞り込むようにしてもよい。   In the third embodiment, the search range is narrowed down using the search result range D. However, for example, a search result range is prepared for each combination of the steering angle θ and the winker state φ, and tracking fails. The search range may be narrowed down by the search result range corresponding to the combination of the steering angle θ and the winker state φ at the time.

第1の実施形態に係る画像監視装置のブロック構成を示した図である。It is the figure which showed the block configuration of the image monitoring apparatus which concerns on 1st Embodiment. 2次元頻度ヒストグラムの一例を示した図である。It is the figure which showed an example of the two-dimensional frequency histogram. 第1の実施形態に係る画像監視装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image monitoring apparatus which concerns on 1st Embodiment. 撮像画像を示した図である。It is the figure which showed the captured image. 横ソーベルフィルタの一例を示す図である。It is a figure which shows an example of a horizontal Sobel filter. 横ソーベルフィルタ画像を示した図である。It is the figure which showed the horizontal Sobel filter image. 平滑化フィルタの一例を示した図である。It is the figure which showed an example of the smoothing filter. 横ソーベルフィルタ平滑化画像を示した図である。It is the figure which showed the horizontal Sobel filter smoothed image. 横ソーベルフィルタ平滑化画像からテンプレートを切り出す処理を説明するための図である。It is a figure for demonstrating the process which cuts out a template from a horizontal Sobel filter smoothed image. 顔位置のトラッキングを説明するための図である。It is a figure for demonstrating the tracking of a face position. 第2の実施形態に係る画像監視装置のブロック構成を示した図である。It is the figure which showed the block configuration of the image monitoring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像監視装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image monitoring apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る画像監視装置のブロック構成を示した図である。It is the figure which showed the block configuration of the image monitoring apparatus which concerns on 3rd Embodiment. 2次元探索実績行列の一例を示した図である。It is the figure which showed an example of the two-dimensional search performance matrix. 第3の実施形態に係る画像監視装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image monitoring apparatus which concerns on 3rd Embodiment. 図14に示す2次元探索実績行列における探索実績範囲を示した図である。It is the figure which showed the search performance range in the two-dimensional search performance matrix shown in FIG. 2次元探索実績行列を用いた運転者の顔の探索を説明するための図である。It is a figure for demonstrating the search of a driver | operator's face using a 2-dimensional search performance matrix.

符号の説明Explanation of symbols

1…画像監視装置、10…画像センサ、20…ECU、21…顔位置初期発見部、22…顔位置追跡部、23…顔探索位置設定部、24…顔位置履歴記録部、30…ステアリング角度検出センサ、40…ウィンカー状態検出センサ、101…画像監視装置、201…画像監視装置、A…矩形領域、B…探索領域、C…切り出し領域、D…探索実績範囲、T…テンプレート。

DESCRIPTION OF SYMBOLS 1 ... Image monitoring apparatus, 10 ... Image sensor, 20 ... ECU, 21 ... Face position initial discovery part, 22 ... Face position tracking part, 23 ... Face search position setting part, 24 ... Face position history recording part, 30 ... Steering angle Detection sensor, 40 ... Winker state detection sensor, 101 ... Image monitoring device, 201 ... Image monitoring device, A ... Rectangular region, B ... Search region, C ... Clipping region, D ... Search result range, T ... Template.

Claims (4)

撮像手段によって取得した撮像画像における所定の切り出し領域とテンプレートとを順次適合させることにより前記撮像画像における対象者の顔位置を探索し、前記対象者の状況を監視する画像監視装置であって、
前記顔位置の探索履歴を記録し、
前記顔位置の探索に失敗した場合は、前記探索履歴に基づいて前記顔位置を再探索することを特徴とする画像監視装置。
An image monitoring apparatus that searches for a face position of a target person in the picked-up image by sequentially matching a predetermined cutout region and a template in the picked-up image acquired by the image pickup means, and monitors the state of the target person.
Record the search history of the face position,
An image monitoring apparatus, wherein when the search for the face position fails, the face position is searched again based on the search history.
前記再探索は、前記探索履歴における探索数の多い順に、前記顔位置を探索することを特徴とする請求項1に記載の画像監視装置。   The image monitoring apparatus according to claim 1, wherein the re-searching searches for the face position in descending order of the number of searches in the search history. 前記撮像装置は車両に搭載され、
前記車両の方向指示情報又は方向変更動作情報に対応させて前記顔位置の探索履歴を記録し、
前記再探索は、探索に失敗したときの方向指示又は方向変更動作に対応した前記探索履歴における探索数の多い順に、前記顔位置を探索することを特徴とする請求項1に記載の画像監視装置。
The imaging device is mounted on a vehicle,
The search history of the face position is recorded corresponding to the direction instruction information or the direction change operation information of the vehicle,
The image monitoring apparatus according to claim 1, wherein the re-searching searches the face positions in descending order of the number of searches in the search history corresponding to a direction instruction or a direction changing operation when the search fails. .
前記再探索は、前記探索履歴として記録された顔位置を含む探索実績範囲内において、探索に失敗した直前に探索された顔位置から外方に向けて行うことを特徴とする請求項1に記載の画像監視装置。
The re-search is performed outward from a face position searched immediately before the search has failed within a search result range including the face position recorded as the search history. Image monitoring device.
JP2008305086A 2008-11-28 2008-11-28 Image monitoring device Expired - Fee Related JP5270319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008305086A JP5270319B2 (en) 2008-11-28 2008-11-28 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008305086A JP5270319B2 (en) 2008-11-28 2008-11-28 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2010128961A true JP2010128961A (en) 2010-06-10
JP5270319B2 JP5270319B2 (en) 2013-08-21

Family

ID=42329286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008305086A Expired - Fee Related JP5270319B2 (en) 2008-11-28 2008-11-28 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5270319B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016221100A (en) * 2015-06-02 2016-12-28 株式会社東芝 Medical image processing apparatus, and treatment system
KR20210082723A (en) * 2019-12-26 2021-07-06 경북대학교 산학협력단 Driver monitoring system for using interest area
JPWO2021192007A1 (en) * 2020-03-24 2021-09-30
CN113763620A (en) * 2021-09-14 2021-12-07 孟琦 Combined access control, method and device for controlling combined access control, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213167A (en) * 1998-01-30 1999-08-06 Yamaha Corp Device, method for detecting position of target object and form analyzing device
JP2001195582A (en) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
JP2002008020A (en) * 2000-06-26 2002-01-11 Nissan Motor Co Ltd Ocular state detector
JP2008305086A (en) * 2007-06-06 2008-12-18 Fuji Xerox Co Ltd Document management system, document management method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213167A (en) * 1998-01-30 1999-08-06 Yamaha Corp Device, method for detecting position of target object and form analyzing device
JP2001195582A (en) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
JP2002008020A (en) * 2000-06-26 2002-01-11 Nissan Motor Co Ltd Ocular state detector
JP2008305086A (en) * 2007-06-06 2008-12-18 Fuji Xerox Co Ltd Document management system, document management method, and computer program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016221100A (en) * 2015-06-02 2016-12-28 株式会社東芝 Medical image processing apparatus, and treatment system
KR20210082723A (en) * 2019-12-26 2021-07-06 경북대학교 산학협력단 Driver monitoring system for using interest area
KR102338067B1 (en) * 2019-12-26 2021-12-10 경북대학교 산학협력단 Driver monitoring system for using interest area
JPWO2021192007A1 (en) * 2020-03-24 2021-09-30
WO2021192007A1 (en) * 2020-03-24 2021-09-30 三菱電機株式会社 Face detection device
JP7345632B2 (en) 2020-03-24 2023-09-15 三菱電機株式会社 face detection device
CN113763620A (en) * 2021-09-14 2021-12-07 孟琦 Combined access control, method and device for controlling combined access control, and storage medium

Also Published As

Publication number Publication date
JP5270319B2 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
CN109446942B (en) Target tracking method, device and system
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
US6687386B1 (en) Object tracking method and object tracking apparatus
JP6546828B2 (en) Modify at least one parameter used in video processing
JP5964108B2 (en) Object detection device
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
CN102985957B (en) Device for monitoring vicinity of vehicle
JP2008158958A (en) Road surface determination method and road surface determination device
JP5832910B2 (en) Image monitoring device
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
JP2008140290A (en) Head position/attitude detector
JP5270319B2 (en) Image monitoring device
JP5302730B2 (en) Driver monitoring device
JP4777196B2 (en) Driving assistance device
JP5107154B2 (en) Motion estimation device
CN111881322B (en) Target searching method and device, electronic equipment and storage medium
JP2013093639A (en) Vehicle periphery monitoring device
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP4777195B2 (en) Driving support device, vehicle, and driving support method
JP5541099B2 (en) Road marking line recognition device
JP4421121B2 (en) Intruder detection method
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP2007156771A (en) Image detection tracing device, image detection tracing method and image detection tracing program
JP2003271968A (en) Device and method for detecting mobile-body
JP2007172052A (en) Traveling object recognition device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130509

R151 Written notification of patent or utility model registration

Ref document number: 5270319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees