JP2008226073A - Eye detection apparatus, eye detection method and program - Google Patents

Eye detection apparatus, eye detection method and program Download PDF

Info

Publication number
JP2008226073A
JP2008226073A JP2007066166A JP2007066166A JP2008226073A JP 2008226073 A JP2008226073 A JP 2008226073A JP 2007066166 A JP2007066166 A JP 2007066166A JP 2007066166 A JP2007066166 A JP 2007066166A JP 2008226073 A JP2008226073 A JP 2008226073A
Authority
JP
Japan
Prior art keywords
nostril
candidate
face
face image
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007066166A
Other languages
Japanese (ja)
Other versions
JP4848302B2 (en
Inventor
Tadashi Asano
義 浅野
Shigeyasu Uozumi
重康 魚住
Yuji Ninagawa
勇二 蜷川
Kenichi Ogami
健一 大上
Shinichi Kojima
真一 小島
Satoru Nakanishi
悟 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2007066166A priority Critical patent/JP4848302B2/en
Publication of JP2008226073A publication Critical patent/JP2008226073A/en
Application granted granted Critical
Publication of JP4848302B2 publication Critical patent/JP4848302B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an eye detection apparatus, eye detection method and program which prevents an incorrect region from being searched for eye location. <P>SOLUTION: A camera 10 images the face of a subject, and a CPU 24 of a computer 14 obtains the moving image and stores it in an image memory 22. The CPU 24 processes the moving image stored in the memory 22, searches for the nostrils of the subject on the basis of a histogram value and its peak, determines a region for searching the upper eyelid and lower eyelid after the nostrils are found, and extracts edge lines, as a candidate of the combination of the upper eyelid and the lower eyelid of the subject, from the region. The CPU 24 discriminates, among the extracted edge lines, that the edge lines of an upper eyelid candidate whose center moves in the vertical direction and a lower eyelid candidate, whose center does not move are the eyelids of the subject. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、たとえば車両等の移動体を運転している運転者等の目を検出する目検出装置、目検出方法およびプログラムに関する。   The present invention relates to an eye detection device, an eye detection method, and a program for detecting eyes of a driver or the like driving a moving body such as a vehicle.

人の顔を含む画像から、人の顔や眼の位置を検出する技術が知られている。たとえば、特許文献1には、入力された人の顔の画像の縦方向の画素列に沿って画素の濃度を検出し、画素列の濃度値および当該濃度値の変化値によりポイントを抽出し、抽出したポイントの連続データとして眼の瞼の領域を捉える居眠り状態検出装置が開示されている。
特開平10−275212号公報
A technique for detecting the position of a person's face and eyes from an image including the person's face is known. For example, in Patent Document 1, pixel density is detected along a vertical pixel row of an input human face image, and a point is extracted based on the density value of the pixel row and a change value of the density value. A dozing state detection device that captures an eyelid region as continuous data of extracted points is disclosed.
Japanese Patent Laid-Open No. 10-275212

しかし、特許文献1の居眠り状態検出装置では、画素の濃度値および濃度値の変化値により眼の位置を検討しているため、眉毛や鼻下などにおける画素の濃度変化を眼の位置と誤検出することがある。また、髪型などにより眉毛が消えたり、眼鏡などの要因が存在するといった、眼の位置の探索領域を探すときの誤判定要因が存在する。これらの誤判定要因のため、特許文献1の居眠り状態検出装置では、眼の位置の探索領域を間違えることがある。   However, since the dozing state detection device of Patent Document 1 examines the position of the eye based on the density value of the pixel and the change value of the density value, the pixel density change in the eyebrows or the nose is erroneously detected as the eye position. There are things to do. In addition, there are misjudgment factors when searching for the eye position search area, such as the eyebrows disappearing depending on the hairstyle, or the presence of factors such as glasses. Because of these misjudgment factors, the dozing state detection device of Patent Document 1 may make a mistake in the search area for the eye position.

本発明は、上記問題点に鑑みてなされたものであり、目の位置の探索領域を間違えることのない目検出装置、目検出方法およびプログラムを提供することを課題とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an eye detection device, an eye detection method, and a program that do not mistake the search region for the eye position.

上記課題を解決するために、本発明の第1の観点に係る目検出装置は、
対象者の顔の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段が記憶した顔画像に基づいて、該顔画像内の目の下の位置の候補を求める目下位置候補検出手段と、
前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段と、
前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段と、
から構成されることを特徴とする。
In order to solve the above problems, an eye detection device according to the first aspect of the present invention provides:
Face image storage means for storing an image of the face of the subject,
Based on the face image stored by the face image storage means, a current position candidate detection means for obtaining a candidate for a position under the eyes in the face image;
When the face nostril is searched within a predetermined nostril search area on the face image stored in the face image storage means, and the nostril can be detected, the position under the eyes based on the detected nostril position Current position selection means for selecting a candidate located under the eyes of the face image from among the candidates,
Eye detection means for detecting an image corresponding to the eyes of the subject in an eye search area determined based on the current position selected by the current position selection means;
It is comprised from these.

前記目下位置候補検出手段は、
前記顔画像記憶手段に記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成する横ソーベル手段と、
前記横ソーベル手段により生成された横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成する手段と、
階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を目下位置の候補として出力する目下位置候補出力手段と、
から構成されることを特徴としてもよい。
The current position candidate detection means includes:
Horizontal sobel means for processing a face image stored in the face image storage means with a horizontal Sobel filter to generate a horizontal Sobel image;
Means for generating a histogram of gradation values of pixels on each horizontal line of the horizontal Sobel image generated by the horizontal Sobel means;
Current position candidate output means for obtaining a candidate for a horizontal line passing under the eyes based on a histogram of gradation values and outputting the position of the horizontal line as a candidate for the current position;
It is good also as comprising.

前記目下位置候補出力手段は、
階調値のヒストグラムに基づいて、ヒストグラムのピーク値の高いものを所定数抽出して、抽出したヒストグラムが得られた位置を目下位置候補とする、
ことを特徴としてもよい。
The current position candidate output means includes:
Based on the histogram of gradation values, a predetermined number of high histogram peak values are extracted, and the position where the extracted histogram is obtained is the current position candidate.
This may be a feature.

前記目下位置選択手段は、前記目下位置候補検出手段により検出された目の下の位置の候補の一つに基づいて、前記鼻孔探索領域を設定する、
ことを特徴としてもよい。
The current position selection means sets the nostril search region based on one of the candidates for the position under the eyes detected by the current position candidate detection means.
This may be a feature.

前記顔画像記憶手段が記憶している顔画像の中心線を検出する顔中心線検出手段をさらに備え、
前記目下位置選択手段は、
前記鼻孔検索領域内で顔の鼻孔の候補を検索する検索手段と、
前記検索手段が検出した顔の鼻孔の候補の位置を求める鼻孔位置判別手段と、
前記鼻孔位置判別手段が判別した各備考の候補の位置と前記中心線とに基づいて、前記検索手段が検索した鼻孔の候補のうちで、前記顔の中心線に対してほぼ線対称をなす鼻孔候補の対を検出し、鼻孔と判別する手段と、
をさらに備えることを特徴としてもよい。
A face center line detecting means for detecting a center line of the face image stored in the face image storing means;
The current position selection means includes
Search means for searching for nostril candidates of the face in the nostril search region;
Nostril position determining means for determining the position of the nostril candidate of the face detected by the search means;
Based on the position of each remark candidate determined by the nostril position determining means and the center line, the nostrils that are substantially line-symmetric with respect to the center line of the face among the nostril candidates searched by the search means Means for detecting candidate pairs and distinguishing them from nostrils;
May be further provided.

前記目下位置選択手段は、鼻孔が検出できたとき、鼻孔の上に位置し、最も鼻孔に近い目下位置候補を、目の下の位置として出力する、
ことを特徴としてもよい。
When the nostril can be detected, the current position selection means is positioned above the nostril and outputs the current position candidate closest to the nostril as a position below the eye.
This may be a feature.

上記課題を解決するため、本発明の第2の観点に係る目検出方法は、
記憶されている顔画像を処理して、該顔画像内の目の下に位置する横ラインの候補を求め、
前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、
鼻孔が検出できたときに、検出した鼻孔の位置を基準として、横ラインの候補のうちから顔画像の目の下に位置するものを選択し、
選択した横ラインに基づいて前記顔画像上に目探索領域を設定し、
設定した目探索領域内において、対象者の目に対応する画像を検出する、
ことを特徴とする。
In order to solve the above problem, an eye detection method according to a second aspect of the present invention includes:
Process the stored face image to obtain a candidate for a horizontal line located under the eye in the face image,
Search the nostril of the face within a predetermined nostril search area on the face image,
When the nostril can be detected, the position of the detected nostril is selected as a reference, and the candidate located below the eyes of the face image is selected from the candidates for the horizontal line,
Set an eye search area on the face image based on the selected horizontal line,
In the set eye search area, an image corresponding to the eye of the subject is detected.
It is characterized by that.

上記課題を解決するため、本発明の第3の観点に係るプログラムは、
コンピュータを、
対象者の顔の画像を記憶する顔画像記憶手段、
前記顔画像記憶手段が記憶した顔画像に基づいて、該顔画像内の目の下の位置の候補を求める目下位置候補検出手段、
前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段、
前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段、
として機能させる。
In order to solve the above problem, a program according to the third aspect of the present invention is:
Computer
Face image storage means for storing an image of the face of the subject,
Based on the face image stored by the face image storage means, a current position candidate detection means for obtaining a candidate for a position under the eyes in the face image;
When the face nostril is searched within a predetermined nostril search area on the face image stored in the face image storage means, and the nostril can be detected, the position under the eyes based on the detected nostril position Current position selection means for selecting a position located under the eyes of the face image from among the candidates of
Eye detection means for detecting an image corresponding to the eyes of the subject within an eye search area determined based on the current position selected by the current position selection means;
To function as.

本発明によれば、目の位置の探索領域を間違えることのない目検出装置、目検出方法およびプログラムを提供できる。   According to the present invention, it is possible to provide an eye detection device, an eye detection method, and a program that do not mistake the search region for the eye position.

以下、図面を参照して、本発明の実施形態に係る目検出装置50について説明する。   Hereinafter, an eye detection device 50 according to an embodiment of the present invention will be described with reference to the drawings.

まず、図1から3を参照して、本実施形態の目検出装置50の構成について説明する。
目検出装置50は、図1に示すように、ドライバーの顔を撮影して顔画像を生成するカメラ10、ドライバーの顔を照明する照明光源12、ドライバーの顔画像から特徴点を抽出するコンピュータ14、コンピュータ14に接続された表示装置16、を備える。
First, the configuration of the eye detection device 50 according to the present embodiment will be described with reference to FIGS.
As shown in FIG. 1, the eye detection device 50 includes a camera 10 that captures a driver's face and generates a face image, an illumination light source 12 that illuminates the driver's face, and a computer 14 that extracts feature points from the driver's face image. And a display device 16 connected to the computer 14.

カメラ10はたとえばCCD(Charge Coupled Devices)カメラ等から構成され、ドライバーの顔の階調画像を取得する。カメラ10によって生成される顔画像は、ドライバーの顔だけでなく、その背景なども含まれている。   The camera 10 is composed of a CCD (Charge Coupled Devices) camera, for example, and acquires a gradation image of the driver's face. The face image generated by the camera 10 includes not only the driver's face but also its background.

表示装置16は、LCD(Liquid Crystal Display)またはCRT(Cathode Ray Tube)などから構成され、カメラ10で撮像された顔画像などを表示する。   The display device 16 includes an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays a face image captured by the camera 10.

コンピュータ14は、カメラ10により取得された顔画像を処理して、瞼を検出する。
コンピュータ14は、図2に示すように、A/D変換器21、画像メモリ22、ROM(Read Only Memory)23、CPU(Central Processing Unit)24、RAM(Random Access Memory)25、表示制御装置26、光源制御装置27、設定メモリ28、操作装置29、を備える。
The computer 14 processes the face image acquired by the camera 10 and detects wrinkles.
As shown in FIG. 2, the computer 14 includes an A / D converter 21, an image memory 22, a ROM (Read Only Memory) 23, a CPU (Central Processing Unit) 24, a RAM (Random Access Memory) 25, and a display control device 26. A light source control device 27, a setting memory 28, and an operation device 29.

A/D(アナログ/ディジタル)変換器21は、カメラ10で撮影されたアナログ画像信号をディジタル信号に変換する。   An A / D (analog / digital) converter 21 converts an analog image signal photographed by the camera 10 into a digital signal.

画像メモリ22は、カメラ10により生成され、A/D変換器21でディジタル化された画像データを格納する。   The image memory 22 stores image data generated by the camera 10 and digitized by the A / D converter 21.

ROM23は、CPUの動作を制御するためのプログラムを記憶する。また、ROM23は、後述する画像処理を実行するための様々な固定データを記憶する。   The ROM 23 stores a program for controlling the operation of the CPU. Further, the ROM 23 stores various fixed data for executing image processing to be described later.

CPU24は、コンピュータ14全体を制御する。また、CPU24は、ROM23に格納されているプログラムを実行することにより、カメラ10により取得された顔動画像を処理して顔動画像中の眼または瞼を検出する。   The CPU 24 controls the entire computer 14. Further, the CPU 24 executes a program stored in the ROM 23 to process the face moving image acquired by the camera 10 and detect an eye or eyelid in the face moving image.

RAM25は、CPU24のワークエリアとして機能する。   The RAM 25 functions as a work area for the CPU 24.

表示制御装置26は、CPU24の制御のもと、映像データ等を表示装置16が出力可能なデータ形式に変換し、表示装置16に出力する。   The display control device 26 converts video data or the like into a data format that can be output by the display device 16 under the control of the CPU 24, and outputs the data to the display device 16.

光源制御装置27は、照明光源12の点灯・消灯を制御する。   The light source control device 27 controls turning on / off of the illumination light source 12.

設定メモリ28は、CPU24が顔動画像を処理して眼または瞼を検出する処理の設定に関する情報(以下、設定情報)を格納する。   The setting memory 28 stores information (hereinafter referred to as setting information) relating to the setting of processing in which the CPU 24 processes the face moving image to detect eyes or eyelids.

操作装置29は、ユーザから操作情報を受け付け、操作に応じた操作信号をCPU24に送出する。   The operation device 29 receives operation information from the user and sends an operation signal corresponding to the operation to the CPU 24.

次に、図3を参照して、ROM23に格納される固定データの例を説明する。
ROM23は、図3(a)、(b)に示すような、縦エッジ検出用と横エッジ検出用ソーベルフィルタのオペレータを格納する。縦エッジ検出用ソーベルフィルタと横エッジ検出用のソーベルフィルタとは、それぞれ、図3(c)、(d)に示すような縦方向の濃淡差、横方向の濃淡差を強調するためのオペレータである。
Next, an example of fixed data stored in the ROM 23 will be described with reference to FIG.
The ROM 23 stores operators of vertical edge detection and horizontal edge detection Sobel filters as shown in FIGS. The vertical edge detection Sobel filter and the horizontal edge detection Sobel filter are used to emphasize the vertical gray level difference and horizontal gray level difference as shown in FIGS. An operator.

以下、図4から図19を参照して、上記構成を有する本実施形態に係る目検出装置50が、カメラ10により取得されたドライバーの顔画像から顔の特徴点として上下瞼を抽出する動作を説明する。   Hereinafter, referring to FIG. 4 to FIG. 19, the eye detection device 50 according to the present embodiment having the above configuration extracts an upper and lower eyelid as a facial feature point from the driver's face image acquired by the camera 10. explain.

まず、本実施形態の目検出装置50が上下瞼を抽出する動作の概要について説明する。
本実施形態では、車両を運転するドライバーの顔動画像の内から、顔の特徴点として上下瞼の候補となるエッジラインを抽出する。
First, the outline | summary of the operation | movement which the eye detection apparatus 50 of this embodiment extracts an upper and lower eyelid is demonstrated.
In the present embodiment, edge lines that are candidates for upper and lower eyelids are extracted as facial feature points from a face moving image of a driver driving a vehicle.

ここで、エッジラインを抽出する前に、図3(a)、(b)に示したソーベルフィルタにより顔画像の階調の変化の割合が抽出されるように顔画像を処理する。
なお、以下では、図3(a)の横エッジ検出用ソーベルフィルタにより横エッジを強調する処理の施された顔画像を「横ソーベル画像」と呼び、図3(b)の縦エッジ検出用ソーベルフィルタにより縦エッジを強調する処理が施された顔画像を「縦ソーベル画像」と呼ぶ。また、横ソーベル画像と縦ソーベル画像とをあわせて、「ソーベル画像」と呼ぶ。
Here, before extracting the edge line, the face image is processed so that the change rate of the gradation of the face image is extracted by the Sobel filter shown in FIGS.
In the following description, the face image that has been subjected to the process of enhancing the horizontal edge by the horizontal edge detection Sobel filter in FIG. 3A is referred to as a “horizontal Sobel image” and is used for vertical edge detection in FIG. A face image that has been subjected to processing for enhancing a vertical edge by a Sobel filter is referred to as a “vertical Sobel image”. Further, the horizontal and vertical sobel images are collectively referred to as a “sobel image”.

次に、顔画像に基づいて、顔の中心を通る縦のラインである顔の中心線を求め、顔の中心線の座標と、顔の左右端の座標とに基づいて、顔の向きが鼻の両孔が検出できる程度であるかどうかを判別する。顔の向きが鼻の両孔が検出できる程度でなければ、前処理に戻って処理をやり直す。   Next, the face center line, which is a vertical line passing through the center of the face, is obtained based on the face image, and the face orientation is the nose based on the coordinates of the face center line and the coordinates of the left and right edges of the face. It is determined whether or not both holes are detectable. If the orientation of the face is not such that both nostrils of the nose can be detected, the process returns to the preprocessing and the processing is repeated.

次に、横ソーベル画像に基づいて、眼(瞼)の直下を通るライン(目(瞼)の直下の位置)の候補となるライン(目下候補ライン)を抽出し、目下候補ラインの近傍で鼻孔が検出できるか否かを判別する。鼻孔が検出できたら、鼻孔の直上(鼻孔の上に位置する目下候補ラインのうち、鼻孔に最も近いもの)にある目下候補ラインを、眼(瞼)の直下を通るライン(目下ライン)として抽出する。   Next, based on the horizontal Sobel image, a line (current candidate line) that is a candidate for a line that passes directly under the eye (瞼) (a position immediately under the eye (瞼)) is extracted, and a nostril is located near the current candidate line. Whether or not can be detected. If the nostril can be detected, the current candidate line immediately above the nostril (the closest candidate line located above the nostril to the nostril) is extracted as a line (current line) that passes directly under the eye (瞼). To do.

次に、横ソーベル画像の目下ラインの近傍を含む領域内からエッジラインを抽出し、上下瞼の候補になる各エッジラインの内で所定の条件を満たすエッジラインを、上下瞼を構成する組の候補として抽出する。
上下瞼の候補になる各エッジラインの、上瞼と下瞼との重心間の距離を示す瞼開度と、瞼開度が得られた時の時刻と、を対応付けた瞼開度時系列情報を生成し、瞼開度時系列情報が所定の条件に合致したエッジラインを正しい上下瞼として抽出する。
Next, edge lines are extracted from the region including the vicinity of the current line of the horizontal Sobel image, and among the edge lines that are candidates for the upper and lower eyelids, the edge lines that satisfy a predetermined condition are formed into a set of upper and lower eyelids. Extract as a candidate.
瞼 Opening time series that correlates the heel opening indicating the distance between the center of gravity of the upper heel and the lower heel, and the time when the heel opening was obtained, for each edge line that is a candidate for the upper and lower heels Information is generated, and edge lines whose heel opening time-series information matches a predetermined condition are extracted as correct upper and lower eyelids.

以下、本実施形態の目検出装置50が上下瞼を抽出する動作について、詳細に説明する。
電源が投入されると、コンピュータ14内のCPU24は、図4に示す瞼検出処理を繰り返して実行する。
すなわち、CPU24は、前処理(ステップS01)、顔位置・目下候補判別処理(ステップS02)、顔向き判別処理(ステップS03)、目下候補検索処理(ステップS04)、鼻孔検出処理(ステップS05)、上下瞼判別処理(ステップS06)、から構成される瞼検出処理を繰り返して実行する。
Hereinafter, the operation in which the eye detection device 50 of the present embodiment extracts the upper and lower eyelids will be described in detail.
When the power is turned on, the CPU 24 in the computer 14 repeatedly executes the wrinkle detection process shown in FIG.
That is, the CPU 24 performs pre-processing (step S01), face position / current candidate determination process (step S02), face orientation determination process (step S03), current candidate search process (step S04), nostril detection process (step S05), The wrinkle detection process including the upper / lower wrinkle determination process (step S06) is repeatedly executed.

図4に示す前処理(ステップS01)と顔位置判別処理(ステップS02)とは、ドライバーの左右方向および上下方向の顔の位置(座標)を求めるための処理である。   The preprocessing (step S01) and face position determination processing (step S02) shown in FIG. 4 are processes for obtaining the position (coordinates) of the face in the left and right direction and the up and down direction of the driver.

顔向き判別処理(ステップS03)は、ドライバーの顔の左右の向きを判別するための処理である。
目下候補検索処理(ステップS04)は、ドライバーの眼(瞼)の直下を通るラインの候補となるライン(目下候補ライン)を検索する処理である。
鼻孔検出処理(ステップS05)は、目下候補ラインの近傍にあるドライバーの鼻孔に相当する画像を検出するための処理である。
The face orientation determination process (step S03) is a process for determining the left and right orientations of the driver's face.
The current candidate search process (step S04) is a process of searching for a line (current candidate line) that is a candidate for a line that passes directly under the driver's eye (eyelid).
The nostril detection process (step S05) is a process for detecting an image corresponding to the driver's nostril near the current candidate line.

上下瞼判別処理(ステップS06)は、ドライバーの鼻孔の位置に基づいて、上下瞼を探索する探索範囲を示す顔上部領域Aを設定し、顔上部領域A内のソーベル画像から上瞼に対応するエッジラインの候補および下瞼に対応するエッジラインの候補となるエッジライン(群)の抽出を行い、上下瞼の候補となるエッジラインの内で上下瞼の重心が移動する態様から瞼開度を算出し、瞼開度が所定の条件を満たす上下瞼候補のエッジラインを本物の瞼であると判定するための処理である。   The upper / lower eyelid determination process (step S06) sets an upper face area A indicating a search range for searching for upper and lower eyelids based on the position of the driver's nostril, and corresponds to the upper eyelid from the Sobel image in the upper face area A. Edge line candidates and edge line candidates corresponding to the lower eyelid are extracted, and the eyelid opening is determined from the manner in which the center of gravity of the upper and lower eyelids moves within the edge lines that are candidates for the upper and lower eyelids. This is a process for calculating and determining that the edge line of the upper and lower eyelid candidates satisfying a predetermined condition for the eyelid opening is a genuine eyelid.

以下、ステップS01〜S06までの各ステップにおいて実行される動作について詳細に説明する。   Hereinafter, the operation executed in each step from Step S01 to S06 will be described in detail.

まず、前処理(ステップS01)について説明する。
前処理(ステップS01)は、図5に示すように、キャプチャ処理(ステップS011)と、座標変換処理(ステップS012)と、横ソーベルフィルタ処理(ステップS013)と、縦ソーベルフィルタ処理(ステップS014)と、から構成される。
First, the preprocessing (step S01) will be described.
As shown in FIG. 5, the preprocessing (step S01) includes a capture process (step S011), a coordinate conversion process (step S012), a horizontal sobel filter process (step S013), and a vertical sobel filter process (step S014).

キャプチャ処理(ステップS011)は、CPU24がカメラ10の撮影したドライバーの1フレーム(1/30秒)分の顔画像をA/D変換器21を介して取り込み、画像メモリ22に格納する処理である。   The capture process (step S011) is a process in which the CPU 24 captures a face image for one frame (1/30 second) of the driver photographed by the camera 10 via the A / D converter 21 and stores it in the image memory 22. .

座標変換処理(ステップS012)は、CPU24が処理可能な程度に画素を間引く処理である。   The coordinate conversion process (step S012) is a process of thinning out pixels to the extent that the CPU 24 can process.

横ソーベルフィルタ処理(ステップS013)は、CPU24がROM23に格納されている横エッジ検出用ソーベルフィルタ(図3(a))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調する処理を施したものを、RAM25に格納する処理である。
縦ソーベルフィルタ処理(ステップS014)は、CPU24がROM23に格納されている縦エッジ検出用ソーベルフィルタ(図3(b))を用いて座標変換後の顔画像を処理して、顔画像内の縦エッジを強調する処理を施したものを、RAM25に格納する処理である。
In the horizontal Sobel filter process (step S013), the CPU 24 processes the face image after coordinate conversion using the horizontal edge detection Sobel filter (FIG. 3A) stored in the ROM 23, and the inside of the face image is processed. This is a process of storing in the RAM 25 what has been subjected to the process of emphasizing the horizontal edges.
In the vertical sobel filter processing (step S014), the CPU 24 processes the face image after the coordinate conversion using the vertical edge detection sobel filter (FIG. 3B) stored in the ROM 23, and the inside of the face image is processed. This is a process of storing in the RAM 25 what has been subjected to the process of enhancing the vertical edges.

なお、ソーベルフィルタの処理動作について、より具体的に説明する。
前提として、顔画像を構成する各画素は、RGBの各色が8ビットの階調を有するように設定されており、第0階調〜第255階調の256階調の内いずれかの階調を有するものとする。第0階調は黒、第255階調は白である。
The processing operation of the Sobel filter will be described more specifically.
As a premise, each pixel constituting the face image is set so that each RGB color has an 8-bit gradation, and any one of 256 gradations from the 0th gradation to the 255th gradation is provided. It shall have. The 0th gradation is black and the 255th gradation is white.

CPU24は、カメラ10により取得された顔画像から1つの画素を抽出する。抽出した画素を、図3(a)または(b)の3×3行列の中心に対応させて、抽出した画素の階調とその画素に隣接する全ての画素が有する各階調とに、図3(a)または(b)に示されるオペレータに対応する値をそれぞれ乗算する。
CPU24は、乗算して得られた値を全て合計して、その合計値を抽出した当該画素の階調に設定する。以下、図3(a)または(b)のオペレータによる操作後に各画素の階調として設定された値を「階調値」と呼ぶ。
これらの操作を順次繰り返して顔画像全体に施すことにより、該顔画像の階調の変化の割合(階調の横方向または縦方向の微分)を示すソーベル画像が抽出される。
The CPU 24 extracts one pixel from the face image acquired by the camera 10. The extracted pixel is made to correspond to the center of the 3 × 3 matrix in FIG. 3A or 3B, and the gradation of the extracted pixel and each gradation of all the pixels adjacent to the pixel are changed to FIG. The values corresponding to the operators shown in (a) or (b) are respectively multiplied.
The CPU 24 adds up all the values obtained by multiplication and sets the total value to the gradation of the extracted pixel. Hereinafter, the value set as the gradation of each pixel after the operation by the operator in FIG. 3A or FIG. 3B is referred to as “gradation value”.
By repeating these operations in order on the entire face image, a Sobel image indicating the rate of change in gradation of the face image (the horizontal or vertical differentiation of the gradation) is extracted.

次に、顔両端位置判別処理(ステップS02)について説明する。   Next, the face end position determination process (step S02) will be described.

顔両端位置判別処理(ステップS02)は、CPU24が顔画像を図3(b)の縦エッジ検出用のオペレータで操作した縦ソーベル画像について、顔の両端を構成するラインを特定する処理であり、既知の任意の手法を採用することができる。   The face both-end position discrimination process (step S02) is a process for identifying lines constituting both ends of the face in the vertical Sobel image obtained by the CPU 24 operating the face image with the vertical edge detection operator of FIG. Any known method can be employed.

たとえば、図6に示すように、CPU24はRAM25に格納された縦ソーベル画像に基づいて、顔両端検出のために、階調値のヒストグラムの作成処理を行い、作成したヒストグラムをRAM25に格納する(ステップS021)。続いて、CPU24はこのヒストグラムのピーク値の高いものを所定数抽出して、これらピーク値の高いものをソートして(ステップS022)、ヒストグラム値に基づき、端点を抽出する(ステップS023)。たとえば、ヒストグラム値の上位1または2つが他と比較して極端に値が大きい場合、その点を端点とする。   For example, as shown in FIG. 6, the CPU 24 performs gradation value histogram creation processing for detecting both ends of the face based on the vertical Sobel image stored in the RAM 25, and stores the created histogram in the RAM 25 (see FIG. 6). Step S021). Subsequently, the CPU 24 extracts a predetermined number of high histogram peak values, sorts these high peak values (step S022), and extracts end points based on the histogram values (step S023). For example, if the top one or two of the histogram values are extremely large compared to the other, that point is taken as the end point.

次に、CPU24は端点が2つ(両端)抽出されたか否かを判別する(ステップS024)。2つ抽出されていれば(ステップS024;Yes)、CPU24は抽出した2点を顔の両端(x座標)として決定する処理を行う(ステップS026)。ここでは、顔の両端(x座標)として座標a、bが得られたものとする。
一方、端点が2つ抽出できていなければ(ステップS024;No)、CPU24は、2点の距離が、人の顔幅としてもっともらしい間隔を有する組み合わせを抽出することにより、端点を決定し(ステップS025)、最終的に、顔面の両端(x座標)を決定する処理を行う(ステップS026)。
Next, the CPU 24 determines whether or not two end points (both ends) have been extracted (step S024). If two are extracted (step S024; Yes), the CPU 24 performs a process of determining the two extracted points as both ends (x coordinates) of the face (step S026). Here, it is assumed that coordinates a and b are obtained as both ends (x coordinates) of the face.
On the other hand, if two end points have not been extracted (step S024; No), the CPU 24 determines the end points by extracting a combination in which the distance between the two points has a plausible interval as a human face width (step S24). S025) Finally, a process for determining both ends (x coordinates) of the face is performed (step S026).

CPU24は、このようにしてステップS02で求めた、顔両端(左右側端)位置(x座標)をRAM25に記憶する。
ここで、顔両端位置(x座標)をドライバーの顔画像に表した場合、図3(e)に示すように、顔の両端位置の座標a、bに対応する。
The CPU 24 stores the face end (left and right end) positions (x coordinates) obtained in step S02 in this manner in the RAM 25.
Here, when the face end position (x coordinate) is represented in the driver's face image, it corresponds to the coordinates a and b of the face end position as shown in FIG.

次に、図7に示す顔向き判別処理(ステップS03)の処理内容について説明する。顔向き判別処理(ステップS03)は、顔画像から顔の中心線Bを求め、顔の中心線Bの座標および顔両端位置判別処理(図6ステップS02)後に得られた顔の両端の位置に基づいて、顔の左右の向きが鼻の両孔を検出できる程度か否かを判別する処理である。   Next, the processing content of the face orientation determination process (step S03) shown in FIG. 7 will be described. In the face orientation determination process (step S03), the face center line B is obtained from the face image, and the coordinates of the face center line B and the positions of both ends of the face obtained after the face end position determination process (step S02 in FIG. 6) are obtained. Based on this, it is a process for determining whether or not the left and right orientations of the face are such that both nostrils of the nose can be detected.

縦線である(y軸に平行な)顔の中心線Bの算出手法自体は任意であるが、本実施形態においては、CPU24は、次式から顔のx軸方向の中心(重心)位置の座標を求め、当該重心位置を通る縦線を顔の中心線Bとして算出する。
顔の中心のx座標=Σ(xi・Gi)/ΣGi
xi:i番目の画素のx座標の値
Gi:i番目の画素の階調値
i:1〜n (nは画素の総数)
The method of calculating the center line B of the face (parallel to the y-axis) that is a vertical line is arbitrary, but in this embodiment, the CPU 24 calculates the center (center of gravity) position of the face in the x-axis direction from the following equation. The coordinates are obtained, and the vertical line passing through the center of gravity is calculated as the center line B of the face.
X coordinate of the center of the face = Σ (xi · Gi) / ΣGi
xi: x-coordinate value of the i-th pixel Gi: gradation value of the i-th pixel i: 1 to n (n is the total number of pixels)

CPU24は、顔の中心線Bを算出すると(ステップS031)、ドライバーが正面を向いているか否かを判別するために、顔両端検出処理(図6ステップS02)で算出した顔両端位置(x座標)a、bをRAM25から読み出す。   When calculating the center line B of the face (step S031), the CPU 24 determines the face end position (x-coordinate) calculated by the face end detection process (step S02 in FIG. 6) to determine whether or not the driver is facing the front. A) b is read from the RAM 25.

CPU24は、ドライバーの顔が右方向を向いているか否かを顔中心線Bのx座標が(a+b)/2−Dthより小さいか否かにより判別する(ステップS032)。ここで、(a+b)/2は左右両端位置の中心であり、DthはROM23に格納される顔向き方向の閾値である。すなわち、図8に示すように、ドライバーの顔が左右両端の中心から少しずれていても(この場合、顔が少し右を向いていても)、顔の右向きの程度が両鼻孔の検出に問題がない範囲であれば、ステップS05の鼻孔検出処理を行うというものである。
なお、顔向き方向の閾値DthはRAM25や設定メモリ28に格納されてもよい。また、顔向き方向の閾値Dthは、任意の値をとってもよい。
The CPU 24 determines whether or not the driver's face is facing right depending on whether or not the x coordinate of the face center line B is smaller than (a + b) / 2−Dth (step S032). Here, (a + b) / 2 is the center of the left and right end positions, and Dth is a threshold value in the face direction stored in the ROM 23. That is, as shown in FIG. 8, even if the driver's face is slightly shifted from the center of the left and right ends (in this case, the face is slightly facing the right), the degree of the right direction of the face is a problem in detecting both nostrils. If there is no range, the nostril detection process of step S05 is performed.
The face direction threshold Dth may be stored in the RAM 25 or the setting memory 28. Further, the threshold value Dth in the face direction may take an arbitrary value.

顔中心線Bのx座標の値が(a+b)/2−Dthより小さい場合(ステップS032;Yes)、CPU24は、図7に示すように顔は右方向を向いていると判別して、処理を前処理(ステップS01)に移す。
一方、顔中心線Bのx座標の値が(a+b)/2−Dthより小さくない場合(ステップS032;No)、CPU24は、ドライバーの顔が左方向を向いているか否かを、顔中心線Bのx座標が(a+b)/2+Dthより大きいか否かにより判別する(ステップS033)。すなわち、ドライバーの顔が少し左を向いていても、顔の左向きの程度が両鼻孔の検出に問題がない範囲であれば、ステップS05の鼻孔検出処理を行うというものである。
When the value of the x coordinate of the face center line B is smaller than (a + b) / 2−Dth (step S032; Yes), the CPU 24 determines that the face is facing right as shown in FIG. Is moved to pre-processing (step S01).
On the other hand, when the value of the x coordinate of the face center line B is not smaller than (a + b) / 2−Dth (step S032; No), the CPU 24 determines whether or not the driver's face is facing leftward. It is determined whether or not the x coordinate of B is greater than (a + b) / 2 + Dth (step S033). In other words, even if the driver's face is facing slightly to the left, the nostril detection process in step S05 is performed if the leftward degree of the face is within the range where there is no problem in detecting both nostrils.

顔中心線Bのx座標の値が(a+b)/2+Dthより大きい場合(ステップS033;Yes)、CPU24は、ドライバーの顔が左方向を向いていると判別して、処理を前処理(ステップS01)に移す。
顔中心線Bのx座標の値が(a+b)/2+Dthより大きくない場合(ステップS033;No)、CPU24は、処理を目下候補検出処理(ステップS04)に移す。
When the value of the x coordinate of the face center line B is larger than (a + b) / 2 + Dth (step S033; Yes), the CPU 24 determines that the driver's face is facing left and preprocesses the process (step S01). ).
When the value of the x coordinate of the face center line B is not larger than (a + b) / 2 + Dth (step S033; No), the CPU 24 shifts the processing to the current candidate detection processing (step S04).

次に、図9に示す目下候補検出処理(ステップS04)について説明する。
目下候補検出処理(ステップS04)は、ヒストグラム値に基づいて、CPU24が眼(瞼)に対応するヒストグラム値の候補を選択する処理である。
Next, the current candidate detection process (step S04) shown in FIG. 9 will be described.
The current candidate detection process (step S04) is a process in which the CPU 24 selects a histogram value candidate corresponding to the eye (eyelid) based on the histogram value.

CPU24は、RAM25に格納されている横ソーベル画像に基づいて、横方向の階調値のヒストグラムを作成する(ステップS041)。そのヒストグラムに基づいて、ヒストグラム値が高く、かつヒストグラムのピーク値が連続しているラインの縦の座標(y座標)をRAM25に記憶させる(ステップS042)。   The CPU 24 creates a histogram of gradation values in the horizontal direction based on the horizontal Sobel image stored in the RAM 25 (step S041). Based on the histogram, the vertical coordinate (y coordinate) of a line having a high histogram value and a continuous peak value of the histogram is stored in the RAM 25 (step S042).

図10は、顔画像、および横方向のヒストグラムのピーク値(右側の三角線)を示したものである。ピーク値は三角の頂点に対応し、その頂点が左側にあるほどピーク値が大きい。図10に示すように、ヒストグラム値が高く、かつヒストグラムのピーク値が連続しているラインは、たとえば、上方からそれぞれ、顔の上端(頭頂部)を通るライン(図10(g))、頭髪と皮膚との境目を通るライン(図10(f))、眉を通るライン(図10(e))、眼(瞼)の直下を通るライン(図10(d))、鼻孔直下を通るライン(図10(c))、口の直下を通るライン(図10(b))、顔の下端(顎部)を通るライン(図10(a))、と7つある。   FIG. 10 shows the face image and the peak value of the histogram in the horizontal direction (right triangle line). The peak value corresponds to a triangular vertex, and the peak value is larger as the vertex is on the left side. As shown in FIG. 10, the lines with high histogram values and continuous peak values of the histogram are, for example, lines (FIG. 10 (g)) passing through the upper end (the top of the head) of the face from above, and the hair. A line that passes through the boundary between the skin and the skin (Fig. 10 (f)), a line that passes through the eyebrows (Fig. 10 (e)), a line that passes directly under the eye (瞼) (Fig. 10 (d)), and a line that passes directly under the nostril There are seven lines (FIG. 10 (c)), a line passing directly under the mouth (FIG. 10 (b)), and a line passing through the lower end (chin) of the face (FIG. 10 (a)).

CPU24は、これらのラインを所定数検出し、検出したラインのヒストグラムのピーク値に基づいてソートして(ステップS043)、検出したラインのうち所定数を目下候補のライン(眼(瞼)の直下を通るラインの候補)としてRAM25に記憶する(ステップS044)。たとえば、図10の場合、ヒストグラム値の高い4つのライン(たとえば、図10(c)(d)(e)(f))を目下候補のラインとして記憶する。   The CPU 24 detects a predetermined number of these lines, sorts them based on the peak value of the histogram of the detected lines (step S043), and selects a predetermined number of the detected lines as a candidate line immediately below the eye (eye). Are stored in the RAM 25 as candidates for a line passing through (step S044). For example, in the case of FIG. 10, four lines having high histogram values (for example, FIGS. 10C, 10D, 10E, and 10F) are stored as current candidate lines.

次に、図11に示す鼻孔検出処理(ステップS05)の処理内容について説明する。
鼻孔検出処理は、ステップS04において記憶された目下候補のラインの近傍に位置する鼻孔をソーベル画像から検出し、眼(瞼)の直下を通る目下ラインを決定し出力する処理である。
本実施形態における鼻孔検出処理(ステップS05)では、縦方向および横方向の大きさが共に3〜5画素である画素領域を鼻孔の候補であると判別する。なお、当該画素領域の範囲は任意に定めてよい。
Next, the contents of the nostril detection process (step S05) shown in FIG. 11 will be described.
The nostril detection process is a process for detecting a nostril located in the vicinity of the current candidate line stored in step S04 from the Sobel image, and determining and outputting the current line passing directly under the eye (eyelid).
In the nostril detection processing (step S05) in the present embodiment, a pixel region having both vertical and horizontal sizes of 3 to 5 pixels is determined as a nostril candidate. Note that the range of the pixel region may be arbitrarily determined.

鼻孔検出処理(ステップS05)は、図11に示すように、鼻孔探索領域の抽出処理(ステップS051)と、鼻孔探索領域の絞り込み処理(ステップS052)と、縦方向画素列抽出処理(ステップS053)と、横方向画素列抽出処理(ステップS054)と、鼻孔決定処理(ステップS055)と、目下ライン記憶処理(ステップS056)と、から構成される。   As shown in FIG. 11, the nostril detection process (step S05) includes a nostril search area extraction process (step S051), a nostril search area narrowing process (step S052), and a vertical pixel string extraction process (step S053). And a horizontal pixel row extraction process (step S054), a nostril determination process (step S055), and a current line storage process (step S056).

鼻孔探索領域の抽出処理(ステップS051)において、CPU24は、顔画像を画像メモリ22から読み出し、顔両端検出処理(図6ステップS021)で算出した顔両端位置(x座標)a、bをRAM25から読み出し、目下候補検出処理(図4ステップS04)において検出した目下候補のラインのy座標をRAM25から読み出して、読み出した顔画像のうち、a≦x≦b、ymin≦y≦ymax(yminは目下候補のラインの中でもっとも小さいy座標の値、ymaxは目下候補のラインの中でもっとも大きいy座標の値)となる領域を切り出す。たとえば、図10の場合、yminは図10(c)のy座標の値となる。   In the nostril search region extraction process (step S051), the CPU 24 reads the face image from the image memory 22, and calculates the face end position (x coordinate) a and b calculated in the face end detection process (step S021 in FIG. 6) from the RAM 25. The y-coordinate of the current candidate line detected in the reading and current candidate detection processing (step S04 in FIG. 4) is read from the RAM 25, and a ≦ x ≦ b, ymin ≦ y ≦ ymax (ymin is currently present) among the read face images. The region having the smallest y-coordinate value among the candidate lines and ymax being the largest y-coordinate value among the current candidate lines) is cut out. For example, in the case of FIG. 10, ymin is the value of the y coordinate in FIG.

続いて、CPU24は、ステップS051で鼻孔を探索する領域(鼻孔探索領域)を絞り込む(ステップS052)。鼻孔探索領域を絞り込む方法は任意である。本実施形態では、ステップS051で切り出された顔画像の領域を所定の比率で按分することによって、鼻孔探索領域を図12に示す太線内の領域と設定する。   Subsequently, the CPU 24 narrows down a region for searching for a nostril (a nostril search region) in step S051 (step S052). A method for narrowing down the nostril search region is arbitrary. In the present embodiment, the nostril search area is set as the area within the bold line shown in FIG. 12 by apportioning the face image area cut out in step S051 at a predetermined ratio.

縦方向画素列抽出処理(ステップS053)は、図13に示すように、CPU24が鼻孔探索領域内の二値化画像の画素をy方向に走査して、鼻孔の候補となる画素列を抽出する処理である。
ステップS052で絞り込まれた鼻孔探索領域から鼻孔の候補となる画像を抽出するための起点として、処理対象の画素(x,y)を初期値の(x0,y0)に設定する(ステップS0531)。ここで、x0は鼻孔探索領域の左下の頂点のx座標の値、y0は鼻孔探索領域の左下の頂点のy座標の値である。
In the vertical direction pixel row extraction process (step S053), as shown in FIG. 13, the CPU 24 scans the pixels of the binarized image in the nostril search area in the y direction, and extracts pixel rows that are nostril candidates. It is processing.
The pixel (x, y) to be processed is set to the initial value (x0, y0) as a starting point for extracting a nostril candidate image from the nostril search area narrowed down in step S052 (step S0531). Here, x0 is the value of the x coordinate of the lower left vertex of the nostril search area, and y0 is the value of the y coordinate of the lower left vertex of the nostril search area.

CPU24は、画素(x,y)のy座標値を1ずつインクリメントしながら、y方向へ走査を行い、階調値が第0〜第10階調(黒、または、ほぼ黒)が縦方向に連続する画素列の座標を、RAM25に記憶する(ステップS0532)。ここで、第0〜第10階調の画素をカウントしているのは、鼻孔の階調値が第0〜第10階調の画素であるとしていることによる。なお、鼻孔として、任意の階調値の画素をカウントしてもよい。   The CPU 24 performs scanning in the y direction while incrementing the y coordinate value of the pixel (x, y) by one, and the gradation value is in the vertical direction from the 0th to 10th gradations (black or almost black). The coordinates of successive pixel rows are stored in the RAM 25 (step S0532). Here, the reason why the pixels of the 0th to 10th gradations are counted is that the gradation values of the nostrils are the pixels of the 0th to 10th gradations. In addition, you may count the pixel of arbitrary gradation values as a nostril.

CPU24は、走査が完了すると、画素の階調値が第0〜第10階調である画素列のうち、縦方向に連続する3〜5画素からなる(鼻孔の画素数は3〜5画素とする)画素列があるか否かを判別する(ステップS0533)。そのような画素列があれば(ステップS0533;Yes)、その画素列の座標をRAM25に記憶する(ステップS0534)。
これにより、鼻孔の特徴点を構成する候補となる、縦方向の連続数が3〜5である黒の画素列が抽出される。
When the scanning is completed, the CPU 24 is composed of 3 to 5 pixels that are continuous in the vertical direction in the pixel row whose pixel gradation values are the 0th to 10th gradations (the number of the nostrils is 3 to 5 pixels). It is determined whether there is a pixel column (step S 0533). If there is such a pixel column (step S 0533; Yes), the coordinates of the pixel column are stored in the RAM 25 (step S 0534).
As a result, black pixel rows having 3 to 5 in the vertical direction that are candidates for configuring the nostril feature points are extracted.

画素の階調値が第0〜第10階調である画素列のうち、縦方向に連続する3〜5画素からなる画素列がないならば(ステップS0533;No)、処理をステップS0535に進める。   If there is no pixel column composed of 3 to 5 pixels continuous in the vertical direction among the pixel columns having the gradation values of the 0th to 10th gradations (step S0533; No), the process proceeds to step S0535. .

続いて、CPU24は、画素(x,y)のx座標を1インクリメントし、y座標を初期値(=y0)として、次のラインの走査をするための準備をする(ステップS0535)。   Subsequently, the CPU 24 increments the x coordinate of the pixel (x, y) by 1, and prepares to scan the next line with the y coordinate as an initial value (= y0) (step S0535).

CPU24は、ステップS0545の処理が終わると、鼻孔探索領域の全てにおいて走査が終わったか否かを判別する(ステップS0536)。走査が終わったならば(ステップS0536;Yes)、CPU24は、その後、処理を横方向画素列抽出処理(ステップS054)に移し、そうでなければ(ステップS0536;No)、走査が完了していないものとしてステップS0532へ処理を移す。   When the process of step S0545 ends, the CPU 24 determines whether scanning has been completed in all the nostril search areas (step S0536). If the scanning is finished (step S0536; Yes), the CPU 24 then moves the process to a horizontal pixel row extraction process (step S054). Otherwise (step S0536; No), the scanning is not completed. As a result, the process moves to a step S0532.

横方向画素列抽出処理(ステップS054)は、縦方向画素列抽出処理(ステップS053)と同様の動作により、ステップS053で絞り込んだ鼻孔探索領域内の二値化画像から、鼻孔の候補となる画像として、横方向の連続数が3〜5の大きさを有する階調値が第0〜第10階調の画素列を検出する処理である。   The horizontal pixel row extraction process (step S054) is a nostril candidate image from the binarized image in the nostril search area narrowed down in step S053 by the same operation as the vertical pixel row extraction process (step S053). Is a process of detecting a pixel column having gradation values of 0th to 10th gradations having a magnitude of 3 to 5 in the horizontal direction.

横方向の画素列を検出する手法自体は任意であるが、図14に示す方法が利用できる。図14の横方向画素列抽出処理(ステップS054)は、鼻孔探索領域の画素をx方向に走査する点を除けば、図13の縦方向画素列抽出処理(ステップS053)と基本的に同一である。   Although the method itself for detecting the pixel rows in the horizontal direction is arbitrary, the method shown in FIG. 14 can be used. The horizontal pixel row extraction process (step S054) in FIG. 14 is basically the same as the vertical pixel row extraction process (step S053) in FIG. 13 except that the pixels in the nostril search region are scanned in the x direction. is there.

まず、CPU24は、ステップS052で絞り込まれた鼻孔探索領域から鼻孔の候補となる画像を抽出するための起点として、処理対象の画素(x,y)を初期値の(x0,y0)に設定する(ステップS0541)。ここで、x0は鼻孔探索領域の左下の頂点のx座標の値、y0は鼻孔探索領域の左下の頂点のy座標の値である。   First, the CPU 24 sets the processing target pixel (x, y) to an initial value (x0, y0) as a starting point for extracting a nostril candidate image from the nostril search region narrowed down in step S052. (Step S0541). Here, x0 is the value of the x coordinate of the lower left vertex of the nostril search area, and y0 is the value of the y coordinate of the lower left vertex of the nostril search area.

CPU24は、画素(x,y)のx座標値を1ずつインクリメントしながら、x方向へ走査を行い、階調値が第0〜第10階調(黒、または、ほぼ黒)が縦方向に連続する画素列の座標を、RAM25に格納する(ステップS0542)。ここで、第0〜第10階調の画素をカウントしているのは、鼻孔の階調値が第0〜第10階調の画素であるとしていることによる。なお、鼻孔として、任意の階調値の画素をカウントしてもよい。   The CPU 24 performs scanning in the x direction while incrementing the x coordinate value of the pixel (x, y) by 1, and the gradation value is in the vertical direction from the 0th to 10th gradations (black or almost black). The coordinates of successive pixel rows are stored in the RAM 25 (step S0542). Here, the reason why the pixels of the 0th to 10th gradations are counted is that the gradation values of the nostrils are the pixels of the 0th to 10th gradations. In addition, you may count the pixel of arbitrary gradation values as a nostril.

CPU24は、走査が完了すると、画素の階調値が第0〜第10階調である画素列のうち、横方向に連続する3〜5画素からなる(鼻孔の画素数は3〜5画素とする)画素列があるか否かを判別する(ステップS0543)。そのような画素列があれば(ステップS0543;Yes)、その画素列の座標をRAM25に記憶する(ステップS0544)。
これにより、鼻孔の特徴点を構成する候補となる、横方向の連続数が3〜5である黒の画素列が抽出される。
When the scanning is completed, the CPU 24 is composed of 3 to 5 pixels that are continuous in the horizontal direction in the pixel row whose pixel gradation values are the 0th to 10th gradations (the number of the nostrils is 3 to 5 pixels). It is determined whether or not there is a pixel row (step S0543). If there is such a pixel column (step S0543; Yes), the coordinates of the pixel column are stored in the RAM 25 (step S0544).
As a result, a black pixel row having 3 to 5 in the horizontal direction, which is a candidate constituting the nostril feature point, is extracted.

画素の階調値が第0〜第10階調である画素列のうち、横方向に連続する3〜5画素からなる画素列がないならば(ステップS0543;No)、処理をステップS0545に進める。   If there is no pixel column composed of 3 to 5 pixels continuous in the horizontal direction among the pixel columns having the gradation values of the 0th to 10th gradations (step S0543; No), the process proceeds to step S0545. .

続いて、CPU24は、画素(x,y)のy座標を1インクリメントし、x座標を初期値(=x0)として、次のラインの走査をするための準備をする(ステップS0545)。   Subsequently, the CPU 24 increments the y coordinate of the pixel (x, y) by 1, sets the x coordinate to an initial value (= x0), and prepares to scan the next line (step S0545).

CPU24は、ステップS0545の処理が終わると、鼻孔探索領域の全てにおいて走査が終わったか否かを判別する(ステップS0546)。走査が終わったならば(ステップS0546;Yes)、CPU24は、その後、処理を鼻孔決定処理(ステップS055)に移し、そうでなければ(ステップS0546;No)、走査が完了していないものとしてステップS0542へ処理を移す。   When the process of step S0545 ends, the CPU 24 determines whether the scanning has been completed in all the nostril search areas (step S0546). If the scanning is finished (step S0546; Yes), the CPU 24 then moves the process to the nostril determination processing (step S055), and if not (step S0546; No), the step is assumed that the scanning is not completed. The process moves to S0542.

鼻孔決定処理(ステップS055)は、図11、及び、図15に示すように、縦方向画素列抽出処理(ステップS053)および横方向画素列抽出処理(ステップS054)完了後、ステップS052にて絞り込んだ鼻孔探索領域内の画像に、両鼻孔が正しい位置に検出されているかを決定する処理である。   As shown in FIGS. 11 and 15, the nostril determination process (step S055) is narrowed down in step S052 after the vertical pixel string extraction process (step S053) and the horizontal pixel string extraction process (step S054) are completed. This is a process for determining whether both nostrils are detected in the correct position in the image in the nostril search region.

まず、CPU24は、縦方向および横方向の連続数が共に3〜5である第0〜10階調の画素領域を求め(ステップS0551)、その領域があるか否かを判別する(ステップS0552)。存在すると判別した場合は(ステップS0552;Yes)、その画素領域が鼻孔の候補となる画素領域と決定し、処理をステップS0553に移す。   First, the CPU 24 obtains pixel areas of the 0th to 10th gradations in which the continuous numbers in the vertical direction and the horizontal direction are both 3 to 5 (step S0551), and determines whether or not there is the area (step S0552). . If it is determined that the pixel area exists (step S0552; Yes), the pixel area is determined to be a nostril candidate pixel area, and the process proceeds to step S0553.

鼻孔の候補となる画素領域を決定すると、次式から鼻孔の候補となる画素領域のx軸方向およびy軸方向の中心(重心)位置の座標を求める(ステップS0553)。
鼻孔の中心のx座標=Σxi・Gi/ΣGi
鼻孔の中心のy座標=Σyi・Gi/ΣGi
xi:階調値が第0〜第10階調であるi番目の鼻孔の候補の画素のx座標の値
yi:階調値が第0〜第10階調であるi番目の鼻孔の候補の画素のy座標の値
Gi:階調値が第0〜第10階調であるi番目の鼻孔の候補の画素の階調値
i:1〜n (nは階調値が第0〜第10階調である鼻孔の候補の画素の総数)
When the nostril candidate pixel area is determined, the coordinates of the center (center of gravity) position in the x-axis direction and y-axis direction of the nostril candidate pixel area are obtained from the following equation (step S0553).
X-coordinate of nostril center = Σxi · Gi / ΣGi
The y-coordinate of the center of the nostril = Σyi · Gi / ΣGi
xi: x-coordinate value of i-th nostril candidate pixel whose gradation value is 0th to 10th gradation yi: i-th nostril candidate whose gradation value is 0th to 10th gradation Y-coordinate value of pixel Gi: gradation value of candidate pixel of i-th nostril whose gradation value is 0th to 10th gradation i: 1 to n (n is gradation value 0th to 10th) The total number of nostril candidate pixels)

ステップS0553で算出した鼻孔の候補となる画素領域の内に、重心のx座標が顔中心線Bのx座標よりも小さい画素領域が存在するか否かを判別する(ステップS0554)。顔中心線Bのx座標よりも重心の座標xが小さい鼻孔の候補となる画素領域が存在すれば(ステップS0554;Yes)、その画素列を右鼻孔の候補の画素領域として抽出する(ステップS0555)。   It is determined whether or not there is a pixel area in which the x-coordinate of the center of gravity is smaller than the x-coordinate of the face center line B among the nostril candidate pixel areas calculated in step S0553 (step S0554). If there is a pixel region that is a nostril candidate whose coordinate x of the center of gravity is smaller than the x coordinate of the face center line B (step S0554; Yes), that pixel row is extracted as a right nostril candidate pixel region (step S0555). ).

CPU24は、更に、ステップS0555で抽出した右鼻孔の候補の画素領域の重心位置と顔中心線Bに対してほぼ線対称である位置に、鼻孔の候補となる画素領域(左鼻孔の候補となる画素領域)が存在するか否かを判別する(ステップS0556)。
左鼻孔の候補の画素領域が存在したときには(ステップS0556;Yes)、ステップS0555で抽出した右鼻孔の候補の画素領域と、ステップS0556で判別した左鼻孔の候補の画素領域と、が離間して存在するか否かを判別する(ステップS0557)。
The CPU 24 further selects a pixel region that becomes a nostril candidate (candidate for the left nostril) at a position that is substantially line symmetric with respect to the center of gravity position of the candidate pixel region of the right nostril extracted in step S0555 and the face center line B. It is determined whether or not a (pixel region) exists (step S0556).
When the left nostril candidate pixel area exists (step S0556; Yes), the right nostril candidate pixel area extracted in step S0555 and the left nostril candidate pixel area determined in step S0556 are separated from each other. It is determined whether or not it exists (step S0557).

ステップS0555で抽出した右鼻孔の候補の画素領域と、ステップS0556で判別された左鼻孔の候補の画素領域と、が離間して存在すれば(ステップS0557;Yes)、右鼻孔の候補となる画素領域と左鼻孔の候補となる画素領域との組み合わせを対象者の鼻孔と判別し、RAM25に格納する(ステップS0558)。   If the pixel region of the right nostril candidate extracted in step S0555 and the candidate pixel region of the left nostril determined in step S0556 are separated (step S0557; Yes), the pixel that is a candidate for the right nostril The combination of the region and the pixel region that is a candidate for the left nostril is determined as the subject's nostril and stored in the RAM 25 (step S0558).

このように、本発明の実施形態に係る目検出装置50は、鼻孔探索領域に対象者の口などが含まれている場合でも正しい両鼻孔を検出できる。
両鼻孔が検出されたことにより、CPU24は、処理を目下ライン記憶処理(ステップS057)に移す。
As described above, the eye detection device 50 according to the embodiment of the present invention can detect both correct nostrils even when the mouth of the subject is included in the nostril search area.
When both nostrils are detected, the CPU 24 moves the process to the current line storage process (step S057).

ステップS0552、S0554、S0556、S0557、における各判別条件を満たす画素領域がない場合(ステップS0552、S0554、S0556、S0557のいずれか;No)、鼻孔が正しく検出できなかったものとして、CPU24は処理を前処理(ステップS01)に戻す。   When there is no pixel region that satisfies the determination conditions in steps S0552, S0554, S0556, and S0557 (any of steps S0552, S0554, S0556, and S0557; No), the CPU 24 determines that the nostril has not been detected correctly. Return to pre-processing (step S01).

CPU24は、図4ステップS04の目下候補検索処理において検出したそれぞれの目下候補のラインをRAM25から読み出し、鼻孔探索領域を設定して以上に述べた鼻孔検出処理(図11,ステップS05)を行う。このように、顔画像全体ではなく、所定の鼻孔探索領域に限定して鼻孔検出を行うことで、鼻孔の検出を高速化することができる。また、上述のように、鼻孔の直上に位置する目下候補ラインが、眼(瞼)の直下を通るライン(目下ライン)であると判別できる。すなわち、瞼の検出領域を、鼻孔探索により判別した目下ラインに基づいて絞り込むことができ、瞼の検出を高速化することができる。   The CPU 24 reads the current candidate lines detected in the current candidate search process in step S04 in FIG. 4 from the RAM 25, sets the nostril search area, and performs the above-described nostril detection process (FIG. 11, step S05). Thus, the detection of the nostrils can be speeded up by performing the detection of the nostrils only in a predetermined nostril search region rather than the entire face image. Further, as described above, it is possible to determine that the current candidate line located immediately above the nostril is a line (current line) passing directly under the eye (eyelid). In other words, the eyelid detection area can be narrowed down based on the current line determined by the nostril search, and the speed of eyelid detection can be increased.

CPU24は、上述のように、判別した目下ラインのy座標y2(図10の場合、(d)に相当するy座標)を、RAM25に格納する(ステップS056)。   As described above, the CPU 24 stores the determined y-coordinate y2 of the current line (in FIG. 10, the y-coordinate corresponding to (d)) in the RAM 25 (step S056).

次に、図16を用いて、上下瞼判別処理(ステップS06)について説明する。   Next, the upper and lower eyelid determination processing (step S06) will be described with reference to FIG.

上下瞼判別処理(ステップS06)において、CPU24は、まず、ドライバーの上下瞼を抽出するときに探索する領域である顔上部領域Aを定める処理を実行する(ステップS061)。   In the upper / lower eyelid determination process (step S06), the CPU 24 first executes a process of determining an upper face area A that is an area to be searched when extracting the driver's upper / lower eyelids (step S061).

顔上部領域Aを設定する方法は任意である。
本実施形態では、鼻孔検出処理(図11ステップS05)により検出できた顔両端検出処理(ステップS021)で定めた顔両端位置(x座標)aおよびbや、目下ライン記憶処理(図15ステップS055)で定めた目下ラインのy座標に基づいて、顔上部領域Aを設定する。
まず、CPU24は、目下ライン記憶処理(図15ステップS055)で記憶した目下ラインのy座標y2をRAM25から読み出す。そして、y座標y2(図10の場合、(d)に相当するy座標)とy座標ymax(ymaxは目下候補のラインの中でもっとも大きいy座標の値)との間の範囲と、x座標aとx座標bとの間の範囲に含まれる領域を顔上部領域Aとして設定する(ステップS061)。
The method for setting the upper face area A is arbitrary.
In the present embodiment, the face end positions (x coordinates) a and b determined in the face end detection process (step S021) detected by the nostril detection process (step S05 in FIG. 11), and the current line storage process (step S055 in FIG. 15). The upper face area A is set on the basis of the y coordinate of the current line determined in (1).
First, the CPU 24 reads, from the RAM 25, the y coordinate y2 of the current line stored in the current line storage process (step S055 in FIG. 15). Then, a range between the y coordinate y2 (y coordinate corresponding to (d) in the case of FIG. 10) and the y coordinate ymax (ymax is the largest y coordinate value of the current candidate lines), and the x coordinate An area included in the range between a and the x coordinate b is set as the upper face area A (step S061).

すなわち、ステップS061にて設定された顔上部領域A内の画素(x,y)は、図17に示すように、a≦x≦b、y2≦y≦ymax、の範囲の座標値を有する。
これにより、顔の特徴点を示す画像を検出するときに、範囲を限定することにより、上下瞼の判別処理時間を短縮することが可能になる。
That is, the pixel (x, y) in the upper face area A set in step S061 has coordinate values in the ranges of a ≦ x ≦ b and y2 ≦ y ≦ ymax as shown in FIG.
This makes it possible to shorten the upper / lower eyelid discrimination processing time by limiting the range when detecting an image showing facial feature points.

なお、顔上部領域Aは、操作装置29を介してユーザから変更可能としてもよい。   Note that the upper face area A may be changeable by the user via the operation device 29.

CPU24は、顔上部領域A内のソーベル画像から、上下瞼の候補となるエッジラインを抽出する(ステップS062)。
ここで、顔上部領域Aは、横ソーベルフィルタ処理(図5ステップS013)が施されていることにより、図18(a)に示すように、y軸方向に輝度が明るい画素から暗い画素に移るエッジラインがマイナスエッジとして点線で表され、y軸方向に光度が暗い画素から明るい画素に移るエッジラインがプラスエッジとして実線で表されている。
The CPU 24 extracts edge lines that are candidates for upper and lower eyelids from the Sobel image in the upper face area A (step S062).
Here, the upper face area A is subjected to the horizontal Sobel filter processing (step S013 in FIG. 5), so that a pixel having a brightness in the y-axis direction is changed from a bright pixel to a dark pixel as shown in FIG. The edge line that moves is represented by a dotted line as a minus edge, and the edge line that moves from a dark pixel to a bright pixel in the y-axis direction is represented by a solid line as a plus edge.

ステップS063において、CPU24は、上記のマイナスエッジラインとプラスエッジラインとから、次の三つの数式を満たすマイナスエッジとプラスエッジの組み合わせを抽出する。   In step S063, the CPU 24 extracts a combination of a minus edge and a plus edge satisfying the following three formulas from the minus edge line and the plus edge line.

まず、CPU24は数式(1)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(1)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS063)。
|Lp−Lm|<Lth・・・(1)
ただし、Lpはプラスエッジの長さを表す値であり、Lmはマイナスエッジの長さを表す値であり、Lthは閾値である。数式(1)を満たすマイナスエッジとプラスエッジとの長さは閾値Lthの範囲で近似している。
First, the CPU 24 determines whether or not there is a combination of a minus edge and a plus edge that satisfies Expression (1), and extracts a combination of a minus edge and a plus edge that satisfies Expression (1) (Step S063).
| Lp−Lm | <Lth (1)
However, Lp is a value representing the length of the plus edge, Lm is a value representing the length of the minus edge, and Lth is a threshold value. The lengths of the minus edge and the plus edge that satisfy Equation (1) are approximated within the range of the threshold value Lth.

また、CPU24は数式(2)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(2)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS064)。
|Cxp−Cxm|<Cxth・・・(2)
ただし、Cxpはプラスエッジの重心のx座標、Cxmはマイナスエッジの重心のx座標、Cxthは閾値、である。数式(2)を満たすマイナスエッジとプラスエッジとの重心のx座標は閾値Cxthの範囲で近似している。
Further, the CPU 24 determines whether or not there is a combination of a minus edge and a plus edge that satisfies Expression (2), and extracts a combination of a minus edge and a plus edge that satisfies Expression (2) (Step S064).
| Cxp−Cxm | <Cxth (2)
Where Cxp is the x coordinate of the centroid of the plus edge, Cxm is the x coordinate of the centroid of the minus edge, and Cxth is a threshold value. The x-coordinates of the centroids of the minus edge and the plus edge that satisfy Equation (2) are approximated within the range of the threshold value Cxth.

更に、CPU24は数式(3)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(3)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS065)。
Dg<Dth・・・(3)
ただし、Dgはマイナスエッジの重心とプラスエッジの重心との間の距離であり、Dthは閾値である。数式(3)を満たすマイナスエッジとプラスエッジとの重心間距離は閾値Dth以内である。
Further, the CPU 24 determines whether or not there is a combination of a minus edge and a plus edge that satisfies Expression (3), and extracts a combination of a minus edge and a plus edge that satisfies Expression (3) (Step S065).
Dg <Dth (3)
However, Dg is the distance between the centroid of the minus edge and the centroid of the plus edge, and Dth is a threshold value. The distance between the centroids of the minus edge and the plus edge satisfying Expression (3) is within the threshold value Dth.

つまり、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせは、ある程度、長さが等しく、位置が近く、重心のx座標が一致しているマイナスエッジとプラスエッジの組み合わせである。
図18(a)の内から、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせを対象者の瞼の候補として抽出する。このとき、プラスエッジPE1とマイナスエッジME1との組み合わせが候補1、プラスエッジPE2とマイナスエッジME2との組み合わせが候補2、プラスエッジPE3とマイナスエッジME3との組み合わせが候補3、プラスエッジPE4とマイナスエッジME4との組み合わせが候補4、となる。
That is, a combination of a minus edge and a plus edge satisfying the mathematical expressions (1) to (3) is a combination of a minus edge and a plus edge that are somewhat equal in length, close in position, and have the same x-coordinate of the center of gravity. .
From FIG. 18A, a combination of a minus edge and a plus edge satisfying the mathematical formulas (1) to (3) is extracted as a candidate for the target person's eyelid. At this time, the combination of plus edge PE1 and minus edge ME1 is candidate 1, the combination of plus edge PE2 and minus edge ME2 is candidate 2, the combination of plus edge PE3 and minus edge ME3 is candidate 3, and plus edge PE4 and minus A combination with the edge ME4 is a candidate 4.

そして、目検出装置50は、候補1〜4について、マイナスエッジの重心とプラスエッジの重心との間の距離Dgの時間軸に対する変化を計測する。図19(a)〜(d)に示すグラフは、候補1〜4の、時間軸に対するマイナスエッジとプラスエッジとの重心間距離Dg(瞼候補の開度)の変化を示すグラフである。   Then, the eye detection device 50 measures the change with respect to the time axis of the distance Dg between the centroid of the minus edge and the centroid of the plus edge for the candidates 1 to 4. The graphs shown in FIGS. 19A to 19D are graphs showing changes in the distance between centers of gravity Dg of the candidates 1 to 4 between the minus edge and the plus edge with respect to the time axis (opening of the eyelid candidate).

候補1は、図19(a)に示すように、距離Dgは時間軸に対してほとんど変化がない。また、候補2も、図19(b)に示すように、距離Dgは時間軸に対してほとんど変化がない。
候補3〜4は、図19(c)〜(d)に示すように距離Dgの時間軸に対するグラフにおいて極小値MV1〜MV6を持つ。すなわち、候補3および4は瞬きをしている瞼と判別でき、極小値MV1〜MV6は瞼の瞬きにおいて閉眼しているタイミングであると判別できる。
In candidate 1, as shown in FIG. 19A, the distance Dg hardly changes with respect to the time axis. Further, in candidate 2, as shown in FIG. 19B, the distance Dg hardly changes with respect to the time axis.
Candidates 3 to 4 have minimum values MV1 to MV6 in the graph with respect to the time axis of the distance Dg, as shown in FIGS. That is, candidates 3 and 4 can be determined to be a blinking eyelid, and the minimum values MV1 to MV6 can be determined to be the timing when the eye is closed in the blinking eyelid.

CPU24は、y軸方向またはその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがあるか否かを判別する(ステップS066)。
CPU24は、y軸方向またはその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがない場合(ステップS066;No)、CPU24は、瞼がないと判別し、設定メモリ28に格納されている設定情報を変更し、設定領域を変更または拡大し(ステップS067)、処理をステップS062に戻す。
The CPU 24 determines whether there is a combination of a minus edge and a plus edge whose center of gravity moves in the y-axis direction or the opposite direction (step S066).
When there is no combination of a minus edge and a plus edge whose center of gravity moves in the y-axis direction or the opposite direction (step S066; No), the CPU 24 determines that there is no wrinkle and stores it in the setting memory 28. The setting information is changed, the setting area is changed or enlarged (step S067), and the process returns to step S062.

上記の瞼の候補の内、図18(b)に示すように、プラスエッジの重心がy軸方向と反対方向に移動しているときにマイナスエッジの重心がy軸方向に移動し、プラスエッジの重心がy軸方向に移動している場合(ステップS066;Yes)、CPU24はマイナスエッジの重心がy軸方向と反対方向に移動する候補を瞼と判定する(ステップS068)。すなわち、CPU24は、当該候補を、瞬きをする瞼であると判別する。
以上で瞼が求められ、図4に示す瞼検出処理が終了する。
Among the candidates for wrinkles, as shown in FIG. 18B, when the center of gravity of the plus edge moves in the direction opposite to the y-axis direction, the center of gravity of the minus edge moves in the y-axis direction. If the center of gravity moves in the y-axis direction (step S066; Yes), the CPU 24 determines that the candidate whose center of gravity of the minus edge moves in the direction opposite to the y-axis direction is 瞼 (step S068). That is, the CPU 24 determines that the candidate is a habit of blinking.
Thus, the wrinkle is obtained, and the wrinkle detection process shown in FIG. 4 ends.

以上説明したように、本発明の実施形態に係る目検出装置50は、顔画像のヒストグラムおよび鼻孔探索に基づいて眼(瞼)の直下を通る横ラインである目下ラインを算出し、目下ライン近傍の所定の領域から瞼を検出する。したがって、従来のドライバー監視システムのようにドライバーの顔画像全体をスキャンして濃度値による選定を行って瞼を検出するのに比して、眉毛や鼻下などの濃度変化に影響されることなく、正確に瞼を検出することができ、誤判定や未判定を解消することができる。   As described above, the eye detection device 50 according to the embodiment of the present invention calculates a current line that is a horizontal line passing directly under the eye (eyelid) based on the histogram of the face image and the nostril search, and the vicinity of the current line瞼 is detected from a predetermined area. Therefore, compared with the conventional driver monitoring system that scans the entire driver's face image and selects the concentration value to detect wrinkles, it is not affected by changes in concentration such as eyebrows or under the nose. Therefore, it is possible to accurately detect wrinkles, and it is possible to eliminate misjudgment and unjudgment.

さらに、本発明の実施形態に係る目検出装置50は、瞼候補の開度に基づいて瞼を判別する。また、ドライバーの眼(瞼)の探索領域を正確に捉え、さらには眼(瞼)の探索領域から瞬きをする瞼の位置を検出することができ、運転者のより正確な情報を捉えることができる。   Furthermore, the eye detection device 50 according to the embodiment of the present invention discriminates wrinkles based on the opening degree of wrinkle candidates. In addition, the driver's eye (eyelid) search area can be accurately captured, and the position of the eyelid that blinks can be detected from the eye (eyelid) search area, so that more accurate information on the driver can be captured. it can.

なお、このようにして特定した上瞼と下瞼の位置に基づいて、以後、運転者の注視方向の特定や、運転者が起きているか否かを判別するために利用することができる。たとえば、瞼の位置に対応する瞳の位置を求め、さらに、顔の向きを求め、これらから運転者の視線の向きを判別することができ、判別した視線の向きを車両の様々な制御に利用できる。また、上瞼と下瞼との距離(Dg)が所定の基準値より小さい状態が一定時間以上継続した場合に、運転者が寝ていると判別し、所定の制御を行うといったことも可能となる。   Note that, based on the positions of the upper eyelid and the lower eyelid thus identified, it can be used to identify the driver's gaze direction and determine whether the driver is waking up. For example, the position of the pupil corresponding to the position of the eyelid can be obtained, the direction of the face can be obtained, and the direction of the driver's line of sight can be determined from these, and the determined line of sight can be used for various control of the vehicle it can. In addition, when the distance (Dg) between the upper eyelid and the lower eyelid is smaller than a predetermined reference value for a predetermined time or longer, it is possible to determine that the driver is sleeping and perform predetermined control. Become.

なお、この発明は上記実施形態に限定されず、種々の変形および応用が可能である。
本実施形態では、コンピュータ14は、カメラ10が撮影した対象者の顔の動画像について眼瞼検出処理を行ったが、カメラ10以外の外部装置から取得した対象者の顔の動画像を画像メモリ22に格納しておき、その動画像について眼瞼検出処理を行ってもよい。
In addition, this invention is not limited to the said embodiment, A various deformation | transformation and application are possible.
In the present embodiment, the computer 14 performs eyelid detection processing on the moving image of the face of the subject photographed by the camera 10, but the moving image of the face of the subject obtained from an external device other than the camera 10 is stored in the image memory 22. The eyelid detection process may be performed on the moving image.

本実施形態では、たとえば、7つの目下候補ライン上の所定の領域から鼻孔を探索し、その結果に基づいて目下ラインを定めたが、目下候補ライン数はもっと少なくともよい。たとえば、目下候補ラインのうち、画面下方から数えて2つの目下候補ライン、すなわち、顔の下端(顎部)を通るライン(たとえば、図10(a))および口の直下を通るライン(たとえば、図10(b))は検出が容易であり、かつ鼻孔が存在しないと考えられる。したがって、目下候補ラインを検出したときに、下方に存在する2つの目下候補ラインのy座標はRAM25に記憶させなくともよい。また、下方から数えて6つ目以降の目下候補ライン、すなわち顔の上端(頭頂部)を通るライン(たとえば、図10(f))および頭髪と皮膚との境目を通るライン(たとえば、図10(g))も鼻孔が存在しないと考えられる。したがって、これらの目下候補ラインのy座標もRAM25に記憶させなくともよい。換言すれば、目下候補ラインのうち3つのみ(たとえば、図10(c)(d)(e)のみ)をRAM25に記憶させればよい。このようにすることで、目下候補ライン上の所定の領域から鼻孔を検索する処理を省略することができ、鼻孔の検索および目下ラインの決定が高速化される。   In the present embodiment, for example, a nostril is searched from a predetermined area on seven current candidate lines, and the current line is determined based on the result, but the number of current candidate lines is at least better. For example, of the current candidate lines, two current candidate lines counted from the lower part of the screen, that is, a line passing through the lower end (jaw) of the face (for example, FIG. 10 (a)) and a line passing directly under the mouth (for example, FIG. 10 (b)) is easy to detect and is considered to have no nostrils. Therefore, when the current candidate line is detected, the y-coordinates of the two current candidate lines existing below may not be stored in the RAM 25. In addition, the sixth and subsequent candidate lines counted from below, that is, a line passing through the upper end (the top of the head) of the face (for example, FIG. 10 (f)) and a line passing through the boundary between the hair and the skin (for example, FIG. 10). (g)) is also considered to have no nostrils. Accordingly, the y-coordinates of these current candidate lines may not be stored in the RAM 25. In other words, only three of the current candidate lines (for example, only FIGS. 10C, 10D, and 10E) may be stored in the RAM 25. In this way, the process of searching for a nostril from a predetermined region on the current candidate line can be omitted, and the search for the nostril and determination of the current line are speeded up.

鼻孔探索領域の設定は任意である。たとえば、ある目下候補ラインを下端とする所定の領域を鼻孔探索領域として設定し、鼻孔を探索してもよい。もし、その領域に鼻孔がみつからなかった場合は、1つ上の目下候補ラインに設定された鼻孔探索領域から鼻孔を探索すればよい。もし、鼻孔が探索できた場合は、当該目下候補ラインの1つ上の目下候補ラインを目下ラインと決定すればよい。上述の実施形態では、按分により鼻孔探索領域を決定してから鼻孔の探索を行ったが、このようにすることで、按分によらずとも鼻孔を探索できる。   The setting of the nostril search area is arbitrary. For example, a predetermined area having a current candidate line as a lower end may be set as a nostril search area to search for a nostril. If no nostril is found in that region, the nostril may be searched from the nostril search region set in the immediately above candidate line. If the nostril can be searched, the current candidate line immediately above the current candidate line may be determined as the current line. In the embodiment described above, the nostril search is performed after the nostril search region is determined by proportional distribution. By doing so, the nostril can be searched regardless of the proportional distribution.

本発明に係る目検出装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、上述の動作を実行するためのプログラムを、コンピュータシステムが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該プログラムをコンピュータシステムにインストールすることにより、上述の処理を実行する目検出装置を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有するストレージに当該プログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで目検出装置を構成してもよい。   The eye detection apparatus according to the present invention can be realized using a normal computer system, not a dedicated system. For example, a program for executing the above operation is stored and distributed in a recording medium (flexible disk, CD-ROM, DVD-ROM, etc.) readable by the computer system, and the program is installed in the computer system. Thus, an eye detection device that performs the above-described processing may be configured. Alternatively, the eye detection device may be configured by storing the program in a storage of a server device on a communication network such as the Internet and downloading the program by a normal computer system.

また、上述の機能を、OS(Operating System)とアプリケーションとの分担、またはOSとアプリケーションとの協働により実現する場合などには、アプリケーション部分のみを記録媒体やストレージに格納してもよい。   Further, when the above-described function is realized by sharing between an OS (Operating System) and an application, or by cooperation between the OS and the application, only the application part may be stored in a recording medium or storage.

また、搬送波にプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(Bulletin Board System)に前記プログラムを掲示し、ネットワークを介して前記プログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。   It is also possible to superimpose a program on a carrier wave and distribute it via a communication network. For example, the program may be posted on a bulletin board system (Bulletin Board System) on a communication network, and the program may be distributed via the network. Then, the above-described processing may be executed by starting this program and executing it under the control of the OS in the same manner as other application programs.

本発明の実施形態に係る目検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the eye detection apparatus which concerns on embodiment of this invention. 図1に示すコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the computer shown in FIG. ROMまたはRAMに格納されている各種データを説明するための図である。It is a figure for demonstrating the various data stored in ROM or RAM. 本発明の実施形態に係る処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process which concerns on embodiment of this invention. 本発明の実施形態の前処理を説明するためのフローチャートである。It is a flowchart for demonstrating the pre-processing of embodiment of this invention. 本発明の実施形態の顔両端位置判別処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face both-ends position discrimination | determination process of embodiment of this invention. 本発明の実施形態の顔向き判別処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face orientation discrimination | determination process of embodiment of this invention. ドライバーが右方向を向いているときの顔画像を示す図である。It is a figure which shows a face image when a driver is facing the right direction. 本発明の実施形態の目下候補検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the present candidate detection process of embodiment of this invention. 横ソーベル画像において、ヒストグラム値が高く、かつヒストグラムのピーク値が連続しているラインを示す図である。In a horizontal Sobel image, it is a figure showing a line with a high histogram value and a continuous peak value of the histogram. 本発明の実施形態の鼻孔検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the nostril detection process of embodiment of this invention. 鼻孔探索領域を設定した画像を示す図である。It is a figure which shows the image which set the nostril search area | region. 本発明の実施形態の縦方向画素列抽出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the vertical direction pixel row extraction process of embodiment of this invention. 本発明の実施形態の横方向画素列抽出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the horizontal direction pixel row extraction process of embodiment of this invention. 本発明の実施形態の鼻孔決定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the nostril determination process of embodiment of this invention. 本発明の実施形態の上下瞼判別処理を説明するためのフローチャートである。It is a flowchart for demonstrating the upper and lower eyelid discrimination | determination process of embodiment of this invention. 本発明の実施形態の顔上部領域Aを説明するための図である。It is a figure for demonstrating the upper face area | region A of embodiment of this invention. (a)は、顔上部領域における、上下瞼の候補となるエッジラインの組み合わせを示す図である。(b)は、(a)の上下瞼の候補となるエッジラインの内から正しい瞼を判別するときの、正しい瞼に該当する上下瞼の候補のエッジラインが示すべき動作を説明するための図である。(A) is a figure which shows the combination of the edge line used as the candidate of upper and lower eyelids in the face upper area | region. (B) is a diagram for explaining the operation to be indicated by the edge lines of the upper and lower eyelid candidates corresponding to the correct eyelid when determining the correct eyelid from among the edge lines that are candidates for the upper and lower eyelids in (a). It is. 図18(a)における上下瞼の候補となるエッジラインの重心間距離の経時変化を示す図である。It is a figure which shows a time-dependent change of the distance between the gravity centers of the edge line used as the candidate of the upper and lower eyelids in Fig.18 (a).

符号の説明Explanation of symbols

10 カメラ
12 照明光源
14 コンピュータ
16 表示装置
21 A/D変換器 (顔画像記憶手段)
22 画像メモリ (顔画像記憶手段、顔中心線検出手段)
23 ROM (横ソーベル手段)
24 CPU (目下位置候補検出手段、目下位置選択手段、
目検出手段、横ソーベル手段、
階調値のヒストグラムを生成する手段、
目下位置候補出力手段、顔中心線検出手段、検索手段、
鼻孔位置判別手段、鼻孔と判別する手段)
25 RAM (CPU24のワークエリア)
26 表示制御装置
28 設定メモリ
29 操作装置
50 目検出装置
DESCRIPTION OF SYMBOLS 10 Camera 12 Illumination light source 14 Computer 16 Display apparatus 21 A / D converter (face image storage means)
22 Image memory (face image storage means, face centerline detection means)
23 ROM (Horizontal Sobel means)
24 CPU (Current position candidate detection means, Current position selection means,
Eye detection means, horizontal sobel means,
Means for generating a histogram of gradation values;
Current position candidate output means, face centerline detection means, search means,
Nostril position discriminating means, means for discriminating nostril)
25 RAM (work area of CPU 24)
26 display control device 28 setting memory 29 operation device 50 eye detection device

Claims (8)

対象者の顔の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段が記憶した顔画像に基づいて、該顔画像内の目の下の位置の候補を求める目下位置候補検出手段と、
前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段と、
前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段と、
から構成されることを特徴とする目検出装置。
Face image storage means for storing an image of the face of the subject,
Based on the face image stored by the face image storage means, a current position candidate detection means for obtaining a candidate for a position under the eyes in the face image;
When the face nostril is searched within a predetermined nostril search area on the face image stored in the face image storage means, and the nostril can be detected, the position under the eyes based on the detected nostril position Current position selection means for selecting a candidate located under the eyes of the face image from among the candidates,
Eye detection means for detecting an image corresponding to the eyes of the subject in an eye search area determined based on the current position selected by the current position selection means;
An eye detection device comprising:
前記目下位置候補検出手段は、
前記顔画像記憶手段に記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成する横ソーベル手段と、
前記横ソーベル手段により生成された横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成する手段と、
階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を目下位置の候補として出力する目下位置候補出力手段と、
から構成されることを特徴とする請求項1に記載の目検出装置。
The current position candidate detection means includes:
Horizontal sobel means for processing a face image stored in the face image storage means with a horizontal Sobel filter to generate a horizontal Sobel image;
Means for generating a histogram of gradation values of pixels on each horizontal line of the horizontal Sobel image generated by the horizontal Sobel means;
Current position candidate output means for obtaining a candidate for a horizontal line passing under the eyes based on a histogram of gradation values and outputting the position of the horizontal line as a candidate for the current position;
The eye detection device according to claim 1, comprising:
前記目下位置候補出力手段は、
階調値のヒストグラムに基づいて、ヒストグラムのピーク値の高いものを所定数抽出して、抽出したヒストグラムが得られた位置を目下位置候補とする、
ことを特徴とする請求項2に記載の目検出装置。
The current position candidate output means includes:
Based on the histogram of gradation values, a predetermined number of high histogram peak values are extracted, and the position where the extracted histogram is obtained is the current position candidate.
The eye detection apparatus according to claim 2, wherein:
前記目下位置選択手段は、前記目下位置候補検出手段により検出された目の下の位置の候補の一つに基づいて、前記鼻孔探索領域を設定する、
ことを特徴とする請求項1に記載の目検出装置。
The current position selection means sets the nostril search region based on one of the candidates for the position under the eyes detected by the current position candidate detection means.
The eye detection device according to claim 1.
前記顔画像記憶手段が記憶している顔画像の中心線を検出する顔中心線検出手段をさらに備え、
前記目下位置選択手段は、
前記鼻孔検索領域内で顔の鼻孔の候補を検索する検索手段と、
前記検索手段が検出した顔の鼻孔の候補の位置を求める鼻孔位置判別手段と、
前記鼻孔位置判別手段が判別した各備考の候補の位置と前記中心線とに基づいて、前記検索手段が検索した鼻孔の候補のうちで、前記顔の中心線に対してほぼ線対称をなす鼻孔候補の対を検出し、鼻孔と判別する手段と、
をさらに備えることを特徴とする請求項1に記載の目検出装置。
A face center line detecting means for detecting a center line of the face image stored in the face image storing means;
The current position selection means includes
Search means for searching for nostril candidates of the face in the nostril search region;
Nostril position determining means for determining the position of the nostril candidate of the face detected by the search means;
Based on the position of each remark candidate determined by the nostril position determining means and the center line, the nostrils that are substantially line-symmetric with respect to the center line of the face among the nostril candidates searched by the search means Means for detecting candidate pairs and distinguishing them from nostrils;
The eye detection device according to claim 1, further comprising:
前記目下位置選択手段は、鼻孔が検出できたとき、鼻孔の上に位置し、最も鼻孔に近い目下位置候補を、目の下の位置として出力する、
ことを特徴とする請求項1に記載の目検出装置。
When the nostril can be detected, the current position selection means is positioned above the nostril and outputs the current position candidate closest to the nostril as a position below the eye.
The eye detection device according to claim 1.
記憶されている顔画像を処理して、該顔画像内の目の下に位置する横ラインの候補を求め、
前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、
鼻孔が検出できたときに、検出した鼻孔の位置を基準として、横ラインの候補のうちから顔画像の目の下に位置するものを選択し、
選択した横ラインに基づいて前記顔画像上に目探索領域を設定し、
設定した目探索領域内において、対象者の目に対応する画像を検出する、
ことを特徴とする目検出方法。
Process the stored face image to obtain a candidate for a horizontal line located under the eye in the face image,
Search the nostril of the face within a predetermined nostril search area on the face image,
When the nostril can be detected, the position of the detected nostril is selected as a reference, and the candidate located below the eyes of the face image is selected from the candidates for the horizontal line,
Set an eye search area on the face image based on the selected horizontal line,
In the set eye search area, an image corresponding to the eye of the subject is detected.
An eye detection method characterized by the above.
コンピュータを、
対象者の顔の画像を記憶する顔画像記憶手段、
前記顔画像記憶手段が記憶した顔画像に基づいて、該顔画像内の目の下の位置の候補を求める目下位置候補検出手段、
前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段、
前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段、
として機能させるプログラム。
Computer
Face image storage means for storing an image of the face of the subject,
Based on the face image stored by the face image storage means, a current position candidate detection means for obtaining a candidate for a position under the eyes in the face image;
When the face nostril is searched within a predetermined nostril search area on the face image stored in the face image storage means, and the nostril can be detected, the position under the eyes based on the detected nostril position Current position selection means for selecting a position located under the eyes of the face image from among the candidates of
Eye detection means for detecting an image corresponding to the eyes of the subject within an eye search area determined based on the current position selected by the current position selection means;
Program to function as.
JP2007066166A 2007-03-15 2007-03-15 Eye detection device, eye detection method, and program Expired - Fee Related JP4848302B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007066166A JP4848302B2 (en) 2007-03-15 2007-03-15 Eye detection device, eye detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007066166A JP4848302B2 (en) 2007-03-15 2007-03-15 Eye detection device, eye detection method, and program

Publications (2)

Publication Number Publication Date
JP2008226073A true JP2008226073A (en) 2008-09-25
JP4848302B2 JP4848302B2 (en) 2011-12-28

Family

ID=39844579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007066166A Expired - Fee Related JP4848302B2 (en) 2007-03-15 2007-03-15 Eye detection device, eye detection method, and program

Country Status (1)

Country Link
JP (1) JP4848302B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08300978A (en) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp Face image processor
JP2000339476A (en) * 1999-05-28 2000-12-08 Oki Electric Ind Co Ltd Eye position and face position detection device
JP2006065640A (en) * 2004-08-27 2006-03-09 Toyota Central Res & Dev Lab Inc Face part location detection device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08300978A (en) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp Face image processor
JP2000339476A (en) * 1999-05-28 2000-12-08 Oki Electric Ind Co Ltd Eye position and face position detection device
JP2006065640A (en) * 2004-08-27 2006-03-09 Toyota Central Res & Dev Lab Inc Face part location detection device, method, and program

Also Published As

Publication number Publication date
JP4848302B2 (en) 2011-12-28

Similar Documents

Publication Publication Date Title
JP4307496B2 (en) Facial part detection device and program
JP4309928B2 (en) Wrinkle detection device, wrinkle detection method, and program
JP4845698B2 (en) Eye detection device, eye detection method, and program
US7936926B2 (en) Apparatus, method, and program for face feature point detection
JP4683200B2 (en) Automatic hair region extraction method
JP4445454B2 (en) Face center position detection device, face center position detection method, and program
JP4137969B2 (en) Eye detection device, eye detection method, and program
US7912251B2 (en) Eyelid detection apparatus and program therefor
JP3143819B2 (en) Eyelid opening detector
JP4739870B2 (en) Sunglasses detection device and face center position detection device
US20210334998A1 (en) Image processing method, apparatus, device and medium for locating center of target object region
JP4825473B2 (en) Face orientation discrimination device
JP2007272435A (en) Face feature extraction device and face feature extraction method
JP6784261B2 (en) Information processing equipment, image processing system, image processing method and program
CN115039150A (en) Determination method, determination device, and determination program
KR101343623B1 (en) adaptive color detection method, face detection method and apparatus
JP4848302B2 (en) Eye detection device, eye detection method, and program
JP2008084109A (en) Eye opening/closing determination device and eye opening/closing determination method
JP4895876B2 (en) Eye detection apparatus and program
JP5172995B2 (en) Face orientation discrimination device and computer program
JP2008226189A (en) Feature point detection device and program
JP2008209969A (en) Apparatus for detecting face feature point, method of detecting face feature point, and program
JP4852454B2 (en) Eye tilt detection device and program
WO2021095278A1 (en) Image processing method, image processing device, and image processing program
JP4848303B2 (en) Eye open / close discrimination device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100225

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4848302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees