JP2010250419A - Image processing device for detecting eye condition - Google Patents

Image processing device for detecting eye condition Download PDF

Info

Publication number
JP2010250419A
JP2010250419A JP2009096898A JP2009096898A JP2010250419A JP 2010250419 A JP2010250419 A JP 2010250419A JP 2009096898 A JP2009096898 A JP 2009096898A JP 2009096898 A JP2009096898 A JP 2009096898A JP 2010250419 A JP2010250419 A JP 2010250419A
Authority
JP
Japan
Prior art keywords
image
eye
area
face
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009096898A
Other languages
Japanese (ja)
Inventor
Masaya Usui
雅也 碓井
Kenji Matsuzaka
健治 松坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009096898A priority Critical patent/JP2010250419A/en
Publication of JP2010250419A publication Critical patent/JP2010250419A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently detect the condition of an eye contained in an image. <P>SOLUTION: An image processing device for detecting a predetermined eye condition from an image of an eye contained in a target image includes: a facial area detecting unit for detecting an area containing, at least a part of a face image as a facial area from the target image; an eye area detecting unit for detecting an eye area which is an area containing an eye image from the face area; and an eye condition detecting unit for detecting the predetermined eye condition from the eye area, by using an image vector of a converted image obtained by converting an image of the eye area detected by the eye area detecting unit and a predetermined specific vector which is a specific vector, in relation to the predetermined eye condition of one or more specific vectors used for indicating an optional eye condition obtained, by calculating the eye condition, based on a plurality of sample images including a known eye image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、注目画像に含まれる目画像から所定の目の状態を検出する画像処理装置に関する。   The present invention relates to an image processing apparatus that detects a predetermined eye state from an eye image included in a target image.

従来から、顔画像を含む画像から目の状態を検出する技術が知られている。例えば、検出した顔画像から濃度値の分布等の所定の特徴量を抽出することにより目を含む領域を特定し、特定された領域にテンプレートを適用することで目の状態を検出する技術が知られている(特許文献1)。   Conventionally, a technique for detecting an eye state from an image including a face image is known. For example, a technique is known in which a region including the eyes is identified by extracting a predetermined feature amount such as a density value distribution from the detected face image, and the state of the eyes is detected by applying a template to the identified region. (Patent Document 1).

特開2001−229368号公報JP 2001-229368 A

しかし、画像に含まれる目の状態を検出する技術に関して、上記とは異なる方法によっても、効率的に検出をおこなう余地があった。   However, regarding the technique for detecting the state of the eye included in the image, there is room for efficient detection even by a method different from the above.

本発明は、上記した従来の課題の少なくとも一部を解決するためになされた発明であり、画像に含まれる目の状態を効率的に検出することを目的とする。   The present invention has been made to solve at least a part of the above-described conventional problems, and an object thereof is to efficiently detect the state of an eye included in an image.

上記課題の少なくとも一部を解決するために本願発明は以下の態様を採る。   In order to solve at least a part of the above problems, the present invention employs the following aspects.

第1の態様は、注目画像に含まれる目の画像から所定の目の状態を検出する画像処理装置を提供する。本発明の第1の態様に係る画像処理装置は、前記注目画像から顔の画像の少なくとも一部を含む領域を顔領域として検出する顔領域検出部と、前記顔領域から前記目の画像を含む領域である目領域を検出する目領域検出部と、前記目領域検出部により検出された前記目領域の画像を変換した変換画像の画像ベクトルと、目の状態が既知の目の画像を含む複数のサンプル画像に基づいて算出された任意の目の状態を表すために用いられる1以上の固有ベクトルのうち、前記所定の目の状態に関連する固有ベクトルである所定固有ベクトルと、を用いて、前記目領域から前記所定の目の状態を検出する目状態検出部と、を備える。   A first aspect provides an image processing apparatus that detects a predetermined eye state from an eye image included in an image of interest. An image processing apparatus according to a first aspect of the present invention includes a face area detection unit that detects an area including at least a part of a face image from the attention image as a face area, and the eye image from the face area. A plurality of eye regions including an eye region detecting unit that detects an eye region that is a region, an image vector of a converted image obtained by converting the image of the eye region detected by the eye region detecting unit, and an eye image having a known eye state The eye region using a predetermined eigenvector that is an eigenvector related to the predetermined eye state among one or more eigenvectors used to represent an arbitrary eye state calculated based on the sample image of And an eye state detector for detecting the predetermined eye state.

第1の態様に係る画像処理装置によれば、検出された目領域の画像を変換した変換画像の画像ベクトルと、目の状態に関連する固有ベクトルと、を用いて目の状態を検出するため、画像に含まれる目の状態を効率的に検出することができる。   According to the image processing device according to the first aspect, in order to detect the eye state using the image vector of the converted image obtained by converting the image of the detected eye region and the eigenvector related to the eye state, The state of the eyes included in the image can be detected efficiently.

第1の態様に係る画像処理装置において、前記目状態検出部は、前記画像ベクトルと前記所定固有ベクトルとの内積により算出されるパラメーターにより前記所定の目の状態を検出してもよい。この場合、検出された目領域の画像を変換した変換画像の画像ベクトルと、目の状態に関連する固有ベクトルと、の内積により目の状態を検出するため、画像に含まれる目の状態を効率的に検出することができる。   In the image processing apparatus according to the first aspect, the eye state detection unit may detect the predetermined eye state based on a parameter calculated by an inner product of the image vector and the predetermined eigenvector. In this case, since the eye state is detected by the inner product of the image vector of the converted image obtained by converting the image of the detected eye region and the eigenvector related to the eye state, the eye state included in the image is efficiently determined. Can be detected.

第1の態様に係る画像処理装置において、前記変換は、検出された前記目領域の形状が、前記複数のサンプル画像に基づいて規定された前記目領域の形状の基準である基準形状となるような変換であってもよい。この場合、検出された目領域の形状が基準形状となるように変換した変換画像の画像ベクトルと、目の状態に関連する固有ベクトルと、を用いて目の状態を検出するため、画像に含まれる目の状態を効率的に検出することができる。   In the image processing device according to the first aspect, the conversion is such that the detected shape of the eye region becomes a reference shape that is a reference of the shape of the eye region defined based on the plurality of sample images. Conversion may be possible. In this case, since the eye state is detected using the image vector of the converted image converted so that the shape of the detected eye region becomes the reference shape and the eigenvector related to the eye state, it is included in the image. The eye state can be detected efficiently.

第1の態様に係る画像処理装置において、前記固有ベクトルは、前記複数のサンプル画像における前記目領域の画像に対して前記変換をおこなった変換画像の画像ベクトルを主成分分析することにより算出されていてもよい。この場合、複数のサンプル画像における目領域の画像を変換した変換画像の画像ベクトルを主成分分析することにより算出される固有ベクトルを用いて目の状態を検出するため、画像に含まれる目の状態を効率的に検出することができる。   In the image processing device according to the first aspect, the eigenvector is calculated by performing principal component analysis on an image vector of a converted image obtained by performing the conversion on the image of the eye region in the plurality of sample images. Also good. In this case, since the eye state is detected using the eigenvector calculated by principal component analysis of the image vector of the converted image obtained by converting the image of the eye region in the plurality of sample images, the eye state included in the image is determined. It can be detected efficiently.

第1の態様に係る画像処理装置において、前記所定の目の状態とは、目を瞑っている状態であってもよい。この場合、目を瞑っている状態か否かに関連する固有ベクトルと、検出された目領域の画像を変換した変換画像の画像ベクトルと、を用いて目の状態を検出するため、画像に含まれる目が瞑っている状態か否かを効率的に検出することができる。   In the image processing apparatus according to the first aspect, the predetermined eye state may be a state where the eyes are meditated. In this case, the eye state is detected using the eigenvector related to whether or not the eye is meditated and the image vector of the converted image obtained by converting the image of the detected eye region. It is possible to efficiently detect whether or not the eyes are meditating.

第1の態様に係る画像処理装置において、前記パラメーターを用いて前記注目画像に含まれる目画像が目を瞑っている状態か否かを判定する目状態判定部を備えていてもよい。この場合、注目画像に含まれる目画像が目を瞑っている状態か否かを判定することができる。   The image processing apparatus according to the first aspect may include an eye state determination unit that determines whether or not an eye image included in the attention image is in a meditated state using the parameter. In this case, it can be determined whether or not the eye image included in the target image is in a state where the eyes are meditated.

第1の態様に係る画像処理装置において、前記目領域検出部は、前記顔領域に基づいて、前記注目画像に対して少なくとも目画像の外周の位置を含む顔の特徴部位の位置を検出するために前記注目画像に設定される特徴点の初期位置を設定する初期位置設定部と、前記注目画像に設定された前記特徴点の設定位置を前記顔の特徴部位の位置に近づけるように更新し、更新された前記設定位置において前記目画像の外周の位置を検出するための特徴点により囲まれた領域を前記目領域として検出する特徴位置検出部と、を備えていてもよい。この場合、更新された特徴点の設定位置において、目画像の外周を検出するための特徴点により囲まれた領域を目領域として検出することにより、画像に含まれる目領域を効率的に検出することができる。   In the image processing device according to the first aspect, the eye area detection unit detects a position of a facial feature part including at least an outer periphery position of the eye image with respect to the target image based on the face area. An initial position setting unit for setting an initial position of the feature point set in the target image, and the setting position of the feature point set in the target image is updated so as to approach the position of the feature part of the face, A feature position detection unit that detects, as the eye region, an area surrounded by feature points for detecting the position of the outer periphery of the eye image at the updated set position. In this case, the eye region included in the image is efficiently detected by detecting the region surrounded by the feature point for detecting the outer periphery of the eye image at the updated feature point setting position. be able to.

第1の態様に係る画像処理装置において、前記初期位置設定部は、前記目領域を一部に含み、検出された前記顔領域の前記注目画像に対する位置に基づいて規定される領域である目周辺領域を用いて前記初期位置を設定してもよい。この場合、目周辺領域に対して特徴点を設定することで、画像に含まれる目領域を効率的に検出することができる。   In the image processing device according to the first aspect, the initial position setting unit includes an eye area as a part, and is an area around the eye that is defined based on a position of the detected face area with respect to the target image The initial position may be set using a region. In this case, the eye area included in the image can be efficiently detected by setting the feature points for the eye peripheral area.

なお、本発明は、種々の態様で実現することが可能であり、例えば、プリンター、パーソナルコンピューター、デジタルビデオカメラ等で実現することができる。また、画像処理方法および装置、目の状態の検出方法および装置、表情判定方法および装置、これらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   Note that the present invention can be realized in various modes, for example, a printer, a personal computer, a digital video camera, or the like. Further, an image processing method and apparatus, an eye state detection method and apparatus, a facial expression determination method and apparatus, a computer program for realizing the functions of these methods or apparatuses, a recording medium on which the computer program is recorded, and the computer program Including a data signal embodied in a carrier wave.

本発明の第1実施例における画像処理装置としてのデジタルスチルカメラ100の構成を概略的に示す説明図である。1 is an explanatory diagram schematically showing a configuration of a digital still camera 100 as an image processing apparatus in a first embodiment of the present invention. FIG. 第1実施例におけるAAM設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the AAM setting process in 1st Example. サンプル画像SIの一例を示す説明図である。It is explanatory drawing which shows an example of sample image SI. サンプル画像SIにおける特徴点CPの設定方法の一例を示す説明図である。It is explanatory drawing which shows an example of the setting method of the feature point CP in the sample image SI. サンプル画像SIに設定された特徴点CPの座標の一例を示す説明図である。It is explanatory drawing which shows an example of the coordinate of the feature point CP set to sample image SI. 平均形状s0の一例を示す説明図である。Is an explanatory diagram showing an example of the average shape s 0. 形状ベクトルsiおよび形状パラメーターpiと顔の形状sとの関係を例示した説明図である。It is explanatory drawing which illustrated the relationship between shape vector si and shape parameter pi, and face shape s. サンプル画像SIのワープWの方法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of the warp W of the sample image SI. 平均顔画像A0(x)の一例を示す説明図である。It is explanatory drawing which shows an example of average face image A0 (x). 目状態判定情報設定処理を説明するための説明図である。It is explanatory drawing for demonstrating an eye state determination information setting process. 第1実施例における居眠り検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the dozing detection process in 1st Example. 第1実施例における目領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the eye area | region detection process in 1st Example. 注目画像OIにおける顔領域FAの検出結果の一例を示す説明図である。It is explanatory drawing which shows an example of the detection result of the face area FA in the attention image OI. 第1実施例における特徴点CPの初期位置設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the initial position setting process of the feature point CP in 1st Example. グローバルパラメーターの値を変更することによる特徴点CPの仮設定位置の一例を示す説明図である。It is explanatory drawing which shows an example of the temporary setting position of the feature point CP by changing the value of a global parameter. 平均形状画像I(W(x;p))の一例を示す説明図である。It is explanatory drawing which shows an example of the average shape image I (W (x; p)). 第1実施例における特徴点CP設定位置補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the feature point CP setting position correction process in 1st Example. 特徴点CP設定位置補正処理の結果の一例を示す説明図である。It is explanatory drawing which shows an example of the result of a feature point CP setting position correction process. 差分画像のノルムと特徴部位信頼度との関係を例示した説明図である。It is explanatory drawing which illustrated the relationship between the norm of a difference image, and characteristic part reliability. 被検出画像および注目画像における特徴点の初期位置を例示した説明図である。It is explanatory drawing which illustrated the initial position of the feature point in a to-be-detected image and an attention image. 被検出画像および注目画像における顔領域を例示した説明図である。It is explanatory drawing which illustrated the face area | region in a to-be-detected image and an attention image. 第2実施例における目領域検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the eye area | region detection process in 2nd Example. 変形例における目領域検出処理を説明するための説明図である。It is explanatory drawing for demonstrating the eye area | region detection process in a modification.

以下、本発明に係る画像処理装置の一態様であるデジタルスチルカメラについて、図面を参照しつつ、実施例に基づいて説明する。   Hereinafter, a digital still camera which is an aspect of an image processing apparatus according to the present invention will be described based on examples with reference to the drawings.

A.第1実施例:
A1.画像処理装置の構成:
図1は、本発明の第1実施例における画像処理装置としてのデジタルスチルカメラ100の構成を概略的に示す説明図である。本実施例のデジタルスチルカメラ(以下「DSC」とも呼ぶ)100は、被写体としての撮像対象物を撮像して被写体画像を表す画像データを生成する撮像装置(画像生成装置)として機能すると共に、生成された画像データに対する画像処理を行う画像処理装置としても機能する。
A. First embodiment:
A1. Configuration of image processing device:
FIG. 1 is an explanatory diagram schematically showing the configuration of a digital still camera 100 as an image processing apparatus according to the first embodiment of the present invention. The digital still camera (hereinafter also referred to as “DSC”) 100 according to the present embodiment functions as an imaging device (image generation device) that captures an imaging target as a subject and generates image data representing the subject image. It also functions as an image processing apparatus that performs image processing on the processed image data.

DSC100は、レンズ102と、レンズ102を駆動して焦点(ピント)の位置や焦点距離を調整するレンズ駆動部104と、レンズ駆動部104を制御するレンズ駆動制御部106と、レンズ102を介して受光面に入力された光を電気信号に変換する撮像素子108と、撮像素子108から出力された電気信号に対するA/D変換を行うA/D変換器110と、外部機器との情報のやり取りのためのインターフェース部(I/F部)112と、液晶ディスプレイにより構成された表示部114と、ボタンやタッチパネルにより構成された操作部116と、DSC100の各部を制御するCPU118と、ROMやRAMによって構成された内部メモリー200と、を備えている。撮像素子108は、例えばCCDを用いて構成される。DSC100の各構成要素は、バス122を介して双方向通信可能に接続されている。   The DSC 100 includes a lens 102, a lens driving unit 104 that drives the lens 102 to adjust a focus position and a focal length, a lens driving control unit 106 that controls the lens driving unit 104, and the lens 102. An image sensor 108 that converts light input to the light receiving surface into an electrical signal, an A / D converter 110 that performs A / D conversion on the electrical signal output from the image sensor 108, and exchange of information with external devices Interface unit (I / F unit) 112, a display unit 114 configured by a liquid crystal display, an operation unit 116 configured by buttons and a touch panel, a CPU 118 for controlling each unit of the DSC 100, and a ROM and a RAM Internal memory 200. The image sensor 108 is configured using, for example, a CCD. Each component of the DSC 100 is connected via a bus 122 so that bidirectional communication is possible.

内部メモリー200には、画像生成部210と、表示処理部220と、画像処理部230と、が格納されている。画像生成部210は、レンズ102や撮像素子108などを制御して、被写体としての撮像対象物を撮像し、被写体画像を表す画像データを生成するためのコンピュータープログラムである。表示処理部220は、表示部114を制御して、表示部114上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバであり、CPU118により実行されることで機能を実現する。画像処理部230は、所定のオペレーティングシステムの下で、CPU118により実行されることで居眠り検出処理をおこなうコンピュータープログラムである。居眠り検出処理は、特定の顔画像について居眠りをしているか否かを検出する処理である。居眠り検出処理については、後に詳述する。   The internal memory 200 stores an image generation unit 210, a display processing unit 220, and an image processing unit 230. The image generation unit 210 is a computer program for controlling the lens 102, the image sensor 108, and the like to image an imaging target as a subject and generating image data representing the subject image. The display processing unit 220 is a display driver that controls the display unit 114 to display a processing menu, a message, an image, and the like on the display unit 114, and implements a function by being executed by the CPU 118. The image processing unit 230 is a computer program that performs doze detection processing by being executed by the CPU 118 under a predetermined operating system. The dozing detection process is a process for detecting whether or not a specific face image is dozing. The dozing detection process will be described in detail later.

画像処理部230は、プログラムモジュールとして、顔領域検出部231と、目領域検出部232と、検出情報算出部235と、処理判定部236と、目状態検出部237と、目状態判定部238と、居眠り判定部239と、を含んでいる。また、目領域検出部232は、初期位置設定部233と特徴位置検出部234と、を含んでいる。これら各部の機能については、後述の居眠り検出処理の説明において詳述する。   The image processing unit 230 includes a face region detection unit 231, an eye region detection unit 232, a detection information calculation unit 235, a processing determination unit 236, an eye state detection unit 237, and an eye state determination unit 238 as program modules. , A doze determination unit 239. The eye area detection unit 232 includes an initial position setting unit 233 and a feature position detection unit 234. The functions of these units will be described in detail in the description of the dozing detection process described later.

CPU118は、内部メモリー200から、これらのプログラム(画像生成部210、表示処理部220、画像処理部230)を読み出して実行することにより、これら各部の機能を実現する。   The CPU 118 implements the functions of these units by reading and executing these programs (the image generation unit 210, the display processing unit 220, and the image processing unit 230) from the internal memory 200.

内部メモリー200には、また、AAM情報AMIおよび目状態判定情報IJIが格納されている。AAM情報AMIは、後述のAAM設定処理によって予め設定される情報であり、後述の居眠り検出処理において参照される。AAM情報AMIの内容については、後述のAAM設定処理の説明において詳述する。目状態判定情報IJIは、後述する目状態検出部237による目状態の検出に用いられる。目状態判定情報IJIの内容については、後述の目状態判定情報設定処理の説明において詳述する。   The internal memory 200 also stores AAM information AMI and eye state determination information IJI. The AAM information AMI is information set in advance by an AAM setting process described later, and is referred to in a dozing detection process described later. The contents of the AAM information AMI will be described in detail in the description of AAM setting processing described later. The eye state determination information IJI is used for detection of an eye state by an eye state detection unit 237 described later. The contents of the eye state determination information IJI will be described in detail in the description of the eye state determination information setting process described later.

A2.AAM設定処理:
図2は、第1実施例におけるAAM設定処理の流れを示すフローチャートである。AAM設定処理は、AAM(アクティブアピアランスモデル(Active Appearance Model))と呼ばれる画像のモデル化に用いられる形状モデルおよびテクスチャーモデルを設定する処理である。本実施例において、AAM設定処理は、ユーザによりおこなわれる。
A2. AAM setting process:
FIG. 2 is a flowchart showing the flow of AAM setting processing in the first embodiment. The AAM setting process is a process for setting a shape model and a texture model used for modeling an image called AAM (Active Appearance Model). In this embodiment, the AAM setting process is performed by the user.

はじめに、ユーザは、人物の顔を含んだ複数の画像をサンプル画像SIとして用意する(ステップS110)。図3は、サンプル画像SIの一例を示す説明図である。図3に示すように、サンプル画像SIは、個性、人種・性別、表情(怒り、笑い、困り、驚き等)、向き(正面向き、上向き、下向き、右向き、左向き等)といった種々の属性に関して互いに相違する顔画像が含まれるように用意される。サンプル画像SIがそのように用意されれば、AAMによってあらゆる顔画像を精度良くモデル化することが可能となり、あらゆる顔画像を対象とした精度の良い顔特徴位置検出処理(後述)の実行が可能となる。なお、サンプル画像SIは、学習用画像とも呼ばれる。   First, the user prepares a plurality of images including a person's face as sample images SI (step S110). FIG. 3 is an explanatory diagram showing an example of the sample image SI. As shown in FIG. 3, the sample image SI is related to various attributes such as personality, race / gender, facial expression (anger, laughter, trouble, surprise, etc.), direction (front direction, upward, downward, rightward, leftward, etc.). It is prepared to include different face images. If the sample image SI is prepared in this way, any face image can be accurately modeled by AAM, and accurate face feature position detection processing (described later) for any face image can be executed. It becomes. The sample image SI is also called a learning image.

それぞれのサンプル画像SIに含まれる顔画像に、特徴点CPを設定する(ステップS120)。図4は、サンプル画像SIにおける特徴点CPの設定方法の一例を示す説明図である。特徴点CPは、顔画像における所定の特徴部位の位置を示す点である。本実施例では、所定の特徴部位として、人物の顔における眉毛上の所定位置(例えば端点や4分割点等、以下同じ)、目の輪郭上の所定位置、鼻筋および小鼻の輪郭上の所定位置、上下唇の輪郭上の所定位置、顔の輪郭(フェイスライン)上の所定位置といった68箇所の部位が設定されている。すなわち、本実施例では、人物の顔に共通して含まれる顔の器官(眉毛、目、鼻、口)および顔の輪郭における所定位置を、特徴部位として設定する。図4に示すように、特徴点CPは、各サンプル画像SIにおいてオペレーターにより指定された68個の特徴部位を表す位置に設定(配置)される。このように設定された各特徴点CPは各特徴部位に対応しているため、顔画像における特徴点CPの配置は顔の形状を特定していると表現することができる。   A feature point CP is set to the face image included in each sample image SI (step S120). FIG. 4 is an explanatory diagram showing an example of a method for setting the feature point CP in the sample image SI. The feature point CP is a point indicating the position of a predetermined feature part in the face image. In this embodiment, as predetermined feature parts, a predetermined position on the eyebrows in a person's face (for example, an end point or a four-divided point, the same applies hereinafter), a predetermined position on the eye contour, and a predetermined position on the nose and nose contours 68 parts such as a predetermined position on the contour of the upper and lower lips and a predetermined position on the contour of the face (face line) are set. That is, in the present embodiment, a predetermined position in the facial organs (eyebrows, eyes, nose, mouth) and facial contour that are commonly included in the human face are set as the characteristic parts. As shown in FIG. 4, the feature points CP are set (arranged) at positions representing 68 feature parts designated by the operator in each sample image SI. Since each feature point CP set in this way corresponds to each feature part, the arrangement of the feature points CP in the face image can be expressed as specifying the shape of the face.

サンプル画像SIにおける特徴点CPの位置は、座標により特定される。図5は、サンプル画像SIに設定された特徴点CPの座標の一例を示す説明図である。図5において、SI(j)(j=1,2,3・・・)は各サンプル画像SIを示しており、CP(k)(k=0,1,・・・,67)は各特徴点CPを示している。また、CP(k)−Xは、特徴点CP(k)のX座標を示しており、CP(k)−Yは、特徴点CP(k)のY座標を示している。特徴点CPの座標としては、顔の大きさと顔の傾き(画像面内の傾き)と顔のX方向およびY方向の位置とのそれぞれについて正規化されたサンプル画像SIにおける所定の基準点(例えば画像の左下の点)を原点とした座標が用いられる。また、本実施例では、1つのサンプル画像SIに複数の人物の顔画像が含まれる場合が許容されており(例えばサンプル画像SI(2)には2人の顔画像が含まれている)、1つのサンプル画像SIにおける各人物は人物IDによって特定される。   The position of the feature point CP in the sample image SI is specified by coordinates. FIG. 5 is an explanatory diagram showing an example of the coordinates of the feature point CP set in the sample image SI. In FIG. 5, SI (j) (j = 1, 2, 3,...) Indicates each sample image SI, and CP (k) (k = 0, 1,..., 67) indicates each feature. Point CP is shown. CP (k) -X represents the X coordinate of the feature point CP (k), and CP (k) -Y represents the Y coordinate of the feature point CP (k). The coordinates of the feature point CP include predetermined reference points (for example, in the sample image SI normalized with respect to the size of the face, the inclination of the face (inclination in the image plane), and the position of the face in the X direction and the Y direction) The coordinates with the origin at the lower left point of the image are used. Further, in the present embodiment, a case where a plurality of human face images are included in one sample image SI is allowed (for example, two sample face images are included in the sample image SI (2)). Each person in one sample image SI is specified by a person ID.

つづいて、ユーザは、AAMの形状モデルの設定をおこなう(ステップS130)。具体的には、各サンプル画像SIにおける68個の特徴点CPの座標(X座標およびY座標)により構成される座標ベクトル(図5参照)に対する主成分分析をおこない、特徴点CPの位置により特定される顔の形状sが下記の式(1)によりモデル化する。なお、形状モデルは、特徴点CPの配置モデルとも呼ぶ。   Subsequently, the user sets an AAM shape model (step S130). Specifically, a principal component analysis is performed on a coordinate vector (see FIG. 5) composed of the coordinates (X coordinate and Y coordinate) of 68 feature points CP in each sample image SI, and specified by the position of the feature point CP. The face shape s to be modeled is expressed by the following equation (1). The shape model is also referred to as a feature point CP arrangement model.

Figure 2010250419
Figure 2010250419

上記式(1)において、s0は平均形状である。図6は、平均形状s0の一例を示す説明図である。図6(a)および(b)に示すように、平均形状s0は、サンプル画像SIの各特徴点CPについての平均位置(平均座標)により特定される平均的な顔の形状を表すモデルである。なお、本実施例では、平均形状s0において、外周に位置する特徴点CP(フェイスラインおよび眉毛、眉間に対応する特徴点CP、図4参照)を結ぶ直線により囲まれた領域(図6(b)においてハッチングを付して示す)を「平均形状領域BSA」と呼ぶ。平均形状s0においては、図6(a)に示すように、特徴点CPを頂点とする複数の三角形領域TAが、平均形状領域BSAをメッシュ状に分割するように設定される。 In the above formula (1), s 0 is an average shape. FIG. 6 is an explanatory diagram showing an example of the average shape s 0 . As shown in FIGS. 6A and 6B, the average shape s 0 is a model representing the average face shape specified by the average position (average coordinate) for each feature point CP of the sample image SI. is there. In the present embodiment, in the average shape s 0 , a region surrounded by a straight line connecting feature points CP (face lines, eyebrows, feature points CP corresponding to the eyebrows, see FIG. 4) located on the outer periphery (FIG. 6 ( b) is indicated by hatching) and is referred to as “average shape region BSA”. In the average shape s 0 , as shown in FIG. 6A, a plurality of triangular areas TA having the feature points CP as vertices are set so as to divide the average shape area BSA into a mesh shape.

形状モデルを表す上記式(1)において、siは形状ベクトルであり、piは形状ベクトルsiの重みを表す形状パラメーターである。形状ベクトルsiは、顔の形状sの特性を表すベクトルであり、主成分分析により得られる第i主成分に対応する固有ベクトルである。上記式(1)に示すように、本実施例における形状モデルでは、特徴点CPの配置を表す顔形状sが、平均形状s0とn個の形状ベクトルsiの線形結合との和としてモデル化される。形状モデルにおいて形状パラメーターpiを適切に設定することにより、あらゆる画像における顔の形状sを再現することが可能である。 In the above equation (1) representing the shape model, s i is a shape vector, and p i is a shape parameter representing the weight of the shape vector s i . The shape vector s i is a vector representing the characteristics of the face shape s and is an eigenvector corresponding to the i-th principal component obtained by principal component analysis. As shown in the above equation (1), in the shape model in the present embodiment, the face shape s representing the arrangement of the feature points CP is modeled as the sum of the average shape s 0 and the linear combination of the n shape vectors s i. It becomes. By appropriately setting the shape parameter p i in the shape model, the face shape s in any image can be reproduced.

図7は、形状ベクトルsiおよび形状パラメーターpiと、顔の形状sとの関係を例示した説明図である。図7(a)に示すように、顔の形状sを特定するために、寄与率のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数n(図7ではn=4)の固有ベクトルが、形状ベクトルsiとして採用される。形状ベクトルsiのそれぞれは、図7(a)の矢印に示すように、各特徴点CPの移動方向・移動量と対応している。本実施例では、最も寄与率の大きい第1主成分に対応する第1形状ベクトルs1は顔の左右振りにほぼ相関するベクトルとなっており、形状パラメーターp1を大小することにより、図7(b)に示すように、顔の形状sの横方向の顔向きが変化する。2番目に寄与率の大きい第2主成分に対応する第2形状ベクトルs2は顔の上下振りにほぼ相関するベクトルとなっており、形状パラメーターp2を大小することにより、図7(c)に示すように、顔の形状sの縦方向の顔向きが変化する。また、3番目に寄与率の大きい第3主成分に対応する第3形状ベクトルs3は顔の形状の縦横比にほぼ相関するベクトルとなっており、4番目に寄与率の大きい第4主成分に対応する第4形状ベクトルs4は口の開きの程度にほぼ相関するベクトルとなっている。このように、形状パラメーターの値は、顔の表情や、顔向きなど顔画像の特徴を表す。 FIG. 7 is an explanatory diagram illustrating the relationship between the shape vector s i, the shape parameter p i, and the face shape s. As shown in FIG. 7A, in order to specify the face shape s, the number n set based on the cumulative contribution rate in order from the eigenvector corresponding to the principal component having the larger contribution rate (in FIG. 7, n = The eigenvector of 4) is adopted as the shape vector s i . Each of the shape vectors s i corresponds to the movement direction / movement amount of each feature point CP, as indicated by the arrows in FIG. In this embodiment, most first shape vector s 1 corresponding to the first principal component having a large contribution rate is a vector that is approximately correlated with the left and right appearance of a face, by the magnitude of the shape parameter p 1, 7 As shown in (b), the horizontal face direction of the face shape s changes. Second shape vector s 2 corresponding to the large second principal component of the contribution rate to the second is a vector that is approximately correlated with the vertical appearance of a face, by the magnitude of the shape parameter p 2, FIG. 7 (c) As shown in FIG. 4, the vertical face direction of the face shape s changes. The third shape vector s 3 corresponding to the third principal component having the third largest contribution ratio is a vector that is substantially correlated with the aspect ratio of the face shape, and the fourth principal component having the fourth largest contribution ratio. The fourth shape vector s 4 corresponding to is a vector that is substantially correlated with the degree of mouth opening. As described above, the value of the shape parameter represents the feature of the face image such as facial expression and face orientation.

なお、形状モデル設定ステップ(ステップS130)において設定された平均形状s0および形状ベクトルsiは、AAM情報AMI(図1)として内部メモリー200に格納される。 The average shape s 0 and shape vector s i set in the shape model setting step (step S130) are stored in the internal memory 200 as AAM information AMI (FIG. 1).

つづいて、AAMのテクスチャーモデルの設定をおこなう(ステップS140)。具体的には、まず、各サンプル画像SIに対して、サンプル画像SIにおける特徴点CPの設定位置が平均形状s0における特徴点CPの設定位置と等しくなるように、画像変換(以下、「ワープW」とも呼ぶ)を行う。 Subsequently, an AAM texture model is set (step S140). Specifically, first, for each sample image SI, image conversion (hereinafter referred to as “warp”) is performed so that the setting position of the feature point CP in the sample image SI is equal to the setting position of the feature point CP in the average shape s 0 . W ”).

図8は、サンプル画像SIのワープWの方法の一例を示す説明図である。各サンプル画像SIにおいては、平均形状s0と同様に、外周に位置する特徴点CPにより囲まれた領域をメッシュ状に分割する複数の三角形領域TAが設定される。ワープWは、複数の三角形領域TAのそれぞれについてのアフィン変換の集合である。すなわち、ワープWにおいては、サンプル画像SIにおけるある三角形領域TAの画像は、平均形状s0における対応する三角形領域TAの画像へとアフィン変換される。ワープWにより、特徴点CPの設定位置が平均形状s0における特徴点CPの設定位置と等しいサンプル画像SI(以下「サンプル画像SIw」と表す)が生成される。 FIG. 8 is an explanatory diagram showing an example of a method of warping W of the sample image SI. In each sample image SI, similarly to the average shape s 0 , a plurality of triangular regions TA that divide the region surrounded by the feature points CP located on the outer periphery into mesh shapes are set. The warp W is a set of affine transformations for each of the plurality of triangular areas TA. That is, in the warp W, an image of a certain triangular area TA in the sample image SI is affine transformed into an image of the corresponding triangular area TA in the average shape s 0 . With the warp W, a sample image SI (hereinafter referred to as “sample image SIw”) in which the set position of the feature point CP is equal to the set position of the feature point CP in the average shape s 0 is generated.

なお、各サンプル画像SIwは、平均形状領域BSA(図8においてハッチングを付して示す)を内包する矩形枠を外周とし、平均形状領域BSA以外の領域(以下「マスク領域MA」とも呼ぶ)がマスクされた画像として生成される。平均形状領域BSAとマスク領域MAとを併せた画像領域を基準領域BAと呼ぶ。また、各サンプル画像SIwは、例えば56画素×56画素のサイズの画像として正規化される。   Each sample image SIw has a rectangular frame containing an average shape area BSA (shown with hatching in FIG. 8) as an outer periphery, and an area other than the average shape area BSA (hereinafter also referred to as “mask area MA”). Generated as a masked image. An image area in which the average shape area BSA and the mask area MA are combined is referred to as a reference area BA. Each sample image SIw is normalized as an image having a size of 56 pixels × 56 pixels, for example.

次に、各サンプル画像SIwの画素群xのそれぞれにおける画素値により構成される画像ベクトルに対する主成分分析がおこなわれ、顔のテクスチャー(「見え」とも呼ぶ)A(x)が下記の式(2)によりモデル化される。なお、画素群xは、平均形状領域BSAに位置する画素の集合である。ここで、画素値とは輝度値であり、画像ベクトルは、輝度値により構成される輝度値ベクトルである。   Next, a principal component analysis is performed on an image vector composed of pixel values in each pixel group x of each sample image SIw, and a facial texture (also referred to as “appearance”) A (x) is expressed by the following equation (2): ). The pixel group x is a set of pixels located in the average shape area BSA. Here, the pixel value is a luminance value, and the image vector is a luminance value vector composed of luminance values.

Figure 2010250419
Figure 2010250419

上記式(2)において、A0(x)は平均顔画像である。図9は、平均顔画像A0(x)の一例を示す説明図である。平均顔画像A0(x)は、ワープWの後のサンプル画像SIw(図8参照)の平均の顔が表された画像である。すなわち、平均顔画像A0(x)は、サンプル画像SIwの平均形状領域BSA内の画素群xの画素値(輝度値)の平均をとることにより算出される画像である。従って、平均顔画像A0(x)は、平均的な顔の形状における平均的な顔のテクスチャー(見え)を表すモデルである。なお、平均顔画像A0(x)は、サンプル画像SIwと同様に、平均形状領域BSAとマスク領域MAとで構成され、例えば56画素×56画素のサイズの画像として算出される。 In the above equation (2), A 0 (x) is an average face image. FIG. 9 is an explanatory diagram showing an example of the average face image A 0 (x). The average face image A 0 (x) is an image representing the average face of the sample image SIw (see FIG. 8) after the warp W. That is, the average face image A 0 (x) is an image calculated by taking the average of the pixel values (luminance values) of the pixel group x in the average shape area BSA of the sample image SIw. Therefore, the average face image A 0 (x) is a model representing the average face texture (appearance) in the average face shape. Note that the average face image A 0 (x) is composed of the average shape area BSA and the mask area MA, similarly to the sample image SIw, and is calculated as an image having a size of 56 pixels × 56 pixels, for example.

テクスチャーモデルを表す上記式(2)において、Ai(x)はテクスチャーベクトルであり、λiはテクスチャーベクトルAi(x)の重みを表すテクスチャーパラメーターである。テクスチャーベクトルAi(x)は、顔のテクスチャーA(x)の特性を表すベクトルであり、具体的には、主成分分析により得られる第i主成分に対応する固有ベクトルである。すなわち、寄与率のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数mの固有ベクトルが、テクスチャーベクトルAi(x)として採用される。本実施例では、最も寄与率の大きい第1主成分に対応する第1テクスチャーベクトルA1(x)は、顔色の変化(性別の差とも捉えられる)にほぼ相関するベクトルとなっている。 In the above equation (2) representing the texture model, A i (x) is a texture vector, and λ i is a texture parameter representing the weight of the texture vector A i (x). The texture vector A i (x) is a vector representing the characteristics of the facial texture A (x), and specifically, is an eigenvector corresponding to the i-th principal component obtained by principal component analysis. That is, the number m of eigenvectors set based on the cumulative contribution rate is adopted as the texture vector A i (x) in order from the eigenvector corresponding to the principal component having the larger contribution rate. In the present embodiment, the first texture vector A 1 (x) corresponding to the first principal component having the largest contribution rate is a vector that is substantially correlated with a change in face color (also regarded as a gender difference).

上記式(2)に示すように、本実施例におけるテクスチャーモデルでは、顔の見えを表す顔のテクスチャーA(x)が、平均顔画像A0(x)とm個のテクスチャーベクトルAi(x)の線形結合との和としてモデル化される。テクスチャーモデルにおいてテクスチャーパラメーターλiを適切に設定することにより、あらゆる画像における顔のテクスチャーA(x)を再現することが可能である。なお、テクスチャーモデル設定ステップ(図2のステップS140)において設定された平均顔画像A0(x)およびテクスチャーベクトルAi(x)は、AAM情報AMI(図1)として内部メモリー200に格納される。 As shown in the above equation (2), in the texture model in the present embodiment, the facial texture A (x) representing the appearance of the face is the average face image A 0 (x) and m texture vectors A i (x ) And the linear combination. By appropriately setting the texture parameter λ i in the texture model, it is possible to reproduce the facial texture A (x) in any image. Note that the average face image A 0 (x) and the texture vector A i (x) set in the texture model setting step (step S140 in FIG. 2) are stored in the internal memory 200 as AAM information AMI (FIG. 1). .

以上説明したAAM設定処理(図2)により、顔の形状をモデル化する形状モデルと、顔のテクスチャーをモデル化するテクスチャーモデルが設定される。設定された形状モデルとテクスチャーモデルとを組み合わせることにより、すなわち合成されたテクスチャーA(x)に対して平均形状s0から形状sへの変換(図8に示したワープWの逆変換)を行うことにより、あらゆる顔画像の形状およびテクスチャーを再現することが可能である。 By the AAM setting process described above (FIG. 2), a shape model for modeling the face shape and a texture model for modeling the face texture are set. By combining the set shape model and the texture model, that is, the synthesized texture A (x) is converted from the average shape s 0 to the shape s (inverse conversion of the warp W shown in FIG. 8). Thus, it is possible to reproduce the shape and texture of any face image.

A3.目状態判定情報設定処理:
目状態判定情報設定処理は、目の画像についてのテクスチャーモデルを設定する処理である。本実施例において、目状態判定情報設定処理についてもAAM設定処理と同様に、ユーザによりおこなわれる。
A3. Eye state determination information setting process:
The eye state determination information setting process is a process of setting a texture model for an eye image. In the present embodiment, the eye state determination information setting process is also performed by the user in the same manner as the AAM setting process.

図10は、目状態判定情報設定処理を説明するための説明図である。図10(a)は目領域を例示した説明図である。特徴点CPが設定されたサンプル画像SI(図4)において、図10(a)に示すように、サンプル画像SIの目の輪郭上に設定されている特徴点CPにより囲まれた領域を「目領域EA」と呼ぶ。各サンプル画像SIの目領域EAに対して、目領域EAを形成する特徴点CPの設定位置が平均形状s0における特徴点CPの設定位置と等しくなるように画像変換(ワープW)を行う。ワープWにより、平均形状s0における特徴点CPの設定位置と等しい位置の特徴点CPに囲まれた領域である平均形状目領域BEAを含むサンプル目画像SEIwが生成される。 FIG. 10 is an explanatory diagram for explaining eye state determination information setting processing. FIG. 10A is an explanatory diagram illustrating an eye region. In the sample image SI in which the feature point CP is set (FIG. 4), as shown in FIG. 10A, the region surrounded by the feature point CP set on the eye contour of the sample image SI is “eye This is referred to as “area EA”. Image conversion (warp W) is performed on the eye area EA of each sample image SI so that the setting position of the feature point CP forming the eye area EA is equal to the setting position of the feature point CP in the average shape s 0 . The warp W generates a sample eye image SEIw including an average shape eye area BEA that is an area surrounded by the feature point CP at a position equal to the set position of the feature point CP in the average shape s 0 .

図10(b)は、サンプル目画像を例示した説明図である。図10(b)に示すように、各サンプル目画像SEIwは、平均形状目領域BEAを内包する矩形枠を外周とし、平均形状目領域BEA以外の領域(マスク領域MA)がマスクされた画像として生成される。平均形状目領域BEAとマスク領域MAとを併せた画像領域を基準領域BAと呼ぶ。また、各サンプル目画像SIwは、例えば56画素×56画素のサイズの画像として正規化される。   FIG. 10B is an explanatory diagram illustrating a sample eye image. As shown in FIG. 10B, each sample eye image SEIw is an image in which a rectangular frame containing the average shape eye area BEA is used as the outer periphery, and an area other than the average shape eye area BEA (mask area MA) is masked. Generated. An image area in which the average shape eye area BEA and the mask area MA are combined is referred to as a reference area BA. Each sample eye image SIw is normalized as an image having a size of 56 pixels × 56 pixels, for example.

次に、各サンプル目画像SEIwの画素群xのそれぞれにおける画素値により構成される画像ベクトルに対する主成分分析がおこなわれ、目のテクスチャーが上記の式(2)によりモデル化される。ここで、画素群xは、平均形状目領域BEAに位置する画素の集合である。画素値とは輝度値であり、画像ベクトルは、輝度値により構成される輝度値ベクトルである。なお、AAM設定処理で設定されるテクスチャーモデルと区別するために、以後、目状態判定情報設定処理により設定されるテクスチャーモデルには、ダッシュ(’)を付けて説明する。例えば、平均形状目領域BEAのテクスチャーは、テクスチャーA’(x)と呼ぶ。A’0(x)は、平均目画像である。平均目画像A’0(x)は、ワープWの後のサンプル目画像SEIw(図10(b)参照)の平均の目の見えが表された画像である。なお、平均目画像A’0(x)は、サンプル目画像SEIwと同様に、平均形状目領域BEAとマスク領域MAとで構成され、例えば56画素×56画素のサイズの画像として算出される。 Next, a principal component analysis is performed on an image vector composed of pixel values in each pixel group x of each sample eye image SEIw, and the texture of the eyes is modeled by the above equation (2). Here, the pixel group x is a set of pixels located in the average shape eye area BEA. The pixel value is a luminance value, and the image vector is a luminance value vector composed of luminance values. In order to distinguish from the texture model set in the AAM setting process, the texture model set in the eye state determination information setting process will be described below with a dash ('). For example, the texture of the average shape eye area BEA is referred to as texture A ′ (x). A ′ 0 (x) is an average eye image. The average eye image A ′ 0 (x) is an image in which the average eye appearance of the sample eye image SEIw (see FIG. 10B) after the warp W is expressed. The average eye image A ′ 0 (x) is composed of an average shape eye area BEA and a mask area MA, as with the sample eye image SEIw, and is calculated as an image having a size of, for example, 56 pixels × 56 pixels.

目のテクスチャーモデルでは、目の見えを表す目のテクスチャーA’(x)が、平均目画像A’0(x)とm個のテクスチャーベクトルA’i(x)の線形結合との和としてモデル化される。目のテクスチャーモデルにおいてテクスチャーパラメーターλ’iを適切に設定することにより、例えば、目の開閉や、黒目の位置などを変化させた、あらゆる目の画像をテクスチャーA’(x)により再現することが可能である。なお、設定された平均目画像A’0(x)およびテクスチャーベクトルA’i(x)は、目状態判定情報IJI(図1)として内部メモリー200に格納される。 In the eye texture model, the eye texture A ′ (x) representing the appearance of the eyes is modeled as the sum of the average eye image A ′ 0 (x) and a linear combination of m texture vectors A ′ i (x). It becomes. By appropriately setting the texture parameter λ ′ i in the eye texture model, it is possible to reproduce any eye image with the texture A ′ (x), for example, by changing the eye opening and closing, the position of the black eye, etc. Is possible. The set average eye image A ′ 0 (x) and texture vector A ′ i (x) are stored in the internal memory 200 as eye state determination information IJI (FIG. 1).

図10(c)は、第1テクスチャーベクトルとサンプル目画像との関係を例示した説明図である。本実施例では、最も寄与率の大きい第1主成分に対応する第1テクスチャーベクトルA’1(x)は、目の開閉にほぼ相関するベクトルとなるように、主成分分析の対象とするサンプル目画像SEIwが選定されている。具体的には、主成分分析の対象とするサンプル目画像SEIwに、目瞑り状態の目画像と目開き状態の目画像を含めることにより、意図的に目の開閉に相関する主成分が形成されるようにしている。これにより、目の開閉にほぼ相関する第1テクスチャーベクトルA’1(x)の係数であるテクスチャーパラメーターλ’1の値を変化させることで、図10(c)に示すように、目画像の目の開閉状態の変化を表現することができる。なお、本実施例では、第1主成分に目の開閉に相関するテクスチャーベクトルが形成されるものとして説明しているが、必ずしも、第1主成分に形成される必要はなく、例えば、第2主成分や第3主成分など、これ以外の主成分として形成されていてもよい。 FIG. 10C is an explanatory diagram illustrating the relationship between the first texture vector and the sample eye image. In the present embodiment, the first texture vector A ′ 1 (x) corresponding to the first principal component having the largest contribution rate is a sample to be subjected to principal component analysis so that the first texture vector A ′ 1 (x) is a vector that is substantially correlated with the opening and closing of the eyes. An eye image SEIw is selected. Specifically, by including in the sample eye image SEIw which is the subject of principal component analysis, an eye image in a closed state and an eye image in an open state, a principal component that is intentionally correlated with the opening and closing of the eyes is formed. I try to do it. Thus, by changing the value of the texture parameter λ ′ 1 that is a coefficient of the first texture vector A ′ 1 (x) that is substantially correlated with the opening and closing of the eye, as shown in FIG. A change in the open / closed state of the eye can be expressed. In the present embodiment, a description is given on the assumption that a texture vector correlating with opening and closing of the eye is formed in the first principal component. However, it is not always necessary to form the texture vector in the first principal component. You may form as main components other than this, such as a main component and a 3rd main component.

A4.居眠り検出処理:
図11は、第1実施例における居眠り検出処理の流れを示すフローチャートである。本実施例における居眠り検出処理は、対象とする顔(以後「対象顔」とも呼ぶ)が居眠りをしている状態を表しているか否かを検出する処理である。具体的には、DSC100は、対象顔を撮影して対象顔を含む画像を表す画像データを生成し、画像データから対象顔が居眠りをしている状態を表しているか否かを検出する。
A4. Dozing detection processing:
FIG. 11 is a flowchart showing the flow of the dozing detection process in the first embodiment. The dozing detection process in the present embodiment is a process for detecting whether or not a target face (hereinafter also referred to as “target face”) represents a dozing state. Specifically, the DSC 100 shoots the target face, generates image data representing an image including the target face, and detects whether or not the target face represents a sleeping state from the image data.

画像生成部210は、居眠り検出処理の対象となる画像データを生成する(ステップS210)。具体的には、DSC100は、撮影を行う領域を表示部114に表示し、ユーザによる操作部116の操作を受けて対象顔を含む領域を撮影する。画像生成部210は、撮影した対象顔を含む領域の画像データを生成し、内部メモリー200の所定の領域に格納する。本実施例では、DSC100は、対象顔を所定の時間間隔で連続的に撮影し、それぞれの画像データを生成する。なお、生成した画像データのうち、以下の説明の対象とする画像データを特に注目画像データと呼び、注目画像データにより表される画像を注目画像OIと呼ぶものとする。   The image generation unit 210 generates image data that is a target of the dozing detection process (step S210). Specifically, the DSC 100 displays a region to be photographed on the display unit 114, and photographs a region including the target face in response to an operation of the operation unit 116 by the user. The image generation unit 210 generates image data of an area including the captured target face and stores the image data in a predetermined area of the internal memory 200. In the present embodiment, the DSC 100 continuously captures the target face at predetermined time intervals and generates respective image data. Of the generated image data, image data to be described below is particularly referred to as attention image data, and an image represented by the attention image data is referred to as attention image OI.

DSC100は、目領域検出処理をおこなう(ステップs220)。目領域検出処理とは、注目画像OIから目領域EAを検出する処理である。図12は、第1実施例における目領域検出処理の流れを示すフローチャートである。本実施例における目領域検出処理は、AAMを利用して、注目画像に含まれる顔画像における特徴点CPの配置を決定することにより、顔画像における特徴部位の位置を検出し、検出した特徴部位の位置から目領域を特定する。上述したように、本実施例では、AAM設定処理(図2)において、人物の顔の器官(眉毛、目、鼻、口)および顔の輪郭における計68箇所の所定位置が、特徴部位として設定されている(図4参照)。そのため、本実施例における特徴部位の位置の検出は、人物の顔の器官および顔の輪郭における所定位置を表す68個の特徴点CPの位置を特定することによりおこなう。   The DSC 100 performs eye area detection processing (step s220). The eye area detection process is a process for detecting the eye area EA from the target image OI. FIG. 12 is a flowchart showing the flow of eye area detection processing in the first embodiment. The eye region detection processing in the present embodiment uses AAM to detect the position of the feature part in the face image by determining the arrangement of the feature points CP in the face image included in the target image, and the detected feature part The eye area is specified from the position of. As described above, in the present embodiment, in the AAM setting process (FIG. 2), a total of 68 predetermined positions in the human facial organs (eyebrows, eyes, nose, mouth) and facial contour are set as the characteristic parts. (See FIG. 4). Therefore, the position of the characteristic part in the present embodiment is detected by specifying the positions of 68 characteristic points CP representing predetermined positions in the facial organs and facial contours of the person.

本実施例では、注目画像OIより時間的に前に目領域検出処理がなされた画像を被検出画像DIとも呼ぶ。被検出画像DIは、注目画像OIと画像サイズが等しい。被検出画像DIのうち特に、注目画像OIの直前に撮影され、目領域検出処理がなされた画像を被検出画像DI1とし、被検出画像DI1の直前に撮影され、目領域検出処理がなされた画像を被検出画像DI2とする。また、被検出画像DIにおける目領域EAの検出に関連する情報を検出情報DCIと呼ぶ。本実施例における目領域検出処理は、検出情報DCIに応じて、被検出画像DIに対する目領域検出処理の検出結果を利用して注目画像OIから目領域EAを検出する。被検出画像DIの検出結果を利用する場合の条件や、利用する検出結果の詳細については後述する。   In the present embodiment, an image that has been subjected to eye region detection processing temporally before the target image OI is also referred to as a detected image DI. The detected image DI has the same image size as the target image OI. Of the detected images DI, in particular, an image taken immediately before the target image OI and subjected to eye region detection processing is defined as a detected image DI1, and an image captured immediately before the detected image DI1 and subjected to eye region detection processing. Is a detected image DI2. Information related to detection of the eye area EA in the detected image DI is referred to as detection information DCI. In the eye area detection process in the present embodiment, the eye area EA is detected from the attention image OI using the detection result of the eye area detection process for the detected image DI in accordance with the detection information DCI. The conditions for using the detection result of the detected image DI and the details of the detection result to be used will be described later.

図12に示すように、処理判定部236は、内部メモリー200に検出情報DCIがあるか否かを判定する(ステップS310)。検出情報DCIは、既述のとおり、被検出画像DIについての目領域の検出に関連する情報であり、具体的には、目領域検出部232が検出した顔の特徴部位の位置が、真の顔の特徴部位の位置である確からしさを表す指標である特徴部位信頼度や、目領域検出処理がなされた時間が異なる2以上の被検出画像DIにおいてそれぞれ検出された顔の特徴部位の座標位置の差異などを含む。本実施例では、検出情報DCIとして特徴部位信頼度を用いて説明する。   As shown in FIG. 12, the process determining unit 236 determines whether or not the detection information DCI exists in the internal memory 200 (step S310). As described above, the detection information DCI is information related to the detection of the eye area for the detected image DI. Specifically, the position of the facial feature detected by the eye area detection unit 232 is true. The coordinate position of the feature part of the face detected in each of the two or more detected images DI having different feature part reliability, which is an index representing the probability of the position of the feature part of the face, and the time when the eye region detection process is performed Including differences. In the present embodiment, description will be made using the characteristic part reliability as the detection information DCI.

内部メモリー200に検出情報DCIがない場合と判定された場合には(ステップS310:NO)、顔領域検出部231(図1)は、注目画像OIに対して顔領域FAの検出処理をおこなう(ステップS320)。すなわち、顔領域検出部231は、注目画像OIに含まれる顔画像に基づいて、顔画像の少なくとも一部を含む領域を顔領域FAとして検出する。顔領域FAの検出は、公知の顔検出手法を用いて行うことができる。公知の顔検出手法としては、例えば、パターンマッチングによる手法や肌色領域抽出による手法、サンプル画像を用いた学習(例えばニューラルネットワークを用いた学習や、ブースティングを用いた学習、サポートベクターマシーンを用いた学習等)により設定される学習データを用いる手法等がある。   When it is determined that there is no detection information DCI in the internal memory 200 (step S310: NO), the face area detection unit 231 (FIG. 1) performs a face area FA detection process on the target image OI ( Step S320). That is, the face area detection unit 231 detects an area including at least a part of the face image as the face area FA based on the face image included in the target image OI. The detection of the face area FA can be performed using a known face detection method. Known face detection methods include, for example, pattern matching methods, skin color region extraction methods, learning using sample images (for example, learning using neural networks, learning using boosting, and support vector machines). For example, a method using learning data set by learning).

図13は、注目画像OIにおける顔領域FAの検出結果の一例を示す説明図である。図13には、注目画像OIにおいて検出された顔領域FAが示されている。本実施例では、おおよそ、顔の上下方向は額から顎まで、左右方向は両耳の外側まで含む矩形の領域が顔領域FAとして検出されるような顔検出手法が用いられている。   FIG. 13 is an explanatory diagram illustrating an example of the detection result of the face area FA in the target image OI. FIG. 13 shows the face area FA detected in the target image OI. In the present embodiment, a face detection method is used in which a rectangular area including the vertical direction of the face from the forehead to the chin and the horizontal direction from the outside of both ears is detected as the face area FA.

顔領域FAの検出処理の後、初期位置設定部233(図1)は、注目画像OIに対する特徴点CPの初期位置を設定する(ステップS330)。図14は、第1実施例における特徴点CPの初期位置設定処理の流れを示すフローチャートである。本実施例では、初期位置設定部233は、顔領域FAに対する顔画像の大きさ、傾き、位置(上下方向の位置および左右方向の位置)を表すグローバルパラメーターの値と、特徴量である形状パラメーターp1および形状パラメーターp2の値と、を種々変更して、特徴点CPを注目画像OI上の仮設定位置に設定する(ステップS410)。 After the face area FA detection process, the initial position setting unit 233 (FIG. 1) sets the initial position of the feature point CP with respect to the target image OI (step S330). FIG. 14 is a flowchart showing a flow of initial position setting processing of the feature point CP in the first embodiment. In this embodiment, the initial position setting unit 233 includes global parameter values representing the size, inclination, and position (vertical position and horizontal position) of the face image with respect to the face area FA, and shape parameters that are feature amounts. The feature point CP is set to a temporarily set position on the target image OI by variously changing the values of p 1 and the shape parameter p 2 (step S410).

図15は、グローバルパラメーターの値を変更することによる特徴点CPの仮設定位置の一例を示す説明図である。図15(a)および図15(b)には、注目画像OIにおける特徴点CPおよび特徴点CPをつないで形成されるメッシュが示されている。初期位置設定部233は、図15(a)および図15(b)の中央に示すように、顔領域FAの中央部に平均形状s0が形成されるような特徴点CPの仮設定位置(以下、「基準仮設定位置」とも呼ぶ)を設定する。 FIG. 15 is an explanatory diagram showing an example of a temporary setting position of the feature point CP by changing the value of the global parameter. FIGS. 15A and 15B show a mesh formed by connecting feature points CP and feature points CP in the target image OI. As shown in the center of FIGS. 15A and 15B, the initial position setting unit 233 temporarily sets the feature point CP such that the average shape s 0 is formed in the center of the face area FA ( Hereinafter, it is also referred to as “reference temporary setting position”.

初期位置設定部233は、また、基準仮設定位置に対して、グローバルパラメーターの値を種々変更させた複数の仮設定位置を設定する。グローバルパラメーター(大きさ、傾き、上下方向の位置および左右方向の位置)を変更すると、注目画像OIにおいて特徴点CPにより形成されるメッシュが拡大・縮小、傾きを変更、並行移動する。従って、初期位置設定部233は、図15(a)に示すように、基準仮設定位置のメッシュを所定倍率で拡大または縮小したメッシュを形成するような仮設定位置(基準仮設定位置の図の下および上に示す)や、所定角度だけ時計回りまたは半時計回りに傾きを変更したメッシュを形成するような仮設定位置(基準仮設定位置の図の右および左に示す)を設定する。また、初期位置設定部233は、基準仮設定位置のメッシュに対して、拡大・縮小および傾きの変更を組み合わせた変換を行ったメッシュを形成するような仮設定位置(基準仮設定位置の図の左上、左下、右上、右下に示す)も設定する。   The initial position setting unit 233 also sets a plurality of temporary setting positions obtained by changing various global parameter values with respect to the reference temporary setting position. When the global parameters (size, inclination, vertical position and horizontal position) are changed, the mesh formed by the feature point CP in the target image OI is enlarged / reduced, the inclination is changed, and the mesh is moved in parallel. Therefore, as shown in FIG. 15A, the initial position setting unit 233 forms a temporary setting position (a reference temporary setting position diagram) that forms a mesh obtained by enlarging or reducing the mesh at the reference temporary setting position at a predetermined magnification. A temporary setting position (shown on the right and left in the drawing of the reference temporary setting position) that forms a mesh whose inclination is changed clockwise or counterclockwise by a predetermined angle. In addition, the initial position setting unit 233 forms a temporary setting position (in the drawing of the reference temporary setting position in the figure of the reference temporary setting position) that forms a mesh obtained by performing a combination of enlargement / reduction and inclination change on the reference temporary setting position mesh. Also set (upper left, lower left, upper right, lower right).

また、図15(b)に示すように、初期位置設定部233は、基準仮設定位置のメッシュを所定量だけ上または下に並行移動したメッシュを形成するような仮設定位置(基準仮設定位置の図の上および下に示す)や、左または右に並行移動したメッシュを形成するような仮設定位置(基準仮設定位置の図の左および右に示す)を設定する。また、初期位置設定部233は、基準仮設定位置のメッシュに対して、上下および左右の並行移動を組み合わせた変換を行ったメッシュを形成するような仮設定位置(基準仮設定位置の図の左上、左下、右上、右下に示す)も設定する。   Further, as shown in FIG. 15B, the initial position setting unit 233 forms a temporary setting position (reference temporary setting position) that forms a mesh that is translated upward or downward by a predetermined amount from the mesh of the reference temporary setting position. And a temporary setting position (shown on the left and right of the reference temporary setting position diagram) that forms a mesh moved in parallel to the left or right. In addition, the initial position setting unit 233 forms a temporary setting position (upper left of the figure of the reference temporary setting position) that forms a mesh obtained by performing a combination of vertical and horizontal parallel movements on the reference temporary setting position mesh. , Lower left, upper right, and lower right).

初期位置設定部233は、図15(a)に示す基準仮設定位置以外の8つの仮設定位置のそれぞれにおけるメッシュに対して図15(b)に示す上下左右の並行移動が実行される仮設定位置も設定する。従って、本実施例では、4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)をそれぞれ既知の3段階の値として組み合わせにより設定される80通り(=3×3×3×3−1)の仮設定位置と、基準仮設定位置の合計81通りの仮設定位置が設定される。   The initial position setting unit 233 performs temporary setting in which up / down / left / right parallel movement illustrated in FIG. 15B is performed on the mesh at each of the eight temporary setting positions other than the reference temporary setting position illustrated in FIG. Also set the position. Therefore, in the present embodiment, the four global parameters (size, inclination, vertical position, horizontal position) are set in 80 ways (= 3 × 3 × 3) that are set as known three-level values. A total of 81 temporary setting positions of (3-1) temporary setting positions and reference temporary setting positions are set.

初期位置設定部233は、設定された各仮設定位置に対応する平均形状画像I(W(x;p))を生成する(ステップS420)。図16は、平均形状画像I(W(x;p))の一例を示す説明図である。平均形状画像I(W(x;p))は、入力画像における特徴点CPの配置が平均形状s0における特徴点CPの配置と等しくなるような変換によって算出される。 The initial position setting unit 233 generates an average shape image I (W (x; p)) corresponding to each set temporary setting position (step S420). FIG. 16 is an explanatory diagram showing an example of the average shape image I (W (x; p)). The average shape image I (W (x; p)) is calculated by conversion such that the arrangement of the feature points CP in the input image is equal to the arrangement of the feature points CP in the average shape s 0 .

平均形状画像I(W(x;p))を算出するための変換は、サンプル画像SIw算出のための変換と同様に、三角形領域TA毎のアフィン変換の集合であるワープWにより行われる。具体的には、注目画像OIに配置された特徴点CPによって、外周に位置する特徴点CP(フェイスラインおよび眉毛、眉間に対応する特徴点CP)を結ぶ直線により囲まれた領域である平均形状領域BSAが特定され、注目画像OIにおける平均形状領域BSAに対して三角形領域TA毎のアフィン変換が行われることにより、平均形状画像I(W(x;p))が算出される。本実施例では、平均形状画像I(W(x;p))は、平均顔画像A0(x)と同様に平均形状領域BSAおよびマスク領域MAにより構成され、平均顔画像A0(x)と同サイズの画像として算出される。 Similar to the conversion for calculating the sample image SIw, the conversion for calculating the average shape image I (W (x; p)) is performed by a warp W that is a set of affine conversions for each triangular area TA. Specifically, an average shape that is an area surrounded by a straight line connecting feature points CP (feature points CP corresponding to face lines, eyebrows, and eyebrows) located on the outer periphery by feature points CP arranged in the target image OI The area BSA is specified, and the average shape image I (W (x; p)) is calculated by performing affine transformation for each triangular area TA on the average shape area BSA in the target image OI. In this embodiment, the average shape image I (W (x; p) ) is composed of an average face image A 0 (x) and an average shape area BSA and a mask area MA, average face image A 0 (x) And is calculated as an image of the same size.

なお、上述したように、画素群xは、平均形状s0における平均形状領域BSAに位置する画素の集合である。ワープW実行後の画像(平均形状s0を有する顔画像)における画素群xに対応するワープW実行前の画像(注目画像OIの平均形状領域BSA)における画素群をW(x;p)と表す。平均形状画像は、注目画像OIの平均形状領域BSAにおける画素群W(x;p)のそれぞれにおける輝度値により構成される画像であるため、I(W(x;p))と表される。図16には、図15(a)に示した9個の仮設定位置に対応する9個の平均形状画像I(W(x;p))を示している。 As described above, the pixel group x is a set of pixels located in the average shape region BSA in the average shape s 0 . The pixel group in the image (average shape area BSA of the target image OI) before execution of the warp W corresponding to the pixel group x in the image after execution of the warp W (face image having the average shape s 0 ) is expressed as W (x; p). To express. Since the average shape image is an image composed of luminance values in each of the pixel groups W (x; p) in the average shape region BSA of the target image OI, it is represented as I (W (x; p)). FIG. 16 shows nine average shape images I (W (x; p)) corresponding to the nine temporarily set positions shown in FIG.

初期位置設定部233は、各仮設定位置に対応する平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieを算出する(ステップS430)。差分画像Ieは、平均形状画像I(W(x;p))と平均顔画像A0(x)の各画素値の差であり、本実施例では差分値とも呼ぶ。差分画像Ieは、特徴点CPの設定位置が、特徴部位の位置と一致している場合には表れないため、特徴点CPの設定位置と、特徴部位の位置と差異を表している。本実施例では、特徴点CPの仮設定位置は81種類設定されているため、初期位置設定部233は、81個の差分画像Ieを算出することとなる。 The initial position setting unit 233 calculates a difference image Ie between the average shape image I (W (x; p)) and the average face image A 0 (x) corresponding to each temporary setting position (step S430). The difference image Ie is a difference between pixel values of the average shape image I (W (x; p)) and the average face image A 0 (x), and is also referred to as a difference value in this embodiment. Since the difference image Ie does not appear when the setting position of the feature point CP matches the position of the feature part, the difference image Ie represents the difference between the setting position of the feature point CP and the position of the feature part. In this embodiment, since 81 types of temporarily set positions of the feature points CP are set, the initial position setting unit 233 calculates 81 difference images Ie.

初期位置設定部233は、各差分画像Ieの画素値からノルムを算出し、ノルムの値が最も小さい差分画像Ieに対応する仮設置位置(以下「ノルム最小仮設定位置」とも呼ぶ)を、注目画像OIにおける特徴点CPの初期位置として設定する(ステップS440)。画素値は輝度値であってもよいしRGB値であってもよい。以上により、特徴点CP初期位置設定処理が完了する。   The initial position setting unit 233 calculates a norm from the pixel value of each difference image Ie, and pays attention to a temporary installation position corresponding to the difference image Ie having the smallest norm value (hereinafter also referred to as “norm minimum temporary setting position”). The initial position of the feature point CP in the image OI is set (step S440). The pixel value may be a luminance value or an RGB value. The feature point CP initial position setting process is thus completed.

特徴点CP初期位置設定処理が完了すると、図12に戻り、特徴位置検出部234(図1)は、注目画像OIにおける特徴点CPの設定位置の補正を行う(ステップS340)。図17は、第1実施例における特徴点CP設定位置補正処理の流れを示すフローチャートである。   When the feature point CP initial position setting process is completed, the process returns to FIG. 12, and the feature position detector 234 (FIG. 1) corrects the set position of the feature point CP in the target image OI (step S340). FIG. 17 is a flowchart showing the flow of the feature point CP setting position correction process in the first embodiment.

特徴位置検出部234は、注目画像OIから平均形状画像I(W(x;p))を算出する(ステップS510)。平均形状画像I(W(x;p))の算出方法は、特徴点CP初期位置設定処理におけるステップS420と同様である。   The feature position detection unit 234 calculates the average shape image I (W (x; p)) from the attention image OI (step S510). The calculation method of the average shape image I (W (x; p)) is the same as that in step S420 in the feature point CP initial position setting process.

特徴位置検出部234は、平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieを算出する(ステップS520)。特徴位置検出部234は、差分画像Ieに基づき、特徴点CPの設定位置補正処理が収束したか否かを判定する(ステップS530)。特徴位置検出部234は、差分画像Ieのノルムを算出し、ノルムの値が予め設定された閾値より小さい場合には収束したと判定し、ノルムの値が閾値以上の場合には未だ収束していないと判定する。 The feature position detection unit 234 calculates a difference image Ie between the average shape image I (W (x; p)) and the average face image A 0 (x) (step S520). The feature position detection unit 234 determines whether or not the feature point CP setting position correction process has converged based on the difference image Ie (step S530). The feature position detection unit 234 calculates the norm of the difference image Ie, determines that the norm value has converged if it is smaller than a preset threshold value, and has converged if the norm value is greater than or equal to the threshold value. Judge that there is no.

なお、特徴位置検出部234は、算出された差分画像Ieのノルムの値が前回のステップS520において算出された値よりも小さい場合には収束したと判定し、前回値以上である場合には未だ収束していないと判定するものとしてもよい。あるいは、特徴位置検出部234は、閾値による判定と前回値との比較による判定とを組み合わせて収束判定を行うものとしてもよい。例えば、特徴位置検出部234は、算出されたノルムの値が、閾値より小さく、かつ、前回値より小さい場合にのみ収束したと判定し、それ以外の場合には未だ収束していないと判定するものとしてもよい。   The feature position detection unit 234 determines that the calculated norm value of the difference image Ie has converged when the value is smaller than the value calculated in the previous step S520, and still determines that the value is equal to or greater than the previous value. It is good also as what determines with not having converged. Alternatively, the feature position detection unit 234 may perform convergence determination by combining determination based on a threshold value and determination based on comparison with a previous value. For example, the feature position detection unit 234 determines that the calculated norm value is converged only when the calculated norm value is smaller than the threshold value and smaller than the previous value, and otherwise determines that it has not converged yet. It may be a thing.

上記のステップS530の収束判定において未だ収束していないと判定した場合には、特徴位置検出部234は、パラメーター更新量ΔPを算出する(ステップS540)。パラメーター更新量ΔPは、4個のグローバルパラメーター(全体としての大きさ、傾き、X方向位置、Y方向位置)、および、AAM設定処理により算出されるn個の形状パラメーターpi(式(1)参照)の値の変更量を意味している。なお、特徴点CPを初期位置に設定した直後においては、グローバルパラメーターは、特徴点CP初期位置設定処理において決定された値が設定されている。また、このときの特徴点CPの初期位置と平均形状s0の特徴点CPの設定位置との相違は、全体としての大きさ、傾き、位置の相違に限られるため、形状モデルにおける形状パラメーターpiの値はすべてゼロである。 When it is determined that the convergence has not yet been made in the convergence determination in step S530, the feature position detection unit 234 calculates the parameter update amount ΔP (step S540). The parameter update amount ΔP includes four global parameters (total size, inclination, X direction position, Y direction position), and n shape parameters p i calculated by the AAM setting process (formula (1)) This means the amount of change in the value of (see). Note that immediately after the feature point CP is set to the initial position, the value determined in the feature point CP initial position setting process is set as the global parameter. Further, difference between the initial position of the characteristic point CP and sets the position of the characteristic points CP of the average shape s 0 in this case, the overall size, the tilt, because it is limited to the difference in position, shape parameters in the shape model p The values of i are all zero.

パラメーター更新量ΔPは、下記の式(3)により算出される。すなわち、パラメーター更新量ΔPは、アップデートマトリックスRと差分画像Ieとの積である。   The parameter update amount ΔP is calculated by the following equation (3). That is, the parameter update amount ΔP is a product of the update matrix R and the difference image Ie.

Figure 2010250419
Figure 2010250419

式(3)におけるアップデートマトリックスRは、差分画像Ieに基づきパラメーター更新量ΔPを算出するために予め学習により設定されたM行N列のマトリックスであり、AAM情報AMI(図1)として内部メモリー200に格納されている。本実施例では、アップデートマトリックスRの行数Mは、グローバルパラメーターの数(4個)と、形状パラメーターpiの数(n個)との和((4+n)個)に等しく、列数Nは、平均顔画像A0(x)の平均形状領域BSA内の画素数(56画素×56画素−マスク領域MAの画素数)に等しい。アップデートマトリックスRは、下記の式(4)および(5)により算出される。 The update matrix R in the expression (3) is a matrix of M rows and N columns set in advance by learning in order to calculate the parameter update amount ΔP based on the difference image Ie, and the internal memory 200 is used as the AAM information AMI (FIG. 1). Stored in In this embodiment, the number of rows M in the update matrix R is equal to the sum ((4 + n)) of the number of global parameters (4) and the number of shape parameters p i (n), and the number of columns N is , average face image a 0 average number of pixels in the shape area BSA of (x) - is equal to (56 pixels × 56 pixels the number of pixels in the mask area MA). The update matrix R is calculated by the following formulas (4) and (5).

Figure 2010250419
Figure 2010250419
Figure 2010250419
Figure 2010250419

特徴位置検出部234は、算出されたパラメーター更新量ΔPに基づきパラメーター(4個のグローバルパラメーターおよびn個の形状パラメーターpi)を更新する(ステップS550)。これにより、注目画像OIにおける特徴点CPの設定位置が更新される。特徴位置検出部234は、差分画像Ieのノルムが小さくなるように更新する。パラメーターの更新の後には、再度、特徴点CPの設置位置が補正された注目画像OIからの平均形状画像I(W(x;p))の算出(ステップS510)、差分画像Ieの算出(ステップS520)、差分画像Ieに基づく収束判定(ステップS530)が行われる。再度の収束判定においても収束していないと判定された場合には、さらに、差分画像Ieに基づくパラメーター更新量ΔPの算出(ステップS540)、パラメーターの更新による特徴点CPの設定位置補正(ステップS550)が行われる。 The feature position detection unit 234 updates parameters (four global parameters and n shape parameters p i ) based on the calculated parameter update amount ΔP (step S550). Thereby, the setting position of the feature point CP in the target image OI is updated. The feature position detector 234 updates the difference image Ie so that the norm of the difference image Ie becomes small. After the parameter update, the average shape image I (W (x; p)) is calculated again from the target image OI in which the installation position of the feature point CP is corrected (step S510), and the difference image Ie is calculated (step S520), convergence determination based on the difference image Ie (step S530) is performed. If it is determined that the convergence has not occurred in the convergence determination again, the parameter update amount ΔP based on the difference image Ie is calculated (step S540), and the setting position correction of the feature point CP by the parameter update (step S550). ) Is performed.

図17のステップS510からS550までの処理が繰り返し実行されると、注目画像OIにおける各特徴部位に対応する特徴点CPの位置は実際の特徴部位の位置に全体として近づいていき、ある時点で収束判定(ステップS530)において収束したと判定される。収束判定において収束したと判定されると、目領域検出処理が完了する(ステップS560)。このとき設定されているグローバルパラメーターおよび形状パラメーターの値により特定される特徴点CPの設定位置が、最終的な注目画像OIにおける特徴点CPの設定位置として特定される。また、特定された特徴点CPから注目画像OIにおける目領域EAが特定される。なお、ステップS510からS550までの処理の繰り返しにより、注目画像OIにおける各特徴部位に対応する特徴点CPの位置と実際の特徴部位の位置とが一致する場合もある。   When the processing from step S510 to S550 in FIG. 17 is repeatedly executed, the position of the feature point CP corresponding to each feature part in the target image OI approaches the position of the actual feature part as a whole, and converges at a certain time. In the determination (step S530), it is determined that convergence has occurred. If it is determined in the convergence determination that convergence has been achieved, the eye area detection process is completed (step S560). The setting position of the feature point CP specified by the values of the global parameter and the shape parameter set at this time is specified as the setting position of the feature point CP in the final target image OI. Further, the eye area EA in the target image OI is specified from the specified feature point CP. Note that, by repeating the processes from step S510 to S550, the position of the feature point CP corresponding to each feature part in the target image OI may coincide with the position of the actual feature part.

図18は、特徴点CP設定位置補正処理の結果の一例を示す説明図である。図18には、注目画像OIにおいて最終的に特定された特徴点CPの設定位置が示されている。特徴点CPの設定位置により、注目画像OIに含まれる顔の特徴部位(人物の顔の器官(眉毛、目、鼻、口)および顔の輪郭における所定位置)の位置が特定されるため、注目画像OIにおける人物の顔の器官の形状・位置や顔の輪郭形状の検出が可能となる。また目領域EAが検出される。以上により、特徴点CP設定位置補正処理が完了する。   FIG. 18 is an explanatory diagram illustrating an example of a result of the feature point CP setting position correction process. FIG. 18 shows the setting positions of the feature points CP finally specified in the target image OI. Since the position of the feature point CP specifies the position of the facial feature part (predetermined position in the facial organs (eyebrows, eyes, nose, mouth) and facial contour) included in the attention image OI. It is possible to detect the shape and position of the human face organ and the face contour shape in the image OI. An eye area EA is detected. Thus, the feature point CP setting position correction process is completed.

特徴点CP設定位置補正処理が完了すると、図12に戻り、検出情報算出部235(図1)は、検出情報DCIを更新する(ステップS350)。本実施例では、検出情報DCIとして特徴部位信頼度を用いているので、検出情報算出部235は、注目画像OIについての特徴部位信頼度を算出する。特徴部位信頼度は、収束した差分画像Ieのノルムに基づき算出される指標であり、検出された特徴部位の位置が真に顔の特徴部位の位置であることの確からしさを表す。目領域検出処理では、顔の特徴部位の位置ではない位置、すなわち、真の顔の特徴部位の位置とまったく重複しない位置や、真の顔の特徴部位の位置の一部と重複するが正確に対応する位置ではない位置が、誤って顔の特徴部位の位置として検出される可能性がある。特徴部位信頼度は、顔の特徴部位の位置の検出が、誤検出ではなく正しい検出であることの確からしさを表している。   When the feature point CP setting position correction process is completed, the process returns to FIG. 12, and the detection information calculation unit 235 (FIG. 1) updates the detection information DCI (step S350). In this embodiment, since the feature part reliability is used as the detection information DCI, the detection information calculation unit 235 calculates the feature part reliability for the attention image OI. The feature part reliability is an index calculated based on the norm of the converged difference image Ie, and represents the certainty that the position of the detected feature part is truly the position of the facial feature part. In the eye region detection process, a position that is not the position of the feature part of the face, that is, a position that does not overlap at all with the position of the feature part of the true face or overlaps with a part of the position of the feature part of the true face is accurate. There is a possibility that a position that is not the corresponding position is erroneously detected as the position of the facial feature part. The feature part reliability indicates the certainty that the detection of the position of the feature part of the face is not a false detection but a correct detection.

図19は、差分画像のノルムと特徴部位信頼度との関係を例示した説明図である。検出情報算出部235は、予め用意された図19に示す対応図を用いて、差分画像Ieのノルムから特徴部位信頼度を算出する。図19の対応図を用いることで、特徴部位信頼度の値が0〜100の範囲となるように差分画像Ieのノルムがスケール変換される。ここで、特徴部位信頼度が0の場合は、顔の特徴部位の位置が正しく検出されていない可能性が高いことを意味し、信頼度が100の場合は、顔の特徴部位の位置が正しく検出された可能性が高いことを意味する。なお、差分画像Ieのノルムから照明などの影響を取り除くために、平均形状画像I(W(x;p))に含まれる各画素の輝度値と平均顔画像A0(x)の画素値(輝度値)の平均値や分散を揃えるように正規化をおこなってもよい。検出情報算出部235は、算出した注目画像OIの特徴部位信頼度を内部メモリー200に格納する。 FIG. 19 is an explanatory diagram illustrating the relationship between the norm of the difference image and the characteristic part reliability. The detection information calculation unit 235 calculates the feature part reliability from the norm of the difference image Ie using the correspondence diagram shown in FIG. 19 prepared in advance. By using the correspondence diagram of FIG. 19, the norm of the difference image Ie is scaled so that the characteristic part reliability value is in the range of 0 to 100. Here, when the feature part reliability is 0, it means that there is a high possibility that the position of the facial feature part is not correctly detected. When the reliability is 100, the position of the facial feature part is correct. It means that the possibility of being detected is high. In order to remove the influence of illumination and the like from the norm of the difference image Ie, the luminance value of each pixel included in the average shape image I (W (x; p)) and the pixel value of the average face image A 0 (x) ( Normalization may be performed so that the average value and variance of (luminance values) are uniform. The detection information calculation unit 235 stores the calculated characteristic part reliability of the target image OI in the internal memory 200.

以上、内部メモリー200に検出情報DCIがない場合(ステップS310:NO)について説明したが、以下では、ステップS310において、内部メモリー200に検出情報DCIが格納されている場合(ステップS310:YES)について説明する。処理判定部236は、注目画像OIの直前に撮影された被検出画像DI1についての検出情報DCIと、予め内部メモリー200に格納されている第1の閾値TH1とを比較する(ステップS360)。   The case where there is no detection information DCI in the internal memory 200 (step S310: NO) has been described above. However, in the following, in the case where the detection information DCI is stored in the internal memory 200 in step S310 (step S310: YES). explain. The process determination unit 236 compares the detection information DCI for the detected image DI1 captured immediately before the target image OI with the first threshold value TH1 stored in the internal memory 200 in advance (step S360).

処理判定部236は、検出情報DCIが第1の閾値TH1以上の場合(ステップS360:YES)、注目画像OIにおける特徴点CPの初期位置を、被検出画像DI1において決定された特徴点CPの初期位置に基づいて決定すると判定する(ステップS390)。検出情報DCIが第1の閾値TH1以上である場合、すなわち、特徴部位信頼度が第1の閾値TH1以上である場合には、被検出画像DI1において検出された特徴部位の位置が真に顔の特徴部位の位置である可能性が高いため、顔領域FAの検出処理(ステップS320)、および、特徴点CP初期位置設定処理(ステップS330)をおこなわず、被検出画像DI1において決定された特徴点CPの初期位置に基づいて注目画像OIにおける特徴点CPの初期位置を決定しても、注目画像OIにおける顔の特徴部位に近い位置に特徴点CPを設定することができる。   When the detection information DCI is greater than or equal to the first threshold value TH1 (step S360: YES), the process determining unit 236 sets the initial position of the feature point CP in the target image OI as the initial feature point CP determined in the detected image DI1. It is determined to be determined based on the position (step S390). When the detection information DCI is equal to or higher than the first threshold TH1, that is, when the characteristic part reliability is equal to or higher than the first threshold TH1, the position of the characteristic part detected in the detected image DI1 is truly a face. Since there is a high possibility of the position of the feature part, the feature point determined in the detected image DI1 is not performed without performing the face area FA detection process (step S320) and the feature point CP initial position setting process (step S330). Even if the initial position of the feature point CP in the target image OI is determined based on the initial position of the CP, the feature point CP can be set at a position close to the facial feature part in the target image OI.

図20は、被検出画像および注目画像における特徴点の初期位置を例示した説明図である。処理判定部236による上記判定の後、初期位置設定部233は、図20に示すように、注目画像OIに対して、被検出画像DI1に設定された特徴点CPの初期位置と同じ座標位置に特徴点CPを設定する。これにより、特徴点CPをつないで形成されるメッシュについても注目画像OIと被検出画像DI1とで同じ位置および範囲に設定される。特徴位置検出部234は、注目画像OIに設定された特徴点CPの設定位置の補正を行い(ステップS340)、目領域EAを検出する。また、検出情報算出部235は、注目画像OIの検出情報DCIを算出し、内部メモリー200の検出情報DCIを更新する(ステップS350)。   FIG. 20 is an explanatory diagram illustrating the initial positions of feature points in the detected image and the target image. After the above determination by the processing determination unit 236, the initial position setting unit 233 has the same coordinate position as the initial position of the feature point CP set in the detected image DI1 with respect to the target image OI as shown in FIG. A feature point CP is set. Thereby, the mesh formed by connecting the feature points CP is also set to the same position and range in the target image OI and the detected image DI1. The feature position detection unit 234 corrects the set position of the feature point CP set in the attention image OI (step S340), and detects the eye area EA. Further, the detection information calculation unit 235 calculates the detection information DCI of the target image OI, and updates the detection information DCI in the internal memory 200 (step S350).

検出情報DCIが第1の閾値TH1より小さい場合(ステップS360:NO)、すなわち、特徴部位信頼度が第1の閾値TH1より小さい場合には、さらに、処理判定部236は、検出情報DCIと第2の閾値TH2とを比較する(ステップS370)。第2の閾値TH2は第1の閾値TH1より小さい値である。検出情報DCIが第2の閾値TH2以上の場合(ステップS370:YES)、処理判定部236は、注目画像OIにおける顔領域FAの位置および範囲を注目画像OIの直前に撮影された被検出画像DI1における顔領域FAの位置および範囲に基づいて設定すると判定する(ステップS380)。検出情報DCIが第2の閾値TH2以上である場合、すなわち、特徴部位信頼度が第2の閾値TH2以上である場合には、第1の閾値TH1以上である場合に比べて劣るが、被検出画像DIにおいて検出された特徴部位の位置が真に顔の特徴部位の位置である可能性は高いため、顔領域FAの検出処理(ステップS320)をおこなわず、被検出画像DI1において設定された顔領域FAの位置および範囲を注目画像OIにおける顔領域FAの位置および範囲としても、注目画像OIにおける顔の特徴部位に近い位置に特徴点CPを設定することができる。   When the detection information DCI is smaller than the first threshold value TH1 (step S360: NO), that is, when the characteristic part reliability is smaller than the first threshold value TH1, the process determination unit 236 further adds the detection information DCI and the first threshold value TH1. The threshold value TH2 of 2 is compared (step S370). The second threshold value TH2 is smaller than the first threshold value TH1. When the detection information DCI is greater than or equal to the second threshold TH2 (step S370: YES), the process determination unit 236 detects the detected image DI1 obtained by photographing the position and range of the face area FA in the target image OI immediately before the target image OI. Is determined to be set based on the position and range of the face area FA in (step S380). When the detection information DCI is greater than or equal to the second threshold TH2, that is, when the characteristic part reliability is greater than or equal to the second threshold TH2, the detection information DCI is inferior to the case where it is greater than or equal to the first threshold TH1. Since there is a high possibility that the position of the feature part detected in the image DI is truly the position of the feature part of the face, the face area FA detection process (step S320) is not performed, and the face set in the detected image DI1 Even if the position and range of the area FA are set as the position and range of the face area FA in the target image OI, the feature point CP can be set at a position close to the feature part of the face in the target image OI.

図21は、被検出画像および注目画像における顔領域を例示した説明図である。処理判定部236による上記判定の後、顔領域検出部231は、図21に示すように、注目画像OIに対して、被検出画像DI1上において特定された顔領域FAの位置および範囲と同じ位置および範囲を注目画像OIの顔領域FAとして特定する。初期位置設定部233は、注目画像OIにおいて特定された顔領域FAに基づいて特徴点CPの初期位置を設定する(ステップS330)。また、特徴位置検出部234は、注目画像OIに設定された特徴点CPの設定位置を補正し(ステップS340)、目領域EAを検出する。また、検出情報算出部235は、注目画像OIの検出情報DCIを算出し、内部メモリー200の検出情報DCIを更新する(ステップS350)。   FIG. 21 is an explanatory diagram illustrating face areas in the detected image and the target image. After the above determination by the processing determination unit 236, the face area detection unit 231 has the same position as the position and range of the face area FA specified on the detected image DI1 with respect to the target image OI as shown in FIG. The range is specified as the face area FA of the target image OI. The initial position setting unit 233 sets the initial position of the feature point CP based on the face area FA specified in the target image OI (step S330). Further, the feature position detection unit 234 corrects the set position of the feature point CP set in the attention image OI (step S340), and detects the eye area EA. Further, the detection information calculation unit 235 calculates the detection information DCI of the target image OI, and updates the detection information DCI in the internal memory 200 (step S350).

検出情報DCIが第2の閾値TH2より小さい場合(ステップS370:NO)、被検出画像DIにおいて検出された特徴部位の位置が真に顔の特徴部位の位置である可能性は低いため、処理判定部236は、顔領域FAの検出処理により注目画像OIの顔領域FAを検出すると判定する。その後、特徴点CPの初期位置設定(ステップS330)、特徴点CPの設定位置補正(ステップS340)、内部メモリー200の検出情報DCIを更新(ステップS350)がなされる。以上により、目領域検出処理が完了する。   If the detection information DCI is smaller than the second threshold value TH2 (step S370: NO), it is unlikely that the position of the feature part detected in the detected image DI is truly the position of the face feature part. The unit 236 determines that the face area FA of the target image OI is detected by the face area FA detection process. Thereafter, the initial position setting of the feature point CP (step S330), the setting position correction of the feature point CP (step S340), and the detection information DCI in the internal memory 200 are updated (step S350). Thus, the eye area detection process is completed.

目領域検出処理が完了すると、図11に戻り、画像処理部230は、目瞑り判定をおこなう(ステップS230)。目瞑り判定とは、目領域検出処理により検出された注目画像OIの目領域EAに含まれる目画像が目瞑り状態か否についての判定である。具体的には、目状態検出部237は、特徴点CP設定位置補正処理において注目画像OIに含まれる顔の特徴部位の位置が特定された際の平均形状画像I(W(x;p))における平均形状目領域BEAの画素値により構成される画像ベクトルと、目の開閉にほぼ相関するベクトルである第1テクスチャーベクトルA’1(x)との内積により、テクスチャーパラメーターλ’1の値を算出する。ここで、算出されるテクスチャーパラメーターλ’1は、第1テクスチャーベクトルA’1(x)の係数であり、注目画像OIに含まれる目画像が目瞑り状態か否を表している。ここで、特徴点CP設定位置補正処理において注目画像OIに含まれる顔の特徴部位の位置が特定された際の平均形状画像I(W(x;p))は、特許請求の範囲における「変換画像」に該当し、目の開閉にほぼ相関するベクトルである第1テクスチャーベクトルA’1(x)は、特許請求の範囲における「所定固有ベクトル」に該当する。 When the eye region detection process is completed, the process returns to FIG. 11 and the image processing unit 230 performs eye meditation determination (step S230). The eye meditation determination is a determination as to whether or not the eye image included in the eye area EA of the target image OI detected by the eye area detection process is in the eye meditation state. Specifically, the eye state detection unit 237 calculates the average shape image I (W (x; p)) when the position of the facial feature part included in the target image OI is specified in the feature point CP setting position correction process. The value of the texture parameter λ ′ 1 is obtained by the inner product of the image vector composed of the pixel values of the average shape eye area BEA in the first texture vector A ′ 1 (x) that is a vector that is substantially correlated with the opening and closing of the eyes. calculate. Here, the calculated texture parameter λ ′ 1 is a coefficient of the first texture vector A ′ 1 (x), and represents whether or not the eye image included in the target image OI is in the eye-meditation state. Here, the average shape image I (W (x; p)) when the position of the feature part of the face included in the target image OI is specified in the feature point CP setting position correction process is “conversion”. The first texture vector A ′ 1 (x) that corresponds to the “image” and is substantially correlated with the opening and closing of the eyes corresponds to the “predetermined eigenvector” in the claims.

目状態判定部238は、算出されたテクスチャーパラメーターλ’1と、予め設定された第3の閾値TH3とを比較して、目瞑り判定をおこなう。例えば、テクスチャーパラメーターλ’1の値が第3の閾値TH3より大きい場合には目瞑りと判定し、テクスチャーパラメーターλ’1の値が第3の閾値TH3以下の場合には目瞑りではないと判定する。以上より、目瞑り判定が完了する。 The eye state determination unit 238 compares the calculated texture parameter λ ′ 1 with a preset third threshold value TH3 to make eye meditation determination. For example, if the value of the texture parameter λ ′ 1 is greater than the third threshold value TH3, it is determined that eyes are closed. If the texture parameter λ ′ 1 is less than the third threshold value TH3, it is determined that eyes are not closed. To do. The eye meditation determination is thus completed.

目瞑り判定が完了すると、居眠り判定部239は、居眠り判定をおこなう(ステップS240)。居眠り判定とは、対象顔が居眠りをしているか否についての判定である。具体的には、居眠り判定部239は、図示しないカウンターを備え、被検出画像DIもしくは注目画像OIに対する目瞑り判定において、連続して目瞑り状態であると判定された数をカウントし、カウント数が所定に達した場合、すなわち、連続して目瞑り状態と判定された回数が所定に達した場合に対象顔が居眠りをしていると判定する。DSC100は、居眠り判定部239により対象顔が居眠りをしていると判定すると、表示部114に居眠りをしていることを表示する。以上により、居眠り判定処理が完了する。   When the eye meditation determination is completed, the dozing determination unit 239 performs the dozing determination (step S240). The dozing determination is a determination as to whether or not the target face is dozing. Specifically, the dozing determination unit 239 includes a counter (not shown), and counts the number of eyes determined to be in an eye-meditation state in the eye-meditation determination for the detected image DI or the target image OI. Is reached, i.e., when the number of times that the eye is continuously determined to be in the closed state has reached a predetermined value, it is determined that the target face is dozing. When the DSC 100 determines that the target face is dozing by the dozing determination unit 239, the DSC 100 displays that the display unit 114 is dozing. Thus, the dozing determination process is completed.

以上説明したように、第1の実施例に係る画像処理装置によれば、目の状態に関連する固有ベクトルと、検出された目領域の画像を変換した変換画像の画像ベクトルと、を用いて目の状態を検出するため、画像に含まれる目の状態を効率的に検出することができる。具体的には、目の開閉にほぼ相関する固有ベクトルである第1テクスチャーベクトルA’1(x)と、特徴点CP設定位置補正処理において注目画像OIに含まれる顔の特徴部位の位置が特定された際の平均形状画像I(W(x;p))における平均形状目領域BEAの画素値により構成される画像ベクトルとの内積から、テクスチャーパラメーターλ’1を算出し、テクスチャーパラメーターλ’1の値により注目画像OIに含まれる目画像が目瞑り状態か否かを検出するため、注目画像OIにおける目の状態を効率的に検出することができる。 As described above, the image processing apparatus according to the first embodiment uses the eigenvector related to the eye state and the image vector of the converted image obtained by converting the image of the detected eye region. Therefore, it is possible to efficiently detect the state of the eyes included in the image. Specifically, the first texture vector A ′ 1 (x), which is an eigenvector that is substantially correlated with the opening and closing of the eyes, and the position of the feature part of the face included in the target image OI are specified in the feature point CP setting position correction process. The texture parameter λ ′ 1 is calculated from the inner product of the average shape image area BEA in the average shape image I (W (x; p)) and the image vector formed by the pixel value of the texture parameter λ ′ 1 Since the value detects whether or not the eye image included in the attention image OI is in the eye-meditation state, the eye state in the attention image OI can be detected efficiently.

第1の実施例に係る画像処理装置によれば、注目画像OIの顔領域FAを、注目画像OIに含まれる顔画像に基づいて検出するか、もしくは、被検出画像の顔領域FAに基づいて特定するかを検出情報DCIに基づいて判定するため、画像に含まれる顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。具体的には、特徴部位信頼度が第2の閾値TH2以上である場合には、被検出画像DIにおいて検出された特徴部位の位置が真に顔の特徴部位の位置である可能性は高いため、被検出画像DI1において設定された顔領域FAの位置および範囲を注目画像OIにおける顔領域FAの位置および範囲としても、注目画像OIにおける顔の特徴部位に近い位置に特徴点CPを設定することができる。これにより、顔領域FAの検出処理をおこなう必要がなくなり、注目画像に含まれる顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。   According to the image processing apparatus of the first embodiment, the face area FA of the target image OI is detected based on the face image included in the target image OI or based on the face area FA of the detected image. Since it is determined based on the detection information DCI, it is possible to improve the efficiency and speed of the process of detecting the position of the facial feature part included in the image. Specifically, when the feature part reliability is equal to or higher than the second threshold TH2, it is highly likely that the position of the feature part detected in the detected image DI is truly the position of the facial feature part. Even if the position and range of the face area FA set in the detected image DI1 is set as the position and range of the face area FA in the target image OI, the feature point CP is set at a position close to the facial feature part in the target image OI. Can do. Thereby, it is not necessary to perform the process of detecting the face area FA, and the efficiency and speed of the process of detecting the position of the facial feature part included in the target image can be improved.

第1の実施例に係る画像処理装置によれば、注目画像OIに設定される特徴点CPの初期位置を、注目画像OIの顔領域FAに基づいて決定するか、もしくは、被検出画像の初期位置に基づいて決定するかを検出情報DCIに基づいて判定するため、画像に含まれる顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。具体的には、特徴部位信頼度が第1の閾値TH1以上である場合には、被検出画像DI1において検出された特徴部位の位置が真に顔の特徴部位の位置である可能性がさらに高いため、被検出画像DI1において決定された特徴点CPの初期位置に基づいて注目画像OIにおける特徴点CPの初期位置を決定しても、注目画像OIにおける顔の特徴部位に近い位置に特徴点CPを設定することができる。これにより、顔領域FAの検出処理、および、特徴点CP初期位置設定処理をおこなう必要がなくなり、注目画像に含まれる顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。   According to the image processing apparatus of the first embodiment, the initial position of the feature point CP set in the target image OI is determined based on the face area FA of the target image OI, or the initial position of the detected image is detected. Since it is determined based on the detection information DCI whether to determine based on the position, it is possible to improve the efficiency and speed of the process of detecting the position of the facial feature part included in the image. Specifically, when the feature part reliability is equal to or higher than the first threshold TH1, there is a higher possibility that the position of the feature part detected in the detected image DI1 is truly the position of the face feature part. Therefore, even if the initial position of the feature point CP in the target image OI is determined based on the initial position of the feature point CP determined in the detected image DI1, the feature point CP is located near the facial feature part in the target image OI. Can be set. This eliminates the need to perform the face area FA detection process and the feature point CP initial position setting process, thereby improving the efficiency and speed of the process of detecting the position of the facial feature part included in the target image. it can.

B.第2実施例:
第1実施例では、AAM設定処理において、顔全体についての形状モデルおよびテクスチャーモデルが設定されているが、本実施例では、後述する目画像を含む顔画像の一部の領域(以後「目周辺領域EFA」と呼ぶ)の画像についての形状モデルおよびテクスチャーモデルを設定し、この形状モデルおよびテクスチャーモデルを用いて目領域検出処理をおこなう場合について説明する。デジタルスチルカメラ100の構成は、第1実施例と同様のため説明を省略する。また、本実施例のデジタルスチルカメラ100による居眠り判定処理において、画像データの生成(ステップS210)、目瞑り判定(ステップS230)、居眠り判定(ステップS240)は第1実施例と同様であるため説明を省略する。
B. Second embodiment:
In the first embodiment, the shape model and the texture model for the entire face are set in the AAM setting process. However, in this embodiment, a part of the face image including the eye image described later (hereinafter referred to as “eye periphery”). A case will be described in which a shape model and a texture model are set for an image of “region EFA” and eye region detection processing is performed using the shape model and the texture model. Since the configuration of the digital still camera 100 is the same as that of the first embodiment, description thereof is omitted. In addition, in the dozing determination process by the digital still camera 100 of the present embodiment, image data generation (step S210), eye meditation determination (step S230), and dozing determination (step S240) are the same as in the first embodiment. Is omitted.

図22は、第2実施例における目領域検出処理を説明するための説明図である。図22(a)は、第2実施例における顔領域と目周辺領域を例示した説明図である。本実施例では、目周辺領域EFAは、図22(a)に示すように、顔領域FAの一部であって、顔の特徴部位のうち、眉、目、鼻を含んだ領域として説明する。顔領域FAの検出処理(ステップS320)において、顔領域検出部231は、顔領域FAを検出することにより目周辺領域EFAを特定する。すなわち、注目画像OIにおける目周辺領域EFAの位置および範囲は、検出した顔領域FAの注目画像OIにおける位置および範囲に対して予め規定されているため、顔領域FAの検出により目周辺領域EFAの位置および範囲が一義的に規定される。目周辺領域EFAの位置および範囲の規定方法については特に限定はなく、例えば、目周辺領域EFAは、顔領域FAの外周から所定の画素数内側の範囲としてもよいし、顔領域FAの縦横それぞれの画素数に所定の定数を掛けて算出される範囲としてもよい。   FIG. 22 is an explanatory diagram for explaining eye region detection processing in the second embodiment. FIG. 22A is an explanatory diagram illustrating the face area and the eye peripheral area in the second embodiment. In this embodiment, as shown in FIG. 22A, the eye peripheral area EFA is a part of the face area FA, and is described as an area including eyebrows, eyes, and nose among facial feature parts. . In the face area FA detection process (step S320), the face area detection unit 231 identifies the eye peripheral area EFA by detecting the face area FA. That is, the position and range of the eye peripheral area EFA in the target image OI are defined in advance with respect to the position and range of the detected face area FA in the target image OI. The position and range are uniquely defined. The method for defining the position and range of the eye peripheral area EFA is not particularly limited. For example, the eye peripheral area EFA may be a range inside a predetermined number of pixels from the outer periphery of the face area FA, or each of the vertical and horizontal directions of the face area FA. A range calculated by multiplying the number of pixels by a predetermined constant may be used.

図22(b)は、第2実施例における目周辺領域と特徴点を例示した説明図である。初期位置設定部233は、特徴点CPの初期位置を設定(ステップS330)する際、顔領域FAのかわりに目周辺領域EFAを用いて特徴点CPを注目画像OI上の仮設定位置に設定する。具体的には、目周辺領域EFAの中央部に目周辺領域EFAに対応した平均形状s0が形成されるような特徴点CPの仮設定位置を設定するとともに、グローバルパラメーターの値を種々変更させて複数の仮設定位置を設定する。このとき設定される特徴点CPおよび特徴点CPをつないで形成されるメッシュは、図22(b)に示すように、目周辺領域EFAに対応した平均形状s0を構成するような特徴点CPおよびメッシュとなっている。 FIG. 22B is an explanatory diagram illustrating the eye peripheral area and feature points in the second embodiment. When the initial position of the feature point CP is set (step S330), the initial position setting unit 233 sets the feature point CP as a temporary setting position on the attention image OI using the eye peripheral area EFA instead of the face area FA. . Specifically, a temporary setting position of the feature point CP is set so that an average shape s 0 corresponding to the eye peripheral area EFA is formed at the center of the eye peripheral area EFA, and various global parameter values are changed. To set multiple temporary setting positions. The feature point CP set at this time and the mesh formed by connecting the feature points CP, as shown in FIG. 22B, feature points CP that form an average shape s 0 corresponding to the eye peripheral area EFA. And mesh.

すなわち、AAM設定処理において、形状モデルを設定する際、目周辺領域EFAに含まれる特徴部位に対応する特徴点CPの座標ベクトルのみを用いて主成分分析をおこない、式(1)によるモデル化をおこなっている。これにより、目周辺領域EFAに含まれる特徴部位に対応する特徴点CPのみにより形成される平均形状s0が設定される。この平均形状s0を構成する特徴点CPには、目の輪郭上に設定されている特徴点CPも含まれているため、目領域EAを検出することができる。上述以外の目領域検出処理のステップは、第1実施例と同様であるため説明を省略する。 That is, in setting the shape model in the AAM setting process, the principal component analysis is performed using only the coordinate vector of the feature point CP corresponding to the feature part included in the eye peripheral area EFA, and the modeling by the equation (1) is performed. I'm doing it. Thereby, the average shape s 0 formed only by the feature points CP corresponding to the feature parts included in the eye peripheral area EFA is set. Since the feature points CP constituting the average shape s 0 include the feature points CP set on the contour of the eyes, the eye area EA can be detected. Since the eye region detection processing steps other than those described above are the same as those in the first embodiment, the description thereof will be omitted.

第2実施例に係る画像処理装置によれば、顔画像の目周辺領域EFAについての形状モデルおよびテクスチャーモデルを設定するため、画像に含まれる目領域を効率的に検出することができる。具体的には、第2実施例では、顔画像のうち、目周辺領域EFAについてのみの形状モデルおよびテクスチャーモデルを設定するため、顔全体についての形状モデルおよびテクスチャーモデルを用いた顔の特徴部位の検出に比べて、座標位置を検出する特徴点CPの数が少なく、検出に必要な処理負荷の軽減を図ることができ、効率的に目領域を検出することができる。   According to the image processing apparatus in the second example, the shape model and the texture model for the eye peripheral area EFA of the face image are set, so that the eye area included in the image can be efficiently detected. Specifically, in the second embodiment, since the shape model and the texture model for only the eye peripheral area EFA are set in the face image, the facial feature portion using the shape model and the texture model for the entire face is set. Compared to the detection, the number of feature points CP for detecting the coordinate position is small, the processing load necessary for the detection can be reduced, and the eye area can be detected efficiently.

C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

C1.変形例1:
第1実施例に係る画像処理装置は、注目画像OIから目領域EAを検出し、目領域に含まれる目画像から目瞑り状態か否かを判定しているが、検出する目の状態については、目瞑りか否かに限られず、例えば、黒目の位置(向き)などについて判定することも可能である。具体的には、黒目の位置に相関するテクスチャーベクトルを設定し、このテクスチャーベクトルと平均形状目領域BEAの画像ベクトル目との内積により算出されるテクスチャーパラメーターの値により黒目の位置(向き)を判定することができる。また、注目画像から検出する特徴部位は目に限られず、口などほかの器官であってもよい。この場合、例えば、口の開閉状態について判定することができる。
C1. Modification 1:
The image processing apparatus according to the first embodiment detects the eye area EA from the attention image OI and determines whether or not the eye is in the eye-meditation state from the eye image included in the eye area. For example, it is also possible to determine the position (orientation) of the black eye. Specifically, a texture vector that correlates with the position of the black eye is set, and the position (orientation) of the black eye is determined based on the value of the texture parameter calculated by the inner product of this texture vector and the image vector eye of the average shape eye area BEA. can do. Further, the characteristic part detected from the target image is not limited to the eyes, and may be another organ such as a mouth. In this case, for example, the opening / closing state of the mouth can be determined.

C2.変形例2:
第1実施例に係る画像処理装置は、注目画像OIに対する目領域検出処理の処理判定において、検出情報DCIとして被検出画像DI1の特徴部位信頼度を用いているが、検出情報DCIは、これに限られず、例えば被検出画像DI1と被検出画像DI2それぞれの特徴部位信頼度の差を検出情報DCIとしてもよい。この場合、目領域検出処理が成された時間が異なる2つの被検出画像DIにおいて検出された特徴部位信頼度の差が所定以下の場合には、被検出画像DIにおいて検出された特徴部位の位置が真に顔の特徴部位の位置である可能性は高いため、第1実施例と同様に、顔領域FAの検出処理、もしくは、顔領域FAの検出処理と特徴点CP初期位置設定処理の両方をおこなわなくても特徴部位の位置の検出をおこなうことができ、注目画像に含まれる顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。
C2. Modification 2:
The image processing apparatus according to the first embodiment uses the characteristic part reliability of the detected image DI1 as the detection information DCI in the process determination of the eye region detection process for the target image OI. The detection information DCI may be, for example, a difference between the characteristic part reliability levels of the detected image DI1 and the detected image DI2. In this case, the position of the feature part detected in the detected image DI when the difference between the feature part reliability detected in the two detected images DI for which the eye region detection processing has been performed is different from a predetermined value or less. Is likely to be the position of the feature part of the face, as in the first embodiment, both the face area FA detection process, or both the face area FA detection process and the feature point CP initial position setting process The position of the feature part can be detected without performing the process, and the process for detecting the position of the feature part of the face included in the image of interest can be made more efficient and faster.

また、検出情報DCIは、特徴部位信頼度以外であってもよい。例えば、被検出画像DI1および被検出画像DI2においてそれぞれ検出された顔の特徴部位の座標位置の差異を検出情報DCIとしてもよい。座標位置の差異とは、所定の特徴点CPについての被検出画像DI1における設定位置から被検出画像DI2における設定位置までの距離であってもよいし、68箇所すべてのそれぞれの距離の平均値であってもよい。この場合、目領域検出処理が成された時間が異なる2つの被検出画像DIにおいて検出された顔の特徴部位の座標位置の差異が所定以下の場合には、被検出画像DIにおいて検出された特徴部位の位置が真に顔の特徴部位の位置である可能性は高いため、第1実施例と同様に、顔領域FAの検出処理、もしくは、顔領域FAの検出処理と特徴点CP初期位置設定処理の両方をおこなわなくても特徴部位の位置の検出をおこなうことができ、注目画像に含まれる顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。   Further, the detection information DCI may be other than the characteristic part reliability. For example, the difference between the coordinate positions of the facial feature portions detected in the detected image DI1 and the detected image DI2 may be used as the detection information DCI. The difference in coordinate position may be a distance from a set position in the detected image DI1 to a set position in the detected image DI2 for a predetermined feature point CP, or an average value of the respective distances at all 68 locations. There may be. In this case, if the difference in the coordinate position of the facial feature portion detected in the two detected images DI having different eye region detection times is less than or equal to a predetermined value, the feature detected in the detected image DI Since there is a high possibility that the position of the part is truly the position of the feature part of the face, the face area FA detection process or the face area FA detection process and the feature point CP initial position setting are set as in the first embodiment. The position of the feature part can be detected without performing both processes, and the efficiency and speed of the process for detecting the position of the feature part of the face included in the target image can be improved.

C3.変形例3:
図23は、変形例における目領域検出処理を説明するための説明図である。図23(a)は、変形例における顔領域と目周辺領域を例示した説明図である。図23(b)は、変形例における目周辺領域と特徴点を例示した説明図である。第2実施例では、目周辺領域EFAは、図22(a)に示すように、顔領域FAの一部であって、顔の特徴部位のうち、眉、目、鼻を含む領域として説明したが、目周辺領域EFAはこれに限られず、目を含んでいれば、例えば、眉や鼻を含んでいなくてもよく、また、図23(a)に示すように、目ごとに設定されていてもよい。目周辺領域EFAが目ごとに設定される場合には、図23(b)に示すように、それぞれの目周辺領域EFAに対して、目周辺領域EFAに対応した平均形状s0が形成されるような特徴点CPの仮設定位置を設定し、特徴部位の検出をおこなう。この場合であっても、顔全体についての形状モデルおよびテクスチャーモデルを用いた顔の特徴部位の検出に比べて、検出する特徴点CPの数が少なく、検出負荷の軽減を図ることができ、効率的に目領域を検出することができる。また、右目もしくは左目のいずれか一方のみの状態を検出する画像処理装置としても実現することができるほか、左右の目の状態を独立して検出することができるため、ウインクなど左右の目の状態が異なる画像についても検出することができる。
C3. Modification 3:
FIG. 23 is an explanatory diagram for explaining eye region detection processing in a modified example. FIG. 23A is an explanatory diagram illustrating the face area and the eye peripheral area in the modified example. FIG. 23B is an explanatory diagram illustrating the eye peripheral area and feature points in the modification. In the second embodiment, as shown in FIG. 22A, the eye peripheral area EFA is a part of the face area FA and is described as an area including the eyebrows, eyes, and nose among the facial features. However, the eye peripheral area EFA is not limited to this, and may include, for example, eyebrows and noses as long as it includes eyes, and is set for each eye as shown in FIG. It may be. When the eye peripheral area EFA is set for each eye, an average shape s 0 corresponding to the eye peripheral area EFA is formed for each eye peripheral area EFA, as shown in FIG. Such a temporarily set position of the feature point CP is set, and the feature part is detected. Even in this case, the number of feature points CP to be detected is small compared to the detection of facial feature parts using the shape model and texture model for the entire face, and the detection load can be reduced. Thus, the eye area can be detected. It can also be realized as an image processing device that detects the state of either the right eye or the left eye, and because the state of the left and right eyes can be detected independently, the state of the left and right eyes such as a wink It is also possible to detect images with different values.

C4.変形例4:
本実施例に係る画像処理装置は、目状態判定部238および目瞑り判定部239を備えているが、目状態判定部238、もしくは、目状態判定部238および目瞑り判定部239を備えていなくてもよい。例えば、目状態判定部238を備えていなくても、目状態検出部237により算出された目瞑り状態か否を表すテクスチャーパラメーターλ’1の値を表示部114に表示する機能を備えたデジタルスチルカメラ100としても実現でき、また、目瞑りのみを判定する機能を備えたデジタルスチルカメラ100としても実現することができる。
C4. Modification 4:
The image processing apparatus according to the present embodiment includes the eye state determination unit 238 and the eye meditation determination unit 239, but does not include the eye state determination unit 238 or the eye state determination unit 238 and the eye meditation determination unit 239. May be. For example, even if the eye state determination unit 238 is not provided, a digital still having a function of displaying on the display unit 114 the value of the texture parameter λ ′ 1 indicating whether or not the eye is in the meditated state calculated by the eye state detection unit 237. It can also be realized as a camera 100, and can also be realized as a digital still camera 100 having a function of determining only eye meditation.

C5.変形例5:
本実施例に係る画像処理装置は、処理判定部236を備えているが、処理判定部236を備えず、生成した注目画像OIのすべてについて顔領域FAの検出処理および特徴点CP初期位置設定処理を実施する態様であってもよい。この場合であっても、テクスチャーパラメーターλ’1の値により注目画像OIに含まれる目画像が目瞑り状態か否かを検出するため、注目画像OIにおける目の状態を効率的に検出することができる。
C5. Modification 5:
The image processing apparatus according to the present embodiment includes the process determination unit 236, but does not include the process determination unit 236, and the face area FA detection process and the feature point CP initial position setting process for all the generated target images OI. It is also possible to implement the above. Even in this case, it is possible to efficiently detect the state of the eye in the target image OI in order to detect whether or not the eye image included in the target image OI is in the eye-meditation state based on the value of the texture parameter λ ′ 1. it can.

C6.変形例6:
本実施例におけるサンプル画像SIはあくまで一例であり、サンプル画像SIとして採用する画像の数、種類は任意に設定可能である。また、本実施例において、特徴点CPの位置で示される顔の所定の特徴部位はあくまで一例であり、実施例において設定されている特徴部位の一部を省略したり、特徴部位として他の部位を採用したりしてもよい。
C6. Modification 6:
The sample image SI in this embodiment is merely an example, and the number and type of images employed as the sample image SI can be arbitrarily set. In the present embodiment, the predetermined feature portion of the face indicated by the position of the feature point CP is merely an example, and a part of the feature portion set in the embodiment may be omitted or another portion may be used as the feature portion. May be adopted.

また、本実施例では、サンプル画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析によってテクスチャーモデルが設定されているが、顔画像のテクスチャー(見え)を表す輝度値以外の指標値(例えばRGB値)に対する主成分分析によってテクスチャーモデルが設定されるものとしてもよい。   In this embodiment, the texture model is set by principal component analysis with respect to the luminance value vector formed by the luminance values in each of the pixel groups x of the sample image SIw, but the luminance representing the texture (appearance) of the face image. The texture model may be set by principal component analysis for index values other than the values (for example, RGB values).

また、本実施例において、平均顔画像A0(x)および、平均目画像A’0(x)のサイズは56画素×56画素に限られず他のサイズであってもよい。また、平均顔画像A0(x)および、平均目画像A’0(x)は、マスク領域MAを含む必要はなく、平均形状領域BSA、もしくは、平均形状目領域BEAのみによって構成されるとしてもよい。また、平均顔画像A0(x)および、平均目画像A’0(x)の代わりに、サンプル画像SIの統計的分析に基づき設定される他の基準顔画像もしくは基準目画像が用いられるとしてもよい。 In this embodiment, the size of the average face image A 0 (x) and the average eye image A ′ 0 (x) is not limited to 56 pixels × 56 pixels, and may be other sizes. The average face image A 0 (x) and the average eye image A ′ 0 (x) do not need to include the mask area MA, and are configured only by the average shape area BSA or the average shape eye area BEA. Also good. Further, instead of the average face image A 0 (x) and the average eye image A ′ 0 (x), another reference face image or reference eye image set based on the statistical analysis of the sample image SI is used. Also good.

また、本実施例では、AAMを用いた形状モデルおよびテクスチャーモデルの設定が行われているが、他のモデル化手法(例えばMorphable Modelと呼ばれる手法やActive Blobと呼ばれる手法)を用いて形状モデルおよびテクスチャーモデルの設定が行われるとしてもよい。   In this embodiment, the shape model and the texture model are set using AAM. However, the shape model and the texture model using other modeling methods (for example, a method called Morphable Model or a method called Active Blob) are used. A texture model may be set.

また、本実施例では、画像生成部210により生成された画像データにより表される画像を注目画像OIとしているが、注目画像OIは、例えば、I/F部112を介して接続されている外部機器から取得した画像であってもよい。また、デジタルスチルカメラ100は、図示しないカードスロットを備え、メモリーカードから取得した画像を注目画像OIとしてもよい。   In this embodiment, the image represented by the image data generated by the image generation unit 210 is the attention image OI. The attention image OI is, for example, an external device connected via the I / F unit 112. It may be an image acquired from a device. Further, the digital still camera 100 may include a card slot (not shown), and an image acquired from the memory card may be used as the attention image OI.

また、本実施例では、画像処理装置としてのデジタルスチルカメラ100による画像処理を説明したが、処理の一部または全部がパーソナルコンピューターやプリンター、デジタルビデオカメラ等の他の種類の画像処理装置により実行されるものとしてもよい。また、本実施例に係る画像処理を用いれば、自動車、鉄道車両、船舶等における居眠り運転を検出し警報を発する目状態検出装置として実現することができる。   In this embodiment, image processing by the digital still camera 100 as an image processing apparatus has been described. However, part or all of the processing is performed by another type of image processing apparatus such as a personal computer, a printer, or a digital video camera. It is good also as what is done. Further, if the image processing according to the present embodiment is used, it can be realized as an eye state detection device that detects a drowsy driving in an automobile, a railway vehicle, a ship or the like and issues an alarm.

本実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。   In this embodiment, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced by hardware.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.

100…デジタルスチルカメラ
102…レンズ
104…レンズ駆動部
106…レンズ駆動制御部
108…撮像素子
110…A/D変換器110
112…I/F部
114…表示部
116…操作部
118…CPU
122…バス
200…内部メモリー
210…画像生成部
220…表示処理部
230…画像処理部
231…顔領域検出部
232…目領域検出部
233…初期位置設定部
234…特徴位置検出部
235…検出情報算出部
236…処理判定部
237…目状態検出部
238…目状態判定部
239…居眠り判定部
DESCRIPTION OF SYMBOLS 100 ... Digital still camera 102 ... Lens 104 ... Lens drive part 106 ... Lens drive control part 108 ... Image pick-up element 110 ... A / D converter 110
112 ... I / F unit 114 ... Display unit 116 ... Operation unit 118 ... CPU
DESCRIPTION OF SYMBOLS 122 ... Bus 200 ... Internal memory 210 ... Image generation part 220 ... Display processing part 230 ... Image processing part 231 ... Face area detection part 232 ... Eye area detection part 233 ... Initial position setting part 234 ... Feature position detection part 235 ... Detection information Calculation unit 236 ... processing determination unit 237 ... eye state detection unit 238 ... eye state determination unit 239 ... dozing determination unit

Claims (11)

注目画像に含まれる目の画像から所定の目の状態を検出する画像処理装置であって、
前記注目画像から顔の画像の少なくとも一部を含む領域を顔領域として検出する顔領域検出部と、
前記顔領域から前記目の画像を含む領域である目領域を検出する目領域検出部と、
前記目領域検出部により検出された前記目領域の画像を変換した変換画像の画像ベクトルと、目の状態が既知の目の画像を含む複数のサンプル画像に基づいて算出された任意の目の状態を表すために用いられる1以上の固有ベクトルのうち、前記所定の目の状態に関連する固有ベクトルである所定固有ベクトルと、を用いて、前記目領域から前記所定の目の状態を検出する目状態検出部と、を備える画像処理装置。
An image processing apparatus for detecting a predetermined eye state from an eye image included in a target image,
A face area detector that detects an area including at least a part of a face image from the noted image as a face area;
An eye area detection unit that detects an eye area that is an area including the image of the eye from the face area;
An arbitrary eye state calculated based on an image vector of a converted image obtained by converting the image of the eye region detected by the eye region detection unit and a plurality of sample images including an eye image whose eye state is known An eye state detection unit that detects a predetermined eye state from the eye region using a predetermined eigenvector that is an eigenvector associated with the predetermined eye state among one or more eigenvectors used to represent And an image processing apparatus.
請求項1に記載の画像処理装置において、
前記目状態検出部は、前記画像ベクトルと前記所定固有ベクトルとの内積により算出されるパラメーターにより前記所定の目の状態を検出する画像処理装置。
The image processing apparatus according to claim 1.
The eye state detection unit is an image processing device that detects the predetermined eye state based on a parameter calculated by an inner product of the image vector and the predetermined eigenvector.
請求項1または請求項2に記載の画像処理装置において、
前記変換は、検出された前記目領域の形状が、前記複数のサンプル画像に基づいて規定された前記目領域の形状の基準である基準形状となるような変換である画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing device is an image processing apparatus in which the conversion is a conversion in which the detected shape of the eye region becomes a reference shape that is a reference of the shape of the eye region defined based on the plurality of sample images.
請求項3に記載の画像処理装置において、
前記固有ベクトルは、前記複数のサンプル画像における前記目領域の画像に対して前記変換をおこなった変換画像の画像ベクトルを主成分分析することにより算出される画像処理装置。
The image processing apparatus according to claim 3.
The eigenvector is calculated by performing principal component analysis on an image vector of a converted image obtained by performing the conversion on the image of the eye region in the plurality of sample images.
請求項1ないし請求項4のいずれかに記載の画像処理装置において、
前記所定の目の状態とは、目を瞑っている状態である画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The predetermined eye state is an image processing apparatus in which the eyes are meditated.
請求項5に記載の画像処理装置はさらに、
前記パラメーターを用いて前記注目画像に含まれる目の画像が目を瞑っている状態か否かを判定する目状態判定部を備える画像処理装置。
The image processing apparatus according to claim 5 further includes:
An image processing apparatus comprising: an eye state determination unit that determines whether an eye image included in the target image is in a state where the eye is meditated using the parameter.
請求項1ないし請求項6のいずれかに記載の画像処理装置において、
前記目領域検出部は、
前記顔領域に基づいて、前記注目画像に対して少なくとも目画像の外周の位置を含む顔の特徴部位の位置を検出するために前記注目画像に設定される特徴点の初期位置を設定する初期位置設定部と、
前記注目画像に設定された前記特徴点の設定位置を前記顔の特徴部位の位置に近づけるように更新し、更新された前記設定位置において前記目画像の外周の位置を検出するための特徴点により囲まれた領域を前記目領域として検出する特徴位置検出部と、を備える画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The eye area detector
An initial position for setting an initial position of a feature point set in the target image in order to detect a position of a feature part of the face including at least a position of an outer periphery of the eye image with respect to the target image based on the face region A setting section;
The feature point set in the image of interest is updated so as to be close to the position of the feature part of the face, and the feature point for detecting the outer peripheral position of the eye image at the updated set position An image processing apparatus comprising: a feature position detection unit that detects an enclosed area as the eye area.
請求項7に記載の画像処理装置において、
前記初期位置設定部は、前記目領域を一部に含み、検出された前記顔領域の前記注目画像に対する位置に基づいて規定される領域である目周辺領域を用いて前記初期位置を設定する画像処理装置。
The image processing apparatus according to claim 7.
The initial position setting unit is an image that includes the eye area as a part and sets the initial position using an eye peripheral area that is an area defined based on a position of the detected face area with respect to the target image. Processing equipment.
注目画像に含まれる目画像から所定の目の状態を検出するデジタルカメラであって、
顔を含む領域を撮影して注目画像を生成する撮影部と、
前記注目画像から顔の画像の少なくとも一部を含む領域を顔領域として検出する顔領域検出部と、
前記顔領域から前記目の画像を含む領域である目領域を検出する目領域検出部と、
前記目領域検出部により検出された前記目領域の画像を変換した変換画像の画像ベクトルと、目の状態が既知の目の画像を含む複数のサンプル画像に基づいて算出された任意の目の状態を表すために用いられる1以上の固有ベクトルのうち、前記所定の目の状態に関連する固有ベクトルである所定固有ベクトルと、を用いて、前記目領域から前記所定の目の状態を検出する目状態検出部と、を備えるデジタルカメラ。
A digital camera that detects a predetermined eye state from an eye image included in an attention image,
A shooting unit that shoots an area including a face and generates a notice image;
A face area detector that detects an area including at least a part of a face image from the noted image as a face area;
An eye area detection unit that detects an eye area that is an area including the image of the eye from the face area;
An arbitrary eye state calculated based on an image vector of a converted image obtained by converting the image of the eye region detected by the eye region detection unit and a plurality of sample images including an eye image whose eye state is known An eye state detection unit that detects a predetermined eye state from the eye region using a predetermined eigenvector that is an eigenvector associated with the predetermined eye state among one or more eigenvectors used to represent And a digital camera.
注目画像に含まれる目の画像から所定の目の状態を検出する画像処理方法であって、
前記注目画像から顔の画像の少なくとも一部を含む領域を顔領域として検出する工程と、
前記顔領域から前記目の画像を含む領域である目領域を検出する工程と、
検出された前記目領域の画像を変換した変換画像の画像ベクトルと、目の状態が既知の目の画像を含む複数のサンプル画像に基づいて算出された任意の目の状態を表すために用いられる1以上の固有ベクトルのうち、前記所定の目の状態に関連する固有ベクトルである所定固有ベクトルと、を用いて、前記目領域から前記所定の目の状態を検出する工程と、を備える画像処理方法。
An image processing method for detecting a predetermined eye state from an eye image included in a target image,
Detecting an area including at least a part of a face image from the noted image as a face area;
Detecting an eye area which is an area including the eye image from the face area;
Used to represent an arbitrary eye state calculated based on an image vector of a converted image obtained by converting the detected image of the eye region and a plurality of sample images including eye images whose eye states are known Detecting the predetermined eye state from the eye region using a predetermined eigenvector that is an eigenvector associated with the predetermined eye state among one or more eigenvectors.
注目画像に含まれる目の画像から所定の目の状態を検出する画像処理のためのコンピュータープログラムであって、
前記注目画像から顔の画像の少なくとも一部を含む領域を顔領域として検出する顔領域検出機能と、
前記顔領域から前記目の画像を含む領域である目領域を検出する目領域検出機能と、
検出された前記目領域の画像を変換した変換画像の画像ベクトルと、目の状態が既知の目の画像を含む複数のサンプル画像に基づいて算出された任意の目の状態を表すために用いられる1以上の固有ベクトルのうち、前記所定の目の状態に関連する固有ベクトルである所定固有ベクトルと、を用いて、前記目領域から前記所定の目の状態を検出する目状態検出機能と、をコンピューターに実現させるコンピュータープログラム。
A computer program for image processing for detecting a predetermined eye state from an eye image included in an attention image,
A face area detection function for detecting an area including at least a part of a face image from the attention image as a face area;
An eye area detection function for detecting an eye area that is an area including the image of the eye from the face area;
Used to represent an arbitrary eye state calculated based on an image vector of a converted image obtained by converting the detected image of the eye region and a plurality of sample images including eye images whose eye states are known An eye state detection function for detecting the predetermined eye state from the eye region using a predetermined eigenvector that is an eigenvector associated with the predetermined eye state among one or more eigenvectors is realized in a computer Computer program
JP2009096898A 2009-04-13 2009-04-13 Image processing device for detecting eye condition Withdrawn JP2010250419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009096898A JP2010250419A (en) 2009-04-13 2009-04-13 Image processing device for detecting eye condition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009096898A JP2010250419A (en) 2009-04-13 2009-04-13 Image processing device for detecting eye condition

Publications (1)

Publication Number Publication Date
JP2010250419A true JP2010250419A (en) 2010-11-04

Family

ID=43312704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009096898A Withdrawn JP2010250419A (en) 2009-04-13 2009-04-13 Image processing device for detecting eye condition

Country Status (1)

Country Link
JP (1) JP2010250419A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101592110B1 (en) 2014-08-07 2016-02-04 한국 한의학 연구원 APPARATUS AND METHOD FOR classification of eye shape
JP2016115117A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Determination device and determination method
JP2016115120A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Opened/closed eye determination device and opened/closed eye determination method
JP6376421B1 (en) * 2017-09-15 2018-08-22 フリュー株式会社 Photo creation game machine, display method, and program
KR20190084260A (en) * 2016-11-11 2019-07-16 매직 립, 인코포레이티드 Full-face image around eye and audio synthesis
CN110796161A (en) * 2019-09-18 2020-02-14 平安科技(深圳)有限公司 Recognition model training method, recognition device, recognition equipment and recognition medium for eye ground characteristics
US11347051B2 (en) 2018-03-16 2022-05-31 Magic Leap, Inc. Facial expressions from eye-tracking cameras

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099722A (en) * 1998-09-22 2000-04-07 Toshiba Corp Personal face recognizing device and its method
JP2002024811A (en) * 2000-07-12 2002-01-25 Minolta Co Ltd Shadow component removing device
JP2007049631A (en) * 2005-08-12 2007-02-22 Fujifilm Holdings Corp Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099722A (en) * 1998-09-22 2000-04-07 Toshiba Corp Personal face recognizing device and its method
JP2002024811A (en) * 2000-07-12 2002-01-25 Minolta Co Ltd Shadow component removing device
JP2007049631A (en) * 2005-08-12 2007-02-22 Fujifilm Holdings Corp Imaging apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101592110B1 (en) 2014-08-07 2016-02-04 한국 한의학 연구원 APPARATUS AND METHOD FOR classification of eye shape
JP2016115117A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Determination device and determination method
JP2016115120A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Opened/closed eye determination device and opened/closed eye determination method
KR20190084260A (en) * 2016-11-11 2019-07-16 매직 립, 인코포레이티드 Full-face image around eye and audio synthesis
KR102217797B1 (en) 2016-11-11 2021-02-18 매직 립, 인코포레이티드 Pericular and audio synthesis of entire face images
US11200736B2 (en) 2016-11-11 2021-12-14 Magic Leap, Inc. Periocular and audio synthesis of a full face image
US11636652B2 (en) 2016-11-11 2023-04-25 Magic Leap, Inc. Periocular and audio synthesis of a full face image
JP6376421B1 (en) * 2017-09-15 2018-08-22 フリュー株式会社 Photo creation game machine, display method, and program
JP2019054414A (en) * 2017-09-15 2019-04-04 フリュー株式会社 Photo creation game machine, display method, and program
US11347051B2 (en) 2018-03-16 2022-05-31 Magic Leap, Inc. Facial expressions from eye-tracking cameras
US11598957B2 (en) 2018-03-16 2023-03-07 Magic Leap, Inc. Facial expressions from eye-tracking cameras
CN110796161A (en) * 2019-09-18 2020-02-14 平安科技(深圳)有限公司 Recognition model training method, recognition device, recognition equipment and recognition medium for eye ground characteristics

Similar Documents

Publication Publication Date Title
JP2010250420A (en) Image processing apparatus for detecting coordinate position of characteristic part of face
JP2010182150A (en) Image processing apparatus for detecting coordinate position of characteristic part of face
JP2010191592A (en) Image processing apparatus for detecting coordinate position of characteristic portion of face
JP2010250419A (en) Image processing device for detecting eye condition
JP2010186288A (en) Image processing for changing predetermined texture characteristic amount of face image
JP6688277B2 (en) Program, learning processing method, learning model, data structure, learning device, and object recognition device
JP2011060038A (en) Image processing apparatus
JP2007087346A (en) Information processing device, control method therefor, computer program, and memory medium
KR20200118076A (en) Biometric detection method and device, electronic device and storage medium
JP2010186216A (en) Specifying position of characteristic portion of face image
JP2007087345A (en) Information processing device, control method therefor, computer program, and memory medium
JP2011053942A (en) Apparatus, method and program for processing image
JP7064257B2 (en) Image depth determination method and creature recognition method, circuit, device, storage medium
CN111898571A (en) Action recognition system and method
JP2010244321A (en) Image processing for setting face model showing face image
JP2010176314A (en) Image processor for detecting coordinate position of characteristic site of face
JP2010282339A (en) Image processor for correcting position of pupil in eye, image processing method, image processing program and printer
JP2010244251A (en) Image processor for detecting coordinate position for characteristic site of face
JP2010170184A (en) Specifying position of characteristic portion of face image
JP2009237616A (en) Detection of face area in image
JP2010271955A (en) Image processing apparatus, image processing method, image processing program, and printer
JP4496005B2 (en) Image processing method and image processing apparatus
JP7385416B2 (en) Image processing device, image processing system, image processing method, and image processing program
JP6898020B1 (en) Information processing device and information processing method
JP2011048469A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130304