JP2006259902A - Image processor and processing method, recording medium, and program - Google Patents

Image processor and processing method, recording medium, and program Download PDF

Info

Publication number
JP2006259902A
JP2006259902A JP2005073755A JP2005073755A JP2006259902A JP 2006259902 A JP2006259902 A JP 2006259902A JP 2005073755 A JP2005073755 A JP 2005073755A JP 2005073755 A JP2005073755 A JP 2005073755A JP 2006259902 A JP2006259902 A JP 2006259902A
Authority
JP
Japan
Prior art keywords
image
face
eye
region
mouth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005073755A
Other languages
Japanese (ja)
Other versions
JP4636314B2 (en
Inventor
Hirotaka Ishii
啓喬 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2005073755A priority Critical patent/JP4636314B2/en
Publication of JP2006259902A publication Critical patent/JP2006259902A/en
Application granted granted Critical
Publication of JP4636314B2 publication Critical patent/JP4636314B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily and accurately recognize a face image. <P>SOLUTION: An imaging device 12 images the face of a user 11, and outputs a picture element value substantially proportional to a logarithm of incident luminous energy. A difference image calculation part 21 calculates a difference image comprising a difference between the first image that is an image of the face of the user 11 imaged by the imaging device 12 under the condition where a lighting system 13 emits no light toward the face of the user 11, and the second image that is an image of the face of the user 11 imaged by the imaging device 12 under the condition where the lighting system 13 emits the light toward the face of the user 11. A face area extracting part 22 extracts an area of the face of the user 11 within the difference image, a face direction determination part 23 determines a direction of the face of the user 11, and a face organ extracting part 24 extracts an organ of the face of the user 11. The present invention is applicable, for example, to an image processor for processing the image of the face of the human being. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、顔画像の認識処理を、容易に、かつ正確に行うことができるようにさせる画像処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method, a recording medium, and a program, and in particular, an image processing apparatus and method, a recording medium, and a program that make it possible to easily and accurately perform facial image recognition processing. About.

従来、撮像装置で撮像された画像に含まれている、ユーザの顔の領域や、目や口などの器官の領域を認識して、その認識した領域の位置を出力したり、認識した領域の画像を抽出する顔画像認識装置がある(例えば、特許文献1参照)。   Conventionally, a user's face area or an organ area such as an eye or mouth included in an image captured by an imaging device is recognized, and the position of the recognized area is output. There is a face image recognition device that extracts an image (see, for example, Patent Document 1).

特開平05−91406号公報Japanese Patent Laid-Open No. 05-91406

しかしながら、従来の顔画像認識装置では、撮像された画像に含まれている顔以外の物体の影響や、撮像されたときの被写体の光の条件の違いなどにより、正確にユーザの顔や顔の器官を認識できないことがあった。例えば、明るい屋外で撮像され、全体的に明るい被写体の画像と、暗い室内で撮像され、全体的に暗い被写体の画像とは、異なる条件を設定しなければ、顔や顔の器官を正確に認識することができないということなどがあった。   However, in the conventional face image recognition device, the user's face and face are accurately detected due to the influence of an object other than the face included in the captured image and the difference in the light condition of the subject when the image is captured. The organ could not be recognized. For example, an image of a bright subject that is captured in a bright outdoors and an image of a subject that is captured in a dark room and that is captured in a dark room can be accurately recognized unless a different condition is set. There were things that could not be done.

本発明は、このような状況に鑑みてなされたものであり、顔画像の認識処理を、容易に、かつ正確に行うことができるようにさせるものである。   The present invention has been made in view of such a situation, and makes it possible to easily and accurately perform facial image recognition processing.

本発明の画像処理装置は、照明手段が顔に光を照射していない状態で、撮像手段により顔が撮像された画像である第1の画像と、照明手段が顔に光を照射している状態で、撮像手段により顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である顔画像を取得する顔画像取得手段と、顔画像取得手段により取得された顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する画素値加算手段と、差分画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、顔画像を、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離する分離手段と、分離手段により分離された目画像から、目の領域を抽出する処理を行う目領域処理手段と、分離手段により分離された鼻画像から、鼻の領域を抽出する処理を行う鼻領域処理手段と、分離手段により分離された口画像から、口の領域を抽出する処理を行う口領域処理手段とを備えることを特徴とする。   In the image processing apparatus according to the present invention, the illumination unit irradiates the face with light, and the first image that is an image of the face captured by the imaging unit in a state where the illumination unit does not irradiate the face with light. In this state, a face image acquisition unit that acquires a face image that is a difference image including a difference in pixel value from a second image that is an image of a face captured by the imaging unit, and a face acquired by the face image acquisition unit Using a pixel value addition means for calculating a pixel addition value by adding a pixel value for each column in the horizontal or vertical direction of the image and a pixel addition value for each column in the horizontal or vertical direction of the difference image, Separating the eye image including the eye region, the nose image including the nose region, and the mouth image including the mouth region, and processing for extracting the eye region from the eye image separated by the separating device By eye area processing means to perform and separation means A nose region processing unit that performs a process of extracting the nose region from the separated nose image; and a mouth region processing unit that performs a process of extracting the mouth region from the mouth image separated by the separating unit. Features.

本発明の画像処理装置においては、照明手段が顔に光を照射していない状態で、撮像手段により顔が撮像された画像である第1の画像と、照明手段が顔に光を照射している状態で、撮像手段により顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である顔画像が取得される。そして、取得された顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値が算出され、差分画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、顔画像が、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離される。さらに、分離された目画像から、目の領域を抽出する処理が行われ、分離された鼻画像から、鼻の領域を抽出する処理が行われ、分離された口画像から、口の領域を抽出する処理が行われる。   In the image processing apparatus of the present invention, the illumination unit irradiates the face with light, and the illumination unit irradiates the face with light in a state where the illumination unit does not irradiate the face with light. In this state, a face image that is a difference image made up of a difference in pixel value from the second image that is an image of the face captured by the imaging means is acquired. Then, a pixel addition value is calculated by adding the pixel value for each column in the horizontal or vertical direction of the acquired face image, and the face image is calculated using the pixel addition value for each column in the horizontal or vertical direction of the difference image. Are separated into an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region. Furthermore, the process of extracting the eye area from the separated eye image is performed, the process of extracting the nose area from the separated nose image is performed, and the mouth area is extracted from the separated mouth image. Processing is performed.

従って、差分画像から、認識対象となる顔を含む顔画像の目、鼻、および口の領域を正確に抽出することができる。これにより、顔画像の認識処理を、容易に、かつ正確に行うようにさせることができる。   Therefore, it is possible to accurately extract the eye, nose, and mouth regions of the face image including the face to be recognized from the difference image. As a result, the face image recognition process can be performed easily and accurately.

この画像取得手段、画素値加算手段、分離手段、目領域処理手段、鼻領域処理手段、および口領域処理手段は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などの演算装置により構成される。   The image acquisition means, the pixel value addition means, the separation means, the eye area processing means, the nose area processing means, and the mouth area processing means are performed by an arithmetic device such as a CPU (Central Processing Unit) or DSP (Digital Signal Processor). Composed.

目領域処理手段には、目画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する目画像画素値加算手段と、目画像画素値加算手段により得られる、目画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、目の領域を抽出する目領域抽出手段と、目領域抽出手段により抽出された目の領域から、目の位置を代表する代表点を決定する目代表点決定手段とを有するようにさせることができる。   The eye area processing means is obtained by an eye image pixel value addition means for calculating a pixel addition value obtained by adding pixel values for each column in the horizontal or vertical direction to the eye image, and an eye image pixel value addition means. The eye area extraction means for extracting the eye area using the pixel addition value for each column in the horizontal or vertical direction of the eye image, and the eye position from the eye area extracted by the eye area extraction means Eye representative point determining means for determining representative points to be determined.

目領域処理手段においては、目画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値が算出され、算出された目画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、目の領域が抽出され、抽出された目の領域から、目の位置を代表する代表点が決定される。   In the eye region processing means, a pixel addition value is calculated by adding pixel values for each column in the horizontal or vertical direction to the eye image, and the calculated pixels for each column in the horizontal or vertical direction of the calculated eye image. An eye region is extracted using the added value, and a representative point representing the position of the eye is determined from the extracted eye region.

従って、目の領域および目を代表する代表点を正確に抽出することができる。   Therefore, the eye region and the representative point representing the eye can be accurately extracted.

目画像画素値加算手段、目領域抽出手段、および目代表点決定手段は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などの演算装置により構成される。   The eye image pixel value adding means, the eye area extracting means, and the eye representative point determining means are configured by arithmetic units such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor).

鼻領域処理手段には、鼻画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する鼻画像画素値加算手段と、鼻画像画素値加算手段により得られる、鼻画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、鼻の領域を抽出する鼻領域抽出手段と、鼻領域抽出手段により抽出された鼻の領域から、鼻の位置を代表する代表点を決定する鼻代表点決定手段とを有するようにさせることができる。   The nose region processing means is obtained by a nose image pixel value addition means for calculating a pixel addition value obtained by adding pixel values for each column in the horizontal or vertical direction to the nose image, and a nose image pixel value addition means. The nose area extraction means for extracting the nose area using the pixel addition value for each column in the horizontal or vertical direction of the nose image, and the nose position from the nose area extracted by the nose area extraction means And a nose representative point determining means for determining a representative point to be determined.

鼻領域処理手段においては、鼻画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値が算出され、鼻画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、鼻の領域が抽出され、抽出された鼻の領域から、鼻の位置を代表する代表点が決定される。   In the nose region processing means, a pixel addition value is calculated by adding the pixel value for each column in the horizontal or vertical direction to the nose image, and the pixel addition value for each column in the horizontal or vertical direction of the nose image is calculated. Using the extracted nose region, a representative point representing the position of the nose is determined from the extracted nose region.

従って、鼻の領域および鼻を代表する代表点を正確に抽出することができる。   Therefore, the nose region and the representative point representing the nose can be accurately extracted.

鼻画像画素値加算手段、鼻領域抽出手段、および鼻代表点決定手段は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などの演算装置により構成される。   The nose image pixel value adding means, the nose region extracting means, and the nose representative point determining means are configured by arithmetic units such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor).

口領域処理手段には、口画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する口画像画素値加算手段と、口画像画素値加算手段により得られる、口画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、口の領域を抽出する口領域抽出手段と、口領域抽出手段により抽出された口の領域から、口の位置を代表する代表点を決定する口代表点決定手段とを有するようにさせることができる。   The mouth area processing means is obtained by mouth image pixel value adding means for calculating a pixel added value obtained by adding pixel values for each column in the horizontal or vertical direction to the mouth image, and mouth image pixel value adding means. The mouth area extraction means for extracting the mouth area using the pixel addition value for each column in the horizontal or vertical direction of the mouth image, and the mouth position from the mouth area extracted by the mouth area extraction means It is possible to have mouth representative point determining means for determining a representative point to be determined.

口領域処理手段においては、口画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値が算出され、口画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、口の領域が抽出され、抽出された口の領域から、口の位置を代表する代表点が決定される。   In the mouth area processing means, a pixel addition value is calculated by adding pixel values for each column in the horizontal or vertical direction to the mouth image, and the pixel addition value for each column in the horizontal or vertical direction of the mouth image is calculated. Using the extracted mouth area, a representative point representing the mouth position is determined from the extracted mouth area.

従って、口の領域および口を代表する代表点を正確に抽出することができる。   Accordingly, it is possible to accurately extract the mouth region and the representative point representing the mouth.

口画像画素値加算手段、口領域抽出手段、および口代表点決定手段は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などの演算装置により構成される。   The mouth image pixel value adding means, the mouth area extracting means, and the mouth representative point determining means are constituted by arithmetic units such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor).

第1および第2の画像は、半導体のサブスレッショルド特性を利用して、入射光量の対数にほぼ比例した画素値を出力する対数変換型の撮像素子を有する撮像手段に撮像させることができる。   The first and second images can be imaged by an imaging means having a logarithmic conversion type imaging device that outputs a pixel value substantially proportional to the logarithm of the incident light quantity by utilizing the sub-threshold characteristic of the semiconductor.

撮像素子は、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor))とさせることができる。   The image sensor can be an HDRC (High Dynamic Range CMOS (Complementary Metal Oxide Semiconductor)).

これにより、被写体に対して強い光が照射されている場合であっても、画素値が飽和することなく、被写体の輝度分布を忠実に表すことができる。また、絞りやシャッタースピードなどを調整する必要がなく、自然光だけで照射されている被写体を撮像した画像と、強い光が照射されている被写体を撮像した画像との画素値の差分からなる差分画像を容易に得ることができる。   Thereby, even when intense light is irradiated to the subject, the luminance distribution of the subject can be faithfully represented without saturation of the pixel value. In addition, there is no need to adjust the aperture, shutter speed, etc., and a difference image consisting of the difference in pixel value between an image obtained by imaging a subject illuminated only by natural light and an image obtained by imaging an object illuminated by strong light Can be easily obtained.

本発明の画像処理方法、プログラム、および記録媒体に記録されているプログラムは、照明手段が顔に光を照射していない状態で、撮像手段により顔が撮像された画像である第1の画像と、照明手段が顔に光を照射している状態で、撮像手段により顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である顔画像を取得する顔画像取得ステップと、顔画像取得ステップの処理により取得された顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する画素値加算ステップと、差分画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、顔画像を、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離する分離ステップと、分離ステップの処理により分離された目画像から、目の領域を抽出する処理を行う目領域処理ステップと、分離ステップの処理により分離された鼻画像から、鼻の領域を抽出する処理を行う鼻領域処理ステップと、分離ステップの処理により分離された口画像から、口の領域を抽出する処理を行う口領域処理ステップとを含むことを特徴とする。   The image processing method, the program, and the program recorded in the recording medium of the present invention include a first image that is an image of the face captured by the imaging unit in a state where the illumination unit does not irradiate the face with light. Face image acquisition that acquires a face image that is a difference image composed of a difference in pixel value from a second image that is an image of the face captured by the imaging means while the illumination means irradiates the face with light A pixel value addition step for calculating a pixel addition value obtained by adding a pixel value for each column in the horizontal or vertical direction of the face image acquired by the step, the face image acquisition step, and a horizontal or vertical direction of the difference image, respectively Separation step for separating a face image into an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region, using the pixel addition value for each column, and processing of the separation step In An eye region processing step for performing processing for extracting the eye region from the separated eye image, and a nose region processing step for performing processing for extracting the nose region from the nose image separated by the processing of the separation step; A mouth region processing step for performing processing for extracting a mouth region from the mouth image separated by the processing of the separation step.

本発明の画像処理方法、プログラム、および記録媒体に記録されているプログラムにおいては、照明手段が顔に光を照射していない状態で、撮像手段により顔が撮像された画像である第1の画像と、照明手段が顔に光を照射している状態で、撮像手段により顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である顔画像が取得される。そして、取得された顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値が算出され、差分画像の水平または垂直方向それぞれの列ごとの画素加算値を用いて、顔画像が、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離される。さらに、分離された目画像から、目の領域を抽出する処理が行われ、分離された鼻画像から、鼻の領域を抽出する処理が行われ、分離された口画像から、口の領域を抽出する処理が行われる。   In the image processing method, the program, and the program recorded on the recording medium of the present invention, a first image that is an image of the face captured by the imaging unit in a state where the illumination unit does not irradiate the face with light. Then, in a state where the illumination unit irradiates the face with light, a face image that is a difference image made up of a difference in pixel value from the second image that is an image of the face captured by the imaging unit is acquired. Then, a pixel addition value is calculated by adding the pixel value for each column in the horizontal or vertical direction of the acquired face image, and the face image is calculated using the pixel addition value for each column in the horizontal or vertical direction of the difference image. Are separated into an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region. Furthermore, the process of extracting the eye area from the separated eye image is performed, the process of extracting the nose area from the separated nose image is performed, and the mouth area is extracted from the separated mouth image. Processing is performed.

従って、差分画像から、認識対象となる顔を含む顔画像の目、鼻、および口の領域を正確に抽出することができる。これにより、顔画像の認識処理を、容易に、かつ正確に行うようにさせることができる。   Therefore, it is possible to accurately extract the eye, nose, and mouth regions of the face image including the face to be recognized from the difference image. As a result, the face image recognition process can be performed easily and accurately.

本発明によれば、顔画像の認識処理を、容易に、かつ正確に行うようにさせることができる。   According to the present invention, face image recognition processing can be performed easily and accurately.

図1は、本発明を適用した画像処理システムの一実施の形態の構成例を示している。   FIG. 1 shows a configuration example of an embodiment of an image processing system to which the present invention is applied.

図1の画像処理システム1は、被写体としてのユーザ11を撮像する撮像装置12、ユーザ11に対して光を照射する照明装置13、撮像装置12や照明装置13に対して撮像(撮影)または照射のタイミングを指令(制御)するタイミング制御装置14、および撮像装置12で撮像された画像を処理する画像処理装置15により構成されている。   The image processing system 1 in FIG. 1 captures (shoots) or irradiates an imaging device 12 that captures an image of a user 11 as a subject, an illumination device 13 that irradiates the user 11 with light, and the imaging device 12 and the illumination device 13. Are configured by a timing control device 14 that commands (controls) the timing and an image processing device 15 that processes an image captured by the imaging device 12.

撮像装置12は、タイミング制御装置14から供給されるタイミング制御信号にしたがい、被写体であるユーザ11を撮像し、その結果得られる画像(画像信号)を画像処理装置15に供給する。撮像装置12は、後述するように、入射される光量の対数に比例した画素値を出力する撮像素子を有する撮像装置である。また、撮像装置12では、全画素(撮像素子)の画素値が、同一のタイミングで読み出される。   In accordance with the timing control signal supplied from the timing control device 14, the imaging device 12 captures an image of the user 11 as a subject and supplies the image (image signal) obtained as a result to the image processing device 15. As will be described later, the imaging device 12 is an imaging device having an imaging element that outputs a pixel value proportional to the logarithm of the amount of incident light. Moreover, in the imaging device 12, the pixel values of all the pixels (imaging elements) are read at the same timing.

照明装置13は、タイミング制御装置14から供給されるタイミング制御信号にしたがい、ユーザ11に対して光を照射する。   The illumination device 13 irradiates the user 11 with light according to the timing control signal supplied from the timing control device 14.

タイミング制御装置14は、撮像周期となるタイミング制御信号を撮像装置12に供給する。例えば、タイミング制御装置14は、1秒間に30枚の画像を撮像する周期(フレーム周期)でタイミング制御信号を撮像装置12に供給する。なお、1秒間に60枚の画像を撮像する周期(フィールド周期)や、その他の周期であってもよい。また、撮像される画像は、プログレッシブ(ノンインターレース)画像またはインタレース画像のいずれでもよい。   The timing control device 14 supplies a timing control signal that is an imaging cycle to the imaging device 12. For example, the timing control device 14 supplies the timing control signal to the imaging device 12 at a cycle (frame cycle) of capturing 30 images per second. In addition, the period (field period) which images 60 images per second, or other periods may be used. In addition, the captured image may be either a progressive (non-interlaced) image or an interlaced image.

また、タイミング制御装置14は、照明装置13によってユーザ11が照射されていないときの画像と、ユーザ11が照射されているときの画像とが、撮像装置12において、交互に撮像されるように、光を照射するタイミングを指令(制御)するタイミング制御信号を、照明装置13に供給する。例えば、タイミング制御装置14は、撮像装置12に対してフレーム周期でタイミング制御信号を供給している場合、撮像装置12で撮像された画像のうち、奇数フレームでは照明装置13によってユーザ11が照射されていない画像となり、偶数フレームではユーザ11が照射されている画像となるように、タイミング制御信号を照明装置13に供給する。   Further, the timing control device 14 is configured so that an image when the user 11 is not irradiated by the lighting device 13 and an image when the user 11 is irradiated are alternately captured by the imaging device 12. A timing control signal for commanding (controlling) the timing of irradiating light is supplied to the lighting device 13. For example, when the timing control device 14 supplies a timing control signal to the imaging device 12 at a frame period, the user 11 is irradiated by the illumination device 13 in an odd frame among images captured by the imaging device 12. The timing control signal is supplied to the illumination device 13 so that the image becomes a non-image and the image irradiated by the user 11 in the even-numbered frame.

さらに、タイミング制御装置14は、撮像装置12から画像処理装置15に対して供給される画像(以下、撮像画像と称する)が、照明装置13によってユーザ11が光を照射されていない状態で撮像された画像(以下、基準画像と称する)であるか、または、照明装置13によってユーザ11が光を照射されている状態で撮像された画像(以下、照明画像と称する)であるかを判定するための判定信号を画像処理装置15に供給する。   Further, the timing control device 14 captures an image (hereinafter referred to as a captured image) supplied from the imaging device 12 to the image processing device 15 in a state where the user 11 is not irradiated with light by the illumination device 13. In order to determine whether the image is an image (hereinafter referred to as a reference image) or an image (hereinafter referred to as an illumination image) captured by the illumination device 13 while the user 11 is irradiated with light. The determination signal is supplied to the image processing device 15.

画像処理装置15は、差分画像算出部21、顔領域抽出部22、顔向き判定部23、および顔器官抽出部24により構成されている。   The image processing apparatus 15 includes a difference image calculation unit 21, a face area extraction unit 22, a face orientation determination unit 23, and a face organ extraction unit 24.

画像処理装置15は、撮像装置12から供給される撮像画像に対して、顔の認識処理(顔認証)を行うのに適した画像を選択し、選択された撮像画像に含まれる顔または顔の器官の領域を特定する情報とともに、撮像画像を図示せぬ後段の装置に出力する。ここで、顔の器官とは、目、鼻、および口のことを表す。   The image processing device 15 selects an image suitable for performing face recognition processing (face authentication) on the captured image supplied from the imaging device 12, and includes a face or a face included in the selected captured image. A captured image is output to a subsequent apparatus (not shown) together with information for specifying the region of the organ. Here, facial organs represent eyes, nose and mouth.

撮像装置12からの撮像画像(に対応する画像信号)は、差分画像算出部21および顔器官抽出部24に供給される。また、差分画像算出部21には、タイミング制御装置14から、上述した判定信号も供給される。   The captured image (corresponding image signal) from the imaging device 12 is supplied to the difference image calculation unit 21 and the facial organ extraction unit 24. Further, the above-described determination signal is also supplied to the difference image calculation unit 21 from the timing control device 14.

差分画像算出部21は、判定信号に従い、撮像装置12から供給された撮像画像が、基準画像であるか、または、照明画像であるかを判定するとともに、基準画像と(その後のフレームとして撮像装置12から供給される)照明画像とを用いて差分画像を生成し、顔領域抽出部22に供給する。ここで、差分画像は、その画像を構成する各画素の画素値が、基準画像と照明画像との間の、対応する画素どうしの画素値の差分となっている画像である。   The difference image calculation unit 21 determines whether the captured image supplied from the imaging device 12 is a reference image or an illumination image according to the determination signal, and also determines the reference image and the imaging device as a subsequent frame. A difference image is generated using the illumination image (supplied from the image 12) and supplied to the face area extraction unit 22. Here, the difference image is an image in which the pixel value of each pixel constituting the image is a difference in pixel value between corresponding pixels between the reference image and the illumination image.

顔領域抽出部22は、差分画像算出部21から供給される差分画像から、ユーザ11の顔の領域を抽出し、その抽出された領域を特定する顔領域情報を、差分画像とともに顔向き判定部23に供給する。   The face area extraction unit 22 extracts a face area of the user 11 from the difference image supplied from the difference image calculation unit 21, and includes face area information for specifying the extracted area together with the difference image as a face orientation determination unit. 23.

顔向き判定部23は、顔領域抽出部22からの顔領域情報で特定される差分画像の顔の領域の画像(以下、適宜、顔画像と称する)から、撮像画像内の、ユーザ11の顔の向きを判定する。顔向き判定部23が判定した判定結果としては、正面、右向き、および左向きの3種類がある。後段の顔器官抽出部24で行われる顔の器官の領域の抽出(特定)や、画像処理装置15が処理結果を出力する出力先の装置で行われる顔の認識処理などでは、顔が正面を向いていない画像を用いて認識処理を行った場合、認識の精度が低下する。そのため、顔向き判定部23は、差分画像(撮像画像)が認識に適した正面を向いている画像であるかどうかを判定する。顔向き判定部23は、ユーザ11の顔の向きを表す判定結果を、顔領域抽出部22から供給された差分画像および顔領域情報とともに顔器官抽出部24に供給する。   The face orientation determination unit 23 determines the face of the user 11 in the captured image from the image of the face area of the difference image specified by the face area information from the face area extraction unit 22 (hereinafter referred to as a face image as appropriate). Determine the direction. There are three types of determination results determined by the face direction determination unit 23: front, right, and left. In the extraction (identification) of the facial organ region performed by the facial organ extraction unit 24 in the subsequent stage, or the face recognition processing performed in the output destination device from which the image processing device 15 outputs the processing result, the face is faced forward. When the recognition process is performed using an image that is not suitable, the recognition accuracy decreases. Therefore, the face orientation determination unit 23 determines whether the difference image (captured image) is an image facing the front suitable for recognition. The face orientation determination unit 23 supplies a determination result indicating the orientation of the face of the user 11 to the face organ extraction unit 24 together with the difference image and face region information supplied from the face region extraction unit 22.

顔器官抽出部24は、顔向き判定部23から供給される(顔の向きの)判定結果が正面であることを表している場合、顔向き判定部23からの顔画像に基づいて、ユーザ11の顔の器官(目、鼻、および口)の領域を抽出(特定)する。そして、顔器官抽出部24は、顔の器官の領域を抽出した結果得られる、目領域情報、鼻領域情報、および口領域情報を、上述の顔領域情報とともに、後段の装置に出力する。また、顔器官抽出部24は、撮像装置12から供給される撮像画像も後段の装置に出力する。   When the determination result supplied from the face orientation determination unit 23 (face orientation) indicates that the face organ extraction unit 24 represents the front, the face organ extraction unit 24 is based on the face image from the face orientation determination unit 23. Extract (specify) regions of facial organs (eyes, nose, and mouth). Then, the facial organ extraction unit 24 outputs the eye region information, the nose region information, and the mouth region information obtained as a result of extracting the facial organ region, together with the above-described facial region information, to the subsequent apparatus. The facial organ extraction unit 24 also outputs a captured image supplied from the imaging device 12 to a subsequent device.

以上のように構成される画像処理システム1では、画像処理装置15の差分画像算出部21は、照明装置13がユーザ11を照射していない状態で、撮像装置12がユーザ11の顔を撮像した基準画像と、照明装置13がユーザ11の顔を照射している状態で、撮像装置12がユーザ11の顔を撮像した照明画像とを取得する。   In the image processing system 1 configured as described above, the difference image calculation unit 21 of the image processing apparatus 15 captures the face of the user 11 while the illumination apparatus 13 is not irradiating the user 11. The imaging device 12 acquires a reference image and an illumination image obtained by imaging the face of the user 11 while the illumination device 13 is irradiating the face of the user 11.

差分画像算出部21は、基準画像と照明画像との差分画像を算出する。顔領域抽出部22は、差分画像から、ユーザ11の顔の領域を抽出し、その抽出された領域を特定する顔領域情報を顔向き判定部23に供給する。顔器官抽出部24は、顔向き判定部23においてユーザ11の顔が正面を向いていると判定された顔画像について、顔の目、鼻、口の領域それぞれを抽出し、その抽出された領域を特定する目領域情報、鼻領域情報、および口領域情報を得る。顔器官抽出部24は、得られた目領域情報、鼻領域情報、および口領域情報と、顔領域抽出部22で得られた顔領域情報、並びに、撮像装置12から供給された撮像画像を出力する。   The difference image calculation unit 21 calculates a difference image between the reference image and the illumination image. The face area extraction unit 22 extracts a face area of the user 11 from the difference image, and supplies face area information for specifying the extracted area to the face direction determination unit 23. The face organ extraction unit 24 extracts the face eye, nose, and mouth regions of the face image determined by the face orientation determination unit 23 that the face of the user 11 is facing the front, and the extracted regions. Eye region information, nose region information, and mouth region information that identify The face organ extraction unit 24 outputs the obtained eye region information, nose region information, and mouth region information, the face region information obtained by the face region extraction unit 22, and the captured image supplied from the imaging device 12. To do.

図2および図3を参照して、画像処理装置15が行う処理の概要を説明する。   With reference to FIG. 2 and FIG. 3, the outline of the processing performed by the image processing device 15 will be described.

図2は、撮像装置12で撮像され、画像処理装置15に入力される画像(撮像画像)の例を示している。   FIG. 2 shows an example of an image (captured image) captured by the imaging device 12 and input to the image processing device 15.

図2の画像31には、所定の背景の前に位置するユーザ11が映されており、画像31は、ユーザ11の顔を少なくとも含んでいる。   The image 31 in FIG. 2 shows the user 11 positioned in front of a predetermined background, and the image 31 includes at least the face of the user 11.

画像処理装置15では、画像の左上角を原点とし、図2に示すように、図面の右方向(水平方向)を(正の)X方向、図面の下方向(垂直方向)を(正の)Y方向とする座標系が用いられるものとする。   In the image processing apparatus 15, the upper left corner of the image is the origin, and as shown in FIG. 2, the right direction (horizontal direction) of the drawing is the (positive) X direction, and the downward direction (vertical direction) of the drawing is (positive). It is assumed that a coordinate system in the Y direction is used.

画像処理装置15は、例えば、図2に示す画像31が入力された場合、画像31に含まれているユーザ11の顔の領域を抽出(特定)する。   For example, when the image 31 illustrated in FIG. 2 is input, the image processing device 15 extracts (specifies) the face area of the user 11 included in the image 31.

そこで、図3は、図2の画像31から抽出された、顔の領域を含む画像(顔画像)FRを示している。   Therefore, FIG. 3 shows an image (face image) FR including a face area extracted from the image 31 of FIG.

また、画像処理装置15は、顔画像FRのなかの、左目の領域ILと、その領域ILを代表する代表点ILp、および右目の領域IRと、その領域IRを代表する代表点IRpを抽出(特定)する。   Further, the image processing device 15 extracts the left eye region IL, the representative point ILp representing the region IL, the right eye region IR, and the representative point IRp representing the region IR in the face image FR ( Identify.

さらに、画像処理装置15は、顔画像FRのなかの、鼻の領域NRと、その領域NRを代表する代表点NRp、および口の領域MRと、その領域MRを代表する代表点MRpを抽出(特定)する。   Further, the image processing device 15 extracts a nose region NR, a representative point NRp representing the region NR, a mouth region MR, and a representative point MRp representing the region MR in the face image FR ( Identify.

以下では、図2に示した画像31を撮像し、画像処理装置15に供給する撮像装置12と、供給された画像31から、顔画像FR、左目の領域ILおよびその代表点ILp、右目の領域IRおよびその代表点IRp、鼻の領域IRおよびその代表点NRp、並びに、口の領域MRおよびその代表点MRpを抽出(特定)する画像処理装置15のそれぞれの詳細な構成について説明する。   In the following, the imaging device 12 that captures the image 31 shown in FIG. 2 and supplies the image processing device 15 to the image processing device 15, and the face image FR, the left eye region IL and its representative point ILp, and the right eye region from the supplied image 31. Detailed configurations of the image processing device 15 that extracts (specifies) the IR and its representative point IRp, the nose region IR and its representative point NRp, and the mouth region MR and its representative point MRp will be described.

図4は、図1の撮像装置12の詳細な構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a detailed configuration example of the imaging device 12 of FIG.

撮像装置12は、レンズ41、および対数変換型撮像素子42により構成されている。   The imaging device 12 includes a lens 41 and a logarithmic conversion type imaging device 42.

対数変換型撮像素子42は、例えば、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor))などの対数変換型の撮像素子とされ、光検出部51、対数変換部52、A/D変換部53、および撮像タイミング制御部54を含むように構成されている。   The logarithmic conversion type image pickup device 42 is a logarithmic conversion type image pickup device such as HDRC (High Dynamic Range CMOS (Complementary Metal Oxide Semiconductor)), and includes a light detection unit 51, a logarithmic conversion unit 52, and an A / D conversion unit 53. , And an imaging timing control unit 54.

撮像装置12により撮像される被写体(ユーザ11)から発せられた光(あるいは、被写体により反射された光)は、レンズ41に入射し、対数変換型撮像素子42の光検出部51の図示せぬ光検出面に結像する。   Light emitted from the subject (user 11) imaged by the imaging device 12 (or light reflected by the subject) enters the lens 41 and is not shown in the light detection unit 51 of the logarithmic conversion type image sensor 42. An image is formed on the light detection surface.

光検出部51は、例えば、複数のフォトダイオードからなる受光素子などにより構成される。光検出部51は、レンズ41により結像された被写体の光を、入射された光の明るさ(照度)に応じた電荷に変換し、変換した電荷を蓄積する。光検出部51は、撮像タイミング制御部54から供給される制御信号に同期して、蓄積した電荷を対数変換部52に供給する。   The light detection unit 51 is configured by, for example, a light receiving element including a plurality of photodiodes. The light detection unit 51 converts the light of the subject imaged by the lens 41 into a charge corresponding to the brightness (illuminance) of the incident light, and accumulates the converted charge. The light detection unit 51 supplies the accumulated charge to the logarithmic conversion unit 52 in synchronization with the control signal supplied from the imaging timing control unit 54.

対数変換部52は、例えば、複数のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)などにより構成される。対数変換部52は、MOSFETのサブスレッショルド特性を利用して、光検出部51から供給される電荷を、画素ごとに電荷の数(電流の強さ)の対数(被写体の光の光量の対数)にほぼ比例した電圧値に変換したアナログの電気信号を生成する。対数変換部52は、生成したアナログの電気信号をA/D変換部53に供給する。   The logarithmic conversion unit 52 includes, for example, a plurality of MOSFETs (Metal Oxide Semiconductor Field Effect Transistors). The logarithmic conversion unit 52 uses the sub-threshold characteristic of the MOSFET to convert the charge supplied from the light detection unit 51 into the logarithm of the number of charges (the intensity of current) for each pixel (the logarithm of the amount of light of the subject). An analog electrical signal converted into a voltage value approximately proportional to The logarithmic converter 52 supplies the generated analog electrical signal to the A / D converter 53.

A/D変換部53は、撮像タイミング制御部54から供給される制御信号に同期して、アナログの電気信号をデジタルの画像データにA/D変換する。例えば、14bitの符号なし2進数のデジタルの画像データに変換される場合、画像データの画素値は、最も暗い0から最も明るい214−1の範囲の値をとる。A/D変換部53は、変換したデジタルの画像データの画素値を画像処理装置112に供給する。 The A / D conversion unit 53 A / D converts an analog electric signal into digital image data in synchronization with the control signal supplied from the imaging timing control unit 54. For example, in the case of conversion to 14-bit unsigned binary digital image data, the pixel value of the image data takes a value in the range of 0 to the brightest 2 14 −1. The A / D conversion unit 53 supplies the pixel value of the converted digital image data to the image processing device 112.

このように、撮像装置12は、光検出部51に入射した被写体の光の明るさ(入射光量)の対数に比例した画素値を出力する。なお、対数変換型の撮像素子については、例えば、特表平7−506932公報などにその詳細が開示されている。   Thus, the imaging device 12 outputs a pixel value proportional to the logarithm of the brightness (incident light amount) of the light of the subject incident on the light detection unit 51. The details of the logarithmic conversion type image pickup device are disclosed in, for example, JP-T-7-506932.

図5は、対数変換型撮像素子42、CCD撮像素子、銀塩フィルム、および、人の目の感度特性を示すグラフである。   FIG. 5 is a graph showing sensitivity characteristics of the logarithmic conversion type image pickup element 42, the CCD image pickup element, the silver salt film, and the human eye.

図5の横軸は、入射光の照度(単位は、ルクス(lux))の対数値を示し、縦軸は入射光の照度に対する感度を示している。曲線(直線)L1は対数変換型撮像素子42の感度特性を示し、曲線L2はCCD撮像素子の感度特性を示し、曲線L3は銀塩フィルムの感度特性を示し、曲線(直線)L4は人の目の感度特性を示している。   The horizontal axis in FIG. 5 indicates the logarithmic value of the illuminance (unit is lux) of the incident light, and the vertical axis indicates the sensitivity to the illuminance of the incident light. A curve (straight line) L1 indicates the sensitivity characteristic of the logarithmic conversion type image pickup element 42, a curve L2 indicates the sensitivity characteristic of the CCD image pickup element, a curve L3 indicates the sensitivity characteristic of the silver salt film, and the curve (straight line) L4 indicates the human characteristic. It shows the sensitivity characteristics of the eyes.

対数変換型撮像素子42は、上述したように、入射光量の対数にほぼ比例した画素値を出力することにより、対数変換型撮像素子42を構成するフォトダイオードやMOSFETなどの容量を飽和させずに、CCD撮像素子、銀塩フィルム、および、人の目より広い、約1ミリルクスから太陽光の輝度より高い約500キロルクスまでの約170dBのダイナミックレンジで被写体を撮像することができる。   As described above, the logarithmic conversion type image pickup element 42 outputs a pixel value that is substantially proportional to the logarithm of the incident light quantity, so that the capacitance of the photodiode, MOSFET, etc. constituting the logarithmic conversion type image pickup element 42 is not saturated. A CCD imaging device, a silver salt film, and a subject can be imaged with a dynamic range of about 170 dB, which is wider than the human eye, from about 1 millilux to about 500 kilolux higher than the brightness of sunlight.

従って、対数変換型撮像素子42を用いた撮像装置12は、人が視認できる輝度範囲において、輝度クリッピングが発生しないため、絞りやシャッタースピードなどを調整して入射光量を調整する必要がない。すなわち、撮像装置12は、入射光量を調整しなくても、被写体の詳細な輝度分布を忠実に撮像することができる。   Therefore, the imaging device 12 using the logarithmic conversion type imaging element 42 does not generate luminance clipping in a luminance range that can be visually recognized by humans, and therefore, it is not necessary to adjust the aperture and shutter speed to adjust the amount of incident light. That is, the imaging device 12 can faithfully capture the detailed luminance distribution of the subject without adjusting the amount of incident light.

例えば、昼間に車内から車の前方を撮像する場合、画角内に太陽が入っていても、撮像装置12により撮像された画像は、入射光量を調整しなくても、太陽と前方の道路の輝度の分布を忠実に再現した画像となる。また、夜間に車内から車の前方を撮像する場合、対向車のヘッドライトが前方から照らされていても、撮像装置12により撮像された画像は、入射光量を調整しなくても、対向車のヘッドライトの光から自車のヘッドライトに照らされていない領域までの輝度の分布を忠実に再現した画像となる。   For example, when imaging the front of a vehicle from inside the vehicle during the daytime, even if the sun is within the angle of view, the image captured by the imaging device 12 can be obtained from the sun and the road ahead without adjusting the amount of incident light. The image is a faithful reproduction of the luminance distribution. In addition, when imaging the front of the vehicle from inside the vehicle at night, even if the headlight of the oncoming vehicle is illuminated from the front, the image captured by the imaging device 12 does not have to adjust the incident light amount. This is an image that faithfully reproduces the luminance distribution from the light of the headlight to the area not illuminated by the headlight of the host vehicle.

一方、CCD撮像素子は、図5に示すように、人の目よりダイナミックレンジが狭い。従って、CCD撮像素子を用いた撮像装置では、入射光の照度がCCD撮像素子のダイナミックレンジ内に収まるように、絞りやシャッタースピードなどを調整する必要がある。   On the other hand, the CCD imaging device has a narrower dynamic range than the human eye, as shown in FIG. Therefore, in an image pickup apparatus using a CCD image pickup device, it is necessary to adjust an aperture, a shutter speed, and the like so that the illuminance of incident light is within the dynamic range of the CCD image pickup device.

しかしながら、被写体の光の照度の範囲がCCD撮像素子のダイナミックレンジを超える場合、被写体の明るい領域の画素の画素値が、CCD撮像素子が出力可能な画素値の最大値に制限されたり、被写体の暗い領域の画素の画素値が、CCD撮像素子が出力可能な画素値の最小値に制限されたりする輝度クリッピングが発生する。また、入射光量を調整した場合、例えば、被写体の輝度が変動しない領域に対応する入射光量が変動し、その領域の画素値が変動するなど、入射光量の調整に伴う画素値の変動が発生する。すなわち、従来のCCD撮像素子を用いた撮像装置では、被写体の輝度の変動および被写体の動き以外の要因により画素値が変動する。   However, when the illuminance range of the subject's light exceeds the dynamic range of the CCD image sensor, the pixel value of the pixel in the bright area of the subject is limited to the maximum pixel value that can be output by the CCD image sensor, Luminance clipping occurs in which the pixel value of a pixel in a dark region is limited to the minimum pixel value that can be output by the CCD image sensor. In addition, when the incident light amount is adjusted, for example, the incident light amount corresponding to a region where the luminance of the subject does not fluctuate fluctuates, and the pixel value of the region fluctuates. . That is, in an imaging apparatus using a conventional CCD imaging device, the pixel value varies due to factors other than the variation in luminance of the subject and the movement of the subject.

また、CCD撮像素子および銀塩フィルムでは、曲線L2および曲線L3に示されるように、ガンマ特性などの要因により感度特性が入射光の照度の対数に比例しないのに比べて、対数変換型撮像素子42では、感度特性が入射光の照度の対数にほぼ比例する。   Further, in the CCD image pickup device and the silver salt film, as shown by the curves L2 and L3, the logarithmic conversion type image pickup device is compared with the case where the sensitivity characteristic is not proportional to the logarithm of the illuminance of incident light due to factors such as the gamma characteristic. At 42, the sensitivity characteristic is approximately proportional to the logarithm of the illuminance of the incident light.

このように、対数変換型撮像素子42を用いた撮像装置12は、輝度クリッピングの発生、入射光量の調整、ガンマ特性の影響を受けないため、撮像装置12により撮像された画像の画素値は、被写体の輝度の変動および被写体の動きをほぼ忠実に反映するように変動する。すなわち、フレーム間の画像の差分をとった差分画像の各画素の画素値(差分値)は、被写体の輝度の変動および被写体の動きがほぼ忠実に反映された値となる。   Thus, since the imaging device 12 using the logarithmic conversion type imaging device 42 is not affected by the occurrence of luminance clipping, adjustment of the incident light amount, and gamma characteristics, the pixel value of the image captured by the imaging device 12 is It fluctuates so as to reflect the change in luminance of the subject and the movement of the subject almost faithfully. That is, the pixel value (difference value) of each pixel of the difference image obtained by taking the image difference between frames is a value in which the luminance variation of the subject and the motion of the subject are reflected almost faithfully.

また、撮像装置12から出力される画像の画素値は、入射光量の対数にほぼ比例した値となるので、被写体に照射される光の明るさ(照度)に関わらず、その被写体を撮像した画像における画素値の分布は、その被写体の反射率の分布がほぼ同様に反映されたものとなる。例えば、反射率の最大値と最小値の比率が10:1である被写体を、1回目と2回目とで約100倍の照度差がある光を照射して撮像した場合、1回目の画像と2回目の画像との画素値の分布を示すヒストグラムの幅はほぼ同じ値(1=log1010)となる。一方、画像の画素値が入射光量に比例する場合、1回目の画像と2回目の画像の画素値の分布を示すヒストグラムの幅の差は約100倍となる。 Further, since the pixel value of the image output from the imaging device 12 is a value that is substantially proportional to the logarithm of the incident light quantity, the image obtained by capturing the subject regardless of the brightness (illuminance) of the light irradiated to the subject. The distribution of the pixel values at is a reflection of the reflectance distribution of the subject in substantially the same manner. For example, when a subject whose ratio between the maximum value and the minimum value of reflectance is 10: 1 is imaged by irradiating light having an illuminance difference of about 100 times between the first time and the second time, the first image and The width of the histogram showing the distribution of pixel values with the second image is almost the same value (1 = log 10 10). On the other hand, when the pixel value of the image is proportional to the amount of incident light, the difference in the width of the histogram indicating the distribution of the pixel values of the first image and the second image is about 100 times.

さらに、被写体の輝度(反射率)の分布に関わらず、被写体の輝度がほぼ同じ比率で変動した場合、その被写体を撮像した画像の画素値の変動値は、ほぼ同様になる。例えば、被写体内に輝度の比が100:1となる2つの領域がある場合、被写体に照射される光の照度がほぼ一様に変化し、被写体の輝度がほぼ同じ比率の+5%変動したとき、2つの領域に対応する画素値の変動値はほぼ同じ値(log101.05)となる。一方、画素値が入射光量に比例する場合、上述した2つの領域に対応する画素値の変動値の差は、約100倍となる。 Furthermore, regardless of the distribution of the luminance (reflectance) of the subject, when the luminance of the subject fluctuates at substantially the same ratio, the variation value of the pixel value of the image obtained by imaging the subject is substantially the same. For example, if there are two areas in the subject where the luminance ratio is 100: 1, the illuminance of the light radiated to the subject changes almost uniformly, and the subject's luminance changes by + 5%, which is almost the same ratio The variation values of the pixel values corresponding to the two areas are almost the same value (log 10 1.05). On the other hand, when the pixel value is proportional to the amount of incident light, the difference between the fluctuation values of the pixel values corresponding to the two regions described above is about 100 times.

図6は、図1の差分画像算出部21の詳細な構成例を示すブロック図である。   FIG. 6 is a block diagram illustrating a detailed configuration example of the difference image calculation unit 21 in FIG. 1.

差分画像算出部21は、画像取得部61、メモリ62および63、差分処理部64、並びにフィルタ処理部65により構成されている。   The difference image calculation unit 21 includes an image acquisition unit 61, memories 62 and 63, a difference processing unit 64, and a filter processing unit 65.

画像取得部61は、撮像装置12から供給される撮像画像を取得する。ここで、画像取得部61には、上述したように、照明装置13によってユーザ11が光を照射されていない状態で撮像された画像(基準画像)と、照明装置13によってユーザ11が光を照射された状態で撮像された画像(照明画像)とが交互に入力(供給)される。   The image acquisition unit 61 acquires a captured image supplied from the imaging device 12. Here, as described above, the image acquisition unit 61 receives an image (reference image) captured in a state where the user 11 is not irradiated with light by the illumination device 13 and the user 11 emits light by the illumination device 13. Images (illumination images) picked up in this state are alternately input (supplied).

画像取得部61は、タイミング制御装置14からの判定信号に従い、撮像装置12からの撮像画像が、基準画像であるか、または、照明画像であるかを判定する。そして、画像取得部61は、撮像装置12からの撮像画像が基準画像である場合、取得した撮像画像(基準画像)をメモリ62に供給する。また、撮像装置12からの撮像画像が照明画像である場合、画像取得部61は、取得した撮像画像(照明画像)をメモリ63に供給する。   The image acquisition unit 61 determines whether the captured image from the imaging device 12 is a reference image or an illumination image according to the determination signal from the timing control device 14. Then, when the captured image from the imaging device 12 is a reference image, the image acquisition unit 61 supplies the acquired captured image (reference image) to the memory 62. When the captured image from the imaging device 12 is an illumination image, the image acquisition unit 61 supplies the acquired captured image (illumination image) to the memory 63.

メモリ62または63それぞれは、画像取得部61から供給される基準画像または照明画像を記憶し、必要に応じて差分処理部64に供給する。   Each of the memories 62 and 63 stores the reference image or the illumination image supplied from the image acquisition unit 61 and supplies the reference image or the illumination image to the difference processing unit 64 as necessary.

差分処理部64は、メモリ62に記憶されている基準画像と、メモリ63に記憶されている照明画像から、差分画像を算出し、フィルタ処理部65に供給する。具体的には、差分処理部64は、照明画像を構成する画素の画素値から、基準画像を構成する画素の画素値を、対応する画素どうしで減算することにより、差分画像を算出する。   The difference processing unit 64 calculates a difference image from the reference image stored in the memory 62 and the illumination image stored in the memory 63 and supplies the difference image to the filter processing unit 65. Specifically, the difference processing unit 64 calculates the difference image by subtracting the pixel values of the pixels constituting the reference image from the corresponding pixels from the pixel values of the pixels constituting the illumination image.

フィルタ処理部65は、差分処理部64からの差分画像に対してフィルタリング(フィルタ処理)を行い、処理後の差分画像を顔領域抽出部22(図1)に供給する。ここで行われるフィルタ処理は、例えば、差分画像を、所定の大きさを有する複数のブロックに分割し、ブロック内の全ての画素の画素値をブロック内の各画素の画素値の平均値とするモザイク処理とすることができる。   The filter processing unit 65 performs filtering (filter processing) on the difference image from the difference processing unit 64, and supplies the processed difference image to the face area extraction unit 22 (FIG. 1). The filtering process performed here, for example, divides the difference image into a plurality of blocks having a predetermined size, and sets the pixel values of all the pixels in the block as the average value of the pixel values of each pixel in the block. It can be a mosaic process.

また、フィルタ処理としては、ブロック内の中心にある画素を注目画素としたときに、注目画素の画素値を、その周辺(ブロック内)の画素の画素値に近い値となるように補正する処理を、差分画像の全ての画素について行う処理(差分画像を平滑化する平滑化処理)などを採用してもよい。   Further, as the filter processing, when the pixel at the center in the block is the target pixel, the pixel value of the target pixel is corrected so as to be close to the pixel value of the surrounding (in the block) pixel. May be employed for all pixels of the difference image (smoothing process for smoothing the difference image) or the like.

即ち、フィルタ処理部65で行われるフィルタ処理は、後段の顔領域抽出部22、顔向き判定部23、および顔器官抽出部24で処理する際に、周辺の画素に対して特異な画素値を有する特異点を消去する(少なくする)効果があるものであればよい。換言すれば、フィルタ処理は、顔領域抽出部22などにおいて、各画素の画素値から曲線(後述する列画素値加算曲線や行画素値加算曲線など)を計算した場合に、その曲線を滑らかにするローパスフィルタとして機能するものとすることができる。   That is, the filter processing performed by the filter processing unit 65 is performed by a pixel value unique to surrounding pixels when processing is performed by the face area extraction unit 22, the face orientation determination unit 23, and the face organ extraction unit 24 in the subsequent stage. Any material may be used as long as it has an effect of eliminating (reducing) singular points. In other words, when the face processing unit 22 or the like calculates a curve (such as a column pixel value addition curve or a row pixel value addition curve, which will be described later) from the pixel value of each pixel, the filtering process smoothes the curve. It can function as a low-pass filter.

また、フィルタ処理としてモザイク処理が行われる場合、ブロック内の各画素の画素値の平均値を、ブロック内の全ての画素ではなくて、1画素の画素値に割り当てるようにして、フィルタ処理後の差分画像の全体の画素数を少なくして(圧縮して)、差分画像の情報処理量を少なくすることも可能である。例えば、ブロックを水平方向および垂直方向それぞれ2画素ずつの4画素の平均値を1画素に割り当てる場合、フィルタ処理後の画素数は、処理前の画素数の1/4とすることができる。   Also, when mosaic processing is performed as filter processing, the average value of the pixel values of each pixel in the block is assigned to the pixel value of one pixel instead of all the pixels in the block. It is also possible to reduce (compress) the total number of pixels of the difference image and reduce the information processing amount of the difference image. For example, when assigning an average value of 4 pixels of 2 pixels each in the horizontal direction and the vertical direction to one pixel, the number of pixels after the filter processing can be ¼ of the number of pixels before the processing.

図7は、図1の顔領域抽出部22の詳細な構成例を示すブロック図である。   FIG. 7 is a block diagram illustrating a detailed configuration example of the face area extraction unit 22 of FIG.

顔領域抽出部22は、画素値加算部71、閾値設定部72、および顔領域データ抽出部73により構成されている。   The face area extracting unit 22 includes a pixel value adding unit 71, a threshold setting unit 72, and a face area data extracting unit 73.

差分画像算出部21(のフィルタ処理部65)から供給される(フィルタ処理後の)差分画像は、画素値加算部71および顔領域データ抽出部73に供給される。   The difference image supplied from the difference image calculation unit 21 (the filter processing unit 65) (after the filter processing) is supplied to the pixel value addition unit 71 and the face area data extraction unit 73.

画素値加算部71は、差分画像の水平または垂直方向それぞれの列ごとに画素値を加算し、差分画像の垂直または水平方向それぞれの列ごとの画素加算値ViまたはWjを求める。 The pixel value addition unit 71 adds pixel values for each column in the horizontal or vertical direction of the difference image, and obtains pixel addition values V i or W j for each column in the vertical or horizontal direction of the difference image.

即ち、差分画像の水平方向(X方向)の画素数をN、垂直方向(Y方向)の画素数をMとし、差分画像の水平方向にi番目、垂直方向にj番目の画素の画素値をGij(i=1乃至N,j=1乃至M)とした場合、差分画像の垂直方向の列ごとの画素加算値Viは、次式(1)で求めることができる。 That is, the number of pixels in the horizontal direction (X direction) of the difference image is N, the number of pixels in the vertical direction (Y direction) is M, and the pixel values of the i-th pixel in the horizontal direction and the j-th pixel in the vertical direction are When G ij (i = 1 to N, j = 1 to M), the pixel addition value V i for each column in the vertical direction of the difference image can be obtained by the following equation (1).

Figure 2006259902
・・・(1)
Figure 2006259902
... (1)

同様に、差分画像の水平方向の列(行)ごとの画素加算値Wjは、次式(2)で求めることができる。 Similarly, the pixel addition value W j for each column (row) in the horizontal direction of the difference image can be obtained by the following equation (2).

Figure 2006259902
・・・(2)
Figure 2006259902
... (2)

画素値加算部71は、差分画像の垂直または水平方向それぞれの列ごとの画素加算値ViまたはWj(以下、適宜、差分画像の画素加算値ViまたはWjと称する)を、閾値設定部72および顔領域データ抽出部73に供給する。 The pixel value addition unit 71 sets a pixel addition value V i or W j for each column in the vertical or horizontal direction of the difference image (hereinafter referred to as a pixel addition value V i or W j of the difference image as appropriate) as a threshold value. To the unit 72 and the face area data extraction unit 73.

閾値設定部72は、画素値加算部71から供給される差分画像の画素加算値ViまたはWjを用いて、差分画像の水平方向または垂直方向において、ユーザ11の顔領域とその他の領域を区別する閾値THXまたはTHYを算出し、設定(決定)する。 The threshold value setting unit 72 uses the pixel addition value V i or W j of the difference image supplied from the pixel value addition unit 71 to determine the face area and other areas of the user 11 in the horizontal direction or the vertical direction of the difference image. Calculate and set (determine) the threshold TH X or TH Y to be distinguished.

即ち、閾値設定部72は、差分画像の水平方向において、ユーザ11の顔領域とその他の領域を区別する閾値THXとして、差分画像の画素加算値Viの平均値を算出する。閾値THXは、次式(3)で求めることができる。 That is, the threshold setting unit 72 calculates the average value of the pixel addition values V i of the difference image as the threshold TH X for distinguishing the face area of the user 11 from other areas in the horizontal direction of the difference image. The threshold TH X can be obtained by the following equation (3).

Figure 2006259902
・・・(3)
Figure 2006259902
... (3)

また、閾値設定部72は、差分画像の垂直方向において、ユーザ11の顔領域とその他の領域を区別する閾値THYとして、差分画像の画素加算値Wjの平均値を算出する。閾値THYは、次式(4)で求めることができる。 The threshold setting unit 72 calculates an average value of the pixel addition values W j of the difference image as a threshold TH Y for distinguishing the face area of the user 11 from other areas in the vertical direction of the difference image. The threshold TH Y can be obtained by the following equation (4).

Figure 2006259902
・・・(4)
Figure 2006259902
... (4)

そして、閾値設定部72は、算出した閾値THXまたはTHYを、顔領域データ抽出部73に供給する。 Then, the threshold setting unit 72 supplies the calculated threshold TH X or TH Y to the face area data extraction unit 73.

顔領域データ抽出部73は、画素値加算部71から供給される差分画像の画素加算値ViおよびWjと、閾値設定部72から供給される閾値THXおよびTHYとに基づいて、差分画像のなかのユーザ11の顔領域を特定する。 The face area data extraction unit 73 calculates the difference based on the pixel addition values V i and W j of the difference image supplied from the pixel value addition unit 71 and the threshold values TH X and TH Y supplied from the threshold setting unit 72. The face area of the user 11 in the image is specified.

具体的には、顔領域データ抽出部73は、差分画像の垂直方向の列ごとの画素加算値Viを、水平方向に(i=1乃至Nの順に)順次プロットすることにより、列画素値加算曲線(後述する図11Dの列画素値加算曲線221Y)を求める。また、顔領域データ抽出部73は、差分画像の水平方向の列ごとの画素加算値Wjを、垂直方向に(j=1乃至Mの順に)順次プロットすることにより、行画素値加算曲線(後述する図11Dの行画素値加算曲線221X)を求める。 Specifically, the face area data extraction unit 73 sequentially plots the pixel addition value V i for each column in the vertical direction of the difference image in the horizontal direction (in order of i = 1 to N), thereby obtaining the column pixel value. An addition curve (a column pixel value addition curve 221Y in FIG. 11D described later) is obtained. In addition, the face area data extraction unit 73 sequentially plots the pixel addition value W j for each column in the horizontal direction of the difference image in the vertical direction (in the order of j = 1 to M), thereby obtaining a row pixel value addition curve ( A later-described row pixel value addition curve 221X) of FIG. 11D is obtained.

次に、顔領域データ抽出部73は、閾値設定部72から供給されるよびTHY以上の、列画素値加算曲線が閾値THX以上となっている水平方向の範囲、および行画素値加算曲線が、閾値THY以上となっている垂直方向の範囲を、ユーザ11の顔領域であると特定する。 Then, the face area data extracting unit 73, the above preliminary TH Y supplied from the threshold setting unit 72, the horizontal range of the row pixel value total curve is equal to or greater than the threshold value TH X, and the column pixel value total curve However, the range in the vertical direction that is equal to or greater than the threshold value TH Y is specified as the face area of the user 11.

そして、顔領域データ抽出部73は、差分画像算出部21(図1)から供給される差分画像とともに、ユーザ11の顔領域を特定する顔領域情報を顔向き判定部23(図1)に供給する。   Then, the face area data extraction unit 73 supplies the face direction information for specifying the face area of the user 11 together with the difference image supplied from the difference image calculation unit 21 (FIG. 1) to the face orientation determination unit 23 (FIG. 1). To do.

図8は、図1の顔向き判定部23の詳細な構成例を示すブロック図である。   FIG. 8 is a block diagram illustrating a detailed configuration example of the face orientation determination unit 23 of FIG.

顔向き判定部23は、画素値加算部81、中心位置検出部82、および判定部83により構成されている。   The face orientation determination unit 23 includes a pixel value addition unit 81, a center position detection unit 82, and a determination unit 83.

顔領域抽出部22(図7)からの差分画像および顔領域情報は、画素値加算部81および判定部83に供給される。   The difference image and face area information from the face area extracting unit 22 (FIG. 7) are supplied to the pixel value adding unit 81 and the determining unit 83.

画素値加算部81は、顔領域情報で特定される、差分画像内の顔画像について、垂直方向の列ごとの画素加算値V’i'(以下、適宜、顔画像の画素加算値V’i'と称する)を算出し、中心位置検出部82に供給する。ここで、添え字の変数i’は、i=1乃至Nのうちの顔画像として抽出された水平方向の位置を表す。 The pixel value adding unit 81 specifies the pixel addition value V ′ i ′ for each column in the vertical direction for the face image in the difference image specified by the face area information (hereinafter, appropriately referred to as the pixel addition value V ′ i for the face image ). Is calculated) and supplied to the center position detector 82. Here, the subscript variable i ′ represents a horizontal position extracted as a face image of i = 1 to N.

中心位置検出部82は、顔画像の画素加算値V’i'を水平方向に順次プロットすることにより得られる列画素値加算曲線(例えば、後述する図13Aの列画素値加算曲線240Bなど)を用いて、水平方向におけるユーザ11の顔の中心位置(重心位置)X’を決定し、判定部83に供給する。 The center position detection unit 82 obtains a column pixel value addition curve (for example, a column pixel value addition curve 240B in FIG. 13A described later) obtained by sequentially plotting the pixel addition values V ′ i ′ of the face image in the horizontal direction. The center position (center of gravity position) X ′ of the user 11 in the horizontal direction is determined and supplied to the determination unit 83.

判定部83は、中心位置検出部82で得られた、水平方向におけるユーザ11の顔の中心位置X’が、顔画像の水平方向の中点Xpから所定の距離±XRの範囲、あるいは、その範囲の左側または右側のいずれに位置しているかどうかにより、ユーザ11の顔の向きを判定する。   The determination unit 83 obtains the center position X ′ of the face of the user 11 in the horizontal direction obtained by the center position detection unit 82 within a predetermined distance ± XR from the horizontal midpoint Xp of the face image, or The orientation of the face of the user 11 is determined depending on whether it is located on the left side or the right side of the range.

即ち、判定部83は、ユーザ11の顔の水平方向の中心位置X’が、顔画像の水平方向の中点Xpより距離XRだけ小さい位置(Xp−XR)よりも左側(小さい側)の範囲(第2の範囲)に位置していた場合、ユーザ11の顔の向きを、左向き(撮像画像を正面から見てユーザ11が左側に向いている状態)であると判定する。   That is, the determination unit 83 has a range on the left side (smaller side) than the position (Xp−XR) in which the horizontal center position X ′ of the face of the user 11 is smaller than the horizontal center point Xp of the face image by the distance XR. If it is located in (second range), it is determined that the orientation of the face of the user 11 is leftward (a state in which the user 11 is facing leftward when the captured image is viewed from the front).

また、判定部83は、ユーザ11の顔の水平方向の中心位置X’が、顔画像の水平方向の中点Xpより距離XRだけ小さい位置(Xp−XR)と中点Xpから距離XRだけ大きい位置(Xp+XR)との間の範囲(第1の範囲)に位置していた場合、ユーザ11の顔の向きを、正面であると判定する。   The determination unit 83 also determines that the horizontal center position X ′ of the face of the user 11 is smaller by a distance XR than the horizontal midpoint Xp of the face image (Xp−XR) and larger than the midpoint Xp by a distance XR. When it is located in the range (first range) between the position (Xp + XR), the face direction of the user 11 is determined to be the front.

さらに、判定部83は、ユーザ11の顔の水平方向の中心位置X’が、顔画像の水平方向の中点Xpより距離XRだけ大きい位置(Xp+XR)よりも右側(大きい側)の範囲(第3の範囲)に位置していた場合、ユーザ11の顔の向きを、右向き(撮像画像を正面から見てユーザ11が右側に向いている状態)であると判定する。   Further, the determination unit 83 determines a range (first side) on the right side (larger side) than the position (Xp + XR) where the center position X ′ in the horizontal direction of the face of the user 11 is greater than the horizontal center point Xp of the face image by the distance XR. 3), it is determined that the face direction of the user 11 is rightward (the user 11 is facing the right side when the captured image is viewed from the front).

そして、判定部83は、ユーザ11の顔の向きの判定結果を、(顔領域抽出部22から供給される)差分画像および顔領域情報とともに、顔器官抽出部24(図1)に供給する。   Then, the determination unit 83 supplies the determination result of the orientation of the face of the user 11 together with the difference image (supplied from the face region extraction unit 22) and the face region information to the face organ extraction unit 24 (FIG. 1).

図9は、図1の顔器官抽出部24の詳細な構成例を示すブロック図である。   FIG. 9 is a block diagram illustrating a detailed configuration example of the facial organ extraction unit 24 of FIG.

顔器官抽出部24は、画素値加算部101、メモリ102、目・鼻・口画像分離部103、目画像処理部104、鼻画像処理部105、口画像処理部106、メモリ107、および画像出力部108により構成されている。   The face organ extraction unit 24 includes a pixel value addition unit 101, a memory 102, an eye / nose / mouth image separation unit 103, an eye image processing unit 104, a nose image processing unit 105, a mouth image processing unit 106, a memory 107, and an image output. The unit 108 is configured.

また、目画像処理部104は、画素値加算部111、目領域抽出部112、および代表点決定部113により構成され、鼻画像処理部105は、画素値加算部121、鼻領域抽出部122、および代表点決定部123により構成され、口画像処理部106は、画素値加算部131、口領域抽出部132、および代表点決定部133により構成されている。   The eye image processing unit 104 includes a pixel value addition unit 111, an eye region extraction unit 112, and a representative point determination unit 113. The nose image processing unit 105 includes a pixel value addition unit 121, a nose region extraction unit 122, The mouth image processing unit 106 includes a pixel value adding unit 131, a mouth region extracting unit 132, and a representative point determining unit 133.

顔器官抽出部24には、顔向き判定部23(図8)から、差分画像、顔領域情報、および判定結果が供給される。差分画像、顔領域情報、および判定結果のうちの差分画像および顔領域情報が、画素値加算部101およびメモリ102に供給される。また、顔領域情報および判定結果が、画像出力部108に供給される。   The facial organ extraction unit 24 is supplied with a difference image, face area information, and a determination result from the face orientation determination unit 23 (FIG. 8). The difference image and the face area information among the difference image, the face area information, and the determination result are supplied to the pixel value adding unit 101 and the memory 102. Further, the face area information and the determination result are supplied to the image output unit 108.

画素値加算部101は、顔領域情報で特定される差分画像内の顔画像について、水平方向の列ごとの画素加算値W’j'(以下、適宜、顔画像の画素加算値W’j'と称する)を算出し、目・鼻・口画像分離部103に供給する。ここで、添え字の変数j’は、j=1乃至Mのうちの顔画像として抽出された垂直方向の位置を表す。 For the face image in the difference image specified by the face area information, the pixel value adding unit 101 applies the pixel addition value W ′ j ′ for each column in the horizontal direction (hereinafter, appropriately referred to as pixel addition value W ′ j ′ for the face image). Is calculated and supplied to the eye / nose / mouth image separation unit 103. Here, the subscript variable j ′ represents the position in the vertical direction extracted as a face image from j = 1 to M.

メモリ102は、差分画像および顔領域情報を記憶し、必要に応じて、目・鼻・口画像分離部103に供給する。   The memory 102 stores the difference image and face area information, and supplies them to the eye / nose / mouth image separation unit 103 as necessary.

目・鼻・口画像分離部103(以下、単に画像分離部103と称する)は、画素値加算部101からの顔画像の画素加算値W’j'を用いて、メモリ102に記憶されている差分画像に対して顔領域情報で特定される顔画像を、目の領域を含む画像(以下、目画像と称する)、鼻の領域を含む画像(以下、鼻画像と称する)、および口の領域を含む画像(以下、口画像と称する)の(垂直方向の)3つに分離する。そして、画像分離部103は、分離された目画像、鼻画像、および口画像を、それぞれ、目画像処理部104、鼻画像処理部105、および口画像処理部106に供給する。 The eye / nose / mouth image separation unit 103 (hereinafter simply referred to as the image separation unit 103) is stored in the memory 102 using the pixel addition value W ′ j ′ of the face image from the pixel value addition unit 101. The face image specified by the face area information for the difference image is an image including an eye area (hereinafter referred to as an eye image), an image including a nose area (hereinafter referred to as a nose image), and a mouth area. Are divided into three (vertical direction) images (hereinafter referred to as mouth images). Then, the image separation unit 103 supplies the separated eye image, nose image, and mouth image to the eye image processing unit 104, the nose image processing unit 105, and the mouth image processing unit 106, respectively.

目画像処理部104は、画像分離部103から供給される目画像に基づいて、図3に示したように、ユーザ11の左目の領域ILと、その領域ILを代表する代表点ILp、および右目の領域IRと、その領域IRを代表する代表点IRpを特定する。   Based on the eye image supplied from the image separation unit 103, the eye image processing unit 104, as shown in FIG. 3, the region IL of the left eye of the user 11, the representative point ILp representing the region IL, and the right eye Region IR and a representative point IRp representing the region IR are identified.

具体的には、画素値加算部111は、目画像について、垂直の列ごとの画素加算値V’ip'および水平方向の列ごとの画素加算値W’jp'(以下、適宜、目画像の画素加算値V’ip'およびW’jp'と称する)を計算し、目領域抽出部112に供給する。ここで、添え字の変数ip’は、i=1乃至Nのうちの目画像として抽出された水平方向の位置を表し、変数jp’は、j=1乃至Mのうちの目画像として抽出された垂直方向の位置を表す。 Specifically, for the eye image, the pixel value addition unit 111 performs the pixel addition value V ′ ip ′ for each vertical column and the pixel addition value W ′ jp ′ for each column in the horizontal direction (hereinafter, appropriately, Pixel addition values V ′ ip ′ and W ′ jp ′ ) are calculated and supplied to the eye region extraction unit 112. Here, the subscript variable ip ′ represents the horizontal position extracted as the eye image of i = 1 to N, and the variable jp ′ is extracted as the eye image of j = 1 to M. Represents the vertical position.

目領域抽出部112は、目画像の画素加算値V’ip'を水平方向に順次プロットすることにより得られる列画素値加算曲線、および、目画像の画素加算値W’jp'を垂直方向に順次プロットすることにより得られる行画素値加算曲線(以下、単に、目画像の列画素値加算曲線および行画素値加算曲線と称する)を用いて、ユーザ11の目の領域を特定(抽出)する。そして、目領域抽出部112は、ユーザ11の目の領域を特定する情報を、目画像とともに、代表点決定部113に供給する。 The eye region extraction unit 112 generates the column pixel value addition curve obtained by sequentially plotting the pixel addition value V ′ ip ′ of the eye image in the horizontal direction and the pixel addition value W′jp ′ of the eye image in the vertical direction. The eye region of the user 11 is specified (extracted) using a row pixel value addition curve (hereinafter simply referred to as a column pixel value addition curve and a row pixel value addition curve of the eye image) obtained by sequentially plotting. . Then, the eye area extraction unit 112 supplies information specifying the eye area of the user 11 to the representative point determination unit 113 together with the eye image.

代表点決定部113は、ユーザ11の目の領域を特定する情報から、目画像のなかの目の領域を特定し、特定した目の領域に対して列画素値加算曲線および行画素値加算曲線を再計算する。そして、代表点決定部113は、目の領域に対して再計算された列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の目の位置を代表する代表点を特定(決定)する。この目の代表点は、目(虹彩)の中心や、黒目の位置を表すとは限らないが、ユーザごとにほぼ同一の位置となる。   The representative point determination unit 113 specifies the eye region in the eye image from the information for specifying the eye region of the user 11, and the column pixel value addition curve and the row pixel value addition curve for the specified eye region. Is recalculated. Then, the representative point determination unit 113 specifies (determines) a representative point representing the eye position of the user 11 using the column pixel value addition curve and the row pixel value addition curve recalculated for the eye region. To do. The representative point of the eye does not necessarily represent the center of the eye (iris) or the position of the black eye, but is almost the same position for each user.

そして、代表点決定部113は、目領域抽出部112から供給された目の領域を特定する情報、および目の代表点を特定する情報(合わせて目領域情報と称する)を画像出力部108に供給する。   The representative point determination unit 113 then supplies information specifying the eye region supplied from the eye region extraction unit 112 and information specifying the eye representative point (collectively referred to as eye region information) to the image output unit 108. Supply.

なお、目画像処理部104は、両目のそれぞれについて、上述の処理を行う。   The eye image processing unit 104 performs the above-described processing for each eye.

鼻画像処理部105は、画像分離部103から供給される鼻画像に基づいて、図3に示したように、ユーザ11の鼻の領域NRと、その領域NRを代表する代表点NRpを特定する。   As shown in FIG. 3, the nose image processing unit 105 identifies the nose region NR of the user 11 and the representative point NRp representing the region NR based on the nose image supplied from the image separation unit 103. .

具体的には、画素値加算部121は、鼻画像について、垂直方向の列ごとの画素加算値V’iq'および水平方向の列ごとの画素加算値W’jq'(以下、適宜、鼻画像の画素加算値V’iq' およびW’jq'と称する)を算出し、鼻領域抽出部122に供給する。ここで、添え字の変数iq’は、i=1乃至Nのうちの鼻画像として抽出された水平方向の位置を表し、変数jq’は、j=1乃至Mのうちの鼻画像として抽出された垂直方向の位置を表す。 Specifically, for the nose image, the pixel value addition unit 121 sets the pixel addition value V ′ iq ′ for each column in the vertical direction and the pixel addition value W ′ jq ′ for each column in the horizontal direction (hereinafter, the nose image as appropriate). Pixel addition values V ′ iq ′ and W ′ jq ′ ) are calculated and supplied to the nose region extraction unit 122. Here, the subscript variable iq ′ represents the horizontal position extracted as a nose image of i = 1 to N, and the variable jq ′ is extracted as a nose image of j = 1 to M. Represents the vertical position.

鼻領域抽出部122は、鼻画像の画素加算値V’iq'を水平方向に順次プロットすることにより得られる列画素値加算曲線、および、鼻画像の画素加算値W’jq'を垂直方向に順次プロットすることにより得られる行画素値加算曲線(以下、単に、鼻画像の列画素値加算曲線および行画素値加算曲線と称する)を用いて、ユーザ11の鼻の領域を特定(抽出)する。そして、鼻領域抽出部122は、ユーザ11の鼻の領域を特定する情報を、鼻画像とともに、代表点決定部123に供給する。 The nose region extraction unit 122 generates the column pixel value addition curve obtained by sequentially plotting the pixel addition value V ′ iq ′ of the nose image in the horizontal direction and the pixel addition value W ′ jq ′ of the nose image in the vertical direction. A nose region of the user 11 is specified (extracted) using a row pixel value addition curve (hereinafter simply referred to as a column pixel value addition curve and a row pixel value addition curve of a nose image) obtained by sequentially plotting. . Then, the nose region extraction unit 122 supplies information specifying the nose region of the user 11 to the representative point determination unit 123 together with the nose image.

代表点決定部123は、ユーザ11の鼻の領域を特定する情報から、鼻画像のなかの鼻の領域を特定し、特定した鼻の領域に対して列画素値加算曲線および行画素値加算曲線を再計算する。そして、代表点決定部123は、鼻の領域に対して再計算された列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の鼻の位置を代表する代表点を特定(決定)する。この鼻の代表点は、鼻の中心位置を表すとは限らないが、ユーザごとにほぼ同一の位置となる。   The representative point determination unit 123 specifies the nose region in the nose image from the information for specifying the nose region of the user 11, and the column pixel value addition curve and the row pixel value addition curve for the specified nose region. Is recalculated. Then, the representative point determination unit 123 specifies (determines) a representative point representing the nose position of the user 11 using the column pixel value addition curve and the row pixel value addition curve recalculated for the nose region. To do. The representative point of the nose does not necessarily represent the center position of the nose, but is almost the same position for each user.

そして、代表点決定部123は、鼻領域抽出部122から供給された鼻の領域を特定する情報、および鼻の代表点を特定する情報(合わせて鼻領域情報と称する)を画像出力部108に供給する。   Then, the representative point determination unit 123 sends the information specifying the nose region supplied from the nose region extraction unit 122 and the information specifying the representative point of the nose (also referred to as nose region information) to the image output unit 108. Supply.

口画像処理部106は、画像分離部103から供給される口画像に基づいて、図3に示したように、ユーザ11の口の領域MRと、その領域MRを代表する代表点MRpを特定する。   Based on the mouth image supplied from the image separation unit 103, the mouth image processing unit 106 identifies the mouth region MR of the user 11 and the representative point MRp representing the region MR, as shown in FIG. .

具体的には、画素値加算部131は、口画像について、垂直方向の列ごとの画素加算値V’ir'および水平方向の列ごとの画素加算値W’jr'(以下、適宜、口画像の画素加算値V’ir'およびW’jr'と称する)を算出し、口領域抽出部132に供給する。ここで、添え字の変数jr’は、i=1乃至Nのうちの口画像として抽出された水平方向の各位置を表し、変数jr’は、j=1乃至Mのうちの口画像として抽出された垂直方向の位置を表す。 Specifically, for the mouth image, the pixel value addition unit 131 sets the pixel addition value V ′ ir ′ for each column in the vertical direction and the pixel addition value W ′ jr ′ for each column in the horizontal direction. Pixel addition values V′ir ′ and W′jr ′ ) are calculated and supplied to the mouth region extraction unit 132. Here, the subscript variable jr ′ represents each horizontal position extracted as a mouth image of i = 1 to N, and the variable jr ′ is extracted as a mouth image of j = 1 to M. Represents the vertical position.

口領域抽出部132は、口画像の画素加算値V’i3'を水平方向に順次プロットすることにより得られる列画素値加算曲線、および、口画像の画素加算値Wj3'を垂直方向に順次プロットすることにより得られる行画素値加算曲線(以下、単に、口画像の列画素値加算曲線および行画素値加算曲線と称する)を用いて、ユーザ11の口の領域を特定(抽出)する。そして、口領域抽出部132は、ユーザ11の口の領域を特定する情報を、口画像とともに、代表点決定部133に供給する。 The mouth area extraction unit 132 sequentially applies the column pixel value addition curve obtained by sequentially plotting the pixel addition value V ′ i3 ′ of the mouth image in the horizontal direction and the pixel addition value W j3 ′ of the mouth image in the vertical direction. The region of the mouth of the user 11 is specified (extracted) using a row pixel value addition curve (hereinafter simply referred to as a column pixel value addition curve and a row pixel value addition curve of the mouth image) obtained by plotting. Then, the mouth area extraction unit 132 supplies information specifying the mouth area of the user 11 to the representative point determination unit 133 together with the mouth image.

代表点決定部133は、ユーザ11の口の領域を特定する情報から、口画像のなかの口の領域を特定し、特定した口の領域に対して列画素値加算曲線および行画素値加算曲線を再計算する。そして、代表点決定部133は、口の領域に対して再計算された列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の口の位置を代表する代表点を特定(決定)する。この口の代表点は、口の中心位置を表すとは限らないが、ユーザごとにほぼ同一の位置となる。   The representative point determination unit 133 specifies the mouth area in the mouth image from the information for specifying the mouth area of the user 11, and the column pixel value addition curve and the row pixel value addition curve for the specified mouth area. Is recalculated. Then, the representative point determination unit 133 specifies (determines) a representative point representing the position of the mouth of the user 11 using the column pixel value addition curve and the row pixel value addition curve recalculated for the mouth area. To do. The representative point of the mouth does not necessarily represent the center position of the mouth, but is almost the same position for each user.

そして、代表点決定部133は、口領域抽出部132から供給された口の領域を特定する情報、および口の代表点を特定する情報(合わせて口領域情報と称する)を画像出力部108に供給する。   Then, the representative point determination unit 133 sends information specifying the mouth region supplied from the mouth region extraction unit 132 and information specifying the mouth representative point (also referred to as mouth region information) to the image output unit 108. Supply.

メモリ107は、撮像装置12(図1)から供給される撮像画像(基準画像または照明画像)を記憶し、必要に応じて、画像出力部108に供給する。   The memory 107 stores the captured image (reference image or illumination image) supplied from the imaging device 12 (FIG. 1) and supplies it to the image output unit 108 as necessary.

上述したように、画像出力部108には、顔向き判定部23(図8)から顔領域情報および判定結果が供給される。また、画像出力部108には、目画像処理部104、鼻画像処理部105、および口画像処理部106のそれぞれから、目領域情報、鼻領域情報、および口領域情報も供給される。   As described above, the face area information and the determination result are supplied to the image output unit 108 from the face orientation determination unit 23 (FIG. 8). The image output unit 108 is also supplied with eye region information, nose region information, and mouth region information from each of the eye image processing unit 104, the nose image processing unit 105, and the mouth image processing unit 106.

画像出力部108は、顔向き判定部23から供給された判定結果に応じて、メモリ107に記憶されている撮像画像を出力するか否かを判定する。即ち、判定結果が右向きまたは左向きを表す場合には、画像出力部108は、メモリ107に記憶されている撮像画像が顔画像の認識処理に不適当な画像であると判定し、それ(撮像画像)を出力しない。一方、判定結果が正面を表す場合には、画像出力部109は、メモリ107に記憶されている撮像画像が顔画像の認識処理に適当な画像であると判定し、それを、顔領域情報、目領域情報、鼻領域情報、および口領域情報とともに出力する。   The image output unit 108 determines whether to output the captured image stored in the memory 107 according to the determination result supplied from the face orientation determination unit 23. That is, when the determination result indicates rightward or leftward, the image output unit 108 determines that the captured image stored in the memory 107 is an image that is inappropriate for the face image recognition processing, and that (captured image) ) Is not output. On the other hand, if the determination result represents the front, the image output unit 109 determines that the captured image stored in the memory 107 is an image suitable for the face image recognition process, and uses the image as the face area information, Output together with eye area information, nose area information, and mouth area information.

従って、画像処理装置15(の画像出力部108)が撮像画像を供給(出力)する出力先の装置では、顔画像の認識処理に適当な画像だけを得ることができ、さらに、顔領域情報、目領域情報、鼻領域情報、および口領域情報により、撮像画像のなかの正確な顔領域、目領域鼻領域、および口領域を特定することができるので、顔画像の認識を正確に行うことができる。   Therefore, in the output destination device to which the image processing device 15 (the image output unit 108) supplies (outputs) the captured image, only an image suitable for the recognition processing of the face image can be obtained. Since the accurate face area, eye area nose area, and mouth area in the captured image can be specified by the eye area information, the nose area information, and the mouth area information, the face image can be accurately recognized. it can.

以下、図を参照して、画像処理装置15が行う処理の詳細についてさらに説明する。   Hereinafter, the details of the processing performed by the image processing device 15 will be further described with reference to the drawings.

図10は、照明装置13による、ユーザ11に対する光の照射方向を説明する図である。   FIG. 10 is a diagram for explaining the irradiation direction of light to the user 11 by the lighting device 13.

照明装置13は、図10に示すように、例えば、ユーザ11の顔に対して前方斜め下の方向から、ユーザ11の顔だけに強い光が照射するように配置される。従って、ユーザ11の顔以外の背景などについては、照明装置13で光が照射されているか、または照射されていないかにかかわらず一定の明るさとなる。   As illustrated in FIG. 10, the illumination device 13 is arranged so that, for example, strong light is emitted only to the face of the user 11 from a direction obliquely downward to the front of the user 11. Accordingly, the background other than the face of the user 11 has a constant brightness regardless of whether the illumination device 13 is irradiated with light or not.

画像処理装置15には、撮像装置12で撮像された画像として、図11の画像201Aおよび画像201Bが、順次供給(入力)されるものとする。   It is assumed that the image 201A and the image 201B of FIG. 11 are sequentially supplied (input) to the image processing device 15 as images captured by the imaging device 12.

図11Aの画像201Aは、照明装置13がユーザ11を照射していない状態で撮像された基準画像を示している。また、図11Bの画像201Bは、図10に示したように配置されている照明装置13がユーザ11に対して強い光を照射している状態で撮像された照明画像を示している。   An image 201A in FIG. 11A shows a reference image captured in a state where the lighting device 13 is not irradiating the user 11. Moreover, the image 201B of FIG. 11B has shown the illumination image imaged in the state in which the illuminating device 13 arrange | positioned as shown in FIG.

なお、図11Aの画像201Aおよび図11Bの画像201Bの各画素の画素値は、実際には、被写体により反射された光の違いにより、様々な画素値となっているが、図面では、すべての画素値の違いを表すことが難しいため簡略化してある。   Note that the pixel values of each pixel in the image 201A in FIG. 11A and the image 201B in FIG. 11B are actually various pixel values due to the difference in the light reflected by the subject. Since it is difficult to represent the difference in pixel value, it is simplified.

画像201Aでは、ユーザ11は、照明装置13によって照射されずに自然光(周辺の光)のみによって照らされており、少し暗くなっている。   In the image 201A, the user 11 is illuminated by only natural light (ambient light) without being illuminated by the lighting device 13, and is slightly dark.

これに対して、画像201Bでは、ユーザ11の顔面に対して照明装置13によって光が照射されているために、照明装置13からの光がユーザ11の顔面で反射し、ユーザ11の顔面が、極めて明るく(図面上では白く)なっている。なお、ユーザ11の顔面のうち、点線で示されている顔の器官は、照明装置13からの光の反射により、最も明るい(白い)部分を表している。   On the other hand, in the image 201B, the light from the lighting device 13 is reflected by the lighting device 13 on the face of the user 11, so that the light from the lighting device 13 is reflected by the face of the user 11, and the face of the user 11 is It is very bright (white on the drawing). Of the face of the user 11, the facial organ indicated by the dotted line represents the brightest (white) part due to the reflection of light from the illumination device 13.

通常のCCD撮像素子などによる撮像装置で同様の照明条件により撮像したとすると、画像201Bに対応する画像は、ユーザ11の顔の領域の画素値が飽和してしまい、照明装置13による光を照射していない状態で撮像された画像201Aと、ユーザ11に対して強い光を照射している状態で撮像された画像201Bとをそのまま(同一条件で)比較することができない。これに対して、対数変換型の撮像素子を有する撮像装置12では、上述したように、人が視認できる輝度範囲において、輝度クリッピングが発生しないため、図10に示したように、ユーザ11の顔だけに強い光を照射した状態で撮像された画像201Bでも、ユーザ11の詳細な輝度分布を忠実に表すことができる。即ち、入射光量を調整せずに、照明装置13による光を照射していない状態で撮像された画像201Aと、ユーザ11に対して強い光を照射している状態で撮像された画像201Bとから差分画像を得ることができる。   Assuming that an image pickup device such as a normal CCD image pickup device is picked up under the same illumination conditions, the image corresponding to the image 201B saturates the pixel value of the area of the face of the user 11, and the light from the lighting device 13 is irradiated. The image 201 </ b> A captured in a state where the user 11 is not performed and the image 201 </ b> B captured in a state where the user 11 is irradiated with strong light cannot be directly compared (under the same conditions). On the other hand, in the imaging device 12 having the logarithmic conversion type imaging device, as described above, luminance clipping does not occur in the luminance range that can be visually recognized by humans. Therefore, as shown in FIG. The detailed luminance distribution of the user 11 can be faithfully represented even in the image 201B that is captured in a state where only intense light is irradiated. That is, from the image 201A imaged in a state in which the illumination device 13 is not irradiated with light without adjusting the amount of incident light, and the image 201B imaged in a state in which strong light is irradiated to the user 11 A difference image can be obtained.

そこで、差分画像算出部21は、画像201A(以下、基準画像201Aと称する)と画像201B(以下、照明画像201Bと称する)との間の、対応する画素どうしの画素値の差分(差分の絶対値)を算出することにより、図11Cに示す差分画像201Cを生成する。   Therefore, the difference image calculation unit 21 determines the difference between the pixel values of the corresponding pixels between the image 201A (hereinafter referred to as the reference image 201A) and the image 201B (hereinafter referred to as the illumination image 201B). By calculating (value), a difference image 201C shown in FIG. 11C is generated.

照明画像201Bでは、上述したように、点線で示されている、ユーザ11の顔の、眉、目の輪郭、鼻の底辺部(鼻穴の周辺)、および唇の凸部が、際立って明るい(画素値が大きい)画像となっているため、差分画像201Cも同様に、点線で示されている、ユーザ11の顔の、眉、目の輪郭、鼻の底辺部(鼻穴の周辺)、および唇の凸部が、際立って明るい(画素値が大きい)画像となる。   In the illumination image 201B, as described above, the eyebrows, the eye contour, the base of the nose (the periphery of the nostril), and the convex part of the lips, which are indicated by dotted lines, are remarkably bright. Since it is an image (with a large pixel value), the difference image 201C is similarly shown by a dotted line in the eyebrow, eye contour, base of the nose (periphery of the nostril) of the user 11, And the convex part of a lip becomes a remarkably bright image (a pixel value is large).

また、基準画像201Aと照明画像201Bの背景領域、および、ユーザ11の髪の領域は、照明装置13からの光の照射の有無では明るさ(画素値)は変わらないため、差分画像201Cでは、画素値が0に近い値となる。なお、図11Cの差分画像201Cにおいて、画素値が0に近い値となっている画素(領域)を灰色で示してある。   Further, the background area of the reference image 201A and the illumination image 201B and the hair area of the user 11 do not change in brightness (pixel value) depending on whether or not the illumination device 13 emits light. The pixel value is close to 0. In addition, in the difference image 201C in FIG. 11C, pixels (regions) whose pixel values are close to 0 are shown in gray.

差分画像算出部21は、生成した差分画像201Cを顔領域抽出部22に供給する。   The difference image calculation unit 21 supplies the generated difference image 201C to the face area extraction unit 22.

顔領域抽出部22の画素値加算部71は、差分画像201Cの垂直方向の列ごとの画素加算値Viを、水平方向に(i=1乃至Nの順に)順次プロットすることにより、図11Dに示す列画素値加算曲線221Yを求める。また、画素値加算部71は、差分画像201Cの水平方向の列ごとの画素加算値Wjを、垂直方向に(j=1乃至Mの順に)順次プロットすることにより、図11Dに示す行画素値加算曲線221Xを求める。 The pixel value addition unit 71 of the face area extraction unit 22 plots the pixel addition values V i for each column in the vertical direction of the difference image 201C sequentially in the horizontal direction (in the order of i = 1 to N), thereby FIG. The column pixel value addition curve 221Y shown in FIG. In addition, the pixel value addition unit 71 sequentially plots the pixel addition values W j for each column in the horizontal direction of the difference image 201C in the vertical direction (in the order of j = 1 to M), thereby performing the row pixels illustrated in FIG. 11D. A value addition curve 221X is obtained.

なお、図11Dにおいて、列画素値加算曲線221Yに対する目盛は、下側の横軸と左側の縦軸を用い、下側の横軸は、水平方向(X方向)の位置を表し、左側の縦軸は、垂直方向(Y方向)の列ごとに画素値を加算したときの画素加算値Viを表す。また、行画素値加算曲線221Xに対する目盛は、上側の横軸と右側の縦軸を用い、右側の縦軸は、垂直方向(Y方向)の位置を表し、上側の横軸は、水平方向(X方向)の列ごとに画素値を加算したときの画素加算値Wjを表す。また、図11Dにおいては、N=256、M=128となっている。 In FIG. 11D, the scale for the column pixel value addition curve 221Y uses the lower horizontal axis and the left vertical axis, and the lower horizontal axis represents the position in the horizontal direction (X direction), and the left vertical axis. The axis represents the pixel addition value V i when pixel values are added for each column in the vertical direction (Y direction). The scale for the row pixel value addition curve 221X uses the upper horizontal axis and the right vertical axis, the right vertical axis represents the position in the vertical direction (Y direction), and the upper horizontal axis represents the horizontal direction ( This represents a pixel addition value W j when the pixel value is added for each column in the (X direction). In FIG. 11D, N = 256 and M = 128.

図11Cに示す差分画像201Cと、図11Dに示す行画素値加算曲線221Xおよび列画素値加算曲線221Yとを比べると、差分画像201Cの水平方向(X方向)では、顔の領域がある範囲Xbに、列画素値加算曲線221Y(画素加算値Vi)が大きくなり、差分画像201Cの垂直方向(Y方向)では、顔の領域がある範囲Ybに、行画素値加算曲線221X(画素加算値Wj)が大きくなっている。 When the difference image 201C shown in FIG. 11C is compared with the row pixel value addition curve 221X and the column pixel value addition curve 221Y shown in FIG. 11D, a range Xb in which the face area exists in the horizontal direction (X direction) of the difference image 201C. In addition, the column pixel value addition curve 221Y (pixel addition value V i ) becomes large, and in the vertical direction (Y direction) of the difference image 201C, the row pixel value addition curve 221X (pixel addition value) falls within a range Yb where the face area exists. W j ) is increasing.

そこで、顔領域抽出部22の閾値設定部72は、上述した式(3)および(4)により、差分画像の水平方向において、ユーザ11の顔領域とその他の領域を区別する閾値THXを算出する。また、閾値設定部72は、差分画像の垂直方向において、ユーザ11の顔領域とその他の領域を区別する閾値THYを算出する。そして、算出された閾値THXまたはTHYが、顔領域データ抽出部73に供給される。なお、閾値THXまたはTHYは、上述した式(3)および(4)により求める方法の他、実験によるデータ(統計的データ)によって求めるようにしてもよい。 Therefore, the threshold value setting unit 72 of the face area extracting unit 22 calculates the threshold value TH X for distinguishing the face area of the user 11 from other areas in the horizontal direction of the difference image by the above-described equations (3) and (4). To do. Further, the threshold setting unit 72 calculates a threshold TH Y for distinguishing the face area of the user 11 from other areas in the vertical direction of the difference image. Then, the calculated threshold value TH X or TH Y is supplied to the face area data extraction unit 73. Note that the threshold TH X or TH Y may be obtained by experimental data (statistical data) in addition to the method of obtaining by the above formulas (3) and (4).

顔領域データ抽出部73は、閾値設定部72から供給される閾値THXおよびTHYに基づいて、差分画像のなかのユーザ11の顔領域の位置を特定する。 The face area data extraction unit 73 specifies the position of the face area of the user 11 in the difference image based on the threshold values TH X and TH Y supplied from the threshold setting unit 72.

即ち、差分画像201Cの水平方向については、顔領域データ抽出部73は、図12Aに示すように、列画素値加算曲線221Yが閾値THXと交わる位置XmaおよびXmbを算出する。 That is, for the horizontal direction of the difference image 201C, facial area data extracting unit 73, as shown in FIG. 12A, calculates the position X ma and X mb row pixel value total curve 221Y intersects with the threshold TH X.

また、差分画像201Cの垂直方向については、顔領域データ抽出部73は、行画素値加算曲線221Xが閾値THYと交わる位置YmaおよびYmbを算出する。 As for the vertical direction of the difference image 201C, the face area data extracting unit 73 calculates the position Y ma and Y mb column pixel value total curve 221X intersects with the threshold TH Y.

そして、顔領域データ抽出部73は、図12Bにおいて斜線で示されている、列画素値加算曲線221Yが閾値THX以上となるXma≦i≦Xmbの範囲と、行画素値加算曲線221Xが閾値THY以上となるYma≦j≦Ymbの範囲とで囲まれる領域231を、ユーザ11の顔の領域であると特定する。 Then, the face area data extraction unit 73 includes a range of X ma ≦ i ≦ X mb in which the column pixel value addition curve 221Y is greater than or equal to the threshold value TH X and a row pixel value addition curve 221X, which are indicated by diagonal lines in FIG. 12B. A region 231 surrounded by a range of Y ma ≦ j ≦ Y mb in which is equal to or greater than the threshold TH Y is specified as the face region of the user 11.

顔領域データ抽出部73は、ユーザ11の顔の領域を特定する、水平方向の位置XmaおよびXmbと、垂直方向の位置YmaおよびYmbとを、顔領域情報として、差分画像201Cとともに顔向き判定部23に供給する。 The face area data extraction unit 73 specifies the area X ma and X mb in the horizontal direction and the positions Y ma and Y mb in the vertical direction that specify the face area of the user 11 as face area information together with the difference image 201C. This is supplied to the face orientation determination unit 23.

顔向き判定部23の画素値加算部81は、顔領域情報で特定される、差分画像内の顔画像について、垂直方向の列ごとの画素加算値V’i'を計算する。そして、中心位置検出部82は、顔画像の画素加算値V’i'を水平方向に順次プロットすることにより得られる列画素値加算曲線を用いて、ユーザ11の顔の水平方向の中心位置(重心位置)X’を決定し、判定部83に供給する。 The pixel value addition unit 81 of the face orientation determination unit 23 calculates a pixel addition value V ′ i ′ for each column in the vertical direction for the face image in the difference image specified by the face area information. Then, the center position detection unit 82 uses the column pixel value addition curve obtained by sequentially plotting the pixel addition values V ′ i ′ of the face image in the horizontal direction, so that the center position of the face of the user 11 in the horizontal direction ( The center of gravity position) X ′ is determined and supplied to the determination unit 83.

図13は、ユーザ11の顔の水平方向の中心位置(重心位置)X’と、ユーザ11の顔の向き(正面、右向き、または左向き)との関係を示している。   FIG. 13 shows the relationship between the horizontal center position (center of gravity position) X ′ of the face of the user 11 and the direction of the face of the user 11 (front, right, or left).

なお、図13では、図11Cにおいて点線で示した、際立って明るい(画素値が大きい)部分を灰色で示している(後述する図15についても同様)。   In FIG. 13, a markedly bright (large pixel value) portion shown by a dotted line in FIG. 11C is shown in gray (the same applies to FIG. 15 described later).

画素値加算部81により計算された顔画像の画素加算値V’i'を水平方向に順次プロットすることにより、図13A上側に示す列画素値加算曲線240Aが得られたとする。 It is assumed that a column pixel value addition curve 240A shown on the upper side of FIG. 13A is obtained by sequentially plotting the pixel addition values V ′ i ′ of the face image calculated by the pixel value addition unit 81 in the horizontal direction.

中心位置検出部82は、列画素値加算曲線240Aの最大値241Aとなっている位置を、ユーザ11の顔の水平方向の中心位置(重心位置)X’とする。これは、差分画像では、図13A下側に示すように、顔画像の眉、目、鼻、および口の領域に相当する画素(灰色で示した部分)で画素値が大きく(明るく)なるが、それらの領域のなかでも、鼻と口がある領域(面積)が、眉や目に相当する領域よりも広いため、列画素値加算曲線が最大値となる位置に、鼻と口があるとみなしてよいからである。   The center position detection unit 82 sets the position where the maximum value 241A of the column pixel value addition curve 240A is the center position (center of gravity position) X ′ in the horizontal direction of the face of the user 11. In the difference image, as shown in the lower side of FIG. 13A, the pixel value (the portion shown in gray) corresponding to the eyebrow, eye, nose, and mouth regions of the face image has a large (brighter) pixel value. Among these regions, the region (area) where the nose and mouth are located is wider than the region corresponding to the eyebrows and eyes, so if the column pixel value addition curve is at the maximum value, This is because it can be considered.

従って、判定部83は、ユーザ11の顔の中心(鼻および口の位置)とみなされる中心位置X’が、顔画像の水平方向の中点Xpから所定の距離±XRの範囲内、その範囲の左または右側のいずれに存在しているかどうかにより、ユーザ11の顔の向きを判定する。   Accordingly, the determination unit 83 determines that the center position X ′ regarded as the center of the face of the user 11 (the position of the nose and mouth) is within a predetermined distance ± XR from the horizontal center point Xp of the face image. The orientation of the face of the user 11 is determined depending on whether it is on the left or right side of the user 11.

図13Aでは、ユーザ11の顔の中心位置X’が、顔画像の水平方向の中点Xpから所定の距離±XRの範囲(第2の範囲)内に存在しているので、判定部83は、ユーザ11の顔の向きを正面であると判定する。   In FIG. 13A, since the center position X ′ of the face of the user 11 is within a range (second range) of a predetermined distance ± XR from the horizontal midpoint Xp of the face image, the determination unit 83 The direction of the face of the user 11 is determined to be the front.

また、図13Bに示す列画素値加算曲線240Bが得られた場合、中心位置検出部82は、列画素値加算曲線240Bの最大値241Bとなっている位置を、ユーザ11の顔の水平方向の中心位置X’とする。   When the column pixel value addition curve 240B illustrated in FIG. 13B is obtained, the center position detection unit 82 determines the position of the maximum value 241B of the column pixel value addition curve 240B in the horizontal direction of the face of the user 11. The center position is X ′.

そして、判定部83は、ユーザ11の顔の中心位置X’が、顔画像の水平方向の中点Xpより所定の距離XRだけ大きい位置(Xp+XR)よりも右側(大きい側)の範囲(第3の範囲)に存在しているので、ユーザ11の顔の向きを右向きであると判定する。   Then, the determination unit 83 has a range (third side) on the right side (larger side) than the position (Xp + XR) where the center position X ′ of the face of the user 11 is larger by the predetermined distance XR than the midpoint Xp in the horizontal direction of the face image. Therefore, it is determined that the direction of the face of the user 11 is the right direction.

さらに、図13Cに示す列画素値加算曲線240Cが得られた場合、中心位置検出部82は、列画素値加算曲線240Cの最大値241Cとなっている位置を、ユーザ11の顔の水平方向の中心位置X’とする。   Furthermore, when the column pixel value addition curve 240C illustrated in FIG. 13C is obtained, the center position detection unit 82 determines the position where the maximum value 241C of the column pixel value addition curve 240C is in the horizontal direction of the face of the user 11. The center position is X ′.

そして、判定部83は、ユーザ11の顔の中心位置X’が、顔画像の水平方向の中点Xpより所定の距離XRだけ小さい位置(Xp−XR)よりも左側(小さい側)の範囲(第1の範囲)に存在しているので、ユーザ11の顔の向きを左向きであると判定する。   Then, the determination unit 83 has a range (on the smaller side) to the left (smaller side) than the position (Xp−XR) where the center position X ′ of the face of the user 11 is smaller than the horizontal center point Xp of the face image by a predetermined distance XR. Therefore, it is determined that the direction of the face of the user 11 is the left direction.

判定部83は、以上のようにして判定したユーザ11の顔の向きの判定結果を、(顔領域抽出部22から供給される)差分画像および顔領域情報とともに、顔器官抽出部24に供給する。   The determination unit 83 supplies the determination result of the face orientation of the user 11 determined as described above to the face organ extraction unit 24 together with the difference image (supplied from the face region extraction unit 22) and the face region information. .

顔器官抽出部24の画素値加算部101は、顔領域情報で特定される差分画像内の顔画像について、水平方向の列ごとの画素加算値W’j'(顔画像の画素加算値W’j')を計算し、画像分離部103に供給する。 The pixel value addition unit 101 of the facial organ extraction unit 24 performs pixel addition value W ′ j ′ (pixel addition value W ′ of the face image) for each horizontal column for the face image in the difference image specified by the face area information. j ′ ) is calculated and supplied to the image separation unit 103.

画像分離部103は、画素値加算部101から供給される顔画像の画素加算値W’j'を用いて、顔画像を、目の領域を含む画像(目画像)、鼻の領域を含む画像(鼻画像)、および口の領域を含む画像(口画像)の3つに分離する。 The image separation unit 103 uses the pixel addition value W ′ j ′ of the face image supplied from the pixel value addition unit 101 to convert the face image into an image including an eye region (eye image) and an image including a nose region. (Nose image) and image including mouth area (mouth image) are separated.

具体的には、画像分離部103は、顔画像の画素加算値W’j'を垂直方向に順次プロットすることにより、図14に示す行画素値加算曲線260を求める。 Specifically, the image separation unit 103 obtains the row pixel value addition curve 260 shown in FIG. 14 by sequentially plotting the pixel addition values W ′ j ′ of the face image in the vertical direction.

そして、画像分離部103は、行画素値加算曲線260に生じている極小点を検出する。図14に示す例では、画像分離部103は、行画素値加算曲線260から、極小点261A乃至261Eを検出する。   Then, the image separation unit 103 detects a minimum point generated in the row pixel value addition curve 260. In the example illustrated in FIG. 14, the image separation unit 103 detects local minimum points 261A to 261E from the row pixel value addition curve 260.

次に、画像分離部103は、検出された極小点261A乃至261Eのなかで、顔画像の画素加算値W’j'が最小となる位置jを、目画像と鼻画像を上下に(垂直方向に)分離する境界(位置)として検出する。 Next, the image separation unit 103 moves the eye image and the nose image up and down (vertical direction) at the position j where the pixel addition value W ′ j ′ of the face image is minimum among the detected minimum points 261A to 261E. B) Detect as a boundary (position) to be separated.

さらに、画像分離部103は、目画像と鼻画像を上下に分離する境界として検出された極小点から下方向に次に検出される極小点の位置jを、鼻画像と口画像を上下に(垂直方向に)分離する境界(位置)として検出する。   Further, the image separation unit 103 sets the position j of the minimum point detected next downward from the minimum point detected as the boundary separating the eye image and the nose image vertically, and the nose image and the mouth image vertically ( Detect as a boundary (position) to separate (in the vertical direction).

図14に示す例では、検出された極小点261A乃至261Eのなかで、顔画像の画素加算値W’j'が最小となっている極小点261Cを有する位置Ygが、目画像と鼻画像を上下に分離する境界(位置)として検出される。 In the example illustrated in FIG. 14, the position Y g having the minimum point 261C where the pixel addition value W ′ j ′ of the face image is the smallest among the detected minimum points 261A to 261E is the eye image and the nose image. Is detected as a boundary (position) separating the top and bottom.

また、目画像と鼻画像を上下に分離する境界として検出された極小点261Cから下方向に次に検出される極小点261Dの位置Yhが、鼻画像と口画像を上下に分離する境界(位置)として検出される。 Further, the position Y h of the minimum point 261D detected next downward from the minimum point 261C detected as the boundary that separates the eye image and the nose image vertically is the boundary that separates the nose image and the mouth image vertically ( Position).

これにより、画像分離部103は、図15に示すように、差分画像のうちの顔の領域(顔画像)231を、目の領域を含む画像(目画像)271、鼻の領域を含む画像(鼻画像)272、および口の領域を含む画像(口画像)273に分離する。そして、画像分離部203は、目画像271を目画像処理部104に供給し、鼻画像272を鼻画像処理部105に供給し、口画像273を口画像処理部106に供給する。   Thereby, as shown in FIG. 15, the image separation unit 103 converts a face area (face image) 231 in the difference image into an image (eye image) 271 including an eye area, and an image including a nose area ( The image is separated into a nose image 272 and an image (mouth image) 273 including a mouth region. Then, the image separation unit 203 supplies the eye image 271 to the eye image processing unit 104, supplies the nose image 272 to the nose image processing unit 105, and supplies the mouth image 273 to the mouth image processing unit 106.

なお、画像分離部103においては、目画像と鼻画像を上下に分離する境界としての極小点261Cを検出する場合、目画像と鼻画像を上下に分離する境界は、顔の領域(顔画像)の垂直方向(上下方向)の中心付近に存在することが想定されるため、顔の領域の垂直方向の中心付近(例えば、垂直方向の長さの半分の範囲)の範囲内だけで、行画素値加算曲線260の最小値となっている極小点を検出するようにしてもよい。また、顔の領域の垂直方向の中心に最も近い極小点を検出するようにしてもよい。   Note that in the image separation unit 103, when detecting the minimum point 261C as a boundary for separating the eye image and the nose image vertically, the boundary for separating the eye image and the nose image vertically is a face region (face image). Since it is assumed that the pixel exists in the vicinity of the center in the vertical direction (vertical direction), the row pixel only in the vicinity of the center in the vertical direction of the face region (for example, a range that is half the vertical length). The minimum point that is the minimum value of the value addition curve 260 may be detected. Alternatively, the local minimum point closest to the center in the vertical direction of the face region may be detected.

また、極小点を検出する際には、微小な画素値の変化によって生じている極小点など、本来の検出したい極小点とは異なる点を検出しないために、行画素値加算曲線260に対して、高周波成分を除去するフィルタ(ローパスフィルタ)処理等を行ってから上述の処理を実行することができる。さらに、検出された極小点の前後(上下)に位置する極大点との顔画像の画素加算値W’j'の差が、一定値以上であるなどの制約条件を付加して、不適当な(ノイズによる)極小点を除外するようにしてもよい。 Further, when detecting a minimum point, in order not to detect a point different from the minimum point to be originally detected, such as a minimum point caused by a minute change in pixel value, the row pixel value addition curve 260 is detected. The above-described processing can be executed after performing a filter (low-pass filter) processing for removing high-frequency components. Furthermore, a restriction condition such that the difference in the pixel addition value W ′ j ′ of the face image from the maximum point located before and after (up and down) the detected minimum point is a certain value or more is added, which is inappropriate. Local minimum points (due to noise) may be excluded.

次に、目画像処理部104の画素値加算部111は、画像分離部103から供給された目画像に対して、垂直または水平方向の列ごとの画素加算値V’ip' またはW’jp'を計算し、目領域抽出部112に供給する。目領域抽出部112は、目画像の画素加算値V’ip' またはW’jp'を水平方向または垂直方向に順次プロットすることにより、それぞれ、図16Aに示す目画像の列画素値加算曲線271Yまたは行画素値加算曲線271Xを得る。 Next, the pixel value addition unit 111 of the eye image processing unit 104 performs the pixel addition value V ′ ip ′ or W ′ jp ′ for each column in the vertical or horizontal direction with respect to the eye image supplied from the image separation unit 103. Is calculated and supplied to the eye region extraction unit 112. The eye area extraction unit 112 sequentially plots the pixel addition values V ′ ip ′ or W ′ jp ′ of the eye image in the horizontal direction or the vertical direction, thereby respectively, the column pixel value addition curve 271Y of the eye image shown in FIG. 16A. Alternatively, a row pixel value addition curve 271X is obtained.

また、鼻画像処理部105の画素値加算部121は、画像分離部103から供給された鼻画像に対して、垂直または水平方向の列ごとの画素加算値V’iq' またはW’jq'を計算し、鼻領域抽出部122に供給する。鼻領域抽出部122は、鼻画像の画素加算値V’iq' またはW’jq'を水平方向または垂直方向に順次プロットすることにより、それぞれ、図16Bに示す鼻画像の列画素値加算曲線272Yまたは行画素値加算曲線272Xを得る。 Further, the pixel value addition unit 121 of the nose image processing unit 105 calculates the pixel addition value V ′ iq ′ or W ′ jq ′ for each column in the vertical or horizontal direction with respect to the nose image supplied from the image separation unit 103. Calculate and supply to the nose region extraction unit 122. The nose region extraction unit 122 sequentially plots the pixel addition values V ′ iq ′ or W ′ jq ′ of the nose image in the horizontal direction or the vertical direction, so that the column pixel value addition curve 272Y of the nose image shown in FIG. 16B respectively. Alternatively, a row pixel value addition curve 272X is obtained.

さらに、口画像処理部106の画素値加算部131は、画像分離部103から供給された口画像に対して、垂直または水平方向の列ごとの画素加算値V’ir' またはW’jr'を計算し、口領域抽出部132に供給する。口領域抽出部132は、口画像の画素加算値V’i3' またはWj3'を水平方向または垂直方向に順次プロットすることにより、それぞれ、図16Cに示す口画像の列画素値加算曲線273Yまたは行画素値加算曲線273Xを得る。 Further, the pixel value adding unit 131 of the mouth image processing unit 106 subjects the supplied mouth image from the image separating unit 103, a vertical or a horizontal pixel total values V of each column of 'ir' or W 'jr' Calculate and supply to the mouth region extraction unit 132. The mouth area extraction unit 132 sequentially plots the pixel addition value V ′ i3 ′ or W j3 ′ of the mouth image in the horizontal direction or the vertical direction, thereby respectively, the column pixel value addition curve 273Y of the mouth image shown in FIG. A row pixel value addition curve 273X is obtained.

次に、図17を参照して、目画像処理部104の目領域抽出部112および代表点決定部113が行う処理について説明する。   Next, processing performed by the eye region extraction unit 112 and the representative point determination unit 113 of the eye image processing unit 104 will be described with reference to FIG.

目領域抽出部112は、目画像の列画素値加算曲線271Yおよび行画素値加算曲線271Xを用いて、ユーザ11の目の領域を特定する。   The eye region extraction unit 112 specifies the eye region of the user 11 using the column pixel value addition curve 271Y and the row pixel value addition curve 271X of the eye image.

具体的には、目領域抽出部112は、目画像の水平方向の中点(中間位置)を中心とし、幅を、例えば、目画像の幅Xdの半分(Xd/2)とする範囲Xe内における、列画素値加算曲線271Yの最小値を検出する。   Specifically, the eye area extraction unit 112 is centered on the middle point (intermediate position) in the horizontal direction of the eye image, and the width is, for example, in a range Xe that is half the width Xd of the eye image (Xd / 2). The minimum value of the column pixel value addition curve 271Y is detected.

図17Aでは、極小点281が、範囲Xe内の最小値として検出される。そして、極小点281の水平方向の位置Xdpが、目画像を、左目と右目をそれぞれ含む左目画像と右目画像に分離する境界となる。   In FIG. 17A, the minimum point 281 is detected as the minimum value in the range Xe. The horizontal position Xdp of the minimum point 281 is a boundary that separates the eye image into a left-eye image and a right-eye image each including a left eye and a right eye.

次に、目領域抽出部112は、顔画像の水平方向の位置Xdpより左側の領域(左目画像)における列画素値加算曲線271Yに注目する。目領域抽出部112は、位置Xdpより左側の領域(左目画像)における列画素値加算曲線271Yに対し、極大点を検出し、その検出された極大点のなかから、図17Aに示すように、値の大きい順に2つの極大点291Aおよび291Bを選択する。そして、2つの極大点291Aおよび291Bそれぞれに対応する水平方向の位置XIL1およびXIL2が、左目の領域を特定する水平方向の位置となる。即ち、水平方向においては、XIL1≦i≦XIL2の範囲に左目が存在していると特定される。 Next, the eye area extraction unit 112 pays attention to the column pixel value addition curve 271Y in the area (left eye image) on the left side of the position Xdp in the horizontal direction of the face image. The eye region extraction unit 112 detects a local maximum point for the column pixel value addition curve 271Y in the region on the left side of the position Xdp (left eye image), and from the detected local maximum points, as shown in FIG. Two local maximum points 291A and 291B are selected in descending order of value. The horizontal positions XIL 1 and XIL 2 corresponding to the two maximum points 291A and 291B are the horizontal positions that specify the left eye region. That is, in the horizontal direction, it is specified that the left eye exists in the range of XIL 1 ≦ i ≦ XIL 2 .

位置Xdpより右側の領域(右目画像)に対しても同様に、目領域抽出部112は、列画素値加算曲線271Yに対し、極大値を検出し、その検出された極大点のなかから、図17Aに示すように、値の大きい順に2つの極大点291Cおよび291Dを選択する。そして、2つの極大点291Cおよび291Dそれぞれに対応する水平方向の位置XIR1およびXIR2が、右目の領域を特定する水平方向の位置となる。即ち、水平方向においては、XIR1≦i≦XIR2の範囲に右目が存在していると特定される。 Similarly, the eye region extraction unit 112 detects a local maximum value for the column pixel value addition curve 271Y for the region on the right side of the position Xdp (right-eye image), and from among the detected local maximum points, FIG. As shown in 17A, the two maximum points 291C and 291D are selected in descending order. Then, the horizontal positions XIR 1 and XIR 2 corresponding to the two maximum points 291C and 291D are the horizontal positions that specify the region of the right eye. That is, in the horizontal direction, it is specified that the right eye exists in the range of XIR 1 ≦ i ≦ XIR 2 .

一方、垂直方向に対しては、目領域抽出部112は、行画素値加算曲線271X(目画像の画素加算値W’jp')において極小点を検出し、その検出された極小点のなかから、図17Aに示すように、値の最も小さな極小点301を選択する。 On the other hand, with respect to the vertical direction, the eye region extraction unit 112 detects a minimum point in the row pixel value addition curve 271X (pixel addition value W ′ jp ′ of the eye image), and from among the detected minimum points. As shown in FIG. 17A, the minimum point 301 having the smallest value is selected.

そして、目領域抽出部112は、行画素値加算曲線271Xにおいて、値の最も小さな極小点301の両隣に位置する極大点を検出する。即ち、目領域抽出部112は、行画素値加算曲線271Xにおいて、値の最も小さな極小点301から、上下方向それぞれに検索して最初の極大点311Aおよび311Bを検出する。   Then, the eye region extraction unit 112 detects a local maximum point located on both sides of the local minimum point 301 having the smallest value in the row pixel value addition curve 271X. That is, the eye region extraction unit 112 detects the first maximum points 311A and 311B by searching in the vertical direction from the minimum point 301 having the smallest value in the row pixel value addition curve 271X.

そして、極大点311Aおよび311Bそれぞれに対応する垂直方向の位置YI1およびYI2が、垂直方向の左目および右目の領域を特定する位置となる。即ち、垂直方向においては、YI1≦j≦YI2の範囲に左目および右目が存在していると特定される。なお、極小点301に対応する垂直方向の位置が、位置Ydpである。 Then, the vertical positions YI 1 and YI 2 corresponding to the local maximum points 311A and 311B are positions for specifying the left eye area and the right eye area in the vertical direction. That is, in the vertical direction, it is specified that the left eye and the right eye are present in the range of YI 1 ≦ j ≦ YI 2 . Note that the position in the vertical direction corresponding to the minimum point 301 is the position Ydp.

以上から、目領域抽出部112は、図17Aにおいて斜線で示されている、XIL1≦i≦XIL2の範囲とYI1≦j≦YI2の範囲とで囲まれる領域を、左目の領域ILと特定する。また、目領域抽出部112は、XIR1≦i≦XIR2の範囲とYI1≦j≦YI2の範囲とで囲まれる領域を、右目の領域IRと特定する。目領域抽出部112は、水平方向の位置XIL1,XIL2,XIR1、およびXIR2と、垂直方向の位置YI1およびYI2とを、ユーザ11の目の領域を特定する情報として、代表点決定部113に供給する。 From the above, the eye region extraction unit 112 determines the region surrounded by the range of XIL 1 ≦ i ≦ XIL 2 and the range of YI 1 ≦ j ≦ YI 2 , which is indicated by hatching in FIG. Is identified. Further, the eye region extraction unit 112 identifies the region surrounded by the range of XIR 1 ≦ i ≦ XIR 2 and the range of YI 1 ≦ j ≦ YI 2 as the right eye region IR. The eye area extraction unit 112 uses the horizontal positions XIL 1 , XIL 2 , XIR 1 , and XIR 2 and the vertical positions YI 1 and YI 2 as representative information for identifying the eye area of the user 11. This is supplied to the point determination unit 113.

代表点決定部113は、ユーザ11の目の領域内で、目の位置を代表する代表点を特定する。   The representative point determination unit 113 specifies a representative point that represents the position of the eye within the eye area of the user 11.

図17Bは、左目の領域IL内で再計算された行画素値加算曲線271X’および列画素値加算曲線271Y’を示している。図17Cは、右目の領域IR内で再計算された行画素値加算曲線271X”および列画素値加算曲線271Y”を示している。   FIG. 17B shows the row pixel value addition curve 271X ′ and the column pixel value addition curve 271Y ′ recalculated in the region IL of the left eye. FIG. 17C shows the row pixel value addition curve 271X ″ and the column pixel value addition curve 271Y ″ recalculated within the region IR of the right eye.

図17Bに示す左目の領域ILにおいて、代表点決定部113は、列画素値加算曲線271Y’の最小値321を検出し、その最小値321に対応する水平方向の位置ILXを得る。また、代表点決定部113は、行画素値加算曲線271X’の最小値322を検出し、その最小値322に対応する垂直方向の位置ILYを得る。この位置ILXおよびILYが、ユーザ11の左目の位置を代表する代表点ILp=(ILX,ILY)を表す。 In the left eye region IL shown in FIG. 17B, the representative point determination unit 113 detects the minimum value 321 of the column pixel value addition curve 271Y ′, and obtains the horizontal position IL X corresponding to the minimum value 321. The representative point determining unit 113 detects the minimum value 322 of the row pixel value total curve 271X ', obtain the location IL Y in the vertical direction corresponding to the minimum value 322. The positions IL X and IL Y represent a representative point ILp = (IL X , IL Y ) that represents the position of the left eye of the user 11.

同様にして、図17Cに示す右目の領域IRにおいて、代表点決定部113は、列画素値加算曲線271Y”の最小値331を検出し、その最小値331に対応する水平方向の位置IRXを得る。また、代表点決定部113は、行画素値加算曲線271X”の最小値332を検出し、その最小値332に対応する垂直方向の位置IRYを得る。この位置IRXおよびIRYが、ユーザ11の右目の位置を代表する代表点IRp=(IRX,IRY)を表す。 Similarly, in the region IR of the right eye shown in FIG. 17C, the representative point determination unit 113 detects the minimum value 331 of the column pixel value addition curve 271Y ″ and determines the horizontal position IR X corresponding to the minimum value 331. obtained. the representative point determining unit 113 detects the minimum value 332 of the row pixel value total curve 271X ", obtaining a position IR Y in the vertical direction corresponding to the minimum value 332. The positions IR X and IR Y represent a representative point IRp = (IR X , IR Y ) representing the position of the right eye of the user 11.

代表点決定部113は、位置(ILX,ILY)および位置(IRX,IRY)を、ユーザ11の目の代表点ILpおよびIRpを特定する情報とし、上述した目の領域を特定する情報とともに、画像出力部108に供給する。 The representative point determination unit 113 uses the position (IL X , IL Y ) and the position (IR X , IR Y ) as information for specifying the representative points ILp and IRp of the user 11 and specifies the above-described eye region. The information is supplied to the image output unit 108 together with the information.

この目の代表点は、目(虹彩)の中心や、黒目の位置を表すとは限らないが、ユーザごとにほぼ同一の位置となる。従って、代表点としての左右の目の位置関係を調べる(比較)することにより、個人(本人)認証の精度を向上させることができる。   The representative point of the eye does not necessarily represent the center of the eye (iris) or the position of the black eye, but is almost the same position for each user. Therefore, by examining (comparing) the positional relationship between the left and right eyes as representative points, the accuracy of individual (person) authentication can be improved.

また、連続して撮像された複数の画像に対して、代表点としての左右の目の位置の軌跡(移動方向)を調べることにより、ユーザ11の視線の移動方向や顔の向きを検出することも可能である。   In addition, by detecting the trajectories (moving directions) of the positions of the left and right eyes as representative points for a plurality of images captured continuously, the moving direction of the user's line of sight and the orientation of the face are detected. Is also possible.

次に、図18を参照して、鼻画像処理部105の鼻領域抽出部122および代表点決定部123が行う処理について説明する。   Next, processing performed by the nose region extraction unit 122 and the representative point determination unit 123 of the nose image processing unit 105 will be described with reference to FIG.

鼻領域抽出部122は、鼻画像の列画素値加算曲線272Yおよび行画素値加算曲線272Xを用いて、ユーザ11の鼻の領域を特定する。   The nose region extraction unit 122 specifies the nose region of the user 11 using the column pixel value addition curve 272Y and the row pixel value addition curve 272X of the nose image.

具体的には、鼻領域抽出部122は、鼻画像の水平方向の中点(中間位置)を中心とし、幅を、例えば、鼻画像の幅Xdの半分(Xd/2)とする範囲Xe内における、列画素値加算曲線272Yの極小点を検出し、その検出された極小点のなかから、図18Aに示すように、値の小さい順に2つの極小点341および342を選択する。そして、2つの極小点341および342それぞれに対応する水平方向の位置XN1およびXN2が、鼻の領域を特定する水平方向の位置となる。即ち、水平方向においては、XN1≦i≦XN2の範囲に鼻が存在していると特定される。 Specifically, the nose region extraction unit 122 is centered on the midpoint (intermediate position) in the horizontal direction of the nose image, and the width is within, for example, a range Xe that is half the width Xd of the nose image (Xd / 2). In FIG. 18A, the local minimum point of the column pixel value addition curve 272Y is detected, and two local minimum points 341 and 342 are selected in ascending order of value, as shown in FIG. 18A. The horizontal positions XN 1 and XN 2 corresponding to the two local minimum points 341 and 342 are the horizontal positions that specify the nose region. That is, in the horizontal direction, it is specified that the nose exists in the range of XN 1 ≦ i ≦ XN 2 .

一方、垂直方向に対しては、鼻領域抽出部122は、行画素値加算曲線272Xにおいて極大点を検出し、その検出された極大点のなかから、値の最も大きな極大点351を選択する。なお、図18Aの行画素値加算曲線272Xのように、1つの極大点351しか存在していない場合、その極大点351が選択される。   On the other hand, for the vertical direction, the nose region extraction unit 122 detects a local maximum point in the row pixel value addition curve 272X, and selects the local maximum point 351 having the largest value from the detected local maximum points. When only one local maximum point 351 exists as in the row pixel value addition curve 272X in FIG. 18A, the local maximum point 351 is selected.

そして、鼻領域抽出部122は、極大点351に対応する垂直方向の位置YN1から、鼻画像の垂直方向の下限位置YN3までの距離YNDと同一の距離だけ、位置YN1から上方向に進んだ位置YN2を決定する。このようにして決定される垂直方向の位置YN2およびYN3が、垂直方向の鼻の領域を特定する位置となる。即ち、垂直方向においては、YN2≦j≦YN3の範囲に鼻が存在していると特定される。 The nose area extracting unit 122, from the position YN 1 in the vertical direction corresponding to the maximum point 351, by a distance Y ND same distance and to a lower limit position YN 3 in the vertical direction of the nose image, upwardly from the position YN 1 The position YN 2 that has been advanced to is determined. The vertical positions YN 2 and YN 3 determined in this way are positions that specify the nose region in the vertical direction. That is, in the vertical direction, it is specified that the nose exists in the range of YN 2 ≦ j ≦ YN 3 .

以上から、鼻領域抽出部122は、図18Aにおいて斜線で示されている、XN1≦i≦XN2の範囲とYN2≦j≦YN3の範囲とで囲まれる領域を、鼻の領域NRと特定する。また、鼻領域抽出部122は、水平方向の位置XN1およびXN2と、垂直方向の位置YN2およびYN3とを、ユーザ11の鼻の領域を特定する情報として、代表点決定部123に供給する。 From the above, the nose region extraction unit 122 determines the region surrounded by the range of XN 1 ≦ i ≦ XN 2 and the range of YN 2 ≦ j ≦ YN 3 , which is indicated by hatching in FIG. 18A, as the nose region NR. Is identified. Also, the nose region extraction unit 122 uses the horizontal positions XN 1 and XN 2 and the vertical positions YN 2 and YN 3 as information for specifying the nose region of the user 11 to the representative point determination unit 123. Supply.

代表点決定部123は、ユーザ11の鼻の領域内で、鼻の位置を代表する代表点を特定する。   The representative point determination unit 123 specifies a representative point representing the nose position in the nose region of the user 11.

図18Bは、鼻の領域NR内で再計算された行画素値加算曲線272X’および列画素値加算曲線272Y’を示している。   FIG. 18B shows the row pixel value addition curve 272X ′ and the column pixel value addition curve 272Y ′ recalculated in the nose region NR.

図18Bに示す鼻の領域NRにおいて、代表点決定部123は、列画素値加算曲線272Y’の最大値361を検出し、その最大値361に対応する水平方向の位置NRXを得る。また、代表点決定部123は、行画素値加算曲線272X’の最大値371を検出し、その最小値371に対応する垂直方向の位置NRYを得る。この位置NRXおよびNRYが、ユーザ11の鼻の位置を代表する代表点NRp=(NRX,NRY)を表す。 In the nose region NR shown in FIG. 18B, the representative point determination unit 123 detects the maximum value 361 of the column pixel value addition curve 272Y ′ and obtains the horizontal position NR X corresponding to the maximum value 361. The representative point determining unit 123 detects the maximum value 371 of the row pixel value total curve 272X ', obtaining position NR Y in the vertical direction corresponding to the minimum value 371. The positions NR X and NR Y represent a representative point NRp = (NR X , NR Y ) representing the position of the user 11 nose.

代表点決定部123は、位置(NRX,NRY)を、ユーザ11の鼻の代表点NRpを特定する情報とし、上述した鼻の領域を特定する情報とともに、画像出力部108に供給する。 The representative point determination unit 123 uses the position (NR X , NR Y ) as information for specifying the representative point NRp of the nose of the user 11, and supplies the information to the image output unit 108 together with the information for specifying the nose region described above.

次に、図19を参照して、口画像処理部106の口領域抽出部132および代表点決定部133が行う処理について説明する。   Next, processing performed by the mouth area extraction unit 132 and the representative point determination unit 133 of the mouth image processing unit 106 will be described with reference to FIG.

口領域抽出部132は、口画像の列画素値加算曲線273Yおよび行画素値加算曲線273Xを用いて、ユーザ11の口の領域を特定する。   The mouth area extraction unit 132 specifies the mouth area of the user 11 using the column pixel value addition curve 273Y and the row pixel value addition curve 273X of the mouth image.

具体的には、口領域抽出部132は、口画像の水平方向の中点(中間位置)を中心とし、幅を、例えば、口画像の幅Xdの半分(Xd/2)とする範囲Xe内における、列画素値加算曲線273Yの3つの極小点381乃至383を検出する。そして、口領域抽出部132は、検出された極小点381乃至383のなかから、水平方向に最大と最小の(即ち、両脇の)極小点381および383を選択する。2つの極小点381および383それぞれに対応する水平方向の位置XM1およびXM3が、口の領域を特定する水平方向の位置となる。即ち、水平方向においては、XM1≦i≦XM3の範囲に口が存在していると特定される。 Specifically, the mouth area extraction unit 132 is centered on the middle point (intermediate position) in the horizontal direction of the mouth image, and the width is, for example, within the range Xe that is half the width Xd (Xd / 2) of the mouth image. , Three minimum points 381 to 383 of the column pixel value addition curve 273Y are detected. Then, the mouth area extraction unit 132 selects the minimum and maximum (ie, both sides) minimum points 381 and 383 in the horizontal direction from the detected minimum points 381 to 383. The horizontal positions XM 1 and XM 3 corresponding to the two local minimum points 381 and 383 are horizontal positions that specify the mouth area. That is, in the horizontal direction, it is specified that the mouth exists in the range of XM 1 ≦ i ≦ XM 3 .

一方、垂直方向に対しては、口領域抽出部132は、行画素値加算曲線273Xにおいて極小点を検出し、その検出された極小点のなかから、値の最も小さな極小点384を選択する。なお、図19Aの行画素値加算曲線273Xのように、1つの極小点384しか存在していない場合、その極小点384が選択される。   On the other hand, with respect to the vertical direction, the mouth area extraction unit 132 detects a minimum point in the row pixel value addition curve 273X, and selects the minimum point 384 having the smallest value from the detected minimum points. When only one local minimum point 384 exists like the row pixel value addition curve 273X in FIG. 19A, the local minimum point 384 is selected.

そして、口領域抽出部132は、極小点384に対応する垂直方向の位置YM1から、口画像の垂直方向の上限位置YM2までの距離YMDと同一の距離だけ、位置YM1から下方向に進んだ位置YM3を決定する。このようにして決定される垂直方向の位置YM2およびYM3が、垂直方向の口の領域を特定する位置となる。即ち、垂直方向においては、YM2≦j≦YM3の範囲に口が存在していると特定される。 The mouth area extracting unit 132, from the position YM 1 in the vertical direction corresponding to the minimum point 384, by the same distance and the distance Y MD of up to the upper limit position YM 2 in the vertical direction of the mouth image, downward from the position YM 1 The position YM 3 that has been advanced to is determined. The vertical positions YM 2 and YM 3 determined in this way are positions for specifying the vertical mouth area. That is, in the vertical direction, it is specified that the mouth exists in the range of YM 2 ≦ j ≦ YM 3 .

以上から、口領域抽出部132は、図19Aにおいて斜線で示されている、XM1≦i≦XM3の範囲とYM2≦j≦YM3の範囲とで囲まれる領域を、口の領域MRと特定する。また、口領域抽出部132は、水平方向の位置XM1およびXM3と、垂直方向の位置YM2およびYM3とを、ユーザ11の口の領域を特定する情報として、代表点決定部133に供給する。 From the above, the mouth area extraction unit 132 converts the area surrounded by the range of XM 1 ≦ i ≦ XM 3 and the range of YM 2 ≦ j ≦ YM 3 , which is indicated by hatching in FIG. Is identified. In addition, the mouth area extraction unit 132 uses the horizontal positions XM 1 and XM 3 and the vertical positions YM 2 and YM 3 as information for specifying the mouth area of the user 11 to the representative point determination unit 133. Supply.

代表点決定部133は、ユーザ11の口の領域内で、口の位置を代表する代表点を特定する。   The representative point determination unit 133 specifies a representative point that represents the position of the mouth in the mouth area of the user 11.

図19Bは、口の領域MR内で再計算された行画素値加算曲線273X’および列画素値加算曲線273Y’を示している。   FIG. 19B shows the row pixel value addition curve 273X ′ and the column pixel value addition curve 273Y ′ recalculated in the mouth region MR.

図19Bに示す口の領域MRにおいて、代表点決定部133は、列画素値加算曲線273Y’の極小値391を検出し、その極小値391に対応する水平方向の位置MRXを得る。また、代表点決定部133は、行画素値加算曲線273X’の極小値392を検出し、その極小値392に対応する垂直方向の位置MRYを得る。この位置MRXおよびMRYが、ユーザ11の口の位置を代表する代表点MRp=(MRX,MRY)を表す。 In the region MR of the mouth shown in FIG. 19B, the representative point determining unit 133 detects the minimum value 391 of the row pixel value total curve 273Y ', to obtain the position MR X in the horizontal direction corresponding to the minimum value 391. The representative point determining unit 133 detects the minimum value 392 of the row pixel value total curve 273X ', to obtain the position MR Y in the vertical direction corresponding to the minimum value 392. The positions MR X and MR Y represent a representative point MRp = (MR X , MR Y ) that represents the position of the mouth of the user 11.

代表点決定部133は、位置(MRX,MRY)を、ユーザ11の口の代表点MRpを特定する情報とし、上述した口の領域を特定する情報とともに、画像出力部108に供給する。 The representative point determination unit 133 uses the position (MR X , MR Y ) as information for specifying the representative point MRp of the mouth of the user 11, and supplies the information to the image output unit 108 together with the information for specifying the mouth region.

次に、図20および図21のフローチャートを参照して、画像処理装置15の処理について説明する。この処理は、撮像画像が撮像装置12から画像処理装置15に供給されたときに開始される。   Next, processing of the image processing apparatus 15 will be described with reference to the flowcharts of FIGS. This process is started when a captured image is supplied from the imaging device 12 to the image processing device 15.

初めに、ステップS1において、差分画像算出部21の画像取得部61は、基準画像と照明画像を取得する。より詳しくは、画像取得部61は、撮像装置12から供給される撮像画像を取得し、タイミング制御装置14からの判定信号に従い、撮像装置12から供給された撮像画像が、基準画像であるか、または照明画像であるかを判定する。そして、画像取得部61は、供給された撮像画像が基準画像である場合、撮像画像をメモリ62に供給し、供給された撮像画像が照明画像である場合、撮像画像をメモリ63に供給する。   First, in step S1, the image acquisition unit 61 of the difference image calculation unit 21 acquires a reference image and an illumination image. More specifically, the image acquisition unit 61 acquires a captured image supplied from the imaging device 12, and according to a determination signal from the timing control device 14, whether the captured image supplied from the imaging device 12 is a reference image, Or it is determined whether it is an illumination image. Then, the image acquisition unit 61 supplies the captured image to the memory 62 when the supplied captured image is a reference image, and supplies the captured image to the memory 63 when the supplied captured image is an illumination image.

ステップS2において、差分画像算出部21の差分処理部64は、メモリ62に記憶されている基準画像と、メモリ63に記憶されている照明画像から、差分画像を算出する。   In step S <b> 2, the difference processing unit 64 of the difference image calculating unit 21 calculates a difference image from the reference image stored in the memory 62 and the illumination image stored in the memory 63.

ステップS3において、差分画像算出部21のフィルタ処理部65は、差分処理部64からの差分画像に対してフィルタリング(フィルタ処理)して、処理後の差分画像を顔領域抽出部22に供給する。   In step S <b> 3, the filter processing unit 65 of the difference image calculation unit 21 filters (filters) the difference image from the difference processing unit 64 and supplies the processed difference image to the face area extraction unit 22.

ステップS4において、顔領域抽出部22の画素値加算部71は、差分画像の水平または垂直方向それぞれの列ごとに画素値を加算し、差分画像の垂直または水平方向それぞれの列ごとの画素加算値ViまたはWjを算出する。 In step S4, the pixel value addition unit 71 of the face area extraction unit 22 adds pixel values for each column in the horizontal or vertical direction of the difference image, and adds pixel values for each column in the vertical or horizontal direction of the difference image. V i or W j is calculated.

ステップS5において、顔領域抽出部22の閾値設定部72は、差分画像の水平方向または垂直方向において、ユーザ11の顔領域とその他の領域を区別する閾値THXまたはTHYを算出し、設定する。 In step S5, the threshold value setting unit 72 of the face area extracting unit 22 calculates and sets a threshold value TH X or TH Y for distinguishing the face area of the user 11 from other areas in the horizontal direction or the vertical direction of the difference image. .

ステップS6において、顔領域抽出部22の顔領域データ抽出部73は、差分画像のなかから顔画像を抽出する。即ち、顔領域データ抽出部73は、画素値加算部71から供給される差分画像の画素加算値ViおよびWjと、閾値設定部72から供給される閾値THXおよびTHYとに基づいて、差分画像のなかのユーザ11の顔領域の位置を特定する。そして、顔領域データ抽出部73は、差分画像算出部21から供給される差分画像とともに、ユーザ11の顔領域を特定する顔領域情報を顔向き判定部23に供給する。 In step S6, the face area data extracting unit 73 of the face area extracting unit 22 extracts a face image from the difference image. That is, the face area data extraction unit 73 is based on the pixel addition values V i and W j of the difference image supplied from the pixel value addition unit 71 and the threshold values TH X and TH Y supplied from the threshold setting unit 72. The position of the face area of the user 11 in the difference image is specified. Then, the face area data extraction unit 73 supplies face area information for specifying the face area of the user 11 to the face orientation determination unit 23 together with the difference image supplied from the difference image calculation unit 21.

ステップS7において、顔向き判定部23の画素値加算部81は、顔画像の画素加算値V’i'を算出し、中心位置検出部82に供給する。 In step S <b> 7, the pixel value addition unit 81 of the face orientation determination unit 23 calculates the pixel addition value V ′ i ′ of the face image and supplies it to the center position detection unit 82.

ステップS8において、顔向き判定部23の中心位置検出部82は、水平方向におけるユーザ11の顔の中心位置(重心位置)X’を決定し、判定部83に供給する。   In step S <b> 8, the center position detecting unit 82 of the face orientation determining unit 23 determines the center position (center of gravity position) X ′ of the user 11 in the horizontal direction and supplies the determined position to the determining unit 83.

ステップS9において、顔向き判定部23の判定部83は、水平方向におけるユーザ11の顔の中心位置X’が、顔画像の水平方向の中点Xpから所定の距離±XRの範囲、その範囲の左側または右側のいずれに存在しているかどうかにより、ユーザ11の顔の向きを判定する。そして、この判定結果が、差分画像および顔領域情報とともに顔器官抽出部24に供給される。   In step S9, the determination unit 83 of the face orientation determination unit 23 determines that the center position X ′ of the face of the user 11 in the horizontal direction is within a predetermined distance ± XR from the horizontal midpoint Xp of the face image. The direction of the face of the user 11 is determined depending on whether it exists on the left side or the right side. Then, the determination result is supplied to the face organ extraction unit 24 together with the difference image and the face area information.

ステップS10において、顔器官抽出部24のメモリ107は、撮像装置12から供給される撮像画像(基準画像または照明画像)を記憶する。   In step S <b> 10, the memory 107 of the facial organ extraction unit 24 stores the captured image (reference image or illumination image) supplied from the imaging device 12.

ステップS11において、顔器官抽出部24の画素値加算部101は、顔画像の画素加算値W’j'を算出し、画像分離部103に供給する。 In step S < b> 11, the pixel value addition unit 101 of the face organ extraction unit 24 calculates the pixel addition value W ′ j ′ of the face image and supplies it to the image separation unit 103.

ステップS12において、顔器官抽出部24の画像分離部103は、画素値加算部101からの顔画像の画素加算値W’j'を用いて、顔画像を目画像、鼻画像、および口画像に分離する。そして、画像分離部103は、分離された目画像、鼻画像、および口画像を、それぞれ、目画像処理部104、鼻画像処理部105、および口画像処理部106に供給する。 In step S12, the image separation unit 103 of the facial organ extraction unit 24 uses the pixel image addition value W ′ j ′ of the face image from the pixel value addition unit 101 to convert the face image into an eye image, a nose image, and a mouth image. To separate. Then, the image separation unit 103 supplies the separated eye image, nose image, and mouth image to the eye image processing unit 104, the nose image processing unit 105, and the mouth image processing unit 106, respectively.

ステップS13において、目画像処理部104の画素値加算部111は、目画像の画素加算値V’ip' またはW’jp'を計算し、目領域抽出部112に供給する。 In step S <b> 13, the pixel value addition unit 111 of the eye image processing unit 104 calculates a pixel addition value V ′ ip ′ or W ′ jp ′ of the eye image and supplies it to the eye region extraction unit 112.

ステップS14において、目画像処理部104の目領域抽出部112は、目画像の列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の目の領域を特定する。そして、目領域抽出部112は、ユーザ11の目の領域を特定する情報を、目画像とともに、代表点決定部113に供給する。   In step S <b> 14, the eye region extraction unit 112 of the eye image processing unit 104 specifies the eye region of the user 11 using the column pixel value addition curve and the row pixel value addition curve of the eye image. Then, the eye area extraction unit 112 supplies information specifying the eye area of the user 11 to the representative point determination unit 113 together with the eye image.

ステップS15において、目画像処理部104の代表点決定部113は、目の領域に対して再計算された列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の目の位置を代表する代表点を特定する。そして、代表点決定部113は、目領域情報(目の領域を特定する情報および目の代表点を特定する情報)を画像出力部108に供給する。   In step S15, the representative point determination unit 113 of the eye image processing unit 104 represents the eye position of the user 11 using the column pixel value addition curve and the row pixel value addition curve recalculated for the eye region. The representative point to be identified is specified. Then, the representative point determination unit 113 supplies eye region information (information specifying the eye region and information specifying the eye representative point) to the image output unit 108.

ステップS16において、鼻領域処理部105の画素値加算部121は、鼻画像の画素加算値V’iq' またはW’jq'を算出し、鼻領域抽出部122に供給する。 In step S <b> 16, the pixel value addition unit 121 of the nose region processing unit 105 calculates the pixel addition value V ′ iq ′ or W ′ jq ′ of the nose image and supplies it to the nose region extraction unit 122.

ステップS17において、鼻領域処理部105の鼻領域抽出部122は、鼻画像の列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の鼻の領域を特定する。そして、鼻領域抽出部122は、ユーザ11の鼻の領域を特定する情報を、鼻画像とともに、代表点決定部123に供給する。   In step S <b> 17, the nose region extraction unit 122 of the nose region processing unit 105 specifies the nose region of the user 11 using the column pixel value addition curve and the row pixel value addition curve of the nose image. Then, the nose region extraction unit 122 supplies information specifying the nose region of the user 11 to the representative point determination unit 123 together with the nose image.

ステップS18において、鼻領域処理部105の代表点決定部123は、鼻の領域に対して再計算された列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の鼻の位置を代表する代表点を特定(決定)する。そして、代表点決定部123は、鼻領域情報(鼻の領域を特定する情報および鼻の代表点を特定する情報)を画像出力部108に供給する。   In step S <b> 18, the representative point determination unit 123 of the nose region processing unit 105 represents the position of the nose of the user 11 using the column pixel value addition curve and the row pixel value addition curve recalculated for the nose region. Identify (determine) the representative points to be used. Then, the representative point determination unit 123 supplies the nose region information (information specifying the nose region and information specifying the nose representative point) to the image output unit 108.

ステップS19において、口画像処理部106の画素値加算部131は、口画像の画素加算値V’ir'およびW’jr'を算出し、口領域抽出部132に供給する。 In step S19, the pixel value adding unit 131 of the mouth image processing unit 106 calculates the pixel total values of the mouth image V 'ir' and W 'jr', and supplies the mouth area extracting unit 132.

ステップS20において、口画像処理部106の口領域抽出部132は、口画像の列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の口の領域を特定(抽出)する。そして、口領域抽出部132は、ユーザ11の口の領域を特定する情報を、口画像の列画素値加算曲線および行画素値加算曲線とともに、代表点決定部133に供給する。   In step S20, the mouth area extraction unit 132 of the mouth image processing unit 106 specifies (extracts) the mouth area of the user 11 using the column pixel value addition curve and the row pixel value addition curve of the mouth image. Then, the mouth area extraction unit 132 supplies information specifying the mouth area of the user 11 to the representative point determination unit 133 together with the column pixel value addition curve and the row pixel value addition curve of the mouth image.

ステップS21において、口画像処理部106の代表点決定部133は、口の領域に対して再計算された列画素値加算曲線および行画素値加算曲線を用いて、ユーザ11の口の位置を代表する代表点を特定(決定)する。そして、代表点決定部133は、口領域情報(口の領域を特定する情報および口の代表点を特定する情報)を画像出力部108に供給する。   In step S21, the representative point determination unit 133 of the mouth image processing unit 106 represents the position of the mouth of the user 11 using the column pixel value addition curve and the row pixel value addition curve recalculated for the mouth region. Identify (determine) the representative points to be used. Then, the representative point determination unit 133 supplies the mouth area information (information specifying the mouth region and information specifying the mouth representative point) to the image output unit 108.

ステップS22において、口画像処理部106の画像出力部108は、顔向き判定部23から供給された判定結果に応じて、上述したステップS10でメモリ107に記憶された撮像画像を出力するか否かを判定する。即ち、判定結果から、ユーザ11の顔の向きが右向きまたは左向きであると判定された場合、画像出力部108は、ステップS23をスキップして(メモリ107に記憶されている撮像画像を出力せずに)、処理を終了する。   In step S <b> 22, the image output unit 108 of the mouth image processing unit 106 determines whether to output the captured image stored in the memory 107 in step S <b> 10 described above according to the determination result supplied from the face orientation determination unit 23. Determine. That is, when it is determined from the determination result that the orientation of the face of the user 11 is rightward or leftward, the image output unit 108 skips step S23 (does not output the captured image stored in the memory 107). To finish the process.

一方、判定結果から、ユーザ11の顔の向きが正面であると判定された場合、ステップS23に進み、画像出力部108は、顔領域情報、目領域情報、鼻領域情報、および口領域情報とともに、メモリ107に記憶されている撮像画像を出力して、処理を終了する。   On the other hand, if it is determined from the determination result that the orientation of the face of the user 11 is front, the process proceeds to step S23, and the image output unit 108 together with the face area information, eye area information, nose area information, and mouth area information. Then, the captured image stored in the memory 107 is output, and the process ends.

以上のように、画像処理装置15は、顔画像の認識処理に最適な撮像画像だけを出力するとともに、出力される撮像画像の顔領域、目の領域、鼻の領域、口の領域、および目、鼻、口の代表点を出力する。これにより、画像処理装置15からの出力を受ける装置では、顔画像の認識処理を容易に、かつ正確に行うことができる。   As described above, the image processing device 15 outputs only the captured image that is optimal for the face image recognition process, and outputs the face region, the eye region, the nose region, the mouth region, and the eye of the output captured image. Output representative points of nose and mouth. As a result, the device that receives the output from the image processing device 15 can easily and accurately perform the facial image recognition processing.

なお、上述したステップS13乃至S15の処理、ステップS16乃至S18の処理、またはステップS19乃至S21の処理は、いずれの処理を先に行っても良いし、同時に(並行して)行うことも可能である。   It should be noted that any of the processes in steps S13 to S15, steps S16 to S18, or steps S19 to S21 described above may be performed first, or may be performed simultaneously (in parallel). is there.

また、上述したステップS23の処理では、画像出力部108は、ユーザ11の顔の向きが正面であると判定された場合に、メモリ107に記憶されている撮像画像が基準画像であるか照明画像であるかにかかわらず、メモリ107に記憶されている撮像画像を出力するようにしたが、基準画像のときだけ出力するようにしてもよい。   Further, in the processing of step S23 described above, the image output unit 108 determines whether the captured image stored in the memory 107 is the reference image or not when the face direction of the user 11 is determined to be the front. Regardless of whether the captured image stored in the memory 107 is output or not, it may be output only for the reference image.

図22は、図1の顔領域抽出部22のその他の実施の形態を示すブロック図である。   FIG. 22 is a block diagram showing another embodiment of the face area extraction unit 22 of FIG.

図22において、顔領域抽出部22は、ヒストグラム作成部401、閾値設定部402、顔領域データ抽出部403、およびメモリ404により構成されている。   In FIG. 22, the face area extracting unit 22 includes a histogram creating unit 401, a threshold setting unit 402, a face area data extracting unit 403, and a memory 404.

差分画像算出部21(のフィルタ処理部65)から供給される(フィルタ処理後の)差分画像は、ヒストグラム作成部401および顔領域データ抽出部403に供給される。   The difference image (after the filter processing) supplied from the difference image calculation unit 21 (the filter processing unit 65) is supplied to the histogram creation unit 401 and the face area data extraction unit 403.

ヒストグラム作成部401は、差分画像について、同一の画素値を有する画素ごとに画素数を集計した、差分画像の画素値のヒストグラムを作成し、閾値設定部402に供給する。また、ヒストグラム作成部401は、差分画像の各画素について、画素の位置と、画素値とが対応付けられたテーブルを生成し、メモリ404に供給する。このテーブルを参照することにより、所定の画素値が指定された場合に、その画素値を有する画素の差分画像内の位置を特定することができる。   The histogram creation unit 401 creates a histogram of the pixel values of the difference image by summing up the number of pixels for each pixel having the same pixel value for the difference image, and supplies the histogram to the threshold setting unit 402. Further, the histogram creation unit 401 generates a table in which pixel positions and pixel values are associated with each pixel of the difference image, and supplies the table to the memory 404. By referring to this table, when a predetermined pixel value is specified, the position of the pixel having the pixel value in the difference image can be specified.

閾値設定部402は、ヒストグラム作成部401からの差分画像の画素値のヒストグラムに基づいて、ユーザ11の顔領域と、その他の領域を区別する画素値を閾値Q2(図23)として決定(設定)し、顔領域データ抽出部403に供給する。 The threshold setting unit 402 determines (sets) a pixel value that distinguishes the face area of the user 11 from other areas as a threshold Q 2 (FIG. 23) based on the pixel value histogram of the difference image from the histogram creation unit 401. And is supplied to the face area data extraction unit 403.

顔領域データ抽出部403は、閾値設定部402からの閾値Q2およびメモリ404に記憶されているテーブルに基づいて、差分画像のなかのユーザ11の顔領域を特定する。そして、顔領域データ抽出部403は、差分画像算出部21(図1)から供給される差分画像とともに、ユーザ11の顔領域を特定する顔領域情報を顔向き判定部23(図1)に供給する。 The face area data extraction unit 403 specifies the face area of the user 11 in the difference image based on the threshold value Q 2 from the threshold value setting unit 402 and the table stored in the memory 404. Then, the face area data extraction unit 403 supplies the face direction information for specifying the face area of the user 11 together with the difference image supplied from the difference image calculation unit 21 (FIG. 1) to the face orientation determination unit 23 (FIG. 1). To do.

図23および図24を参照して、図22の顔領域抽出部22が行う処理について説明する。   With reference to FIG. 23 and FIG. 24, the process which the face area extraction part 22 of FIG. 22 performs is demonstrated.

図23は、ヒストグラム作成部401により作成された差分画像の画素値のヒストグラムを示している。   FIG. 23 shows a histogram of pixel values of the difference image created by the histogram creation unit 401.

図23において、横軸は、画素値を表し、縦軸は、画素数(度数)を表している。   In FIG. 23, the horizontal axis represents the pixel value, and the vertical axis represents the number of pixels (frequency).

閾値設定部402は、初めに、差分画像の画素値のヒストグラムの極大値を検出する。図23では、画素値Q1の位置において、極大値411が検出される。なお、複数の極大値が検出された場合には、閾値設定部402は、検出された複数の極大値のなかで、画素数(度数)の一番大きい極大値(最大の極大値)を採用する。 First, the threshold setting unit 402 detects the maximum value of the histogram of the pixel values of the difference image. In FIG. 23, a maximum value 411 is detected at the position of the pixel value Q 1 . When a plurality of maximum values are detected, the threshold setting unit 402 employs the maximum value (maximum maximum value) having the largest number of pixels (frequency) among the detected plurality of maximum values. To do.

差分画像では、図11Cに示したように、背景領域(顔領域以外の領域)の画素値は、0かまたは0に近い数値となり、顔領域の画素値は、0から離れた値となるので、図23に示すように、画素値のヒストグラムは、0付近とそれ以外の画素値の2極に集中する(画素数が大きくなる)分布となる。   In the difference image, as shown in FIG. 11C, the pixel value of the background area (area other than the face area) is 0 or a value close to 0, and the pixel value of the face area is a value away from 0. As shown in FIG. 23, the pixel value histogram has a distribution in which the pixel value is concentrated in the vicinity of 0 and the other two pixel values (the number of pixels increases).

従って、差分画像の画素値のヒストグラムの極大値を検出する場合、画素値が0付近の極大値は明らかに背景領域となるので、検出される極大値は、0付近の所定の画素値以上であるという制約条件や、画素数(度数)が所定の値以上であるという制約条件を設けて、極大値を検出するようにすることも可能である。   Therefore, when detecting the maximum value of the histogram of the pixel values of the difference image, the maximum value near the pixel value of 0 is clearly the background region, and therefore the detected maximum value is equal to or greater than the predetermined pixel value near 0. It is also possible to detect the maximum value by providing a constraint condition that there is a certain number or a constraint condition that the number of pixels (frequency) is not less than a predetermined value.

閾値設定部402は、検出された極大値411を有する画素値Q1と画素値0との中間の画素値、即ち、検出された極大値411を有する画素値Q1の半分の画素値Q2を、ユーザ11の顔領域と、その他の領域を区別する閾値として決定し、顔領域データ抽出部403に供給する。 The threshold value setting unit 402 is an intermediate pixel value between the pixel value Q 1 having the detected maximum value 411 and the pixel value 0, that is, a pixel value Q 2 that is half of the pixel value Q 1 having the detected maximum value 411. Is determined as a threshold for distinguishing the face area of the user 11 from other areas, and is supplied to the face area data extraction unit 403.

顔領域データ抽出部403には、上述した閾値Q2が、閾値設定部402から供給される。顔領域データ抽出部403は、メモリ404に記憶されている、差分画像内の画素の位置と、その画素値とが対応付けられたテーブルを参照し、閾値Q2以上の画素値を有する差分画像の画素を特定する。 The threshold value Q 2 is supplied from the threshold value setting unit 402 to the face area data extraction unit 403. Facial area data extracting unit 403 is stored in the memory 404, the position of the pixel in the difference image, by referring to the table and the pixel value is associated differential image with a threshold Q 2 or more pixel values Identify the pixels.

図24は、ある差分画像421において、閾値設定部402から供給された閾値Q2以上の画素値を有する画素を示している。 FIG. 24 shows pixels having a pixel value equal to or higher than the threshold value Q 2 supplied from the threshold value setting unit 402 in a certain difference image 421.

図24において、差分画像421内の“○”または“×”は、差分画像421を構成している画素を表し、“○”で示されている画素は、閾値Q2以上の画素値を有していることを表し、“×”で示されている画素は、閾値Q2より小さい画素値を有していることを表す。 In Figure 24, the difference image 421 "○" or "×" represents the pixels constituting the difference image 421, the pixels indicated by "○", have a threshold Q 2 or more pixel values to indicate that is, the pixels indicated by "×", indicating that it has a threshold Q 2 is smaller than the pixel value.

顔領域データ抽出部403は、差分画像の水平方向および垂直方向のそれぞれについて、閾値Q2以上の画素値を有している画素(“○”で示されている画素)の上限値(最大の位置)および下限値(最小の位置)を決定する。 The face area data extraction unit 403 has an upper limit value (maximum value) of pixels (pixels indicated by “◯”) having a pixel value equal to or greater than the threshold value Q 2 for each of the horizontal direction and the vertical direction of the difference image. Position) and lower limit (minimum position).

図24に示す差分画像421では、顔領域抽出部403において、差分画像の水平方向に対して、閾値Q2以上の画素値を有している画素の上限値として、位置Xmbが決定され、閾値Q2以上の画素値を有している画素の下限値として、位置Xmaが決定される。 In the difference image 421 shown in FIG. 24, the face region extraction unit 403 determines the position X mb as the upper limit value of pixels having a pixel value equal to or greater than the threshold value Q 2 in the horizontal direction of the difference image. as the lower limit value of the pixel having a threshold Q 2 or more pixel values, the position X ma is determined.

また、差分画像の垂直方向に対して、閾値Q2以上の画素値を有している画素の上限値として、位置Ymbが決定され、閾値Q2以上の画素値を有している画素の下限値として、位置Ymaが決定される。 Further, the differential image with respect to the vertical direction, the upper limit value of the pixel having a threshold Q 2 or more pixel values, the position Y mb is determined, the pixels having a threshold Q 2 or more pixel values The position Y ma is determined as the lower limit value.

顔領域データ抽出部403は、図24において太線で示されている、Xma≦i≦Xmbの範囲とYma≦j≦Ymbの範囲とで囲まれる領域422を、ユーザ11の顔の領域であると特定する。 The face area data extraction unit 403 performs an area 422 surrounded by a range of X ma ≤ i ≤ X mb and a range of Y ma ≤ j ≤ Y mb , which are indicated by bold lines in FIG. Identify the region.

顔領域データ抽出部403は、ユーザ11の顔の領域を特定する、水平方向の位置XmaおよびXmbと、垂直方向の位置YmaおよびYmbとを、顔領域情報として、差分画像421とともに顔向き判定部23に供給する。 The face area data extraction unit 403 identifies the face area of the user 11 and uses the horizontal positions X ma and X mb and the vertical positions Y ma and Y mb as face area information together with the difference image 421. This is supplied to the face orientation determination unit 23.

図1の画像処理装置15において、顔領域抽出部22が、図7に示したように構成される代わりに、図22に示したように構成される場合、上述した図20および図21の処理では、ステップS4において、ヒストグラム作成部401が、差分画像の画素値のヒストグラムを作成し、閾値設定部402に供給するとともに、差分画像の各画素について、画素の位置と画素値とが対応付けられたテーブルを生成し、メモリ404に供給する。   In the image processing apparatus 15 of FIG. 1, when the face area extraction unit 22 is configured as shown in FIG. 22 instead of being configured as shown in FIG. 7, the processing of FIG. 20 and FIG. In step S4, the histogram creation unit 401 creates a histogram of pixel values of the difference image and supplies the histogram to the threshold setting unit 402, and the pixel position and the pixel value are associated with each pixel of the difference image. The generated table is generated and supplied to the memory 404.

ステップS5において、閾値設定部402は、差分画像の画素値のヒストグラムに基づいて、ユーザ11の顔領域と、その他の領域を区別する閾値Q2を決定し、顔領域データ抽出部403に供給する。 In step S <b> 5, the threshold setting unit 402 determines a threshold Q 2 for distinguishing the face area of the user 11 from the other areas based on the pixel value histogram of the difference image, and supplies the threshold value Q 2 to the face area data extraction unit 403. .

ステップS6において、顔領域データ抽出部403は、閾値設定部402からの閾値Q2およびメモリ404に記憶されているテーブルに基づいて、差分画像のなかのユーザ11の顔領域の位置を特定する。そして、顔領域データ抽出部403は、差分画像算出部21(図1)から供給される差分画像とともに、ユーザ11の顔領域を特定する顔領域情報を顔向き判定部23(図1)に供給する。 In step S6, the face area data extracting unit 403, based on the table stored in the threshold Q 2 and memory 404 from the threshold setting unit 402 specifies the position of the face region of the user 11 within the difference image. Then, the face area data extraction unit 403 supplies the face direction information for specifying the face area of the user 11 together with the difference image supplied from the difference image calculation unit 21 (FIG. 1) to the face orientation determination unit 23 (FIG. 1). To do.

上述したステップS4乃至S6の処理を除く、ステップS1乃至S3およびS7乃至S23の処理については、同様の処理を行うので、その説明を省略する。   Since the same processes are performed for the processes of steps S1 to S3 and S7 to S23, excluding the processes of steps S4 to S6 described above, the description thereof is omitted.

以上のように、画像処理装置15の顔領域抽出部22を図22に示す構成とした場合でも、画像処理装置15は、顔画像の認識に最適な撮像画像だけを出力するとともに、出力される撮像画像の顔領域、目の領域、鼻の領域、口の領域、および目、鼻、口の代表点を出力する。これにより、画像処理装置15からの出力を受ける装置では、顔画像の認識処理を容易に、かつ正確に行うことができる。   As described above, even when the face area extraction unit 22 of the image processing device 15 is configured as shown in FIG. 22, the image processing device 15 outputs and outputs only the captured image that is optimal for recognition of the face image. The face area, eye area, nose area, mouth area, and representative points of the eyes, nose, and mouth of the captured image are output. As a result, the device that receives the output from the image processing device 15 can easily and accurately perform the facial image recognition processing.

上述した実施の形態では、図10に示したように、照明装置13は、ユーザ11の顔に対して前方斜め下の方向から光を照射するように配置されることとしたが、図25に示すように、ユーザ11の顔に対して前方斜め上の方向から光を照射するように、照明装置13を配置してもよい。また、ユーザ11の顔と水平な高さで、斜め左前方および斜め右前方の両方から光を照射するように、照明装置13を配置してもよい。   In the above-described embodiment, as shown in FIG. 10, the illumination device 13 is arranged so as to irradiate light from the front obliquely lower direction with respect to the face of the user 11. As shown, the illuminating device 13 may be arranged so as to irradiate the face of the user 11 from a diagonally upper front direction. Moreover, you may arrange | position the illuminating device 13 so that light may be irradiated from both diagonal left front and diagonal right front with the user's 11 face and horizontal height.

また、上述した実施の形態では、認識対象として人(ユーザ)の顔の領域を認識する例について説明したが、その他、動物の顔などを認識対象とすることも可能である。   In the above-described embodiment, an example of recognizing a human (user) face area as a recognition target has been described. However, an animal face or the like can also be set as a recognition target.

図20および図21に示した処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この処理をソフトウエアによって行う場合、例えば、一連の処理は、図26に示されるような(パーソナル)コンピュータにプログラムを実行させることにより実現することができる。   The processing shown in FIGS. 20 and 21 can be executed by dedicated hardware or can be executed by software. When this processing is performed by software, for example, a series of processing can be realized by causing a (personal) computer as shown in FIG. 26 to execute a program.

図26において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 26, a CPU (Central Processing Unit) 501 executes various processes in accordance with a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 into a RAM (Random Access Memory) 503. To do. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、バス504を介して相互に接続されている。このバス504にはまた、入出力インタフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via a bus 504. An input / output interface 505 is also connected to the bus 504.

入出力インタフェース505には、キーボード、マウスなどよりなる入力部506、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、ターミナルアダプタ、ADSL(Asymmetric Digital Subscriber Line)モデムや、LAN (Local Area Network)カード等より構成される通信部509が接続されている。通信部509は、インターネットなどの各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal display), an output unit 507 including a speaker, and a hard disk. A communication unit 509 including a storage unit 508, a terminal adapter, an ADSL (Asymmetric Digital Subscriber Line) modem, a LAN (Local Area Network) card, and the like is connected. A communication unit 509 performs communication processing via various networks such as the Internet.

入出力インタフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、或いは半導体メモリなどのリムーバブルメディア(記録媒体)521が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is connected to the input / output interface 505 as necessary, and a magnetic disk (including a floppy disk), an optical disk (including a CD-ROM (Compact Disk-Read Only Memory) and a DVD (Digital Versatile Disk)). In addition, a removable medium (recording medium) 521 such as a magneto-optical disk (including MD (Mini-Disk)) or a semiconductor memory is appropriately mounted, and a computer program read from these is stored in the storage unit 508 as necessary. Installed.

なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. It also includes processing.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image processing system to which this invention is applied. 画像処理装置15が行う処理の概要を説明する図である。It is a figure explaining the outline | summary of the process which the image processing apparatus 15 performs. 画像処理装置15が行う処理の概要を説明する図である。It is a figure explaining the outline | summary of the process which the image processing apparatus 15 performs. 図1の撮像装置12の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the imaging device 12 of FIG. 対数変換型撮像素子の感度特性を説明する図である。It is a figure explaining the sensitivity characteristic of a logarithm conversion type image sensor. 図1の差分画像算出部21の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the difference image calculation part 21 of FIG. 図1の顔領域抽出部22の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the face area extraction part 22 of FIG. 図1の顔向き判定部23の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the face direction determination part 23 of FIG. 図1の顔器官抽出部24の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the face organ extraction part 24 of FIG. ユーザ11に対する光の照射方向を説明する図である。It is a figure explaining the irradiation direction of the light with respect to the user. 差分画像算出部21の処理を説明する図である。It is a figure explaining the process of the difference image calculation part. 顔領域抽出部22の処理を説明する図である。It is a figure explaining the process of the face area extraction part. 顔向き判定部23の処理を説明する図である。It is a figure explaining the process of the face orientation determination part. 顔器官抽出部24の画像分離部103の処理を説明する図である。It is a figure explaining the process of the image separation part 103 of the facial organ extraction part 24. FIG. 顔器官抽出部24の画像分離部103の処理を説明する図である。It is a figure explaining the process of the image separation part 103 of the facial organ extraction part 24. FIG. 画素値加算部111、画素値加算部121、および画素値加算部131の処理を説明する図である。It is a figure explaining the process of the pixel value addition part 111, the pixel value addition part 121, and the pixel value addition part 131. FIG. 目画像処理部104の処理を説明する図である。It is a figure explaining the process of the eye image process part. 鼻画像処理部105の処理を説明する図である。It is a figure explaining the process of the nose image process part. 口画像処理部106の処理を説明する図である。It is a figure explaining the process of the mouth image process part. 画像処理装置15の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the image processing apparatus 15. 画像処理装置15の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the image processing apparatus 15. 図1の顔領域抽出部22のその他の実施の形態を示すブロック図である。It is a block diagram which shows other embodiment of the face area extraction part 22 of FIG. 図22の顔領域抽出部22が行う処理について説明する図である。It is a figure explaining the process which the face area extraction part 22 of FIG. 22 performs. 図22の顔領域抽出部22が行う処理について説明する図である。It is a figure explaining the process which the face area extraction part 22 of FIG. 22 performs. ユーザ11に対する光の照射方向を説明する図である。It is a figure explaining the irradiation direction of the light with respect to the user. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

1 画像処理システム, 12 撮像装置, 13 照明装置, 15 画像処理装置, 21 差分画像算出部, 22 顔領域抽出部, 23 顔向き判定部, 24 顔器官抽出部, 61 画像取得部, 64 差分処理部, 65 フィルタ処理部, 71 画素値加算部, 72 閾値設定部, 73 顔領域データ抽出部, 81 画素値加算部, 82 中心位置検出部, 83 判定部, 101 画素値加算部, 103 目・鼻・口画像分離部103, 104 目画像処理部, 105 鼻画像処理部, 106 口画像処理部, 111 画素値加算部, 112 目領域抽出部, 113 代表点決定部, 121 画素値加算部, 122 鼻領域抽出部, 123 代表点決定部, 131 画素値加算部, 132 口領域抽出部, 133 代表点決定部   DESCRIPTION OF SYMBOLS 1 Image processing system, 12 Imaging device, 13 Illumination device, 15 Image processing device, 21 Difference image calculation part, 22 Face area extraction part, 23 Face direction determination part, 24 Face organ extraction part, 61 Image acquisition part, 64 Difference process Unit, 65 filter processing unit, 71 pixel value addition unit, 72 threshold value setting unit, 73 face area data extraction unit, 81 pixel value addition unit, 82 center position detection unit, 83 determination unit, 101 pixel value addition unit, 103th Nose / mouth image separation unit 103, 104 eye image processing unit, 105 nose image processing unit, 106 mouth image processing unit, 111 pixel value adding unit, 112 eye region extracting unit, 113 representative point determining unit, 121 pixel value adding unit, 122 nose region extracting unit, 123 representative point determining unit, 131 pixel value adding unit, 132 mouth region extracting unit, 133 representative Determining unit

Claims (9)

認識対象となる顔を含む顔画像を処理する画像処理装置において、
照明手段が前記顔に光を照射していない状態で、撮像手段により前記顔が撮像された画像である第1の画像と、前記照明手段が前記顔に光を照射している状態で、前記撮像手段により前記顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である前記顔画像を取得する顔画像取得手段と、
前記顔画像取得手段により取得された前記顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する画素値加算手段と、
前記差分画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記顔画像を、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離する分離手段と、
前記分離手段により分離された前記目画像から、前記目の領域を抽出する処理を行う目領域処理手段と、
前記分離手段により分離された前記鼻画像から、前記鼻の領域を抽出する処理を行う鼻領域処理手段と、
前記分離手段により分離された前記口画像から、前記口の領域を抽出する処理を行う口領域処理手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that processes a face image including a face to be recognized,
In a state where the illumination unit is not irradiating light on the face, the first image which is an image obtained by imaging the face by the imaging unit, and the illumination unit irradiating light on the face, A face image acquisition means for acquiring the face image, which is a difference image consisting of a difference in pixel value from a second image that is an image obtained by imaging the face by the imaging means;
Pixel value addition means for calculating a pixel addition value by adding pixel values for each horizontal or vertical column of the face image acquired by the face image acquisition means;
Using the pixel addition value for each column in the horizontal or vertical direction of the difference image, the face image is an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region. Separating means for separating into
Eye region processing means for performing processing for extracting the eye region from the eye image separated by the separation means;
Nose region processing means for performing processing for extracting the nose region from the nose image separated by the separation means;
An image processing apparatus comprising: mouth area processing means for performing processing for extracting the mouth area from the mouth image separated by the separating means.
前記目領域処理手段は、
前記目画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する目画像画素値加算手段と、
前記目画像画素値加算手段により得られる、前記目画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記目の領域を抽出する目領域抽出手段と、
前記目領域抽出手段により抽出された前記目の領域から、目の位置を代表する代表点を決定する目代表点決定手段と
を有する
ことを特徴とする請求項1に記載の画像処理装置。
The eye area processing means
Eye image pixel value addition means for calculating a pixel addition value by adding a pixel value for each column in the horizontal or vertical direction with respect to the eye image;
Eye area extraction means for extracting the eye area using the pixel addition value for each column in the horizontal or vertical direction of the eye image obtained by the eye image pixel value addition means;
The image processing apparatus according to claim 1, further comprising: an eye representative point determining unit that determines a representative point representing the position of the eye from the eye region extracted by the eye region extracting unit.
前記鼻領域処理手段は、
前記鼻画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する鼻画像画素値加算手段と、
前記鼻画像画素値加算手段により得られる、前記鼻画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記鼻の領域を抽出する鼻領域抽出手段と、
前記鼻領域抽出手段により抽出された前記鼻の領域から、鼻の位置を代表する代表点を決定する鼻代表点決定手段と
を有する
ことを特徴とする請求項1に記載の画像処理装置。
The nose region processing means includes
Nose image pixel value addition means for calculating a pixel addition value by adding a pixel value for each column in the horizontal or vertical direction with respect to the nose image;
A nose region extraction means for extracting the nose region using the pixel addition value for each column in the horizontal or vertical direction of the nose image obtained by the nose image pixel value addition means;
The image processing apparatus according to claim 1, further comprising: a nose representative point determining unit that determines a representative point representing the position of the nose from the nose region extracted by the nose region extracting unit.
前記口領域処理手段は、
前記口画像に対して、水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する口画像画素値加算手段と、
前記口画像画素値加算手段により得られる、前記口画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記口の領域を抽出する口領域抽出手段と、
前記口領域抽出手段により抽出された前記口の領域から、口の位置を代表する代表点を決定する口代表点決定手段と
を有する
ことを特徴とする請求項1に記載の画像処理装置。
The mouth area processing means includes
Mouth image pixel value addition means for calculating a pixel addition value obtained by adding a pixel value for each column in the horizontal or vertical direction with respect to the mouth image;
Mouth area extracting means for extracting the mouth area using the pixel added value for each column in the horizontal or vertical direction of the mouth image obtained by the mouth image pixel value adding means;
The image processing apparatus according to claim 1, further comprising: a mouth representative point determining unit that determines a representative point representing the position of the mouth from the mouth region extracted by the mouth region extracting unit.
前記第1および第2の画像は、半導体のサブスレッショルド特性を利用して、入射光量の対数にほぼ比例した画素値を出力する対数変換型の撮像素子を有する前記撮像手段により撮像される
ことを特徴とする請求項1に記載の画像処理装置。
The first and second images are picked up by the image pickup means having a logarithmic conversion type image pickup device that outputs a pixel value substantially proportional to the logarithm of the incident light amount by utilizing a sub-threshold characteristic of a semiconductor. The image processing apparatus according to claim 1, wherein:
前記撮像素子は、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor))である
ことを特徴とする請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, wherein the imaging element is an HDRC (High Dynamic Range CMOS (Complementary Metal Oxide Semiconductor)).
認識対象となる顔を含む顔画像を処理する画像処理装置の画像処理方法において、
照明手段が前記顔に光を照射していない状態で、撮像手段により前記顔が撮像された画像である第1の画像と、前記照明手段が前記顔に光を照射している状態で、前記撮像手段により前記顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である前記顔画像を取得する顔画像取得ステップと、
前記顔画像取得ステップの処理により取得された前記顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する画素値加算ステップと、
前記差分画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記顔画像を、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離する分離ステップと、
前記分離ステップの処理により分離された前記目画像から、前記目の領域を抽出する処理を行う目領域処理ステップと、
前記分離ステップの処理により分離された前記鼻画像から、前記鼻の領域を抽出する処理を行う鼻領域処理ステップと、
前記分離ステップの処理により分離された前記口画像から、前記口の領域を抽出する処理を行う口領域処理ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing apparatus that processes a face image including a face to be recognized,
In a state where the illumination unit is not irradiating light on the face, the first image which is an image obtained by imaging the face by the imaging unit, and the illumination unit irradiating light on the face, A face image acquisition step of acquiring the face image that is a difference image composed of a difference in pixel value from a second image that is an image in which the face is imaged by an imaging unit;
A pixel value addition step of calculating a pixel addition value obtained by adding a pixel value for each column in the horizontal or vertical direction of the face image acquired by the processing of the face image acquisition step;
Using the pixel addition value for each column in the horizontal or vertical direction of the difference image, the face image is an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region. A separation step of separating into,
An eye region processing step for performing processing for extracting the eye region from the eye image separated by the processing of the separation step;
A nose region processing step for performing processing for extracting the nose region from the nose image separated by the processing of the separation step;
A mouth region processing step for performing processing for extracting the mouth region from the mouth image separated by the processing in the separation step.
認識対象となる顔を含む顔画像に対する処理を、コンピュータに実行させるプログラムにおいて、
照明手段が前記顔に光を照射していない状態で、撮像手段により前記顔が撮像された画像である第1の画像と、前記照明手段が前記顔に光を照射している状態で、前記撮像手段により前記顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である前記顔画像を取得する顔画像取得ステップと、
前記顔画像取得ステップの処理により取得された前記顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する画素値加算ステップと、
前記差分画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記顔画像を、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離する分離ステップと、
前記分離ステップの処理により分離された前記目画像から、前記目の領域を抽出する処理を行う目領域処理ステップと、
前記分離ステップの処理により分離された前記鼻画像から、前記鼻の領域を抽出する処理を行う鼻領域処理ステップと、
前記分離ステップの処理により分離された前記口画像から、前記口の領域を抽出する処理を行う口領域処理ステップと
を含むことを特徴とするプログラム。
In a program for causing a computer to execute processing on a face image including a face to be recognized,
In a state where the illumination unit is not irradiating light on the face, the first image which is an image obtained by imaging the face by the imaging unit, and the illumination unit irradiating light on the face, A face image acquisition step of acquiring the face image that is a difference image composed of a difference in pixel value from a second image that is an image in which the face is imaged by an imaging unit;
A pixel value addition step of calculating a pixel addition value obtained by adding a pixel value for each column in the horizontal or vertical direction of the face image acquired by the processing of the face image acquisition step;
Using the pixel addition value for each column in the horizontal or vertical direction of the difference image, the face image is an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region. A separation step of separating into,
An eye region processing step for performing processing for extracting the eye region from the eye image separated by the processing of the separation step;
A nose region processing step for performing processing for extracting the nose region from the nose image separated by the processing of the separation step;
A mouth area processing step for performing a process of extracting the mouth area from the mouth image separated by the process of the separation step.
認識対象となる顔を含む顔画像に対する処理を、コンピュータに実行させるプログラムが記録されている記録媒体において、
照明手段が前記顔に光を照射していない状態で、撮像手段により前記顔が撮像された画像である第1の画像と、前記照明手段が前記顔に光を照射している状態で、前記撮像手段により前記顔が撮像された画像である第2の画像との画素値の差分からなる差分画像である前記顔画像を取得する顔画像取得ステップと、
前記顔画像取得ステップの処理により取得された前記顔画像の水平または垂直方向それぞれの列ごとに画素値を加算した画素加算値を算出する画素値加算ステップと、
前記差分画像の水平または垂直方向それぞれの列ごとの前記画素加算値を用いて、前記顔画像を、目の領域を含む目画像、鼻の領域を含む鼻画像、および口の領域を含む口画像に分離する分離ステップと、
前記分離ステップの処理により分離された前記目画像から、前記目の領域を抽出する処理を行う目領域処理ステップと、
前記分離ステップの処理により分離された前記鼻画像から、前記鼻の領域を抽出する処理を行う鼻領域処理ステップと、
前記分離ステップの処理により分離された前記口画像から、前記口の領域を抽出する処理を行う口領域処理ステップと
を含むことを特徴とするプログラムが記録されている記録媒体。
In a recording medium on which a program for causing a computer to execute processing on a face image including a face to be recognized is recorded,
In a state where the illumination unit is not irradiating light on the face, the first image which is an image obtained by imaging the face by the imaging unit, and the illumination unit irradiating light on the face, A face image acquisition step of acquiring the face image that is a difference image composed of a difference in pixel value from a second image that is an image in which the face is imaged by an imaging unit;
A pixel value addition step of calculating a pixel addition value obtained by adding a pixel value for each column in the horizontal or vertical direction of the face image acquired by the processing of the face image acquisition step;
Using the pixel addition value for each column in the horizontal or vertical direction of the difference image, the face image is an eye image including an eye region, a nose image including a nose region, and a mouth image including a mouth region. A separation step of separating into,
An eye region processing step for performing processing for extracting the eye region from the eye image separated by the processing of the separation step;
A nose region processing step for performing processing for extracting the nose region from the nose image separated by the processing of the separation step;
A mouth area processing step for performing processing for extracting the mouth area from the mouth image separated by the processing of the separation step. A recording medium on which a program is recorded.
JP2005073755A 2005-03-15 2005-03-15 Image processing apparatus and method, recording medium, and program Expired - Fee Related JP4636314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005073755A JP4636314B2 (en) 2005-03-15 2005-03-15 Image processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005073755A JP4636314B2 (en) 2005-03-15 2005-03-15 Image processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2006259902A true JP2006259902A (en) 2006-09-28
JP4636314B2 JP4636314B2 (en) 2011-02-23

Family

ID=37099123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005073755A Expired - Fee Related JP4636314B2 (en) 2005-03-15 2005-03-15 Image processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4636314B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097536A (en) * 2006-10-16 2008-04-24 Matsushita Electric Works Ltd User authentication apparatus
WO2020121650A1 (en) * 2018-12-13 2020-06-18 オムロン株式会社 Eye opening/closing detection device and occupant monitoring device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07506932A (en) * 1992-03-24 1995-07-27 インスティチュートゥ フェア ミクロエレクトロニック シュトゥットガルト Image cells especially for image recording chips
JPH10222285A (en) * 1997-01-31 1998-08-21 Toshiba Corp Image extracting device
JP2004234367A (en) * 2003-01-30 2004-08-19 Fujitsu Ltd Device and method for detecting direction of face and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07506932A (en) * 1992-03-24 1995-07-27 インスティチュートゥ フェア ミクロエレクトロニック シュトゥットガルト Image cells especially for image recording chips
JPH10222285A (en) * 1997-01-31 1998-08-21 Toshiba Corp Image extracting device
JP2004234367A (en) * 2003-01-30 2004-08-19 Fujitsu Ltd Device and method for detecting direction of face and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097536A (en) * 2006-10-16 2008-04-24 Matsushita Electric Works Ltd User authentication apparatus
WO2020121650A1 (en) * 2018-12-13 2020-06-18 オムロン株式会社 Eye opening/closing detection device and occupant monitoring device
JP2020095499A (en) * 2018-12-13 2020-06-18 オムロン株式会社 Eye opening and closing detection apparatus, and driver monitoring apparatus
JP7212251B2 (en) 2018-12-13 2023-01-25 オムロン株式会社 Eye opening/closing detection device, occupant monitoring device

Also Published As

Publication number Publication date
JP4636314B2 (en) 2011-02-23

Similar Documents

Publication Publication Date Title
JP2006259900A (en) Image processing system, image processor and processing method, recording medium, and program
KR101142316B1 (en) Image selection device and method for selecting image
JP4678487B2 (en) Image processing system, image processing apparatus and method, recording medium, and program
CN108111749B (en) Image processing method and device
TWI414179B (en) Shooting parameter adjustment method for face detection and image capturing device for face detection
CN113766125B (en) Focusing method and device, electronic equipment and computer readable storage medium
JP4004634B2 (en) Face image eye position detection apparatus and method
JPH11288459A (en) Method and device for detecting area such as face and observer tracking display
JP2011514563A (en) Face tracking in camera processor
JP2000082147A (en) Method for detecting human face and device therefor and observer tracking display
JP2008234208A (en) Facial region detection apparatus and program
JP2007097178A (en) Method for removing &#34;red-eyes&#34; by face detection
JP2009522948A (en) Automatic flicker correction in image capture devices
JP2008113902A (en) Apparatus and method for detecting eye opening degree
JPWO2006098358A1 (en) Image processing apparatus and method, program, and recording medium
US20120121129A1 (en) Image processing apparatus
JP5826001B2 (en) Image processing apparatus and control method thereof
KR20160030361A (en) Image correcting apparatus, image correcting method and computer program stored in recording medium
US20200380649A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
JP2009123081A (en) Face detection method and photographing apparatus
JP4636314B2 (en) Image processing apparatus and method, recording medium, and program
JP4687955B2 (en) Image processing apparatus and method, recording medium, and program
JP2011071925A (en) Mobile tracking apparatus and method
CN107911609B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
JP2009124309A (en) Image device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees