JP2009017215A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2009017215A
JP2009017215A JP2007176465A JP2007176465A JP2009017215A JP 2009017215 A JP2009017215 A JP 2009017215A JP 2007176465 A JP2007176465 A JP 2007176465A JP 2007176465 A JP2007176465 A JP 2007176465A JP 2009017215 A JP2009017215 A JP 2009017215A
Authority
JP
Japan
Prior art keywords
face
face information
subject
image data
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007176465A
Other languages
Japanese (ja)
Other versions
JP4891163B2 (en
JP2009017215A5 (en
Inventor
Atsushi Inagaki
温 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007176465A priority Critical patent/JP4891163B2/en
Publication of JP2009017215A publication Critical patent/JP2009017215A/en
Publication of JP2009017215A5 publication Critical patent/JP2009017215A5/ja
Application granted granted Critical
Publication of JP4891163B2 publication Critical patent/JP4891163B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method, and an image processing program which are capable of quickly and precisely deducing the expression on the face of a subject. <P>SOLUTION: The image processing apparatus includes a means for acquiring images of the subject, with prescribed resolutions at a plurality of different timings; a means for detecting face areas from the images of the subject; a means for extracting information relating to shapes of components of the subject's face from the face areas; a means for selecting reference face information being a reference for estimating the expression from face information; and an expression estimation means for estimating the expression on the subject's face, on the basis of reference face information. First, a reference facial information is generated from an image photographed by a first resolution; next a second facial information relating to shapes of components of the subject's face is extracted from an image photographed at a second resolution which is lower than the first resolution; and then, the reference face information and the second face information are compared, to deduce the expression on the subject's face by the expression estimation means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

近年、顔の表情、特に人物の顔の表情を検出する技術が開発されつつある。一般的に、カメラで人物を撮影する際には、被写体である人物の表情が笑顔などの良い表情のタイミングで撮影することが望まれることが多い。そのため、デジタルカメラへの表情検出技術の応用が検討されている。   In recent years, techniques for detecting facial expressions, particularly human facial expressions, are being developed. In general, when a person is photographed with a camera, it is often desired that the facial expression of the person who is the subject is photographed with a good expression such as a smile. Therefore, the application of facial expression detection technology to digital cameras is being studied.

特許文献1に示す技術では、予め表情認識処理に使用するための無表情の参照画像から複数の第1の特徴点を抽出した後、第1の特徴点間の距離を算出する。また、判定対象の画像から複数の第2の特徴点を抽出した後、第2の特徴点間の距離を算出する。そして、第1の特徴点間の距離と第2の特徴点間の距離との差分値を算出することにより表情を判定する。
特開2005−56388号公報
In the technique disclosed in Patent Document 1, a plurality of first feature points are extracted from an expressionless reference image for use in facial expression recognition processing in advance, and a distance between the first feature points is calculated. Further, after extracting a plurality of second feature points from the determination target image, a distance between the second feature points is calculated. Then, the facial expression is determined by calculating a difference value between the distance between the first feature points and the distance between the second feature points.
JP 2005-56388 A

良い表情と判定した時にシャッターチャンスを逃さず撮影するには、被写体の顔の表情を高速に推定する必要がある。被写体の顔の表情を高速に推定するには、取得される画像データの解像度を下げ、処理するデータ量を少なくし、処理時間を短くすることが考えられる。   To shoot without missing a photo opportunity when it is determined that the facial expression is good, it is necessary to estimate the facial expression of the subject at high speed. In order to estimate the facial expression of the subject at high speed, it is conceivable to reduce the resolution of the acquired image data, reduce the amount of data to be processed, and shorten the processing time.

ここで、取得される画像データの解像度を下げることにより、表情を推定する際に用いる顔の特徴点の抽出数が減少し、被写体の顔の表情を推定する精度が落ちる可能性がある。   Here, by lowering the resolution of the acquired image data, the number of facial feature points used for estimating the facial expression may be reduced, which may reduce the accuracy of estimating the facial expression of the subject.

本発明の課題は、高速で高精度に被写体の顔の表情を推定することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することにある。   An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of estimating the facial expression of a subject at high speed and with high accuracy.

本発明の第1側面に係る画像処理装置は、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する取得手段と、前記取得手段により取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する顔領域検出手段と、前記顔領域検出手段により検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する顔情報抽出手段と、前記顔情報抽出手段により抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する顔情報選択手段と、前記基準顔情報に基づいて、前記被写体の顔の表情を推定する表情推定手段とを備え、前記取得手段は、前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得し、前記顔領域検出手段は、前記取得手段により取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出し、前記顔情報抽出手段は、前記顔領域検出手段により検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出し、前記表情推定手段は、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定することを特徴とする。   An image processing apparatus according to a first aspect of the present invention is configured to acquire first image data obtained by imaging a subject at a plurality of different timings at a first resolution, and acquired by the acquisition unit. In each of the plurality of first image data, a face area detection unit that detects a first face area of the subject, and a plurality of the first face areas detected by the face area detection unit, Face information extraction means for extracting first face information related to the shape of the constituent elements of the face of the subject, and the facial expression of the subject from the plurality of first face information extracted by the face information extraction means. Face information selection means for selecting reference face information serving as a reference for estimation, and facial expression estimation means for estimating a facial expression of the subject based on the reference face information, wherein the acquisition means includes the reference Face Is selected, the second image data obtained by imaging the subject is acquired at a second resolution lower than the first resolution, and the face area detecting means is acquired by the acquiring means. A second face area of the subject is detected in the second image data, and the face information extracting means detects the face of the subject from the second face area detected by the face area detecting means. Second facial information related to the shape of the component is extracted, and the facial expression estimating means compares the reference facial information with the second facial information, and compares the reference facial information with the second facial information. It is characterized by estimating facial expressions.

本発明の第2側面に係る画像処理方法は、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップとを備えたことを特徴とする。   The image processing method according to the second aspect of the present invention includes a first acquisition step of acquiring, at a first resolution, first image data obtained by imaging a subject at a plurality of different timings; In each of the plurality of first image data acquired in the acquisition step, the first face area detection step for detecting the first face area of the subject and the first face area detection step detected. A first face information extraction step for extracting first face information related to the shape of the constituent elements of the face of the subject from each of the plurality of first face regions, and the first face information extraction step. A first face information selection step of selecting reference face information serving as a reference for estimating a facial expression of the subject from the plurality of first face information; and the first face information selection step; Reference face information is selected After that, the second acquisition step of acquiring the second image data obtained by imaging the subject at a second resolution lower than the first resolution is acquired at the second acquisition step. In the second image data, the second face area detecting step for detecting the second face area of the subject, and the second face area detected in the second face area detecting step, A second face information extracting step for extracting second face information related to the shape of the constituent element of the subject's face is compared with the second face information by comparing the reference face information and the second face information. And a facial expression estimation step for estimating the facial expression of the subject corresponding to.

本発明の第3側面に係る画像処理プログラムは、画像処理装置に、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップとを実行させることを特徴とする。   An image processing program according to a third aspect of the present invention includes a first acquisition step of acquiring, at a first resolution, first image data obtained by imaging an object at a plurality of different timings in an image processing apparatus. A first face area detecting step for detecting a first face area of the subject in each of the plurality of first image data obtained in the first obtaining step; and the first face area detection. A first face information extracting step of extracting first face information relating to the shape of a constituent element of the face of the subject from each of the plurality of first face regions detected in the step; and the first face information A first face information selection step of selecting reference face information as a reference for estimating the facial expression of the subject from the plurality of first face information extracted in the extraction step; and the first face Information selection step A second acquisition step of acquiring second image data obtained by imaging the subject at a second resolution lower than the first resolution after the reference face information is selected in In the second image data acquired in the second acquisition step, a second face area detection step for detecting a second face area of the subject, and the detection in the second face area detection step. A second face information extracting step for extracting second face information relating to the shape of a constituent element of the subject's face from a second face area; and comparing the reference face information and the second face information. A facial expression estimation step of estimating a facial expression of the subject corresponding to the second facial information.

本発明によれば、高速で高精度に被写体の顔の表情を推定することができる。   According to the present invention, the facial expression of a subject can be estimated at high speed and with high accuracy.

本発明の実施形態に係る画像処理装置100について、図1を参照して説明する。図1は、本発明の実施形態に係る画像処理装置100の構成図である。   An image processing apparatus 100 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a configuration diagram of an image processing apparatus 100 according to an embodiment of the present invention.

画像処理装置100は、例えば、デジタルカメラである。画像処理装置100は、以下の構成要素を備える。   The image processing apparatus 100 is a digital camera, for example. The image processing apparatus 100 includes the following components.

保護手段102は、例えばバリアである。保護手段102は、外部と撮影レンズ10との間に配置され、撮影レンズ10を保護する。シャッター12は、撮影レンズ10と後述の光電変換手段14との間に配置され、撮影レンズ10から光電変換手段14へ導かれる光量を絞るための絞り機能を有する。   The protection means 102 is, for example, a barrier. The protection unit 102 is disposed between the outside and the photographing lens 10 to protect the photographing lens 10. The shutter 12 is disposed between the photographing lens 10 and a photoelectric conversion unit 14 described later, and has a diaphragm function for reducing the amount of light guided from the photographing lens 10 to the photoelectric conversion unit 14.

取得手段17は、光電変換手段14、読み出し手段15、及びA/D変換手段16を含む。光電変換手段14は、被写体の光学像を光電変換して画像信号を生成する。読み出し手段15は、光電変換手段14から画像信号を読み出す。A/D変換手段16は、読み出し手段15により読み出された画像信号をA/D変換して画像データを生成する。   The acquisition unit 17 includes a photoelectric conversion unit 14, a reading unit 15, and an A / D conversion unit 16. The photoelectric conversion means 14 generates an image signal by photoelectrically converting the optical image of the subject. The reading unit 15 reads an image signal from the photoelectric conversion unit 14. The A / D conversion unit 16 A / D converts the image signal read by the reading unit 15 to generate image data.

ここで、取得手段17は、異なる複数のタイミングで被写体を撮像して、被写体の複数の第1の画像データを第1の解像度で取得する。すなわち、光電変換手段14は、被写体の光学像を光電変換して第1の画像信号を生成する。読み出し手段15は、光電変換手段14から第1の画像信号を第1の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第1の画像信号をA/D変換して第1の画像データを生成する。第1の画像データは、その解像度が第1の解像度になっている。これらの動作が異なる複数のタイミングで行われて、複数の第1の画像データが第1の解像度で取得される。   Here, the acquisition means 17 images a subject at a plurality of different timings, and acquires a plurality of first image data of the subject at a first resolution. That is, the photoelectric conversion unit 14 photoelectrically converts the optical image of the subject to generate a first image signal. The readout unit 15 reads out the first image signal from the photoelectric conversion unit 14 with the first number of pixels. The A / D conversion unit 16 A / D converts the first image signal read by the reading unit 15 to generate first image data. The resolution of the first image data is the first resolution. These operations are performed at a plurality of different timings, and a plurality of first image data are acquired at the first resolution.

また、取得手段17は、被写体を撮像して、被写体の第2の画像データを、第1の解像度よりも低い第2の解像度で取得する。すなわち、光電変換手段14は、被写体の光学像を光電変換して第2の画像信号を生成する。読み出し手段15は、光電変換手段14から第2の画像信号を、第1の画素数より少ない第2の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第2の画像信号をA/D変換して第2の画像データを生成する。第2の画像データは、その解像度が第2の解像度になっている。   The acquisition unit 17 captures the subject and acquires second image data of the subject at a second resolution lower than the first resolution. That is, the photoelectric conversion unit 14 photoelectrically converts the optical image of the subject to generate a second image signal. The reading unit 15 reads the second image signal from the photoelectric conversion unit 14 with a second number of pixels smaller than the first number of pixels. The A / D conversion unit 16 A / D converts the second image signal read by the reading unit 15 to generate second image data. The resolution of the second image data is the second resolution.

タイミング発生部18は、メモリ制御部22及びシステム制御部50により制御されて、光電変換手段14、読み出し手段15、A/D変換手段16、後述のD/A変換器26にクロック信号や制御信号を供給する。   The timing generation unit 18 is controlled by the memory control unit 22 and the system control unit 50, and supplies a clock signal and a control signal to the photoelectric conversion unit 14, the reading unit 15, the A / D conversion unit 16, and a D / A converter 26 described later. Supply.

画像処理部20は、A/D変換手段16からのデータ或いはメモリ制御部22からのデータに対して、所定の画素補間処理や色変換処理を行う。   The image processing unit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D conversion unit 16 or the data from the memory control unit 22.

また、画像処理部20は、A/D変換手段16等から受け取った画像データを用いて所定の演算処理を行い、得られた演算結果をシステム制御部50へ供給する。これにより、システム制御部50は、露光制御手段40、測距制御手段42に対して制御を行い、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行っている。   The image processing unit 20 performs predetermined calculation processing using the image data received from the A / D conversion unit 16 and the like, and supplies the obtained calculation result to the system control unit 50. As a result, the system control unit 50 controls the exposure control means 40 and the distance measurement control means 42, and performs TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, EF (flash pre-emission) processing is performed.

さらに、画像処理部20は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   Further, the image processing unit 20 performs predetermined calculation processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.

また、画像処理部20は、顔領域検出手段20aと顔情報抽出手段20bとを含む。顔領域検出手段20aは、取得手段17により取得された複数の画像データのそれぞれにおいて、被写体の顔領域を検出する。例えば、画像データから、口や目などの顔の構成要素に相当する形状を抽出し、その構成要素の位置を基準として顔領域を検出する。顔情報抽出手段20bは、顔領域検出手段20aにより検出された複数の顔領域のそれぞれから、被写体の顔の構成要素の形状に関する顔情報を抽出する。顔情報は、例えば、口や目や眉毛などの具体的な形状や座標に関する情報を含み、あるいは、例えば、鼻の端点、鼻穴の中心点、耳の端点などの形状や座標に関する情報を含む。ここで、顔情報は、それぞれの端点や中心点あるいは目の黒点などを入力された顔の画像から、例えばニューラルネットワークや空間フィルタを用いたエッジ検出などの手法を用いて算出することにより抽出することができる。顔領域検出手段20aが顔領域を抽出する際には、口や目などの顔の構成要素としての条件を満たす形状が存在するか否かという判断を行っている。つまり、笑っているときの大きく開いた口でも、黙っているときの閉じた口でも、口という条件さえ満たせばその具体的な形状までは問わない。これに対し、顔情報抽出手段20bが顔情報を抽出する際には、同じ口であっても、口角の位置や口の開き具合などの具体的な形状や顔領域における座標の情報までも含めて抽出される。   The image processing unit 20 includes a face area detecting unit 20a and a face information extracting unit 20b. The face area detection unit 20 a detects the face area of the subject in each of the plurality of image data acquired by the acquisition unit 17. For example, a shape corresponding to a facial component such as a mouth or eyes is extracted from image data, and a face region is detected based on the position of the structural component. The face information extraction unit 20b extracts face information related to the shape of the constituent elements of the face of the subject from each of the plurality of face regions detected by the face region detection unit 20a. The face information includes, for example, information on specific shapes and coordinates such as the mouth, eyes, and eyebrows, or includes information on the shape and coordinates of, for example, the nose end point, the nostril center point, and the ear end point. . Here, the face information is extracted from the image of the face to which each end point, center point, eye black point, or the like is input, by using a method such as edge detection using a neural network or a spatial filter, for example. be able to. When the face area detecting means 20a extracts the face area, it is determined whether or not there is a shape that satisfies the conditions as the constituent elements of the face such as the mouth and eyes. In other words, it doesn't matter what the specific shape of the mouth is, as long as it meets the mouth condition, whether it ’s a wide open mouth when you are laughing or a closed mouth when you are silent. On the other hand, when the face information extracting means 20b extracts the face information, even the same mouth, including information on the shape of the mouth corner and the shape of the mouth and the coordinates of the face area are included. Extracted.

ここで、顔領域検出手段20aは、取得手段17により取得された複数の第1の画像データのそれぞれにおいて、被写体の第1の顔領域を検出する。顔情報抽出手段20bは、顔領域検出手段20aにより検出された複数の第1の顔領域のそれぞれから、被写体の顔の構成要素の形状に関する第1の顔情報を抽出する。   Here, the face area detection unit 20 a detects the first face area of the subject in each of the plurality of first image data acquired by the acquisition unit 17. The face information extraction unit 20b extracts first face information related to the shape of the constituent elements of the face of the subject from each of the plurality of first face regions detected by the face region detection unit 20a.

また、顔領域検出手段20aは、取得手段17により取得された第2の画像データにおいて、被写体の第2の顔領域を検出する。顔情報抽出手段20bは、顔領域検出手段20aにより検出された第2の顔領域から、被写体の顔の構成要素の形状に関する第2の顔情報を抽出する。   Further, the face area detection unit 20 a detects the second face area of the subject in the second image data acquired by the acquisition unit 17. The face information extraction means 20b extracts second face information related to the shape of the constituent elements of the subject's face from the second face area detected by the face area detection means 20a.

メモリ制御回路22は、A/D変換手段16、タイミング発生部18、画像処理部20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮伸長部32を制御する。メモリ制御回路22は、A/D変換手段16や画像処理部20から受け取ったデータを画像表示メモリ24或いはメモリ30に書き込む。   The memory control circuit 22 controls the A / D conversion unit 16, the timing generation unit 18, the image processing unit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression unit 32. The memory control circuit 22 writes the data received from the A / D conversion unit 16 and the image processing unit 20 in the image display memory 24 or the memory 30.

画像表示メモリ24は、表示用の画像データを記憶する。D/A変換器26は、表示用の画像データをメモリ制御部22経由で画像表示メモリ24から受け取り、表示用の画像データをアナログ信号へD/A変換する。   The image display memory 24 stores image data for display. The D / A converter 26 receives display image data from the image display memory 24 via the memory control unit 22 and D / A converts the display image data into an analog signal.

第1の報知手段28は、D/A変換器26から受け取ったアナログ信号に応じた画像を表示する。第1の報知手段28は、例えば、TFT−LCDを含む。第1の報知手段28は、画像を逐次表示して、電子ファインダ機能を実現することが可能である。   The first notification means 28 displays an image corresponding to the analog signal received from the D / A converter 26. The first notification means 28 includes, for example, a TFT-LCD. The first notification means 28 can display images sequentially to realize an electronic finder function.

ここで、第1の報知手段28は、システム制御部50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合にデジタルカメラ100の電力消費を大幅に低減することが出来る。   Here, the first notification means 28 can arbitrarily turn on / off the display according to an instruction from the system control unit 50, and greatly reduce the power consumption of the digital camera 100 when the display is turned off. I can do it.

メモリ30は、撮影した静止画像や動画像を格納する。メモリ30は、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影する連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。また、メモリ30はシステム制御部50の作業領域としても使用することが可能である。   The memory 30 stores captured still images and moving images. The memory 30 has a storage capacity sufficient to store a predetermined number of still images and a moving image for a predetermined time. Thereby, even in the case of continuous shooting or panoramic shooting in which a plurality of still images are continuously shot, it is possible to write a large amount of images to the memory 30 at high speed. The memory 30 can also be used as a work area for the system control unit 50.

圧縮伸長部32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する。圧縮伸長部32は、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。   The compression / decompression unit 32 compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like. The compression / decompression unit 32 reads an image stored in the memory 30, performs compression processing or decompression processing, and writes the processed data to the memory 30.

露光制御手段40は、絞り機能を備えるシャッター12を制御する。露光制御手段40は、フラッシュ48と連携することにより、フラッシュ調光機能を実現することができる。   The exposure control means 40 controls the shutter 12 having an aperture function. The exposure control means 40 can realize a flash light control function by cooperating with the flash 48.

測距制御手段42は、撮影レンズ10のフォーカシングを制御する。ズーム制御手段44は、撮影レンズ10のズーミングを制御する。バリア制御手段46は、保護手段102の動作を制御する。フラッシュ48は、AF補助光の投光機能、フラッシュ調光機能を有する。   The distance measurement control means 42 controls the focusing of the taking lens 10. The zoom control unit 44 controls zooming of the taking lens 10. The barrier control unit 46 controls the operation of the protection unit 102. The flash 48 has an AF auxiliary light projecting function and a flash light control function.

システム制御部50は、デジタルカメラ100全体を制御する。例えば、システム制御部50は、取得手段17により取得された画像データに対して画像処理部20が演算した演算結果に基づき、露光制御手段40や測距制御手段42を制御する。   The system control unit 50 controls the entire digital camera 100. For example, the system control unit 50 controls the exposure control unit 40 and the distance measurement control unit 42 based on the calculation result calculated by the image processing unit 20 on the image data acquired by the acquisition unit 17.

また、システム制御部50は、顔情報選択手段50a、表情推定手段50b、及び制御手段50cを含む。顔情報選択手段50aは、顔情報抽出手段20bにより抽出された複数の第1の顔情報から、被写体の顔の表情を推定するための基準となる基準顔情報を選択する。基準顔情報は、例えば、無表情状態の表情、すなわち、澄ました表情に対する顔情報である。ここで、顔情報選択手段50aは、例えば、所定の期間、口の形状の変化量が所定の閾値を超えなかった場合に、無表情状態であると判定して、その判定結果に応じた顔情報を基準顔情報として選択する。   The system control unit 50 includes a face information selection unit 50a, a facial expression estimation unit 50b, and a control unit 50c. The face information selection unit 50a selects reference face information that serves as a reference for estimating the facial expression of the subject from the plurality of first face information extracted by the face information extraction unit 20b. The reference face information is, for example, face information for an expression in an expressionless state, that is, a clear expression. Here, the face information selection unit 50a determines that the expression is in an expressionless state, for example, when the amount of change in the shape of the mouth does not exceed a predetermined threshold for a predetermined period, and the face corresponding to the determination result. Information is selected as reference face information.

なお、顔情報選択手段50aは、無表情状態を判定する際に、口以外の構成要素の形状を使用しても構わない。例えば、顔情報選択手段50aは、更に顔情報として眼の開閉度状態を用い、目の大きさの変化などを使用して眼開きの状態タイミングに基づいて基準顔情報を選択しても良い。また、顔情報選択手段50aは、瞳画像をニューラルネットワークで学習させ、固定閾値以上の瞳ニューロン数から眼の開閉状態を判定するようにしても良い。   The face information selection unit 50a may use the shape of a component other than the mouth when determining the expressionless state. For example, the face information selection means 50a may further use the eye open / closed state as the face information and select the reference face information based on the eye opening state timing using a change in the size of the eyes. In addition, the face information selection unit 50a may learn a pupil image with a neural network and determine the open / closed state of the eye from the number of pupil neurons greater than a fixed threshold.

表情推定手段50bは、基準顔情報と第2の顔情報とを比較して、第2の顔情報に対応した被写体の顔の表情を推定する。すなわち、表情推定手段50bは、顔情報選択手段50aから基準顔情報を受け取り、画像処理部20の顔情報抽出手段20bから第2の顔情報を受け取る。表情推定手段50bは、基準顔情報と第2の顔情報との差分を演算し、基準顔情報に対する第2の顔情報の変化量を示す変化量情報を生成する。表情推定手段50bは、検出しようとする表情に達したと判断するための変化量の閾値を示す閾値情報を後述のメモリ52から受け取る。表情推定手段50bは、変化量情報と閾値情報とに基づいて、変化量が閾値を超えたか否かを判定する。これにより、表情推定手段50bは、対象とする被写体の顔が、目標とする表情に達したか否かを判断する。   The facial expression estimation means 50b compares the reference face information and the second face information, and estimates the facial expression of the subject corresponding to the second face information. That is, the facial expression estimation means 50b receives the reference face information from the face information selection means 50a, and receives the second face information from the face information extraction means 20b of the image processing unit 20. The facial expression estimation means 50b calculates the difference between the reference face information and the second face information, and generates change amount information indicating the change amount of the second face information with respect to the reference face information. The facial expression estimation means 50b receives threshold information indicating a change amount threshold for determining that the facial expression to be detected has been reached from the memory 52 described later. The facial expression estimation means 50b determines whether or not the change amount exceeds the threshold value based on the change amount information and the threshold value information. Thereby, the facial expression estimation means 50b determines whether or not the face of the target subject has reached the target facial expression.

制御手段50cは、第1の画像データを第1の解像度で取得し、第2の画像データを第2の解像度で取得するように、取得手段17を制御する。具体的には、制御手段50cは、光電変換手段14及び読み出し手段15の少なくとも一方へタイミング発生部18が供給する信号を制御することにより、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。すなわち、制御手段50cは、第1の画像データを第1の解像度で得るために、第1の画像信号を第1の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。また、制御手段50cは、第2の画像データを第2の解像度で得るために、第2の画像信号を第1の画素数より少ない第2の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。   The control unit 50c controls the acquisition unit 17 so as to acquire the first image data at the first resolution and acquire the second image data at the second resolution. Specifically, the control unit 50 c controls at least one of the photoelectric conversion unit 14 and the reading unit 15 by controlling a signal supplied from the timing generation unit 18 to at least one of the photoelectric conversion unit 14 and the reading unit 15. . That is, the control unit 50c reads at least one of the photoelectric conversion unit 14 and the reading unit 15 so as to read the first image signal with the first number of pixels in order to obtain the first image data with the first resolution. Control. In addition, the control unit 50c reads the second image signal with the second number of pixels smaller than the first number of pixels in order to obtain the second image data with the second resolution. At least one of the reading means 15 is controlled.

メモリ52は、システム制御部50の動作用の定数、変数等を記憶する。また、メモリ52は、予め設定情報として後述の入力手段75から受け取った閾値情報を記憶する。   The memory 52 stores constants and variables for the operation of the system control unit 50. Further, the memory 52 stores threshold information received from the input means 75 described later as setting information in advance.

第2の報知手段54は、システム制御部50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を報知する。第2の報知手段54は、デジタルカメラ100の後述の操作部70近辺の視認し易い位置に単数或いは複数個所設置される。第2の報知手段54は、例えば、液晶表示装置(LCD)、LED、発音素子(スピーカ)等の組み合わせにより構成されている。   The second notification unit 54 notifies the operation state, the message, and the like using characters, images, sounds, and the like according to the execution of the program in the system control unit 50. One or a plurality of second informing means 54 are installed at positions in the vicinity of an operation unit 70 (to be described later) of the digital camera 100 that are easily visible. The second notification means 54 is configured by a combination of a liquid crystal display (LCD), an LED, a sounding element (speaker), and the like, for example.

また、第2の報知手段54は、その一部の機能が光学ファインダ104内に設置されている。   The second notification means 54 is partially installed in the optical viewfinder 104.

第2の報知手段54は、例えば、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示、絞り値表示、及び露出補正表示などをLCD等に表示する。あるいは、第2の報知手段54は、例えば、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、及び複数桁の数字による情報表示などをLCD等に表示する。あるいは、第2の報知手段54は、例えば、外部記録媒体120の着脱状態表示、通信I/F動作表示、及び日付け・時刻表示等をLCD等に表示する。   For example, the second notifying unit 54 includes a single shot / continuous shooting display, a self-timer display, a compression ratio display, a recording pixel number display, a recording number display, a remaining image number display, a shutter speed display, an aperture value display, and An exposure compensation display or the like is displayed on an LCD or the like. Alternatively, the second notification unit 54 may be, for example, a flash display, a red-eye reduction display, a macro shooting display, a buzzer setting display, a clock battery remaining amount display, a battery remaining amount display, an error display, and a multi-digit number information display. Are displayed on the LCD. Or the 2nd alerting | reporting means 54 displays the attachment / detachment state display of the external recording medium 120, communication I / F operation display, date / time display, etc. on LCD etc., for example.

また、第2の報知手段54は、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、及び露出補正表示等を光学ファインダ104内に表示する。   Further, the second notification means 54 displays in-focus display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like in the optical viewfinder 104.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、画像処理プログラムなどのプログラムを記憶する。不揮発性メモリ56は、例えば、EEPROM等が用いられる。   The nonvolatile memory 56 is an electrically erasable / recordable memory, and stores a program such as an image processing program. As the nonvolatile memory 56, for example, an EEPROM or the like is used.

入力手段75は、複数の被写体から顔情報を抽出する対象となる被写体を指示する抽出対象指示を受け付ける。あるいは、入力手段75は、被写体の表情を検出するための表情検出指示を受け付ける。あるいは、入力手段75は、検出しようとする表情に達したと判断するための変化量の閾値を変更するための変更指示を受け付ける。   The input means 75 accepts an extraction target instruction that specifies a subject from which face information is to be extracted from a plurality of subjects. Alternatively, the input means 75 accepts a facial expression detection instruction for detecting the facial expression of the subject. Alternatively, the input means 75 accepts a change instruction for changing the change amount threshold value for determining that the facial expression to be detected has been reached.

また、入力手段75は、システム制御部50の各種の動作指示を受け付ける。スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせを介して、所定の指示を受け付ける。この入力手段75は、モードダイアルスイッチ60、シャッターボタン61、第1シャッタースイッチ62、第2シャッタースイッチ64、画像表示ON/OFFスイッチ66、及び操作部70を含む。   Further, the input unit 75 receives various operation instructions from the system control unit 50. A predetermined instruction is received through one or a combination of a switch, a dial, a touch panel, pointing by line-of-sight detection, a voice recognition device, and the like. The input means 75 includes a mode dial switch 60, a shutter button 61, a first shutter switch 62, a second shutter switch 64, an image display ON / OFF switch 66, and an operation unit 70.

モードダイアルスイッチ60は、電源オフ、自動撮影モード、撮影モード、パノラマ撮影モード、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを切り替え設定するための指示を受け付ける。   The mode dial switch 60 receives instructions for switching and setting each function mode such as power-off, automatic shooting mode, shooting mode, panoramic shooting mode, playback mode, multi-screen playback / erase mode, and PC connection mode.

シャッターボタン61は、静止画撮影等するための指示などをユーザから受け付ける。例えば、シャッターボタン61は、半押しされることにより、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等するための第1の指示を受け付ける。例えば、シャッターボタン61は、全押しされることにより、静止画撮影等するための第2の指示を受け付ける。   The shutter button 61 receives an instruction for taking a still image from the user. For example, when the shutter button 61 is pressed halfway, AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash) processing, and the like are performed. Accept instructions. For example, when the shutter button 61 is fully pressed, the second instruction for taking a still image is received.

第1シャッタースイッチ(SW1)62は、第1の指示をシャッターボタン61から受け取るとON状態になり、ON状態である旨の情報をシステム制御部50へ供給する。システム制御部50は、第1シャッタースイッチ62がON状態であることに応じて、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を各部へ指示する。   When the first shutter switch (SW1) 62 receives the first instruction from the shutter button 61, the first shutter switch (SW1) 62 is turned on, and supplies information indicating the on state to the system control unit 50. The system control unit 50 performs AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing in response to the first shutter switch 62 being in the ON state. The operation start is instructed to each part.

第2シャッタースイッチ(SW2)64は、第2の指示をシャッターボタン61から受け取るとON状態になり、ON状態である旨の情報をシステム制御部50へ供給する。これにより、システム制御部50は、一連の撮影処理の動作開始を指示する。一連の撮影処理では、光電変換手段14から読み出した信号をA/D変換手段16、メモリ制御部22を介して記憶手段30に画像データを書き込む露光処理、画像処理部20やメモリ制御部22での演算を用いた現像処理を行う。そして、一連の撮影処理では、記憶手段30から画像データを読み出し、圧縮伸長部32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理を行う。   When the second shutter switch (SW2) 64 receives the second instruction from the shutter button 61, the second shutter switch (SW2) 64 is turned on, and supplies information indicating the on state to the system control unit 50. As a result, the system control unit 50 instructs the start of a series of photographing processing operations. In a series of photographing processes, an exposure process in which the signal read from the photoelectric conversion unit 14 is written into the storage unit 30 via the A / D conversion unit 16 and the memory control unit 22, the image processing unit 20 and the memory control unit 22 Development processing using the above calculation is performed. In a series of photographing processes, image data is read from the storage unit 30, compressed by the compression / decompression unit 32, and recording processing for writing the image data to the recording medium 200 or 210 is performed.

画像表示ON/OFFスイッチ66は、第1の報知手段28のON/OFFを設定するための指示を受け付ける。この指示により、システム制御部50は、光学ファインダー104を用いて撮影を行う際に、第1の報知手段28への電流供給を遮断して、省電力化を図ることができる。   The image display ON / OFF switch 66 receives an instruction for setting ON / OFF of the first notification means 28. By this instruction, the system control unit 50 can cut power supply to the first notifying unit 28 when taking an image using the optical viewfinder 104, thereby saving power.

クイックレビューON/OFFスイッチ68は、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定するための指示を受け付ける。例えば、第1の報知手段28をOFFとした場合におけるクイックレビュー機能の設定を受け付けることができるものとする。   The quick review ON / OFF switch 68 accepts an instruction for setting a quick review function for automatically reproducing image data taken immediately after photographing. For example, it is assumed that the setting of the quick review function when the first notification unit 28 is turned off can be received.

操作部70は、各種ボタンやタッチパネル等からなる。操作部70は、メニューボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタンを含む。操作部70は、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン、ブラケットモードの選択ボタン等を含む。   The operation unit 70 includes various buttons and a touch panel. The operation unit 70 includes a menu button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, a menu movement + (plus) button, and a menu movement− (minus) button. . The operation unit 70 includes a playback image movement + (plus) button, a playback image-(minus) button, a shooting image quality selection button, an exposure correction button, a date / time setting button, a bracket mode selection button, and the like.

電源制御手段80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行う。電源制御手段80は、検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、外部記録媒体120を含む各部へ供給する。   The power supply control means 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. The power control unit 80 controls the DC-DC converter based on the detection result and an instruction from the system control unit 50, and supplies a necessary voltage to each unit including the external recording medium 120 for a necessary period.

コネクタ82は、電源制御手段80に接続されている。コネクタ84は、電源86に接続されている。電源86は、例えば、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等である。   The connector 82 is connected to the power supply control means 80. The connector 84 is connected to the power source 86. The power source 86 is, for example, a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.

カードコントローラ90は、メモリカード等の外部記録媒体とデータの送受信を行う。インタフェース91は、メモリカード等の外部記録媒体120とカードコントローラ90とのインタフェースとして機能する。コネクタ92は、メモリカード等の外部記録媒体120が接続される。記録媒体着脱検知手段98は、コネクタ92に外部記録媒体120が装着されているか否かを検知する。   The card controller 90 transmits / receives data to / from an external recording medium such as a memory card. The interface 91 functions as an interface between the external recording medium 120 such as a memory card and the card controller 90. The connector 92 is connected to an external recording medium 120 such as a memory card. The recording medium attachment / detachment detection means 98 detects whether or not the external recording medium 120 is attached to the connector 92.

なお、記録媒体を取り付けるインタフェース及びコネクタは、2以上の系統数であってもよい。また、インタフェース及びコネクタは、異なる規格のものが組み合わせされていても構わない。インタフェース及びコネクタは、半導体メモリカード等の規格に準拠したものを用いて構成して構わない。この場合、各種通信カードを接続することにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。各種通信カードは、例えば、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード等である。   Note that the number of interfaces and connectors for attaching the recording medium may be two or more. Further, interfaces and connectors having different standards may be combined. The interface and the connector may be configured using a semiconductor memory card or the like that conforms to the standard. In this case, by connecting various communication cards, image data and management information attached to the image data can be transferred to and from other computers and peripheral devices such as a printer. The various communication cards are, for example, LAN cards, modem cards, USB cards, IEEE 1394 cards, P1284 cards, SCSI cards, PHS communication cards, and the like.

光学ファインダ104は、撮影を行う際に被写体を確認するために用いられる。光学ファインダー104を用いれば、第1の報知手段28による電子ファインダー機能を使用すること無しに撮影を行うことが可能である。また、光学ファインダー104には、第2の報知手段54により表示される情報の一部、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示などに関する情報が表示される。   The optical viewfinder 104 is used for confirming a subject when shooting. If the optical viewfinder 104 is used, it is possible to perform shooting without using the electronic viewfinder function of the first notification means 28. The optical viewfinder 104 also includes a part of information displayed by the second notification unit 54, for example, focusing display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like. Information is displayed.

外部記録媒体120は、コネクタ92に着脱可能に接続される。外部記録媒体120は、例えば、メモリカード等である。   The external recording medium 120 is detachably connected to the connector 92. The external recording medium 120 is, for example, a memory card.

次に、画像処理装置100が被写体の表情を推定する際の処理(笑顔撮影モードの処理)の流れを、図2に示すフローチャートを用いて説明する。図2は、画像処理装置100が被写体の表情を推定する際の処理(笑顔撮影モードの処理)の流れを示すフローチャートである。   Next, the flow of processing when the image processing apparatus 100 estimates the facial expression of the subject (smiling shooting mode processing) will be described with reference to the flowchart shown in FIG. FIG. 2 is a flowchart showing a flow of processing when the image processing apparatus 100 estimates the facial expression of the subject (smiling shooting mode processing).

ステップS1(第1の取得ステップ)では、入力手段75が、笑顔撮影モードを選択するための指示を受け付ける。この笑顔撮影モードは、特定の被写体の笑顔を検出した際に自動的に撮影が行われる撮影モードである。取得手段17は、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する。   In step S1 (first acquisition step), the input means 75 accepts an instruction for selecting a smile shooting mode. This smile shooting mode is a shooting mode in which shooting is automatically performed when a smile on a specific subject is detected. The acquisition unit 17 acquires first image data obtained by imaging a subject at a plurality of different timings at a first resolution.

すなわち、制御手段50cは、第1の画像データを第1の解像度で得るために、第1の画像信号を第1の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。光電変換手段14は、被写体の光学像を光電変換して第1の画像信号を生成する。読み出し手段15は、光電変換手段14から第1の画像信号を第1の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第1の画像信号をA/D変換して第1の画像データを生成する。第1の画像データは、その解像度が第1の解像度になっている。これらの動作が異なる複数のタイミングで行われて、複数の第1の画像データが第1の解像度で取得される。   That is, the control unit 50c reads at least one of the photoelectric conversion unit 14 and the reading unit 15 so as to read the first image signal with the first number of pixels in order to obtain the first image data with the first resolution. Control. The photoelectric conversion unit 14 photoelectrically converts the optical image of the subject to generate a first image signal. The readout unit 15 reads out the first image signal from the photoelectric conversion unit 14 with the first number of pixels. The A / D conversion unit 16 A / D converts the first image signal read by the reading unit 15 to generate first image data. The resolution of the first image data is the first resolution. These operations are performed at a plurality of different timings, and a plurality of first image data are acquired at the first resolution.

ステップS2(第1の顔領域検出ステップ)では、入力手段75が、顔領域検出を行うための指示をユーザから受け付け、その指示を顔領域検出手段20aへ供給する。顔領域検出手段20aは、その指示に応じて、取得手段17により取得された複数の第1の画像データのそれぞれにおいて、被写体の第1の顔領域を検出する。顔領域検出手段20aは、検出された第1の顔領域に関する情報をシステム制御部50へ供給する。   In step S2 (first face area detection step), the input unit 75 receives an instruction for performing face area detection from the user, and supplies the instruction to the face area detection unit 20a. The face area detection unit 20a detects the first face area of the subject in each of the plurality of first image data acquired by the acquisition unit 17 in response to the instruction. The face area detection unit 20 a supplies information related to the detected first face area to the system control unit 50.

ステップS3では、準備処理が行われる。準備処理の詳細に関しては後述する。   In step S3, a preparation process is performed. Details of the preparation process will be described later.

ステップS4では、システム制御部50が、表情を検出すべきであるか否かを判断する。   In step S4, the system control unit 50 determines whether or not an expression should be detected.

例えば、システム制御部50は、被写体の表情を検出するための表情検出指示を入力手段75から受け取った場合、表情を検出すべきであると判断する。システム制御部50は、被写体の表情を検出するための表情検出指示を入力手段75から受け取らなかった場合、表情を検出すべきでないと判断する。   For example, the system control unit 50 determines that a facial expression should be detected when a facial expression detection instruction for detecting the facial expression of the subject is received from the input means 75. The system control unit 50 determines that the facial expression should not be detected when the facial expression detection instruction for detecting the facial expression of the subject is not received from the input unit 75.

あるいは、例えば、システム制御部50は、対象とする被写体の全てについて基準顔情報が選択された場合、表情を検出すべきであると判断する。システム制御部50は、対象とする被写体のうち基準顔情報が選択されていない被写体が存在する場合、表情を検出すべきでないと判断する。   Alternatively, for example, the system control unit 50 determines that the facial expression should be detected when the reference face information is selected for all of the target subjects. The system control unit 50 determines that the facial expression should not be detected when there is a subject for which the reference face information is not selected among the subject subjects.

システム制御部50は、表情を検出すべきであると判断する場合、処理をステップS5へ進め、表情を検出すべきでないと判断する場合、処理をステップS1へ進める。   If the system control unit 50 determines that the facial expression should be detected, the process proceeds to step S5. If the system control unit 50 determines that the facial expression should not be detected, the process proceeds to step S1.

ステップS5(第2の取得ステップ)では、取得手段17が、被写体の顔の表情を推定するために、被写体を撮像して得られた第2の画像データを、第1の解像度よりも低い第2の解像度で取得する。ここで、取得手段17は、後述の検出処理(ステップS7)において第2の顔情報を抽出することに成功していないと判断する場合、前回の処理で用いた第2の解像度よりも高い解像度であって第1の解像度よりも低い解像度を新たに第2の解像度とする。   In step S5 (second acquisition step), in order for the acquisition means 17 to estimate the facial expression of the subject, the second image data obtained by imaging the subject is set to the second resolution lower than the first resolution. Acquire at a resolution of 2. Here, when the acquisition unit 17 determines that the second face information has not been successfully extracted in the detection process (step S7) described later, the resolution is higher than the second resolution used in the previous process. Thus, a resolution lower than the first resolution is newly set as the second resolution.

すなわち、制御手段50cは、第2の画像データを第2の解像度で得るために、第2の画像信号を第1の画素数より少ない第2の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。ここで、制御手段50cは、後述の検出処理(ステップS7)において第2の顔情報を抽出することに成功していないと判断する場合、前回の処理で用いた第2の画素数よりも高い画素数を新たに第2の画素数とする。   That is, in order to obtain the second image data at the second resolution, the control unit 50c reads the second image signal with the second number of pixels smaller than the first number of pixels, and the photoelectric conversion unit 14 and At least one of the reading means 15 is controlled. Here, when it is determined that the second face information is not successfully extracted in the detection process (step S7) described later, the control unit 50c is higher than the second number of pixels used in the previous process. The number of pixels is newly set as the second number of pixels.

光電変換手段14は、被写体の光学像を光電変換して第2の画像信号を生成する。読み出し手段15は、光電変換手段14から第2の画像信号を、第1の画素数より少ない第2の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第2の画像信号をA/D変換して第2の画像データを生成する。第2の画像データは、その解像度が第2の解像度になっている。   The photoelectric conversion means 14 photoelectrically converts the optical image of the subject to generate a second image signal. The reading unit 15 reads the second image signal from the photoelectric conversion unit 14 with a second number of pixels smaller than the first number of pixels. The A / D conversion unit 16 A / D converts the second image signal read by the reading unit 15 to generate second image data. The resolution of the second image data is the second resolution.

ステップS6(第2の顔領域検出ステップ)では、顔領域検出手段20aが、取得手段17により取得された複数の画像データのそれぞれにおいて、被写体の顔領域を検出する。顔領域検出手段20aは、検出された顔領域に関する情報をシステム制御部50へ供給する。   In step S6 (second face area detecting step), the face area detecting unit 20a detects the face area of the subject in each of the plurality of image data acquired by the acquiring unit 17. The face area detection unit 20 a supplies information related to the detected face area to the system control unit 50.

ステップS7では、検出処理が行われる。検出処理の詳細に関しては後述する。   In step S7, a detection process is performed. Details of the detection process will be described later.

ステップS8では、システム制御部50が、撮影すべきであるか否かを判断する。   In step S8, the system control unit 50 determines whether or not shooting should be performed.

例えば、システム制御部50は、表情フラグがONされた被写体の数が所定数以上である場合、撮影すべきであると判断し、表情フラグがONされた被写体の数が所定数未満である場合、撮影すべきでないと判断する。   For example, the system control unit 50 determines that shooting should be performed when the number of subjects with the facial expression flag turned on is equal to or greater than a predetermined number, and the number of subjects with the facial expression flag turned on is less than the predetermined number. , Judge that you should not shoot.

あるいは、例えば、システム制御部50は、表示フラグがON状態である旨の情報を第2シャッタースイッチ64から受け取った場合、撮影すべきであると判断する。例えば、システム制御部50は、表示フラグがON状態である旨の情報を第2シャッタースイッチ64から受け取らなかった場合、撮影すべきでないと判断する。   Alternatively, for example, when the information indicating that the display flag is ON is received from the second shutter switch 64, the system control unit 50 determines that the image should be taken. For example, when the information indicating that the display flag is in the ON state is not received from the second shutter switch 64, the system control unit 50 determines that shooting should not be performed.

システム制御部50は、撮影すべきであると判断する場合、処理をステップS9へ進め、撮影すべきでないと判断する場合、処理をステップS10へ進める。   If the system control unit 50 determines that the image should be taken, the process proceeds to step S9. If the system control unit 50 determines that the image should not be taken, the process proceeds to step S10.

ステップS9では、システム制御部50が、一連の撮影処理の動作開始を指示する。一連の撮影処理では、撮像素子14から読み出した信号をA/D変換器16、メモリ制御部22を介して記憶手段30に画像データを書き込む露光処理、画像処理部20やメモリ制御部22での演算を用いた現像処理を行う。そして、一連の撮影処理では、記憶手段30から画像データを読み出し、圧縮伸長部32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理を行う。   In step S9, the system control unit 50 instructs the start of a series of shooting processing operations. In a series of photographing processes, an exposure process in which a signal read from the image sensor 14 is written into the storage means 30 via the A / D converter 16 and the memory control unit 22, and the image processing unit 20 and the memory control unit 22 Development processing using computation is performed. In a series of photographing processes, image data is read from the storage unit 30, compressed by the compression / decompression unit 32, and recording processing for writing the image data to the recording medium 200 or 210 is performed.

ステップS10では、システム制御部50が、笑顔撮影モードの処理を終了すべきか否かを判断する。   In step S10, the system control unit 50 determines whether or not the smile shooting mode process should be terminated.

例えば、システム制御部50は、検出処理(ステップS7)において第2の顔情報を抽出することに成功していないと判断する場合、笑顔撮影モードの処理を終了すべきでないと判断する。システム制御部50は、検出処理(ステップS7)において第2の顔情報を抽出することに成功していると判断する場合、笑顔撮影モードの処理を終了すべきであると判断する。   For example, if the system control unit 50 determines in the detection process (step S7) that the second face information has not been successfully extracted, the system control unit 50 determines that the smile shooting mode process should not be terminated. If the system control unit 50 determines that the second face information has been successfully extracted in the detection process (step S7), the system control unit 50 determines that the smile shooting mode process should be terminated.

例えば、システム制御部50は、撮影モードを笑顔撮影モード以外の撮影モードへ変更するための指示を受け取った場合、笑顔撮影モードの処理を終了すべきであると判断する。システム制御部50は、撮影モードを笑顔撮影モード以外の撮影モードへ変更するための指示を受け取らなかった場合、笑顔撮影モードの処理を終了すべきでないと判断する。   For example, when the system control unit 50 receives an instruction to change the shooting mode to a shooting mode other than the smile shooting mode, the system control unit 50 determines that the process of the smile shooting mode should be terminated. When the system control unit 50 does not receive an instruction to change the shooting mode to a shooting mode other than the smile shooting mode, the system control unit 50 determines that the process of the smile shooting mode should not be terminated.

あるいは、例えば、システム制御部50は、笑顔撮影モードを終了すべき指示を受け取った場合、笑顔撮影モードの処理を終了すべきであると判断する。システム制御部50は、笑顔撮影モードを終了すべき指示を受け取らなかった場合、笑顔撮影モードの処理を終了すべきでないと判断する。   Alternatively, for example, when receiving an instruction to end the smile shooting mode, the system control unit 50 determines that the process of the smile shooting mode should be ended. When the system control unit 50 does not receive an instruction to end the smile shooting mode, the system control unit 50 determines that the process of the smile shooting mode should not be ended.

次に、準備処理(ステップS3)の流れを、図3を用いて説明する。図3は、被写体ごとの準備処理の流れを示すフローチャートである。図3には、特定の被写体(例えば、図5に示す被写体O1)に着目した場合の処理が示されている。すなわち、準備処理は、個々の被写体ごとに独立して並行的に行われる。   Next, the flow of the preparation process (step S3) will be described with reference to FIG. FIG. 3 is a flowchart showing the flow of preparation processing for each subject. FIG. 3 shows processing when attention is paid to a specific subject (for example, the subject O1 shown in FIG. 5). That is, the preparation process is performed in parallel independently for each subject.

ステップS11では、顔情報抽出手段20bが、特定の被写体が対象とする被写体であるか否かを判断する。   In step S11, the face information extraction unit 20b determines whether or not the specific subject is the subject.

例えば、顔情報抽出手段20bは、特定の被写体に対する抽出対象指示を入力手段75から受け取った場合、その特定の被写体が対象とする被写体であると判断する。顔情報抽出手段20bは、特定の被写体に対する抽出対象指示を入力手段75から受け取らなかった場合、その特定の被写体が対象とする被写体でないと判断する。   For example, when the face information extraction unit 20b receives an extraction target instruction for a specific subject from the input unit 75, the face information extraction unit 20b determines that the specific subject is a target subject. When the face information extraction unit 20b does not receive an extraction target instruction for a specific subject from the input unit 75, the face information extraction unit 20b determines that the specific subject is not the target subject.

顔情報抽出手段20bは、特定の被写体が対象とする被写体であると判断する場合、処理をステップS12へ進め、特定の被写体が対象とする被写体でないと判断する場合、処理を終了する。   When it is determined that the specific subject is the target subject, the face information extraction unit 20b advances the process to step S12, and when it is determined that the specific subject is not the target subject, the processing ends.

ステップS12(第1の顔情報抽出ステップ)では、顔情報抽出手段20bが、顔領域検出手段20aにより検出された複数の第1の顔領域のそれぞれから、被写体の顔の構成要素の形状に関する第1の顔情報を抽出する。   In step S12 (first face information extraction step), the face information extraction unit 20b performs first processing on the shape of the face component of the subject from each of the plurality of first face regions detected by the face region detection unit 20a. 1 face information is extracted.

例えば、顔情報抽出手段20bは、以降のステップでの計算精度を上げるため、選択された顔のサイズと向きとを正規化する。顔情報抽出手段20bは、両眼の位置を用いて両眼間距離が所定の距離、顔の向きが所定の向きになるようにアフィン変換による正規化処理を行う。顔情報抽出手段20bは、正規化された顔から口や目や眉毛などの端点の形状を代表する特徴点を検出する。そして、顔情報抽出手段20bは、検出された各特徴点から第1の特徴量を算出する。すなわち、顔情報抽出手段20bは、複数の第1の顔領域のそれぞれから、被写体の顔の第1の特徴量を含む第1の顔情報を抽出する。   For example, the face information extraction unit 20b normalizes the size and orientation of the selected face in order to increase the calculation accuracy in the subsequent steps. The face information extraction unit 20b performs normalization processing by affine transformation using the positions of both eyes so that the distance between both eyes is a predetermined distance and the face direction is a predetermined direction. The face information extraction unit 20b detects feature points representing the shape of the end points such as the mouth, eyes, and eyebrows from the normalized face. Then, the face information extraction unit 20b calculates a first feature amount from each detected feature point. That is, the face information extraction unit 20b extracts first face information including the first feature amount of the face of the subject from each of the plurality of first face regions.

ここで、第1の顔情報は、例えば、図5に示すように、口や目や眉毛などの特徴点500〜517の具体的な形状や座標に関する情報を、第1の特徴量として含む。第1の顔情報は、それぞれの端点や中心点あるいは目の黒点などを入力された顔の画像から、例えばニューラルネットワークや空間フィルタを用いたエッジ検出などの手法を用いて算出することにより抽出することができる。すなわち、顔情報抽出手段20bは、各特徴点に対して所定の検出範囲を設定し、各検出範囲内で特徴量を検出するためのニューラルネットワークを用いることにより各特徴点を検出する。ニューラルネットワークには、顔検出同様に予め各特徴点画像データを用いて学習させた各ネットワークが使用される。   Here, as shown in FIG. 5, for example, the first face information includes information on specific shapes and coordinates of feature points 500 to 517 such as a mouth, eyes, and eyebrows as a first feature amount. The first face information is extracted from a face image to which each end point, center point, eye black point, or the like is input by using, for example, a technique such as edge detection using a neural network or a spatial filter. be able to. That is, the face information extraction unit 20b detects each feature point by setting a predetermined detection range for each feature point and using a neural network for detecting a feature amount within each detection range. As the neural network, each network learned in advance using each feature point image data is used in the same manner as face detection.

各特徴点に対する検出範囲は、例えば次のように設定される。顔情報抽出手段20bは、特徴点500、502(図5参照)に対して、例えば、図6に示すように、両眼間距離aと左眼位置400とを用いて検出範囲600、601を設定する。顔情報抽出手段20bは、特徴点503、505(図5参照)に対しても、特徴点500、502と同様に、両眼間距離aと右眼位置401を用いて検出範囲を設定する。顔情報抽出手段20bは、特徴点501(図5参照)に対して、図7に示すように、検出範囲602を設定する。顔情報抽出手段20bは、特徴点504(図5参照)に対しても、特徴点501と同様に検出範囲を設定する。顔情報抽出手段20bは、特徴点506、509(図5参照)に対して、図8に示すように、検出範囲603、604を設定する。顔情報抽出手段20bは、特徴点510、513に対しても、特徴点506、509と同様に検出範囲を設定する。顔情報抽出手段20bは、特徴点507、508(図5参照)に対して、図9に示すように、検出範囲605、606を設定する。顔情報抽出手段20bは、特徴点511、512(図5参照)に対しても、特徴点507、508と同様に検出範囲を設定する。顔情報抽出手段20bは、特徴点514、517(図5参照)に対して、図10に示すように検出範囲607、608を設定する。顔情報抽出手段20bは、特徴点515、516(図5参照)に対して、図11に示すように検出範囲609、610を設定する。   For example, the detection range for each feature point is set as follows. For example, as shown in FIG. 6, the face information extraction unit 20 b uses the interocular distance a and the left eye position 400 to detect the detection ranges 600 and 601 with respect to the feature points 500 and 502 (see FIG. 5). Set. The face information extraction unit 20b also sets a detection range for the feature points 503 and 505 (see FIG. 5) using the interocular distance a and the right eye position 401 in the same manner as the feature points 500 and 502. The face information extraction unit 20b sets a detection range 602 as shown in FIG. 7 for the feature point 501 (see FIG. 5). The face information extraction unit 20b also sets a detection range for the feature point 504 (see FIG. 5) in the same manner as the feature point 501. The face information extraction unit 20b sets detection ranges 603 and 604 for the feature points 506 and 509 (see FIG. 5) as shown in FIG. The face information extraction unit 20b sets a detection range for the feature points 510 and 513 as well as the feature points 506 and 509. The face information extraction unit 20b sets detection ranges 605 and 606 for the feature points 507 and 508 (see FIG. 5) as shown in FIG. The face information extraction unit 20b also sets detection ranges for the feature points 511 and 512 (see FIG. 5) in the same manner as the feature points 507 and 508. The face information extraction unit 20b sets detection ranges 607 and 608 for the feature points 514 and 517 (see FIG. 5) as shown in FIG. The face information extraction unit 20b sets detection ranges 609 and 610 for the feature points 515 and 516 (see FIG. 5) as shown in FIG.

顔情報抽出手段20bにより算出される特徴量は、例えば、次のような情報である。特徴量の一例として笑顔表情の特徴量について説明する。   The feature amount calculated by the face information extraction unit 20b is, for example, the following information. A feature amount of a smile expression will be described as an example of the feature amount.

笑顔表情は、Facial Action Coding System(FACS)において、次のように提唱されている。(P.Ekman and W.V.Friesen, Facial Action Coding System(FACS) Manual, Palo Alto:Consulting Psychologists Press, 1978)。「FACSにおける笑顔表情の定義」として、「頬を持ち上げる」ことと、「唇の端を引っ張りあげる」こととが挙げられている。   The smile expression is proposed in the Facial Action Coding System (FACS) as follows. (P. Ekman and WV Friesen, Facial Action Coding System (FACS) Manual, Palo Alto: Consulting Psychologists Press, 1978). “Defining a smiling facial expression in FACS” includes “lifting the cheek” and “pulling the edge of the lips”.

本実施形態では、顔情報抽出手段20bが、笑顔表情の特徴量として、上記FACSの定義に従った図12に示す特徴量710〜712を算出する。すなわち、顔情報抽出手段20bは、特徴点506と特徴点514とのy方向の距離710を算出する。顔情報抽出手段20bは、特徴点513と特徴点517とのy方向の距離711を算出する。顔情報抽出手段20bは、特徴点514と特徴点517とのx方向の距離712を算出する。なお、距離710〜712は、いずれも、基準となる距離(例えば、両眼間距離a)に対する相対的な距離である。   In the present embodiment, the face information extraction unit 20b calculates the feature amounts 710 to 712 shown in FIG. 12 according to the FACS definition as the feature amount of the smile expression. That is, the face information extraction unit 20b calculates the distance 710 in the y direction between the feature point 506 and the feature point 514. The face information extraction unit 20b calculates a distance 711 between the feature point 513 and the feature point 517 in the y direction. The face information extraction unit 20b calculates a distance 712 between the feature point 514 and the feature point 517 in the x direction. The distances 710 to 712 are all relative to a reference distance (for example, the interocular distance a).

ステップS13では、顔情報抽出手段20bが、顔情報を抽出することに成功したか否かを判断する。顔情報抽出手段20bは、顔情報を抽出することに成功したと判断した場合、処理をステップS15へ進め、顔情報を抽出することに成功していないと判断した場合、処理を終了する。   In step S13, the face information extraction unit 20b determines whether or not the face information has been successfully extracted. If it is determined that the face information extraction unit 20b has succeeded in extracting the face information, the process proceeds to step S15. If it is determined that the face information extraction has not been successful, the process ends.

ステップS15(第1の顔情報選択ステップ)では、顔情報選択手段50aが、顔情報抽出手段20bにより抽出された複数の顔情報から、被写体の顔の表情を推定するための基準となる基準顔情報を選択する。基準顔情報は、例えば、無表情状態の表情、すなわち、澄ました表情に対する顔情報である。ここで、顔情報選択手段50aは、例えば、所定の期間、口の形状の変化量が所定の閾値を超えなかった場合に、無表情状態であると判定して、その判定結果に応じた顔情報を基準顔情報として選択する。   In step S15 (first face information selection step), the face information selection unit 50a uses a plurality of pieces of face information extracted by the face information extraction unit 20b as a reference face for estimating the facial expression of the subject. Select information. The reference face information is, for example, face information for an expression in an expressionless state, that is, a clear expression. Here, the face information selection unit 50a determines that the expression is in an expressionless state, for example, when the amount of change in the shape of the mouth does not exceed a predetermined threshold for a predetermined period, and the face corresponding to the determination result. Information is selected as reference face information.

なお、顔情報選択手段50aは、無表情状態を判定する際に、口以外の構成要素の形状を使用しても構わない。例えば、顔情報選択手段50aは、更に顔情報として眼の開閉度状態を用い、目の大きさの変化などを使用して眼開きの状態タイミングに基づいて基準顔情報を選択しても良い。また、顔情報選択手段50aは、瞳画像をニューラルネットワークで学習させ、固定閾値以上の瞳ニューロン数から眼の開閉状態を判定するようにしても良い。   The face information selection unit 50a may use the shape of a component other than the mouth when determining the expressionless state. For example, the face information selection means 50a may further use the eye open / closed state as the face information and select the reference face information based on the eye opening state timing using a change in the size of the eyes. In addition, the face information selection unit 50a may learn a pupil image with a neural network and determine the open / closed state of the eye from the number of pupil neurons greater than a fixed threshold.

次に、検出処理(ステップS7)の流れを、図4を用いて説明する。図4は、被写体ごとの検出処理の流れを示すフローチャートである。すなわち、検出処理は、個々の被写体ごとに独立して並行的に行われる。図4には、特定の被写体の着目した場合の処理が示されている。   Next, the flow of the detection process (step S7) will be described with reference to FIG. FIG. 4 is a flowchart showing the flow of detection processing for each subject. That is, the detection process is performed independently and in parallel for each subject. FIG. 4 shows a process when attention is paid to a specific subject.

ステップS23(第2の顔情報抽出ステップ)では、顔情報抽出手段20bが、顔領域検出手段20aにより検出された第2の顔領域から、被写体の顔の構成要素の形状に関する第2の顔情報を抽出する。すなわち、顔情報抽出手段20bは、第2の顔領域から、被写体の顔の第2の特徴量を含む第2の顔情報を抽出する。このステップS23の詳細は、上記のステップS12と同様である。   In step S23 (second face information extraction step), the face information extraction unit 20b uses the second face information related to the shape of the face component of the subject from the second face region detected by the face region detection unit 20a. To extract. That is, the face information extraction unit 20b extracts second face information including the second feature amount of the face of the subject from the second face area. The details of step S23 are the same as step S12 described above.

なお、顔情報抽出手段20bは、取得された第2の画像データの解像度不足により検出したい特徴点の全てが検出されていない場合であっても、2以上の特徴点が検出されていれば、その2以上の特徴点を用いて第2の特徴量を算出する。   Note that the face information extraction unit 20b does not detect all the feature points to be detected due to insufficient resolution of the acquired second image data, but if two or more feature points are detected, A second feature amount is calculated using the two or more feature points.

ステップS24では、顔情報抽出手段20bが、第2の顔情報を抽出することに成功したか否かを判断する。   In step S24, the face information extraction unit 20b determines whether the second face information has been successfully extracted.

例えば、顔情報抽出手段20bは、取得された第2の画像データの解像度不足により検出したい特徴点の全てが検出されていない場合であっても、例えば、2以上の特徴点が検出されていれば、第2の顔情報を抽出することに成功したと判断する。第2の顔情報を抽出することに成功したと判断する特徴点の数は、第1の顔情報を抽出することに成功したと判断する特徴点の数よりも少なく設定される。   For example, the face information extraction unit 20b may detect, for example, two or more feature points even when not all of the feature points to be detected are detected due to insufficient resolution of the acquired second image data. For example, it is determined that the second face information has been successfully extracted. The number of feature points that are determined to be successful in extracting the second face information is set to be smaller than the number of feature points that are determined to be successful in extracting the first face information.

顔情報抽出手段20bは、第2の顔情報を抽出することに成功したと判断した場合、処理をステップS25へ進め、第2の顔情報を抽出することに成功していないと判断した場合、処理を終了する。   If the face information extracting unit 20b determines that the second face information has been successfully extracted, the process proceeds to step S25, and if it is determined that the second face information has not been successfully extracted, The process ends.

ステップS25では、表情推定手段50bが、顔情報選択手段50aから基準顔情報を受け取り、画像処理部20の顔情報抽出手段20bから第2の顔情報を受け取る。表情推定手段50bは、基準顔情報と第2の顔情報との差分を演算し、基準顔情報に対する第2の顔情報の変化量を示す変化量情報を生成する。   In step S25, the facial expression estimation means 50b receives the reference face information from the face information selection means 50a, and receives the second face information from the face information extraction means 20b of the image processing unit 20. The facial expression estimation means 50b calculates the difference between the reference face information and the second face information, and generates change amount information indicating the change amount of the second face information with respect to the reference face information.

例えば、表情推定手段50bは、顔の個々の構成要素に対して基準顔情報に含まれる第1の特徴量と第2の顔情報に含まれる第2の特徴量との差分を演算する。そして、表情推定手段50bは、次の数式1を用いて、笑顔表情の度合い、すなわち、笑顔度を算出する。被写体の顔の個々の構成要素に対する基準顔情報と他の顔情報との差分をv1、v2、v3、・・・とするとき、表情推定手段50bは、笑顔度を、
SumScore=ΣScore
=Σg(w、v)・・・数式1
としてi=1〜Nについて合計して演算する。ここで、Nは顔の個々の構成要素を識別するための番号であり、wは各構成要素の重みであり、gは得点算出関数である。すなわち、表情推定手段50bは、この笑顔度SumScoreを変化量情報として生成する。この笑顔度SumScoreは、例えば、0から100といった数値で表される。
For example, the facial expression estimation means 50b calculates the difference between the first feature amount included in the reference face information and the second feature amount included in the second face information for each component of the face. Then, the facial expression estimation means 50b calculates the smile facial expression level, that is, the smile level, using the following formula 1. When the difference between the reference face information for each component of the subject's face and other face information is v1, v2, v3,..., The facial expression estimation means 50b
SumScore = ΣScore i
= Σg (w i , v i )...
And i = 1 to N are calculated in total. Here, N is a number for identifying each component of the face, w is the weight of each component, and g is a score calculation function. That is, the facial expression estimation means 50b generates this smile level SumScore as change amount information. This smile degree SumScore is represented by a numerical value such as 0 to 100, for example.

なお、表情推定手段50bは、取得された第2の画像データの解像度不足により検出したい特徴点の全てが検出されていない場合でも、算出された特徴量のみ用いて特徴量の変化量を算出し笑顔度を算出する。例えば笑顔の特徴量である距離710、711、712の内、距離710が算出できなかった場合は距離711、712のみ用いて笑顔度を算出する。また、表情推定手段50bは、基準顔情報と他の顔情報との比を演算し、基準顔情報に対する他の顔情報の変化量を示す変化量情報を生成してもよい。   The facial expression estimation means 50b calculates the amount of change in the feature amount using only the calculated feature amount even when not all of the feature points to be detected are detected due to insufficient resolution of the acquired second image data. Calculate the smile level. For example, when the distance 710 cannot be calculated from the distances 710, 711, and 712 that are smile feature amounts, the degree of smile is calculated using only the distances 711 and 712. Further, the facial expression estimation means 50b may calculate a ratio between the reference face information and other face information, and generate change amount information indicating a change amount of the other face information with respect to the reference face information.

ステップS27(表情推定ステップ)では、表情推定手段は、基準顔情報と第2の顔情報とを比較して、第2の顔情報に対応した被写体の顔の表情を推定する。すなわち、表情推定手段50bは、検出しようとする表情に達したか否かを判断する。   In step S27 (expression estimation step), the expression estimation means compares the reference face information with the second face information, and estimates the expression of the face of the subject corresponding to the second face information. That is, the facial expression estimation means 50b determines whether or not the facial expression to be detected has been reached.

例えば、表情推定手段50bは、検出しようとする表情に達したと判断するための変化量の閾値を示す閾値情報を後述のメモリ52から受け取る。表情推定手段50bは、変化量情報と閾値情報とに基づいて、変化量が閾値を超えたか否かを判定する。表情推定手段50bは、変化量が閾値を超えたと判定した場合、対象とする被写体に対して、検出しようとする表情に達したと判断する。表情推定手段50bは、変化量が閾値を超えていないと判定した場合、対象とする被写体に対して、検出しようとする表情に達していないと判断する。   For example, the facial expression estimation means 50b receives threshold value information indicating the threshold value of the change amount for determining that the facial expression to be detected has been reached from the memory 52 described later. The facial expression estimation means 50b determines whether or not the change amount exceeds the threshold value based on the change amount information and the threshold value information. When it is determined that the amount of change exceeds the threshold value, the facial expression estimation means 50b determines that the facial expression to be detected has been reached for the subject. When it is determined that the amount of change does not exceed the threshold value, the facial expression estimation unit 50b determines that the facial expression to be detected has not reached the target subject.

表情推定手段50bは、検出しようとする表情に達したと判断する場合、処理をステップS29へ進め、検出しようとする表情に達していないと判断する場合、処理を終了する。   When it is determined that the facial expression to be detected has been reached, the facial expression estimating means 50b advances the process to step S29, and when it is determined that the facial expression to be detected has not been reached, the processing is terminated.

ステップS29では、表情推定手段50が、メモリ52にアクセスして、目標とする表情に達した被写体の表情フラグをOFF状態からON状態へ書き換える。   In step S29, the facial expression estimation means 50 accesses the memory 52 and rewrites the facial expression flag of the subject that has reached the target facial expression from the OFF state to the ON state.

以上のように、被写体の顔の表情を推定するための第2の画像データの第2の解像度は、基準顔情報を取得するための第1の画像データの第1の解像度よりも低くなっている。   As described above, the second resolution of the second image data for estimating the facial expression of the subject is lower than the first resolution of the first image data for acquiring the reference face information. Yes.

すなわち、被写体の顔の表情を推定するための第2の画像データの解像度が低いので、被写体の表情を推定するための処理時間を短縮することができるため、被写体の表情を高速に推定することができる。   That is, since the resolution of the second image data for estimating the facial expression of the subject is low, the processing time for estimating the facial expression of the subject can be reduced, so that the facial expression of the subject can be estimated at high speed. Can do.

また、基準顔情報を取得するための第1の画像データの解像度が高いので、基準顔情報(第1の特徴量)を得るために抽出される特徴点の数が減少することを避けることができる。これにより、第2の画像データから得られる第2の顔情報に含まれる特徴点が変動しても、被写体の顔の表情を推定する精度を高精度に維持できる。なお、光電変換手段14から読み出す画素数を異ならせることで解像度の異なる第1の画像データと第2の画像データとを生成していたが、これ以外の方法であっても構わない。例えば、A/D変換して生成された第1の画像データにリサイズ処理を施して、第1の画像データと解像度の異なる第2の画像データとを生成しても構わない。   In addition, since the resolution of the first image data for acquiring the reference face information is high, it is possible to avoid a decrease in the number of feature points extracted for obtaining the reference face information (first feature amount). it can. Thereby, even if the feature point included in the second face information obtained from the second image data fluctuates, the accuracy of estimating the facial expression of the subject can be maintained with high accuracy. Note that the first image data and the second image data having different resolutions are generated by changing the number of pixels read from the photoelectric conversion unit 14, but other methods may be used. For example, the first image data generated by A / D conversion may be resized to generate first image data and second image data having a different resolution.

したがって、高速で高精度に被写体の顔の表情を推定することができる。この結果、良い表情と判定した時にシャッターチャンスを逃さず撮影することができる。   Therefore, the facial expression of the subject can be estimated at high speed and with high accuracy. As a result, it is possible to shoot without missing a photo opportunity when it is determined that the expression is good.

また、被写体の表情を推定するための制御信号を減らすことができるので、被写体の表情を推定するための電力を低減できる。   Moreover, since the control signal for estimating the facial expression of the subject can be reduced, the power for estimating the facial expression of the subject can be reduced.

次に、上述した実施形態の機能を実現するためのプログラムについて説明する。   Next, a program for realizing the functions of the above-described embodiment will be described.

上述した実施形態の機能を実現するように各種のデバイスを動作させ、その各種のデバイスと接続された装置あるいはシステム内のコンピュータに対して上述した実施形態の機能を実現させるソフトウェアのプログラムコード(プログラム)を供給する。   Software program codes (programs) that operate various devices so as to realize the functions of the above-described embodiments, and realize the functions of the above-described embodiments for a computer in an apparatus or system connected to the various devices. ).

そして、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に(ソフトウェア的に又はハードウェア的に)格納されたプログラムにしたがって上に記載した各種のデバイスを動作させるようにしたものも、本発明の範疇に含まれる。   A device in which various devices described above are operated in accordance with a program (software or hardware) stored in a computer (CPU or MPU) of the system or apparatus is also included in the scope of the present invention. include.

また、この場合、上記のソフトウェアのプログラム自体が上述した実施形態の機能を実現することになる。   In this case, the software program itself realizes the functions of the above-described embodiment.

また、そのプログラム自体、及びそのプログラムのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムを格納した記憶媒体も、本発明の範疇に含まれる。   The program itself and means for supplying the program code of the program to a computer, for example, a storage medium storing such a program are also included in the scope of the present invention.

かかるプログラムを記憶する記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for storing such a program, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、供給されたプログラムをコンピュータが実行することにより、上述の実施形態の機能が実現されるだけではない。   In addition, the functions of the above-described embodiments are not only realized by the computer executing the supplied program.

例えば、そのプログラムがコンピュータにおいて稼動しているOS(オペレーティングシステム)あるいは他のアプリケーション等と協働して上述の実施形態の機能を実現させる場合にも、かかるプログラムは、本発明の範疇に含まれる。   For example, when the program realizes the functions of the above-described embodiment in cooperation with an OS (operating system) running on a computer or another application, the program is also included in the scope of the present invention. .

さらに、供給されたプログラムは、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納される。   Further, the supplied program is stored in a memory provided in a function expansion board of the computer or a function expansion unit connected to the computer.

そして、そのプログラムの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合にも、かかるプログラムは、本発明の範疇に含まれる。   Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and when the functions of the above-described embodiments are realized by the processing, Such a program is included in the category of the present invention.

本発明の実施形態に係る画像処理装置の構成図。1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. 本発明の実施形態における画像処理装置が被写体の表情を推定する際の処理(笑顔撮影モードの処理)の流れを示すフローチャート。5 is a flowchart showing a flow of processing (smiling shooting mode processing) when the image processing apparatus according to the embodiment of the present invention estimates a facial expression of a subject. 本発明の実施形態における被写体ごとの準備処理の流れを示すフローチャート。6 is a flowchart showing a flow of preparation processing for each subject in the embodiment of the present invention. 本発明の実施形態における被写体ごとの検出処理の流れを示すフローチャート。The flowchart which shows the flow of the detection process for every to-be-photographed object in embodiment of this invention. 本発明の実施形態における検出する特徴点を示す図。The figure which shows the feature point to detect in embodiment of this invention. 本発明の実施形態における検出範囲を示す図。The figure which shows the detection range in embodiment of this invention. 本発明の実施形態における検出範囲を示す図。The figure which shows the detection range in embodiment of this invention. 本発明の実施形態における検出範囲を示す図。The figure which shows the detection range in embodiment of this invention. 本発明の実施形態における検出範囲を示す図。The figure which shows the detection range in embodiment of this invention. 本発明の実施形態における検出範囲を示す図。The figure which shows the detection range in embodiment of this invention. 本発明の実施形態における検出範囲を示す図。The figure which shows the detection range in embodiment of this invention. 本発明の実施形態における特徴量を示す図。The figure which shows the feature-value in embodiment of this invention.

符号の説明Explanation of symbols

10:撮影レンズ
12:シャッター
14:撮像素子
16:A/D変換器
18:タイミング発生回路
20:画像処理回路
22:メモリ制御回路
24:画像表示メモリ
26:D/A変換器
28:画像表示部
30:メモリ
32:画像圧縮・伸長回路
40:露光制御手段
42:測距制御手段
44:ズーム制御手段
46:バリア制御手段
48:フラッシュ
50:システム制御回路
52:メモリ
54:表示部
56:不揮発性メモリ
60:モードダイアルスイッチ
62:シャッタースイッチSW1
64:シャッタースイッチSW2
66:画像表示ON/OFFスイッチ
68:クイックレビューON/OFFスイッチ
70:操作部
80:電源制御手段
82:コネクタ
84:コネクタ
86:電源手段
90:カードコントローラ
91:インタフェース
92:コネクタ
98:記録媒体着脱検知手段
100:デジタルカメラ
102:保護手段
104:光学ファインダ
120:外部記録媒体
10: Photography lens
12: Shutter
14: Image sensor
16: A / D converter
18: Timing generation circuit
20: Image processing circuit 22: Memory control circuit
24: Image display memory
26: D / A converter
28: Image display section
30: Memory
32: Image compression / decompression circuit 40: Exposure control means
42: Ranging control means
44: Zoom control means
46: Barrier control means
48: Flash
50: System control circuit
52: Memory
54: Display section
56: Nonvolatile memory 60: Mode dial switch
62: Shutter switch SW1
64: Shutter switch SW2
66: Image display ON / OFF switch
68: Quick review ON / OFF switch
70: Operation unit 80: Power control means
82: Connector
84: Connector
86: Power supply means 90: Card controller
91: Interface
92: Connector
98: Recording medium attachment / detachment detecting means 100: Digital camera
102: Protection means
104: Optical viewfinder 120: External recording medium

Claims (6)

異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する取得手段と、
前記取得手段により取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する顔領域検出手段と、
前記顔領域検出手段により検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する顔情報抽出手段と、
前記顔情報抽出手段により抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する顔情報選択手段と、
前記基準顔情報に基づいて、前記被写体の顔の表情を推定する表情推定手段と、
を備え、
前記取得手段は、前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得し、
前記顔領域検出手段は、前記取得手段により取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出し、
前記顔情報抽出手段は、前記顔領域検出手段により検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出し、
前記表情推定手段は、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する
ことを特徴とする画像処理装置。
Obtaining means for obtaining first image data obtained by imaging a subject at a plurality of different timings at a first resolution;
Face area detection means for detecting a first face area of the subject in each of the plurality of first image data acquired by the acquisition means;
Face information extracting means for extracting, from each of the plurality of first face areas detected by the face area detecting means, first face information relating to the shape of the constituent elements of the face of the subject;
Face information selection means for selecting reference face information serving as a reference for estimating the facial expression of the subject from the plurality of first face information extracted by the face information extraction means;
A facial expression estimating means for estimating a facial expression of the subject based on the reference face information;
With
The acquisition means acquires second image data obtained by imaging the subject after the reference face information is selected, at a second resolution lower than the first resolution,
The face area detecting unit detects a second face area of the subject in the second image data acquired by the acquiring unit;
The face information extracting means extracts second face information related to the shape of the constituent element of the face of the subject from the second face area detected by the face area detecting means;
The image processing apparatus, wherein the facial expression estimation means estimates the facial expression of the subject corresponding to the second face information by comparing the reference face information and the second face information.
前記表情推定手段は、前記第2の顔情報に含まれる特徴量が前記第1の顔情報に含まれる特徴量より少ない場合、前記第2の顔情報に含まれる特徴量と、前記第1の顔情報に含まれる特徴量のうち前記第2の顔情報に含まれる特徴量に対応するものとを比較して前記被写体の顔の表情を推定する
ことを特徴とする請求項1に記載の画像処理装置。
When the feature amount included in the second face information is less than the feature amount included in the first face information, the facial expression estimation means includes the feature amount included in the second face information, and the first face information The image according to claim 1, wherein the facial expression of the subject is estimated by comparing a feature amount included in the face information with a feature amount corresponding to the feature amount included in the second face information. Processing equipment.
前記取得手段は、
前記被写体の光学像を光電変換して画像信号を生成する光電変換手段と、
前記光電変換手段から画像信号を読み出す読み出し手段と、
前記読み出し手段により読み出された画像信号をA/D変換して画像データを生成するA/D変換手段と、
を含む
ことを特徴とする請求項1又は2に記載の画像処理装置。
The acquisition means includes
Photoelectric conversion means for photoelectrically converting the optical image of the subject to generate an image signal;
Reading means for reading out an image signal from the photoelectric conversion means;
A / D conversion means for A / D converting the image signal read by the reading means to generate image data;
The image processing apparatus according to claim 1, further comprising:
前記第1の画像データを前記第1の解像度で得るために、第1の画像信号を第1の画素数で読み出し、前記第2の画像データを前記第2の解像度で得るために、第2の画像信号を前記第1の画素数より少ない第2の画素数で読み出すように、前記光電変換手段および前記読み出し手段の少なくとも一方を制御する制御手段をさらに備えた
ことを特徴とする請求項3に記載の画像処理装置。
In order to obtain the first image data with the first resolution, the first image signal is read with the first number of pixels, and the second image data is obtained with the second resolution by using the second resolution. 4. The apparatus according to claim 3, further comprising a control unit that controls at least one of the photoelectric conversion unit and the reading unit so that the image signal is read with a second number of pixels smaller than the first number of pixels. An image processing apparatus according to 1.
異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、
前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、
前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、
前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、
前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、
前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、
前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、
前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップと、
を備えたことを特徴とする画像処理方法。
A first acquisition step of acquiring first image data obtained by imaging a subject at a plurality of different timings at a first resolution;
A first face area detecting step of detecting a first face area of the subject in each of the plurality of first image data acquired in the first acquiring step;
A first face information extracting step of extracting first face information relating to the shape of the constituent element of the face of the subject from each of the plurality of first face areas detected in the first face area detecting step; ,
A first face information selection step of selecting reference face information serving as a reference for estimating the facial expression of the subject from the plurality of first face information extracted in the first face information extraction step; ,
After the reference face information is selected in the first face information selection step, second image data obtained by imaging the subject is acquired at a second resolution lower than the first resolution. A second acquisition step;
A second face area detecting step of detecting a second face area of the subject in the second image data acquired in the second acquiring step;
A second face information extracting step of extracting second face information related to the shape of the constituent element of the face of the subject from the second face area detected in the second face area detecting step;
A facial expression estimation step of comparing the reference face information and the second facial information to estimate the facial expression of the subject corresponding to the second facial information;
An image processing method comprising:
画像処理装置に、
異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、
前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、
前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、
前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、
前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、
前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、
前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、
前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップと、
を実行させることを特徴とする画像処理プログラム。
In the image processing device,
A first acquisition step of acquiring first image data obtained by imaging a subject at a plurality of different timings at a first resolution;
A first face area detecting step of detecting a first face area of the subject in each of the plurality of first image data acquired in the first acquiring step;
A first face information extracting step of extracting first face information relating to the shape of the constituent element of the face of the subject from each of the plurality of first face areas detected in the first face area detecting step; ,
A first face information selection step of selecting reference face information serving as a reference for estimating the facial expression of the subject from the plurality of first face information extracted in the first face information extraction step; ,
After the reference face information is selected in the first face information selection step, second image data obtained by imaging the subject is acquired at a second resolution lower than the first resolution. A second acquisition step;
A second face area detecting step of detecting a second face area of the subject in the second image data acquired in the second acquiring step;
A second face information extracting step of extracting second face information related to the shape of the constituent element of the face of the subject from the second face area detected in the second face area detecting step;
A facial expression estimation step of comparing the reference face information and the second facial information to estimate the facial expression of the subject corresponding to the second facial information;
An image processing program for executing
JP2007176465A 2007-07-04 2007-07-04 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP4891163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007176465A JP4891163B2 (en) 2007-07-04 2007-07-04 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007176465A JP4891163B2 (en) 2007-07-04 2007-07-04 Image processing apparatus, image processing method, and image processing program

Publications (3)

Publication Number Publication Date
JP2009017215A true JP2009017215A (en) 2009-01-22
JP2009017215A5 JP2009017215A5 (en) 2010-08-19
JP4891163B2 JP4891163B2 (en) 2012-03-07

Family

ID=40357556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007176465A Expired - Fee Related JP4891163B2 (en) 2007-07-04 2007-07-04 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP4891163B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014450A (en) * 2009-08-05 2011-02-11 삼성전자주식회사 Apparatus and method for improving face recognition ratio
CN103391424A (en) * 2012-05-08 2013-11-13 安讯士有限公司 Method for analyzing object in image captured by monitoring camera and object analyzer
US11468709B2 (en) 2019-03-29 2022-10-11 Konica Minolta, Inc. Image forming apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092701A (en) * 2001-09-18 2003-03-28 Ricoh Co Ltd Imaging apparatus
JP2004294498A (en) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd Automatic photographing system
JP2005056388A (en) * 2003-07-18 2005-03-03 Canon Inc Image processing apparatus, image processing method and imaging device
JP2005157911A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Face region detection method, device, and program, and computer-readable storage medium with face region detecting program stored thereon
JP2005266984A (en) * 2004-03-17 2005-09-29 Konica Minolta Holdings Inc Image processing system
JP2006018805A (en) * 2004-06-02 2006-01-19 Fuji Photo Film Co Ltd Particular region detection method, particular region detection apparatus and program
JP2006115406A (en) * 2004-10-18 2006-04-27 Omron Corp Imaging apparatus
JP2007072606A (en) * 2005-09-05 2007-03-22 Canon Inc Image processor and processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092701A (en) * 2001-09-18 2003-03-28 Ricoh Co Ltd Imaging apparatus
JP2004294498A (en) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd Automatic photographing system
JP2005056388A (en) * 2003-07-18 2005-03-03 Canon Inc Image processing apparatus, image processing method and imaging device
JP2005157911A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Face region detection method, device, and program, and computer-readable storage medium with face region detecting program stored thereon
JP2005266984A (en) * 2004-03-17 2005-09-29 Konica Minolta Holdings Inc Image processing system
JP2006018805A (en) * 2004-06-02 2006-01-19 Fuji Photo Film Co Ltd Particular region detection method, particular region detection apparatus and program
JP2006115406A (en) * 2004-10-18 2006-04-27 Omron Corp Imaging apparatus
JP2007072606A (en) * 2005-09-05 2007-03-22 Canon Inc Image processor and processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014450A (en) * 2009-08-05 2011-02-11 삼성전자주식회사 Apparatus and method for improving face recognition ratio
US9311522B2 (en) 2009-08-05 2016-04-12 Samsung Electronics Co., Ltd. Apparatus and method for improving face recognition ratio
KR101661211B1 (en) * 2009-08-05 2016-10-10 삼성전자주식회사 Apparatus and method for improving face recognition ratio
CN103391424A (en) * 2012-05-08 2013-11-13 安讯士有限公司 Method for analyzing object in image captured by monitoring camera and object analyzer
JP2013235580A (en) * 2012-05-08 2013-11-21 Axis Ab Video analysis
US11468709B2 (en) 2019-03-29 2022-10-11 Konica Minolta, Inc. Image forming apparatus

Also Published As

Publication number Publication date
JP4891163B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
JP5224955B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US7636123B2 (en) Image capturing apparatus with light emission controlling mechanism and method of controlling the image capturing apparatus
JP5424732B2 (en) Imaging apparatus, control method thereof, and program
US8711244B2 (en) Imaging apparatus for calculating a histogram to adjust color balance
JP6148431B2 (en) Imaging apparatus and control method thereof
JP2010141376A (en) Imaging apparatus and zoom control method
JP2005184508A (en) Imaging device and control method therefor
JP4906632B2 (en) Image processing apparatus, image processing method, and image processing program
JP4891163B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005167697A (en) Electronic camera having red-eye correction function
JP5055025B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009163422A (en) Image processing device, image processing method and image processing program
JP2008299430A (en) Image processing device, method, and program
US8223253B2 (en) Image pickup device and method of controlling same
JP2010008711A (en) Imaging apparatus, imaging method, and program
JP4682097B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5854861B2 (en) Imaging device, control method thereof, and control program
JP2010041598A (en) Imaging apparatus, and control method and control program for the same
JP5828722B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2010041399A (en) Imaging device and its control method
JP4902512B2 (en) Imaging apparatus, control method thereof, and program
JP4909009B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP2008109503A (en) Imaging apparatus, control method thereof, program and storage medium
JP2008219154A (en) Image processor and image processing method and imaging apparatus
JP2012039256A (en) Imaging apparatus, control method therefor and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111215

R151 Written notification of patent or utility model registration

Ref document number: 4891163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees