JP2009017215A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2009017215A JP2009017215A JP2007176465A JP2007176465A JP2009017215A JP 2009017215 A JP2009017215 A JP 2009017215A JP 2007176465 A JP2007176465 A JP 2007176465A JP 2007176465 A JP2007176465 A JP 2007176465A JP 2009017215 A JP2009017215 A JP 2009017215A
- Authority
- JP
- Japan
- Prior art keywords
- face
- face information
- subject
- image data
- facial expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
近年、顔の表情、特に人物の顔の表情を検出する技術が開発されつつある。一般的に、カメラで人物を撮影する際には、被写体である人物の表情が笑顔などの良い表情のタイミングで撮影することが望まれることが多い。そのため、デジタルカメラへの表情検出技術の応用が検討されている。 In recent years, techniques for detecting facial expressions, particularly human facial expressions, are being developed. In general, when a person is photographed with a camera, it is often desired that the facial expression of the person who is the subject is photographed with a good expression such as a smile. Therefore, the application of facial expression detection technology to digital cameras is being studied.
特許文献1に示す技術では、予め表情認識処理に使用するための無表情の参照画像から複数の第1の特徴点を抽出した後、第1の特徴点間の距離を算出する。また、判定対象の画像から複数の第2の特徴点を抽出した後、第2の特徴点間の距離を算出する。そして、第1の特徴点間の距離と第2の特徴点間の距離との差分値を算出することにより表情を判定する。
良い表情と判定した時にシャッターチャンスを逃さず撮影するには、被写体の顔の表情を高速に推定する必要がある。被写体の顔の表情を高速に推定するには、取得される画像データの解像度を下げ、処理するデータ量を少なくし、処理時間を短くすることが考えられる。 To shoot without missing a photo opportunity when it is determined that the facial expression is good, it is necessary to estimate the facial expression of the subject at high speed. In order to estimate the facial expression of the subject at high speed, it is conceivable to reduce the resolution of the acquired image data, reduce the amount of data to be processed, and shorten the processing time.
ここで、取得される画像データの解像度を下げることにより、表情を推定する際に用いる顔の特徴点の抽出数が減少し、被写体の顔の表情を推定する精度が落ちる可能性がある。 Here, by lowering the resolution of the acquired image data, the number of facial feature points used for estimating the facial expression may be reduced, which may reduce the accuracy of estimating the facial expression of the subject.
本発明の課題は、高速で高精度に被写体の顔の表情を推定することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することにある。 An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of estimating the facial expression of a subject at high speed and with high accuracy.
本発明の第1側面に係る画像処理装置は、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する取得手段と、前記取得手段により取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する顔領域検出手段と、前記顔領域検出手段により検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する顔情報抽出手段と、前記顔情報抽出手段により抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する顔情報選択手段と、前記基準顔情報に基づいて、前記被写体の顔の表情を推定する表情推定手段とを備え、前記取得手段は、前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得し、前記顔領域検出手段は、前記取得手段により取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出し、前記顔情報抽出手段は、前記顔領域検出手段により検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出し、前記表情推定手段は、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定することを特徴とする。 An image processing apparatus according to a first aspect of the present invention is configured to acquire first image data obtained by imaging a subject at a plurality of different timings at a first resolution, and acquired by the acquisition unit. In each of the plurality of first image data, a face area detection unit that detects a first face area of the subject, and a plurality of the first face areas detected by the face area detection unit, Face information extraction means for extracting first face information related to the shape of the constituent elements of the face of the subject, and the facial expression of the subject from the plurality of first face information extracted by the face information extraction means. Face information selection means for selecting reference face information serving as a reference for estimation, and facial expression estimation means for estimating a facial expression of the subject based on the reference face information, wherein the acquisition means includes the reference Face Is selected, the second image data obtained by imaging the subject is acquired at a second resolution lower than the first resolution, and the face area detecting means is acquired by the acquiring means. A second face area of the subject is detected in the second image data, and the face information extracting means detects the face of the subject from the second face area detected by the face area detecting means. Second facial information related to the shape of the component is extracted, and the facial expression estimating means compares the reference facial information with the second facial information, and compares the reference facial information with the second facial information. It is characterized by estimating facial expressions.
本発明の第2側面に係る画像処理方法は、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップとを備えたことを特徴とする。 The image processing method according to the second aspect of the present invention includes a first acquisition step of acquiring, at a first resolution, first image data obtained by imaging a subject at a plurality of different timings; In each of the plurality of first image data acquired in the acquisition step, the first face area detection step for detecting the first face area of the subject and the first face area detection step detected. A first face information extraction step for extracting first face information related to the shape of the constituent elements of the face of the subject from each of the plurality of first face regions, and the first face information extraction step. A first face information selection step of selecting reference face information serving as a reference for estimating a facial expression of the subject from the plurality of first face information; and the first face information selection step; Reference face information is selected After that, the second acquisition step of acquiring the second image data obtained by imaging the subject at a second resolution lower than the first resolution is acquired at the second acquisition step. In the second image data, the second face area detecting step for detecting the second face area of the subject, and the second face area detected in the second face area detecting step, A second face information extracting step for extracting second face information related to the shape of the constituent element of the subject's face is compared with the second face information by comparing the reference face information and the second face information. And a facial expression estimation step for estimating the facial expression of the subject corresponding to.
本発明の第3側面に係る画像処理プログラムは、画像処理装置に、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップとを実行させることを特徴とする。 An image processing program according to a third aspect of the present invention includes a first acquisition step of acquiring, at a first resolution, first image data obtained by imaging an object at a plurality of different timings in an image processing apparatus. A first face area detecting step for detecting a first face area of the subject in each of the plurality of first image data obtained in the first obtaining step; and the first face area detection. A first face information extracting step of extracting first face information relating to the shape of a constituent element of the face of the subject from each of the plurality of first face regions detected in the step; and the first face information A first face information selection step of selecting reference face information as a reference for estimating the facial expression of the subject from the plurality of first face information extracted in the extraction step; and the first face Information selection step A second acquisition step of acquiring second image data obtained by imaging the subject at a second resolution lower than the first resolution after the reference face information is selected in In the second image data acquired in the second acquisition step, a second face area detection step for detecting a second face area of the subject, and the detection in the second face area detection step. A second face information extracting step for extracting second face information relating to the shape of a constituent element of the subject's face from a second face area; and comparing the reference face information and the second face information. A facial expression estimation step of estimating a facial expression of the subject corresponding to the second facial information.
本発明によれば、高速で高精度に被写体の顔の表情を推定することができる。 According to the present invention, the facial expression of a subject can be estimated at high speed and with high accuracy.
本発明の実施形態に係る画像処理装置100について、図1を参照して説明する。図1は、本発明の実施形態に係る画像処理装置100の構成図である。
An
画像処理装置100は、例えば、デジタルカメラである。画像処理装置100は、以下の構成要素を備える。
The
保護手段102は、例えばバリアである。保護手段102は、外部と撮影レンズ10との間に配置され、撮影レンズ10を保護する。シャッター12は、撮影レンズ10と後述の光電変換手段14との間に配置され、撮影レンズ10から光電変換手段14へ導かれる光量を絞るための絞り機能を有する。
The protection means 102 is, for example, a barrier. The
取得手段17は、光電変換手段14、読み出し手段15、及びA/D変換手段16を含む。光電変換手段14は、被写体の光学像を光電変換して画像信号を生成する。読み出し手段15は、光電変換手段14から画像信号を読み出す。A/D変換手段16は、読み出し手段15により読み出された画像信号をA/D変換して画像データを生成する。
The
ここで、取得手段17は、異なる複数のタイミングで被写体を撮像して、被写体の複数の第1の画像データを第1の解像度で取得する。すなわち、光電変換手段14は、被写体の光学像を光電変換して第1の画像信号を生成する。読み出し手段15は、光電変換手段14から第1の画像信号を第1の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第1の画像信号をA/D変換して第1の画像データを生成する。第1の画像データは、その解像度が第1の解像度になっている。これらの動作が異なる複数のタイミングで行われて、複数の第1の画像データが第1の解像度で取得される。
Here, the acquisition means 17 images a subject at a plurality of different timings, and acquires a plurality of first image data of the subject at a first resolution. That is, the
また、取得手段17は、被写体を撮像して、被写体の第2の画像データを、第1の解像度よりも低い第2の解像度で取得する。すなわち、光電変換手段14は、被写体の光学像を光電変換して第2の画像信号を生成する。読み出し手段15は、光電変換手段14から第2の画像信号を、第1の画素数より少ない第2の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第2の画像信号をA/D変換して第2の画像データを生成する。第2の画像データは、その解像度が第2の解像度になっている。
The
タイミング発生部18は、メモリ制御部22及びシステム制御部50により制御されて、光電変換手段14、読み出し手段15、A/D変換手段16、後述のD/A変換器26にクロック信号や制御信号を供給する。
The
画像処理部20は、A/D変換手段16からのデータ或いはメモリ制御部22からのデータに対して、所定の画素補間処理や色変換処理を行う。
The image processing unit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A /
また、画像処理部20は、A/D変換手段16等から受け取った画像データを用いて所定の演算処理を行い、得られた演算結果をシステム制御部50へ供給する。これにより、システム制御部50は、露光制御手段40、測距制御手段42に対して制御を行い、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行っている。
The image processing unit 20 performs predetermined calculation processing using the image data received from the A /
さらに、画像処理部20は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 Further, the image processing unit 20 performs predetermined calculation processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.
また、画像処理部20は、顔領域検出手段20aと顔情報抽出手段20bとを含む。顔領域検出手段20aは、取得手段17により取得された複数の画像データのそれぞれにおいて、被写体の顔領域を検出する。例えば、画像データから、口や目などの顔の構成要素に相当する形状を抽出し、その構成要素の位置を基準として顔領域を検出する。顔情報抽出手段20bは、顔領域検出手段20aにより検出された複数の顔領域のそれぞれから、被写体の顔の構成要素の形状に関する顔情報を抽出する。顔情報は、例えば、口や目や眉毛などの具体的な形状や座標に関する情報を含み、あるいは、例えば、鼻の端点、鼻穴の中心点、耳の端点などの形状や座標に関する情報を含む。ここで、顔情報は、それぞれの端点や中心点あるいは目の黒点などを入力された顔の画像から、例えばニューラルネットワークや空間フィルタを用いたエッジ検出などの手法を用いて算出することにより抽出することができる。顔領域検出手段20aが顔領域を抽出する際には、口や目などの顔の構成要素としての条件を満たす形状が存在するか否かという判断を行っている。つまり、笑っているときの大きく開いた口でも、黙っているときの閉じた口でも、口という条件さえ満たせばその具体的な形状までは問わない。これに対し、顔情報抽出手段20bが顔情報を抽出する際には、同じ口であっても、口角の位置や口の開き具合などの具体的な形状や顔領域における座標の情報までも含めて抽出される。
The image processing unit 20 includes a face
ここで、顔領域検出手段20aは、取得手段17により取得された複数の第1の画像データのそれぞれにおいて、被写体の第1の顔領域を検出する。顔情報抽出手段20bは、顔領域検出手段20aにより検出された複数の第1の顔領域のそれぞれから、被写体の顔の構成要素の形状に関する第1の顔情報を抽出する。
Here, the face
また、顔領域検出手段20aは、取得手段17により取得された第2の画像データにおいて、被写体の第2の顔領域を検出する。顔情報抽出手段20bは、顔領域検出手段20aにより検出された第2の顔領域から、被写体の顔の構成要素の形状に関する第2の顔情報を抽出する。
Further, the face
メモリ制御回路22は、A/D変換手段16、タイミング発生部18、画像処理部20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮伸長部32を制御する。メモリ制御回路22は、A/D変換手段16や画像処理部20から受け取ったデータを画像表示メモリ24或いはメモリ30に書き込む。
The
画像表示メモリ24は、表示用の画像データを記憶する。D/A変換器26は、表示用の画像データをメモリ制御部22経由で画像表示メモリ24から受け取り、表示用の画像データをアナログ信号へD/A変換する。
The
第1の報知手段28は、D/A変換器26から受け取ったアナログ信号に応じた画像を表示する。第1の報知手段28は、例えば、TFT−LCDを含む。第1の報知手段28は、画像を逐次表示して、電子ファインダ機能を実現することが可能である。
The first notification means 28 displays an image corresponding to the analog signal received from the D /
ここで、第1の報知手段28は、システム制御部50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合にデジタルカメラ100の電力消費を大幅に低減することが出来る。
Here, the first notification means 28 can arbitrarily turn on / off the display according to an instruction from the
メモリ30は、撮影した静止画像や動画像を格納する。メモリ30は、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影する連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。また、メモリ30はシステム制御部50の作業領域としても使用することが可能である。
The
圧縮伸長部32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する。圧縮伸長部32は、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。
The compression / decompression unit 32 compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like. The compression / decompression unit 32 reads an image stored in the
露光制御手段40は、絞り機能を備えるシャッター12を制御する。露光制御手段40は、フラッシュ48と連携することにより、フラッシュ調光機能を実現することができる。
The exposure control means 40 controls the
測距制御手段42は、撮影レンズ10のフォーカシングを制御する。ズーム制御手段44は、撮影レンズ10のズーミングを制御する。バリア制御手段46は、保護手段102の動作を制御する。フラッシュ48は、AF補助光の投光機能、フラッシュ調光機能を有する。
The distance measurement control means 42 controls the focusing of the taking
システム制御部50は、デジタルカメラ100全体を制御する。例えば、システム制御部50は、取得手段17により取得された画像データに対して画像処理部20が演算した演算結果に基づき、露光制御手段40や測距制御手段42を制御する。
The
また、システム制御部50は、顔情報選択手段50a、表情推定手段50b、及び制御手段50cを含む。顔情報選択手段50aは、顔情報抽出手段20bにより抽出された複数の第1の顔情報から、被写体の顔の表情を推定するための基準となる基準顔情報を選択する。基準顔情報は、例えば、無表情状態の表情、すなわち、澄ました表情に対する顔情報である。ここで、顔情報選択手段50aは、例えば、所定の期間、口の形状の変化量が所定の閾値を超えなかった場合に、無表情状態であると判定して、その判定結果に応じた顔情報を基準顔情報として選択する。
The
なお、顔情報選択手段50aは、無表情状態を判定する際に、口以外の構成要素の形状を使用しても構わない。例えば、顔情報選択手段50aは、更に顔情報として眼の開閉度状態を用い、目の大きさの変化などを使用して眼開きの状態タイミングに基づいて基準顔情報を選択しても良い。また、顔情報選択手段50aは、瞳画像をニューラルネットワークで学習させ、固定閾値以上の瞳ニューロン数から眼の開閉状態を判定するようにしても良い。
The face
表情推定手段50bは、基準顔情報と第2の顔情報とを比較して、第2の顔情報に対応した被写体の顔の表情を推定する。すなわち、表情推定手段50bは、顔情報選択手段50aから基準顔情報を受け取り、画像処理部20の顔情報抽出手段20bから第2の顔情報を受け取る。表情推定手段50bは、基準顔情報と第2の顔情報との差分を演算し、基準顔情報に対する第2の顔情報の変化量を示す変化量情報を生成する。表情推定手段50bは、検出しようとする表情に達したと判断するための変化量の閾値を示す閾値情報を後述のメモリ52から受け取る。表情推定手段50bは、変化量情報と閾値情報とに基づいて、変化量が閾値を超えたか否かを判定する。これにより、表情推定手段50bは、対象とする被写体の顔が、目標とする表情に達したか否かを判断する。
The facial expression estimation means 50b compares the reference face information and the second face information, and estimates the facial expression of the subject corresponding to the second face information. That is, the facial expression estimation means 50b receives the reference face information from the face information selection means 50a, and receives the second face information from the face information extraction means 20b of the image processing unit 20. The facial expression estimation means 50b calculates the difference between the reference face information and the second face information, and generates change amount information indicating the change amount of the second face information with respect to the reference face information. The facial expression estimation means 50b receives threshold information indicating a change amount threshold for determining that the facial expression to be detected has been reached from the
制御手段50cは、第1の画像データを第1の解像度で取得し、第2の画像データを第2の解像度で取得するように、取得手段17を制御する。具体的には、制御手段50cは、光電変換手段14及び読み出し手段15の少なくとも一方へタイミング発生部18が供給する信号を制御することにより、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。すなわち、制御手段50cは、第1の画像データを第1の解像度で得るために、第1の画像信号を第1の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。また、制御手段50cは、第2の画像データを第2の解像度で得るために、第2の画像信号を第1の画素数より少ない第2の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。
The control unit 50c controls the
メモリ52は、システム制御部50の動作用の定数、変数等を記憶する。また、メモリ52は、予め設定情報として後述の入力手段75から受け取った閾値情報を記憶する。
The
第2の報知手段54は、システム制御部50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を報知する。第2の報知手段54は、デジタルカメラ100の後述の操作部70近辺の視認し易い位置に単数或いは複数個所設置される。第2の報知手段54は、例えば、液晶表示装置(LCD)、LED、発音素子(スピーカ)等の組み合わせにより構成されている。
The
また、第2の報知手段54は、その一部の機能が光学ファインダ104内に設置されている。
The second notification means 54 is partially installed in the
第2の報知手段54は、例えば、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示、絞り値表示、及び露出補正表示などをLCD等に表示する。あるいは、第2の報知手段54は、例えば、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、及び複数桁の数字による情報表示などをLCD等に表示する。あるいは、第2の報知手段54は、例えば、外部記録媒体120の着脱状態表示、通信I/F動作表示、及び日付け・時刻表示等をLCD等に表示する。
For example, the second notifying
また、第2の報知手段54は、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、及び露出補正表示等を光学ファインダ104内に表示する。
Further, the second notification means 54 displays in-focus display, camera shake warning display, flash charge display, shutter speed display, aperture value display, exposure correction display, and the like in the
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、画像処理プログラムなどのプログラムを記憶する。不揮発性メモリ56は、例えば、EEPROM等が用いられる。
The
入力手段75は、複数の被写体から顔情報を抽出する対象となる被写体を指示する抽出対象指示を受け付ける。あるいは、入力手段75は、被写体の表情を検出するための表情検出指示を受け付ける。あるいは、入力手段75は、検出しようとする表情に達したと判断するための変化量の閾値を変更するための変更指示を受け付ける。 The input means 75 accepts an extraction target instruction that specifies a subject from which face information is to be extracted from a plurality of subjects. Alternatively, the input means 75 accepts a facial expression detection instruction for detecting the facial expression of the subject. Alternatively, the input means 75 accepts a change instruction for changing the change amount threshold value for determining that the facial expression to be detected has been reached.
また、入力手段75は、システム制御部50の各種の動作指示を受け付ける。スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせを介して、所定の指示を受け付ける。この入力手段75は、モードダイアルスイッチ60、シャッターボタン61、第1シャッタースイッチ62、第2シャッタースイッチ64、画像表示ON/OFFスイッチ66、及び操作部70を含む。
Further, the
モードダイアルスイッチ60は、電源オフ、自動撮影モード、撮影モード、パノラマ撮影モード、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを切り替え設定するための指示を受け付ける。
The
シャッターボタン61は、静止画撮影等するための指示などをユーザから受け付ける。例えば、シャッターボタン61は、半押しされることにより、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等するための第1の指示を受け付ける。例えば、シャッターボタン61は、全押しされることにより、静止画撮影等するための第2の指示を受け付ける。 The shutter button 61 receives an instruction for taking a still image from the user. For example, when the shutter button 61 is pressed halfway, AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash) processing, and the like are performed. Accept instructions. For example, when the shutter button 61 is fully pressed, the second instruction for taking a still image is received.
第1シャッタースイッチ(SW1)62は、第1の指示をシャッターボタン61から受け取るとON状態になり、ON状態である旨の情報をシステム制御部50へ供給する。システム制御部50は、第1シャッタースイッチ62がON状態であることに応じて、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を各部へ指示する。
When the first shutter switch (SW1) 62 receives the first instruction from the shutter button 61, the first shutter switch (SW1) 62 is turned on, and supplies information indicating the on state to the
第2シャッタースイッチ(SW2)64は、第2の指示をシャッターボタン61から受け取るとON状態になり、ON状態である旨の情報をシステム制御部50へ供給する。これにより、システム制御部50は、一連の撮影処理の動作開始を指示する。一連の撮影処理では、光電変換手段14から読み出した信号をA/D変換手段16、メモリ制御部22を介して記憶手段30に画像データを書き込む露光処理、画像処理部20やメモリ制御部22での演算を用いた現像処理を行う。そして、一連の撮影処理では、記憶手段30から画像データを読み出し、圧縮伸長部32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理を行う。
When the second shutter switch (SW2) 64 receives the second instruction from the shutter button 61, the second shutter switch (SW2) 64 is turned on, and supplies information indicating the on state to the
画像表示ON/OFFスイッチ66は、第1の報知手段28のON/OFFを設定するための指示を受け付ける。この指示により、システム制御部50は、光学ファインダー104を用いて撮影を行う際に、第1の報知手段28への電流供給を遮断して、省電力化を図ることができる。
The image display ON /
クイックレビューON/OFFスイッチ68は、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定するための指示を受け付ける。例えば、第1の報知手段28をOFFとした場合におけるクイックレビュー機能の設定を受け付けることができるものとする。
The quick review ON /
操作部70は、各種ボタンやタッチパネル等からなる。操作部70は、メニューボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタンを含む。操作部70は、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン、ブラケットモードの選択ボタン等を含む。 The operation unit 70 includes various buttons and a touch panel. The operation unit 70 includes a menu button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, a menu movement + (plus) button, and a menu movement− (minus) button. . The operation unit 70 includes a playback image movement + (plus) button, a playback image-(minus) button, a shooting image quality selection button, an exposure correction button, a date / time setting button, a bracket mode selection button, and the like.
電源制御手段80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行う。電源制御手段80は、検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、外部記録媒体120を含む各部へ供給する。
The power supply control means 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. The
コネクタ82は、電源制御手段80に接続されている。コネクタ84は、電源86に接続されている。電源86は、例えば、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等である。
The
カードコントローラ90は、メモリカード等の外部記録媒体とデータの送受信を行う。インタフェース91は、メモリカード等の外部記録媒体120とカードコントローラ90とのインタフェースとして機能する。コネクタ92は、メモリカード等の外部記録媒体120が接続される。記録媒体着脱検知手段98は、コネクタ92に外部記録媒体120が装着されているか否かを検知する。
The
なお、記録媒体を取り付けるインタフェース及びコネクタは、2以上の系統数であってもよい。また、インタフェース及びコネクタは、異なる規格のものが組み合わせされていても構わない。インタフェース及びコネクタは、半導体メモリカード等の規格に準拠したものを用いて構成して構わない。この場合、各種通信カードを接続することにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。各種通信カードは、例えば、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード等である。 Note that the number of interfaces and connectors for attaching the recording medium may be two or more. Further, interfaces and connectors having different standards may be combined. The interface and the connector may be configured using a semiconductor memory card or the like that conforms to the standard. In this case, by connecting various communication cards, image data and management information attached to the image data can be transferred to and from other computers and peripheral devices such as a printer. The various communication cards are, for example, LAN cards, modem cards, USB cards, IEEE 1394 cards, P1284 cards, SCSI cards, PHS communication cards, and the like.
光学ファインダ104は、撮影を行う際に被写体を確認するために用いられる。光学ファインダー104を用いれば、第1の報知手段28による電子ファインダー機能を使用すること無しに撮影を行うことが可能である。また、光学ファインダー104には、第2の報知手段54により表示される情報の一部、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示などに関する情報が表示される。
The
外部記録媒体120は、コネクタ92に着脱可能に接続される。外部記録媒体120は、例えば、メモリカード等である。
The
次に、画像処理装置100が被写体の表情を推定する際の処理(笑顔撮影モードの処理)の流れを、図2に示すフローチャートを用いて説明する。図2は、画像処理装置100が被写体の表情を推定する際の処理(笑顔撮影モードの処理)の流れを示すフローチャートである。
Next, the flow of processing when the
ステップS1(第1の取得ステップ)では、入力手段75が、笑顔撮影モードを選択するための指示を受け付ける。この笑顔撮影モードは、特定の被写体の笑顔を検出した際に自動的に撮影が行われる撮影モードである。取得手段17は、異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する。
In step S1 (first acquisition step), the input means 75 accepts an instruction for selecting a smile shooting mode. This smile shooting mode is a shooting mode in which shooting is automatically performed when a smile on a specific subject is detected. The
すなわち、制御手段50cは、第1の画像データを第1の解像度で得るために、第1の画像信号を第1の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。光電変換手段14は、被写体の光学像を光電変換して第1の画像信号を生成する。読み出し手段15は、光電変換手段14から第1の画像信号を第1の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第1の画像信号をA/D変換して第1の画像データを生成する。第1の画像データは、その解像度が第1の解像度になっている。これらの動作が異なる複数のタイミングで行われて、複数の第1の画像データが第1の解像度で取得される。
That is, the control unit 50c reads at least one of the
ステップS2(第1の顔領域検出ステップ)では、入力手段75が、顔領域検出を行うための指示をユーザから受け付け、その指示を顔領域検出手段20aへ供給する。顔領域検出手段20aは、その指示に応じて、取得手段17により取得された複数の第1の画像データのそれぞれにおいて、被写体の第1の顔領域を検出する。顔領域検出手段20aは、検出された第1の顔領域に関する情報をシステム制御部50へ供給する。
In step S2 (first face area detection step), the
ステップS3では、準備処理が行われる。準備処理の詳細に関しては後述する。 In step S3, a preparation process is performed. Details of the preparation process will be described later.
ステップS4では、システム制御部50が、表情を検出すべきであるか否かを判断する。
In step S4, the
例えば、システム制御部50は、被写体の表情を検出するための表情検出指示を入力手段75から受け取った場合、表情を検出すべきであると判断する。システム制御部50は、被写体の表情を検出するための表情検出指示を入力手段75から受け取らなかった場合、表情を検出すべきでないと判断する。
For example, the
あるいは、例えば、システム制御部50は、対象とする被写体の全てについて基準顔情報が選択された場合、表情を検出すべきであると判断する。システム制御部50は、対象とする被写体のうち基準顔情報が選択されていない被写体が存在する場合、表情を検出すべきでないと判断する。
Alternatively, for example, the
システム制御部50は、表情を検出すべきであると判断する場合、処理をステップS5へ進め、表情を検出すべきでないと判断する場合、処理をステップS1へ進める。
If the
ステップS5(第2の取得ステップ)では、取得手段17が、被写体の顔の表情を推定するために、被写体を撮像して得られた第2の画像データを、第1の解像度よりも低い第2の解像度で取得する。ここで、取得手段17は、後述の検出処理(ステップS7)において第2の顔情報を抽出することに成功していないと判断する場合、前回の処理で用いた第2の解像度よりも高い解像度であって第1の解像度よりも低い解像度を新たに第2の解像度とする。
In step S5 (second acquisition step), in order for the acquisition means 17 to estimate the facial expression of the subject, the second image data obtained by imaging the subject is set to the second resolution lower than the first resolution. Acquire at a resolution of 2. Here, when the
すなわち、制御手段50cは、第2の画像データを第2の解像度で得るために、第2の画像信号を第1の画素数より少ない第2の画素数で読み出すように、光電変換手段14及び読み出し手段15の少なくとも一方を制御する。ここで、制御手段50cは、後述の検出処理(ステップS7)において第2の顔情報を抽出することに成功していないと判断する場合、前回の処理で用いた第2の画素数よりも高い画素数を新たに第2の画素数とする。
That is, in order to obtain the second image data at the second resolution, the control unit 50c reads the second image signal with the second number of pixels smaller than the first number of pixels, and the
光電変換手段14は、被写体の光学像を光電変換して第2の画像信号を生成する。読み出し手段15は、光電変換手段14から第2の画像信号を、第1の画素数より少ない第2の画素数で読み出す。A/D変換手段16は、読み出し手段15により読み出された第2の画像信号をA/D変換して第2の画像データを生成する。第2の画像データは、その解像度が第2の解像度になっている。
The photoelectric conversion means 14 photoelectrically converts the optical image of the subject to generate a second image signal. The
ステップS6(第2の顔領域検出ステップ)では、顔領域検出手段20aが、取得手段17により取得された複数の画像データのそれぞれにおいて、被写体の顔領域を検出する。顔領域検出手段20aは、検出された顔領域に関する情報をシステム制御部50へ供給する。
In step S6 (second face area detecting step), the face
ステップS7では、検出処理が行われる。検出処理の詳細に関しては後述する。 In step S7, a detection process is performed. Details of the detection process will be described later.
ステップS8では、システム制御部50が、撮影すべきであるか否かを判断する。
In step S8, the
例えば、システム制御部50は、表情フラグがONされた被写体の数が所定数以上である場合、撮影すべきであると判断し、表情フラグがONされた被写体の数が所定数未満である場合、撮影すべきでないと判断する。
For example, the
あるいは、例えば、システム制御部50は、表示フラグがON状態である旨の情報を第2シャッタースイッチ64から受け取った場合、撮影すべきであると判断する。例えば、システム制御部50は、表示フラグがON状態である旨の情報を第2シャッタースイッチ64から受け取らなかった場合、撮影すべきでないと判断する。
Alternatively, for example, when the information indicating that the display flag is ON is received from the
システム制御部50は、撮影すべきであると判断する場合、処理をステップS9へ進め、撮影すべきでないと判断する場合、処理をステップS10へ進める。
If the
ステップS9では、システム制御部50が、一連の撮影処理の動作開始を指示する。一連の撮影処理では、撮像素子14から読み出した信号をA/D変換器16、メモリ制御部22を介して記憶手段30に画像データを書き込む露光処理、画像処理部20やメモリ制御部22での演算を用いた現像処理を行う。そして、一連の撮影処理では、記憶手段30から画像データを読み出し、圧縮伸長部32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理を行う。
In step S9, the
ステップS10では、システム制御部50が、笑顔撮影モードの処理を終了すべきか否かを判断する。
In step S10, the
例えば、システム制御部50は、検出処理(ステップS7)において第2の顔情報を抽出することに成功していないと判断する場合、笑顔撮影モードの処理を終了すべきでないと判断する。システム制御部50は、検出処理(ステップS7)において第2の顔情報を抽出することに成功していると判断する場合、笑顔撮影モードの処理を終了すべきであると判断する。
For example, if the
例えば、システム制御部50は、撮影モードを笑顔撮影モード以外の撮影モードへ変更するための指示を受け取った場合、笑顔撮影モードの処理を終了すべきであると判断する。システム制御部50は、撮影モードを笑顔撮影モード以外の撮影モードへ変更するための指示を受け取らなかった場合、笑顔撮影モードの処理を終了すべきでないと判断する。
For example, when the
あるいは、例えば、システム制御部50は、笑顔撮影モードを終了すべき指示を受け取った場合、笑顔撮影モードの処理を終了すべきであると判断する。システム制御部50は、笑顔撮影モードを終了すべき指示を受け取らなかった場合、笑顔撮影モードの処理を終了すべきでないと判断する。
Alternatively, for example, when receiving an instruction to end the smile shooting mode, the
次に、準備処理(ステップS3)の流れを、図3を用いて説明する。図3は、被写体ごとの準備処理の流れを示すフローチャートである。図3には、特定の被写体(例えば、図5に示す被写体O1)に着目した場合の処理が示されている。すなわち、準備処理は、個々の被写体ごとに独立して並行的に行われる。 Next, the flow of the preparation process (step S3) will be described with reference to FIG. FIG. 3 is a flowchart showing the flow of preparation processing for each subject. FIG. 3 shows processing when attention is paid to a specific subject (for example, the subject O1 shown in FIG. 5). That is, the preparation process is performed in parallel independently for each subject.
ステップS11では、顔情報抽出手段20bが、特定の被写体が対象とする被写体であるか否かを判断する。
In step S11, the face
例えば、顔情報抽出手段20bは、特定の被写体に対する抽出対象指示を入力手段75から受け取った場合、その特定の被写体が対象とする被写体であると判断する。顔情報抽出手段20bは、特定の被写体に対する抽出対象指示を入力手段75から受け取らなかった場合、その特定の被写体が対象とする被写体でないと判断する。
For example, when the face
顔情報抽出手段20bは、特定の被写体が対象とする被写体であると判断する場合、処理をステップS12へ進め、特定の被写体が対象とする被写体でないと判断する場合、処理を終了する。
When it is determined that the specific subject is the target subject, the face
ステップS12(第1の顔情報抽出ステップ)では、顔情報抽出手段20bが、顔領域検出手段20aにより検出された複数の第1の顔領域のそれぞれから、被写体の顔の構成要素の形状に関する第1の顔情報を抽出する。
In step S12 (first face information extraction step), the face
例えば、顔情報抽出手段20bは、以降のステップでの計算精度を上げるため、選択された顔のサイズと向きとを正規化する。顔情報抽出手段20bは、両眼の位置を用いて両眼間距離が所定の距離、顔の向きが所定の向きになるようにアフィン変換による正規化処理を行う。顔情報抽出手段20bは、正規化された顔から口や目や眉毛などの端点の形状を代表する特徴点を検出する。そして、顔情報抽出手段20bは、検出された各特徴点から第1の特徴量を算出する。すなわち、顔情報抽出手段20bは、複数の第1の顔領域のそれぞれから、被写体の顔の第1の特徴量を含む第1の顔情報を抽出する。
For example, the face
ここで、第1の顔情報は、例えば、図5に示すように、口や目や眉毛などの特徴点500〜517の具体的な形状や座標に関する情報を、第1の特徴量として含む。第1の顔情報は、それぞれの端点や中心点あるいは目の黒点などを入力された顔の画像から、例えばニューラルネットワークや空間フィルタを用いたエッジ検出などの手法を用いて算出することにより抽出することができる。すなわち、顔情報抽出手段20bは、各特徴点に対して所定の検出範囲を設定し、各検出範囲内で特徴量を検出するためのニューラルネットワークを用いることにより各特徴点を検出する。ニューラルネットワークには、顔検出同様に予め各特徴点画像データを用いて学習させた各ネットワークが使用される。
Here, as shown in FIG. 5, for example, the first face information includes information on specific shapes and coordinates of feature points 500 to 517 such as a mouth, eyes, and eyebrows as a first feature amount. The first face information is extracted from a face image to which each end point, center point, eye black point, or the like is input by using, for example, a technique such as edge detection using a neural network or a spatial filter. be able to. That is, the face
各特徴点に対する検出範囲は、例えば次のように設定される。顔情報抽出手段20bは、特徴点500、502(図5参照)に対して、例えば、図6に示すように、両眼間距離aと左眼位置400とを用いて検出範囲600、601を設定する。顔情報抽出手段20bは、特徴点503、505(図5参照)に対しても、特徴点500、502と同様に、両眼間距離aと右眼位置401を用いて検出範囲を設定する。顔情報抽出手段20bは、特徴点501(図5参照)に対して、図7に示すように、検出範囲602を設定する。顔情報抽出手段20bは、特徴点504(図5参照)に対しても、特徴点501と同様に検出範囲を設定する。顔情報抽出手段20bは、特徴点506、509(図5参照)に対して、図8に示すように、検出範囲603、604を設定する。顔情報抽出手段20bは、特徴点510、513に対しても、特徴点506、509と同様に検出範囲を設定する。顔情報抽出手段20bは、特徴点507、508(図5参照)に対して、図9に示すように、検出範囲605、606を設定する。顔情報抽出手段20bは、特徴点511、512(図5参照)に対しても、特徴点507、508と同様に検出範囲を設定する。顔情報抽出手段20bは、特徴点514、517(図5参照)に対して、図10に示すように検出範囲607、608を設定する。顔情報抽出手段20bは、特徴点515、516(図5参照)に対して、図11に示すように検出範囲609、610を設定する。
For example, the detection range for each feature point is set as follows. For example, as shown in FIG. 6, the face
顔情報抽出手段20bにより算出される特徴量は、例えば、次のような情報である。特徴量の一例として笑顔表情の特徴量について説明する。
The feature amount calculated by the face
笑顔表情は、Facial Action Coding System(FACS)において、次のように提唱されている。(P.Ekman and W.V.Friesen, Facial Action Coding System(FACS) Manual, Palo Alto:Consulting Psychologists Press, 1978)。「FACSにおける笑顔表情の定義」として、「頬を持ち上げる」ことと、「唇の端を引っ張りあげる」こととが挙げられている。 The smile expression is proposed in the Facial Action Coding System (FACS) as follows. (P. Ekman and WV Friesen, Facial Action Coding System (FACS) Manual, Palo Alto: Consulting Psychologists Press, 1978). “Defining a smiling facial expression in FACS” includes “lifting the cheek” and “pulling the edge of the lips”.
本実施形態では、顔情報抽出手段20bが、笑顔表情の特徴量として、上記FACSの定義に従った図12に示す特徴量710〜712を算出する。すなわち、顔情報抽出手段20bは、特徴点506と特徴点514とのy方向の距離710を算出する。顔情報抽出手段20bは、特徴点513と特徴点517とのy方向の距離711を算出する。顔情報抽出手段20bは、特徴点514と特徴点517とのx方向の距離712を算出する。なお、距離710〜712は、いずれも、基準となる距離(例えば、両眼間距離a)に対する相対的な距離である。
In the present embodiment, the face
ステップS13では、顔情報抽出手段20bが、顔情報を抽出することに成功したか否かを判断する。顔情報抽出手段20bは、顔情報を抽出することに成功したと判断した場合、処理をステップS15へ進め、顔情報を抽出することに成功していないと判断した場合、処理を終了する。
In step S13, the face
ステップS15(第1の顔情報選択ステップ)では、顔情報選択手段50aが、顔情報抽出手段20bにより抽出された複数の顔情報から、被写体の顔の表情を推定するための基準となる基準顔情報を選択する。基準顔情報は、例えば、無表情状態の表情、すなわち、澄ました表情に対する顔情報である。ここで、顔情報選択手段50aは、例えば、所定の期間、口の形状の変化量が所定の閾値を超えなかった場合に、無表情状態であると判定して、その判定結果に応じた顔情報を基準顔情報として選択する。
In step S15 (first face information selection step), the face
なお、顔情報選択手段50aは、無表情状態を判定する際に、口以外の構成要素の形状を使用しても構わない。例えば、顔情報選択手段50aは、更に顔情報として眼の開閉度状態を用い、目の大きさの変化などを使用して眼開きの状態タイミングに基づいて基準顔情報を選択しても良い。また、顔情報選択手段50aは、瞳画像をニューラルネットワークで学習させ、固定閾値以上の瞳ニューロン数から眼の開閉状態を判定するようにしても良い。
The face
次に、検出処理(ステップS7)の流れを、図4を用いて説明する。図4は、被写体ごとの検出処理の流れを示すフローチャートである。すなわち、検出処理は、個々の被写体ごとに独立して並行的に行われる。図4には、特定の被写体の着目した場合の処理が示されている。 Next, the flow of the detection process (step S7) will be described with reference to FIG. FIG. 4 is a flowchart showing the flow of detection processing for each subject. That is, the detection process is performed independently and in parallel for each subject. FIG. 4 shows a process when attention is paid to a specific subject.
ステップS23(第2の顔情報抽出ステップ)では、顔情報抽出手段20bが、顔領域検出手段20aにより検出された第2の顔領域から、被写体の顔の構成要素の形状に関する第2の顔情報を抽出する。すなわち、顔情報抽出手段20bは、第2の顔領域から、被写体の顔の第2の特徴量を含む第2の顔情報を抽出する。このステップS23の詳細は、上記のステップS12と同様である。
In step S23 (second face information extraction step), the face
なお、顔情報抽出手段20bは、取得された第2の画像データの解像度不足により検出したい特徴点の全てが検出されていない場合であっても、2以上の特徴点が検出されていれば、その2以上の特徴点を用いて第2の特徴量を算出する。
Note that the face
ステップS24では、顔情報抽出手段20bが、第2の顔情報を抽出することに成功したか否かを判断する。
In step S24, the face
例えば、顔情報抽出手段20bは、取得された第2の画像データの解像度不足により検出したい特徴点の全てが検出されていない場合であっても、例えば、2以上の特徴点が検出されていれば、第2の顔情報を抽出することに成功したと判断する。第2の顔情報を抽出することに成功したと判断する特徴点の数は、第1の顔情報を抽出することに成功したと判断する特徴点の数よりも少なく設定される。
For example, the face
顔情報抽出手段20bは、第2の顔情報を抽出することに成功したと判断した場合、処理をステップS25へ進め、第2の顔情報を抽出することに成功していないと判断した場合、処理を終了する。
If the face
ステップS25では、表情推定手段50bが、顔情報選択手段50aから基準顔情報を受け取り、画像処理部20の顔情報抽出手段20bから第2の顔情報を受け取る。表情推定手段50bは、基準顔情報と第2の顔情報との差分を演算し、基準顔情報に対する第2の顔情報の変化量を示す変化量情報を生成する。 In step S25, the facial expression estimation means 50b receives the reference face information from the face information selection means 50a, and receives the second face information from the face information extraction means 20b of the image processing unit 20. The facial expression estimation means 50b calculates the difference between the reference face information and the second face information, and generates change amount information indicating the change amount of the second face information with respect to the reference face information.
例えば、表情推定手段50bは、顔の個々の構成要素に対して基準顔情報に含まれる第1の特徴量と第2の顔情報に含まれる第2の特徴量との差分を演算する。そして、表情推定手段50bは、次の数式1を用いて、笑顔表情の度合い、すなわち、笑顔度を算出する。被写体の顔の個々の構成要素に対する基準顔情報と他の顔情報との差分をv1、v2、v3、・・・とするとき、表情推定手段50bは、笑顔度を、
SumScore=ΣScorei
=Σg(wi、vi)・・・数式1
としてi=1〜Nについて合計して演算する。ここで、Nは顔の個々の構成要素を識別するための番号であり、wは各構成要素の重みであり、gは得点算出関数である。すなわち、表情推定手段50bは、この笑顔度SumScoreを変化量情報として生成する。この笑顔度SumScoreは、例えば、0から100といった数値で表される。
For example, the facial expression estimation means 50b calculates the difference between the first feature amount included in the reference face information and the second feature amount included in the second face information for each component of the face. Then, the facial expression estimation means 50b calculates the smile facial expression level, that is, the smile level, using the following
SumScore = ΣScore i
= Σg (w i , v i )...
And i = 1 to N are calculated in total. Here, N is a number for identifying each component of the face, w is the weight of each component, and g is a score calculation function. That is, the facial expression estimation means 50b generates this smile level SumScore as change amount information. This smile degree SumScore is represented by a numerical value such as 0 to 100, for example.
なお、表情推定手段50bは、取得された第2の画像データの解像度不足により検出したい特徴点の全てが検出されていない場合でも、算出された特徴量のみ用いて特徴量の変化量を算出し笑顔度を算出する。例えば笑顔の特徴量である距離710、711、712の内、距離710が算出できなかった場合は距離711、712のみ用いて笑顔度を算出する。また、表情推定手段50bは、基準顔情報と他の顔情報との比を演算し、基準顔情報に対する他の顔情報の変化量を示す変化量情報を生成してもよい。
The facial expression estimation means 50b calculates the amount of change in the feature amount using only the calculated feature amount even when not all of the feature points to be detected are detected due to insufficient resolution of the acquired second image data. Calculate the smile level. For example, when the
ステップS27(表情推定ステップ)では、表情推定手段は、基準顔情報と第2の顔情報とを比較して、第2の顔情報に対応した被写体の顔の表情を推定する。すなわち、表情推定手段50bは、検出しようとする表情に達したか否かを判断する。 In step S27 (expression estimation step), the expression estimation means compares the reference face information with the second face information, and estimates the expression of the face of the subject corresponding to the second face information. That is, the facial expression estimation means 50b determines whether or not the facial expression to be detected has been reached.
例えば、表情推定手段50bは、検出しようとする表情に達したと判断するための変化量の閾値を示す閾値情報を後述のメモリ52から受け取る。表情推定手段50bは、変化量情報と閾値情報とに基づいて、変化量が閾値を超えたか否かを判定する。表情推定手段50bは、変化量が閾値を超えたと判定した場合、対象とする被写体に対して、検出しようとする表情に達したと判断する。表情推定手段50bは、変化量が閾値を超えていないと判定した場合、対象とする被写体に対して、検出しようとする表情に達していないと判断する。
For example, the facial expression estimation means 50b receives threshold value information indicating the threshold value of the change amount for determining that the facial expression to be detected has been reached from the
表情推定手段50bは、検出しようとする表情に達したと判断する場合、処理をステップS29へ進め、検出しようとする表情に達していないと判断する場合、処理を終了する。 When it is determined that the facial expression to be detected has been reached, the facial expression estimating means 50b advances the process to step S29, and when it is determined that the facial expression to be detected has not been reached, the processing is terminated.
ステップS29では、表情推定手段50が、メモリ52にアクセスして、目標とする表情に達した被写体の表情フラグをOFF状態からON状態へ書き換える。
In step S29, the facial expression estimation means 50 accesses the
以上のように、被写体の顔の表情を推定するための第2の画像データの第2の解像度は、基準顔情報を取得するための第1の画像データの第1の解像度よりも低くなっている。 As described above, the second resolution of the second image data for estimating the facial expression of the subject is lower than the first resolution of the first image data for acquiring the reference face information. Yes.
すなわち、被写体の顔の表情を推定するための第2の画像データの解像度が低いので、被写体の表情を推定するための処理時間を短縮することができるため、被写体の表情を高速に推定することができる。 That is, since the resolution of the second image data for estimating the facial expression of the subject is low, the processing time for estimating the facial expression of the subject can be reduced, so that the facial expression of the subject can be estimated at high speed. Can do.
また、基準顔情報を取得するための第1の画像データの解像度が高いので、基準顔情報(第1の特徴量)を得るために抽出される特徴点の数が減少することを避けることができる。これにより、第2の画像データから得られる第2の顔情報に含まれる特徴点が変動しても、被写体の顔の表情を推定する精度を高精度に維持できる。なお、光電変換手段14から読み出す画素数を異ならせることで解像度の異なる第1の画像データと第2の画像データとを生成していたが、これ以外の方法であっても構わない。例えば、A/D変換して生成された第1の画像データにリサイズ処理を施して、第1の画像データと解像度の異なる第2の画像データとを生成しても構わない。
In addition, since the resolution of the first image data for acquiring the reference face information is high, it is possible to avoid a decrease in the number of feature points extracted for obtaining the reference face information (first feature amount). it can. Thereby, even if the feature point included in the second face information obtained from the second image data fluctuates, the accuracy of estimating the facial expression of the subject can be maintained with high accuracy. Note that the first image data and the second image data having different resolutions are generated by changing the number of pixels read from the
したがって、高速で高精度に被写体の顔の表情を推定することができる。この結果、良い表情と判定した時にシャッターチャンスを逃さず撮影することができる。 Therefore, the facial expression of the subject can be estimated at high speed and with high accuracy. As a result, it is possible to shoot without missing a photo opportunity when it is determined that the expression is good.
また、被写体の表情を推定するための制御信号を減らすことができるので、被写体の表情を推定するための電力を低減できる。 Moreover, since the control signal for estimating the facial expression of the subject can be reduced, the power for estimating the facial expression of the subject can be reduced.
次に、上述した実施形態の機能を実現するためのプログラムについて説明する。 Next, a program for realizing the functions of the above-described embodiment will be described.
上述した実施形態の機能を実現するように各種のデバイスを動作させ、その各種のデバイスと接続された装置あるいはシステム内のコンピュータに対して上述した実施形態の機能を実現させるソフトウェアのプログラムコード(プログラム)を供給する。 Software program codes (programs) that operate various devices so as to realize the functions of the above-described embodiments, and realize the functions of the above-described embodiments for a computer in an apparatus or system connected to the various devices. ).
そして、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に(ソフトウェア的に又はハードウェア的に)格納されたプログラムにしたがって上に記載した各種のデバイスを動作させるようにしたものも、本発明の範疇に含まれる。 A device in which various devices described above are operated in accordance with a program (software or hardware) stored in a computer (CPU or MPU) of the system or apparatus is also included in the scope of the present invention. include.
また、この場合、上記のソフトウェアのプログラム自体が上述した実施形態の機能を実現することになる。 In this case, the software program itself realizes the functions of the above-described embodiment.
また、そのプログラム自体、及びそのプログラムのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムを格納した記憶媒体も、本発明の範疇に含まれる。 The program itself and means for supplying the program code of the program to a computer, for example, a storage medium storing such a program are also included in the scope of the present invention.
かかるプログラムを記憶する記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As a storage medium for storing such a program, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、供給されたプログラムをコンピュータが実行することにより、上述の実施形態の機能が実現されるだけではない。 In addition, the functions of the above-described embodiments are not only realized by the computer executing the supplied program.
例えば、そのプログラムがコンピュータにおいて稼動しているOS(オペレーティングシステム)あるいは他のアプリケーション等と協働して上述の実施形態の機能を実現させる場合にも、かかるプログラムは、本発明の範疇に含まれる。 For example, when the program realizes the functions of the above-described embodiment in cooperation with an OS (operating system) running on a computer or another application, the program is also included in the scope of the present invention. .
さらに、供給されたプログラムは、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納される。 Further, the supplied program is stored in a memory provided in a function expansion board of the computer or a function expansion unit connected to the computer.
そして、そのプログラムの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合にも、かかるプログラムは、本発明の範疇に含まれる。 Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and when the functions of the above-described embodiments are realized by the processing, Such a program is included in the category of the present invention.
10:撮影レンズ
12:シャッター
14:撮像素子
16:A/D変換器
18:タイミング発生回路
20:画像処理回路
22:メモリ制御回路
24:画像表示メモリ
26:D/A変換器
28:画像表示部
30:メモリ
32:画像圧縮・伸長回路
40:露光制御手段
42:測距制御手段
44:ズーム制御手段
46:バリア制御手段
48:フラッシュ
50:システム制御回路
52:メモリ
54:表示部
56:不揮発性メモリ
60:モードダイアルスイッチ
62:シャッタースイッチSW1
64:シャッタースイッチSW2
66:画像表示ON/OFFスイッチ
68:クイックレビューON/OFFスイッチ
70:操作部
80:電源制御手段
82:コネクタ
84:コネクタ
86:電源手段
90:カードコントローラ
91:インタフェース
92:コネクタ
98:記録媒体着脱検知手段
100:デジタルカメラ
102:保護手段
104:光学ファインダ
120:外部記録媒体
10: Photography lens
12: Shutter
14: Image sensor
16: A / D converter
18: Timing generation circuit
20: Image processing circuit 22: Memory control circuit
24: Image display memory
26: D / A converter
28: Image display section
30: Memory
32: Image compression / decompression circuit 40: Exposure control means
42: Ranging control means
44: Zoom control means
46: Barrier control means
48: Flash
50: System control circuit
52: Memory
54: Display section
56: Nonvolatile memory 60: Mode dial switch
62: Shutter switch SW1
64: Shutter switch SW2
66: Image display ON / OFF switch
68: Quick review ON / OFF switch
70: Operation unit 80: Power control means
82: Connector
84: Connector
86: Power supply means 90: Card controller
91: Interface
92: Connector
98: Recording medium attachment / detachment detecting means 100: Digital camera
102: Protection means
104: Optical viewfinder 120: External recording medium
Claims (6)
前記取得手段により取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する顔領域検出手段と、
前記顔領域検出手段により検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する顔情報抽出手段と、
前記顔情報抽出手段により抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する顔情報選択手段と、
前記基準顔情報に基づいて、前記被写体の顔の表情を推定する表情推定手段と、
を備え、
前記取得手段は、前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得し、
前記顔領域検出手段は、前記取得手段により取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出し、
前記顔情報抽出手段は、前記顔領域検出手段により検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出し、
前記表情推定手段は、前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する
ことを特徴とする画像処理装置。 Obtaining means for obtaining first image data obtained by imaging a subject at a plurality of different timings at a first resolution;
Face area detection means for detecting a first face area of the subject in each of the plurality of first image data acquired by the acquisition means;
Face information extracting means for extracting, from each of the plurality of first face areas detected by the face area detecting means, first face information relating to the shape of the constituent elements of the face of the subject;
Face information selection means for selecting reference face information serving as a reference for estimating the facial expression of the subject from the plurality of first face information extracted by the face information extraction means;
A facial expression estimating means for estimating a facial expression of the subject based on the reference face information;
With
The acquisition means acquires second image data obtained by imaging the subject after the reference face information is selected, at a second resolution lower than the first resolution,
The face area detecting unit detects a second face area of the subject in the second image data acquired by the acquiring unit;
The face information extracting means extracts second face information related to the shape of the constituent element of the face of the subject from the second face area detected by the face area detecting means;
The image processing apparatus, wherein the facial expression estimation means estimates the facial expression of the subject corresponding to the second face information by comparing the reference face information and the second face information.
ことを特徴とする請求項1に記載の画像処理装置。 When the feature amount included in the second face information is less than the feature amount included in the first face information, the facial expression estimation means includes the feature amount included in the second face information, and the first face information The image according to claim 1, wherein the facial expression of the subject is estimated by comparing a feature amount included in the face information with a feature amount corresponding to the feature amount included in the second face information. Processing equipment.
前記被写体の光学像を光電変換して画像信号を生成する光電変換手段と、
前記光電変換手段から画像信号を読み出す読み出し手段と、
前記読み出し手段により読み出された画像信号をA/D変換して画像データを生成するA/D変換手段と、
を含む
ことを特徴とする請求項1又は2に記載の画像処理装置。 The acquisition means includes
Photoelectric conversion means for photoelectrically converting the optical image of the subject to generate an image signal;
Reading means for reading out an image signal from the photoelectric conversion means;
A / D conversion means for A / D converting the image signal read by the reading means to generate image data;
The image processing apparatus according to claim 1, further comprising:
ことを特徴とする請求項3に記載の画像処理装置。 In order to obtain the first image data with the first resolution, the first image signal is read with the first number of pixels, and the second image data is obtained with the second resolution by using the second resolution. 4. The apparatus according to claim 3, further comprising a control unit that controls at least one of the photoelectric conversion unit and the reading unit so that the image signal is read with a second number of pixels smaller than the first number of pixels. An image processing apparatus according to 1.
前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、
前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、
前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、
前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、
前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、
前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、
前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップと、
を備えたことを特徴とする画像処理方法。 A first acquisition step of acquiring first image data obtained by imaging a subject at a plurality of different timings at a first resolution;
A first face area detecting step of detecting a first face area of the subject in each of the plurality of first image data acquired in the first acquiring step;
A first face information extracting step of extracting first face information relating to the shape of the constituent element of the face of the subject from each of the plurality of first face areas detected in the first face area detecting step; ,
A first face information selection step of selecting reference face information serving as a reference for estimating the facial expression of the subject from the plurality of first face information extracted in the first face information extraction step; ,
After the reference face information is selected in the first face information selection step, second image data obtained by imaging the subject is acquired at a second resolution lower than the first resolution. A second acquisition step;
A second face area detecting step of detecting a second face area of the subject in the second image data acquired in the second acquiring step;
A second face information extracting step of extracting second face information related to the shape of the constituent element of the face of the subject from the second face area detected in the second face area detecting step;
A facial expression estimation step of comparing the reference face information and the second facial information to estimate the facial expression of the subject corresponding to the second facial information;
An image processing method comprising:
異なる複数のタイミングで被写体を撮像して得られた第1の画像データを第1の解像度で取得する第1の取得ステップと、
前記第1の取得ステップで取得された複数の前記第1の画像データのそれぞれにおいて、前記被写体の第1の顔領域を検出する第1の顔領域検出ステップと、
前記第1の顔領域検出ステップで検出された複数の前記第1の顔領域のそれぞれから、前記被写体の顔の構成要素の形状に関する第1の顔情報を抽出する第1の顔情報抽出ステップと、
前記第1の顔情報抽出ステップで抽出された複数の前記第1の顔情報から、前記被写体の顔の表情を推定するための基準となる基準顔情報を選択する第1の顔情報選択ステップと、
前記第1の顔情報選択ステップで前記基準顔情報が選択された後に、前記被写体を撮像して得られた第2の画像データを、前記第1の解像度よりも低い第2の解像度で取得する第2の取得ステップと、
前記第2の取得ステップで取得された前記第2の画像データにおいて、前記被写体の第2の顔領域を検出する第2の顔領域検出ステップと、
前記第2の顔領域検出ステップで検出された前記第2の顔領域から、前記被写体の顔の構成要素の形状に関する第2の顔情報を抽出する第2の顔情報抽出ステップと、
前記基準顔情報と前記第2の顔情報とを比較して、前記第2の顔情報に対応した前記被写体の顔の表情を推定する表情推定ステップと、
を実行させることを特徴とする画像処理プログラム。 In the image processing device,
A first acquisition step of acquiring first image data obtained by imaging a subject at a plurality of different timings at a first resolution;
A first face area detecting step of detecting a first face area of the subject in each of the plurality of first image data acquired in the first acquiring step;
A first face information extracting step of extracting first face information relating to the shape of the constituent element of the face of the subject from each of the plurality of first face areas detected in the first face area detecting step; ,
A first face information selection step of selecting reference face information serving as a reference for estimating the facial expression of the subject from the plurality of first face information extracted in the first face information extraction step; ,
After the reference face information is selected in the first face information selection step, second image data obtained by imaging the subject is acquired at a second resolution lower than the first resolution. A second acquisition step;
A second face area detecting step of detecting a second face area of the subject in the second image data acquired in the second acquiring step;
A second face information extracting step of extracting second face information related to the shape of the constituent element of the face of the subject from the second face area detected in the second face area detecting step;
A facial expression estimation step of comparing the reference face information and the second facial information to estimate the facial expression of the subject corresponding to the second facial information;
An image processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007176465A JP4891163B2 (en) | 2007-07-04 | 2007-07-04 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007176465A JP4891163B2 (en) | 2007-07-04 | 2007-07-04 | Image processing apparatus, image processing method, and image processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009017215A true JP2009017215A (en) | 2009-01-22 |
JP2009017215A5 JP2009017215A5 (en) | 2010-08-19 |
JP4891163B2 JP4891163B2 (en) | 2012-03-07 |
Family
ID=40357556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007176465A Expired - Fee Related JP4891163B2 (en) | 2007-07-04 | 2007-07-04 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4891163B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110014450A (en) * | 2009-08-05 | 2011-02-11 | 삼성전자주식회사 | Apparatus and method for improving face recognition ratio |
CN103391424A (en) * | 2012-05-08 | 2013-11-13 | 安讯士有限公司 | Method for analyzing object in image captured by monitoring camera and object analyzer |
US11468709B2 (en) | 2019-03-29 | 2022-10-11 | Konica Minolta, Inc. | Image forming apparatus |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003092701A (en) * | 2001-09-18 | 2003-03-28 | Ricoh Co Ltd | Imaging apparatus |
JP2004294498A (en) * | 2003-03-25 | 2004-10-21 | Fuji Photo Film Co Ltd | Automatic photographing system |
JP2005056388A (en) * | 2003-07-18 | 2005-03-03 | Canon Inc | Image processing apparatus, image processing method and imaging device |
JP2005157911A (en) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | Face region detection method, device, and program, and computer-readable storage medium with face region detecting program stored thereon |
JP2005266984A (en) * | 2004-03-17 | 2005-09-29 | Konica Minolta Holdings Inc | Image processing system |
JP2006018805A (en) * | 2004-06-02 | 2006-01-19 | Fuji Photo Film Co Ltd | Particular region detection method, particular region detection apparatus and program |
JP2006115406A (en) * | 2004-10-18 | 2006-04-27 | Omron Corp | Imaging apparatus |
JP2007072606A (en) * | 2005-09-05 | 2007-03-22 | Canon Inc | Image processor and processing method |
-
2007
- 2007-07-04 JP JP2007176465A patent/JP4891163B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003092701A (en) * | 2001-09-18 | 2003-03-28 | Ricoh Co Ltd | Imaging apparatus |
JP2004294498A (en) * | 2003-03-25 | 2004-10-21 | Fuji Photo Film Co Ltd | Automatic photographing system |
JP2005056388A (en) * | 2003-07-18 | 2005-03-03 | Canon Inc | Image processing apparatus, image processing method and imaging device |
JP2005157911A (en) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | Face region detection method, device, and program, and computer-readable storage medium with face region detecting program stored thereon |
JP2005266984A (en) * | 2004-03-17 | 2005-09-29 | Konica Minolta Holdings Inc | Image processing system |
JP2006018805A (en) * | 2004-06-02 | 2006-01-19 | Fuji Photo Film Co Ltd | Particular region detection method, particular region detection apparatus and program |
JP2006115406A (en) * | 2004-10-18 | 2006-04-27 | Omron Corp | Imaging apparatus |
JP2007072606A (en) * | 2005-09-05 | 2007-03-22 | Canon Inc | Image processor and processing method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110014450A (en) * | 2009-08-05 | 2011-02-11 | 삼성전자주식회사 | Apparatus and method for improving face recognition ratio |
US9311522B2 (en) | 2009-08-05 | 2016-04-12 | Samsung Electronics Co., Ltd. | Apparatus and method for improving face recognition ratio |
KR101661211B1 (en) * | 2009-08-05 | 2016-10-10 | 삼성전자주식회사 | Apparatus and method for improving face recognition ratio |
CN103391424A (en) * | 2012-05-08 | 2013-11-13 | 安讯士有限公司 | Method for analyzing object in image captured by monitoring camera and object analyzer |
JP2013235580A (en) * | 2012-05-08 | 2013-11-21 | Axis Ab | Video analysis |
US11468709B2 (en) | 2019-03-29 | 2022-10-11 | Konica Minolta, Inc. | Image forming apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP4891163B2 (en) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5224955B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
US7636123B2 (en) | Image capturing apparatus with light emission controlling mechanism and method of controlling the image capturing apparatus | |
JP5424732B2 (en) | Imaging apparatus, control method thereof, and program | |
US8711244B2 (en) | Imaging apparatus for calculating a histogram to adjust color balance | |
JP6148431B2 (en) | Imaging apparatus and control method thereof | |
JP2010141376A (en) | Imaging apparatus and zoom control method | |
JP2005184508A (en) | Imaging device and control method therefor | |
JP4906632B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4891163B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2005167697A (en) | Electronic camera having red-eye correction function | |
JP5055025B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2009163422A (en) | Image processing device, image processing method and image processing program | |
JP2008299430A (en) | Image processing device, method, and program | |
US8223253B2 (en) | Image pickup device and method of controlling same | |
JP2010008711A (en) | Imaging apparatus, imaging method, and program | |
JP4682097B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP5854861B2 (en) | Imaging device, control method thereof, and control program | |
JP2010041598A (en) | Imaging apparatus, and control method and control program for the same | |
JP5828722B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2010041399A (en) | Imaging device and its control method | |
JP4902512B2 (en) | Imaging apparatus, control method thereof, and program | |
JP4909009B2 (en) | Imaging apparatus, image processing method, program, and storage medium | |
JP2008109503A (en) | Imaging apparatus, control method thereof, program and storage medium | |
JP2008219154A (en) | Image processor and image processing method and imaging apparatus | |
JP2012039256A (en) | Imaging apparatus, control method therefor and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100701 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111215 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4891163 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |