JP2008187677A - Digital camera - Google Patents
Digital camera Download PDFInfo
- Publication number
- JP2008187677A JP2008187677A JP2007021887A JP2007021887A JP2008187677A JP 2008187677 A JP2008187677 A JP 2008187677A JP 2007021887 A JP2007021887 A JP 2007021887A JP 2007021887 A JP2007021887 A JP 2007021887A JP 2008187677 A JP2008187677 A JP 2008187677A
- Authority
- JP
- Japan
- Prior art keywords
- face
- feature point
- face image
- person
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、デジタルカメラに係り、特に、顔認識機能を備えたデジタルカメラに関する。 The present invention relates to a digital camera, and more particularly to a digital camera having a face recognition function.
従来、デジタルカメラでは、撮影画像から顔を含む画像(顔画像ともいう)を抽出する処理が行われている(例えば特許文献1参照)。この特許文献1記載のデジタルカメラでは、顔認識用の色データを予め保持しておき、撮影画像の全領域の色データと前記顔認識用の色データとを比較し、一致する部分を人物の顔として認識し、この人物の顔を含む領域を切り出す。
Conventionally, in a digital camera, a process of extracting an image including a face (also referred to as a face image) from a captured image has been performed (see, for example, Patent Document 1). In the digital camera described in
この切り出された顔画像は各種の用途に用いられる。例えば、顔を含む顔画像と形状データベース部内のデータとの一致度を算出し、この一致度と形状データを基に特徴点を抽出することが提案されている(特許文献2参照)。この抽出した特徴点は各種の用途に用いられる。例えば、運転者の目の特徴点を抽出することにより運転者の状態を検知することが提案されている(特許文献3参照)。 The cut face image is used for various purposes. For example, it has been proposed to calculate the degree of coincidence between a face image including a face and data in the shape database unit, and extract feature points based on the degree of coincidence and shape data (see Patent Document 2). The extracted feature points are used for various purposes. For example, it has been proposed to detect the state of the driver by extracting feature points of the driver's eyes (see Patent Document 3).
その他、本願に関連すると思われるものとして特許文献4、5等がある。
しかしながら、特許文献1等記載のデジタルカメラでは、人物以外のポスター等を撮影した場合でも、そのポスター等を人物の顔と認識してしまい、そのポスター等を含む領域を切り出してしまい、その後の処理を適切に行えないという問題がある。
However, in the digital camera described in
本発明は、このような事情に鑑みてなされたものであり、デジタルカメラで人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to prevent a poster or the like from being recognized as a person when a subject including a poster or the like other than a person is photographed with a digital camera. And
本発明は上記課題を解決するためになされたものであり、請求項1に記載の発明は、光電変換素子を含む撮像素子と、前記撮像素子の出力信号から画像データを生成する画像データ生成手段と、前記画像データ生成手段により生成された画像データから顔を含む顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検出手段と、前記特徴点変化検出手段により検出された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定する人物判定手段と、を備える。
The present invention has been made to solve the above problems, and the invention according to
請求項1に記載の発明によれば、顔画像に含まれる顔の特徴点を抽出し、その顔の特徴点の経時的変化を検出する。 According to the first aspect of the present invention, the facial feature points included in the facial image are extracted, and the temporal change in the facial feature points is detected.
顔画像に含まれる顔が人物であれば、抽出された顔の特徴点が経時的に変化する(例えば特徴点が目(口等も同様)である場合には、目の瞬き等により特徴点が経時的に変化する)。一方、顔画像に含まれる顔が人物でなければ(例えばポスター、絵画、フィギュアであれば)、抽出された顔の特徴点が経時的に変化しない。 If the face included in the face image is a person, the extracted feature points of the face change over time (for example, if the feature points are eyes (the same applies to the mouth, etc.) Changes over time). On the other hand, if the face included in the face image is not a person (for example, if it is a poster, painting, figure), the extracted facial feature points do not change over time.
したがって、抽出された顔の特徴点の経時的な変化に基づけば、顔画像に含まれる顔が人物か否かを判定することが可能となる。すなわち、デジタルカメラで人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。 Therefore, it is possible to determine whether or not the face included in the face image is a person based on the temporal change of the extracted facial feature points. That is, when a subject including a poster other than a person is photographed with a digital camera, the poster or the like can be prevented from being recognized as a person.
請求項2に記載の発明は、請求項1に記載の発明において、前記特徴点抽出手段は、前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の輪郭の特徴点を抽出し、前記特徴点変化検出手段は、前記特徴点抽出手段により抽出された前記顔の輪郭の経時的な特徴点の変化に基づいて、前記特徴点抽出手段により抽出された前記顔の特徴点の手ぶれ量を補正し、前記人物判定手段は、前記特徴点変化検出手段により補正された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the feature point extracting unit calculates a feature point of a face outline included in the face image from the face image extracted by the face image extracting unit. And the feature point change detecting means extracts the feature point of the face extracted by the feature point extracting means based on the change of the feature point with time of the contour of the face extracted by the feature point extracting means. And the person determining means is included in the face image extracted by the face image extracting means based on the temporal change of the facial feature points corrected by the feature point change detecting means. It is characterized by determining whether a face is a person.
請求項2に記載の発明によれば、手ぶれにより抽出された顔の特徴点が変化したとしてもその手ぶれ量を補正し、補正後の顔の特徴点の経時的な変化に基づいて、顔画像に含まれる顔が人物か否かを判定する。 According to the second aspect of the present invention, even if the facial feature point extracted by camera shake changes, the amount of camera shake is corrected, and based on the temporal change of the corrected facial feature point, the facial image It is determined whether the face included in is a person.
したがって、手ぶれによる誤判定を低減することが可能となる。 Therefore, erroneous determination due to camera shake can be reduced.
請求項3に記載の発明は、請求項1に記載の発明において、前記顔画像抽出手段により抽出された顔画像の面積を検出する面積検出手段をさらに備え、特徴点変化検出手段、及び人物判定手段は、前記面積検出手段により検出された面積が一定値を越えた場合に、前記各処理を実行することを特徴とする。
The invention according to claim 3 is the invention according to
請求項3に記載の発明によれば、抽出された顔画像の面積が一定値を越えた場合にのみ、顔画像に含まれる顔が人物か否かを判定するための処理を行う。 According to the third aspect of the present invention, the process for determining whether or not the face included in the face image is a person is performed only when the area of the extracted face image exceeds a certain value.
したがって、顔画像の面積が一定値を越えないことによる誤判定又は無駄な処理を低減することが可能となる。 Therefore, it is possible to reduce misjudgment or useless processing due to the area of the face image not exceeding a certain value.
請求項4に記載の発明は、請求項1に記載の発明において、前記顔画像抽出手段により抽出された顔画像に含まれる顔に対して優先的にフォーカスさせるフォーカス手段をさらに備え、前記特徴点変化検出手段、及び判定手段は、前記フォーカス手段によるフォーカス位置が広角側の所定位置に位置している場合に、前記各処理を実行することを特徴とする。 According to a fourth aspect of the present invention, in the first aspect of the invention, the feature point is further provided with a focus unit that preferentially focuses a face included in the face image extracted by the face image extraction unit. The change detection unit and the determination unit execute the processes when the focus position by the focus unit is located at a predetermined position on the wide-angle side.
請求項4に記載の発明によれば、フォーカス位置が広角側の所定位置に位置している場合にのみ、顔画像から顔の特徴点を抽出する等の、顔画像に含まれる顔が人物か否かを判定するための処理を行う。 According to the fourth aspect of the present invention, whether the face included in the face image is a person, such as extracting a facial feature point from the face image only when the focus position is located at a predetermined position on the wide-angle side. Processing for determining whether or not is performed.
これによりピントずれがより少ない画像を対象とできるため誤判定を低減することが可能となる。また、処理の軽量化も実現できる。 As a result, it is possible to target an image with less focus shift, and thus it is possible to reduce erroneous determination. Further, the processing can be reduced in weight.
請求項5に記載の発明は、請求項1に記載の発明において、前記特徴点抽出手段により抽出された顔の特徴点と前記人物判定手段により判定された結果とを対応づけて記憶する記憶手段と、前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されているか否かを判定するメモリ内判定手段と、前記メモリ内判定手段により前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されていると判定された場合には、前記記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出すことを特徴とする。 According to a fifth aspect of the present invention, in the first aspect of the invention, the storage means for storing the face feature points extracted by the feature point extracting means and the results determined by the person determining means in association with each other And an in-memory determination unit that determines whether or not the feature point of the face newly extracted by the feature point extraction unit is stored in the storage unit, and the feature point extraction unit newly determines by the in-memory determination unit When it is determined that the feature points of the face extracted in step S3 are stored in the storage unit, the determination result stored in association with the feature points of the face is read from the storage unit. To do.
請求項5に記載の発明によれば、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合には、記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出す。 According to the fifth aspect of the present invention, when it is determined that the newly extracted facial feature point is stored in the storage unit, the facial feature point is stored in association with the facial feature point from the storage unit. The judgment result is read.
すなわち、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合には、抽出された顔の特徴点の経時的な変化を検出しなくてもよいので、極めて迅速に、人物か否かを判定することが可能となる。 That is, when it is determined that the newly extracted facial feature points are stored in the storage unit, it is not necessary to detect a change with time of the extracted facial feature points, so that it is extremely quick. In addition, it is possible to determine whether or not the person is a person.
請求項6に記載の発明は、請求項1に記載の発明において、前記人物判定手段による判定結果を表す表示を表示面に表示する表示手段をさらに備えることを特徴とする。
The invention according to claim 6 is the invention according to
請求項6に記載の発明によれば、例えば、いわゆるスルー画像に、人物であると判定された被写体を点線矩形枠(例えば緑色)で囲って表示し、人物でないと判定された被写体を点線矩形枠(例えば赤色)で囲って表示することができる。あるいは、人物であると判定された被写体のみを矩形枠で囲って表示することもできる。 According to the sixth aspect of the present invention, for example, in a so-called through image, a subject determined to be a person is surrounded by a dotted rectangular frame (for example, green) and displayed, and a subject determined not to be a person is displayed as a dotted rectangle. It can be displayed by being surrounded by a frame (for example, red). Alternatively, only a subject determined to be a person can be displayed surrounded by a rectangular frame.
これにより、表示面上の被写体が人物であるか否かを瞬時に判別することが可能となる。 This makes it possible to instantaneously determine whether or not the subject on the display surface is a person.
本発明によれば、デジタルカメラで人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。 According to the present invention, when a subject including a poster or the like other than a person is photographed with a digital camera, the poster or the like can be prevented from being recognized as a person.
〔第一実施形態〕
〔デジタルカメラ100の構成〕
以下、本発明の第一実施形態であるデジタルカメラについて図面を参照しながら説明する。図1は、本発明の第一実施形態であるデジタルカメラの構成を説明するためのブロック図である。
[First embodiment]
[Configuration of Digital Camera 100]
Hereinafter, a digital camera according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram for explaining a configuration of a digital camera according to the first embodiment of the present invention.
本実施形態のデジタルカメラ100では、図1左方から被写体光が入射し、レンズ10(ズームレンズやフォーカスレンズ)、シャッタ11、被写体光の光量を調整する絞り12(アイリスともいう)、及び、光学フィルタ13を通過した後、撮像素子14に結像する。レンズ10、シャッタ11、及び、絞り12はそれぞれ、レンズ駆動部15、シャッタ駆動部16、及び、絞り駆動部17により制御される。
In the
レンズ駆動部15は、CPU18から伝達される指示に従って、ズームモータ(図示せず)を駆動させることにより、ズームレンズを光軸に沿って進退させ所定位置に位置させ、焦点距離を変化させる。また、レンズ駆動部15は、CPU18から伝達される指示に従って、フォーカスモータ(図示せず)を駆動させることにより、フォーカスレンズを光軸に沿って進退させ所定位置に位置させ、焦点距離を変化させる。
The
シャッタ駆動部16は、CPU18から伝達される指示に従って、シャッタモータ(図示せず)を駆動させることにより、シャッタ11を制御する。絞り駆動部17は、CPU18から伝達される指示に従って、アイリスモータ(図示せず)を駆動させることにより、絞りの開口量を連続的又は段階的に変化させ、絞り値を変化させる。
The
光学フィルタ13は、例えば、ナノ粒子の電気泳動を制御することにより透過光量を制御するタイプのフィルタである。この種の光学フィルタは例えば特開2006−72009号公報に記載されている。
The
撮像素子14は、光電変換素子を含んでおり、例えば、所定のカラーフィルタ配列(例えば、ハニカム配列)のカラーCCDで構成されている。レンズ10等を介して撮像素子14の受光面に入射した光はその受光面に格子状に配列されたフォトダイオード等の光電変換素子により入射光量に応じた量の信号電荷に変換される。そして、光電変換素子に蓄積された信号電荷は、タイミングジェネレータ(TG)等の撮像素子駆動部19から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として撮像素子14から順次出力される。
The
アナログ信号処理部20は、CDS回路及びアナログアンプを含んでいる。CDS回路は、撮像素子駆動部19から加えられるパルスに基づいてCCD出力信号を相関二重サンプリング処理し、アナログアンプは、CPU18から加えられる撮影感度に応じて設定されたゲインによってCDS回路から出力される画像信号を増幅する。
The analog
A/D変換器21は、アナログ信号処理部20から出力されたアナログの画像信号をデジタルの画像信号(R、G、BのRAWデータ)に変換する。この変換されたデジタルの画像信号は、RAM等の記憶手段(図示せず)に格納される。
The A /
デジタル信号処理部22は、RAM等の記憶手段に格納された画像信号を処埋し、輝度信号と色差信号とからなるYC信号を生成する。例えば、デジタル信号処理部22は、R、G、B信号の黒レベルを揃えるオフセット処理、R、G、B信号に対応するWBゲインRg,Gg,BgによるR、G、B信号のゲイン補正、このゲイン補正によるWB補正、R、G、B信号の階調変換(ガンマ補正)、単板CCDのカラーフィルタ配列に伴うR,G,B信号の空間的なズレを補間してR,G,B信号を同時式に変換する処理、R,G,B信号を輝度信号Y,色差信号Cr,Cbに変換する処理、輝度信号Yの輪郭部(輝度変化の大きい部分)を強調する処理、色差信号Cr,Cbに対して所要のマトリクス変換を行って良好な色再現性を実現させる処理等を行う。
The digital
表示部23は液晶ディスプレイ等の表示面を有する画像表示装置であり、この表示部23にいわゆるスルー画像を表示させる場合には、撮像素子14で連続的に撮影し、得られた複数フレーム分の画像の画像信号を連続的に処理してYC信号を生成する。この生成されたYC信号は、D/A変換部24に加えられ、表示用の信号形式に変換されて表示部23に出力される。これにより、表示部23にスルー画像が表示される。
The
画像を記録する場合は、操作部34からの撮影指令に応じて画像を撮像し、得られた画像信号を処理してYC信号を生成する。生成されたYC信号は、記録再生信号処理部25等により所定の圧縮画像データ(例えば、JPEG)とされたのち、外部メモリ26に格納される。
When an image is recorded, the image is picked up in accordance with a shooting command from the
AE演算部27は、入力された画像信号からAE制御に必要な物理量を算出する。例えば、AE制御に必要な物理量として、1画面を複数のエリア(例えば、8×8)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。そして、AE演算部27は、その算出した積算値、及び画像信号取得時の絞り値、シャツタ速度に基づいて被写体の明るさを検出してEV値を求め、求めたEV値に基づいてプログラム線囲等に基づいて露出を設定する。シャッタ駆動部16及び絞り駆動部17はそれぞれ、設定された露出が得られるように、シャッタモータ(図示せず)及びアイリスモータ(図示せず)を駆動させてシャッタ11及び絞り12を制御する。
The
AF演算部28は、入力された画像信号からAF制御に必要な物理量を算出する。例えば、AF演算部28は、入力された画像信号から画像の鮮鋭度を示すAF評価値を算出する。レンズ駆動部15は、その算出したAF評価値が極大となるように、フォーカスモータ(図示せず)を駆動させて、フォーカスレンズを進退させ所定位置に位置させる。
The
顔画像抽出部29は、撮影画像(例えばRAM等の記憶手段に格納されたデジタルの画像信号)から顔を含む画像(顔画像)を抽出する顔画像抽出処理を行う。例えば、顔認識用の色データを予め保持しておき、撮影画像の全領域の色データと前記顔認識用の色データとを比較し、一致する部分を人物の顔として認識し、この人物の顔を含む領域を切り出す(特開平10-334213号参照)。その他、各種の顔画像抽出処理を適用することが可能である。なお、撮影画像に複数の顔が写し込まれている場合には、複数の顔画像が抽出される。
The face
特徴点抽出部30は、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点を抽出する特徴点抽出処理を行う。例えば、顔画像と形状データベース部内のデータとの一致度を算出し、この一致度と形状データを基に画像の特徴点を抽出する(特開平05-197793号参照)。その他、特開平08-077334号に記載のもの等、各種の特徴点抽出処理を適用することが可能である。
The feature
特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う。
The feature point
人物判別部32は、特徴点変化検知部31により検出された顔の特徴点の経時的な変化に基づいて、顔画像抽出部29により抽出された顔画像に含まれる顔が人物か否か、すなわち、実際にその場所にいる人物かあるいはポスター(又は絵画やフィギュア)か否かを判定する処理を行う。
The
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点と人物判別部32により判定された結果とを対応づけてRAM等の記憶手段に記憶する処理を行う。
The
〔デジタルカメラ100の動作 その1〕
次に、上記構成のデジタルカメラ100の動作(その1)について図面を参照しながら説明する。
[Operation of Digital Camera 100]
Next, the operation (part 1) of the
図2は、第一実施形態のデジタルカメラの動作(その1)を説明するためのフローチャートである。 FIG. 2 is a flowchart for explaining the operation (part 1) of the digital camera of the first embodiment.
以下の処理は、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する処理であり、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing is processing for determining whether or not the face included in the face image is a person based on the change over time of the facial feature points extracted from the face image. The
デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS10)。
When the power of the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS11)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS12)。上記ステップS10からステップS12の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。
The face
次に、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS13)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。
Next, the feature point
人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS14:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS15)。一方、特徴点変化検知部31により特徴点の経時的な変化が検出されない場合(図4及び図5右側被写体)には(ステップS14:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS16)。
When the feature point
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
以上説明したように、本動作では、画像データから顔画像に含まれる顔の特徴点を抽出し(ステップS11、S12)、その顔の特徴点の経時的変化を検出する(ステップS13)。そして、顔の特徴点の経時的変化が検出された場合には(ステップS14:Yes)、顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS15)。一方、顔の特徴点の経時的な変化が検出されない場合には(ステップS14:No)、顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS16)。 As described above, in this operation, the facial feature points included in the face image are extracted from the image data (steps S11 and S12), and the temporal change of the facial feature points is detected (step S13). If a temporal change in the facial feature point is detected (step S14: Yes), it is determined that the face included in the face image is a person, that is, a person who is actually in that place ( Step S15). On the other hand, when a change with time of the facial feature point is not detected (step S14: No), it is determined that the face included in the face image is not a person, that is, a poster (or a picture or a figure) (step S16). ).
したがって、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。
〔デジタルカメラ100の動作 その2〕
次に、上記構成のデジタルカメラ100の他の動作(その2)について説明する。
Therefore, when a subject including a poster other than a person is photographed by the
[Operation of
Next, another operation (part 2) of the
以下の処理は、例えば、手ぶれ等により抽出された顔の特徴点が変化(例えば図6に示すフレームAから図7に示すフレームBに変化)したとしてもその手ぶれ量を補正し、補正後の顔の特徴点の経時的な変化に基づいて、顔画像に含まれる顔が人物か否かを判定する処理であり、例えば、図2中のステップS12とS13の間で実行される。 The following processing, for example, corrects the amount of camera shake even if the facial feature point extracted due to camera shake or the like changes (for example, changes from frame A shown in FIG. 6 to frame B shown in FIG. 7). This is a process for determining whether or not the face included in the face image is a person based on the temporal change of the facial feature points, and is executed, for example, between steps S12 and S13 in FIG.
特徴点抽出部30は、所定数のフレーム(例えば図6に示すフレームA及び図7に示すフレームB)それぞれについて被写体の輪郭の特徴点を抽出する。例えば、図8(a)ではA1、B1・・・、図8(b)ではA2、B2・・・、図9(a)ではA´1、B´1・・・、図9(b)ではA´2、B´2・・・を、それぞれ被写体の輪郭の特徴点として抽出する。そして、各フレーム間の同一特徴点が一致するように、各フレームを所定量回転させあるいは上下左右にシフトさせる。
The feature
以後、ステップS13以降の処理を行うことで、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。手ぶれ等による抽出された顔の特徴点の変化を除去できるので手ぶれ等による誤判定を低減することが可能となる。
Thereafter, by performing the processing from step S13 onward, when a subject including a poster other than a person is photographed by the
〔デジタルカメラ100の動作 その3〕
次に、デジタルカメラ100の他の動作(その3)について図面を参照しながら説明する。
[Operation of Digital Camera 100]
Next, another operation (part 3) of the
図10は、デジタルカメラ100の他の動作(その3)を説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining another operation (No. 3) of the
以下の処理は、顔画像の面積が一定値以上の場合にだけ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する。この処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing determines whether or not the face included in the face image is a person based on the temporal change of the facial feature points extracted from the face image only when the area of the face image is a certain value or more. . This process is realized mainly by the
デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS20)。
When the power of the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS21)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS22)。上記ステップS20からステップS22の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。
The face
次に、顔画像抽出部29により抽出された顔画像の面積を求め、この求めた面積が一定値以上であるか否かを判定する(ステップS23)。顔画像の面積は、例えば、図11に示すように、輪郭の特徴点から高さと幅を求め、この高さと幅を掛け合わせて求める方法、顔画像の各画像の輝度の値から顔に相当する画素を識別してこの画素を基に求める方法等が考えられる。あるいは、顔画像自体の高さと幅を掛け合わせて求めてもよい。
Next, the area of the face image extracted by the face
その結果、面積が一定値以上であれば(ステップS23:一定値以上)、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS24)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。
As a result, if the area is greater than or equal to a certain value (step S23: greater than or equal to a certain value), the feature point
人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS25:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS26)。一方、特徴点変化検知部31により特徴点の経時的な変化なしと検出された場合(図4及び図5右被写体)には(ステップS25:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS27)。
When the feature point
一方、面積が一定値未満であれば(ステップS23:一定値未満)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS27)。
On the other hand, if the area is less than a certain value (step S23: less than a certain value), it is determined that the face included in the face image extracted by the face
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
以上説明したように、本動作では、顔画像の面積が一定値以上の場合にだけ(ステップS23:一定値以上)、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行い(ステップS24)、かつ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する(ステップS25)。
As described above, in this operation, only when the area of the face image is greater than or equal to a certain value (step S23: greater than or equal to a certain value), the temporal feature point extracted by the feature
したがって、顔画像の面積が一定値を越えないことによる誤判定又は無駄な処理を低減することが可能となる。 Therefore, it is possible to reduce misjudgment or useless processing due to the area of the face image not exceeding a certain value.
〔デジタルカメラ100の動作 その4〕
次に、デジタルカメラ100の他の動作(その4)について図面を参照しながら説明する。
[Operation of
Next, another operation (part 4) of the
図12は、デジタルカメラ100の他の動作(その4)を説明するためのフローチャートである。
FIG. 12 is a flowchart for explaining another operation (No. 4) of the
以下の処理は、フォーカス位置が広角側の所定位置に位置している場合にだけ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する。この処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing is performed only when the focus position is at a predetermined position on the wide-angle side, based on the temporal change of the facial feature points extracted from the face image, whether or not the face included in the face image is a person. Determine whether. This process is realized mainly by the
デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS30)。
When the power of the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS31)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS32)。上記ステップS30からステップS32の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。
The face
次に、ズームレンズの位置を求め、この求めた位置が一定値より望遠側に位置している否かを判定する(ステップS33)。 Next, the position of the zoom lens is obtained, and it is determined whether or not the obtained position is located on the telephoto side from a certain value (step S33).
その結果、求めた位置が一定値より望遠側に位置しているのであれば(ステップS33:一定値より望遠)、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS34)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。
As a result, if the obtained position is located on the telephoto side from the constant value (step S33: telephoto from the constant value), the feature point
人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS35:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS36)。一方、特徴点変化検知部31により特徴点の経時的な変化なしと検出された場合(図4及び図5右被写体)には(ステップS35:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS37)。
When the feature point
一方、求めた位置が一定値より広角側に位置しているのであれば(ステップS33:一定値より広角)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS37)。
On the other hand, if the obtained position is located on the wide angle side from the certain value (step S33: wide angle from the certain value), the face included in the face image extracted by the face
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
以上説明したように、本動作では、ズームレンズの位置が一定値より望遠側に位置している場合にだけ(ステップS33:一定値より望遠)、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行い(ステップS24)、かつ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する(ステップS35)。
As described above, in this operation, the facial features extracted by the feature
これによりピントずれがより少ない画像を処理の対象とできるため誤判定を低減することが可能となる。また、処理の軽量化も実現できる。 As a result, an image with less focus shift can be processed, and erroneous determination can be reduced. Further, the processing can be reduced in weight.
なお、ズーム位置の判定ステップS33は、図13に示す位置に設けてもよい。 The zoom position determination step S33 may be provided at the position shown in FIG.
〔デジタルカメラ100の動作 その5〕
次に、デジタルカメラ100の他の動作(その5)について図面を参照しながら説明する。
[Operation of digital camera 100]
Next, another operation (part 5) of the
図14は、デジタルカメラ100の他の動作(その5)を説明するためのフローチャートである。
FIG. 14 is a flowchart for explaining another operation (No. 5) of the
以下の処理は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶しておき、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合には、記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出す処理である。この処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing includes the face feature point (or face image) extracted by the feature
デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS40)。
When the power of the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS41)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS42)。上記ステップS40からステップS42の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。
The face
次に、記憶手段内の顔画像と照合する(ステップS43)。すなわち、特徴点抽出部30により抽出された顔の特徴点(新たに抽出された顔の特徴点)がRAM等の記憶手段に記憶されているか否かを判定する。
Next, it collates with the face image in the storage means (step S43). That is, it is determined whether or not the facial feature points (newly extracted facial feature points) extracted by the feature
その結果、新たに抽出された顔の特徴点が記憶手段に記憶されていないのであれば(ステップS43:メモリ内の画像と一致しない)、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS44)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。
As a result, if the newly extracted facial feature point is not stored in the storage means (step S43: does not match the image in the memory), the feature point
人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS45:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS46)。一方、特徴点変化検知部31により特徴点の経時的な変化なしと検出された場合(図4及び図5右被写体)には(ステップS45:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS48)。
When the feature point
そして、人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
Then, the
一方、新たに抽出された顔の特徴点が記憶手段に記憶されているのであれば(ステップS43:メモリ内の画像と一致)、記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出す。 On the other hand, if the newly extracted facial feature point is stored in the storage means (step S43: coincides with the image in the memory), it is stored in correspondence with the facial feature point from the storage means. Read the judgment result.
そして、その読み出した判定結果が人物でないことを表しているのであれば(ステップS47:ポスター)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS48)。一方、その判定結果が人物であることを表しているのであれば(ステップS47:人物)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物と判定する(ステップS46)。
If the read determination result indicates that the person is not a person (step S47: poster), the face included in the face image extracted by the face
以上説明したように、本動作では、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合(ステップS43:メモリ内の画像と一致)には、抽出された顔の特徴点の経時的な変化を検出しなくてもよい(ステップS44及びS45の処理を行わなくてもよい)ので、極めて迅速に、人物か否かを判定することが可能となる。 As described above, in this operation, when it is determined that the newly extracted facial feature points are stored in the storage unit (step S43: match the image in the memory), the extracted face Since it is not necessary to detect the change of the feature point over time (the process of steps S44 and S45 is not necessary), it is possible to determine whether or not the person is a person very quickly.
〔第二実施形態〕
〔デジタルカメラ200の構成〕
次に、本発明の第二実施形態であるデジタルカメラについて図面を参照しながら説明する。図17は、本発明の第二実施形態であるデジタルカメラの構成を説明するためのブロック図である。
[Second Embodiment]
[Configuration of Digital Camera 200]
Next, a digital camera according to a second embodiment of the present invention will be described with reference to the drawings. FIG. 17 is a block diagram for explaining a configuration of a digital camera according to the second embodiment of the present invention.
本実施形態のデジタルカメラ200は、第一実施形態のデジタルカメラ100の構成に加えてさらに、距離画像を得るための構成40(発光素子駆動部41、発光素子42、光学フィルタ43、撮像素子駆動部44、受光素子45、距離演算部46等)、画像照合部47を備えている。
In addition to the configuration of the
発光素子駆動部41は、CPU18から伝達される指示に従って、所定タイミングで発光素子42を発光させて被写体に光を照射し、被写体からの反射光を光学フィルタ43等を介して撮像素子駆動部44により駆動させられる受光素子45で受光し、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(例えば特開2006-172210号参照)。
The light emitting
画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点(例えば目、鼻)それぞれまでの距離を算出する。
The
人物判別部32は、画像照合部47により算出された顔画像中の特徴点それぞれまでの距離に基づいて、顔画像抽出部29により抽出された顔画像に含まれる顔が人物か否か、すなわち、実際にその場所にいる人物かあるいはポスター(又は絵画やフィギュア)か否かを判定する処理を行う。
The
他の構成については、第一実施形態と同様であるので同一の符号を付し説明を省略する。 Since other configurations are the same as those in the first embodiment, the same reference numerals are given and description thereof is omitted.
次に、上記構成のデジタルカメラ200の動作について図面を参照しながら説明する。
Next, the operation of the
〔デジタルカメラ200の動作〕
図18は、第二実施形態のデジタルカメラの動作を説明するためのフローチャートである。
[Operation of Digital Camera 200]
FIG. 18 is a flowchart for explaining the operation of the digital camera of the second embodiment.
以下の処理は、顔画像中の特徴点それぞれまでの距離に基づいて、顔画像に含まれる顔が人物か否かを判定する処理であり、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing is processing for determining whether or not the face included in the face image is a person based on the distance to each feature point in the face image. Mainly, the
デジタルカメラ200の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS50)。
When the power of the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS51)。
The face
次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS52)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS53)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS54)。
Next, the
次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS55)。
Next, as shown in FIGS. 3, 4, and 5, the feature
そして、画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得る(ステップS56)。
Then, the
人物判別部32は、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する(ステップS57)。例えば、人物の条件(L1+L2)/2=L3を演算し、その人物の条件を満たすのであれば(ステップS58:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS59)。一方、その人物の条件を満たさないのであれば(ステップS58:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS60)。
The
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
以上説明したように、本動作では、抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得て(ステップS56)、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する(ステップS57)。そして、その人物の条件を満たすのであれば(ステップS58:Yes)、顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS59)。一方、その人物の条件を満たさないのであれば(ステップS58:No)、顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS60)。 As described above, in this operation, the distances L1, L2, and L3 to the right eye, left eye, and nose, which are the extracted facial feature points, are obtained (step S56), and these distances L1, L2, and L3 are obtained. It is calculated whether or not the condition of the person is satisfied (step S57). If the condition of the person is satisfied (step S58: Yes), it is determined that the face included in the face image is a person, that is, a person who is actually in the place (step S59). On the other hand, if the condition of the person is not satisfied (step S58: No), it is determined that the face included in the face image is not a person, that is, a poster (or a picture or a figure) (step S60).
したがって、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。
Therefore, when a subject including a poster other than a person is photographed by the
なお、人物の条件は(L1+L2)/2=L3に限定されない。測距に誤差ΔLが含まれていると想定される場合には、人物の条件は(L1+L2)/2>L3+ΔLであってもよい。さらに、人物以外の条件(L1+L2)/2<L3+ΔLを採用してもよい。 The person condition is not limited to (L1 + L2) / 2 = L3. When it is assumed that the error ΔL is included in the distance measurement, the condition of the person may be (L1 + L2) / 2> L3 + ΔL. Furthermore, a condition other than a person (L1 + L2) / 2 <L3 + ΔL may be employed.
あるいは、人物以外の条件として、L1<L3<L2、又は、L1>L3>L2を採用し、人物の条件として、これら条件を満たさない場合、を採用してもよい。その他、人物の条件として、各種の条件を採用し得る。 Alternatively, L1 <L3 <L2 or L1> L3> L2 may be adopted as a condition other than the person, and a case where these conditions are not satisfied may be adopted as the condition of the person. In addition, various conditions can be adopted as the condition of the person.
〔第三実施形態〕
〔デジタルカメラ300の構成〕
次に、本発明の第三実施形態であるデジタルカメラについて図面を参照しながら説明する。図19は、本発明の第三実施形態であるデジタルカメラの構成を説明するためのブロック図である。
[Third embodiment]
[Configuration of Digital Camera 300]
Next, a digital camera according to a third embodiment of the present invention will be described with reference to the drawings. FIG. 19 is a block diagram for explaining a configuration of a digital camera according to the third embodiment of the present invention.
本実施形態のデジタルカメラ300は、第二実施形態のデジタルカメラ200の構成に加えてさらに、ズームの影響を除去するためのズーム倍率演算部50を備えている。
In addition to the configuration of the
他の構成については、第二実施形態と同様であるので同一の符号を付し説明を省略する。 Since other configurations are the same as those in the second embodiment, the same reference numerals are given and description thereof is omitted.
〔デジタルカメラ300の動作 その1〕
次に、上記構成のデジタルカメラ300の動作(その1)について図面を参照しながら説明する。
[Operation of Digital Camera 300 Part 1]
Next, an operation (part 1) of the digital camera 300 having the above-described configuration will be described with reference to the drawings.
図20は、第三実施形態のデジタルカメラの動作(その1)を説明するためのフローチャートである。 FIG. 20 is a flowchart for explaining the operation (part 1) of the digital camera of the third embodiment.
以下の処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing is mainly realized by the
デジタルカメラ200の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS70)。
When the power of the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS71)。
The face
次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS72)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS73)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS74)。
Next, the
次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS75)。
Next, as shown in FIGS. 3, 4, and 5, the feature
そして、ズーム倍率演算部50は、顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する(ステップS76)。これは、特徴点の大きさを判断するためにズームの影響を除去するための処理である。ズームの影響を除去した特徴点のサイズと距離からそれが人物として適切か否かを判定する。
Then, the
この判定方法について、図21から図23を参照しながら説明する。 This determination method will be described with reference to FIGS.
図21はポスターの前に人物が位置している状態を示している。図22は、図21に示したポスター及び人物とデジタルカメラ300との位置関係を示している。図23は、「デジタルカメラ300からの距離」と「画像上の特徴点間の距離」との関係を示している。 FIG. 21 shows a state where a person is located in front of the poster. FIG. 22 shows the positional relationship between the poster and person shown in FIG. 21 and the digital camera 300. FIG. 23 shows the relationship between “distance from the digital camera 300” and “distance between feature points on the image”.
図21に示すように、顔画像の特徴点として右目、左目、鼻の頂点を採用し、例えば、それぞれの顔についてT1、T2、T3、及びT´1、T´2、T´3で表す。また、T1、T2、T3の重心、T´1、T´2、T´3の重心をそれぞれ、T4、T´4で表す。さらに図22に示すように、デジタルカメラ300から重心T4、T´4までの距離をそれぞれ、L4、L´4で表す。また図21に示すように、「画像上の特徴点間の距離」として例えば、右目と鼻の頂点間の距離をそれぞれ、L5、L5´で表す。 As shown in FIG. 21, the vertexes of the right eye, left eye, and nose are adopted as feature points of the face image. For example, each face is represented by T1, T2, T3, and T'1, T'2, T'3. . Further, the centroids of T1, T2, and T3 and the centroids of T′1, T′2, and T′3 are represented by T4 and T′4, respectively. Further, as shown in FIG. 22, the distances from the digital camera 300 to the centroids T4 and T′4 are represented by L4 and L′ 4, respectively. As shown in FIG. 21, for example, the distances between the right eye and the nose vertices are represented as L5 and L5 ′ as “distances between feature points on the image”.
そして、RAM等の記憶手段内に図23に示す「デジタルカメラ300からの距離」と「画像上の特徴点間の距離」との座標系、及びこの座標系上に設定された人物領域及び人物以外の領域(図中ポートレート領域)を表すテーブルあるいは式を記憶させておく。 23, a coordinate system of “distance from the digital camera 300” and “distance between feature points on the image” shown in FIG. 23, and a person area and a person set on this coordinate system. A table or expression representing an area other than (portrait area in the figure) is stored.
ズーム倍率演算部50は、顔画像抽出部29により抽出された顔画像と距離画像とを照合等し、距離L4、L5、L´4、L´5を得る(ステップS77)。
The zoom
人物判別部32は、これらの距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS78)。すなわち、距離L4とL5に対応する座標系の位置(又はL´4とL´5に対応する座標系の位置)が人物領域に該当するか否かを判定する。その結果、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当する(人物の条件を満たす)のであれば(ステップS78:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS79)。一方、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当しない(人物の条件を満たさない)のであれば(ステップS78:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS80)。
The
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
以上説明したように、本動作では、距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS78)。そして、その人物の条件を満たすのであれば(ステップS78:Yes)、顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS79)。一方、その人物の条件を満たさないのであれば(ステップS78:No)、顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS80)。 As described above, in this operation, it is determined whether or not the distances L4, L5, L′ 4, and L′ 5 satisfy the condition of the person (step S78). If the condition of the person is satisfied (step S78: Yes), it is determined that the face included in the face image is a person, that is, a person who is actually in the place (step S79). On the other hand, if the condition of the person is not satisfied (step S78: No), it is determined that the face included in the face image is not a person, that is, a poster (or a picture or a figure) (step S80).
したがって、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。
Therefore, when a subject including a poster other than a person is photographed by the
また、ズームの影響を除去した顔の長さと距離情報をもとに、それぞれの顔画像について人物か否かを判断することが可能となる。 Further, it is possible to determine whether each face image is a person based on the face length and distance information from which the influence of zoom is removed.
なお、少なくとも2組の特徴点について上記処理を行うことで、誤判定の確率を低減することが可能となる。 Note that the probability of erroneous determination can be reduced by performing the above processing on at least two sets of feature points.
〔デジタルカメラ300の動作 その2〕
次に、上記構成のデジタルカメラ300の他の動作(その2)について図面を参照しながら説明する。
[Operation of Digital Camera 300 Part 2]
Next, another operation (part 2) of the digital camera 300 configured as described above will be described with reference to the drawings.
図24は、第三実施形態のデジタルカメラ300の他の動作(その2)を説明するためのフローチャートである。 FIG. 24 is a flowchart for explaining another operation (No. 2) of the digital camera 300 according to the third embodiment.
以下の処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing is mainly realized by the
デジタルカメラ300の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS90)。
When the power of the digital camera 300 is turned on, continuous shooting is performed by the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS91)。
The face
次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS92)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS93)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS94)。
Next, the
次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS95)。
Next, as shown in FIGS. 3, 4, and 5, the feature
そして、画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得る(ステップS96)。
Then, the
人物判別部32は、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する(ステップS97)。例えば、人物の条件(L1+L2)/2=L3を演算し、その人物の条件を満たすのであれば(ステップS98:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS103)。一方、その人物の条件を満たさないのであれば(ステップS98:No)、さらに次の処理を行う。
The
すなわち、ズーム倍率演算部50は、顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する(ステップS99)。これは、特徴点の大きさを判断するためにズームの影響を除去するための処理である。ズームの影響を除去した特徴点のサイズと距離からそれが人物として適切か否かを判定する。この判定方法については、既に説明した(ステップS76参照)。
In other words, the
ズーム倍率演算部50は、顔画像抽出部29により抽出された顔画像と距離画像とを照合等し、距離L4、L5、L´4、L´5を得る(ステップS100)。
The
人物判別部32は、これらの距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS101)。すなわち、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当するか否かを判定する。その結果、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当する(人物の条件を満たす)のであれば(ステップS101:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS103)。一方、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当しない(人物の条件を満たさない)のであれば(ステップS101:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS102)。
The
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
なお、ステップS96からS98の処理は、ステップS101の後に行ってもよい。 Note that the processing of steps S96 to S98 may be performed after step S101.
〔デジタルカメラ300の動作 その3〕
次に、上記構成のデジタルカメラ300の他の動作(その3)について図面を参照しながら説明する。
[Operation of Digital Camera 300 Part 3]
Next, another operation (part 3) of the digital camera 300 configured as described above will be described with reference to the drawings.
図25は、第三実施形態のデジタルカメラの他の動作(その3)を説明するためのフローチャートである。 FIG. 25 is a flowchart for explaining another operation (part 3) of the digital camera according to the third embodiment.
以下の処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。
The following processing is mainly realized by the
デジタルカメラ300の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS110)。
When the power of the digital camera 300 is turned on, continuous shooting is performed by the
顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS111)。
The face
次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS112)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS113)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS114)。
Next, the
次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS115)。
Next, as shown in FIGS. 3, 4, and 5, the feature
そして、ズーム倍率演算部50は、顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する(ステップS116)。これは、特徴点の大きさを判断するためにズームの影響を除去するための処理である。ズームの影響を除去した特徴点のサイズと距離からそれが人物として適切か否かを判定する。この判定方法については、既に説明した(ステップS76参照)。
Then, the
ズーム倍率演算部50は、顔画像抽出部29により抽出された顔画像と距離画像とを照合等し、距離L4、L5、L´4、L´5を得る(ステップS117)。
The
人物判別部32は、これらの距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS118)。すなわち、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当するか否かを判定する。その結果、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当しない(人物の条件を満たさない)のであれば(ステップS118:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS123)。
The
一方、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当する(人物の条件を満たす)のであれば(ステップS118:Yes)、さらに次の処理を行う。 On the other hand, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) corresponds to the person area (the condition of the person is satisfied) (step S118). : Yes), the following processing is further performed.
画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得る(ステップS119)。
The
人物判別部32は、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する。例えば、人物の条件(L1+L2)/2=L3を演算し(ステップS120)、その人物の条件を満たすのであれば(ステップS121:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS122)。一方、その人物の条件を満たさないのであれば(例えば図4及び図5右側被写体)には(ステップS121:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS123)。
The
人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。
The
なお、ステップS116からS118の処理は、ステップS121の後に行ってもよい。また、図26に示すように、ステップS119からS121に代えて、図2で説明したステップS14の処理を行ってもよい。 Note that the processing of steps S116 to S118 may be performed after step S121. Further, as shown in FIG. 26, the process of step S14 described in FIG. 2 may be performed instead of steps S119 to S121.
以上説明したように、上記各実施形態の各動作により、デジタルカメラ100、200、300で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。
As described above, when a subject including a poster other than a person is photographed by the
そして、顔画像に含まれる顔が人物であると判断された場合には、AE評価の重み付けを行ったり、該人物に優先的に合焦させたりすることで、より適切な撮影を行うことが可能となる。 When it is determined that the face included in the face image is a person, more appropriate shooting can be performed by weighting the AE evaluation or preferentially focusing on the person. It becomes possible.
あるいは、人物であるか否かの判定結果を表す表示を表示面に表示することもできる。例えば、図16に示すように、いわゆるスルー画像に、人物であると判定された被写体を点線矩形枠(例えば青色)で囲って表示し、人物でないと判定された被写体を点線矩形枠(例えば赤色)で囲って表示することが考えられる。あるいは、人物であると判定された被写体のみを矩形枠で囲って表示することも考えられる。 Or the display showing the determination result of whether it is a person can also be displayed on a display surface. For example, as shown in FIG. 16, a subject determined to be a person is displayed in a so-called through image surrounded by a dotted rectangular frame (for example, blue), and a subject determined not to be a person is displayed as a dotted rectangular frame (for example, red). ). Alternatively, only a subject determined to be a person may be surrounded and displayed by a rectangular frame.
なお、デジタルカメラ100にジャイロ、加速度センサ、GPS、電子コンパス等のカメラ自体の変位を検知する手段を設け、これによりデジタルカメラ100が動いた分を補正して、被写体の特徴点の変位の検知を行うことも考えられる。
The
上記実施形態はあらゆる点で単なる例示にすぎない。これらの記載によって本発明は限定的に解釈されるものではない。本発明はその精神または主要な特徴から逸脱することなく他の様々な形で実施することができる。 The above embodiment is merely an example in all respects. The present invention is not construed as being limited to these descriptions. The present invention can be implemented in various other forms without departing from the spirit or main features thereof.
10…レンズ、11…シャッタ、13…光学フィルタ、14…撮像素子、15…レンズ駆動部、16…シャッタ駆動部、17…絞り駆動部、19…撮像素子駆動部、20…アナログ信号処理部、21…A/D変換器、22…デジタル信号処理部、23…表示部、24…D/A変換部、25…記録再生信号処理部、26…外部メモリ、27…AE演算部、28…AF演算部、29…顔画像抽出部、30…特徴点抽出部、31…特徴点変化検知部、32…人物判別部、33…人物抽出部、34…操作部、41…発光素子駆動部、42…発光素子、43…光学フィルタ、44…撮像素子駆動部、45…受光素子、46…距離演算部、47…画像照合部、50…ズーム倍率演算部、100、200、300…デジタルカメラ
DESCRIPTION OF
Claims (6)
前記撮像素子の出力信号から画像データを生成する画像データ生成手段と、
前記画像データ生成手段により生成された画像データから顔を含む顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検出手段と、
前記特徴点変化検出手段により検出された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定する人物判定手段と、
を備えることを特徴とするデジタルカメラ。 An image sensor including a photoelectric conversion element;
Image data generating means for generating image data from an output signal of the image sensor;
A face image extracting means for extracting a face image including a face from the image data generated by the image data generating means;
Feature point extracting means for extracting a feature point of a face included in the face image from the face image extracted by the face image extracting means;
A feature point change detecting means for detecting a change over time of the facial feature points extracted by the feature point extracting means;
A person determination unit for determining whether or not a face included in the face image extracted by the face image extraction unit is a person based on a temporal change in the feature point of the face detected by the feature point change detection unit; ,
A digital camera comprising:
前記特徴点変化検出手段は、前記特徴点抽出手段により抽出された前記顔の輪郭の経時的な特徴点の変化に基づいて、前記特徴点抽出手段により抽出された前記顔の特徴点の手ぶれ量を補正し、
前記人物判定手段は、前記特徴点変化検出手段により補正された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定することを特徴とする請求項1に記載のデジタルカメラ。 The feature point extracting unit extracts a feature point of a face outline included in the face image from the face image extracted by the face image extracting unit;
The feature point change detecting means is a camera shake amount of the facial feature point extracted by the feature point extracting means based on a change in the feature point with time of the contour of the face extracted by the feature point extracting means. To correct
The person determination means determines whether or not the face included in the face image extracted by the face image extraction means is a person based on the change over time of the facial feature points corrected by the feature point change detection means. The digital camera according to claim 1, wherein the determination is made.
特徴点変化検出手段、及び人物判定手段は、前記面積検出手段により検出された面積が一定値を越えた場合に、前記各処理を実行することを特徴とする請求項1に記載のデジタルカメラ。 Further comprising area detection means for detecting the area of the face image extracted by the face image extraction means;
The digital camera according to claim 1, wherein the feature point change detection unit and the person determination unit execute the processes when the area detected by the area detection unit exceeds a certain value.
前記特徴点変化検出手段、及び判定手段は、前記フォーカス手段によるフォーカス位置が広角側の所定位置に位置している場合に、前記各処理を実行することを特徴とする請求項1に記載のデジタルカメラ。 A focus unit that preferentially focuses on a face included in the face image extracted by the face image extraction unit;
2. The digital according to claim 1, wherein the feature point change detection unit and the determination unit execute the processes when a focus position by the focus unit is located at a predetermined position on the wide-angle side. camera.
前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されているか否かを判定するメモリ内判定手段と、
前記メモリ内判定手段により前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されていると判定された場合には、前記記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出すことを特徴とする請求項1に記載のデジタルカメラ。 Storage means for storing the facial feature points extracted by the feature point extraction means in association with the results determined by the person determination means;
In-memory determination means for determining whether or not the feature points of the face newly extracted by the feature point extraction means are stored in the storage means;
When it is determined that the feature point of the face newly extracted by the feature point extraction unit is stored in the storage unit by the determination unit in the memory, the feature point is associated with the face feature point from the storage unit The digital camera according to claim 1, wherein the determination result stored in the step is read out.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007021887A JP2008187677A (en) | 2007-01-31 | 2007-01-31 | Digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007021887A JP2008187677A (en) | 2007-01-31 | 2007-01-31 | Digital camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008187677A true JP2008187677A (en) | 2008-08-14 |
Family
ID=39730383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007021887A Pending JP2008187677A (en) | 2007-01-31 | 2007-01-31 | Digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008187677A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109996035A (en) * | 2018-01-02 | 2019-07-09 | 英西图公司 | For generating the camera apparatus and correlation technique of machine vision data |
US11620997B2 (en) | 2018-03-27 | 2023-04-04 | Sony Corporation | Information processing device and information processing method |
-
2007
- 2007-01-31 JP JP2007021887A patent/JP2008187677A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109996035A (en) * | 2018-01-02 | 2019-07-09 | 英西图公司 | For generating the camera apparatus and correlation technique of machine vision data |
CN109996035B (en) * | 2018-01-02 | 2023-10-24 | 英西图公司 | Apparatus and method for enhancing monitoring image analysis |
US11620997B2 (en) | 2018-03-27 | 2023-04-04 | Sony Corporation | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101034109B1 (en) | Image capture apparatus and computer readable recording medium storing with a program | |
US7791668B2 (en) | Digital camera | |
JP4315148B2 (en) | Electronic camera | |
US8885090B2 (en) | Imaging apparatus and autofocus control method thereof | |
JP5087856B2 (en) | Electronic camera | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US20070269196A1 (en) | System for and method of taking image | |
JP2006211139A (en) | Imaging apparatus | |
JP5115210B2 (en) | Imaging device | |
JP2009033238A (en) | Imaging apparatus | |
JP2008118387A (en) | Imaging device | |
JP5087936B2 (en) | camera | |
JP5615756B2 (en) | Imaging apparatus and imaging program | |
JP2014235224A (en) | Imaging device and control program | |
JP2015012482A (en) | Image processing apparatus and image processing method | |
JP2010091669A (en) | Imaging device | |
JP4953770B2 (en) | Imaging device | |
JP2008090059A (en) | Imaging apparatus and autofocus control method therefor | |
JP4771536B2 (en) | Imaging device and method of selecting face as main subject | |
JP5183441B2 (en) | Imaging device | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2008187677A (en) | Digital camera | |
JP2008028890A (en) | Imaging apparatus, imaging method, and imaging program | |
JP5423851B2 (en) | Electronic camera | |
JP5093178B2 (en) | Electronic camera |