JP4888191B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP4888191B2 JP4888191B2 JP2007093720A JP2007093720A JP4888191B2 JP 4888191 B2 JP4888191 B2 JP 4888191B2 JP 2007093720 A JP2007093720 A JP 2007093720A JP 2007093720 A JP2007093720 A JP 2007093720A JP 4888191 B2 JP4888191 B2 JP 4888191B2
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- image
- face
- group
- grouping process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、被写体の顔領域を画像から検出できる撮像装置に関する。 The present invention relates to an imaging apparatus capable of detecting a face area of a subject from an image.
従来から、撮影画面内の被写体の顔を検出して、顔に合わせてAF(オートフォーカス)を行う電子カメラが公知である。例えば、特許文献1には、顔検出機能を有する電子カメラの構成の一例が開示されている。
しかし、従来の顔検出機能を有する電子カメラは、複数の顔を検出した場合に最も至近側の顔を対象としてAFやAE(自動露出)を行なっていた。そのため、ユーザーが複数の人物を主要被写体するときに、顔検出機能を利用した撮影でユーザーの意図が反映されない可能性がある点でなお改善の余地があった。
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、複数の主要被写体を撮影するシーンにおいて、顔検出機能を利用するユーザーの利便性をより高める手段を提供することにある。
However, a conventional electronic camera having a face detection function performs AF and AE (automatic exposure) on the closest face when a plurality of faces are detected. Therefore, there is still room for improvement in that the user's intention may not be reflected in the shooting using the face detection function when the user takes a plurality of persons as main subjects.
The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide means for further improving the convenience of a user who uses a face detection function in a scene where a plurality of main subjects are photographed.
第1の発明の撮像装置は、撮像部と、顔検出部と、操作部と、第1制御部と、第2制御部とを備える。撮像部は、被写体を撮像して画像のデータを生成する。顔検出部は、画像から被写体の顔領域を検出する。操作部は、ユーザーからの操作を受け付ける。第1制御部は、顔検出部が顔領域を複数検出したときに、少なくとも2以上のグループのいずれかに各々の顔領域を分類するグループ化処理を行う。第2制御部は、複数のグループのなかから上記の操作で指定された指定グループを基準として所定の処理を実行する。また、第1制御部は、同一画像データ内の各々の顔領域の大きさに基づいてグループ化処理を実行する。 An imaging apparatus according to a first invention includes an imaging unit, a face detection unit, an operation unit, a first control unit, and a second control unit. The imaging unit captures a subject and generates image data. The face detection unit detects the face area of the subject from the image. The operation unit accepts an operation from the user. The first control unit performs a grouping process for classifying each face region into one of at least two groups when the face detection unit detects a plurality of face regions. The second control unit executes a predetermined process based on the designated group designated by the above operation from among a plurality of groups. Further, the first control unit executes the grouping process based on the size of each face area in the same image data.
第2の発明は、第1の発明において、第2制御部は、指定グループを基準とする合焦制御、指定グループを基準とする自動露出制御、指定グループを基準とするオートホワイトバランス制御、指定グループ内の顔領域に関するメタデータの生成、のうちの少なくとも1つを実行する。
第3の発明は、第1または第2の発明において、操作部は、ユーザーから主要被写体となる顔領域の指定入力を受け付ける。また、第1制御部は、主要被写体の顔領域の位置に基づいてグループ化処理を実行する。
In a second aspect based on the first aspect, the second control unit performs focusing control based on the designated group, automatic exposure control based on the designated group, auto white balance control based on the designated group, and designation. At least one of generation of metadata regarding the face area in the group is executed.
According to a third aspect, in the first or second aspect , the operation unit receives a designation input of a face area to be a main subject from a user. Further, the first control unit executes the grouping process based on the position of the face area of the main subject.
第4の発明は、第1から第3のいずれかの発明において、第1制御部は、複数のアルゴリズムに基づいてグループ化処理をそれぞれ実行する。また、第1制御部は、操作部からグループの変更入力があったときに、変更入力前とは異なるアルゴリズムで求めたグループ化処理の結果をユーザーに提示する。 In a fourth aspect based on any one of the first to third aspects, the first control unit executes grouping processing based on a plurality of algorithms. In addition, when there is a group change input from the operation unit, the first control unit presents the result of the grouping process obtained by an algorithm different from that before the change input to the user .
第5の発明は、第1から第4のいずれかの発明において、各々の顔領域とグループとの対応関係を示す確認画像を表示するモニタを撮像装置がさらに備える。
In a fifth aspect based on any one of the first to fourth aspects, the imaging apparatus further includes a monitor that displays a confirmation image indicating a correspondence relationship between each face region and the group.
本発明の撮像装置では、複数のグループに各々の顔領域を分類するグループ化処理を実行するとともに、任意の指定グループを基準として各種の処理を実行し、複数の主要被写体を撮影するシーンでのユーザーの利便性を向上させる。 In the imaging apparatus of the present invention, a grouping process for classifying each face region into a plurality of groups is performed, and various processes are performed based on an arbitrary designated group, and a scene in which a plurality of main subjects are photographed Improve user convenience.
図1は、本実施形態の電子カメラの構成を示すブロック図である。
電子カメラは、撮像光学系11と、レンズ駆動部12と、絞り13と、絞り駆動部14と、撮像素子15と、AFE16と、画像処理部17と、バッファメモリ18と、記録I/F19と、モニタ20と、レリーズ釦21と、操作部22と、CPU23と、システムバス24とを有している。
FIG. 1 is a block diagram showing the configuration of the electronic camera of this embodiment.
The electronic camera includes an imaging optical system 11, a
ここで、画像処理部17、バッファメモリ18、記録I/F19、モニタ20およびCPU23は、システムバス24を介してそれぞれ接続されている。また、レンズ駆動部12、絞り駆動部14、レリーズ釦21および操作部22は、それぞれCPU23と接続されている。
撮像光学系11と、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のフォーカシングレンズのレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。
Here, the
The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the focusing lens of the imaging optical system 11 is adjusted in the optical axis direction by the
絞り13は、撮像光学系11からの入射光量を調節する。絞り13の開口量は、絞り駆動部14によって調整される。
撮像素子15は、撮像光学系11の像空間側に配置されている。撮像素子15の受光面には受光素子が2次元配列されている。撮像素子15は、撮像光学系11を通過した光束による被写体像を光電変換することでアナログの画像信号を生成する。この撮像素子15の出力はAFE16に接続されている。
The
The
ここで、電子カメラの動作モードの一つである撮影モードにおいて、撮像素子15はレリーズ釦21の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子15は、撮影待機時にも所定間隔毎にスルー画像を撮像する。なお、スルー画像のデータは、撮像素子15から間引き読み出しで出力されて、モニタ20での画像表示や、CPU23による各種の演算処理などに使用される。
Here, in the photographing mode which is one of the operation modes of the electronic camera, the
AFE16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE16は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。なお、AFE16の出力は画像処理部17に接続されている。
画像処理部17は、本画像またはスルー画像の画像信号に対して、各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。なお、画像処理部17は、本画像のデータの圧縮処理または伸長処理も実行する。
The AFE 16 is an analog front end circuit that performs analog signal processing on the output of the
The
バッファメモリ18は、画像処理部17による画像処理の前工程や後工程で画像のデータを一時的に記録する。
記録I/F19には、記録媒体25を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記録媒体25に対してデータの書き込み/読み込みを実行する。上記の記録媒体25は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体25の一例としてメモリカードを図示する。
The
A connector for connecting the
モニタ20は、CPU23の指示に応じて各種の画像を表示する。なお、本実施形態でのモニタ20の構成は、接眼部を有する電子ファインダや、筐体の背面などに設けられる液晶表示パネルのいずれでもよい。
上記のモニタ20には、撮影モードでの撮影待機時に、CPU23の制御によりスルー画像が動画表示される。このとき、CPU23は、モニタ20上のスルー画像に、撮影に必要となる各種情報の表示をオンスクリーン機能で重畳させることができる。
The
On the
レリーズ釦21は、半押し操作による撮影前のAF動作の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。
操作部22は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦、登録ボタンなどで構成される。そして、操作部22は、電子カメラの各種入力をユーザーから受け付ける。
The
The
CPU23は、電子カメラの各部を統括的に制御するプロセッサである。ここで、本実施形態のCPU23は、不図示のROMに格納されたプログラムの実行により、撮影制御部26、顔検出部27、グループ化処理部28として機能する。
撮影制御部26は、スルー画像の出力に基づいて、公知のコントラスト方式のAF演算、公知のAE演算、オートホワイトバランス時のホワイトバランスゲインの演算などを実行する。また、撮影制御部26は、Exif(Exchangeable image file format for digital still cameras)規格に準拠して、画像ファイルのヘッダ領域に記録されるメタデータの生成も行う。
The
The
顔検出部27は、スルー画像のデータに顔検出処理を施して、スルー画像に含まれる人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部27は、公知の特徴点抽出処理によって、眉,目,鼻,唇の各端点などの特徴点を画像から抽出し、これらの特徴点に基づいて顔領域か否かを判定する。あるいは、顔検出部27は、予め用意された顔画像と判定対象の画像との相関係数を求めて、この相関係数が一定の閾値を超えるときに顔領域と判定してもよい。
The
グループ化処理部28は、顔検出部27が顔領域を複数検出したときに、各々の顔領域をグループに分類するグループ化処理を実行することができる。グループ化処理部28は、グループ化処理のときに、1つのグループに複数の顔領域を含めることができる。なお、本実施形態の撮影制御部26は、上記のグループを基準として、AF、AE、オートホワイトバランスを実行できる。
When the
以下、図2の流れ図を参照しつつ、本実施形態の電子カメラの撮影モードにおける動作例を説明する。なお、図2の例では、撮影モードでの顔検出機能がオンに設定された状態を前提として説明を行う。
ステップ101:CPU23は、撮像素子15を駆動させてスルー画像の撮像を開始する。その後、スルー画像は、撮像素子15によって所定間隔ごとに逐次生成されることとなる。また、CPU23は、スルー画像をモニタ20に動画表示する。したがって、ユーザーは、モニタ20のスルー画像によって撮影構図を決定するためのフレーミングを行うことができる。
Hereinafter, an operation example in the shooting mode of the electronic camera of the present embodiment will be described with reference to the flowchart of FIG. In the example of FIG. 2, description will be made on the assumption that the face detection function in the shooting mode is set to ON.
Step 101: The
ステップ102:CPU23は、スルー画像のデータに顔検出処理を施して、スルー画像に含まれる顔領域を検出する。なお、S102で顔領域が検出された場合には、CPU23は、検出できた顔領域の位置をモニタ20に表示する。一例として、CPU23は、オンスクリーン機能によって、スルー画像内で検出できた顔領域の位置に矩形の枠を重畳表示する(図3参照)。
Step 102: The
ステップ103:CPU23は、S102の顔検出処理で顔領域が検出されたか否かを判定する。顔領域を検出した場合(YES側)には、CPU23はS104に移行する。一方、顔領域を検出していない場合(NO側)には、CPU23はS116に移行する。
ステップ104:CPU23は、S102の顔検出処理で複数の顔領域が検出されたか否かを判定する。複数の顔領域が検出された場合(YES側)には、CPU23はS105に移行する。一方、検出された顔領域が一つの場合(NO側)には、CPU23はS113に移行する。
Step 103: The
Step 104: The
ステップ105:CPU23は、S102で検出した顔領域のグループ化処理を実行し、各々の顔領域を分類して複数のグループを生成する。
より具体的には、S105でのCPU23は、以下の(1)または(2)のいずれかの要領でグループ化処理を実行する。
(1)まず、CPU23は、各々の顔領域のサイズを検出する。次に、CPU23は、任意の1つの顔領域を判定対象に設定する。そして、CPU23は、判定対象の顔領域を基準として、上記のサイズ差が許容範囲内であって、かつ画面上での距離が閾値以内にある顔領域を判定対象とグループ化する。一方、上記条件を満たす顔領域がない場合には、CPU23は、判定対象の顔領域のみを含むグループを生成する。そして、CPU23は、判定対象の顔領域を変更して上記の動作を繰り返し、すべての顔領域をグループ化する。
Step 105: The
More specifically, the
(1) First, the
(2)まず、CPU23は、操作部22を介して、主要被写体となる顔領域の指定入力をユーザーから受け付ける。そして、CPU23は、撮影画面上で主要被写体の顔領域から所定範囲内ある他の顔領域をまとめて1つのグループとする。このとき、CPU23は、主要被写体に指定された顔領域のサイズを基準として、サイズが著しく異なる顔領域はグループ化の対象から除外してもよい。これにより、CPU23は、主要被写体およびその近傍の人物の顔をまとめてグループ化できる。
(2) First, the
ここで、S105のグループ化処理において、CPU23は、1つのグループに含める顔領域の数の上限をユーザーの入力に応じて変更できる。あるいは、CPU23は、撮影条件に応じて、1つのグループにおける顔領域の数の上限を自動的に変更させてもよい。一例として、CPU23は、撮影画角や絞り値に応じて被写界深度が浅くなるほど(すなわち、複数の顔にピントを合わせづらくなるほど)1つのグループにおける顔領域の数の上限を少なくする。
Here, in the grouping process of S105, the
ステップ106:CPU23は、グループ化処理で生成された複数のグループのうちから、AFなどの対象となる指定グループを自動的に選択する。
例えば、CPU23は、最も大きな顔領域が含まれたグループや、画像の中央に位置するグループを指定グループに選択する。あるいは、ユーザーから指定された主要被写体の位置を基準としてグループ化処理が行われた場合には、CPU23は主要被写体の顔領域が含まれるグループを指定グループに選択する。
Step 106: The
For example, the
ステップ107:CPU23は、グループ化処理の結果と、現在の指定グループとをモニタ20に表示する。一例として、CPU23は、オンスクリーン機能によって、検出できた顔領域を示す矩形の枠とともに、顔領域のグループを示すグループ枠表示をモニタのスルー画像に重畳表示する(図4参照)。
ここで、図4ではグループ枠表示を破線で示す。なお、CPU23は、指定グループを示すグループ枠については、他のグループ枠とは色や太さを変更することでモニタ20上で強調表示する。
Step 107: The
Here, in FIG. 4, the group frame display is indicated by a broken line. Note that the
ステップ108:CPU23は、S107で表示されたグループの再設定入力を操作部22から受け付けたか否かを判定する。上記の入力があった場合(YES側)には、CPU23はS109に移行する。一方、上記の入力がない場合(NO側)には、CPU23はS110に移行する。
ステップ109:CPU23は、S105と異なるアルゴリズムでグループ化処理を再び実行する。その後、CPU23はS106に戻って上記動作を繰り返す。
Step 108: The
Step 109: The
例えば、S109でのCPU23は、1つのグループに含める顔領域の数や、顔領域の位置関係やサイズに関するパラメータをS105とは異なる値に変更する。そして、CPU23は、上記の変更後のパラメータに基づいて、再びグループ化処理を実行する。
あるいは、S105で上記の(1)の方法でグループ化処理を行ったときには、S109でのCPU23は上記の(2)の方法で再びグループ化処理を実行する。同様に、S105で上記の(2)の方法でグループ化処理を行ったときには、S109でのCPU23は上記(1)の方法で再びグループ化処理を実行する。
For example, the
Alternatively, when the grouping process is performed by the method (1) in S105, the
ステップ110:CPU23は、上記の指定グループの変更入力を操作部22から受け付けたか否かを判定する。指定グループの変更入力があった場合(YES側)には、CPU23はS111に移行する。一方、指定グループの変更入力がない場合(NO側)には、CPU23はS112に移行する。
ステップ111:CPU23は、ユーザーの操作に応じて指定グループの変更を行う。
例えば、図4の例であれば、CPU23は、ユーザーの操作に応じて、画面上側のグループを指定グループに変更する。これにより、ユーザーは、グループ化処理で生成された複数のグループのうちから指定グループを手動で選択することが可能となる。
Step 110: The
Step 111: The
For example, in the example of FIG. 4, the
ステップ112:CPU23は、指定グループを基準として撮影条件の設定を行う。なお、CPU23は、S112での処理後にS114に移行する。
第1に、S112でのCPU23は、指定グループを基準としてAFを実行し、指定グループに含まれるすべての顔領域を合焦状態とする。一例として、CPU23は、コントラストAFで各々の顔領域の焦点評価値を求め、すべての顔領域の焦点評価値が閾値以上となるレンズ位置を合焦位置とみなしてAFする。なお、CPU23は、必要に応じて絞り13を制御して、全ての顔領域にピントがあうように被写界深度を深くしてもよい。これにより、電子カメラは、指定グループ内の各々の顔にピントを合わせて本画像を撮影することが容易となる。
Step 112: The
First, the
第2に、S112でのCPU23は、指定グループの範囲を基準とするスポット測光でAE演算を実行し、本画像の露出条件(絞り値、露光時間、撮像感度)を調整する。これにより、電子カメラは、例えば、輝度差の大きなシーンにおいて、指定グループ内の顔の露出を適正にすることができる。
第3に、S112でのCPU23は、指定グループの範囲を基準としたスルー画像の色情報に基づいてオートホワイトバランス演算を実行し、本画像に適用するホワイトバランスゲインを決定する。これにより、電子カメラは、例えば、撮影画面内が複数の光源で照明されているシーンにおいて、指定グループ内の顔を基準としてホワイトバランスを行うことができる。
Secondly, the
Thirdly, the
ステップ113:この場合には、CPU23は、検出された顔領域を基準としてAF制御およびAE演算を実行する。なお、この場合には検出された顔領域が1つのみであるので、CPU23がグループ化処理を行なうことはない。
ステップ114:CPU23は、レリーズ釦21の半押し操作を受け付けたか否かを判定する。レリーズ釦21が半押しされた場合(YES側)には、CPU23はS115に移行する。一方、レリーズ釦21が半押しされていない場合(NO側)には、CPU23はS102に戻って上記動作を繰り返す。
Step 113: In this case, the
Step 114: The
ステップ115:CPU23は、レリーズ釦21の半押し操作に応じて、焦点調節制御を禁止してAFロックを行う。その後、CPUはS117に移行する。
ステップ116:この場合には、ユーザーからのレリーズ釦21の半押し操作に応じて、CPU23は、通常の撮影時と同様のアルゴリズム(例えば、中央優先や至近優先など)でAFおよびAEを実行する。
Step 115: In response to the half-pressing operation of the
Step 116: In this case, in response to a half-press operation of the
ステップ117:CPU23は、レリーズ釦21が全押し操作を受け付けたか否かを判定する。レリーズ釦21が全押しされた場合(YES側)には、CPU23はS119に移行する。一方、レリーズ釦21が全押しされていない場合(NO側)には、CPU23はS118に移行する。
ステップ118:CPU23はレリーズ釦21の半押しが解除されたか否かを判定する。レリーズ釦21の半押しが解除された場合(YES側)には、CPU23はS102に戻って上記動作を繰り返す。一方、レリーズ釦21の半押しが継続している場合(NO側)には、CPU23はS117に戻って上記動作を繰り返す。
Step 117: The
Step 118: The
ステップ119:CPU23は本画像の撮影処理を実行する。具体的には、CPU23は、撮像素子15を駆動させて本画像を撮影する。その後、画像処理部17によって本画像のデータが生成される。
ここで、上記のグループ化処理が行われている場合には、画像処理部17は、以下の(1)から(6)のいずれかの画像処理を本画像のデータに施すようにしてもよい。これにより、電子カメラは、ユーザーのイメージにより忠実な本画像を生成できるようになる。
Step 119: The
Here, when the grouping process is performed, the
(1)画像処理部17は、指定グループの範囲に対する輪郭強調処理を他の領域と変化させる。例えば、画像処理部17は、指定グループの範囲には、他の領域よりも輪郭強調の度合いが弱い輪郭強調フィルタを適用して輪郭強調処理を実行する。その結果、主要被写体の人物の肌荒れなどが目立ちにくい好ましい本画像を得ることができる。
(2)画像処理部17は、指定グループの範囲の階調補正の特性を他の領域と変化させる。例えば、画像処理部17は、本画像の指定グループの範囲には、他の領域と異なる階調曲線の階調特性テーブルを適用して階調補正を実行する。具体的には、主要被写体の領域に対しては、他の領域の階調曲線よりも相対的にコントラストが低めになる軟調の階調曲線の階調特性テーブルを適用する。その結果、主要被写体の顔に柔らかさのある好ましい本画像を得ることができる。
(1) The
(2) The
(3)画像処理部17は、指定グループの範囲の彩度を他の領域よりも高める補正を行う。例えば、画像処理部17は、指定グループの顔領域の彩度パラメータを他の領域よりも相対的に高く設定する。その結果、主要被写体の人物の肌色のくすみなどが軽減された好ましい本画像を得ることができる。
(4)画像処理部17は、指定グループの範囲に対して、画像解析の結果に基づき画像の暗部またはハイライト部の階調を調整する光量補正処理を実行する。上記の光量補正処理は、例えば、特開2006−5699号公報に開示された公知の技術により行われる。具体的には、画像処理部17は、本画像から局所的な変動成分を抽出して、変動成分を含む局所変動画像を生成する。次に、画像処理部17は、本画像を局所変動画像へ変調する変調信号を求めるとともに、変調信号をレベル圧縮する。そして、画像処理部17はレベル圧縮後の変調信号によって撮影画像を変調して階調修正画像を取得する。その結果、補正範囲の明暗変化を適度に抑制しつつ、視覚的に埋もれやすい階調が修復された良好な状態の画像を得ることができる。
(3) The
(4) The
(5)画像処理部17は、指定グループの範囲のノイズ低減処理を他の領域と変化させる。例えば、画像処理部17は、本画像のうちで指定グループの範囲のみを対象としてメディアンフィルタなどによるノイズ低減処理を実行する。その結果、主要被写体の顔の粒状感を低減できる。
(6)画像処理部17は、指定グループの範囲に対してのみ、画像処理による赤目軽減補正を施す。上記の赤目軽減補正は公知の技術により行われる。具体的には、画像処理部17は、顔領域から赤目領域を検出するとともに、検出した赤目領域の明度または彩度を低下させる補正を行う。その結果、主要被写体の赤目を防止できる。
(5) The
(6) The
ステップ120:CPU23は、Exif規格に準拠した画像ファイルの生成を行う。このとき、CPU23は、バッファメモリ18のワークエリアを利用して画像ファイルのヘッダのデータを生成する。
ここで、上記のグループ化処理が行われている場合には、CPU23は、グループ化処理を行ったことを示す識別情報、指定グループの位置を示す座標情報、指定グループに含まれる顔領域の位置情報などのメタデータをヘッダに記録する。なお、上記のメタデータは、Exif規格のMakerNoteタグを利用してヘッダに記録される。そして、CPU23は、本画像のデータと上記のヘッダのデータとを関連付けして画像ファイルを生成し、この画像ファイルを記録媒体25に記録する。
Step 120: The
Here, when the grouping process is performed, the
ここで、上記のメタデータは、例えば、以下の用途に用いることができる。これにより、撮影後に本画像の画像ファイルを利用するときに、ユーザーの利便性が大きく向上する。
(1)電子カメラで画像ファイルを再生するときに、CPU23は、メタデータに基づいて、撮影時にグループ化処理が行われた画像を検索してソートすることができる。
Here, the above metadata can be used for the following applications, for example. This greatly improves user convenience when using the image file of the main image after shooting.
(1) When playing back an image file with an electronic camera, the
(2)撮影後に本画像から主要被写体の人物をトリミングする場合に、CPU23は、メタデータに基づいて、本画像における指定グループの位置や顔領域の位置を把握できる。
(3)電子カメラで画像ファイルをスライドショーで自動再生するときに、CPU23は、メタデータに基づいて、特殊効果を伴う表示を行うことができる。一例として、CPU23は、指定グループ内の顔の位置を基準としてズームアップ、ズームダウン、画像の回転、フェードイン、フェードアウトなどの表示を実行できる。さらに、CPU23は、上記のスライドショーの表示において、その本画像を指定グループの顔の数で分割表示してもよい。例えば、CPU23は、各々の主要被写体の顔を拡大表示するなどの手段で上記の分割表示を行う。以上で、図2に関する説明を終了する。
(2) When trimming the person who is the main subject from the main image after shooting, the
(3) When the image file is automatically reproduced by the electronic camera as a slide show, the
以下、本実施形態の作用効果を説明する。
本実施形態の電子カメラは、顔検出処理で複数の顔領域を検出したときに、各々の顔領域を複数のグループに分類するグループ化処理を実行する。そして、電子カメラは、任意の指定グループを基準としてAF、AEおよびオートホワイトバランスなどの処理を実行する。そのため、複数の人物を主要被写体として撮影を行うシーンでは、指定グループ内の顔領域がいずれも主要な処理対象となるため、ユーザーの意図に沿った本画像を容易に得ることが可能となる。特に、電子カメラはユーザーの操作に応じて指定グループを変更できるので、例えば手前の人物の奥に主要被写体となる人物のグループが位置する状況でも、適切に指定グループを設定できる。
Hereinafter, the effect of this embodiment is demonstrated.
The electronic camera according to the present embodiment executes a grouping process for classifying each face area into a plurality of groups when a plurality of face areas are detected by the face detection process. Then, the electronic camera executes processing such as AF, AE, and auto white balance based on an arbitrary designated group. For this reason, in a scene where a plurality of persons are photographed as main subjects, all face areas in the designated group are the main processing targets, so that it is possible to easily obtain a main image in accordance with the user's intention. Particularly, since the electronic camera can change the designated group in accordance with the user's operation, for example, the designated group can be appropriately set even in a situation where a group of persons as a main subject is located behind the person in front.
また、本実施形態での電子カメラは、ユーザーによる顔領域の指定や、検出した顔の大きさに基づいてグループ化処理を実行する。そのため、顔領域のグループ化が一般的なユーザーの意図に近い形で行われることとなる。また、電子カメラはユーザーの操作に応じて、異なるアルゴリズムでグループ化処理を再び行うこともできるので、ユーザーの意図に近いグループ化処理を実現することが容易となる。 In addition, the electronic camera according to the present embodiment performs a grouping process based on the designation of a face area by the user and the detected face size. Therefore, the grouping of face areas is performed in a form close to the general user's intention. In addition, since the electronic camera can perform the grouping process again with a different algorithm in accordance with the user's operation, it is easy to realize the grouping process close to the user's intention.
(実施形態の補足事項)
(1)上記実施形態において、CPU23は、被写体距離に基づいてグループ化処理を行うようにしてもよい。一例として、CPU23は、フォーカシングレンズを一方向に走査しつつ撮像素子15を駆動させて複数のスルー画像を取得する。次に、CPU23は、AF演算と同様の手法によって、各々のスルー画像において各顔領域のコントラストの値を取得する。CPU23は、各々の顔領域毎に最もコントラストの値が高くなるフォーカスレンズの位置に基づいて、撮影画面内の各々の顔領域の被写体距離を演算する。そして、CPU23は、被写体距離の差が閾値以内にある被写体をグループ化する。このとき、CPU23は、撮影画面内における顔領域の位置が遠い場合には、両者の顔領域をグループ化しないようにしてもよい。
(Supplementary items of the embodiment)
(1) In the above embodiment, the
(2)CPU23は、指定グループを基準としてAFを行う場合には、指定グループ内のいずれかの顔領域を基準としてAFを実行してもよい。例えば、CPU23は、最初に焦点検出対象とした顔領域で合焦位置が検出できないときに、その指定グループ内の他の顔領域でAFを行うようにしてもよい。
(3)CPU23は、顔領域を示す矩形の枠(図3参照)を色分けして各々のグループを表示するようにしてもよい。また、CPU23は、ユーザーが操作部22で所定の操作をおこなったときのみ、グループを示す表示をモニタ20に重畳させてもよい。さらに、CPU23は、グループ化処理の後で、各々のグループをモニタ20に交互に切り替えて表示し、ユーザーの指定入力があったときにそのグループを指定グループとして選択するようにしてもよい(これらの場合の図示は省略する)。
(2) When performing AF with reference to the designated group, the
(3) The
(4)上記実施形態では、電子カメラで撮像時に顔検出処理およびグループ化処理を行う例を説明した。しかし、本発明は上記実施形態の例に限定されることなく、例えば、電子カメラで画像ファイルを再生するときに、本画像に対して顔検出処理およびグループ化処理を実行するものであってもよい。また、本発明は、スキャナなどの画像処理装置や、画像のデータを読み込んで再生表示を行うコンピュータなどに実装されるものであってもよい。 (4) In the above embodiment, the example in which the face detection process and the grouping process are performed at the time of imaging with the electronic camera has been described. However, the present invention is not limited to the example of the above-described embodiment. For example, when an image file is played back with an electronic camera, face detection processing and grouping processing may be performed on the main image. Good. The present invention may also be implemented in an image processing apparatus such as a scanner or a computer that reads and reproduces image data.
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。 It should be noted that the present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.
15…撮像素子、17…画像処理部、20…モニタ、22…操作部、23…CPU、26…撮影制御部、27…顔検出部、28…グループ化処理部
DESCRIPTION OF
Claims (5)
前記画像から前記被写体の顔領域を検出する顔検出部と、
ユーザーからの操作を受け付ける操作部と、
前記顔検出部が前記顔領域を複数検出したときに、少なくとも2以上のグループのいずれかに各々の前記顔領域を分類するグループ化処理を行う第1制御部と、
複数の前記グループのなかから前記操作で指定された指定グループを基準として所定の処理を実行する第2制御部と、
を備え、
前記第1制御部は、同一画像データ内の各々の前記顔領域の大きさに基づいて前記グループ化処理を実行することを特徴とする撮像装置。 An imaging unit that images a subject and generates image data;
A face detection unit for detecting a face area of the subject from the image;
An operation unit that receives operations from the user;
A first control unit that performs a grouping process for classifying each of the face regions into one of at least two or more groups when the face detection unit detects a plurality of the face regions;
A second control unit that executes a predetermined process based on a designated group designated by the operation among a plurality of the groups;
Equipped with a,
The imaging apparatus according to claim 1, wherein the first control unit executes the grouping process based on a size of each face area in the same image data .
前記第2制御部は、前記指定グループを基準とする合焦制御、前記指定グループを基準とする自動露出制御、前記指定グループを基準とするオートホワイトバランス制御、前記指定グループ内の前記顔領域に関するメタデータの生成、のうちの少なくとも1つを実行することを特徴とする撮像装置。 The imaging device according to claim 1,
The second control unit relates to focusing control based on the designated group, automatic exposure control based on the designated group, auto white balance control based on the designated group, and the face region in the designated group. An imaging apparatus that executes at least one of generation of metadata.
前記操作部は、ユーザーから主要被写体となる前記顔領域の指定入力を受け付け、
前記第1制御部は、前記主要被写体の前記顔領域の位置に基づいて前記グループ化処理を実行することを特徴とする撮像装置。 In the imaging device according to claim 1 or 2,
The operation unit accepts designation input of the face area as a main subject from a user,
The imaging apparatus according to claim 1, wherein the first control unit executes the grouping process based on a position of the face area of the main subject.
前記第1制御部は、複数のアルゴリズムに基づいて前記グループ化処理をそれぞれ実行するとともに、前記操作部から前記グループの変更入力があったときに、前記変更入力前とは異なる前記アルゴリズムで求めた前記グループ化処理の結果をユーザーに提示することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 3,
The first control unit performs the grouping process based on a plurality of algorithms, and obtains the group using a different algorithm from that before the change input when the group change input is received from the operation unit. An image pickup apparatus that presents a result of the grouping process to a user.
各々の前記顔領域と前記グループとの対応関係を示す確認画像を表示するモニタをさらに備えることを特徴とする撮像装置。An imaging apparatus, further comprising a monitor that displays a confirmation image indicating a correspondence relationship between each of the face regions and the group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007093720A JP4888191B2 (en) | 2007-03-30 | 2007-03-30 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007093720A JP4888191B2 (en) | 2007-03-30 | 2007-03-30 | Imaging device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008252713A JP2008252713A (en) | 2008-10-16 |
JP2008252713A5 JP2008252713A5 (en) | 2011-04-21 |
JP4888191B2 true JP4888191B2 (en) | 2012-02-29 |
Family
ID=39977100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007093720A Expired - Fee Related JP4888191B2 (en) | 2007-03-30 | 2007-03-30 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4888191B2 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5063546B2 (en) * | 2008-09-24 | 2012-10-31 | キヤノン株式会社 | Focus adjustment device, focus adjustment control method, and program |
JP5116652B2 (en) * | 2008-12-24 | 2013-01-09 | 三洋電機株式会社 | Imaging device and smile recording program |
JP5383308B2 (en) * | 2009-05-11 | 2014-01-08 | キヤノン株式会社 | Image processing device |
JP5346266B2 (en) | 2009-09-30 | 2013-11-20 | 富士フイルム株式会社 | Image processing apparatus, camera, and image processing method |
JP5531607B2 (en) * | 2009-12-22 | 2014-06-25 | 株式会社ニコン | Focus detection apparatus and imaging apparatus |
WO2012169119A1 (en) * | 2011-06-10 | 2012-12-13 | パナソニック株式会社 | Object detection frame display device and object detection frame display method |
JP5918998B2 (en) * | 2011-12-28 | 2016-05-18 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, control method, and program |
JP6136790B2 (en) | 2013-09-10 | 2017-05-31 | 株式会社Jvcケンウッド | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
JP6249752B2 (en) * | 2013-12-12 | 2017-12-20 | キヤノン株式会社 | Image processing apparatus, image processing method, and program. |
JP6347703B2 (en) * | 2014-09-09 | 2018-06-27 | キヤノン株式会社 | Imaging apparatus and control method |
JP6854881B2 (en) * | 2017-03-27 | 2021-04-07 | 株式会社日立国際電気 | Face image matching system and face image search system |
JP6447659B2 (en) * | 2017-04-27 | 2019-01-09 | 株式会社Jvcケンウッド | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
JP7059701B2 (en) * | 2018-03-08 | 2022-04-26 | 富士通株式会社 | Estimator, estimation method, and estimation program |
JP2019168886A (en) * | 2018-03-23 | 2019-10-03 | カシオ計算機株式会社 | Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program |
JP6769475B2 (en) | 2018-12-04 | 2020-10-14 | 日本電気株式会社 | Information processing system, management method for authentication, and program |
KR102260573B1 (en) * | 2020-02-11 | 2021-06-04 | 한국과학기술원 | Method and Apparatus for Color correction for multi-illuminant portraits on one scene |
CN115812177A (en) * | 2020-06-30 | 2023-03-17 | 富士胶片株式会社 | Image processing device, imaging device, image processing method, and program |
JP7327571B2 (en) * | 2020-09-24 | 2023-08-16 | 日本電気株式会社 | Information processing system, terminal device, authentication target management method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4352980B2 (en) * | 2004-04-23 | 2009-10-28 | オムロン株式会社 | Enlarged display device and enlarged image control device |
JP2006254278A (en) * | 2005-03-14 | 2006-09-21 | Fuji Photo Film Co Ltd | Photographic apparatus |
JP4574459B2 (en) * | 2005-06-09 | 2010-11-04 | キヤノン株式会社 | Image capturing apparatus, control method therefor, program, and storage medium |
-
2007
- 2007-03-30 JP JP2007093720A patent/JP4888191B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008252713A (en) | 2008-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4888191B2 (en) | Imaging device | |
JP4674471B2 (en) | Digital camera | |
JP5460173B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
JP4665718B2 (en) | Imaging device | |
KR101795601B1 (en) | Apparatus and method for processing image, and computer-readable storage medium | |
EP2134079B1 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP4787180B2 (en) | Imaging apparatus and imaging method | |
JP4999641B2 (en) | Imaging apparatus and method | |
KR101521441B1 (en) | Image pickup apparatus, control method for image pickup apparatus, and storage medium | |
JP4935302B2 (en) | Electronic camera and program | |
JP4848965B2 (en) | Imaging device | |
JP2007282119A (en) | Electronic camera and image processing apparatus | |
JP2007279601A (en) | Camera | |
JP2007279188A (en) | Camera | |
JP2007282118A (en) | Electronic camera and image processing apparatus | |
JP4894616B2 (en) | Imaging device | |
JP2014235224A (en) | Imaging device and control program | |
JP2007188126A (en) | Image brightness calculation device, method, and program | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP4586707B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP4888192B2 (en) | Imaging device | |
US7864860B2 (en) | Image pickup apparatus and motion vector deciding method | |
JP5190882B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP2010154306A (en) | Device, program and method for imaging control | |
JP2008172395A (en) | Imaging apparatus and image processing apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100325 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111115 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4888191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |