JP4888191B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4888191B2
JP4888191B2 JP2007093720A JP2007093720A JP4888191B2 JP 4888191 B2 JP4888191 B2 JP 4888191B2 JP 2007093720 A JP2007093720 A JP 2007093720A JP 2007093720 A JP2007093720 A JP 2007093720A JP 4888191 B2 JP4888191 B2 JP 4888191B2
Authority
JP
Japan
Prior art keywords
cpu
image
face
group
grouping process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007093720A
Other languages
Japanese (ja)
Other versions
JP2008252713A5 (en
JP2008252713A (en
Inventor
正俊 神崎
享永 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007093720A priority Critical patent/JP4888191B2/en
Publication of JP2008252713A publication Critical patent/JP2008252713A/en
Publication of JP2008252713A5 publication Critical patent/JP2008252713A5/ja
Application granted granted Critical
Publication of JP4888191B2 publication Critical patent/JP4888191B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体の顔領域を画像から検出できる撮像装置に関する。   The present invention relates to an imaging apparatus capable of detecting a face area of a subject from an image.

従来から、撮影画面内の被写体の顔を検出して、顔に合わせてAF(オートフォーカス)を行う電子カメラが公知である。例えば、特許文献1には、顔検出機能を有する電子カメラの構成の一例が開示されている。
特開2004−317699号公報
2. Description of the Related Art Conventionally, electronic cameras that detect the face of a subject in a shooting screen and perform AF (autofocus) in accordance with the face are known. For example, Patent Document 1 discloses an example of a configuration of an electronic camera having a face detection function.
JP 2004-317699 A

しかし、従来の顔検出機能を有する電子カメラは、複数の顔を検出した場合に最も至近側の顔を対象としてAFやAE(自動露出)を行なっていた。そのため、ユーザーが複数の人物を主要被写体するときに、顔検出機能を利用した撮影でユーザーの意図が反映されない可能性がある点でなお改善の余地があった。
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、複数の主要被写体を撮影するシーンにおいて、顔検出機能を利用するユーザーの利便性をより高める手段を提供することにある。
However, a conventional electronic camera having a face detection function performs AF and AE (automatic exposure) on the closest face when a plurality of faces are detected. Therefore, there is still room for improvement in that the user's intention may not be reflected in the shooting using the face detection function when the user takes a plurality of persons as main subjects.
The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide means for further improving the convenience of a user who uses a face detection function in a scene where a plurality of main subjects are photographed.

第1の発明の撮像装置は、撮像部と、顔検出部と、操作部と、第1制御部と、第2制御部とを備える。撮像部は、被写体を撮像して画像のデータを生成する。顔検出部は、画像から被写体の顔領域を検出する。操作部は、ユーザーからの操作を受け付ける。第1制御部は、顔検出部が顔領域を複数検出したときに、少なくとも2以上のグループのいずれかに各々の顔領域を分類するグループ化処理を行う。第2制御部は、複数のグループのなかから上記の操作で指定された指定グループを基準として所定の処理を実行する。また、第1制御部は、同一画像データ内の各々の顔領域の大きさに基づいてグループ化処理を実行する。 An imaging apparatus according to a first invention includes an imaging unit, a face detection unit, an operation unit, a first control unit, and a second control unit. The imaging unit captures a subject and generates image data. The face detection unit detects the face area of the subject from the image. The operation unit accepts an operation from the user. The first control unit performs a grouping process for classifying each face region into one of at least two groups when the face detection unit detects a plurality of face regions. The second control unit executes a predetermined process based on the designated group designated by the above operation from among a plurality of groups. Further, the first control unit executes the grouping process based on the size of each face area in the same image data.

第2の発明は、第1の発明において、第2制御部は、指定グループを基準とする合焦制御、指定グループを基準とする自動露出制御、指定グループを基準とするオートホワイトバランス制御、指定グループ内の顔領域に関するメタデータの生成、のうちの少なくとも1つを実行する。
第3の発明は、第1または第2の発明において、操作部は、ユーザーから主要被写体となる顔領域の指定入力を受け付ける。また、第1制御部は、主要被写体の顔領域の位置に基づいてグループ化処理を実行する。
In a second aspect based on the first aspect, the second control unit performs focusing control based on the designated group, automatic exposure control based on the designated group, auto white balance control based on the designated group, and designation. At least one of generation of metadata regarding the face area in the group is executed.
According to a third aspect, in the first or second aspect , the operation unit receives a designation input of a face area to be a main subject from a user. Further, the first control unit executes the grouping process based on the position of the face area of the main subject.

第4の発明は、第1から第3のいずれかの発明において、第1制御部は、複数のアルゴリズムに基づいてグループ化処理をそれぞれ実行する。また、第1制御部は、操作部からグループの変更入力があったときに、変更入力前とは異なるアルゴリズムで求めたグループ化処理の結果をユーザーに提示する In a fourth aspect based on any one of the first to third aspects, the first control unit executes grouping processing based on a plurality of algorithms. In addition, when there is a group change input from the operation unit, the first control unit presents the result of the grouping process obtained by an algorithm different from that before the change input to the user .

第5の発明は、第1から第4のいずれかの発明において、各々の顔領域とグループとの対応関係を示す確認画像を表示するモニタを撮像装置がさらに備える。
In a fifth aspect based on any one of the first to fourth aspects, the imaging apparatus further includes a monitor that displays a confirmation image indicating a correspondence relationship between each face region and the group.

本発明の撮像装置では、複数のグループに各々の顔領域を分類するグループ化処理を実行するとともに、任意の指定グループを基準として各種の処理を実行し、複数の主要被写体を撮影するシーンでのユーザーの利便性を向上させる。   In the imaging apparatus of the present invention, a grouping process for classifying each face region into a plurality of groups is performed, and various processes are performed based on an arbitrary designated group, and a scene in which a plurality of main subjects are photographed Improve user convenience.

図1は、本実施形態の電子カメラの構成を示すブロック図である。
電子カメラは、撮像光学系11と、レンズ駆動部12と、絞り13と、絞り駆動部14と、撮像素子15と、AFE16と、画像処理部17と、バッファメモリ18と、記録I/F19と、モニタ20と、レリーズ釦21と、操作部22と、CPU23と、システムバス24とを有している。
FIG. 1 is a block diagram showing the configuration of the electronic camera of this embodiment.
The electronic camera includes an imaging optical system 11, a lens driving unit 12, a diaphragm 13, a diaphragm driving unit 14, an imaging element 15, an AFE 16, an image processing unit 17, a buffer memory 18, and a recording I / F 19. , A monitor 20, a release button 21, an operation unit 22, a CPU 23, and a system bus 24.

ここで、画像処理部17、バッファメモリ18、記録I/F19、モニタ20およびCPU23は、システムバス24を介してそれぞれ接続されている。また、レンズ駆動部12、絞り駆動部14、レリーズ釦21および操作部22は、それぞれCPU23と接続されている。
撮像光学系11と、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のフォーカシングレンズのレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。
Here, the image processing unit 17, the buffer memory 18, the recording I / F 19, the monitor 20 and the CPU 23 are connected to each other via a system bus 24. Further, the lens driving unit 12, the aperture driving unit 14, the release button 21, and the operation unit 22 are connected to the CPU 23, respectively.
The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the focusing lens of the imaging optical system 11 is adjusted in the optical axis direction by the lens driving unit 12. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG.

絞り13は、撮像光学系11からの入射光量を調節する。絞り13の開口量は、絞り駆動部14によって調整される。
撮像素子15は、撮像光学系11の像空間側に配置されている。撮像素子15の受光面には受光素子が2次元配列されている。撮像素子15は、撮像光学系11を通過した光束による被写体像を光電変換することでアナログの画像信号を生成する。この撮像素子15の出力はAFE16に接続されている。
The diaphragm 13 adjusts the amount of incident light from the imaging optical system 11. The aperture amount of the diaphragm 13 is adjusted by the diaphragm drive unit 14.
The imaging element 15 is disposed on the image space side of the imaging optical system 11. The light receiving elements are two-dimensionally arranged on the light receiving surface of the imaging element 15. The imaging element 15 generates an analog image signal by photoelectrically converting a subject image by a light beam that has passed through the imaging optical system 11. The output of the image sensor 15 is connected to the AFE 16.

ここで、電子カメラの動作モードの一つである撮影モードにおいて、撮像素子15はレリーズ釦21の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子15は、撮影待機時にも所定間隔毎にスルー画像を撮像する。なお、スルー画像のデータは、撮像素子15から間引き読み出しで出力されて、モニタ20での画像表示や、CPU23による各種の演算処理などに使用される。   Here, in the photographing mode which is one of the operation modes of the electronic camera, the image sensor 15 captures a recorded image (main image) in response to the full pressing operation of the release button 21. Further, the imaging element 15 in the shooting mode captures a through image at predetermined intervals even during standby for shooting. The through image data is output by thinning out reading from the image sensor 15 and is used for image display on the monitor 20 and various arithmetic processes by the CPU 23.

AFE16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE16は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。なお、AFE16の出力は画像処理部17に接続されている。
画像処理部17は、本画像またはスルー画像の画像信号に対して、各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。なお、画像処理部17は、本画像のデータの圧縮処理または伸長処理も実行する。
The AFE 16 is an analog front end circuit that performs analog signal processing on the output of the image sensor 15. The AFE 16 performs correlated double sampling, image signal gain adjustment, and image signal A / D conversion. The output of the AFE 16 is connected to the image processing unit 17.
The image processing unit 17 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the image signal of the main image or the through image. Note that the image processing unit 17 also executes compression processing or decompression processing of the data of the main image.

バッファメモリ18は、画像処理部17による画像処理の前工程や後工程で画像のデータを一時的に記録する。
記録I/F19には、記録媒体25を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記録媒体25に対してデータの書き込み/読み込みを実行する。上記の記録媒体25は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体25の一例としてメモリカードを図示する。
The buffer memory 18 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 17.
A connector for connecting the recording medium 25 is formed in the recording I / F 19. The recording I / F 19 executes data writing / reading with respect to the recording medium 25 connected to the connector. The recording medium 25 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the recording medium 25.

モニタ20は、CPU23の指示に応じて各種の画像を表示する。なお、本実施形態でのモニタ20の構成は、接眼部を有する電子ファインダや、筐体の背面などに設けられる液晶表示パネルのいずれでもよい。
上記のモニタ20には、撮影モードでの撮影待機時に、CPU23の制御によりスルー画像が動画表示される。このとき、CPU23は、モニタ20上のスルー画像に、撮影に必要となる各種情報の表示をオンスクリーン機能で重畳させることができる。
The monitor 20 displays various images according to instructions from the CPU 23. Note that the configuration of the monitor 20 in the present embodiment may be any of an electronic viewfinder having an eyepiece and a liquid crystal display panel provided on the back surface of the housing.
On the monitor 20, a through image is displayed as a moving image under the control of the CPU 23 during shooting standby in the shooting mode. At this time, the CPU 23 can superimpose a display of various information necessary for photographing on the through image on the monitor 20 by an on-screen function.

レリーズ釦21は、半押し操作による撮影前のAF動作の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。
操作部22は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦、登録ボタンなどで構成される。そして、操作部22は、電子カメラの各種入力をユーザーから受け付ける。
The release button 21 receives from the user an instruction input for AF operation before photographing by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.
The operation unit 22 includes, for example, a command dial, a cross-shaped cursor key, a determination button, a registration button, and the like. The operation unit 22 receives various inputs of the electronic camera from the user.

CPU23は、電子カメラの各部を統括的に制御するプロセッサである。ここで、本実施形態のCPU23は、不図示のROMに格納されたプログラムの実行により、撮影制御部26、顔検出部27、グループ化処理部28として機能する。
撮影制御部26は、スルー画像の出力に基づいて、公知のコントラスト方式のAF演算、公知のAE演算、オートホワイトバランス時のホワイトバランスゲインの演算などを実行する。また、撮影制御部26は、Exif(Exchangeable image file format for digital still cameras)規格に準拠して、画像ファイルのヘッダ領域に記録されるメタデータの生成も行う。
The CPU 23 is a processor that comprehensively controls each unit of the electronic camera. Here, the CPU 23 of the present embodiment functions as an imaging control unit 26, a face detection unit 27, and a grouping processing unit 28 by executing a program stored in a ROM (not shown).
The imaging control unit 26 executes a known contrast AF calculation, a known AE calculation, a white balance gain calculation during auto white balance, and the like based on the output of the through image. The imaging control unit 26 also generates metadata recorded in the header area of the image file in accordance with the Exif (Exchangeable image file format for digital still cameras) standard.

顔検出部27は、スルー画像のデータに顔検出処理を施して、スルー画像に含まれる人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部27は、公知の特徴点抽出処理によって、眉,目,鼻,唇の各端点などの特徴点を画像から抽出し、これらの特徴点に基づいて顔領域か否かを判定する。あるいは、顔検出部27は、予め用意された顔画像と判定対象の画像との相関係数を求めて、この相関係数が一定の閾値を超えるときに顔領域と判定してもよい。   The face detection unit 27 performs face detection processing on the through image data to detect a human face area included in the through image. This face detection process is performed by a known algorithm. As an example, the face detection unit 27 extracts feature points such as end points of eyebrows, eyes, nose, and lips from the image by a known feature point extraction process, and determines whether or not the face region is based on these feature points. judge. Alternatively, the face detection unit 27 may obtain a correlation coefficient between a face image prepared in advance and a determination target image, and may determine a face region when the correlation coefficient exceeds a certain threshold.

グループ化処理部28は、顔検出部27が顔領域を複数検出したときに、各々の顔領域をグループに分類するグループ化処理を実行することができる。グループ化処理部28は、グループ化処理のときに、1つのグループに複数の顔領域を含めることができる。なお、本実施形態の撮影制御部26は、上記のグループを基準として、AF、AE、オートホワイトバランスを実行できる。   When the face detection unit 27 detects a plurality of face regions, the grouping processing unit 28 can execute a grouping process for classifying each face region into a group. The grouping processing unit 28 can include a plurality of face regions in one group during the grouping process. Note that the shooting control unit 26 of the present embodiment can execute AF, AE, and auto white balance based on the above group.

以下、図2の流れ図を参照しつつ、本実施形態の電子カメラの撮影モードにおける動作例を説明する。なお、図2の例では、撮影モードでの顔検出機能がオンに設定された状態を前提として説明を行う。
ステップ101:CPU23は、撮像素子15を駆動させてスルー画像の撮像を開始する。その後、スルー画像は、撮像素子15によって所定間隔ごとに逐次生成されることとなる。また、CPU23は、スルー画像をモニタ20に動画表示する。したがって、ユーザーは、モニタ20のスルー画像によって撮影構図を決定するためのフレーミングを行うことができる。
Hereinafter, an operation example in the shooting mode of the electronic camera of the present embodiment will be described with reference to the flowchart of FIG. In the example of FIG. 2, description will be made on the assumption that the face detection function in the shooting mode is set to ON.
Step 101: The CPU 23 drives the image sensor 15 to start capturing a through image. Thereafter, the through image is sequentially generated by the image sensor 15 at predetermined intervals. Further, the CPU 23 displays the through image on the monitor 20 as a moving image. Therefore, the user can perform framing for determining the shooting composition based on the through image of the monitor 20.

ステップ102:CPU23は、スルー画像のデータに顔検出処理を施して、スルー画像に含まれる顔領域を検出する。なお、S102で顔領域が検出された場合には、CPU23は、検出できた顔領域の位置をモニタ20に表示する。一例として、CPU23は、オンスクリーン機能によって、スルー画像内で検出できた顔領域の位置に矩形の枠を重畳表示する(図3参照)。   Step 102: The CPU 23 performs face detection processing on the data of the through image and detects a face area included in the through image. When the face area is detected in S102, the CPU 23 displays the position of the detected face area on the monitor 20. As an example, the CPU 23 superimposes and displays a rectangular frame at the position of the face area that can be detected in the through image by the on-screen function (see FIG. 3).

ステップ103:CPU23は、S102の顔検出処理で顔領域が検出されたか否かを判定する。顔領域を検出した場合(YES側)には、CPU23はS104に移行する。一方、顔領域を検出していない場合(NO側)には、CPU23はS116に移行する。
ステップ104:CPU23は、S102の顔検出処理で複数の顔領域が検出されたか否かを判定する。複数の顔領域が検出された場合(YES側)には、CPU23はS105に移行する。一方、検出された顔領域が一つの場合(NO側)には、CPU23はS113に移行する。
Step 103: The CPU 23 determines whether or not a face area is detected in the face detection process of S102. When the face area is detected (YES side), the CPU 23 proceeds to S104. On the other hand, when the face area is not detected (NO side), the CPU 23 proceeds to S116.
Step 104: The CPU 23 determines whether or not a plurality of face areas are detected in the face detection process of S102. When a plurality of face areas are detected (YES side), the CPU 23 proceeds to S105. On the other hand, when the detected face area is one (NO side), the CPU 23 proceeds to S113.

ステップ105:CPU23は、S102で検出した顔領域のグループ化処理を実行し、各々の顔領域を分類して複数のグループを生成する。
より具体的には、S105でのCPU23は、以下の(1)または(2)のいずれかの要領でグループ化処理を実行する。
(1)まず、CPU23は、各々の顔領域のサイズを検出する。次に、CPU23は、任意の1つの顔領域を判定対象に設定する。そして、CPU23は、判定対象の顔領域を基準として、上記のサイズ差が許容範囲内であって、かつ画面上での距離が閾値以内にある顔領域を判定対象とグループ化する。一方、上記条件を満たす顔領域がない場合には、CPU23は、判定対象の顔領域のみを含むグループを生成する。そして、CPU23は、判定対象の顔領域を変更して上記の動作を繰り返し、すべての顔領域をグループ化する。
Step 105: The CPU 23 executes the grouping process of the face areas detected in S102, classifies each face area and generates a plurality of groups.
More specifically, the CPU 23 in S105 executes the grouping process according to either the following (1) or (2).
(1) First, the CPU 23 detects the size of each face area. Next, the CPU 23 sets an arbitrary one face area as a determination target. Then, the CPU 23 groups the face areas whose size difference is within the allowable range and whose distance on the screen is within the threshold with the determination target face area as a reference. On the other hand, when there is no face area that satisfies the above conditions, the CPU 23 generates a group including only the face area to be determined. Then, the CPU 23 changes the face area to be determined and repeats the above operation to group all face areas.

(2)まず、CPU23は、操作部22を介して、主要被写体となる顔領域の指定入力をユーザーから受け付ける。そして、CPU23は、撮影画面上で主要被写体の顔領域から所定範囲内ある他の顔領域をまとめて1つのグループとする。このとき、CPU23は、主要被写体に指定された顔領域のサイズを基準として、サイズが著しく異なる顔領域はグループ化の対象から除外してもよい。これにより、CPU23は、主要被写体およびその近傍の人物の顔をまとめてグループ化できる。   (2) First, the CPU 23 receives a designation input of a face area to be a main subject from the user via the operation unit 22. Then, the CPU 23 groups together other face areas within a predetermined range from the face area of the main subject on the shooting screen. At this time, the CPU 23 may exclude the face areas having significantly different sizes from the grouping targets based on the size of the face area designated as the main subject. As a result, the CPU 23 can group the main subject and the faces of persons in the vicinity thereof together.

ここで、S105のグループ化処理において、CPU23は、1つのグループに含める顔領域の数の上限をユーザーの入力に応じて変更できる。あるいは、CPU23は、撮影条件に応じて、1つのグループにおける顔領域の数の上限を自動的に変更させてもよい。一例として、CPU23は、撮影画角や絞り値に応じて被写界深度が浅くなるほど(すなわち、複数の顔にピントを合わせづらくなるほど)1つのグループにおける顔領域の数の上限を少なくする。   Here, in the grouping process of S105, the CPU 23 can change the upper limit of the number of face regions included in one group in accordance with the user input. Alternatively, the CPU 23 may automatically change the upper limit of the number of face areas in one group according to the shooting conditions. As an example, the CPU 23 reduces the upper limit of the number of face areas in one group as the depth of field becomes shallower (that is, the more difficult it is to focus on a plurality of faces) according to the shooting angle of view and the aperture value.

ステップ106:CPU23は、グループ化処理で生成された複数のグループのうちから、AFなどの対象となる指定グループを自動的に選択する。
例えば、CPU23は、最も大きな顔領域が含まれたグループや、画像の中央に位置するグループを指定グループに選択する。あるいは、ユーザーから指定された主要被写体の位置を基準としてグループ化処理が行われた場合には、CPU23は主要被写体の顔領域が含まれるグループを指定グループに選択する。
Step 106: The CPU 23 automatically selects a designated group to be subjected to AF or the like from a plurality of groups generated by the grouping process.
For example, the CPU 23 selects a group including the largest face area or a group located at the center of the image as the designated group. Alternatively, when the grouping process is performed based on the position of the main subject designated by the user, the CPU 23 selects a group including the face area of the main subject as the designated group.

ステップ107:CPU23は、グループ化処理の結果と、現在の指定グループとをモニタ20に表示する。一例として、CPU23は、オンスクリーン機能によって、検出できた顔領域を示す矩形の枠とともに、顔領域のグループを示すグループ枠表示をモニタのスルー画像に重畳表示する(図4参照)。
ここで、図4ではグループ枠表示を破線で示す。なお、CPU23は、指定グループを示すグループ枠については、他のグループ枠とは色や太さを変更することでモニタ20上で強調表示する。
Step 107: The CPU 23 displays the result of the grouping process and the current designated group on the monitor 20. As an example, the CPU 23 superimposes and displays a group frame display indicating a group of face areas on the through image of the monitor together with a rectangular frame indicating the detected face area by using an on-screen function (see FIG. 4).
Here, in FIG. 4, the group frame display is indicated by a broken line. Note that the CPU 23 highlights the group frame indicating the designated group on the monitor 20 by changing the color and thickness of the other group frame.

ステップ108:CPU23は、S107で表示されたグループの再設定入力を操作部22から受け付けたか否かを判定する。上記の入力があった場合(YES側)には、CPU23はS109に移行する。一方、上記の入力がない場合(NO側)には、CPU23はS110に移行する。
ステップ109:CPU23は、S105と異なるアルゴリズムでグループ化処理を再び実行する。その後、CPU23はS106に戻って上記動作を繰り返す。
Step 108: The CPU 23 determines whether or not the group reset input displayed in S107 has been received from the operation unit 22. If there is the above input (YES side), the CPU 23 proceeds to S109. On the other hand, if there is no input (NO side), the CPU 23 proceeds to S110.
Step 109: The CPU 23 executes the grouping process again with an algorithm different from that of S105. Thereafter, the CPU 23 returns to S106 and repeats the above operation.

例えば、S109でのCPU23は、1つのグループに含める顔領域の数や、顔領域の位置関係やサイズに関するパラメータをS105とは異なる値に変更する。そして、CPU23は、上記の変更後のパラメータに基づいて、再びグループ化処理を実行する。
あるいは、S105で上記の(1)の方法でグループ化処理を行ったときには、S109でのCPU23は上記の(2)の方法で再びグループ化処理を実行する。同様に、S105で上記の(2)の方法でグループ化処理を行ったときには、S109でのCPU23は上記(1)の方法で再びグループ化処理を実行する。
For example, the CPU 23 in S109 changes the parameters relating to the number of face areas included in one group, the positional relationship and the size of the face areas to values different from those in S105. And CPU23 performs a grouping process again based on said parameter after a change.
Alternatively, when the grouping process is performed by the method (1) in S105, the CPU 23 in S109 executes the grouping process again by the method (2). Similarly, when the grouping process is performed by the method (2) in S105, the CPU 23 in S109 executes the grouping process again by the method (1).

ステップ110:CPU23は、上記の指定グループの変更入力を操作部22から受け付けたか否かを判定する。指定グループの変更入力があった場合(YES側)には、CPU23はS111に移行する。一方、指定グループの変更入力がない場合(NO側)には、CPU23はS112に移行する。
ステップ111:CPU23は、ユーザーの操作に応じて指定グループの変更を行う。
例えば、図4の例であれば、CPU23は、ユーザーの操作に応じて、画面上側のグループを指定グループに変更する。これにより、ユーザーは、グループ化処理で生成された複数のグループのうちから指定グループを手動で選択することが可能となる。
Step 110: The CPU 23 determines whether or not a change input for the specified group is received from the operation unit 22. If there is an input for changing the designated group (YES side), the CPU 23 proceeds to S111. On the other hand, when there is no change input for the designated group (NO side), the CPU 23 proceeds to S112.
Step 111: The CPU 23 changes the designated group in accordance with a user operation.
For example, in the example of FIG. 4, the CPU 23 changes the group on the upper side of the screen to a designated group in accordance with a user operation. Thereby, the user can manually select a designated group from among a plurality of groups generated by the grouping process.

ステップ112:CPU23は、指定グループを基準として撮影条件の設定を行う。なお、CPU23は、S112での処理後にS114に移行する。
第1に、S112でのCPU23は、指定グループを基準としてAFを実行し、指定グループに含まれるすべての顔領域を合焦状態とする。一例として、CPU23は、コントラストAFで各々の顔領域の焦点評価値を求め、すべての顔領域の焦点評価値が閾値以上となるレンズ位置を合焦位置とみなしてAFする。なお、CPU23は、必要に応じて絞り13を制御して、全ての顔領域にピントがあうように被写界深度を深くしてもよい。これにより、電子カメラは、指定グループ内の各々の顔にピントを合わせて本画像を撮影することが容易となる。
Step 112: The CPU 23 sets shooting conditions based on the designated group. The CPU 23 proceeds to S114 after the processing in S112.
First, the CPU 23 in S112 executes AF with the designated group as a reference, and brings all the face regions included in the designated group into a focused state. As an example, the CPU 23 obtains a focus evaluation value of each face area by contrast AF, and performs AF by regarding a lens position at which the focus evaluation values of all the face areas are equal to or greater than a threshold as a focus position. Note that the CPU 23 may control the aperture 13 as necessary to increase the depth of field so that all face areas are in focus. This makes it easy for the electronic camera to capture the main image while focusing on each face in the designated group.

第2に、S112でのCPU23は、指定グループの範囲を基準とするスポット測光でAE演算を実行し、本画像の露出条件(絞り値、露光時間、撮像感度)を調整する。これにより、電子カメラは、例えば、輝度差の大きなシーンにおいて、指定グループ内の顔の露出を適正にすることができる。
第3に、S112でのCPU23は、指定グループの範囲を基準としたスルー画像の色情報に基づいてオートホワイトバランス演算を実行し、本画像に適用するホワイトバランスゲインを決定する。これにより、電子カメラは、例えば、撮影画面内が複数の光源で照明されているシーンにおいて、指定グループ内の顔を基準としてホワイトバランスを行うことができる。
Secondly, the CPU 23 in S112 performs AE calculation by spot metering based on the range of the designated group, and adjusts the exposure conditions (aperture value, exposure time, imaging sensitivity) of the main image. Thereby, the electronic camera can make the exposure of the face in the designated group appropriate in a scene with a large luminance difference, for example.
Thirdly, the CPU 23 in S112 executes auto white balance calculation based on the color information of the through image based on the designated group range, and determines the white balance gain to be applied to the main image. Thereby, the electronic camera can perform white balance on the basis of the faces in the designated group, for example, in a scene where the shooting screen is illuminated with a plurality of light sources.

ステップ113:この場合には、CPU23は、検出された顔領域を基準としてAF制御およびAE演算を実行する。なお、この場合には検出された顔領域が1つのみであるので、CPU23がグループ化処理を行なうことはない。
ステップ114:CPU23は、レリーズ釦21の半押し操作を受け付けたか否かを判定する。レリーズ釦21が半押しされた場合(YES側)には、CPU23はS115に移行する。一方、レリーズ釦21が半押しされていない場合(NO側)には、CPU23はS102に戻って上記動作を繰り返す。
Step 113: In this case, the CPU 23 executes AF control and AE calculation based on the detected face area. In this case, since only one face area is detected, the CPU 23 does not perform the grouping process.
Step 114: The CPU 23 determines whether or not a half-press operation of the release button 21 has been accepted. If the release button 21 is half pressed (YES side), the CPU 23 proceeds to S115. On the other hand, when the release button 21 is not half-pressed (NO side), the CPU 23 returns to S102 and repeats the above operation.

ステップ115:CPU23は、レリーズ釦21の半押し操作に応じて、焦点調節制御を禁止してAFロックを行う。その後、CPUはS117に移行する。
ステップ116:この場合には、ユーザーからのレリーズ釦21の半押し操作に応じて、CPU23は、通常の撮影時と同様のアルゴリズム(例えば、中央優先や至近優先など)でAFおよびAEを実行する。
Step 115: In response to the half-pressing operation of the release button 21, the CPU 23 prohibits the focus adjustment control and performs AF lock. Thereafter, the CPU proceeds to S117.
Step 116: In this case, in response to a half-press operation of the release button 21 from the user, the CPU 23 executes AF and AE with the same algorithm (for example, center priority or closest priority) as in normal shooting. .

ステップ117:CPU23は、レリーズ釦21が全押し操作を受け付けたか否かを判定する。レリーズ釦21が全押しされた場合(YES側)には、CPU23はS119に移行する。一方、レリーズ釦21が全押しされていない場合(NO側)には、CPU23はS118に移行する。
ステップ118:CPU23はレリーズ釦21の半押しが解除されたか否かを判定する。レリーズ釦21の半押しが解除された場合(YES側)には、CPU23はS102に戻って上記動作を繰り返す。一方、レリーズ釦21の半押しが継続している場合(NO側)には、CPU23はS117に戻って上記動作を繰り返す。
Step 117: The CPU 23 determines whether or not the release button 21 has received a full pressing operation. When the release button 21 is fully pressed (YES side), the CPU 23 proceeds to S119. On the other hand, when the release button 21 is not fully pressed (NO side), the CPU 23 proceeds to S118.
Step 118: The CPU 23 determines whether or not the half-press of the release button 21 is released. When the half-press of the release button 21 is released (YES side), the CPU 23 returns to S102 and repeats the above operation. On the other hand, when the half-press of the release button 21 is continued (NO side), the CPU 23 returns to S117 and repeats the above operation.

ステップ119:CPU23は本画像の撮影処理を実行する。具体的には、CPU23は、撮像素子15を駆動させて本画像を撮影する。その後、画像処理部17によって本画像のデータが生成される。
ここで、上記のグループ化処理が行われている場合には、画像処理部17は、以下の(1)から(6)のいずれかの画像処理を本画像のデータに施すようにしてもよい。これにより、電子カメラは、ユーザーのイメージにより忠実な本画像を生成できるようになる。
Step 119: The CPU 23 executes photographing processing for the main image. Specifically, the CPU 23 drives the image sensor 15 to capture the main image. Thereafter, the image processing unit 17 generates data of the main image.
Here, when the grouping process is performed, the image processing unit 17 may perform any one of the following image processing (1) to (6) on the data of the main image. . As a result, the electronic camera can generate a real image that is more faithful to the user's image.

(1)画像処理部17は、指定グループの範囲に対する輪郭強調処理を他の領域と変化させる。例えば、画像処理部17は、指定グループの範囲には、他の領域よりも輪郭強調の度合いが弱い輪郭強調フィルタを適用して輪郭強調処理を実行する。その結果、主要被写体の人物の肌荒れなどが目立ちにくい好ましい本画像を得ることができる。
(2)画像処理部17は、指定グループの範囲の階調補正の特性を他の領域と変化させる。例えば、画像処理部17は、本画像の指定グループの範囲には、他の領域と異なる階調曲線の階調特性テーブルを適用して階調補正を実行する。具体的には、主要被写体の領域に対しては、他の領域の階調曲線よりも相対的にコントラストが低めになる軟調の階調曲線の階調特性テーブルを適用する。その結果、主要被写体の顔に柔らかさのある好ましい本画像を得ることができる。
(1) The image processing unit 17 changes the edge enhancement processing for the range of the designated group from another region. For example, the image processing unit 17 executes the contour enhancement process by applying a contour enhancement filter having a lower degree of contour enhancement than other regions to the range of the designated group. As a result, it is possible to obtain a preferable main image in which rough skin of a person as a main subject is not noticeable.
(2) The image processing unit 17 changes the tone correction characteristics of the designated group range from other regions. For example, the image processing unit 17 performs gradation correction by applying a gradation characteristic table having a gradation curve different from that of other areas to the range of the designated group of the main image. Specifically, a gradation characteristic table of a soft gradation curve in which contrast is relatively lower than the gradation curves of other areas is applied to the main subject area. As a result, it is possible to obtain a preferable main image having softness on the face of the main subject.

(3)画像処理部17は、指定グループの範囲の彩度を他の領域よりも高める補正を行う。例えば、画像処理部17は、指定グループの顔領域の彩度パラメータを他の領域よりも相対的に高く設定する。その結果、主要被写体の人物の肌色のくすみなどが軽減された好ましい本画像を得ることができる。
(4)画像処理部17は、指定グループの範囲に対して、画像解析の結果に基づき画像の暗部またはハイライト部の階調を調整する光量補正処理を実行する。上記の光量補正処理は、例えば、特開2006−5699号公報に開示された公知の技術により行われる。具体的には、画像処理部17は、本画像から局所的な変動成分を抽出して、変動成分を含む局所変動画像を生成する。次に、画像処理部17は、本画像を局所変動画像へ変調する変調信号を求めるとともに、変調信号をレベル圧縮する。そして、画像処理部17はレベル圧縮後の変調信号によって撮影画像を変調して階調修正画像を取得する。その結果、補正範囲の明暗変化を適度に抑制しつつ、視覚的に埋もれやすい階調が修復された良好な状態の画像を得ることができる。
(3) The image processing unit 17 performs correction to increase the saturation of the range of the designated group more than other areas. For example, the image processing unit 17 sets the saturation parameter of the face area of the designated group relatively higher than other areas. As a result, it is possible to obtain a preferable main image in which the skin color dullness of the main subject person is reduced.
(4) The image processing unit 17 performs light amount correction processing for adjusting the gradation of the dark part or highlight part of the image based on the result of the image analysis for the range of the specified group. The above light amount correction processing is performed by, for example, a known technique disclosed in Japanese Patent Application Laid-Open No. 2006-5699. Specifically, the image processing unit 17 extracts a local fluctuation component from the main image and generates a local fluctuation image including the fluctuation component. Next, the image processing unit 17 obtains a modulation signal for modulating the main image into a local variation image and level-compresses the modulation signal. The image processing unit 17 then modulates the captured image with the level-compressed modulation signal to obtain a gradation corrected image. As a result, it is possible to obtain an image in a good state in which a gradation that is easily buried is visually restored while moderately suppressing a change in brightness of the correction range.

(5)画像処理部17は、指定グループの範囲のノイズ低減処理を他の領域と変化させる。例えば、画像処理部17は、本画像のうちで指定グループの範囲のみを対象としてメディアンフィルタなどによるノイズ低減処理を実行する。その結果、主要被写体の顔の粒状感を低減できる。
(6)画像処理部17は、指定グループの範囲に対してのみ、画像処理による赤目軽減補正を施す。上記の赤目軽減補正は公知の技術により行われる。具体的には、画像処理部17は、顔領域から赤目領域を検出するとともに、検出した赤目領域の明度または彩度を低下させる補正を行う。その結果、主要被写体の赤目を防止できる。
(5) The image processing unit 17 changes the noise reduction processing in the designated group range from another region. For example, the image processing unit 17 performs noise reduction processing using a median filter or the like for only the range of the specified group in the main image. As a result, the graininess of the face of the main subject can be reduced.
(6) The image processing unit 17 performs red-eye reduction correction by image processing only for the range of the designated group. The red-eye reduction correction is performed by a known technique. Specifically, the image processing unit 17 detects a red-eye area from the face area and performs correction to reduce the lightness or saturation of the detected red-eye area. As a result, red eyes of the main subject can be prevented.

ステップ120:CPU23は、Exif規格に準拠した画像ファイルの生成を行う。このとき、CPU23は、バッファメモリ18のワークエリアを利用して画像ファイルのヘッダのデータを生成する。
ここで、上記のグループ化処理が行われている場合には、CPU23は、グループ化処理を行ったことを示す識別情報、指定グループの位置を示す座標情報、指定グループに含まれる顔領域の位置情報などのメタデータをヘッダに記録する。なお、上記のメタデータは、Exif規格のMakerNoteタグを利用してヘッダに記録される。そして、CPU23は、本画像のデータと上記のヘッダのデータとを関連付けして画像ファイルを生成し、この画像ファイルを記録媒体25に記録する。
Step 120: The CPU 23 generates an image file conforming to the Exif standard. At this time, the CPU 23 uses the work area of the buffer memory 18 to generate header data of the image file.
Here, when the grouping process is performed, the CPU 23 identifies the identification information indicating that the grouping process has been performed, the coordinate information indicating the position of the specified group, and the position of the face area included in the specified group. Record metadata such as information in the header. Note that the above metadata is recorded in the header using an Exif standard MakerNote tag. Then, the CPU 23 generates an image file by associating the main image data with the header data, and records the image file on the recording medium 25.

ここで、上記のメタデータは、例えば、以下の用途に用いることができる。これにより、撮影後に本画像の画像ファイルを利用するときに、ユーザーの利便性が大きく向上する。
(1)電子カメラで画像ファイルを再生するときに、CPU23は、メタデータに基づいて、撮影時にグループ化処理が行われた画像を検索してソートすることができる。
Here, the above metadata can be used for the following applications, for example. This greatly improves user convenience when using the image file of the main image after shooting.
(1) When playing back an image file with an electronic camera, the CPU 23 can search and sort images that have undergone grouping processing at the time of shooting based on the metadata.

(2)撮影後に本画像から主要被写体の人物をトリミングする場合に、CPU23は、メタデータに基づいて、本画像における指定グループの位置や顔領域の位置を把握できる。
(3)電子カメラで画像ファイルをスライドショーで自動再生するときに、CPU23は、メタデータに基づいて、特殊効果を伴う表示を行うことができる。一例として、CPU23は、指定グループ内の顔の位置を基準としてズームアップ、ズームダウン、画像の回転、フェードイン、フェードアウトなどの表示を実行できる。さらに、CPU23は、上記のスライドショーの表示において、その本画像を指定グループの顔の数で分割表示してもよい。例えば、CPU23は、各々の主要被写体の顔を拡大表示するなどの手段で上記の分割表示を行う。以上で、図2に関する説明を終了する。
(2) When trimming the person who is the main subject from the main image after shooting, the CPU 23 can grasp the position of the designated group and the position of the face area in the main image based on the metadata.
(3) When the image file is automatically reproduced by the electronic camera as a slide show, the CPU 23 can perform display with special effects based on the metadata. As an example, the CPU 23 can execute display such as zoom-up, zoom-down, image rotation, fade-in, and fade-out based on the position of the face in the designated group. Furthermore, the CPU 23 may divide and display the main image by the number of faces of the designated group in the above-described slide show display. For example, the CPU 23 performs the above-described divided display by means such as an enlarged display of the face of each main subject. Above, the description regarding FIG. 2 is complete | finished.

以下、本実施形態の作用効果を説明する。
本実施形態の電子カメラは、顔検出処理で複数の顔領域を検出したときに、各々の顔領域を複数のグループに分類するグループ化処理を実行する。そして、電子カメラは、任意の指定グループを基準としてAF、AEおよびオートホワイトバランスなどの処理を実行する。そのため、複数の人物を主要被写体として撮影を行うシーンでは、指定グループ内の顔領域がいずれも主要な処理対象となるため、ユーザーの意図に沿った本画像を容易に得ることが可能となる。特に、電子カメラはユーザーの操作に応じて指定グループを変更できるので、例えば手前の人物の奥に主要被写体となる人物のグループが位置する状況でも、適切に指定グループを設定できる。
Hereinafter, the effect of this embodiment is demonstrated.
The electronic camera according to the present embodiment executes a grouping process for classifying each face area into a plurality of groups when a plurality of face areas are detected by the face detection process. Then, the electronic camera executes processing such as AF, AE, and auto white balance based on an arbitrary designated group. For this reason, in a scene where a plurality of persons are photographed as main subjects, all face areas in the designated group are the main processing targets, so that it is possible to easily obtain a main image in accordance with the user's intention. Particularly, since the electronic camera can change the designated group in accordance with the user's operation, for example, the designated group can be appropriately set even in a situation where a group of persons as a main subject is located behind the person in front.

また、本実施形態での電子カメラは、ユーザーによる顔領域の指定や、検出した顔の大きさに基づいてグループ化処理を実行する。そのため、顔領域のグループ化が一般的なユーザーの意図に近い形で行われることとなる。また、電子カメラはユーザーの操作に応じて、異なるアルゴリズムでグループ化処理を再び行うこともできるので、ユーザーの意図に近いグループ化処理を実現することが容易となる。   In addition, the electronic camera according to the present embodiment performs a grouping process based on the designation of a face area by the user and the detected face size. Therefore, the grouping of face areas is performed in a form close to the general user's intention. In addition, since the electronic camera can perform the grouping process again with a different algorithm in accordance with the user's operation, it is easy to realize the grouping process close to the user's intention.

(実施形態の補足事項)
(1)上記実施形態において、CPU23は、被写体距離に基づいてグループ化処理を行うようにしてもよい。一例として、CPU23は、フォーカシングレンズを一方向に走査しつつ撮像素子15を駆動させて複数のスルー画像を取得する。次に、CPU23は、AF演算と同様の手法によって、各々のスルー画像において各顔領域のコントラストの値を取得する。CPU23は、各々の顔領域毎に最もコントラストの値が高くなるフォーカスレンズの位置に基づいて、撮影画面内の各々の顔領域の被写体距離を演算する。そして、CPU23は、被写体距離の差が閾値以内にある被写体をグループ化する。このとき、CPU23は、撮影画面内における顔領域の位置が遠い場合には、両者の顔領域をグループ化しないようにしてもよい。
(Supplementary items of the embodiment)
(1) In the above embodiment, the CPU 23 may perform the grouping process based on the subject distance. As an example, the CPU 23 drives the imaging device 15 while scanning the focusing lens in one direction to acquire a plurality of through images. Next, the CPU 23 acquires the contrast value of each face area in each through image by the same method as the AF calculation. The CPU 23 calculates the subject distance of each face area in the shooting screen based on the position of the focus lens that provides the highest contrast value for each face area. Then, the CPU 23 groups subjects whose subject distance difference is within a threshold value. At this time, if the position of the face area in the shooting screen is far, the CPU 23 may not group the face areas.

(2)CPU23は、指定グループを基準としてAFを行う場合には、指定グループ内のいずれかの顔領域を基準としてAFを実行してもよい。例えば、CPU23は、最初に焦点検出対象とした顔領域で合焦位置が検出できないときに、その指定グループ内の他の顔領域でAFを行うようにしてもよい。
(3)CPU23は、顔領域を示す矩形の枠(図3参照)を色分けして各々のグループを表示するようにしてもよい。また、CPU23は、ユーザーが操作部22で所定の操作をおこなったときのみ、グループを示す表示をモニタ20に重畳させてもよい。さらに、CPU23は、グループ化処理の後で、各々のグループをモニタ20に交互に切り替えて表示し、ユーザーの指定入力があったときにそのグループを指定グループとして選択するようにしてもよい(これらの場合の図示は省略する)。
(2) When performing AF with reference to the designated group, the CPU 23 may execute AF with reference to any face area in the designated group. For example, the CPU 23 may perform AF on another face area in the designated group when the in-focus position cannot be detected in the face area initially targeted for focus detection.
(3) The CPU 23 may display each group by color-coding a rectangular frame (see FIG. 3) indicating the face area. The CPU 23 may superimpose a display indicating a group on the monitor 20 only when the user performs a predetermined operation on the operation unit 22. Further, after the grouping process, the CPU 23 may alternately display each group on the monitor 20 and select the group as the designated group when the user inputs a designation (these groups). In this case, illustration is omitted).

(4)上記実施形態では、電子カメラで撮像時に顔検出処理およびグループ化処理を行う例を説明した。しかし、本発明は上記実施形態の例に限定されることなく、例えば、電子カメラで画像ファイルを再生するときに、本画像に対して顔検出処理およびグループ化処理を実行するものであってもよい。また、本発明は、スキャナなどの画像処理装置や、画像のデータを読み込んで再生表示を行うコンピュータなどに実装されるものであってもよい。   (4) In the above embodiment, the example in which the face detection process and the grouping process are performed at the time of imaging with the electronic camera has been described. However, the present invention is not limited to the example of the above-described embodiment. For example, when an image file is played back with an electronic camera, face detection processing and grouping processing may be performed on the main image. Good. The present invention may also be implemented in an image processing apparatus such as a scanner or a computer that reads and reproduces image data.

なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   It should be noted that the present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

本実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of this embodiment 電子カメラの撮影モードにおける動作例を説明する流れ図Flow chart for explaining an operation example in the shooting mode of the electronic camera 顔検出時のスルー画像の表示状態を示す模式図Schematic diagram showing the display state of the through image during face detection グループ化処理後のスルー画像の表示状態を示す模式図Schematic diagram showing the display state of the through image after grouping processing

符号の説明Explanation of symbols

15…撮像素子、17…画像処理部、20…モニタ、22…操作部、23…CPU、26…撮影制御部、27…顔検出部、28…グループ化処理部
DESCRIPTION OF SYMBOLS 15 ... Image sensor, 17 ... Image processing part, 20 ... Monitor, 22 ... Operation part, 23 ... CPU, 26 ... Shooting control part, 27 ... Face detection part, 28 ... Grouping process part

Claims (5)

被写体を撮像して画像のデータを生成する撮像部と、
前記画像から前記被写体の顔領域を検出する顔検出部と、
ユーザーからの操作を受け付ける操作部と、
前記顔検出部が前記顔領域を複数検出したときに、少なくとも2以上のグループのいずれかに各々の前記顔領域を分類するグループ化処理を行う第1制御部と、
複数の前記グループのなかから前記操作で指定された指定グループを基準として所定の処理を実行する第2制御部と、
を備え
前記第1制御部は、同一画像データ内の各々の前記顔領域の大きさに基づいて前記グループ化処理を実行することを特徴とする撮像装置。
An imaging unit that images a subject and generates image data;
A face detection unit for detecting a face area of the subject from the image;
An operation unit that receives operations from the user;
A first control unit that performs a grouping process for classifying each of the face regions into one of at least two or more groups when the face detection unit detects a plurality of the face regions;
A second control unit that executes a predetermined process based on a designated group designated by the operation among a plurality of the groups;
Equipped with a,
The imaging apparatus according to claim 1, wherein the first control unit executes the grouping process based on a size of each face area in the same image data .
請求項1に記載の撮像装置において、
前記第2制御部は、前記指定グループを基準とする合焦制御、前記指定グループを基準とする自動露出制御、前記指定グループを基準とするオートホワイトバランス制御、前記指定グループ内の前記顔領域に関するメタデータの生成、のうちの少なくとも1つを実行することを特徴とする撮像装置。
The imaging device according to claim 1,
The second control unit relates to focusing control based on the designated group, automatic exposure control based on the designated group, auto white balance control based on the designated group, and the face region in the designated group. An imaging apparatus that executes at least one of generation of metadata.
請求項1または請求項2に記載の撮像装置において、
前記操作部は、ユーザーから主要被写体となる前記顔領域の指定入力を受け付け、
前記第1制御部は、前記主要被写体の前記顔領域の位置に基づいて前記グループ化処理を実行することを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The operation unit accepts designation input of the face area as a main subject from a user,
The imaging apparatus according to claim 1, wherein the first control unit executes the grouping process based on a position of the face area of the main subject.
請求項1から請求項3のいずれか1項に記載の撮像装置において、
前記第1制御部は、複数のアルゴリズムに基づいて前記グループ化処理をそれぞれ実行するとともに、前記操作部から前記グループの変更入力があったときに、前記変更入力前とは異なる前記アルゴリズムで求めた前記グループ化処理の結果をユーザーに提示することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
The first control unit performs the grouping process based on a plurality of algorithms, and obtains the group using a different algorithm from that before the change input when the group change input is received from the operation unit. An image pickup apparatus that presents a result of the grouping process to a user.
請求項1から請求項4のいずれか1項に記載の撮像装置において、In the imaging device according to any one of claims 1 to 4,
各々の前記顔領域と前記グループとの対応関係を示す確認画像を表示するモニタをさらに備えることを特徴とする撮像装置。An imaging apparatus, further comprising a monitor that displays a confirmation image indicating a correspondence relationship between each of the face regions and the group.
JP2007093720A 2007-03-30 2007-03-30 Imaging device Expired - Fee Related JP4888191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007093720A JP4888191B2 (en) 2007-03-30 2007-03-30 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007093720A JP4888191B2 (en) 2007-03-30 2007-03-30 Imaging device

Publications (3)

Publication Number Publication Date
JP2008252713A JP2008252713A (en) 2008-10-16
JP2008252713A5 JP2008252713A5 (en) 2011-04-21
JP4888191B2 true JP4888191B2 (en) 2012-02-29

Family

ID=39977100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007093720A Expired - Fee Related JP4888191B2 (en) 2007-03-30 2007-03-30 Imaging device

Country Status (1)

Country Link
JP (1) JP4888191B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5063546B2 (en) * 2008-09-24 2012-10-31 キヤノン株式会社 Focus adjustment device, focus adjustment control method, and program
JP5116652B2 (en) * 2008-12-24 2013-01-09 三洋電機株式会社 Imaging device and smile recording program
JP5383308B2 (en) * 2009-05-11 2014-01-08 キヤノン株式会社 Image processing device
JP5346266B2 (en) 2009-09-30 2013-11-20 富士フイルム株式会社 Image processing apparatus, camera, and image processing method
JP5531607B2 (en) * 2009-12-22 2014-06-25 株式会社ニコン Focus detection apparatus and imaging apparatus
WO2012169119A1 (en) * 2011-06-10 2012-12-13 パナソニック株式会社 Object detection frame display device and object detection frame display method
JP5918998B2 (en) * 2011-12-28 2016-05-18 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method, and program
JP6136790B2 (en) 2013-09-10 2017-05-31 株式会社Jvcケンウッド IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6249752B2 (en) * 2013-12-12 2017-12-20 キヤノン株式会社 Image processing apparatus, image processing method, and program.
JP6347703B2 (en) * 2014-09-09 2018-06-27 キヤノン株式会社 Imaging apparatus and control method
JP6854881B2 (en) * 2017-03-27 2021-04-07 株式会社日立国際電気 Face image matching system and face image search system
JP6447659B2 (en) * 2017-04-27 2019-01-09 株式会社Jvcケンウッド IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP7059701B2 (en) * 2018-03-08 2022-04-26 富士通株式会社 Estimator, estimation method, and estimation program
JP2019168886A (en) * 2018-03-23 2019-10-03 カシオ計算機株式会社 Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program
JP6769475B2 (en) 2018-12-04 2020-10-14 日本電気株式会社 Information processing system, management method for authentication, and program
KR102260573B1 (en) * 2020-02-11 2021-06-04 한국과학기술원 Method and Apparatus for Color correction for multi-illuminant portraits on one scene
CN115812177A (en) * 2020-06-30 2023-03-17 富士胶片株式会社 Image processing device, imaging device, image processing method, and program
JP7327571B2 (en) * 2020-09-24 2023-08-16 日本電気株式会社 Information processing system, terminal device, authentication target management method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4352980B2 (en) * 2004-04-23 2009-10-28 オムロン株式会社 Enlarged display device and enlarged image control device
JP2006254278A (en) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd Photographic apparatus
JP4574459B2 (en) * 2005-06-09 2010-11-04 キヤノン株式会社 Image capturing apparatus, control method therefor, program, and storage medium

Also Published As

Publication number Publication date
JP2008252713A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
JP4888191B2 (en) Imaging device
JP4674471B2 (en) Digital camera
JP5460173B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP4665718B2 (en) Imaging device
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
EP2134079B1 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP4787180B2 (en) Imaging apparatus and imaging method
JP4999641B2 (en) Imaging apparatus and method
KR101521441B1 (en) Image pickup apparatus, control method for image pickup apparatus, and storage medium
JP4935302B2 (en) Electronic camera and program
JP4848965B2 (en) Imaging device
JP2007282119A (en) Electronic camera and image processing apparatus
JP2007279601A (en) Camera
JP2007279188A (en) Camera
JP2007282118A (en) Electronic camera and image processing apparatus
JP4894616B2 (en) Imaging device
JP2014235224A (en) Imaging device and control program
JP2007188126A (en) Image brightness calculation device, method, and program
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP4586707B2 (en) Image processing apparatus, electronic camera, and image processing program
JP4888192B2 (en) Imaging device
US7864860B2 (en) Image pickup apparatus and motion vector deciding method
JP5190882B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP2010154306A (en) Device, program and method for imaging control
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

R150 Certificate of patent or registration of utility model

Ref document number: 4888191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees