JP2012150236A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2012150236A
JP2012150236A JP2011008200A JP2011008200A JP2012150236A JP 2012150236 A JP2012150236 A JP 2012150236A JP 2011008200 A JP2011008200 A JP 2011008200A JP 2011008200 A JP2011008200 A JP 2011008200A JP 2012150236 A JP2012150236 A JP 2012150236A
Authority
JP
Japan
Prior art keywords
depth
setting
image
field
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011008200A
Other languages
Japanese (ja)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011008200A priority Critical patent/JP2012150236A/en
Publication of JP2012150236A publication Critical patent/JP2012150236A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve an imaging performance with attention focused on an eye part.SOLUTION: An imager 16 includes an imaging surface for capturing an image of a field via a focus lens 12 and repetitively outputs raw image data. Search image data based on the outputted raw image data is written in a search image area 32c of an SDRAM 32. CPU 26 sets the depth of field to "D1", and then searches an image representing the eye part of a person from the search image data on the search image area 32c. When the eye-part image is searched, the CPU 26 sets the depth of field to "D2" that is shallower than the "D1" and executes an AF process, with the attention focused on the searched eye-part image. After that, the CPU 26 sets the depth of field to "D3" that is shallower than "D1" and deeper than the "D2".

Description

この発明は、電子カメラに関し、特に人物の眼部のような特定物体に注目してフォーカスを調整する、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly to an electronic camera that adjusts focus by paying attention to a specific object such as a human eye.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、撮像部は、入射光を光量に応じた電気信号に変換し、画像データを出力する。顔検出処理部は、撮像部からの画像データに含まれる人物の眼を検出し、検出された眼の位置および大きさを示す情報を出力する。AF制御部は、顔検出処理部によって検出された眼を覆う位置にフォーカス枠を設定し、合焦点位置をフォーカス枠毎に検出し、そして検出した合焦点位置の中から撮影用の合焦点位置を決定する。これによって、人物を撮影するときに眼に合焦した撮影画像を容易に得ることができる。   An example of this type of camera is disclosed in Patent Document 1. According to this background art, the imaging unit converts incident light into an electrical signal corresponding to the amount of light, and outputs image data. The face detection processing unit detects a human eye included in the image data from the imaging unit, and outputs information indicating the position and size of the detected eye. The AF control unit sets a focus frame at a position covering the eye detected by the face detection processing unit, detects a focal point position for each focus frame, and selects a focal point position for shooting from the detected focal point position To decide. This makes it possible to easily obtain a photographed image focused on the eyes when photographing a person.

特開2005−128156号公報JP 2005-128156 A

しかし、複数の眼が検出されたときは、検出された複数の眼にそれぞれ対応する複数の合焦点位置が被写界深度に含まれるように絞り量が調整される。したがって、背景技術では撮像性能に限界がある。   However, when a plurality of eyes are detected, the aperture amount is adjusted so that a plurality of in-focus positions respectively corresponding to the detected plurality of eyes are included in the depth of field. Therefore, the imaging performance is limited in the background art.

それゆえに、この発明の主たる目的は、特定物体に注目した撮像性能を高めることができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera that can improve imaging performance with attention paid to a specific object.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、フォーカスレンズ(12)を通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、撮像手段から出力された被写界像から特定物体像を探索する探索手段(S55, S1~S45, S93~S95, S109~S111, S117)、探索手段の処理に先立って被写界深度を第1深度に設定する第1設定手段(S51)、探索手段の探知に応答して被写界深度を第1深度よりも浅い第2深度に設定する第2設定手段(S127)、フォーカスレンズから撮像面までの距離を探索手段によって探知された特定物体像の高周波成分に基づいて調整する第1調整手段(S129)、および被写界深度を第1調整手段の処理の後に第1深度よりも浅くかつ第2深度よりも深い第3深度に設定する第3設定手段(S131~S137, S141~S145)を備える。   An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) has an imaging surface that captures the scene through the focus lens (12), and imaging means (16) that repeatedly outputs the scene image. ), Search means (S55, S1 to S45, S93 to S95, S109 to S111, S117) for searching for a specific object image from the object scene image output from the imaging means, depth of field prior to the processing of the search means The first setting means (S51) for setting the first depth to the first depth, the second setting means (S127) for setting the depth of field to the second depth shallower than the first depth in response to detection by the search means, and the focus lens First adjustment means (S129) for adjusting the distance from the imaging surface to the imaging surface based on the high frequency component of the specific object image detected by the search means, and the depth of field from the first depth after the processing of the first adjustment means 3rd setting means (S131 ~ S137, S141 ~ S145) to set the third depth which is shallower and deeper than the second depth .

好ましくは、被写界深度を定義する絞り機構(14)がさらに備えられ、第2深度は絞り機構の開放によって得られる深度に相当する。   Preferably, a diaphragm mechanism (14) for defining a depth of field is further provided, and the second depth corresponds to a depth obtained by opening the diaphragm mechanism.

好ましくは、特定物体像は顔を形成する2つの眼部のうち至近側の眼部に相当し、探索手段は、被写界像から顔画像を探索する顔画像探索手段(S1~S45)、顔画像探索手段によって探知された顔画像の向きを特定する顔向き特定手段(S95)、および顔向き特定手段によって特定された向きを参照して至近側の眼部を検出する眼部検出手段(S109~S111, S117)を含む。   Preferably, the specific object image corresponds to the closest eye part of the two eye parts forming the face, and the search means searches for the face image from the object scene image (S1 to S45), Face orientation specifying means (S95) for specifying the orientation of the face image detected by the face image searching means, and eye detection means for detecting the closest eye portion with reference to the orientation specified by the face orientation specifying means ( S109 to S111, S117).

或る局面では、顔向き特定手段によって特定された向きが無限側の眼部が隠れる向きであるか否かを判別する判別手段(S119)、判別手段の判別結果が肯定的であるとき鼻部に相当する領域を注目領域として指定する第1指定手段(S121~S123)、および判別手段の判別結果が否定的であるとき無限側の眼部に相当する領域を注目領域として指定する第2指定手段(S125)がさらに備えられ、第3深度は撮像手段から出力された被写界像のうち注目領域に属する部分画像の高周波成分が既定条件を満足する深度に相当する。   In one aspect, a determination unit (S119) for determining whether or not the direction specified by the face direction specifying unit is a direction in which the infinite eye part is hidden, the nose when the determination result of the determination unit is affirmative The first designation means (S121 to S123) for designating the area corresponding to the area of interest, and the second designation for designating the area corresponding to the infinite eye area as the attention area when the discrimination result of the discrimination means is negative Means (S125) is further provided, and the third depth corresponds to a depth at which a high-frequency component of a partial image belonging to the region of interest among the object scene image output from the imaging means satisfies a predetermined condition.

好ましくは、第1指定手段によって指定される領域は鼻部の付け根の領域である。   Preferably, the area specified by the first specifying means is a base area of the nose.

他の局面では、顔画像探索手段の探知に応答して被写界深度を第1深度よりも浅くかつ第2深度よりも深い第4深度に設定する第4設定手段(S73)がさらに備えられる。   In another aspect, fourth setting means (S73) is further provided for setting the depth of field to a fourth depth that is shallower than the first depth and deeper than the second depth in response to detection by the face image search means. .

その他の局面では、フォーカスレンズから撮像面までの距離を既定要領で調整する第2調整手段(S115)、および眼部検出手段の非検出に応答して第2調整手段を起動する起動手段(S113)がさらに備えられる。   In another aspect, second adjustment means (S115) for adjusting the distance from the focus lens to the imaging surface in a predetermined manner, and activation means (S113) for starting the second adjustment means in response to non-detection of the eye part detection means. ) Is further provided.

この発明に従う撮像制御プログラムは、フォーカスレンズ(12)を通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、撮像手段から出力された被写界像から特定物体像を探索する探索ステップ(S55, S1~S45, S93~S95, S109~S111, S117)、探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ(S51)、探索ステップの探知に応答して被写界深度を第1深度よりも浅い第2深度に設定する第2設定ステップ(S127)、フォーカスレンズから撮像面までの距離を探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ(S129)、および被写界深度を調整ステップの処理の後に第1深度よりも浅くかつ第2深度よりも深い第3深度に設定する第3設定ステップ(S131~S137, S141~S145)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention includes a processor (26) for an electronic camera (10) having an imaging surface for capturing an object scene through a focus lens (12) and including an imaging means (16) for repeatedly outputting the object scene image. In addition, a search step (S55, S1 to S45, S93 to S95, S109 to S111, S117) for searching for a specific object image from the object scene image output from the imaging means, the depth of field prior to the processing of the search step A first setting step (S51) for setting the first depth to the first depth, a second setting step (S127) for setting the depth of field to a second depth shallower than the first depth in response to detection of the search step, a focus lens An adjustment step (S129) for adjusting the distance from the image pickup surface to the imaging surface based on the high-frequency component of the specific object image detected by the search step, and a depth of field that is shallower than the first depth and processed after the adjustment step processing Set the third depth deeper than the second depth To execute the setting step (S131 ~ S137, S141 ~ S145), an imaging control program.

この発明に従う撮像制御方法は、フォーカスレンズ(12)を通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)によって実行される撮像制御方法であって、撮像手段から出力された被写界像から特定物体像を探索する探索ステップ(S55, S1~S45, S93~S95, S109~S111, S117)、探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ(S51)、探索ステップの探知に応答して被写界深度を第1深度よりも浅い第2深度に設定する第2設定ステップ(S127)、フォーカスレンズから撮像面までの距離を探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ(S129)、および被写界深度を調整ステップの処理の後に第1深度よりも浅くかつ第2深度よりも深い第3深度に設定する第3設定ステップ(S131~S137, S141~S145)を備える。   An imaging control method according to the present invention includes an imaging surface that captures an object scene through a focus lens (12), and imaging performed by an electronic camera (10) that includes an imaging means (16) that repeatedly outputs the object scene image. A control method for searching for a specific object image from a scene image output from an imaging means (S55, S1 to S45, S93 to S95, S109 to S111, S117), prior to the processing of the search step A first setting step (S51) for setting the depth of field to the first depth, and a second setting step (S127) for setting the depth of field to a second depth shallower than the first depth in response to detection in the search step. ), An adjustment step (S129) for adjusting the distance from the focus lens to the imaging surface based on the high-frequency component of the specific object image detected by the search step, and the depth of field from the first depth after the processing of the adjustment step 3rd shallower and deeper than 2nd depth A third setting step for setting the time (S131 ~ S137, S141 ~ S145).

この発明に従う外部制御プログラムは、フォーカスレンズ(12)を通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、撮像手段から出力された被写界像から特定物体像を探索する探索ステップ(S55, S1~S45, S93~S95, S109~S111, S117)、探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ(S51)、探索ステップの探知に応答して被写界深度を第1深度よりも浅い第2深度に設定する第2設定ステップ(S127)、フォーカスレンズから撮像面までの距離を探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ(S129)、および被写界深度を調整ステップの処理の後に第1深度よりも浅くかつ第2深度よりも深い第3深度に設定する第3設定ステップ(S131~S137, S141~S145)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention has an imaging surface for capturing an object scene through a focus lens (12), an image pickup means (16) for repeatedly outputting the object scene image, and an internal control stored in a memory (44). An external control program supplied to an electronic camera (10) having a processor (26) for executing processing according to a program, and a search step for searching for a specific object image from a scene image output from an imaging means (S55, S1 to S45, S93 to S95, S109 to S111, S117), a first setting step (S51) for setting the depth of field to the first depth prior to the processing of the search step, and a response in response to detection of the search step. Second setting step (S127) for setting the depth of field to a second depth shallower than the first depth, and adjusting the distance from the focus lens to the imaging surface based on the high frequency component of the specific object image detected by the searching step Adjustment step (S129), And a third setting step (S131 to S137, S141 to S145) for setting the depth of field to a third depth that is shallower than the first depth and deeper than the second depth after the adjustment step processing. This is an external control program for causing a processor to execute.

この発明に従う電子カメラ(10)は、フォーカスレンズ(12)を通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、外部制御プログラムを取り込む取り込み手段(48)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラであって、外部制御プログラムは、撮像手段から出力された被写界像から特定物体像を探索する探索ステップ(S55, S1~S45, S93~S95, S109~S111, S117)、探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ(S51)、探索ステップの探知に応答して被写界深度を第1深度よりも浅い第2深度に設定する第2設定ステップ(S127)、フォーカスレンズから撮像面までの距離を探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ(S129)、および被写界深度を調整ステップの処理の後に第1深度よりも浅くかつ第2深度よりも深い第3深度に設定する第3設定ステップ(S131~S137, S141~S145)を内部制御プログラムと協働して実行するプログラムに相当する。   An electronic camera (10) according to the present invention has an imaging surface for capturing an object scene through a focus lens (12), an image pickup means (16) for repeatedly outputting the object scene image, and an input means (48) for taking in an external control program. ), And an external control program captured by the capturing means and a processor (26) that executes processing according to the internal control program stored in the memory (44), the external control program being output from the imaging means Search step (S55, S1 to S45, S93 to S95, S109 to S111, S117) for searching for a specific object image from the captured object field image, and setting the depth of field to the first depth prior to the processing of the search step A first setting step (S51), a second setting step (S127) for setting the depth of field to a second depth shallower than the first depth in response to detection in the search step, and a distance from the focus lens to the imaging surface Explore An adjustment step (S129) for adjusting based on the high-frequency component of the specific object image detected by the step, and a third depth that is shallower than the first depth and deeper than the second depth after the processing of the adjustment step. This corresponds to a program that executes the third setting step (S131 to S137, S141 to S145) to be set in cooperation with the internal control program.

この発明によれば、被写界深度は、第1深度,第3深度,第2深度の順で小さくなる。第1深度に対応して特定物体像を探索することで、特定物体像の探知精度が向上する。また、特定物体像の高周波成分に基づく距離調整を第2深度に対応して実行することで、特定物体に対する合焦精度が向上する。さらに、距離調整の後に被写界深度を第3深度に設定することで、特定物体の近傍における画像の鮮鋭度が向上する。これによって、特定物体に注目した撮像性能を高めることができる。   According to this invention, the depth of field decreases in the order of the first depth, the third depth, and the second depth. By searching for the specific object image corresponding to the first depth, the detection accuracy of the specific object image is improved. Further, by performing the distance adjustment based on the high-frequency component of the specific object image corresponding to the second depth, the focusing accuracy with respect to the specific object is improved. Furthermore, the sharpness of the image in the vicinity of the specific object is improved by setting the depth of field to the third depth after the distance adjustment. Thereby, it is possible to improve imaging performance with attention paid to a specific object.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 顔検出処理において用いられる顔枠の一例を示す図解図である。It is an illustration figure which shows an example of the face frame used in a face detection process. 顔検出処理において参照される顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the face dictionary referred in a face detection process. 顔検出処理の一部を示す図解図である。It is an illustration figure which shows a part of face detection process. 図2実施例に適用されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register applied to the embodiment in FIG. 2; (A)は被写界像の一例を示す図解図であり、(B)は顔枠ないし顔枠キャラクタの割り当て状態の一例を示す図解図である。(A) is an illustration figure which shows an example of a scene image, (B) is an illustration figure which shows an example of the allocation state of a face frame or a face frame character. (A)は眼部探索エリアの設定状態の一例を示す図解図であり、(B)は眼部探索エリアの設定状態の他の一例を示す図解図であり、(C)は眼部探索エリアの設定状態のその他の一例を示す図解図であり、(D)は眼部探索エリアの設定状態のさらにその他の一例を示す図解図であり、(E)は眼部探索エリアの設定状態の他の一例を示す図解図であり、(F)は眼部探索エリアの設定状態のその他の一例を示す図解図であり、(G)は眼部探索エリアの設定状態のさらにその他の一例を示す図解図である。(A) is an illustrative view showing an example of a setting state of an eye part search area, (B) is an illustrative view showing another example of a setting state of an eye part search area, and (C) is an eye part search area. FIG. 6D is an illustrative view showing another example of the setting state of the eye, (D) is an illustrative view showing still another example of the setting state of the eye part search area, and (E) is another setting state of the eye part search area. (F) is an illustrative view showing another example of the setting state of the eye part search area, and (G) is an illustrative view showing still another example of the setting state of the eye part search area. FIG. 眼部検出処理において参照される眼部辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the eye part dictionary referred in an eye part detection process. 図2実施例に適用される他のレジスタの構成の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a configuration of another register applied to the embodiment in FIG. 2; (A)は鼻部探索エリアの設定状態の一例を示す図解図であり、(B)は鼻部探索エリアの設定状態の他の一例を示す図解図であり、(C)は鼻部探索エリアの設定状態のその他の一例を示す図解図であり、(D)は鼻部探索エリアの設定状態のさらにその他の一例を示す図解図であり、(E)は鼻部探索エリアの設定状態の他の一例を示す図解図であり、(F)は鼻部探索エリアの設定状態のその他の一例を示す図解図であり、(G)は鼻部探索エリアの設定状態のさらにその他の一例を示す図解図である。(A) is an illustration which shows an example of the setting state of a nose part search area, (B) is an illustration figure which shows another example of the setting state of a nose part search area, (C) is a nose part search area. FIG. 4D is an illustrative view showing another example of the setting state of FIG. 2D, FIG. 4D is an illustrative view showing still another example of the setting state of the nose search area, and FIG. (F) is an illustrative view showing another example of the setting state of the nose portion search area, and (G) is an illustrative view showing still another example of the setting state of the nose portion search area. FIG. 鼻部検出処理において参照される鼻部辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the nose part dictionary referred in a nose part detection process. 図2実施例に適用されるその他のレジスタの構成の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a configuration of another register applied to the embodiment in FIG. 2; 被写界深度を調整する動作の一例を示す図解図である。It is an illustration figure which shows an example of the operation | movement which adjusts the depth of field. 被写界深度を調整する動作の他の一例を示す図解図である。It is an illustration figure which shows another example of the operation | movement which adjusts the depth of field. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. この発明の他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the other Example of this invention. この発明のその他の実施例において被写界深度を調整する動作の一例を示す図解図である。It is an illustration figure which shows an example of the operation | movement which adjusts the depth of field in the other Example of this invention. この発明のさらにその他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the further another Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、フォーカスレンズ7を通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する。探索手段2は、撮像手段1から出力された被写界像から特定物体像を探索する。第1設定手段3は、探索手段2の処理に先立って被写界深度を第1深度に設定する。第2設定手段4は、探索手段2の探知に応答して被写界深度を第1深度よりも浅い第2深度に設定する。第1調整手段5は、フォーカスレンズ7から撮像面までの距離を探索手段2によって探知された特定物体像の高周波成分に基づいて調整する。第3設定手段6は、被写界深度を第1調整手段5の処理の後に第1深度よりも浅くかつ第2深度よりも深い第3深度に設定する。   Referring to FIG. 1, the electronic camera of this embodiment is basically configured as follows. The imaging means 1 has an imaging surface for capturing the scene through the focus lens 7 and repeatedly outputs the scene image. The search means 2 searches for a specific object image from the object scene image output from the imaging means 1. The first setting unit 3 sets the depth of field to the first depth prior to the processing of the search unit 2. The second setting means 4 sets the depth of field to a second depth shallower than the first depth in response to the detection by the searching means 2. The first adjusting unit 5 adjusts the distance from the focus lens 7 to the imaging surface based on the high frequency component of the specific object image detected by the searching unit 2. The third setting means 6 sets the depth of field to a third depth that is shallower than the first depth and deeper than the second depth after the processing of the first adjusting means 5.

被写界深度は、第1深度,第3深度,第2深度の順で浅くなる。第1深度に対応して特定物体像を探索することで、特定物体像の探知精度が向上する。また、特定物体像の高周波成分に基づく距離調整を第2深度に対応して実行することで、特定物体に対する合焦精度が向上する。さらに、距離調整の後に被写界深度を第3深度に設定することで、特定物体の近傍における画像の鮮鋭度が向上する。これによって、特定物体に注目した撮像性能を高めることができる。
[実施例]
The depth of field decreases in the order of the first depth, the third depth, and the second depth. By searching for the specific object image corresponding to the first depth, the detection accuracy of the specific object image is improved. Further, by performing the distance adjustment based on the high-frequency component of the specific object image corresponding to the second depth, the focusing accuracy with respect to the specific object is improved. Furthermore, the sharpness of the image in the vicinity of the specific object is improved by setting the depth of field to the third depth after the distance adjustment. Thereby, it is possible to improve imaging performance with attention paid to a specific object.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞り機構14を含む。これらの部材を経た被写界の光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture mechanism 14 driven by drivers 18a and 18b, respectively. The optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the imager 16 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.

電源が投入されると、CPU26は、撮像タスクの下でパンフォーカス設定を有効化するべく、対応する命令をドライバ18aおよび18bに与える。これによって、被写界深度が“D1”を示すようにフォーカスレンズ12の位置および絞り機構14の絞り量が調整される。   When the power is turned on, the CPU 26 gives corresponding commands to the drivers 18a and 18b to validate the pan focus setting under the imaging task. Thus, the position of the focus lens 12 and the aperture amount of the aperture mechanism 14 are adjusted so that the depth of field indicates “D1”.

CPU26は続いて、動画取り込み処理を開始するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。   Subsequently, the CPU 26 instructs the driver 18c to repeat the exposure operation and the charge reading operation under the imaging task in order to start the moving image capturing process. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the imager 16, raw image data based on the read charges is periodically output.

前処理回路20は、イメージャ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the imager 16. The raw image data subjected to these processes is written into the raw image area 32 a of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The post-processing circuit 34 further performs display zoom processing and search zoom processing in parallel on the image data in the YUV format. As a result, display image data and search image data conforming to the YUV format are individually created.

表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32bに書き込まれる。また、探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32cに書き込まれる。   The display image data is written into the display image area 32 b of the SDRAM 32 by the memory control circuit 30. The search image data is written into the search image area 32 c of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、表示画像エリア32bに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 36 repeatedly reads the display image data stored in the display image area 32b through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen.

図3を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において64分割され、合計4096個の分割エリアによって評価エリアEVAが形成される。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 3, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 64 parts in each of the horizontal direction and the vertical direction, and the evaluation area EVA is formed by a total of 4096 divided areas. In addition to the above-described processing, the preprocessing circuit 20 shown in FIG. 2 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを分割エリア毎に積分する。この積分処理は、垂直同期信号Vsyncが発生する毎に実行される。これによって、4096個の積分値つまり4096個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。   The AE evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 for each divided area. This integration process is executed every time the vertical synchronization signal Vsync is generated. As a result, 4096 integral values, that is, 4096 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync.

また、AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を分割エリア毎に積分する。この積分処理もまた、垂直同期信号Vsyncが発生する毎に実行される。これによって、4096個の積分値つまり4096個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   Further, the AF evaluation circuit 24 integrates the high-frequency components of the RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 for each divided area. This integration process is also executed each time the vertical synchronization signal Vsync is generated. As a result, 4096 integral values, that is, 4096 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

なお、AE評価回路22から出力されたAE評価値およびAF評価回路24から出力されたAF評価値に基づく処理については、後述する。   The processing based on the AE evaluation value output from the AE evaluation circuit 22 and the AF evaluation value output from the AF evaluation circuit 24 will be described later.

CPU26はまた、撮像タスクと並列して実行される顔検出タスクの下で、探索画像エリア32cに格納された探索画像データから人物の顔画像を繰り返し探索する。このとき、図4に示す要領でサイズが調整される顔枠FDと図5に示す7つの辞書画像を収めた顔辞書DC_Fとが用いられる。   The CPU 26 also repeatedly searches for a human face image from the search image data stored in the search image area 32c under a face detection task executed in parallel with the imaging task. At this time, a face frame FD whose size is adjusted in the manner shown in FIG. 4 and a face dictionary DC_F containing seven dictionary images shown in FIG. 5 are used.

ここで、顔辞書DC_Fはフラッシュメモリ44に保存される。顔辞書DC_Fにおいて、FC=1に割り当てられた辞書画像は正面を向く顔画像に相当し、FC=2に割り当てられた辞書画像は左に30°傾いた方向を向く顔画像に相当し、FC=3に割り当てられた辞書画像は左に60°傾いた方向を向く顔画像に相当し、FC=4に割り当てられた辞書画像は左に90°傾いた方向を向く顔画像に相当する。また、FC=5に割り当てられた辞書画像は右に30°傾いた方向を向く顔画像に相当し、FC=6に割り当てられた辞書画像は右に60°傾いた方向を向く顔画像に相当し、FC=7に割り当てられた辞書画像は右に90°傾いた方向を向く顔画像に相当する。   Here, the face dictionary DC_F is stored in the flash memory 44. In the face dictionary DC_F, a dictionary image assigned to FC = 1 corresponds to a face image facing front, a dictionary image assigned to FC = 2 corresponds to a face image facing 30 ° to the left, and FC The dictionary image assigned to = 3 corresponds to a face image facing 60 ° to the left, and the dictionary image assigned to FC = 4 corresponds to a face image facing 90 ° to the left. Also, the dictionary image assigned to FC = 5 corresponds to a face image that faces 30 ° to the right, and the dictionary image assigned to FC = 6 corresponds to a face image that faces 60 ° to the right. The dictionary image assigned to FC = 7 corresponds to a face image that faces 90 ° to the right.

顔検出タスクではまず、評価エリアEVAの全域が顔部探索エリアとして設定される。また、顔枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxが“200”に設定され、最小サイズFSZminが“20”に設定される。   In the face detection task, first, the entire evaluation area EVA is set as a face search area. Further, in order to define a variable range of the size of the face frame FD, the maximum size FSZmax is set to “200”, and the minimum size FSZmin is set to “20”.

顔枠FDは、顔部探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図6参照)。また、顔枠FDのサイズは、顔枠FDが終了位置に到達する毎に“FSZmax”から“FSZmin”まで“5”ずつ縮小される。   The face frame FD is moved by a predetermined amount in a raster scanning manner from the start position (upper left position) to the end position (lower right position) of the face search area (see FIG. 6). The size of the face frame FD is reduced by “5” from “FSZmax” to “FSZmin” every time the face frame FD reaches the end position.

顔枠FDに属する一部の探索画像データは、メモリ制御回路30を通して探索画像エリア32cから読み出される。読み出された探索画像データの特徴量は、顔辞書DC_Fに収められた7つの辞書画像の各々の特徴量と照合される。閾値TH_F以上の照合度が得られると、顔画像が検出されたものとみなされる。現時点の顔枠FDの位置およびサイズは、照合先の辞書画像を識別する顔辞書番号FCの値とともに図7に示すレジスタRGSTtmpに登録される。また、レジスタRGSTtmpに記述された顔数は、このような登録処理に伴ってインクリメントされる。   Some search image data belonging to the face frame FD is read from the search image area 32 c through the memory control circuit 30. The feature amount of the read search image data is collated with the feature amount of each of the seven dictionary images stored in the face dictionary DC_F. When a matching degree equal to or higher than the threshold TH_F is obtained, it is considered that a face image has been detected. The current position and size of the face frame FD are registered in the register RGSTtmp shown in FIG. 7 together with the value of the face dictionary number FC that identifies the collation destination dictionary image. Further, the number of faces described in the register RGSTtmp is incremented along with such registration processing.

したがって、図8(A)に示す被写界が撮像面によって捉えられた場合、レジスタRGSTtmpに登録された顔枠の位置およびサイズは図8(B)に太線で示す枠の位置およびサイズを示し、レジスタRGSTtmpに登録された顔辞書番号は“5”を示し、そしてレジスタRGSTtmpに記述された顔数は“1”を示す。   Therefore, when the object scene shown in FIG. 8A is captured by the imaging surface, the position and size of the face frame registered in the register RGSTtmp indicate the position and size of the frame indicated by the bold line in FIG. The face dictionary number registered in the register RGSTtmp indicates “5”, and the number of faces described in the register RGSTtmp indicates “1”.

最小サイズFSZminを有する顔枠FDが顔部探索エリアの終了位置に到達すると、CPU26は、レジスタRGSTtmpの記述をレジスタRGSToutに複製し、その後にレジスタRGSTtmpをクリアする。撮像タスクによって参照されるフラグFLG_Fは、レジスタRGSToutに記述された顔数が“0”のとき“0”に設定され、レジスタRGSToutに記述された顔数が“1”以上のとき“1”に設定される。   When the face frame FD having the minimum size FSZmin reaches the end position of the face search area, the CPU 26 copies the description of the register RGSTtmp to the register RGSTout, and then clears the register RGSTtmp. The flag FLG_F referred to by the imaging task is set to “0” when the number of faces described in the register RGSTout is “0”, and is set to “1” when the number of faces described in the register RGSTout is “1” or more. Is set.

フラグFLG_Fが“1”を示す場合、CPU26は、1または2以上の顔枠キャラクタをLCDモニタ38に表示すべく、撮像タスクの下で顔枠キャラクタ表示命令をキャラクタジェネレータ46に与える。顔枠キャラクタは、レジスタRGSToutに登録された顔枠のサイズおよび位置に適合する態様でLCDモニタ38に表示される。図8(A)に示す被写界が捉えられたとき、顔枠キャラクタは図8(B)に示す要領でスルー画像に多重される。   When the flag FLG_F indicates “1”, the CPU 26 gives a face frame character display command to the character generator 46 under the imaging task in order to display one or more face frame characters on the LCD monitor 38. The face frame character is displayed on the LCD monitor 38 in a manner that matches the size and position of the face frame registered in the register RGSTout. When the object scene shown in FIG. 8A is captured, the face frame character is multiplexed on the through image in the manner shown in FIG.

CPU26は続いて、最大サイズの顔枠キャラクタを検出し、検出された顔枠キャラクタによって囲まれるエリアをAE/AFエリアとして設定する。図8(B)の例では、1つの顔枠キャラクタしか表示されないため、この顔枠キャラタによって囲まれるエリアがAE/AFエリアとされる。   Subsequently, the CPU 26 detects the maximum size face frame character, and sets an area surrounded by the detected face frame character as an AE / AF area. In the example of FIG. 8B, since only one face frame character is displayed, the area surrounded by this face frame character is the AE / AF area.

なお、フラグFLG_Fが“0”であれば、顔枠キャラクタが表示されることはなく、AE/AFエリアは評価エリアEVAの中央に設定される。   If the flag FLG_F is “0”, the face frame character is not displayed and the AE / AF area is set at the center of the evaluation area EVA.

AE/AFエリアの設定が完了すると、CPU26は、簡易AE処理を実行する。簡易AE処理では、AE評価回路22から出力された4096個のAE評価値のうちAE/AFエリアに属する一部のAE評価値に基づいて、適正EV値が算出される。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、これによってスルー画像の明るさが適度に調整される。   When the setting of the AE / AF area is completed, the CPU 26 executes a simple AE process. In the simple AE process, the appropriate EV value is calculated based on some AE evaluation values belonging to the AE / AF area among the 4096 AE evaluation values output from the AE evaluation circuit 22. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively, and thereby the brightness of the through image is appropriately adjusted.

フラグFLG_Fが“1”を示す状態でシャッタボタン28shが半押しされると、CPU26は、被写界深度が“D1”よりも浅い“D4”に設定されるように絞り機構14の絞り量を調整し、調整された絞り量が優先される態様で厳格AE処理を実行する。一方、フラグFLG_Fが“0”を示す状態でシャッタボタン28shが半押しされたときは、厳格AE処理は既定態様で実行される。   When the shutter button 28sh is pressed halfway with the flag FLG_F indicating “1”, the CPU 26 sets the aperture amount of the aperture mechanism 14 so that the depth of field is set to “D4”, which is shallower than “D1”. The strict AE process is executed in such a manner that the adjusted aperture amount is prioritized. On the other hand, when the shutter button 28sh is half-pressed in a state where the flag FLG_F indicates “0”, the strict AE process is executed in a default manner.

いずれの厳格AE処理もAE/AFエリアに属する一部のAE評価値を参照して実行され、これによって最適EV値が算出される。算出された最適EV値を定義する絞り量および露光時間は、上述と同様にドライバ18bおよび18cにそれぞれ設定される。スルー画像の明るさは、厳格に調整される。   Any of the strict AE processes is executed with reference to a part of the AE evaluation values belonging to the AE / AF area, thereby calculating the optimum EV value. The aperture amount and the exposure time that define the calculated optimal EV value are set in the drivers 18b and 18c, respectively, as described above. The brightness of the live view image is adjusted strictly.

厳格AE処理が完了すると、CPU26は、AF評価回路24から出力された4096個のAF評価値を参照したAF処理を実行する。フォーカスレンズ12はAF処理によって発見された合焦点に配置され、これによってスルー画像の鮮鋭度が向上する。なお、AF処理については後段で詳述する。   When the strict AE process is completed, the CPU 26 executes an AF process with reference to 4096 AF evaluation values output from the AF evaluation circuit 24. The focus lens 12 is disposed at the focal point discovered by the AF process, and thereby the sharpness of the through image is improved. The AF process will be described in detail later.

シャッタボタン28shが全押しされると、CPU26は、静止画取り込み&記録処理を実行する。静止画取り込み処理の結果、シャッタボタン28shが全押しされた時点の被写界を表す1フレームの画像データがYUV画像エリア32bから静止画像エリア32dに退避される。また、記録処理の結果、メモリI/F40が起動される。メモリI/F40は、静止画像エリア32dに退避された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをファイル形式で記録媒体42に記録する。   When the shutter button 28sh is fully pressed, the CPU 26 executes still image capture & recording processing. As a result of the still image capturing process, one frame of image data representing the scene at the time when the shutter button 28 sh is fully pressed is saved from the YUV image area 32 b to the still image area 32 d. As a result of the recording process, the memory I / F 40 is activated. The memory I / F 40 reads the image data saved in the still image area 32d through the memory control circuit 30, and records the read image data on the recording medium 42 in a file format.

AF処理は、次の要領で実行される。まず、キー入力装置28のモードスイッチ28mdによって選択された現時点のAFモードが通常AFモードおよび眼優先AFモードのいずれであるかが判別される。また、フラグFLG_Fが“1”でかつ顔枠の最大サイズが閾値TH_SZ以上であるという論理積条件が満足されるか否かが判別される。   The AF process is executed as follows. First, it is determined whether the current AF mode selected by the mode switch 28md of the key input device 28 is the normal AF mode or the eye priority AF mode. Further, it is determined whether or not the logical product condition that the flag FLG_F is “1” and the maximum size of the face frame is equal to or larger than the threshold value TH_SZ is satisfied.

現時点のAFモードが通常AFモードであるとき、或いは論理積条件が満足されないときは、通常AF処理が実行される。通常AF処理は、AE評価回路24から出力された4096個のAF評価値のうちAE/AFエリアに属する一部のAF評価値を参照して実行される。フォーカスレンズ12は、参照されたAF評価値の総和が最大となる位置に配置され、これによってAE/AFエリアに属する画像の鮮鋭度が向上する。   When the current AF mode is the normal AF mode, or when the logical product condition is not satisfied, the normal AF process is executed. The normal AF process is executed with reference to some AF evaluation values belonging to the AE / AF area among the 4096 AF evaluation values output from the AE evaluation circuit 24. The focus lens 12 is disposed at a position where the sum of the referred AF evaluation values is maximized, thereby improving the sharpness of an image belonging to the AE / AF area.

現時点のAFモードが眼優先AFモードで、かつ上述の論理積条件が満足されると、レジスタRGSToutに登録された1または2以上の顔枠の中から最大サイズを有する顔枠が特定される。さらに、特定された顔枠に属する顔の向きが、特定された顔枠に付随してレジスタRGSToutに記述された顔辞書番号に基づいて検出される。   When the current AF mode is the eye priority AF mode and the above AND condition is satisfied, the face frame having the maximum size is specified from one or more face frames registered in the register RGSTout. Furthermore, the orientation of the face belonging to the specified face frame is detected based on the face dictionary number described in the register RGSTout accompanying the specified face frame.

最大サイズの顔枠に割り当てられた顔辞書番号が“1”であれば、最大サイズの顔枠に属する顔の向きは撮像面に向かって正面であるとみなされる。このときは、最大サイズの顔枠に属する顔画像から両眼が探索される。探索にあたっては、眼部探索エリアが図9(A)に示す要領で顔画像上に設定され、図10に示す眼部辞書DC_EYにおいてEY=1に割り当てられた4つの辞書画像が参照される。これによって探知された眼部のサイズおよび位置は、図11に示すレジスタRGSTeyに設定される。   If the face dictionary number assigned to the face frame of the maximum size is “1”, the direction of the face belonging to the face frame of the maximum size is considered to be the front face toward the imaging surface. At this time, both eyes are searched from the face image belonging to the face frame of the maximum size. In the search, an eye search area is set on the face image in the manner shown in FIG. 9A, and four dictionary images assigned EY = 1 in the eye dictionary DC_EY shown in FIG. 10 are referred to. The size and position of the eye part detected in this way are set in the register RGSTey shown in FIG.

なお、図10によれば、眼の形および左右の区別を示す文字が記述されているが、実際にはこれに相当する画像が眼部辞書DC_EYに収められる。また、EY=1に割り当てられた辞書画像は正面を向く眼部画像に相当し、EY=2に割り当てられた辞書画像は左に30°傾いた方向を向く眼部画像に相当し、EY=3に割り当てられた辞書画像は左に60°傾いた方向を向く眼部画像に相当し、EY=4に割り当てられた辞書画像は左に90°傾いた方向を向く眼部画像に相当する。   Note that according to FIG. 10, characters indicating the shape of the eye and the left / right distinction are described, but an image corresponding to this is actually stored in the eye dictionary DC_EY. The dictionary image assigned to EY = 1 corresponds to the eye image facing the front, the dictionary image assigned to EY = 2 corresponds to the eye image directed to the left by 30 °, and EY = The dictionary image assigned to 3 corresponds to an eye image that faces 60 ° to the left, and the dictionary image assigned to EY = 4 corresponds to an eye image that turns 90 ° to the left.

さらに、EY=5に割り当てられた辞書画像は右に30°傾いた方向を向く眼部画像に相当し、EY=6に割り当てられた辞書画像は右に60°傾いた方向を向く眼部画像に相当し、EY=7に割り当てられた辞書画像は右に90°傾いた方向を向く眼部画像に相当する。   Further, the dictionary image assigned to EY = 5 corresponds to an eye image oriented in a direction inclined 30 ° to the right, and the dictionary image assigned to EY = 6 is an eye image directed in a direction inclined 60 ° to the right. The dictionary image assigned to EY = 7 corresponds to an eye image that faces 90 ° to the right.

左眼および右眼のいずれも探知されなければ、両眼が閉じられているとみなされ、上述した通常AF処理が実行される。これによって、AE/AFエリアに属する画像の鮮鋭度が向上する。   If neither the left eye nor the right eye is detected, it is considered that both eyes are closed, and the normal AF process described above is executed. This improves the sharpness of images belonging to the AE / AF area.

これに対して、左眼および右眼の少なくとも一方が探知されると、探知された眼部が主要合焦対象として指定される。両方の眼部が探知されたときは、サイズが大きい方の眼部が優先的に指定される。主要合焦対象の指定が完了すると、他方の眼部が2次合焦対象として指定される。一方の眼部しか探知されなかったときは、顔画像上に設定された眼部探索エリアの位置と探知された眼部の位置とに基づいて、他方の眼部が推定される。   On the other hand, when at least one of the left eye and the right eye is detected, the detected eye is designated as a main focus target. When both eyes are detected, the eye with the larger size is designated preferentially. When the designation of the main focus target is completed, the other eye is designated as the secondary focus target. When only one eye is detected, the other eye is estimated based on the position of the eye search area set on the face image and the detected position of the eye.

最大サイズの顔枠に割り当てられた顔辞書番号が“1”でなければ、最大サイズの顔枠に属する顔は右または左に傾いているとみなされる。このときは、左眼および右眼のうち、至近側の眼部が探索される。つまり、顔の向きが撮像面に向かって左であれば右眼が探索され、顔の向きが撮像面に向かって右であれば左眼が探索される。   If the face dictionary number assigned to the maximum size face frame is not “1”, the face belonging to the maximum size face frame is considered to be tilted to the right or left. At this time, the closest eye part is searched for among the left eye and the right eye. That is, the right eye is searched if the face direction is left toward the imaging surface, and the left eye is searched if the face direction is right toward the imaging surface.

右眼を探索する場合、眼部探索エリアは図9(B),図9(C)または図9(D)に示す要領で顔画像上に設定され、図10に示す眼部辞書DC_EYにおいてEY=2,3または4に割り当てられた2つの辞書画像が参照される。左眼を探索する場合、眼部探索エリアは図9(E),図9(F)または図9(G)に示す要領で顔画像上に設定され、図10に示す眼部辞書DC_EYにおいてEY=5,6または7に割り当てられた2つの辞書画像が参照される。   When searching for the right eye, the eye search area is set on the face image in the manner shown in FIG. 9B, FIG. 9C, or FIG. 9D, and EY in the eye dictionary DC_EY shown in FIG. Two dictionary images assigned to = 2, 3 or 4 are referred to. When searching for the left eye, the eye search area is set on the face image in the manner shown in FIG. 9 (E), FIG. 9 (F), or FIG. 9 (G), and in the eye dictionary DC_EY shown in FIG. Two dictionary images assigned to = 5, 6 or 7 are referenced.

右眼および左眼のいずれを探索する場合でも、眼部探索エリアの設定要領および参照すべき辞書画像は顔の向きに従う。また、探知された眼部のサイズおよび位置は、図11に示すレジスタRGSTeyに設定される。   When searching for either the right eye or the left eye, the setting procedure of the eye part search area and the dictionary image to be referred to follow the face orientation. Further, the detected size and position of the eye are set in the register RGSTey shown in FIG.

所望の眼部が探知されなければ、この眼部は閉じられているとみなされ、上述した通常AF処理が実行される。これによって、AE/AFエリアに属する画像の鮮鋭度が向上する。これに対して、所望の眼部が探知されると、探知された眼部が主要合焦対象として指定される。2次合焦対象は、以下の要領で指定される。   If the desired eye is not detected, it is considered that the eye is closed, and the above-described normal AF process is executed. This improves the sharpness of images belonging to the AE / AF area. On the other hand, when a desired eye is detected, the detected eye is designated as a main focus target. The secondary focusing target is specified as follows.

最大サイズの顔枠に属する顔の向きが真横または略真横(≒左90°または右90°)であれば、最大サイズの顔枠に属する顔画像から鼻部が探索される。探索にあたっては、鼻部探索エリアが図12(A)〜図12(G)のいずれか1つに示す要領で顔画像上に設定され、図13に示す鼻部辞書DC_NSにおいてNS=1〜7のいずれか1つに割り当てられた辞書画像が参照される。上述と同様、鼻部探索エリアの設定要領および参照すべき辞書画像は、顔の向きに従う。また、探知された鼻部のサイズおよび位置は、図14に示すレジスタRGSTnsに設定される。設定処理が完了すると、探知された鼻部の付け根が2次合焦対象として指定される。   If the orientation of the face belonging to the maximum size face frame is right side or substantially right side (≈ left 90 ° or right 90 °), the nose is searched from the face image belonging to the maximum size face frame. In the search, a nose search area is set on the face image in the manner shown in any one of FIGS. 12A to 12G, and NS = 1 to 7 in the nose dictionary DC_NS shown in FIG. A dictionary image assigned to any one of these is referred to. As described above, the setting procedure of the nose portion search area and the dictionary image to be referenced follow the face orientation. The detected size and position of the nose are set in the register RGSTns shown in FIG. When the setting process is completed, the detected root of the nose is designated as a secondary focusing target.

なお、図13によれば、鼻の形を示す文字が記述されているが、実際にはこれに相当する画像が鼻部辞書DC_NSに収められる。また、NS=1に割り当てられた辞書画像は正面を向く鼻部画像に相当し、NS=2に割り当てられた辞書画像は左に30°傾いた方向を向く鼻部画像に相当し、NS=3に割り当てられた辞書画像は左に60°傾いた方向を向く鼻部画像に相当し、NS=4に割り当てられた辞書画像は左に90°傾いた方向を向く鼻部画像に相当する。   Note that, according to FIG. 13, characters indicating the shape of the nose are described, but an image corresponding to this is actually stored in the nose dictionary DC_NS. Further, the dictionary image assigned to NS = 1 corresponds to the nose portion image facing front, the dictionary image assigned to NS = 2 corresponds to the nose portion image facing 30 ° to the left, and NS = The dictionary image assigned to 3 corresponds to a nose image that faces 60 ° to the left, and the dictionary image assigned to NS = 4 corresponds to a nose image that faces 90 ° to the left.

さらに、NS=5に割り当てられた辞書画像は右に30°傾いた方向を向く鼻部画像に相当し、NS=6に割り当てられた辞書画像は右に60°傾いた方向を向く鼻部画像に相当し、NS=7に割り当てられた辞書画像は右に90°傾いた方向を向く鼻部画像に相当する。   Furthermore, the dictionary image assigned to NS = 5 corresponds to a nose image that faces 30 ° to the right, and the dictionary image assigned to NS = 6 corresponds to a nose image that faces 60 ° to the right. The dictionary image assigned to NS = 7 corresponds to a nose image that faces 90 ° to the right.

最大サイズの顔枠に属する顔の向きが正面および真横と異なる向き(≒左30°,左60°,右30°または右60°)であれば、探索対象として選択されなかった眼部つまり無限側の眼部が2次合焦対象として指定される。なお、無限側の眼部の検出にあたっては、探知された至近側の眼部の位置と顔の向きとが参照される。   If the orientation of the face belonging to the face frame of the maximum size is different from the front and right side (≈ left 30 °, left 60 °, right 30 ° or right 60 °), the eye part that is not selected as the search target, that is, infinite The side eye is designated as the secondary focusing target. In detecting the infinite eye part, the detected position of the near eye part and the face orientation are referred to.

こうして主要合焦態様および2次合焦対象が指定されると、絞り機構14が開放され、主要合焦対象に注目したAF処理が実行される。絞り機構14の開放によって、被写界深度は最も浅い“D2”に変更される。また、主要合焦対象に注目したAF処理によって、至近側の眼部を表す画像の鮮鋭度が向上する。   When the main focusing mode and the secondary focusing target are designated in this way, the aperture mechanism 14 is opened, and AF processing focusing on the main focusing target is executed. By opening the aperture mechanism 14, the depth of field is changed to the shallowest “D2”. In addition, the sharpness of the image representing the close eye side is improved by the AF processing focusing on the main focus target.

続いて、AF評価回路24から出力された4096個のAF評価値の中から2次合焦対象に対応する一部のAF評価値が抽出され、抽出したAF評価値の総和が算出される。被写界深度が“D2”に設定された状態では、算出された総和は閾値TH_SMを下回る。2次合焦対象に対応するAF評価値の総和を算出する処理は繰り返し実行され、絞り機構14は総和算出処理と並列して既定量ずつ絞られる。算出された総和が閾値TH_SMに達すると絞り量が固定され、これによって被写界深度が“D3”に確定される。   Subsequently, some AF evaluation values corresponding to the secondary focus target are extracted from 4096 AF evaluation values output from the AF evaluation circuit 24, and the sum of the extracted AF evaluation values is calculated. In a state where the depth of field is set to “D2”, the calculated sum is less than the threshold value TH_SM. The process of calculating the sum of the AF evaluation values corresponding to the secondary focus target is repeatedly executed, and the aperture mechanism 14 is reduced by a predetermined amount in parallel with the sum calculation process. When the calculated sum reaches the threshold value TH_SM, the aperture amount is fixed, and thereby the depth of field is fixed to “D3”.

2次合焦対象が無限側の眼部であれば、図15に示す要領で深度D3が確定する。これに対して、2次合焦対象が鼻部の付け根であれば、図16に示す要領で深度D3が確定する。図15および図16のいずれにおいても、被写界深度は“D1”→“D4”→“D2”→“D3”の順序で変化する。また、深度D1〜D4の大小関係は、図15および図16の間で共通する。ただし、被写界深度の限界は、図15において無限側の眼部に合わせられる一方、図16において鼻部の付け根に合わせられる。   If the secondary focusing target is an infinite eye part, the depth D3 is determined as shown in FIG. On the other hand, if the secondary focus target is the root of the nose, the depth D3 is determined as shown in FIG. 15 and 16, the depth of field changes in the order of “D1” → “D4” → “D2” → “D3”. Further, the magnitude relationship between the depths D1 to D4 is common between FIGS. 15 and 16. However, the limit of the depth of field is adjusted to the infinite eye part in FIG. 15 and to the root of the nose part in FIG.

CPU26は、図17〜図19に示す顔検出タスクおよび図20〜図24に示す撮像タスクを含む複数のタスクをマルチタスクOSの制御の下で並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 26 executes a plurality of tasks including a face detection task shown in FIGS. 17 to 19 and an imaging task shown in FIGS. 20 to 24 in parallel under the control of the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図17を参照して、ステップS1ではフラグFLG_Fを“0”に設定し、ステップS3ではレジスタRGSTtmpおよびRGSToutをクリアし、ステップS5では評価エリアEVAの全域を顔部探索エリアとして設定する。ステップS7では、顔枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxを“200”に設定し、最小サイズFSZminを“20”に設定する。可変範囲の定義が完了するとステップS9に進み、顔枠FDのサイズを“SZmax”に設定する。   Referring to FIG. 17, in step S1, flag FLG_F is set to “0”, in steps S3, registers RGSTtmp and RGSTout are cleared, and in step S5, the entire evaluation area EVA is set as a face search area. In step S7, the maximum size FSZmax is set to “200” and the minimum size FSZmin is set to “20” in order to define a variable range of the size of the face frame FD. When the definition of the variable range is completed, the process proceeds to step S9, and the size of the face frame FD is set to “SZmax”.

ステップS11では、顔枠FDを顔部探索エリアの開始位置(左上位置)に配置する。ステップS13では、顔枠FDに属する一部の探索画像データを探索画像エリア32cから読み出し、読み出された探索画像データの特徴量を算出する。ステップS15では、顔辞書番号FCを“1”に設定する。   In step S11, the face frame FD is arranged at the start position (upper left position) of the face search area. In step S13, a part of the search image data belonging to the face frame FD is read from the search image area 32c, and the feature amount of the read search image data is calculated. In step S15, the face dictionary number FC is set to “1”.

ステップS17では、ステップS13で算出された特徴量を、顔辞書DC_Fに収められた7つの辞書画像のうち顔辞書番号FCに対応する辞書画像の特徴量と照合する。ステップS19では照合度が閾値TH_F以上であるか否かを判別し、ステップS21では顔辞書番号FCが“7”であるか否かを判別する。   In step S17, the feature amount calculated in step S13 is collated with the feature amount of the dictionary image corresponding to the face dictionary number FC among the seven dictionary images stored in the face dictionary DC_F. In step S19, it is determined whether or not the matching degree is greater than or equal to a threshold value TH_F. In step S21, it is determined whether or not the face dictionary number FC is “7”.

ステップS19の判別結果がYESであればステップS23に進み、現時点の顔枠FDの位置およびサイズと顔辞書番号FCの値とをレジスタRGSTtmpに登録する。ステップS23ではまた、レジスタRGSTtmpに記述された顔数をインクリメントする。ステップS23の処理が完了すると、ステップS27に進む。   If the decision result in the step S19 is YES, the process advances to a step S23 so as to register the current position and size of the face frame FD and the value of the face dictionary number FC in the register RGSTtmp. In step S23, the number of faces described in the register RGSTtmp is incremented. When the process of step S23 is completed, the process proceeds to step S27.

ステップS21の判別結果がYESであれば、ステップS25で顔辞書番号FCをインクリメントし、その後にステップS17に戻る。ステップS19の判別結果およびステップS21の判別結果のいずれもがNOであれば、そのままステップS27に進む。   If the decision result in the step S21 is YES, the face dictionary number FC is incremented in a step S25, and thereafter, the process returns to the step S17. If both the determination result in step S19 and the determination result in step S21 are NO, the process proceeds to step S27 as it is.

ステップS27では、顔枠FDが探索エリアの終了位置(右下位置)に到達したか否かを判別する。判別結果がNOであれば、ステップS29で顔枠FDを既定量だけラスタ方向に移動させ、その後にステップS13に戻る。判別結果がYESであれば、顔枠FDのサイズが“FSZmin”以下であるか否かをステップS31で判別する。判別結果がNOであれば、ステップS33で顔枠FDのサイズを“5”だけ縮小し、ステップS35で顔枠FDを顔部探索エリアの開始位置に配置し、その後にステップS13に戻る。   In step S27, it is determined whether or not the face frame FD has reached the end position (lower right position) of the search area. If the determination result is NO, the face frame FD is moved in the raster direction by a predetermined amount in step S29, and then the process returns to step S13. If the determination result is YES, it is determined in a step S31 whether or not the size of the face frame FD is equal to or less than “FSZmin”. If the determination result is NO, the size of the face frame FD is reduced by “5” in step S33, the face frame FD is placed at the start position of the face search area in step S35, and then the process returns to step S13.

ステップS31の判別結果がYESであれば、ステップS37に進み、レジスタRGSTtmpの記述をレジスタRGSToutに複製する。ステップS39ではレジスタRGSTtmpをクリアし、ステップS41ではレジスタRGSToutに記述された顔数が“1”以上であるか否かを判別する。判別結果がYESであれば、顔が検出されたことを表明するべく、ステップS43でフラグFLG_Fを“1”に設定する。判別結果がNOであれば、顔が検出されなかったことを表明するべく、ステップS45でフラグFLG_Fを“0”に設定する。ステップS43またはS45の処理が完了すると、ステップS9に戻る。   If the determination result of step S31 is YES, it will progress to step S37 and will copy the description of register | resistor RGSTtmp to register | resistor RGSTout. In step S39, the register RGSTtmp is cleared. In step S41, it is determined whether or not the number of faces described in the register RGSTout is “1” or more. If the determination result is YES, a flag FLG_F is set to “1” in step S43 in order to assert that a face has been detected. If the determination result is NO, a flag FLG_F is set to “0” in step S45 in order to assert that no face has been detected. When the process of step S43 or S45 is completed, the process returns to step S9.

図20を参照して、ステップS51ではパンフォーカス設定を有効化し、ステップS53では動画取込み処理を開始する。ステップS51の処理の結果、被写界深度が“D1”を示すようにフォーカスレンズ12の位置および絞り機構14の絞り量が調整される。また、ステップS53の処理の結果、被写界を表すスルー画像がLCDモニタ38に表示される。   Referring to FIG. 20, in step S51, the pan focus setting is validated, and in step S53, the moving image capturing process is started. As a result of the processing in step S51, the position of the focus lens 12 and the aperture amount of the aperture mechanism 14 are adjusted so that the depth of field indicates “D1”. Further, as a result of the processing in step S53, a through image representing the object scene is displayed on the LCD monitor 38.

ステップS55では上述した顔検出タスクを起動し、ステップS57ではフラグFLG_Fが“1”を示すか否かを判別する。FLG_F=1であればステップS59〜S61を経てステップS67に進み、FLG_F=0であればステップS63〜S65を経てステップS67に進む。   In step S55, the above-described face detection task is activated. In step S57, it is determined whether or not the flag FLG_F indicates “1”. If FLG_F = 1, the process proceeds to steps S67 through steps S59 to S61, and if FLG_F = 0, the process proceeds to steps S67 through steps S63 to S65.

ステップS59では、1または2以上の顔枠キャラクタをLCDモニタ38に表示すべく、顔枠表示命令をキャラクタジェネレータ46に与える。顔枠キャラクタは、レジスタRGSToutに登録された顔枠のサイズおよび位置に適合する態様でLCDモニタ38に表示される。ステップS61では、最大サイズの顔枠キャラクタを検出し、検出された顔枠キャラクタによって囲まれるエリアをAE/AFエリアとして設定する。ステップS63では顔枠非表示命令をキャラクタジェネレータ46に与える。この結果、顔枠キャラクタの表示が中止される。ステップS65では、評価エリアEVAの中央にAE/AFエリアを設定する。   In step S59, a face frame display command is given to the character generator 46 in order to display one or more face frame characters on the LCD monitor 38. The face frame character is displayed on the LCD monitor 38 in a manner that matches the size and position of the face frame registered in the register RGSTout. In step S61, a face frame character having the maximum size is detected, and an area surrounded by the detected face frame character is set as an AE / AF area. In step S63, a face frame non-display command is given to the character generator 46. As a result, the display of the face frame character is stopped. In step S65, an AE / AF area is set at the center of the evaluation area EVA.

ステップS67では、簡易AE処理を実行する。簡易AE処理は、AE評価回路22から出力された4096個のAE評価値のうち上述の要領で設定されたAE/AFエリアに属する一部のAE評価値を参照して実行される。この結果、スルー画像の明るさが適度に調整される。   In step S67, a simple AE process is executed. The simple AE process is executed with reference to some AE evaluation values belonging to the AE / AF area set in the above manner among the 4096 AE evaluation values output from the AE evaluation circuit 22. As a result, the brightness of the through image is appropriately adjusted.

ステップS69ではシャッタボタン28shが半押しされたか否かを判別し、判別結果がNOであればステップS57に戻る一方、判別結果がYESであればステップS71に進む。ステップS71ではフラグFLG_Fが“1”であるか否かを判別し、判別結果がYESであればステップS73〜S75の処理を経てステップS79に進む一方、判別結果がNOであればステップS77の処理を経てステップS79に進む。   In step S69, it is determined whether or not the shutter button 28sh has been half-pressed. If the determination result is NO, the process returns to step S57, whereas if the determination result is YES, the process proceeds to step S71. In step S71, it is determined whether or not the flag FLG_F is “1”. If the determination result is YES, the process proceeds to step S79 through steps S73 to S75. If the determination result is NO, the process of step S77 is performed. Then, the process proceeds to step S79.

ステップS73では、被写界深度が“D4”に設定されるように絞り機構14の絞り量を調整する。また、ステップS75では、調整された絞り量が優先される態様で厳格AE処理を実行する。一方、ステップS77では、既定態様で厳格AE処理を実行する。いずれの厳格AE処理もAE/AFエリアに属する一部のAE評価値を参照して実行され、これによってスルー画像の明るさが厳格に調整される。   In step S73, the aperture amount of the aperture mechanism 14 is adjusted so that the depth of field is set to “D4”. In step S75, the strict AE process is executed in such a manner that the adjusted aperture amount is prioritized. On the other hand, in step S77, the strict AE process is executed in a default mode. Any strict AE process is executed with reference to some AE evaluation values belonging to the AE / AF area, and thereby the brightness of the through image is strictly adjusted.

ステップS79では、AF処理を実行する(詳細は後述)。AF処理が完了すると、シャッタボタン28shが全押しされたか否かをステップS81で判別し、シャッタボタン28shの操作が解除されたか否かをステップS83で判別する。   In step S79, AF processing is executed (details will be described later). When the AF process is completed, it is determined in step S81 whether or not the shutter button 28sh has been fully pressed, and it is determined in step S83 whether or not the operation of the shutter button 28sh has been released.

ステップS83の判別結果がYESであればそのままステップS57に戻り、ステップS81の判別結果がYESであればステップS85で静止画取り込み&記録処理を実行してからステップS57に戻る。ステップS85の処理の結果、シャッタボタン28shが全押しされた時点の被写界を表す1フレームの画像データが静止画エリア32dに取り込まれ、取り込まれた画像データがメモリI/F40によって記録媒体42に記録される。   If the determination result of step S83 is YES, it will return to step S57 as it is, and if the determination result of step S81 is YES, it will perform a still image taking & recording process in step S85, and then will return to step S57. As a result of the processing in step S85, one frame of image data representing the scene at the time when the shutter button 28sh is fully pressed is captured in the still image area 32d, and the captured image data is stored in the recording medium 42 by the memory I / F 40. To be recorded.

ステップS79のAF処理は、図22〜図24に示すサブルーチンに従って実行される。ステップS91では、現時点のAFモードが通常AFモードおよび眼優先AFモードのいずれであるかを判別する。また、ステップS93では、フラグFLG_Fが“1”でかつ顔枠の最大サイズが閾値TH_SZ以上であるという論理積条件が満足されるか否かを判別する。   The AF process in step S79 is executed according to a subroutine shown in FIGS. In step S91, it is determined whether the current AF mode is the normal AF mode or the eye priority AF mode. In step S93, it is determined whether or not a logical product condition that the flag FLG_F is “1” and the maximum size of the face frame is equal to or larger than the threshold value TH_SZ is satisfied.

ステップS91の判別結果およびステップS93の判別結果の少なくとも一方がNOであれば、ステップS103で通常AF処理を実行する。通常AF処理は、AF評価回路24から出力された4096個のAF評価値のうちAE/AFエリアに属する一部のAF評価値を参照して実行される。フォーカスレンズ12は、参照されたAF評価値の総和が最大となる位置に配置され、これによってAE/AFエリアに属する画像の鮮鋭度が向上する。ステップS103の処理が完了すると、上階層のルーチンに復帰する。   If at least one of the determination result in step S91 and the determination result in step S93 is NO, the normal AF process is executed in step S103. The normal AF process is executed with reference to some AF evaluation values belonging to the AE / AF area among the 4096 AF evaluation values output from the AF evaluation circuit 24. The focus lens 12 is disposed at a position where the sum of the referred AF evaluation values is maximized, thereby improving the sharpness of an image belonging to the AE / AF area. When the process of step S103 is completed, the process returns to the upper layer routine.

ステップS91の判別結果およびステップS93の判別結果のいずれもがYESであれば、ステップS95に進む。ステップS95では、レジスタRGSToutに登録された1または2以上の顔枠の中から最大サイズを有する顔枠を特定し、特定された顔枠に付随する顔辞書番号に基づいて最大サイズの顔枠に属する顔の向きを検出する。ステップS97では、こうして検出された顔の向きが撮像面に向かって正面であるか否かを判別し、判別結果がYESであればステップS99に進む一方、判別結果がNOであればステップS109に進む。   If both the determination result in step S91 and the determination result in step S93 are YES, the process proceeds to step S95. In step S95, the face frame having the maximum size is identified from one or more face frames registered in the register RGSTout, and the face frame number of the maximum size is determined based on the face dictionary number attached to the identified face frame. The direction of the face to which it belongs is detected. In step S97, it is determined whether or not the direction of the face thus detected is the front side toward the imaging surface. If the determination result is YES, the process proceeds to step S99. If the determination result is NO, the process proceeds to step S109. move on.

ステップS99では、最大サイズの顔枠に属する顔画像から両眼を探索する。探索にあたっては、眼部探索エリアが図9(A)に示す要領で顔画像上に設定され、図10に示す眼部辞書DC_EYにおいてEY=1に割り当てられた4つの辞書画像が参照される。これによって探知された眼部のサイズおよび位置は、図11に示すレジスタRGSTeyに設定される。   In step S99, both eyes are searched from the face image belonging to the face frame of the maximum size. In the search, an eye search area is set on the face image in the manner shown in FIG. 9A, and four dictionary images assigned EY = 1 in the eye dictionary DC_EY shown in FIG. 10 are referred to. The size and position of the eye part detected in this way are set in the register RGSTey shown in FIG.

ステップS101では、左眼および右眼の少なくとも一方が探知されたか否かを、レジスタRGSTeyを参照して判別する。判別結果がNOであればステップS103の通常AF処理を経て上階層のルーチンに復帰し、判別結果がYESであればステップS105に進む。   In step S101, whether or not at least one of the left eye and the right eye has been detected is determined with reference to the register RGSKey. If the determination result is NO, the process returns to the upper hierarchy routine through the normal AF process in step S103, and if the determination result is YES, the process proceeds to step S105.

ステップS105では、探知結果に基づいて左眼および右眼の一方を主要合焦対象として指定する。両方の眼部が探知されたときは、サイズが大きい方の眼部が主要合焦対象として指定される。また、一方の眼部しか探知されなかったときは、探知された眼部が主要合焦対象として指定される。ステップS107では、他方の眼部を2次合焦対象として指定する。一方の眼部しか探知されなかったときは、顔画像上に設定された眼部探索エリアの位置と探知された眼部の位置とに基づいて、他方の眼部が推定される。ステップS107の処理が完了すると、図24に示すステップS127に進む。   In step S105, one of the left eye and the right eye is designated as the main focusing target based on the detection result. When both eye parts are detected, the eye part with the larger size is designated as the main focusing object. When only one eye is detected, the detected eye is designated as a main focus target. In step S107, the other eye is designated as a secondary focusing target. When only one eye is detected, the other eye is estimated based on the position of the eye search area set on the face image and the detected position of the eye. When the process of step S107 is completed, the process proceeds to step S127 shown in FIG.

ステップS97の判別結果がNOであるときに移行するステップS109では、ステップS95で検出された顔の向きを参照して至近側の眼部を選択する。顔の向きが撮像面に向かって左であれば右眼が選択され、顔の向きが撮像面に向かって右であれば左眼が選択される。ステップS111では、こうして選択された眼部を探索する。   In step S109, which is shifted when the determination result in step S97 is NO, the closest eye part is selected with reference to the face orientation detected in step S95. The right eye is selected if the face direction is left toward the imaging plane, and the left eye is selected if the face direction is right toward the imaging plane. In step S111, the eye part thus selected is searched.

右眼を探索する場合、眼部探索エリアは図9(B),図9(C)または図9(D)に示す要領で顔画像上に設定され、図10に示す眼部辞書DC_EYにおいてEY=2,3または4に割り当てられた2つの辞書画像が参照される。左眼を探索する場合、眼部探索エリアは図9(E),図9(F)または図9(G)に示す要領で顔画像上に設定され、図10に示す眼部辞書DC_EYにおいてEY=5,6または7に割り当てられた2つの辞書画像が参照される。   When searching for the right eye, the eye search area is set on the face image in the manner shown in FIG. 9B, FIG. 9C, or FIG. 9D, and EY in the eye dictionary DC_EY shown in FIG. Two dictionary images assigned to = 2, 3 or 4 are referred to. When searching for the left eye, the eye search area is set on the face image in the manner shown in FIG. 9 (E), FIG. 9 (F), or FIG. 9 (G), and in the eye dictionary DC_EY shown in FIG. Two dictionary images assigned to = 5, 6 or 7 are referenced.

右眼および左眼のいずれを探索する場合でも、眼部探索エリアの設定要領および参照すべき辞書画像は顔の向きに従う。また、探知された眼部のサイズおよび位置は、図11に示すレジスタRGSTeyに設定される。   When searching for either the right eye or the left eye, the setting procedure of the eye part search area and the dictionary image to be referred to follow the face orientation. Further, the detected size and position of the eye are set in the register RGSTey shown in FIG.

ステップS113では、選択された眼部が探知されたか否かをレジスタRGSTeyを参照して判別し、判別結果がNOであればステップS115の通常AF処理を経て上階層のルーチンに復帰する一方、判別結果がYESであればステップS117に進む。ステップS117では、選択された眼部を主要合焦対象として指定する。ステップS119では、ステップS95で検出された顔の向きが真横(または略真横)であるか否かを判別し、判別結果がYESであればステップS121〜S123の処理を経てステップS127に進む一方、判別結果がNOであればステップS125の処理を経てステップS127に進む。   In step S113, it is determined whether or not the selected eye part has been detected by referring to the register RGSTey. If the determination result is NO, the routine returns to the upper-level routine through the normal AF process in step S115, while the determination is made. If a result is YES, it will progress to step S117. In step S117, the selected eye is designated as the main focus target. In step S119, it is determined whether or not the face orientation detected in step S95 is right side (or substantially right side). If the determination result is YES, the process proceeds to step S127 through steps S121 to S123, If a determination result is NO, it will progress to Step S127 through processing of Step S125.

ステップS121では、最大サイズの顔枠に属する顔画像から鼻部を探索する。探索にあたっては、鼻部探索エリアが図12(A),図12(B),図12(C),図12(D),図12(E),図12(F)または図12(G)に示す要領で顔画像上に設定され、図13に示す鼻部辞書DC_NSにおいてNS=1,2,3,4,5,6または7に割り当てられた辞書画像が参照される。上述と同様、鼻部探索エリアの設定要領および参照すべき辞書画像は、顔の向きに従う。また、探知された鼻部のサイズおよび位置は、図14に示すレジスタRGSTnsに設定される。ステップS123では、レジスタRGSTnsを参照して、探知された鼻部の付け根を2次合焦対象として指定する。   In step S121, the nose part is searched from the face image belonging to the face frame of the maximum size. In the search, the nose search area is shown in FIG. 12 (A), FIG. 12 (B), FIG. 12 (C), FIG. 12 (D), FIG. 12 (E), FIG. The dictionary image set on the face image in the manner shown in FIG. 13 and assigned to NS = 1, 2, 3, 4, 5, 6 or 7 in the nose dictionary DC_NS shown in FIG. As described above, the setting procedure of the nose portion search area and the dictionary image to be referenced follow the face orientation. The detected size and position of the nose are set in the register RGSTns shown in FIG. In step S123, the detected root of the nose is designated as a secondary focusing target with reference to the register RGSTns.

一方、ステップS125では、左眼および右眼のうちステップS109で選択されなかった眼部つまり非選択眼部を顔画像から検出し、検出された非選択眼部を2次合焦対象として指定する。非選択眼部の検出にあたっては、選択された眼部の位置と顔の向きとが参照される。   On the other hand, in step S125, the eye part that is not selected in step S109, that is, the non-selected eye part among the left eye and the right eye is detected from the face image, and the detected non-selected eye part is designated as a secondary focusing target. . In detecting the non-selected eye part, the position of the selected eye part and the orientation of the face are referred to.

ステップS127では絞り機構14を開放し、ステップS129では主要合焦対象に注目したAF処理を実行する。絞り機構14の開放によって、被写界深度は“D2”に変更される。また、主要合焦対象に注目したAF処理によって、至近側の眼部を表す画像の鮮鋭度が向上する。ステップS131では、AF評価回路24から出力された4096個のAF評価値の中から2次合焦対象に対応する一部のAF評価値を抽出し、抽出したAF評価値の総和を算出する。   In step S127, the aperture mechanism 14 is opened, and in step S129, AF processing focusing on the main focus target is executed. By opening the aperture mechanism 14, the depth of field is changed to "D2". In addition, the sharpness of the image representing the close eye side is improved by the AF processing focusing on the main focus target. In step S131, a part of AF evaluation values corresponding to the secondary focusing target is extracted from 4096 AF evaluation values output from the AF evaluation circuit 24, and the sum of the extracted AF evaluation values is calculated.

ステップS133では算出された総和が閾値TH_SM以上であるか否かを判別し、ステップS135では絞り機構14の絞り量が最小であるか否かを判別する。ステップS133の判別結果およびステップS135の判別結果のいずれもがNOであれば、ステップS137で絞り機構14を既定量だけ絞り、その後にステップS131に戻る。ステップS133の判別結果およびステップS135の判別結果のいずれか一方がYESであれば、上階層のルーチンに復帰する。上階層のルーチンに復帰する時点で、被写界深度は“D3”に確定する。   In step S133, it is determined whether or not the calculated sum is equal to or greater than a threshold value TH_SM. In step S135, it is determined whether or not the aperture amount of the aperture mechanism 14 is minimum. If both the determination result in step S133 and the determination result in step S135 are NO, the diaphragm mechanism 14 is throttled by a predetermined amount in step S137, and then the process returns to step S131. If either the determination result in step S133 or the determination result in step S135 is YES, the process returns to the upper-level routine. At the time of returning to the upper layer routine, the depth of field is fixed to “D3”.

以上の説明から分かるように、イメージャ16は、フォーカスレンズ12を通して被写界を捉える撮像面を有し、生画像データを繰り返し出力する。出力された生画像データに基づく探索画像データは、SDRAM32の探索画像エリア32cに書き込まれる。CPU26は、被写界深度を“D1”に設定し(S51)、その後に探索画像エリア32c上の探索画像データから人物の眼部を表す画像を探索する(S55, S1~S45, S93~S95, S109~S111, S117)。眼部画像が探知されると、CPU26は、被写界深度を“D1”よりも浅い“D2”に設定し(S127)、探知された眼部画像に注目したAF処理を実行する(S129)。CPU26はその後、被写界深度を“D1”よりも浅くかつ“D2”よりも深い“D3”に設定する(S131~S137)。   As can be understood from the above description, the imager 16 has an imaging surface for capturing the object scene through the focus lens 12 and repeatedly outputs raw image data. Search image data based on the output raw image data is written in the search image area 32 c of the SDRAM 32. The CPU 26 sets the depth of field to “D1” (S51), and then searches for an image representing the human eye from the search image data on the search image area 32c (S55, S1 to S45, S93 to S95). , S109 ~ S111, S117). When the eye image is detected, the CPU 26 sets the depth of field to “D2”, which is shallower than “D1” (S127), and executes AF processing focusing on the detected eye image (S129). . Thereafter, the CPU 26 sets the depth of field to “D3” which is shallower than “D1” and deeper than “D2” (S131 to S137).

このように、被写界深度は、“D1”→“D3”→“D2”の順で浅くなる。“D1”に対応して眼部画像を探索することで、眼部画像の探知精度が向上する。また、眼部画像の高周波成分に基づくAF処理を“D2”に対応して実行することで、眼部に対する合焦精度が向上する。さらに、AF処理の後に被写界深度を“D3”に設定することで、眼部の近傍における画像の鮮鋭度が向上する。これによって、眼部に注目した撮像性能を高めることができる。   Thus, the depth of field decreases in the order of “D1” → “D3” → “D2”. By searching for the eye image corresponding to “D1”, the detection accuracy of the eye image is improved. In addition, by performing AF processing based on the high-frequency component of the eye part image corresponding to “D2”, the focusing accuracy for the eye part is improved. Furthermore, by setting the depth of field to “D3” after the AF processing, the sharpness of the image in the vicinity of the eye part is improved. As a result, it is possible to improve imaging performance with attention paid to the eye.

なお、この実施例では、被写界深度を“D2”から“D3”に変更するにあたって、2次合焦対象に対応する一部のAF評価値の総和を閾値TH_SMと比較しつつ、絞り機構14を既定量ずつ絞るようにしている(図24のステップS131〜S137参照)。しかし、奥行き方向における主要合焦対象から2次合焦対象までの距離を主要合焦対象に注目したAF処理が完了した時点の合焦距離と顔画像のサイズと顔の向きとに基づいて算出し、算出された距離に基づいて被写界深度を“D3”に調整するようにしてもよい。この場合、図24に示すステップS131〜S137の処理に代えて、図25に示すステップS141〜S145に示す処理が実行される。   In this embodiment, when changing the depth of field from “D2” to “D3”, the diaphragm mechanism is compared with the threshold value TH_SM while comparing the sum of some AF evaluation values corresponding to the secondary focus target. 14 is reduced by a predetermined amount (see steps S131 to S137 in FIG. 24). However, the distance from the main focus target to the secondary focus target in the depth direction is calculated based on the focus distance, the face image size, and the face orientation at the time when the AF processing focusing on the main focus target is completed. Then, the depth of field may be adjusted to “D3” based on the calculated distance. In this case, instead of the processes in steps S131 to S137 shown in FIG. 24, the processes shown in steps S141 to S145 shown in FIG. 25 are executed.

図25を参照して、ステップS141では現時点のフォーカスレンズ12の位置に基づいて合焦距離を算出する。算出される合焦距離は、ディジタルカメラ10から主要合焦対象までの距離に相当する。ステップS143では、ステップS95で特定ないし検出された顔枠のサイズおよび顔の向きとステップS141で算出された合焦距離に基づいて、奥行き方向における主要合焦対象から2次合焦対象までの距離を算出する。ステップS145では、算出された距離を参照して被写界深度を“D3”に調整する。   Referring to FIG. 25, in step S141, the in-focus distance is calculated based on the current position of the focus lens 12. The calculated focus distance corresponds to the distance from the digital camera 10 to the main focus target. In step S143, the distance from the main focus target to the secondary focus target in the depth direction based on the face frame size and face orientation specified or detected in step S95 and the focus distance calculated in step S141. Is calculated. In step S145, the depth of field is adjusted to “D3” with reference to the calculated distance.

ステップS143で注目される2次合焦対象は、顔の向きが斜め前方であれば無限側の眼部となる一方、顔の向きが真横または略真横であれば鼻部の付け根となる。このため、“D3”は、顔の向きが斜め前方であるとき図15に示す要領で調整され、顔の向きが真横または略真横であるとき図16に示す要領で調整される。   The secondary focusing target noticed in step S143 is the infinite eye part if the face direction is diagonally forward, while it is the root of the nose part if the face direction is just beside or almost beside. For this reason, “D3” is adjusted in the manner shown in FIG. 15 when the face orientation is diagonally forward, and is adjusted in the manner shown in FIG. 16 when the face orientation is right side or substantially right side.

ただし、顔の向きが真横または略真横であるときにディジタルカメラ10から至近側の眼部までの距離と顔画像のサイズとに基づいて無限側の眼部の位置を推定し、深度の限界が推定された位置と一致するように被写界深度を調整するようにしてもよい。この場合、“D3”は図26に示す要領で設定される。   However, the position of the infinite eye part is estimated based on the distance from the digital camera 10 to the close eye part and the size of the face image when the face direction is right side or substantially right side, and the depth limit is limited. The depth of field may be adjusted to coincide with the estimated position. In this case, “D3” is set as shown in FIG.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ42に予め記憶される。しかし、図27に示すように通信I/F48をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ42に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 42 in advance. However, as shown in FIG. 27, a communication I / F 48 is provided in the digital camera 10, and some control programs are prepared in the flash memory 42 from the beginning as internal control programs, while other control programs are prepared as external control programs. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU26によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   Furthermore, in this embodiment, the processing executed by the CPU 26 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
12 …フォーカスレンズ
14 …絞り機構
16 …イメージャ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
44 …フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 12 ... Focus lens 14 ... Aperture mechanism 16 ... Imager 22 ... AE evaluation circuit 24 ... AF evaluation circuit 26 ... CPU
32 ... SDRAM
44 ... Flash memory

Claims (11)

フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段、
前記撮像手段から出力された被写界像から特定物体像を探索する探索手段、
前記探索手段の処理に先立って被写界深度を第1深度に設定する第1設定手段、
前記探索手段の探知に応答して前記被写界深度を前記第1深度よりも浅い第2深度に設定する第2設定手段、
前記フォーカスレンズから前記撮像面までの距離を前記探索手段によって探知された特定物体像の高周波成分に基づいて調整する第1調整手段、および
前記被写界深度を前記第1調整手段の処理の後に前記第1深度よりも浅くかつ前記第2深度よりも深い第3深度に設定する第3設定手段を備える、電子カメラ。
An imaging means having an imaging surface for capturing the object scene through the focus lens and repeatedly outputting the object scene image;
Search means for searching for a specific object image from the object scene image output from the imaging means;
A first setting means for setting a depth of field to a first depth prior to the processing of the search means;
Second setting means for setting the depth of field to a second depth shallower than the first depth in response to detection by the search means;
First adjusting means for adjusting a distance from the focus lens to the imaging surface based on a high-frequency component of the specific object image detected by the searching means; and the depth of field after the processing of the first adjusting means An electronic camera comprising third setting means for setting a third depth that is shallower than the first depth and deeper than the second depth.
前記被写界深度を定義する絞り機構をさらに備え、
前記第2深度は前記絞り機構の開放によって得られる深度に相当する、請求項1記載の電子カメラ。
A diaphragm mechanism for defining the depth of field;
The electronic camera according to claim 1, wherein the second depth corresponds to a depth obtained by opening the aperture mechanism.
前記特定物体像は顔を形成する2つの眼部のうち至近側の眼部に相当し、
前記探索手段は、前記被写界像から顔画像を探索する顔画像探索手段、前記顔画像探索手段によって探知された顔画像の向きを特定する顔向き特定手段、および前記顔向き特定手段によって特定された向きを参照して前記至近側の眼部を検出する眼部検出手段を含む、請求項1または2記載の電子カメラ。
The specific object image corresponds to a close eye part of two eye parts forming a face,
The search means is specified by a face image search means for searching for a face image from the object scene image, a face orientation specifying means for specifying the orientation of the face image detected by the face image search means, and the face orientation specifying means. The electronic camera according to claim 1, further comprising an eye part detection unit that detects the close eye part with reference to the orientation of the eye.
前記顔向き特定手段によって特定された向きが無限側の眼部が隠れる向きであるか否かを判別する判別手段、
前記判別手段の判別結果が肯定的であるとき鼻部に相当する領域を注目領域として指定する第1指定手段、および
前記判別手段の判別結果が否定的であるとき前記無限側の眼部に相当する領域を前記注目領域として指定する第2指定手段をさらに備え、
前記第3深度は前記撮像手段から出力された被写界像のうち前記注目領域に属する部分画像の高周波成分が既定条件を満足する深度に相当する、請求項3記載の電子カメラ。
A discriminating unit for discriminating whether or not the direction specified by the face direction specifying unit is a direction in which the infinite eye part is hidden;
When the discrimination result of the discrimination means is affirmative, first designation means for designating a region corresponding to the nose as a region of interest, and when the discrimination result of the discrimination means is negative, it corresponds to the infinite eye portion A second designating unit for designating a region to be designated as the region of interest;
The electronic camera according to claim 3, wherein the third depth corresponds to a depth at which a high-frequency component of a partial image belonging to the region of interest among the object scene image output from the imaging unit satisfies a predetermined condition.
前記第1指定手段によって指定される領域は前記鼻部の付け根の領域である、請求項4記載の電子カメラ。   The electronic camera according to claim 4, wherein the area specified by the first specifying means is a base area of the nose. 前記顔画像探索手段の探知に応答して前記被写界深度を前記第1深度よりも浅くかつ前記第2深度よりも深い第4深度に設定する第4設定手段をさらに備える、請求項3ないし5のいずれかに記載の電子カメラ。   4. The apparatus further comprises fourth setting means for setting the depth of field to a fourth depth that is shallower than the first depth and deeper than the second depth in response to detection by the face image search means. The electronic camera according to any one of 5. 前記フォーカスレンズから前記撮像面までの距離を既定要領で調整する第2調整手段、および
前記眼部検出手段の非検出に応答して前記第2調整手段を起動する起動手段をさらに備える、請求項3ないし6のいずれかに記載の電子カメラ。
The apparatus further comprises: a second adjustment unit that adjusts a distance from the focus lens to the imaging surface in a predetermined manner; and an activation unit that activates the second adjustment unit in response to non-detection of the eye part detection unit. The electronic camera according to any one of 3 to 6.
フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに、
前記撮像手段から出力された被写界像から特定物体像を探索する探索ステップ、
前記探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ、
前記探索ステップの探知に応答して前記被写界深度を前記第1深度よりも浅い第2深度に設定する第2設定ステップ、
前記フォーカスレンズから前記撮像面までの距離を前記探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ、および
前記被写界深度を前記調整ステップの処理の後に前記第1深度よりも浅くかつ前記第2深度よりも深い第3深度に設定する第3設定ステップを実行させるための、撮像制御プログラム。
To the processor of an electronic camera that has an imaging surface that captures the scene through the focus lens and that has imaging means for repeatedly outputting the scene image,
A search step for searching for a specific object image from the object scene image output from the imaging means;
A first setting step for setting a depth of field to a first depth prior to the processing of the searching step;
A second setting step for setting the depth of field to a second depth shallower than the first depth in response to detection in the searching step;
An adjusting step of adjusting a distance from the focus lens to the imaging surface based on a high frequency component of the specific object image detected by the searching step; and the depth of field after the processing of the adjusting step An imaging control program for executing a third setting step for setting a third depth that is shallower than the second depth and deeper than the second depth.
フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
前記撮像手段から出力された被写界像から特定物体像を探索する探索ステップ、
前記探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ、
前記探索ステップの探知に応答して前記被写界深度を前記第1深度よりも浅い第2深度に設定する第2設定ステップ、
前記フォーカスレンズから前記撮像面までの距離を前記探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ、および
前記被写界深度を前記調整ステップの処理の後に前記第1深度よりも浅くかつ前記第2深度よりも深い第3深度に設定する第3設定ステップを備える、撮像制御方法。
An imaging control method executed by an electronic camera having an imaging surface that captures an object scene through a focus lens and having an imaging unit that repeatedly outputs an object scene image,
A search step for searching for a specific object image from the object scene image output from the imaging means;
A first setting step for setting a depth of field to a first depth prior to the processing of the searching step;
A second setting step for setting the depth of field to a second depth shallower than the first depth in response to detection in the searching step;
An adjusting step of adjusting a distance from the focus lens to the imaging surface based on a high frequency component of the specific object image detected by the searching step; and the depth of field after the processing of the adjusting step An imaging control method comprising a third setting step of setting a third depth that is shallower than the second depth and deeper than the second depth.
フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
前記撮像手段から出力された被写界像から特定物体像を探索する探索ステップ、
前記探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ、
前記探索ステップの探知に応答して前記被写界深度を前記第1深度よりも浅い第2深度に設定する第2設定ステップ、
前記フォーカスレンズから前記撮像面までの距離を前記探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ、および
前記被写界深度を前記調整ステップの処理の後に前記第1深度よりも浅くかつ前記第2深度よりも深い第3深度に設定する第3設定ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
External control supplied to an electronic camera having an imaging surface that captures an object scene through a focus lens and that repeatedly outputs an image of the object scene and a processor that executes a process according to an internal control program stored in a memory A program,
A search step for searching for a specific object image from the object scene image output from the imaging means;
A first setting step for setting a depth of field to a first depth prior to the processing of the searching step;
A second setting step for setting the depth of field to a second depth shallower than the first depth in response to detection in the searching step;
An adjusting step of adjusting a distance from the focus lens to the imaging surface based on a high frequency component of the specific object image detected by the searching step; and the depth of field after the processing of the adjusting step An external control program for causing the processor to execute a third setting step for setting a third depth that is shallower than the second depth and deeper than the second depth in cooperation with the internal control program.
フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を繰り返し出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
前記撮像手段から出力された被写界像から特定物体像を探索する探索ステップ、
前記探索ステップの処理に先立って被写界深度を第1深度に設定する第1設定ステップ、
前記探索ステップの探知に応答して前記被写界深度を前記第1深度よりも浅い第2深度に設定する第2設定ステップ、
前記フォーカスレンズから前記撮像面までの距離を前記探索ステップによって探知された特定物体像の高周波成分に基づいて調整する調整ステップ、および
前記被写界深度を前記調整ステップの処理の後に前記第1深度よりも浅くかつ前記第2深度よりも深い第3深度に設定する第3設定ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
An imaging means having an imaging surface for capturing the object scene through the focus lens and repeatedly outputting the object scene image;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and an internal control program stored in a memory,
The external control program is
A search step for searching for a specific object image from the object scene image output from the imaging means;
A first setting step for setting a depth of field to a first depth prior to the processing of the searching step;
A second setting step for setting the depth of field to a second depth shallower than the first depth in response to detection in the searching step;
An adjusting step of adjusting a distance from the focus lens to the imaging surface based on a high frequency component of the specific object image detected by the searching step; and the depth of field after the processing of the adjusting step An electronic camera corresponding to a program that executes a third setting step for setting a third depth that is shallower and deeper than the second depth in cooperation with the internal control program.
JP2011008200A 2011-01-18 2011-01-18 Electronic camera Withdrawn JP2012150236A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011008200A JP2012150236A (en) 2011-01-18 2011-01-18 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011008200A JP2012150236A (en) 2011-01-18 2011-01-18 Electronic camera

Publications (1)

Publication Number Publication Date
JP2012150236A true JP2012150236A (en) 2012-08-09

Family

ID=46792544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011008200A Withdrawn JP2012150236A (en) 2011-01-18 2011-01-18 Electronic camera

Country Status (1)

Country Link
JP (1) JP2012150236A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105022137A (en) * 2014-04-30 2015-11-04 聚晶半导体股份有限公司 Automatic focusing system applying multiple lenses and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105022137A (en) * 2014-04-30 2015-11-04 聚晶半导体股份有限公司 Automatic focusing system applying multiple lenses and method thereof

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
JP4974812B2 (en) Electronic camera
JP2011010275A (en) Image reproducing apparatus and imaging apparatus
JP2008061157A (en) Camera
JP2011514563A (en) Face tracking in camera processor
JP5166370B2 (en) Imaging apparatus and imaging method
JP2012103979A (en) Image processing apparatus
JP2012247533A (en) Electronic camera
JP4506779B2 (en) Imaging apparatus and program
JP2007067934A (en) Imaging apparatus and its control method
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP5485712B2 (en) Electronic camera
JP5865120B2 (en) Electronic camera
JP2012155044A (en) Electronic camera
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5785034B2 (en) Electronic camera
JP2012074894A (en) Electronic camera
JP2012150236A (en) Electronic camera
US20130050785A1 (en) Electronic camera
JP2011223181A (en) Electronic camera
JP2011078041A (en) Image processing apparatus and electronic camera
JP2013141104A (en) Imaging apparatus
JP2009077175A (en) Electronic camera
JP2011101202A (en) Electronic camera
US20120148095A1 (en) Image processing apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140401