JP2009139423A - Imaging apparatus and subject distance calculating method - Google Patents

Imaging apparatus and subject distance calculating method Download PDF

Info

Publication number
JP2009139423A
JP2009139423A JP2007312596A JP2007312596A JP2009139423A JP 2009139423 A JP2009139423 A JP 2009139423A JP 2007312596 A JP2007312596 A JP 2007312596A JP 2007312596 A JP2007312596 A JP 2007312596A JP 2009139423 A JP2009139423 A JP 2009139423A
Authority
JP
Japan
Prior art keywords
image
amount
subject distance
image data
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007312596A
Other languages
Japanese (ja)
Inventor
Shoichiro Sakamoto
昇一郎 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007312596A priority Critical patent/JP2009139423A/en
Publication of JP2009139423A publication Critical patent/JP2009139423A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Stroboscope Apparatuses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup apparatus and a subject distance calculating method by which a subject distance can be calculated by utilizing an existing mechanism without using a special means. <P>SOLUTION: When a through-image is captured, camera shake (shift shake (X-shift, Y-shift)) and rotation shake (yaw pitch) are detected by a sensor and the like. At the same time as this, an amount of movement, which is an amount of difference between image data before and after the camera shake, is detected. The effect of rotation shake is removed from the amount of movement. Based on the amount of movement obtained from image data from which the effect of the rotation shake is removed, the shift shake, and a focal distance, the distance of a subject is calculated, thereby capturing distance measurement information by the use of an existing mechanism with no cost. The calculated distance of the subject is used for limiting an AF search range or adjusting a quantity of light suitable for flash. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は撮像装置及び被写体距離算出方法に係り、特に特別な手段を用いることなく被写体距離を推定可能な撮像装置及び被写体距離算出方法に関する。   The present invention relates to an imaging device and a subject distance calculation method, and more particularly to an imaging device and a subject distance calculation method that can estimate a subject distance without using special means.

特許文献1には、手ブレ補正用のレンズ駆動機構を利用して、位相の異なる画像を取得し、レンズ駆動量、画像相関量、焦点距離より被写体までの距離を算出する技術が記載されている。   Patent Document 1 describes a technique for acquiring images with different phases using a lens driving mechanism for camera shake correction, and calculating a distance to a subject from a lens driving amount, an image correlation amount, and a focal length. Yes.

特許文献2には、ある任意の焦点レンズ位置にて撮像したフレームの第1のAFエリア画像と、焦点レンズを微小移動して撮像したフレームの第2のAFエリア画像とを取得し、第1のAFエリア画像及び第2のAFエリア画像の点像分布係数を求め、第1のAFエリア画像の点像半径と、第2のAFエリア画像の点像半径とから焦点位置及び焦点方向を算出する技術が記載されている。   In Patent Document 2, a first AF area image of a frame imaged at a certain arbitrary focus lens position and a second AF area image of a frame imaged by moving the focus lens slightly are acquired. The point spread coefficients of the AF area image and the second AF area image are obtained, and the focal position and direction are calculated from the point image radius of the first AF area image and the point image radius of the second AF area image. The technology to do is described.

特許文献3には、複数の撮像手段を有し、それぞれの撮像手段で撮影された画像の位相差と、基線長と、焦点距離とに基づいて被写体までの距離を算出する技術が記載されている。
特開2002―296491号公報 特開2000―199845号公報 特開2005―43225号公報
Patent Document 3 describes a technique that includes a plurality of imaging units and calculates a distance to a subject based on a phase difference, a base line length, and a focal length of images captured by the respective imaging units. Yes.
JP 2002-296491 A JP 2000-199845 A Japanese Patent Laid-Open No. 2005-43225

しかしながら、上記特許文献1に記載の技術においては、レンズを大きく移動させて位相差のある画像を取得するため、ライブビュー画像(スルー画)が大きくブレて表示されてしまうという問題がある。   However, the technique described in Patent Document 1 has a problem in that a live view image (through image) is displayed in a greatly blurred manner because an image having a phase difference is obtained by moving the lens greatly.

また、特許文献3に記載の技術においては、複数の撮像手段を用いて位相差のある画像を取得するため、複数の撮像手段を備えた装置でないと適用することができないという問題がある。また、複数の撮像手段を備えることにより、装置の大きさが大きくなるという問題がある。   Further, the technique described in Patent Document 3 has a problem that since an image having a phase difference is acquired using a plurality of imaging units, it can only be applied to an apparatus including a plurality of imaging units. In addition, there is a problem that the size of the apparatus becomes large by providing a plurality of imaging means.

なお、特許文献2に記載の技術は、合焦したときのレンズ位置から被写体距離を推定するものであり、直接被写体までの距離を算出することはできない。   Note that the technique described in Patent Document 2 estimates the subject distance from the lens position when focused, and cannot directly calculate the distance to the subject.

本発明はこのような事情に鑑みてなされたもので、特別な手段を用いることなく、既存の機構を利用して被写体距離が算出可能な撮像装置及び被写体距離算出方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an imaging device and a subject distance calculation method capable of calculating a subject distance using an existing mechanism without using a special means. To do.

前記目的を達成するために、請求項1に記載の撮像装置は、撮像装置の撮影光軸と直交する方向のシフト量を検出するシフト量検出手段と、撮影光学系により撮像素子に結像された被写体像の画像データを取得する取得手段と、前記取得手段により取得された画像データから前記シフト量検出手段によって検出された撮像装置のシフト量に伴う前記撮像素子上の画像の動き量を検出する動き量検出手段と、前記動き量検出手段により検出された動き量と、前記シフト量検出手段により検出された撮像装置のシフト量と、前記撮影光学系の焦点距離とに基づいて、被写体距離を算出する被写体距離算出手段と、を備えたことを特徴とする。   In order to achieve the object, the imaging apparatus according to claim 1 forms an image on the imaging element by a shift amount detection unit that detects a shift amount in a direction orthogonal to the imaging optical axis of the imaging apparatus and a shooting optical system. An acquisition unit that acquires image data of a captured subject image, and an amount of movement of an image on the image sensor according to the shift amount of the imaging device detected by the shift amount detection unit from the image data acquired by the acquisition unit Subject distance based on the motion amount detection means, the motion amount detected by the motion amount detection means, the shift amount of the imaging device detected by the shift amount detection means, and the focal length of the photographing optical system Subject distance calculating means for calculating

請求項1に記載の撮像装置によれば、撮像装置のシフト量、すなわち撮像装置のシフトブレ(Xシフト、Yシフト)の方向や量を検出し、撮像装置にシフトブレが発生することにより、撮影光学系により撮像素子に結像された被写体像の画像データに発生する撮像素子上の画像の動き量を検出する。撮像装置のシフト量と、画像データの動き量と、撮影光学系の焦点距離とに基づいて、被写体距離を算出する。これにより、特別な手段を用いることなく、既存の機構を利用して、コストをかけることなく測距情報を取得することができる。   According to the imaging apparatus of the first aspect, the shift amount of the imaging apparatus, that is, the direction and amount of shift blur (X shift, Y shift) of the imaging apparatus is detected, and shift blur occurs in the imaging apparatus, so The amount of movement of the image on the image sensor generated in the image data of the subject image formed on the image sensor by the system is detected. The subject distance is calculated based on the shift amount of the imaging device, the motion amount of the image data, and the focal length of the photographing optical system. Thereby, it is possible to acquire distance measurement information without using a special means and using an existing mechanism without cost.

請求項2に記載の撮像装置は、請求項1に記載の撮像装置において、前記撮像装置の上下、左右方向の回転振れを検出する手ブレ検出手段と、前記手ブレ検出手段によって検出された回転振れに基づいて前記撮影光学系の少なくとも一部の光学部材又は前記撮像素子を駆動し、前記撮像装置の手ブレを補正する手ブレ補正手段と、前記手ブレ補正手段により前記撮像装置の手ブレが補正された画像データを前記取得手段に取得させる画像データ取得制御手段と、を備えたことを特徴とする。   The image pickup apparatus according to claim 2 is the image pickup apparatus according to claim 1, wherein camera shake detection means for detecting rotational shakes in the vertical and horizontal directions of the image pickup apparatus, and rotation detected by the camera shake detection means. Based on the shake, at least a part of the optical member of the photographing optical system or the image pickup device is driven to correct the camera shake of the image pickup apparatus, and the camera shake correction means corrects the camera shake of the image pickup apparatus. And an image data acquisition control unit that causes the acquisition unit to acquire the image data corrected in the above-described manner.

請求項2に記載の撮像装置によれば、移動自在に配設された光学部材又は撮像素子を移動させる機械式の手ブレ補正手段により、撮像素子により取得された画像データから撮像装置の回転ブレによる影響を除去する。回転ブレが除去された画像データを取得して、当該画像データに基づいて被写体距離を算出する。このように、既存の機構である手ブレ補正機構を利用することで、コストをかけることなく測距情報を取得することができる。また、撮像素子により取得された画像データから撮像装置の回転ブレ(ヨー、ピッチ)による影響を除去することで、正確な被写体距離を算出することができる。   According to the image pickup apparatus of the second aspect, the rotational shake of the image pickup apparatus is obtained from the image data acquired by the image pickup element by the mechanical shake correcting unit that moves the optical member or the image pickup element that is movably disposed. Remove the effects of. Image data from which rotational blur is removed is acquired, and a subject distance is calculated based on the image data. In this way, by using the camera shake correction mechanism that is an existing mechanism, distance measurement information can be acquired without cost. In addition, an accurate subject distance can be calculated by removing the influence of rotational blur (yaw, pitch) of the imaging device from the image data acquired by the imaging device.

請求項3に記載の撮像装置は、請求項1又は2に記載の撮像装置において、前記手ブレ検出手段は、前記シフト量検出手段を含むことを特徴とする。   The image pickup apparatus according to claim 3 is the image pickup apparatus according to claim 1 or 2, wherein the camera shake detection means includes the shift amount detection means.

請求項4に記載の撮像装置は、請求項1から3のいずれかに記載の撮像装置において、前記撮像素子により取得された画像データから人物の顔を検出する顔検出手段と、前記顔検出手段により人物の顔が検出された領域の画像データを前記取得手段に取得させる画像データ取得制御手段と、を備えたことを特徴とする。   The imaging device according to claim 4 is the imaging device according to any one of claims 1 to 3, wherein a face detection unit that detects a human face from image data acquired by the imaging device, and the face detection unit. Image data acquisition control means for causing the acquisition means to acquire image data of a region in which a person's face has been detected.

請求項4に記載の撮像装置によれば、撮像素子により取得された画像データから人物の顔を検出し、顔が検出された領域の画像データに基づいて被写体距離を算出する。このように、主要な被写体に基づいて被写体距離を算出することで、正確な測距を行うことができる。   According to the imaging apparatus of the fourth aspect, the face of a person is detected from the image data acquired by the imaging device, and the subject distance is calculated based on the image data of the area where the face is detected. Thus, accurate distance measurement can be performed by calculating the subject distance based on the main subject.

請求項5に記載の撮像装置は、請求項1から4のいずれかに記載の撮像装置において、ライブビュー画像の画像データを前記取得手段に取得させる取得制御手段を備えたことを特徴とする。   An imaging apparatus according to a fifth aspect is the imaging apparatus according to any one of the first to fourth aspects, further comprising an acquisition control unit that causes the acquisition unit to acquire image data of a live view image.

請求項5に記載の撮像装置によれば、ライブビュー画像の画像データに基づいて被写体距離を算出する。このように、被写体距離の算出を撮影前に行うことで、算出された測距情報を撮影時に利用することができる。   According to the imaging device of the fifth aspect, the subject distance is calculated based on the image data of the live view image. Thus, by calculating the subject distance before shooting, the calculated distance measurement information can be used during shooting.

請求項6に記載の撮像装置は、請求項1から5のいずれかに記載の撮像装置において、撮影光学系を焦点調節範囲にわたって移動させ、該撮影光学系が所定量移動するごとに前記撮像素子から画像信号を出力し、該出力された画像信号から求められる被写体のコントラスト成分に基づいて前記撮影光学系の合焦制御を行う自動合焦制御手段であって、前記被写体距離算出手段により算出された被写体距離に基づいて、前記撮影光学系を移動させる範囲を限定して合焦制御を行う自動合焦制御手段を備えたことを特徴とする。   The imaging apparatus according to claim 6 is the imaging apparatus according to any one of claims 1 to 5, wherein the imaging optical system is moved over a focus adjustment range, and the imaging element is moved every time the imaging optical system moves by a predetermined amount. Is an automatic focusing control unit that outputs an image signal from the image signal and performs focusing control of the photographing optical system based on a contrast component of the subject obtained from the output image signal, and is calculated by the subject distance calculating unit. And an automatic focusing control means for performing focusing control by limiting a range in which the photographing optical system is moved based on the subject distance.

請求項6に記載の撮像装置によれば、算出された被写体距離に基づいて限定された焦点調節範囲にわたって撮影光学系を移動させ、該撮影光学系が所定量移動するごとに前記撮像素子から画像信号を出力し、該出力された画像信号から求められる被写体のコントラスト成分に基づいて前記撮影光学系の合焦制御を行う。このように、算出された被写体距離を用いて、焦点調節範囲を限定した合焦制御を行うことにより、合焦制御に要する時間を短縮することができる。また、合焦制御に要する時間を短縮することで、シャッターチャンスを逃すことなく、操作者の意図に沿った画像を撮影することができる。   According to the imaging device of the sixth aspect, the imaging optical system is moved over a limited focus adjustment range based on the calculated subject distance, and an image is captured from the imaging element each time the imaging optical system moves by a predetermined amount. A signal is output, and focusing control of the photographing optical system is performed based on the contrast component of the subject obtained from the output image signal. In this way, by using the calculated subject distance and performing focus control with a limited focus adjustment range, the time required for focus control can be shortened. Further, by shortening the time required for focusing control, it is possible to capture an image according to the operator's intention without missing a photo opportunity.

請求項7に記載の撮像装置は、請求項1から6のいずれかに記載の撮像装置において、フラッシュ光源と、前記被写体距離算出手段により算出された被写体距離に基づいて前記フラッシュ光源の発光を制御する発光制御手段と、を備えたことを特徴とする。   The imaging device according to claim 7 controls the light emission of the flash light source based on the flash light source and the subject distance calculated by the subject distance calculation means in the imaging device according to any one of claims 1 to 6. And a light emission control means.

請求項7に記載の撮像装置によれば、画像データの平行移動量と、撮像装置の平行移動の方向及び量と、焦点距離とに基づいて算出された被写体距離に基づいて、フラッシュ光源の発光を制御する。これにより、被写体距離に応じて適切な光量のフラッシュを被写体に照射することができる。また、被写体距離が近距離の場合には、フラッシュを発光させることにより白トビを防ぐことができる。   According to the imaging device of claim 7, the flash light source emits light based on the subject distance calculated based on the parallel movement amount of the image data, the direction and amount of the parallel movement of the imaging device, and the focal length. To control. Thereby, the subject can be irradiated with a flash having an appropriate amount of light according to the subject distance. Further, when the subject distance is a short distance, white stripes can be prevented by emitting a flash.

請求項8に記載の撮像装置は、請求項7に記載の撮像装置において、前記被写体距離算出手段により算出された被写体距離に基づいて前記フラッシュ光源からの光が被写体に届くか否かを判断する判断手段と、前記判断手段により前記フラッシュ光源からの光が被写体に届かないと判断された場合に警告を行う警告手段と、を備えたことを特徴とする。   An imaging apparatus according to an eighth aspect of the present invention is the imaging apparatus according to the seventh aspect, wherein the light from the flash light source reaches the subject based on the subject distance calculated by the subject distance calculating means. And a warning unit that issues a warning when the determination unit determines that the light from the flash light source does not reach the subject.

請求項8に記載の撮像装置によれば、フラッシュ光源からの光が被写体に届くか否かを判断し、届かない場合には撮影者に警告を行う。これにより、適切なフラッシュ撮影を行うことができる。   According to the imaging apparatus of the eighth aspect, it is determined whether or not the light from the flash light source reaches the subject, and if not, the photographer is warned. Thereby, appropriate flash photography can be performed.

請求項9に記載の被写体距離算出方法は、撮像装置の平行移動及び回動の方向及び量を検出するステップと、該撮像装置の平行移動及び回動の方向及び量の検出と同期して、撮影光学系により撮像素子に結像された被写体像の画像データを取得するステップと、該検出された撮像装置の回動の方向及び量に基づいて、前記取得された画像データから前記撮像装置の回動による影響を除去するステップと、前記撮像装置の回動による影響が除去された画像データの平行移動量であって、先行する画像に対する後続の画像の平行移動量を検出するステップと、該検出された平行移動量と、前記検出された前記撮像装置の平行移動の方向及び量と、前記撮影光学系の焦点距離とに基づいて、被写体距離を算出するステップと、を含むことを特徴とする。   The subject distance calculation method according to claim 9, in synchronization with the step of detecting the direction and amount of translation and rotation of the imaging device, and the detection of the direction and amount of translation and rotation of the imaging device, Based on the step of acquiring image data of the subject image formed on the image sensor by the imaging optical system and the detected direction and amount of rotation of the imaging device, Removing the influence of rotation, detecting the parallel movement amount of the image data from which the influence of the rotation of the imaging device has been removed, and detecting the parallel movement amount of the subsequent image with respect to the preceding image; Calculating a subject distance based on the detected parallel movement amount, the detected direction and amount of the parallel movement of the imaging device, and the focal length of the photographing optical system, You .

本発明によれば、特別な手段を用いることなく、既存の機構を利用して被写体距離を算出することができる。   According to the present invention, the subject distance can be calculated using an existing mechanism without using any special means.

以下、添付図面に従って本発明に係るカメラを実施するための最良の形態について詳細に説明する。   The best mode for carrying out a camera according to the present invention will be described below in detail with reference to the accompanying drawings.

<第1の実施の形態>
図1は本発明に係る電子機器の一実施形態を示す正面斜視図であり、図2はその背面斜視図である。この電子機器は、レンズを通った光を撮像素子で受け、デジタル信号に変換して記録メディアに記録するデジタルカメラである。
<First Embodiment>
FIG. 1 is a front perspective view showing an embodiment of an electronic apparatus according to the present invention, and FIG. 2 is a rear perspective view thereof. This electronic device is a digital camera that receives light passing through a lens with an imaging device, converts the light into a digital signal, and records it on a recording medium.

デジタルカメラ10のカメラボディ12は、横長の四角い箱状に形成されており、その正面には、図1に示すように、撮影レンズ13、フラッシュ16、AF補助光ランプ18等が設けられており、上面には、シャッターボタン22、モードレバー24、電源ボタン26等が設けられている。また、側面には、開閉自在なスロットカバー11が設けられている。スロットカバー11の内側には、メモリカードを装着するためのメモリカードスロット14が設けられている。   The camera body 12 of the digital camera 10 is formed in a horizontally-long rectangular box shape, and as shown in FIG. 1, a photographing lens 13, a flash 16, an AF auxiliary light lamp 18 and the like are provided on the front surface. On the top surface, a shutter button 22, a mode lever 24, a power button 26, and the like are provided. A slot cover 11 that can be freely opened and closed is provided on the side surface. Inside the slot cover 11, a memory card slot 14 for mounting a memory card is provided.

一方、カメラボディ12の背面には、図2に示すように、モニタ28、ズームボタン30、再生ボタン32、ファンクションボタン34、十字ボタン36、MENU/OKボタン38、DISP/BACKボタン40等が設けられている。   On the other hand, as shown in FIG. 2, a monitor 28, a zoom button 30, a playback button 32, a function button 34, a cross button 36, a MENU / OK button 38, a DISP / BACK button 40, etc. are provided on the back of the camera body 12. It has been.

なお、図示しない底面には、三脚ネジ穴と内側にバッテリを収納するための開閉自在なバッテリカバーとが設けられている。   Note that a bottom surface (not shown) is provided with a tripod screw hole and an openable / closable battery cover for housing the battery inside.

レンズ13は、沈胴式のズームレンズで構成されており、電源ボタン26によってデジタルカメラ10の電源をONすることにより、カメラボディ12から繰り出される。なお、レンズ13のズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。   The lens 13 is constituted by a retractable zoom lens, and is extended from the camera body 12 when the power of the digital camera 10 is turned on by the power button 26. In addition, since the zoom mechanism and the retracting mechanism of the lens 13 are well-known techniques, description of the specific configuration is omitted here.

メモリカードスロット14は、撮影した被写体の画像データ、音声データ等の各種データが記録されているメモリカードを装着するための接続部である。   The memory card slot 14 is a connection unit for mounting a memory card in which various data such as image data and audio data of a photographed subject are recorded.

フラッシュ16は、たとえばキセノン管を光源として構成されており、その発光量を調整可能に形成されている。なお、キセノン管の他、高輝度のLEDを光源としたフラッシュを用いることもできる。   The flash 16 is configured using, for example, a xenon tube as a light source, and is formed so that the amount of light emission can be adjusted. In addition to a xenon tube, a flash using a high-luminance LED as a light source can also be used.

AF補助光ランプ18は、たとえば高輝度LED構成されており、AF時に必要に応じて発光される。   The AF auxiliary light lamp 18 is configured, for example, as a high-intensity LED, and emits light as necessary during AF.

シャッターボタン22は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。デジタルカメラ10は、このシャッターボタン22を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。   The shutter button 22 is composed of a two-stroke switch composed of so-called “half press” and “full press”. When the shutter release button 22 is half-pressed, the digital camera 10 performs shooting preparation processing, that is, each of AE (Automatic Exposure), AF (Auto Focus), and AWB (Automatic White Balance). When the image is processed and fully pressed, the image is captured and recorded.

モードレバー24は、デジタルカメラ10の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、デジタルカメラ10の撮影モードが様々なモードに設定される。例えば、絞り、シャッタースピード等がデジタルカメラ10によって自動的に設定される「オート撮影モード」、動画撮影を行う「動画撮影モード」、人物撮影に適した「人物撮影モード」、動体撮影に適した「スポーツ撮影モード」、風景の撮影に適した「風景撮影モード」、夕景及び夜景の撮影に適した「夜景撮影モード」、絞りの目盛りを撮影者が設定し、シャッタースピードをデジタルカメラ10が自動的に設定する「絞り優先撮影モード」、シャッタースピードを撮影者が設定し、絞りの目盛りをデジタルカメラ10が自動的に設定する「シャッタースピード優先撮影モード」、絞り、シャッタースピード等を撮影者が設定する「マニュアル撮影モード」、手ブレを自動的に検出して補正する「手ブレ補正モード」等である。   The mode lever 24 functions as a shooting mode setting means for setting the shooting mode of the digital camera 10, and the shooting mode of the digital camera 10 is set to various modes according to the setting position of the mode dial. For example, an “auto shooting mode” in which an aperture, a shutter speed, etc. are automatically set by the digital camera 10, a “movie shooting mode” for moving image shooting, a “person shooting mode” suitable for portrait shooting, and a moving subject shooting “Sports shooting mode”, “Scenery shooting mode” suitable for landscape shooting, “Night scene shooting mode” suitable for sunset and night scene shooting, the scale of the aperture is set by the photographer, and the shutter speed is automatically set by the digital camera 10 The photographer sets the “aperture priority shooting mode” to be set automatically, the shutter speed is set by the photographer, and the “shutter speed priority shooting mode” in which the digital camera 10 automatically sets the aperture scale, the aperture, the shutter speed, etc. “Manual shooting mode” to be set, “Camera shake correction mode” for automatically detecting and correcting camera shake.

電源ボタン26は、デジタルカメラ10の電源をON/OFFするのに用いられ、所定時間(たとえば、2秒)押下されることにより、デジタルカメラ10の電源がON/OFFされる。   The power button 26 is used to turn on / off the power of the digital camera 10, and is turned on / off when pressed for a predetermined time (for example, 2 seconds).

モニタ28は、カラー表示が可能な液晶ディスプレイで構成されている。このモニタ28は、再生モード時に撮影済み画像を表示するための画像表示パネルとして利用されるとともに、各種設定操作を行なう際のユーザインターフェース表示パネルとして利用される。また、撮影モード時には、必要に応じてライブビュー画像(スルー画像)が表示されて、画角確認用の電子ファインダとして利用される。   The monitor 28 is composed of a liquid crystal display capable of color display. The monitor 28 is used as an image display panel for displaying a photographed image in the reproduction mode, and is used as a user interface display panel for performing various setting operations. In the shooting mode, a live view image (through image) is displayed as necessary, and is used as an electronic viewfinder for viewing angle confirmation.

ズームボタン30は、撮影レンズ13のズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。   The zoom button 30 is used for a zoom operation of the photographic lens 13 and includes a zoom tele button for instructing zooming to the telephoto side and a zoom wide button for instructing zooming to the wide-angle side.

再生ボタン32は、再生モードへの切り替え指示に用いられる。すなわち、デジタルカメラ10は、撮影中、この再生ボタン32が押されると、再生モードに切り替えられる。また、電源OFFの状態でこの再生ボタン32が押されると、再生モードの状態でデジタルカメラ10が起動する。   The playback button 32 is used for an instruction to switch to the playback mode. That is, the digital camera 10 is switched to the playback mode when the playback button 32 is pressed during shooting. When the playback button 32 is pressed while the power is off, the digital camera 10 is activated in the playback mode.

ファンクションボタン34は、撮影及び再生機能の各種設定画面の呼び出しに用いられる。すなわち、撮影時にこのファンクションボタン34が押されると、モニタ28に画像サイズ(記録画素数)、感度等の設定画面が表示され、再生時にこのファンクションボタン34が押されると、モニタ28に画像の消去、プリント予約(DPOF)の設定画面等が表示される。   The function button 34 is used to call up various setting screens for shooting and playback functions. That is, when this function button 34 is pressed during shooting, a setting screen for image size (number of recorded pixels), sensitivity, etc. is displayed on the monitor 28. When this function button 34 is pressed during playback, the image is erased on the monitor 28. A print reservation (DPOF) setting screen is displayed.

十字ボタン36は、上下左右4方向の指示を入力する方向指示手段として機能し、たとえば、メニュー画面でメニュー項目の選択などに使用される。   The cross button 36 functions as direction instruction means for inputting instructions in four directions, up, down, left, and right, and is used, for example, for selecting a menu item on a menu screen.

MENU/OKボタン38は、各モードの通常画面からメニュー画面への遷移を指示するボタン(MENUボタン)として機能するととともに、選択内容の確定、処理の実行等を指示するボタン(OKボタン)として機能する。   The MENU / OK button 38 functions as a button (MENU button) for instructing transition from the normal screen to the menu screen in each mode, and functions as a button (OK button) for instructing selection confirmation, execution of processing, and the like. To do.

DISP/BACKボタン40は、モニタ28の表示内容の切り替え指示(DISP機能)に用いられるとともに、入力操作のキャンセル等の指示(BACK機能)に用いられ、デジタルカメラ10の設定状態に応じて割り当てられる機能が切り替えられる。
[デジタルカメラ10の内部構成について]
図3は、本実施の形態のデジタルカメラ10の電気的構成を示すブロック図である。同図に示すように、デジタルカメラ10は、CPU110、操作部(シャッターボタン22、モードレバー24、電源ボタン26、ズームボタン30、再生ボタン32、ファンクションボタン34、十字ボタン36、MENU/OKボタン38、DISP/BACKボタン40等)112、ROM114、RAM116、バッファメモリ118、撮影光学系124、絞り/フォーカス/ズーム制御部126、撮像素子128、撮影制御部(タイミングジェネレータ)130、画像信号処理部132、被写体距離算出部134、AE/AWB検出部136、AF検出部138、手ブレ補正制御部140、フラッシュ制御部142、AF補助光ランプ制御部144、画像記録部146、表示制御部150、顔検出部152等で構成されている。
The DISP / BACK button 40 is used for a display content switching instruction (DISP function) of the monitor 28 and an instruction for canceling an input operation (BACK function), and is assigned according to the setting state of the digital camera 10. The function is switched.
[Internal configuration of digital camera 10]
FIG. 3 is a block diagram showing an electrical configuration of the digital camera 10 of the present embodiment. As shown in the figure, the digital camera 10 includes a CPU 110, an operation unit (shutter button 22, mode lever 24, power button 26, zoom button 30, play button 32, function button 34, cross button 36, MENU / OK button 38. , DISP / BACK button 40, etc.) 112, ROM 114, RAM 116, buffer memory 118, imaging optical system 124, aperture / focus / zoom control unit 126, image sensor 128, imaging control unit (timing generator) 130, image signal processing unit 132 , Subject distance calculation unit 134, AE / AWB detection unit 136, AF detection unit 138, camera shake correction control unit 140, flash control unit 142, AF auxiliary light lamp control unit 144, image recording unit 146, display control unit 150, face It comprises a detection unit 152 and the like.

CPU110は、デジタルカメラ10の全体の動作を統括制御する制御手段として機能するとともに、各種の演算処理を行う演算手段として機能し、操作部112からの入力に基づき所定の制御プログラムに従ってデジタルカメラ10の各部を制御する。   The CPU 110 functions as a control unit that performs overall control of the overall operation of the digital camera 10, and also functions as a calculation unit that performs various types of calculation processing. The CPU 110 is configured according to a predetermined control program based on an input from the operation unit 112. Control each part.

ROM114には、このCPU110が実行する制御プログラムであるファームウェア、制御に必要な各種データ、カメラ設定値、撮影された画像データ等が記録されている。なお、後述するように、撮影された画像データは、通常メモリカードに記録されるが、ユーザーが選択した場合、メモリカードが装填されていない場合、メモリカードの容量が不足した場合等にはROM114に記録される。   The ROM 114 stores firmware, which is a control program executed by the CPU 110, various data necessary for control, camera setting values, captured image data, and the like. As will be described later, the captured image data is normally recorded on the memory card. However, when the user selects it, the memory card is not loaded, or the memory card has insufficient capacity, the ROM 114 To be recorded.

RAM116は、CPU110の作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。   The RAM 116 is used as a work area for the CPU 110 and as a temporary storage area for image data.

バッファメモリ118は、表示用の画像データ専用の一時記憶領域として利用される。   The buffer memory 118 is used as a temporary storage area dedicated to display image data.

撮影光学系124は、撮影レンズ13、絞り、シャッタを含み、各構成要素は、モータ等のアクチュエータで構成される駆動部に駆動されて動作する。たとえば、撮影レンズ13を構成するフォーカスレンズ群は、フォーカスモータに駆動されて前後方向に移動し、ズームレンズ群は、ズームモータに駆動されて前後方向に移動する。また、絞りは、絞りモータに駆動されて拡縮し、シャッタは、シャッタモータに駆動されて開閉する。   The photographing optical system 124 includes a photographing lens 13, a diaphragm, and a shutter, and each component is operated by being driven by a driving unit configured by an actuator such as a motor. For example, the focus lens group constituting the photographing lens 13 is driven by a focus motor to move in the front-rear direction, and the zoom lens group is driven by the zoom motor to move in the front-rear direction. The diaphragm is driven by a diaphragm motor to expand and contract, and the shutter is driven by a shutter motor to open and close.

動き量検出部120は、先に取得されたスルー画像用の画像データ(先の画像)と、その次に取得されたスルー画象用の画像データ(後の画像)との間の平行移動量を検出する。すなわち、図4に示すように、動き量検出部120は、まず先の画像f(i,j)と後の画像g(i,j)との合成画像f(i,j)+ g(i,j)を作成する。その後、先の画像f(i,j)を少しずつ移動(シフト)させながら、先の画像f(i,j)と後の画像g(i,j)との相関値を算出し、相関値が低くなったときのシフト量を画像の平行移動量、すなわち先の画像f(i,j)と後の画像g(i,j)との間に発生した動き量として検出する。   The motion amount detection unit 120 translates the parallel movement amount between the previously acquired through-image image data (previous image) and the next acquired through-image image data (subsequent image). Is detected. That is, as shown in FIG. 4, the motion amount detection unit 120 firstly combines the previous image f (i, j) with the subsequent image g (i, j) f (i, j) + g (i , j). After that, the correlation value between the previous image f (i, j) and the subsequent image g (i, j) is calculated while moving (shifting) the previous image f (i, j) little by little. Is detected as the amount of movement of the image between the preceding image f (i, j) and the subsequent image g (i, j).

手ブレ量検出部122は、ジャイロセンサ等によりデジタルカメラ10の回動(回転ブレ)を検出し、速度センサ等によりデジタルカメラ10の平行移動(シフトブレ)を検出する。回動ブレとは、図5に示すヨー及びピッチの方向やブレ量(以下、回転ブレ量という)を検出し、加すなわち図5に示すXシフト及びYシフトの方向やブレ量(以下、シフトブレ量という)を検出する。なお、手ブレ量検出部122に用いられるセンサは、上記に記載のセンサを用いる場合に限らず、様々な手段を用いることができる。   The camera shake amount detection unit 122 detects rotation (rotation blur) of the digital camera 10 with a gyro sensor or the like, and detects parallel movement (shift blur) of the digital camera 10 with a speed sensor or the like. The rotation blur is the direction and blur amount (hereinafter referred to as rotational blur amount) of the yaw and pitch shown in FIG. 5, and is added, that is, the direction and blur amount of X shift and Y shift shown in FIG. ). Note that the sensor used in the camera shake amount detection unit 122 is not limited to the above-described sensor, and various means can be used.

絞り/フォーカス/ズーム制御部126は、CPU110からの指令に応じて撮影光学系124の駆動部を制御し、撮影レンズ13、絞り、シャッタの動作を制御する。   A diaphragm / focus / zoom control unit 126 controls the driving unit of the photographing optical system 124 in accordance with a command from the CPU 110, and controls the operations of the photographing lens 13, the diaphragm, and the shutter.

撮像素子128は、たとえば、所定のカラーフィルタ配列のカラーCCDで構成されており、撮影光学系124によって結像された被写体の画像を電子的に撮像する。   The imaging device 128 is configured by, for example, a color CCD having a predetermined color filter array, and electronically captures an image of a subject formed by the photographing optical system 124.

撮像制御部(タイミングジェネレータ、TG)130は、CPU110からの指令に応じて、この撮像素子128を駆動するためのタイミング信号を出力する。   The imaging control unit (timing generator, TG) 130 outputs a timing signal for driving the imaging element 128 in response to a command from the CPU 110.

画像信号処理部132は、撮像素子128から出力された画像信号に対して相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)を行い、増幅して出力する。画像信号処理部132は所定容量のラインバッファを内蔵しており、出力されたR、G、Bのアナログの画像信号をデジタルの画像信号に変換し、CPU110からの指令に従い、出力された1画像分の画像信号を蓄積して、RAM116に記録する。   The image signal processing unit 132 is for the purpose of reducing correlated double sampling processing (noise (particularly thermal noise) included in the output signal of the image sensor) and the like for the image signal output from the image sensor 128. The process of obtaining accurate pixel data by taking the difference between the feed-through component level and the pixel signal component level included in the output signal for each pixel is amplified, and output. The image signal processing unit 132 has a built-in line buffer with a predetermined capacity, converts the output R, G, B analog image signals into digital image signals, and outputs one image according to a command from the CPU 110. Minute image signals are accumulated and recorded in the RAM 116.

また、画像信号処理部132は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、入力された画像信号に所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成する。   In addition, the image signal processing unit 132 includes a synchronization circuit (a processing circuit that converts a color signal into a simultaneous expression by interpolating a spatial shift of the color signal associated with the color filter array of the single CCD), a white balance correction circuit, A gamma correction circuit, a contour correction circuit, a luminance / color difference signal generation circuit, and the like are included, and the input image signal is subjected to necessary signal processing in accordance with a command from the CPU 110 to obtain luminance data (Y data) and color difference data (Cr, Image data (YUV data) composed of (Cb data).

被写体距離算出部134は、動き量検出部120で検出された動き量と、手ブレ量検出部122で検出されたシフト量と、撮影光学系124の焦点距離とにより、推定被写体距離を算出する。以下、被写体距離算出部134において推定被写体距離を算出する方法について説明する。図6は、推定被写体距離を算出する処理の流れを示すフローチャートであり、図7は、推定被写体距離を算出する場合のデータの流れを示す機能図である。   The subject distance calculation unit 134 calculates the estimated subject distance based on the motion amount detected by the motion amount detection unit 120, the shift amount detected by the camera shake amount detection unit 122, and the focal length of the photographing optical system 124. . Hereinafter, a method for calculating the estimated subject distance in the subject distance calculation unit 134 will be described. FIG. 6 is a flowchart showing a flow of processing for calculating the estimated subject distance, and FIG. 7 is a functional diagram showing a data flow when calculating the estimated subject distance.

スルー画像撮影中(詳細は後述)に発生した手ブレ(回転ブレ及びシフトブレ)を手ブレ量検出部122で検出する(ステップS1)。同時に、手ブレ量検出部122で手ブレが検出された直前と直後に撮像素子128から出力されたスルー画像の画像データを取得し、前の画像と後の画像との間の動き量を動き量検出部120で検出する(ステップS2)。ステップS1で検出された回転ブレ量、シフトブレ量と、動き量検出部120で検出された動き量の情報は、それぞれ被写体距離検出部134に入力される。   Camera shake (rotational shake and shift shake) that occurs during through-image shooting (details will be described later) is detected by the camera shake amount detection unit 122 (step S1). At the same time, the image data of the through image output from the imaging device 128 is acquired immediately before and immediately after the camera shake is detected by the camera shake amount detection unit 122, and the motion amount between the previous image and the subsequent image is moved. The amount is detected by the amount detection unit 120 (step S2). The rotational blur amount and shift blur amount detected in step S1 and the information on the motion amount detected by the motion amount detection unit 120 are input to the subject distance detection unit 134, respectively.

CPU110において、手ブレ補正モードが設定されているかどうかが検出される(ステップS3)。手ブレ補正モードが設定されている場合(ステップS3でYES)には、手ブレ補正制御部140(後述)において、ステップS2で動き量を検出する基となる画像データから回転ブレの影響が除去されているため、そのままステップS5へ進む。   The CPU 110 detects whether or not the camera shake correction mode is set (step S3). When the camera shake correction mode is set (YES in step S3), the camera shake correction control unit 140 (described later) removes the influence of the rotational shake from the image data that is the basis for detecting the motion amount in step S2. Therefore, the process proceeds to step S5 as it is.

手ブレ補正モードが設定されていない場合(ステップS3でNO)には、被写体距離算出部134において、ステップS2で検出された動き量から、ステップS1で検出された回転ブレにより前の画像と後の画像との間ので発生した動き量を除去し(ステップS4)、ステップ5へ進む。   When the camera shake correction mode is not set (NO in step S3), the subject distance calculation unit 134 uses the amount of motion detected in step S2 to detect the previous image and the rear image by the rotational shake detected in step S1. The amount of motion that has occurred between the two images is removed (step S4), and the process proceeds to step 5.

ここで、ステップS3、S4において、動き量から回転ブレによる影響を除去する理由について説明する。図8は、被写体距離が異なる場合における回転ブレ量と動き量との関係を示すグラフであり、図9は被写体距離が異なる場合におけるシフトブレ量と動き量との関係を示すグラフである。   Here, the reason why the influence of the rotational blur is removed from the amount of motion in steps S3 and S4 will be described. FIG. 8 is a graph showing the relationship between the rotational blur amount and the motion amount when the subject distance is different, and FIG. 9 is a graph showing the relationship between the shift blur amount and the motion amount when the subject distance is different.

図8に示すように、回転ブレと動き量とは比例関係にあるが、比例係数は被写体距離によらず一定である。したがって、回転ブレ量と動き量との関係から被写体距離を求めることはできない。それに対し、シフトブレ量と動き量とは比例関係にあり、比例係数は被写体距離によって異なるため、シフトブレ量と動き量とが分かれば被写体距離が算出できる。したがって、ステップS5において用いる動き量は、回転ブレによる影響を除去して、シフトブレのみによる動き量とする必要がある。   As shown in FIG. 8, the rotational blur and the amount of motion are in a proportional relationship, but the proportionality coefficient is constant regardless of the subject distance. Therefore, the subject distance cannot be obtained from the relationship between the rotational blur amount and the motion amount. On the other hand, since the shift blur amount and the motion amount are in a proportional relationship, and the proportionality coefficient varies depending on the subject distance, the subject distance can be calculated if the shift blur amount and the motion amount are known. Therefore, the amount of motion used in step S5 needs to be the amount of motion due to only shift blur by removing the influence of rotational blur.

最後に、ステップS3又はS4により求められたシフトブレによる動き量、ステップS2で検出されたシフトブレ量、及び絞り/フォーカス/ズーム制御部126から出力された撮影光学系124の焦点距離により、図9により求められる数式1に基づいて推定被写体距離を算出する(ステップS5)。なお、算出された推定被写体距離は、被写体距離算出部134からCPU110、AF検出部138、フラッシュ制御部142等に出力される。
[数1]
推定被写体距離=f(ズーム値、シフトブレ量、動き量)
=a×(シフトブレ量/動き量)
なお、aは係数であり、ズーム値(撮影光学系124の焦点距離)によって異なる値をとる。
Finally, based on the amount of movement due to the shift blur obtained in step S3 or S4, the shift blur amount detected in step S2, and the focal length of the photographing optical system 124 output from the aperture / focus / zoom control unit 126, FIG. The estimated subject distance is calculated based on the obtained mathematical formula 1 (step S5). The calculated estimated subject distance is output from the subject distance calculation unit 134 to the CPU 110, the AF detection unit 138, the flash control unit 142, and the like.
[Equation 1]
Estimated subject distance = f (zoom value, shift blur amount, motion amount)
= A x (shift blur / motion)
Note that a is a coefficient and takes a different value depending on the zoom value (focal length of the photographing optical system 124).

これにより、特別な機構を用いることなく、既存の機構である手ブレ補正機構を応用することで、コストをかけることなく測距情報を取得することができる。なお、測距に用いる画像データは、デジタルカメラ10が大きく動かされる時、すなわち取得されるスルー画像が安定した画像となる直前に行うことが望ましい。この場合には、スルー画像の動き量が大きくなるため、高い精度で推定被写体距離を算出することができる。   Thereby, it is possible to acquire distance measurement information without incurring costs by applying the camera shake correction mechanism which is an existing mechanism without using a special mechanism. The image data used for distance measurement is desirably performed when the digital camera 10 is largely moved, that is, immediately before the obtained through image becomes a stable image. In this case, since the amount of motion of the through image increases, the estimated subject distance can be calculated with high accuracy.

AE/AWB検出部136は、CPU110からの指令に従い、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出する。たとえば、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。CPU110は、このAE/AWB検出部136から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、算出した撮影EV値と所定のプログラム線図から絞り値とシャッタ速度を決定する。また、AWB制御に必要な物理量として、1画面を複数のエリア(例えば、16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の色別の平均積算値を算出する。CPU110は、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を決定する。   The AE / AWB detection unit 136 calculates a physical quantity necessary for AE control and AWB control from the input image signal in accordance with a command from the CPU 110. For example, as a physical quantity required for AE control, one screen is divided into a plurality of areas (for example, 16 × 16), and an integrated value of R, G, and B image signals is calculated for each divided area. The CPU 110 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB detection unit 136, and calculates an exposure value (shooting EV value) suitable for shooting. Then, an aperture value and a shutter speed are determined from the calculated shooting EV value and a predetermined program diagram. Further, as a physical quantity necessary for AWB control, one screen is divided into a plurality of areas (for example, 16 × 16), and an average integrated value for each color of R, G, and B image signals is calculated for each divided area. . The CPU 110 obtains the ratio of R / G and B / G for each divided area from the obtained R accumulated value, B accumulated value, and G accumulated value, and R of the obtained R / G and B / G values. The light source type is discriminated based on the distribution in the color space of / G and B / G. Then, according to the white balance adjustment value suitable for the determined light source type, for example, the value of each ratio is approximately 1 (that is, the RGB integration ratio is R: G: B≈1: 1: 1 in one screen). Then, a gain value (white balance correction value) for the R, G, and B signals of the white balance adjustment circuit is determined.

AF検出部138は、CPU110からの指令に従い、入力された画像信号からAF制御に必要な物理量を算出する。本実施の形態のデジタルカメラ10では、撮像素子128から得られる画像のコントラストによりAF制御が行われ(いわゆるコントラストAF)、AF検出部138は、入力された画像信号から画像の鮮鋭度を示す焦点評価値を算出する。CPU110は、このAF検出部138で算出される焦点評価値が極大となる位置を検出し、その位置にフォーカスレンズ群を移動させる。すなわち、フォーカスレンズ群を至近から無限遠までの間の所定の範囲(以下、AFサーチ範囲という)において所定のステップで移動させ、各位置で焦点評価値を取得し、得られた焦点評価値が最大の位置を合焦位置として、その位置にフォーカスレンズ群を移動させる。   The AF detection unit 138 calculates a physical quantity necessary for AF control from the input image signal in accordance with a command from the CPU 110. In the digital camera 10 of the present embodiment, AF control is performed based on the contrast of the image obtained from the image sensor 128 (so-called contrast AF), and the AF detection unit 138 shows a focus indicating the sharpness of the image from the input image signal. An evaluation value is calculated. The CPU 110 detects a position where the focus evaluation value calculated by the AF detection unit 138 is maximized, and moves the focus lens group to that position. That is, the focus lens group is moved in a predetermined step (hereinafter referred to as an AF search range) from a close range to infinity, and a focus evaluation value is obtained at each position. The focus lens group is moved to the position where the maximum position is the in-focus position.

手ブレ補正制御部140は、デジタルカメラ10の振れをジャイロセンサにより検出し、撮像素子128を振れと反対方向に移動させることにより、撮像素子128に結像される被写体像の手振れを補正する。   The camera shake correction control unit 140 detects the shake of the digital camera 10 with a gyro sensor, and moves the image sensor 128 in the direction opposite to the shake, thereby correcting the camera shake of the subject image formed on the image sensor 128.

フラッシュ制御部142は、CPU110からの指令に従い、また被写体距離算出部134で算出された被写体距離に応じて、フラッシュ16の発光を制御する。   The flash control unit 142 controls light emission of the flash 16 according to the command from the CPU 110 and according to the subject distance calculated by the subject distance calculation unit 134.

AF補助光ランプ制御部144は、CPU110からの指令に従い、AF補助光ランプ18の発光を制御する。すなわち、CPU110は、AF時に被写体が暗いと判断すると、あるいは、被写体のコントラストが低いと判断すると、AF補助光ランプ制御部144を介してAF補助光ランプ18を発光させ、被写体にAF補助光を照射させてAF制御を実行する。   The AF auxiliary light lamp controller 144 controls the light emission of the AF auxiliary light lamp 18 in accordance with a command from the CPU 110. That is, if the CPU 110 determines that the subject is dark during AF or determines that the subject has a low contrast, the CPU 110 causes the AF auxiliary light lamp 18 to emit light via the AF auxiliary light lamp controller 144 and emits AF auxiliary light to the subject. Irradiate and execute AF control.

画像記録部146は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。また、画像記録部146は、CPU110からの指令に従い、メモリカードスロット14に装填されたメモリカード148に対してデータの読み/書きを制御する。   The image recording unit 146 performs compression processing of a predetermined format on the input image data in accordance with a command from the CPU 110, and generates compressed image data. Further, in accordance with a command from the CPU 110, the input compressed image data is subjected to a decompression process in a predetermined format to generate uncompressed image data. The image recording unit 146 controls reading / writing of data with respect to the memory card 148 loaded in the memory card slot 14 in accordance with a command from the CPU 110.

表示制御部150は、CPU110からの指令に従い、モニタ28への表示を制御する。すなわち、CPU110からの指令に従い、入力された画像信号をモニタ28に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ28に出力するとともに、所定の文字、図形情報をモニタ28に出力する。   The display control unit 150 controls display on the monitor 28 in accordance with a command from the CPU 110. That is, in accordance with a command from the CPU 110, the input image signal is converted into a video signal (for example, NTSC signal, PAL signal, SCAM signal) for display on the monitor 28 and output to the monitor 28. The graphic information is output to the monitor 28.

顔検出部152は、CPU110からの指令に従い、入力された画像データから画像内の顔領域を抽出し、その位置(たとえば、顔領域の重心)を検出する。この顔領域の抽出は、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する。この他、画像から顔領域を抽出する方法としては、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法や、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法、複数の顔の形状をしたテンプレートを用意し、そのテンプレートと画像との相関を計算し、この相関値により顔候補領域とすることで人の顔を抽出する方法等が知られており、これらの方法を用いて抽出することができる。
[デジタルカメラ10の撮影、記録動作及び再生動作について]
電源ボタン26を押下し、デジタルカメラ10の電源を投入すると、デジタルカメラ10は、撮影モードの下で起動する。
The face detection unit 152 extracts a face area in the image from the input image data in accordance with a command from the CPU 110, and detects the position (for example, the center of gravity of the face area). In this face area extraction, for example, skin color data is extracted from an original image, and a cluster of photometric points determined to be in the skin color range is extracted as a face. In addition, as a method for extracting a face area from an image, a method for determining a face area by converting photometric data into hue and saturation, creating a two-dimensional histogram of the converted hue / saturation, and analyzing it. Or a method for extracting a face candidate region corresponding to the shape of a human face and determining the face region from the feature amount in the region, extracting a human face outline from an image, and determining a face region, There are known methods for extracting a human face by preparing a template having the shape of a human face, calculating the correlation between the template and an image, and using the correlation value as a face candidate region. Can be extracted.
[Shooting, recording and playback operations of the digital camera 10]
When the power button 26 is pressed and the power of the digital camera 10 is turned on, the digital camera 10 is activated under the shooting mode.

まず、絞り/フォーカス/ズーム制御部126を介して撮影光学系124の駆動部が駆動され、撮影レンズ13が所定位置まで繰り出される。そして、撮影レンズ13が所定位置まで繰り出されると、撮像素子128によってスルー画像用の撮影が行われ、モニタ28にスルー画像が表示される。すなわち、撮像素子128で連続的に画像が撮像され、その画像信号が連続的に処理されて、スルー画像用の画像データが生成される。生成された画像データは、バッファメモリ118を介して順次表示制御部150に加えられ、表示用の信号形式に変換されて、モニタ28に出力される。これにより、撮像素子128で捉えた画像がモニタ28にスルー表示される。   First, the driving unit of the photographing optical system 124 is driven via the aperture / focus / zoom control unit 126, and the photographing lens 13 is extended to a predetermined position. Then, when the photographing lens 13 is extended to a predetermined position, the imaging element 128 performs photographing for a through image, and the through image is displayed on the monitor 28. That is, images are continuously picked up by the image pickup device 128 and the image signals are continuously processed to generate image data for a through image. The generated image data is sequentially added to the display control unit 150 via the buffer memory 118, converted into a signal format for display, and output to the monitor 28. As a result, the image captured by the image sensor 128 is displayed through on the monitor 28.

それと同時に、撮像素子128で取得されたスルー画像の画像データに基づいて、被写体距離算出部134において推定被写体距離が算出される。顔検出部152において人物の顔が検出された場合には、顔が検出された領域の画像データが被写体距離算出部134に入力され、当該画像データに基づいて推定被写体距離が算出される。このように、主要な被写体に基づいて被写体距離を算出することで、正確な測距を行うことができる。   At the same time, based on the image data of the through image acquired by the image sensor 128, the subject distance calculation unit 134 calculates the estimated subject distance. When a human face is detected by the face detection unit 152, image data of an area where the face is detected is input to the subject distance calculation unit 134, and an estimated subject distance is calculated based on the image data. Thus, accurate distance measurement can be performed by calculating the subject distance based on the main subject.

撮影者は、このモニタ28に表示されたスルー画像を見て構図を決定し、シャッターボタン22を半押しする。   The photographer determines the composition by looking at the through image displayed on the monitor 28 and presses the shutter button 22 halfway.

シャッターボタン22が半押しされると、CPU110にS1ON信号が入力される。CPU110は、このS1ON信号に応動して、撮影準備処理、すなわち、AE、AF、AWBの各処理を実行する。   When the shutter button 22 is half-pressed, an S1 ON signal is input to the CPU 110. In response to the S1 ON signal, the CPU 110 executes shooting preparation processing, that is, AE, AF, and AWB processing.

まず、撮像素子128から出力された画像信号を画像信号処理部132を介してRAM116に取り込み、AE/AWB検出部136及びAF検出部138に加える。   First, the image signal output from the image sensor 128 is taken into the RAM 116 via the image signal processing unit 132 and added to the AE / AWB detection unit 136 and the AF detection unit 138.

AE/AWB検出部136は、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出し、CPU110に出力する。CPU110は、このAE/AWB検出部136からの出力に基づき、絞り値とシャッタースピードを決定するとともに、ホワイトバランス補正値を決定する。   The AE / AWB detection unit 136 calculates a physical quantity necessary for AE control and AWB control from the input image signal, and outputs it to the CPU 110. Based on the output from the AE / AWB detection unit 136, the CPU 110 determines an aperture value and a shutter speed and also determines a white balance correction value.

同時に、フラッシュ16の発光が必要かどうかの判断や、フラッシュ16の発光量の調整を行う。フラッシュ16の発光が必要と判断された場合には、図10に示すフローチャートに基づいてフラッシュ16の適正光量を調整する。図10は、フラッシュ16の適正光量を調整する処理の流れを示すフローチャートであり、図11は、フラッシュ16の適正光量を調整する場合のデータの流れを示す機能図である。   At the same time, it is determined whether or not the flash 16 needs to emit light and the amount of light emitted from the flash 16 is adjusted. When it is determined that the flash 16 needs to emit light, the appropriate light amount of the flash 16 is adjusted based on the flowchart shown in FIG. FIG. 10 is a flowchart showing a flow of processing for adjusting the appropriate light amount of the flash 16, and FIG. 11 is a functional diagram showing a data flow when adjusting the appropriate light amount of the flash 16.

ステップS1〜S5により算出された推定被写体距離を被写体距離検出部134からフラッシュ制御部142に入力し(ステップS11)、フラッシュ16をプリ発光させることにより得られた反射光に基づいて判断された被写体の輝度と、ステップS11で入力された推定被写体距離とを用いて、フラッシュ制御部142は、図12に示すグラフに基づいて本撮影時のフラッシュ16の発光量を決定する(ステップS12)。そして、フラッシュ制御部142は、被写体距離算出部134で算出された被写体距離が図12に示すグラフに基づいてフラッシュ16が届かない距離であると判断した場合には、モニタ28に「フラッシュが届きません」などの警告メッセージを表示する(ステップS13)。   The estimated subject distance calculated in steps S1 to S5 is input from the subject distance detection unit 134 to the flash control unit 142 (step S11), and the subject determined based on the reflected light obtained by pre-flashing the flash 16 And the estimated subject distance input in step S11, the flash control unit 142 determines the light emission amount of the flash 16 during the main photographing based on the graph shown in FIG. 12 (step S12). When the flash control unit 142 determines that the subject distance calculated by the subject distance calculation unit 134 is a distance that the flash 16 does not reach based on the graph shown in FIG. 12, the flash 28 reaches the monitor 28. A warning message such as “No” is displayed (step S13).

これにより、被写体距離に応じて適切な光量のフラッシュを被写体に照射することができる。また、被写体距離が近距離の場合に、フラッシュによる白トビを防ぐことができる。また、フラッシュが届かない場合に警告を行うことで、適切なフラッシュ撮影を行うように撮影者を誘導することができる。なお、警告はメッセージに限らず、音、音声などにより行なってもよい。   Thereby, the subject can be irradiated with a flash having an appropriate amount of light according to the subject distance. Further, when the subject distance is a short distance, it is possible to prevent a white stripe caused by a flash. Further, by giving a warning when the flash does not reach, the photographer can be guided to perform appropriate flash photography. The warning is not limited to the message, but may be performed by sound, voice, or the like.

その後、AF検出部138は、入力された画像信号からAF制御に必要な物理量を算出し、CPU110に出力する。本実施の形態においては、被写体距離算出部134で算出された被写体距離に基づいてAFサーチ範囲を限定してAF制御を行なう点に特徴がある。以下、被写体距離算出部134で算出された被写体距離に基づいて、AFサーチ範囲を限定してAF制御を実行する方法について説明する。図13は、AFサーチ範囲を限定する処理の流れを示すフローチャートであり、図14は、AFサーチ範囲を限定する場合のデータの流れを示す機能図である。   Thereafter, the AF detection unit 138 calculates a physical quantity necessary for AF control from the input image signal, and outputs it to the CPU 110. The present embodiment is characterized in that AF control is performed by limiting the AF search range based on the subject distance calculated by the subject distance calculation unit 134. Hereinafter, a method for executing AF control by limiting the AF search range based on the subject distance calculated by the subject distance calculation unit 134 will be described. FIG. 13 is a flowchart showing a flow of processing for limiting the AF search range, and FIG. 14 is a functional diagram showing a data flow when limiting the AF search range.

ステップS1〜S5により算出された推定被写体距離を被写体距離検出部134からAF検出部138に入力し(ステップS15)、絞り/フォーカス/ズーム制御部126から出力された撮影光学系124の焦点距離、ステップS11で入力された推定被写体距離、及び予め作成されたフォーカス特性情報に基づいて、AF検出部138は、至近から無限遠までの間のうちの所定の範囲に限定されたAFサーチ範囲を設定する(ステップS16)。本実施の形態におけるフォーカス特性情報とは、焦点距離毎の被写体距離の逆数と合焦位置との関係を示し、これにより合焦するレンズの位置を算出することができる。   The estimated subject distance calculated in steps S1 to S5 is input from the subject distance detection unit 134 to the AF detection unit 138 (step S15), and the focal length of the photographing optical system 124 output from the aperture / focus / zoom control unit 126, Based on the estimated subject distance input in step S11 and focus characteristic information created in advance, the AF detection unit 138 sets an AF search range that is limited to a predetermined range from close to infinity. (Step S16). The focus characteristic information in the present embodiment indicates the relationship between the reciprocal of the subject distance for each focal length and the in-focus position, whereby the position of the lens to be in focus can be calculated.

CPU110は、このAF検出部138からの出力に基づき絞り/フォーカス/ズーム制御部126を介して撮影光学系124の駆動部の駆動を制御してフォーカスレンズを所定のステップで移動させ、各位置で焦点評価値を取得する(ステップS17)。得られた焦点評価値が最大の位置を合焦位置として、その位置にフォーカスレンズ群を移動させる(ステップS18)。   The CPU 110 controls the drive of the drive unit of the photographing optical system 124 via the aperture / focus / zoom control unit 126 based on the output from the AF detection unit 138 to move the focus lens in predetermined steps, and at each position. A focus evaluation value is acquired (step S17). The position where the obtained focus evaluation value is the maximum is taken as the in-focus position, and the focus lens group is moved to that position (step S18).

ここで、限定されたAFサーチ範囲について説明する。図15は、被写体距離が1m、通常の明るさ、ズーム時におけるAFサーチの様子を示す。   Here, the limited AF search range will be described. FIG. 15 shows the state of AF search when the subject distance is 1 m, normal brightness, and zooming.

通常のAFサーチでは、サーチステップ(約30パルス)を大きくとるラフサーチを行いながらAF評価値を算出する。ラフサーチの範囲は焦点距離毎に決まっており、近傍から無限遠のそれぞれの場合においてピントが合う範囲でラフサーチが行われる。ラフサーチのAF評価値が2回減少すると、ラフサーチとは逆向きに詳細なサーチステップ(約6パルス)で詳細サーチを行う。   In a normal AF search, an AF evaluation value is calculated while performing a rough search that takes a large search step (about 30 pulses). The range of the rough search is determined for each focal length, and the rough search is performed in the range in focus in each case from the vicinity to infinity. When the AF evaluation value of the rough search decreases twice, a detailed search is performed in a detailed search step (about 6 pulses) in the opposite direction to the rough search.

限定されたAFサーチ範囲とは、この詳細サーチのAFサーチ範囲のことである。本実施の形態では、推定被写体距離が算出されているため、推定被写体距離をラフサーチでのAF評価値の最大値の位置とすることで、ラフサーチを行うことなく、詳細サーチが可能である。詳細サーチの範囲は、例えば推定被写体距離の位置を中心にして詳細なサーチステップの5回分程度の範囲である。   The limited AF search range is the AF search range of this detailed search. In this embodiment, since the estimated subject distance is calculated, a detailed search can be performed without performing a rough search by setting the estimated subject distance as the position of the maximum AF evaluation value in the rough search. The range of the detailed search is, for example, a range of about five detailed search steps centered on the position of the estimated subject distance.

このように、AFサーチ範囲を限定してはAF制御を行うことにより、AF制御を高速化することができる。また、被写体が暗い場合や距離が近い場合などの条件が悪い場合においても、AF制御に要する時間を通常のAF制御に要する時間と同等にし、かつ安定したAF制御を行うことができる。例えば、被写体が暗い場合には、通常の方法ではAF制御に1〜2秒程度の時間を要するが、本実施の形態の方法を用いることでAF制御に要する時間を0.4〜0.6秒程度にまで短縮することができる。また、推定被写体距離に基づいて自動的にマクロ設定に切り替えられるため、ユーザーが近距離撮影用のマクロ設定に切り替えることなく、操作が容易となる。また、合焦制御に要する時間を短縮することで、シャッターチャンスを逃すことなく、操作者の意図に沿った画像を撮影することができる。なお、CPU110は、必要に応じてAF補助光ランプ20を発光させて、AF制御を実行する。   In this way, the AF control can be speeded up by limiting the AF search range and performing the AF control. Also, even when the subject is dark or the conditions are short, such as when the distance is short, the time required for AF control can be made equal to the time required for normal AF control, and stable AF control can be performed. For example, when the subject is dark, the AF method takes about 1 to 2 seconds in the normal method, but the time required for the AF control is 0.4 to 0.6 by using the method of the present embodiment. It can be shortened to about seconds. Further, since the macro setting is automatically switched based on the estimated subject distance, the user can easily perform the operation without switching to the macro setting for short-distance shooting. Further, by shortening the time required for focusing control, it is possible to capture an image according to the operator's intention without missing a photo opportunity. Note that the CPU 110 performs AF control by causing the AF auxiliary light lamp 20 to emit light as necessary.

撮影者は、モニタ28に表示されるスルー画像を見て撮影レンズ13のピント状態等を確認し、撮影を実行する。すなわち、シャッターボタン22を全押しする。   The photographer confirms the focus state of the photographing lens 13 by looking at the through image displayed on the monitor 28 and executes photographing. That is, the shutter button 22 is fully pressed.

シャッターボタン22が全押しされると、CPU110にS2ON信号が入力される。CPU110は、このS2ON信号に応動して、撮影、記録処理を実行する。   When the shutter button 22 is fully pressed, an S2 ON signal is input to the CPU 110. The CPU 110 executes photographing and recording processing in response to the S2ON signal.

まず、上記のAE処理で求めた絞り値、シャッタースピードで撮像素子128を露光し、記録用の画像を撮像する。この際、フラッシュ16を発光させる場合は、フラッシュ発光制御部156を介して、プリ発光の結果から求めたフラッシュ16の発光量に基づいてフラッシュ16を発光させる。   First, the image sensor 128 is exposed at the aperture value and shutter speed obtained in the above AE process, and a recording image is captured. At this time, when the flash 16 is caused to emit light, the flash 16 is caused to emit light based on the light emission amount of the flash 16 obtained from the result of the pre-emission via the flash emission control unit 156.

撮像素子128から出力された記録用の画像信号は、画像信号処理部132に取り込まれ、RAM116に格納される。RAM116に格納された画像信号は、CPU110の制御の下、画像信号処理部132に加えられる。画像信号処理部132は、入力された画像信号に所定の信号処理を施して、輝度データと色差データとからなる画像データ(YUVデータ)を生成する。   The recording image signal output from the image sensor 128 is captured by the image signal processing unit 132 and stored in the RAM 116. The image signal stored in the RAM 116 is added to the image signal processing unit 132 under the control of the CPU 110. The image signal processing unit 132 performs predetermined signal processing on the input image signal to generate image data (YUV data) including luminance data and color difference data.

画像信号処理部132で生成された画像データは、一旦RAM116に格納されたのち、画像記録部146に加えられる。画像記録部146は、入力された画像データに対して所定の圧縮処理を施し、圧縮画像データを生成する。   The image data generated by the image signal processing unit 132 is temporarily stored in the RAM 116 and then added to the image recording unit 146. The image recording unit 146 performs a predetermined compression process on the input image data to generate compressed image data.

圧縮された画像データは、RAM116に格納され、所定フォーマットの静止画像ファイル(たとえば、Exif)として、画像記録部146を介してメモリカード148に記録される。なお、メモリカード148に画像ファイルが保存可能な空き領域が無い場合や、操作者が選択した場合等には、RAM116に格納された画像データは、所定フォーマットの静止画像ファイル(たとえば、Exif)としてROM114に保存される。なお、ROM114に画像データを保存する場合には、画像データは複数のクラスタ、通常は連続した複数のクラスタに保存される。   The compressed image data is stored in the RAM 116 and recorded on the memory card 148 via the image recording unit 146 as a still image file (for example, Exif) in a predetermined format. If there is no free space in the memory card 148 where the image file can be stored, or if the operator selects it, the image data stored in the RAM 116 is a still image file (eg, Exif) in a predetermined format. It is stored in the ROM 114. When image data is stored in the ROM 114, the image data is stored in a plurality of clusters, usually a plurality of consecutive clusters.

このようにしてメモリカード148又はROM114に記録された画像データは、デジタルカメラ10のモードを再生モードに設定することにより、モニタ28に再生表示される。再生モードへの移行は、再生ボタン32を押下することにより行われる。   The image data recorded in the memory card 148 or the ROM 114 in this manner is reproduced and displayed on the monitor 28 by setting the mode of the digital camera 10 to the reproduction mode. Transition to the playback mode is performed by pressing the playback button 32.

再生ボタン32が押下されると、CPU110は最後に記録された画像ファイルの圧縮画像データを読み出す。最後に記録された画像ファイルがメモリカード148に記録されている場合には、CPU110は、画像記録部146を介してメモリカード148に最後に記録された画像ファイルの圧縮画像データを読み出す。最後に記録された画像ファイルがROM114に記録されている場合には、CPU110は直接ROM114から画像ファイルの圧縮画像データが読み取り可能である。   When the play button 32 is pressed, the CPU 110 reads the compressed image data of the last recorded image file. When the last recorded image file is recorded on the memory card 148, the CPU 110 reads the compressed image data of the image file recorded last on the memory card 148 via the image recording unit 146. When the last recorded image file is recorded in the ROM 114, the CPU 110 can directly read the compressed image data of the image file from the ROM 114.

メモリカード148又はROM114から読み出された圧縮画像データは、画像記録部146に加えられ、非圧縮の画像データとされたのちバッファメモリ118に加えられる。そして、バッファメモリ118から表示制御部150を介してモニタ28に出力される。これにより、メモリカード148又はROM114に記録されている画像が、モニタ28に再生表示される。   The compressed image data read from the memory card 148 or the ROM 114 is added to the image recording unit 146, converted into uncompressed image data, and then added to the buffer memory 118. Then, the data is output from the buffer memory 118 to the monitor 28 via the display control unit 150. As a result, the image recorded in the memory card 148 or the ROM 114 is reproduced and displayed on the monitor 28.

画像のコマ送りは、十字ボタン36の左右のキー操作で行なわれ、右キーが操作されると、次の画像ファイルがメモリカード160から読み出され、モニタ28に再生表示される。また、十字ボタン36の左キーが操作されると、一つ前の画像ファイルがメモリカード148又はROM114から読み出され、モニタ28に再生表示される。   Image frame advance is performed by operating the left and right keys of the cross button 36. When the right key is operated, the next image file is read from the memory card 160 and reproduced and displayed on the monitor 28. Further, when the left key of the cross button 36 is operated, the previous image file is read from the memory card 148 or the ROM 114 and reproduced and displayed on the monitor 28.

モニタ28に再生表示された画像を確認しながら、必要に応じて、メモリカード148又はROM114に記録された画像を消去することができる。画像の消去は、画像がモニタ28に再生表示された状態でファンクションボタン34が押下されることによって行われる。   While confirming the image reproduced and displayed on the monitor 28, the image recorded on the memory card 148 or the ROM 114 can be deleted as necessary. The image is erased by pressing the function button 34 while the image is reproduced and displayed on the monitor 28.

ファンクションボタン34が押下されると、CPU110は表示制御部150を介して、モニタ28に「この写真を消去してよろしいですか」等の画像消去を伝えるメッセージを画像に重ねて表示する。MENU/OKボタン38が押下されると、その画像の消去が行われる。画像データがメモリカード148に記録されている場合には、CPU110は画像記録部146を介してメモリカード148に記録された画像ファイルを消去する。画像データがROM114に記録されている場合には、CPU110は直接ROM114から画像ファイルが消去可能である。   When the function button 34 is pressed, the CPU 110 displays, via the display control unit 150, a message informing the image erasure such as “Are you sure you want to erase this photo” superimposed on the image on the monitor 28. When the MENU / OK button 38 is pressed, the image is erased. When image data is recorded on the memory card 148, the CPU 110 deletes the image file recorded on the memory card 148 via the image recording unit 146. When image data is recorded in the ROM 114, the CPU 110 can delete the image file directly from the ROM 114.

本実施の形態によれば、スルー画像の画像データに基づいて被写体距離を算出するため、算出された測距情報をAF制御やフラッシュの発光制御などの撮影条件の設定に利用することができる。また、既存の機構である手ブレ補正機構を応用して推定被写体距離をさんしゅつすることで、コストをかけることなく測距情報を取得することができる。   According to the present embodiment, since the subject distance is calculated based on the image data of the through image, the calculated distance measurement information can be used for setting shooting conditions such as AF control and flash emission control. Further, by applying the camera shake correction mechanism, which is an existing mechanism, to calculate the estimated subject distance, distance measurement information can be acquired without cost.

また、本実施の形態によれば、算出された被写体距離を用いて、焦点調節範囲を限定した合焦制御を行うことにより、合焦制御に要する時間を短縮することができる。また、合焦制御に要する時間を短縮することで、シャッターチャンスを逃すことなく、操作者の意図に沿った画像を撮影することができる。   Further, according to the present embodiment, it is possible to reduce the time required for focusing control by performing focusing control with a limited focus adjustment range using the calculated subject distance. Further, by shortening the time required for focusing control, it is possible to capture an image according to the operator's intention without missing a photo opportunity.

また、本実施の形態によれば、算出された被写体距離を用いて、フラッシュの発光量が適切となるような発光制御を行うことにより、適切なフラッシュ撮影を行うことができる。   Further, according to the present embodiment, appropriate flash photography can be performed by performing light emission control so that the flash emission amount is appropriate using the calculated subject distance.

なお、本実施の形態では、コントラストAFを行う場合を例に説明したが、コントラストAFに限らず、例えば山登り探索など他のAF制御を行う場合においても適用が可能である。   In this embodiment, the case where contrast AF is performed has been described as an example. However, the present invention is not limited to contrast AF, and can be applied to other AF control such as hill climbing search.

なお、本発明の適用は、デジタルカメラに限定されるものではなく、カメラつき携帯電話機やビデオカメラ等の撮像装置、携帯音楽プレーヤー、PDA等のファームウェアがアップデート可能な電子機器にも同様に適用することができる。   Note that the application of the present invention is not limited to a digital camera, and is similarly applied to an electronic device capable of updating firmware such as an imaging device such as a mobile phone with a camera or a video camera, a portable music player, or a PDA. be able to.

本発明が適用された電子機器(デジタルカメラ)10の第1の実施の形態の外観構成を示す正面斜視図である。1 is a front perspective view showing an external configuration of a first embodiment of an electronic apparatus (digital camera) 10 to which the present invention is applied. 上記デジタルカメラ10の第1の実施の形態の外観構成を示す背面斜視図である。2 is a rear perspective view showing an external configuration of the first embodiment of the digital camera 10. FIG. 上記デジタルカメラ10の第1の実施の形態の電気的構成を示すブロック図である。1 is a block diagram showing an electrical configuration of a first embodiment of the digital camera 10. FIG. 動き量を算出する方法を説明する図である。It is a figure explaining the method of calculating a motion amount. 手ブレについて説明する図である。It is a figure explaining camera shake. 推定被写体距離を算出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process which calculates an estimation subject distance. 推定被写体距離を算出する処理のデータの流れを示す機能図である。It is a functional diagram showing a data flow of processing for calculating an estimated subject distance. 回転ブレと動き量との関係を示すグラフである。It is a graph which shows the relationship between rotation blur and a motion amount. シフトブレと動き量との関係を示すグラフである。It is a graph which shows the relationship between shift blur and a motion amount. 推定被写体距離を用いてフラッシュの適性光量を調整する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which adjusts the suitable light quantity of a flash using an estimated to-be-photographed object distance. 推定被写体距離を用いてフラッシュの適性光量を調整する処理のデータの流れを示す機能図である。It is a functional diagram showing a data flow of processing for adjusting an appropriate light amount of a flash using an estimated subject distance. 被写体距離とフラッシュの適正光量との関係を示すグラフである。It is a graph which shows the relationship between a to-be-photographed object distance and the suitable light quantity of a flash. 推定被写体距離を用いてAFサーチ範囲を限定してAFを行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process which restricts AF search range using estimated object distance, and performs AF. 推定被写体距離を用いてAFサーチ範囲を限定してAFを行う処理のデータの流れを示す機能図である。FIG. 6 is a functional diagram showing a data flow of processing for performing AF while limiting an AF search range using an estimated subject distance. 限定されたAFサーチ範囲を説明する図である。It is a figure explaining the limited AF search range.

符号の説明Explanation of symbols

10…デジタルカメラ、11…スロットカバー、12…カメラボディ、13…撮影レンズ1、14…メモリカードスロット、16…フラッシュ、18…AF補助光ランプ、26…電源ボタン、28…モニタ、30…ズームボタン、32…再生ボタン、34…ファンクションボタン、36…十字ボタン、38…MENU/OKボタン、40…DISP/BACKボタン、110…CPU、114…ROM、116…RAM、118…バッファメモリ、124…撮影光学系、126…絞り/フォーカス/ズーム制御部、128…撮像素子、130…撮影制御部(タイミングジェネレータ)、132…画像信号処理部、134…被写体距離算出部、136…AE/AWB検出部、138…AF検出部、140…手ブレ補正制御部、142…フラッシュ制御部、144…AF補助光ランプ制御部、146…画像記録部、148…メモリカード、150…表示制御部、152…顔検出部 DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 ... Slot cover, 12 ... Camera body, 13 ... Shooting lens 1, 14 ... Memory card slot, 16 ... Flash, 18 ... AF auxiliary light lamp, 26 ... Power button, 28 ... Monitor, 30 ... Zoom Buttons 32 ... Play button 34 ... Function button 36 ... Cross button 38 ... MENU / OK button 40 ... DISP / BACK button 110 110 CPU 114 ROM 116 116 RAM 118 Buffer memory 124 Imaging optical system, 126 ... Aperture / focus / zoom control unit, 128 ... Image sensor, 130 ... Imaging control unit (timing generator), 132 ... Image signal processing unit, 134 ... Subject distance calculation unit, 136 ... AE / AWB detection unit 138: AF detection unit, 140: Camera shake correction control unit, 142: Flash Control unit, 144 ... AF assist lamp control unit, 146 ... image recording section, 148 ... memory card, 150 ... display controller, 152 ... face detecting unit

Claims (9)

撮像装置の撮影光軸と直交する方向のシフト量を検出するシフト量検出手段と、
撮影光学系により撮像素子に結像された被写体像の画像データを取得する取得手段と、
前記取得手段により取得された画像データから前記シフト量検出手段によって検出された撮像装置のシフト量に伴う前記撮像素子上の画像の動き量を検出する動き量検出手段と、
前記動き量検出手段により検出された動き量と、前記シフト量検出手段により検出された撮像装置のシフト量と、前記撮影光学系の焦点距離とに基づいて、被写体距離を算出する被写体距離算出手段と、
を備えたことを特徴とする撮像装置。
Shift amount detection means for detecting a shift amount in a direction orthogonal to the imaging optical axis of the imaging device;
Acquisition means for acquiring image data of a subject image formed on an image sensor by a photographing optical system;
A motion amount detection means for detecting a motion amount of the image on the image sensor in accordance with the shift amount of the imaging device detected by the shift amount detection means from the image data acquired by the acquisition means;
Subject distance calculation means for calculating a subject distance based on the motion amount detected by the motion amount detection means, the shift amount of the imaging device detected by the shift amount detection means, and the focal length of the photographing optical system When,
An imaging apparatus comprising:
前記撮像装置の上下、左右方向の回転振れを検出する手ブレ検出手段と、
前記手ブレ検出手段によって検出された回転振れに基づいて前記撮影光学系の少なくとも一部の光学部材又は前記撮像素子を駆動し、前記撮像装置の手ブレを補正する手ブレ補正手段と、
前記手ブレ補正手段により前記撮像装置の手ブレが補正された画像データを前記取得手段に取得させる画像データ取得制御手段と、
を備えたことを特徴とする請求項1に記載の撮像装置。
Camera shake detection means for detecting rotational shake in the vertical and horizontal directions of the imaging device;
A camera shake correction unit configured to drive at least a part of the optical member of the imaging optical system or the imaging device based on the rotational shake detected by the camera shake detection unit, and to correct the camera shake of the imaging device;
Image data acquisition control means for causing the acquisition means to acquire image data in which camera shake of the imaging apparatus is corrected by the camera shake correction means;
The imaging apparatus according to claim 1, further comprising:
前記手ブレ検出手段は、前記シフト量検出手段を含むことを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the camera shake detection unit includes the shift amount detection unit. 前記撮像素子により取得された画像データから人物の顔を検出する顔検出手段と、
前記顔検出手段により人物の顔が検出された領域の画像データを前記取得手段に取得させる画像データ取得制御手段と、
を備えたことを特徴とする請求項1から3のいずれかに記載の撮像装置。
Face detection means for detecting a human face from the image data acquired by the image sensor;
Image data acquisition control means for causing the acquisition means to acquire image data of a region in which a human face is detected by the face detection means;
The imaging apparatus according to claim 1, further comprising:
ライブビュー画像の画像データを前記取得手段に取得させる取得制御手段を備えたことを特徴とする請求項1から4のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an acquisition control unit that causes the acquisition unit to acquire image data of a live view image. 撮影光学系を焦点調節範囲にわたって移動させ、該撮影光学系が所定量移動するごとに前記撮像素子から画像信号を出力し、該出力された画像信号から求められる被写体のコントラスト成分に基づいて前記撮影光学系の合焦制御を行う自動合焦制御手段であって、前記被写体距離算出手段により算出された被写体距離に基づいて、前記撮影光学系を移動させる範囲を限定して合焦制御を行う自動合焦制御手段を備えたことを特徴とする請求項1から5のいずれかに記載の撮像装置。   The photographic optical system is moved over the focus adjustment range, and an image signal is output from the imaging device every time the photographic optical system moves by a predetermined amount, and the photographic optical system is output based on the contrast component of the subject obtained from the output image signal. An automatic focusing control unit that performs focusing control of the optical system, and that performs focusing control by limiting a range in which the photographing optical system is moved based on the subject distance calculated by the subject distance calculating unit. 6. The imaging apparatus according to claim 1, further comprising a focusing control unit. フラッシュ光源と、
前記被写体距離算出手段により算出された被写体距離に基づいて前記フラッシュ光源の発光を制御する発光制御手段と、
を備えたことを特徴とする請求項1から6のいずれかに記載の撮像装置。
A flash light source,
Light emission control means for controlling light emission of the flash light source based on the subject distance calculated by the subject distance calculation means;
The imaging apparatus according to claim 1, further comprising:
前記被写体距離算出手段により算出された被写体距離に基づいて前記フラッシュ光源からの光が被写体に届くか否かを判断する判断手段と、
前記判断手段により前記フラッシュ光源からの光が被写体に届かないと判断された場合に警告を行う警告手段と、
を備えたことを特徴とする請求項7に記載の撮像装置。
Determining means for determining whether light from the flash light source reaches the subject based on the subject distance calculated by the subject distance calculating means;
Warning means for giving a warning when it is determined by the determination means that the light from the flash light source does not reach the subject;
The imaging apparatus according to claim 7, further comprising:
撮像装置の平行移動及び回動の方向及び量を検出するステップと、
該撮像装置の平行移動及び回動の方向及び量の検出と同期して、撮影光学系により撮像素子に結像された被写体像の画像データを取得するステップと、
該検出された撮像装置の回動の方向及び量に基づいて、前記取得された画像データから前記撮像装置の回動による影響を除去するステップと、
前記撮像装置の回動による影響が除去された画像データの平行移動量であって、先行する画像に対する後続の画像の平行移動量を検出するステップと、
該検出された平行移動量と、前記検出された前記撮像装置の平行移動の方向及び量と、前記撮影光学系の焦点距離とに基づいて、被写体距離を算出するステップと、
を含むことを特徴とする被写体距離算出方法。
Detecting the direction and amount of translation and rotation of the imaging device;
Acquiring image data of a subject image formed on an image sensor by a photographing optical system in synchronization with detection of the direction and amount of parallel movement and rotation of the imaging device;
Removing the influence of the rotation of the imaging device from the acquired image data based on the detected direction and amount of rotation of the imaging device;
Detecting the parallel movement amount of the image data from which the influence due to the rotation of the imaging device is removed, and the parallel movement amount of the subsequent image with respect to the preceding image;
Calculating a subject distance based on the detected parallel movement amount, the detected direction and amount of the parallel movement of the imaging device, and the focal length of the photographing optical system;
A subject distance calculation method comprising:
JP2007312596A 2007-12-03 2007-12-03 Imaging apparatus and subject distance calculating method Pending JP2009139423A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007312596A JP2009139423A (en) 2007-12-03 2007-12-03 Imaging apparatus and subject distance calculating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007312596A JP2009139423A (en) 2007-12-03 2007-12-03 Imaging apparatus and subject distance calculating method

Publications (1)

Publication Number Publication Date
JP2009139423A true JP2009139423A (en) 2009-06-25

Family

ID=40870125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007312596A Pending JP2009139423A (en) 2007-12-03 2007-12-03 Imaging apparatus and subject distance calculating method

Country Status (1)

Country Link
JP (1) JP2009139423A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184965B2 (en) 2010-01-05 2012-05-22 Panasonic Corporation Imaging device
JP2013073242A (en) * 2011-09-28 2013-04-22 Apple Inc Kinetic automatic focus operation
JP2015152817A (en) * 2014-02-17 2015-08-24 キヤノン株式会社 imaging device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184965B2 (en) 2010-01-05 2012-05-22 Panasonic Corporation Imaging device
JP2013073242A (en) * 2011-09-28 2013-04-22 Apple Inc Kinetic automatic focus operation
JP2015152817A (en) * 2014-02-17 2015-08-24 キヤノン株式会社 imaging device

Similar Documents

Publication Publication Date Title
US7720369B2 (en) Image taking apparatus
US8106995B2 (en) Image-taking method and apparatus
JP4644883B2 (en) Imaging device
JP4135100B2 (en) Imaging device
JP4787180B2 (en) Imaging apparatus and imaging method
JP4432054B2 (en) Imaging apparatus and method
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP5306628B2 (en) Imaging method and apparatus
JP2009219020A (en) Imaging apparatus, control method of imaging device, and control program of imaging device
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP2009058834A (en) Imaging apparatus
JP2011188318A (en) Camera, camera control program, and photographing teaching method
JP4842919B2 (en) Display device, photographing device, and display method
JP2010141609A (en) Imaging apparatus
JP2009157242A (en) Imaging apparatus
JP2009033223A (en) Imaging apparatus
JP2008298847A (en) Photographing method and digital camera
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP2009139423A (en) Imaging apparatus and subject distance calculating method
JP2012085261A (en) Imaging apparatus, finder, and display method of the same
JP5914829B2 (en) Imaging device
JP4368783B2 (en) Imaging device
JP2009033386A (en) Photographing device and method
JP2008035243A (en) Imaging device
JP4761039B2 (en) Imaging device