JP5444651B2 - Camera device, photographing method thereof and photographing control program - Google Patents

Camera device, photographing method thereof and photographing control program Download PDF

Info

Publication number
JP5444651B2
JP5444651B2 JP2008184366A JP2008184366A JP5444651B2 JP 5444651 B2 JP5444651 B2 JP 5444651B2 JP 2008184366 A JP2008184366 A JP 2008184366A JP 2008184366 A JP2008184366 A JP 2008184366A JP 5444651 B2 JP5444651 B2 JP 5444651B2
Authority
JP
Japan
Prior art keywords
distance
subject
acquired
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008184366A
Other languages
Japanese (ja)
Other versions
JP2010026018A (en
Inventor
正哲 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008184366A priority Critical patent/JP5444651B2/en
Publication of JP2010026018A publication Critical patent/JP2010026018A/en
Application granted granted Critical
Publication of JP5444651B2 publication Critical patent/JP5444651B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Stroboscope Apparatuses (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、フラッシュ撮影な可能な構成を有するカメラ装置、その撮影方法と撮影制御プログラムに関するものである。   The present invention relates to a camera apparatus having a configuration capable of flash photography, a photography method thereof, and a photography control program.

従来、カメラにおいて、フラッシュ撮影時におけるフラッシュ光(ストロボ光)の発光ムラ等の影響を受けることなく、画角内での主要被写体の位置に関係なく最適な露光量で被写体を撮影することを可能とする技術として、例えば下記特許文献1には、主要被写体までの距離情報やレンズの開口径情報などを利用して発光量の調整を行う技術が記載されている。
特開平8−327886号公報
Conventionally, it is possible to shoot a subject with an optimal exposure amount regardless of the position of the main subject within the angle of view, without being affected by uneven flash light (strobe light) during flash photography. For example, Patent Document 1 below describes a technique for adjusting the light emission amount using distance information to a main subject, lens aperture diameter information, and the like.
JP-A-8-327886

しかしながら、上記技術によれば主要被写体には常に適正露出を確保することはできるが、画角内の被写体に対するフラッシュ光の照射光量は距離の二乗に比例して減少するため、画角内で主要被写体の後方に位置する背景部分や前方に位置する前景部分の被写体には適正露出を確保することができない。したがって、フラッシュ撮影で得られる画像に特有の、前景部分では露光量がオーバーして白飛び(輝度飽和)が生じたり、背景部分では露光量が不足して黒つぶれ(真っ暗な状態)が生じたりする不自然な状態を改善するまでには到らないという問題があった。   However, according to the above technique, it is possible to always ensure proper exposure for the main subject, but the amount of flash light applied to the subject within the angle of view decreases in proportion to the square of the distance. Proper exposure cannot be ensured for the subject in the background portion located behind the subject or the foreground portion located in front. Therefore, the amount of exposure overshoots in the foreground part, resulting in overexposure (brightness saturation), and the background part is underexposed and blackout (darkness) occurs. There was a problem that the unnatural state was not improved.

本発明は、かかる従来の課題に鑑みてなされたものであり、フラッシュ撮影においても各部の明るさが自然な状態の画像を得ることができるカメラ装置、その撮影方法と撮影制御プログラムを提供することを目的とする。   The present invention has been made in view of such conventional problems, and provides a camera device capable of obtaining an image in which the brightness of each part is natural even in flash photography, a photography method thereof, and a photography control program. With the goal.

前記課題を解決するため請求項1記載の発明に係るカメラ装置にあっては、被写体を撮像し撮影画像を取得する撮像手段と、前記被写体に向けて撮影補助光を照射する発光手段とを備えたカメラ装置において、画角内における被写体の各部までの距離と主たる被写体までの距離を取得する距離取得手段と、前記発光手段による前記主たる被写体の撮影に適した発光量での撮影補助光の発光動作を伴う所定の撮影に際し前記撮像手段により取得された撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離と前記主たる被写体までの距離に応じて補正する補正手段と、その補正手段による補正後の撮影画像を最終的な撮影画像として記録する制御を行う記録制御手段とを備え
前記補正手段は、前記主たる被写体までの距離を基準とし、前記被写体の各部までの距離が前記主たる被写体までの距離よりも近い場合は前記被写体の各部の明るさを下げるように補正し、前記被写体の各部までの距離が前記主たる被写体までの距離よりも遠い場合は前記被写体の各部の明るさを上げるように補正することを特徴とする。
In order to solve the above-described problem, the camera device according to the first aspect of the present invention includes an imaging unit that captures an image of a subject and obtains a captured image, and a light-emitting unit that irradiates photographing auxiliary light toward the subject. In the camera apparatus, distance acquisition means for acquiring the distance to each part of the subject within the angle of view and the distance to the main subject, and emission of shooting auxiliary light at a light emission amount suitable for shooting the main subject by the light emission means Correction that corrects the brightness of each part of the captured image acquired by the imaging unit in accordance with the distance to each part of the subject acquired by the distance acquiring unit and the distance to the main subject at the time of predetermined shooting with operation Means, and a recording control means for performing control to record a photographed image corrected by the correcting means as a final photographed image ,
The correction means corrects the brightness of each part of the subject to be reduced when the distance to each part of the subject is closer than the distance to the main subject, based on the distance to the main subject. When the distance to each part of the subject is longer than the distance to the main subject, correction is made to increase the brightness of each part of the subject .

また、請求項2記載の発明に係るカメラ装置にあっては、前記撮像手段により取得される第1の撮影画像とは別に、当該第1の撮影画像との間に視差が存在する第2の撮影画像を取得する第2の撮像手段を備え、前記距離取得手段は、前記撮像手段に取得された第1の撮影画像、及び当該第1の撮影画像と同時に前記第2の撮像手段により取得された第2の撮影画像に基づいて画角内における被写体の各部までの距離を取得し、前記補正手段は、前記所定の撮影に際して前記撮像手段に取得された第1の撮影画像と前記第2の撮像手段により取得された第2の撮影画像とのいずれか一方を補正対象として、当該補正対象の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離に応じて補正することを特徴とする。   In the camera device according to the second aspect of the present invention, a second parallax exists between the first captured image and the first captured image acquired by the imaging unit. A second imaging unit configured to acquire a captured image, wherein the distance acquisition unit is acquired by the second imaging unit simultaneously with the first captured image acquired by the imaging unit and the first captured image; The distance to the respective parts of the subject within the angle of view is obtained based on the second photographed image, and the correction unit is configured to obtain the first photographed image obtained by the imaging unit and the second photographed during the predetermined photographing. Using one of the second captured images acquired by the imaging unit as a correction target, the brightness of each part of the correction target is corrected according to the distance to each part of the subject acquired by the distance acquisition unit. It is characterized by that.

また、請求項3記載の発明に係るカメラ装置にあっては、画角内における主たる被写体までの距離を取得する基準距離取得手段と、前記第2の撮像手段への入射光の光軸上に挿入された挿入位置と前記光軸上から外れた解除位置とに移動可能な減光フィルターと、前記所定の撮影に際して前記減光フィルターの位置を前記挿入位置に制御する位置制御手段とを備え、前記補正手段は、前記所定の撮影に際して前記撮像手段に取得された第1の撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離に応じて補正するとともに、前記第1の撮影画像における、前記距離取得手段により取得された被写体の各部までの距離が前記基準距離取得手段により取得された主たる被写体までの距離よりも近い前景部分に相当する各部の明るさを、前記位置制御手段により減光フィルターの位置が挿入位置に制御された状態で前記第2の撮像手段により取得された第2の撮影画像の対応する各部の明るさに補正することを特徴とする。   In the camera device according to the third aspect of the present invention, the reference distance acquisition unit that acquires the distance to the main subject within the angle of view, and the optical axis of the incident light to the second imaging unit A neutral density filter movable to an inserted insertion position and a release position deviated from the optical axis, and a position control means for controlling the position of the neutral density filter to the insertion position during the predetermined photographing, The correction unit corrects the brightness of each part of the first captured image acquired by the imaging unit during the predetermined shooting according to the distance to each part of the subject acquired by the distance acquisition unit, and In the first photographed image, a distance to each part of the subject acquired by the distance acquisition unit corresponds to a foreground portion that is closer than a distance to the main subject acquired by the reference distance acquisition unit. The brightness of each part is corrected to the brightness of the corresponding part of the second photographed image acquired by the second imaging means in a state where the position of the neutral density filter is controlled to the insertion position by the position control means. It is characterized by doing.

また、請求項4記載の発明に係るカメラ装置にあっては、前記補正手段による補正後の第1の撮影画像における、前記距離取得手段により取得された被写体の各部までの距離が前記基準距離取得手段により取得された主たる被写体までの距離よりも遠い背景部分に相当する各部に、前記距離取得手段により取得された距離に応じた度合のノイズ削減処理を施すノイズ削減手段を備え、前記記録制御手段は、前記ノイズ削減手段によるノイズ削減処理後の第1の撮影画像を最終的な撮影画像として記録する制御を行うことを特徴とする。   In the camera device according to the fourth aspect of the present invention, the distance to each part of the subject acquired by the distance acquisition unit in the first photographed image corrected by the correction unit is the reference distance acquisition. Noise reduction means for performing noise reduction processing to a degree corresponding to the distance acquired by the distance acquisition means on each part corresponding to a background portion farther than the distance to the main subject acquired by the means, the recording control means Is characterized in that control is performed to record the first captured image after the noise reduction processing by the noise reduction means as a final captured image.

また、請求項5記載の発明に係るカメラ装置にあっては、前記被写体に向けて測距用の光パルスを照射する測距用発光手段を備え、前記距離取得手段は、前記測距用発光手段により照射された光パルスが対象物に到達し、そこから反射して戻ってくるまでに必要とする時間に基づいて、画角内における被写体の各部までの距離を取得することを特徴とする。   In the camera device according to the fifth aspect of the present invention, distance measuring light emitting means for irradiating the subject with a light pulse for distance measurement is provided, and the distance acquisition means includes the light emission for distance measurement. The distance to each part of the subject within the angle of view is acquired based on the time required for the light pulse emitted by the means to reach the object and be reflected and returned from there. .

また、請求項6記載の発明に係るカメラ装置にあっては、焦点距離が調整可能な撮影光学系と、この撮影光学系の焦点距離を、互いに異なる距離に位置する被写体にピントが合う焦点距離であって、対応する前記距離が既知の異なる焦点距離に順に変更制御するとともに、焦点距離を変更する毎に前記撮像手段に被写体を撮像させて撮影画像を複数取得させる撮像制御手段とを備え、前記距離取得手段は、前記撮像制御手段の制御に従い前記撮像手段により取得された複数の撮影画像と、当該複数の撮影画像の各々の取得時の焦点距離に対応する距離とに基づいて、画角内における被写体の各部までの距離を取得することを特徴とする。   In the camera device according to the sixth aspect of the present invention, the focal length of the photographing optical system capable of adjusting the focal length and the focal length of the photographing optical system are focused on subjects located at different distances. The corresponding distance is controlled to be changed in order to different known focal lengths, and the imaging control means is configured to cause the imaging means to capture a subject and acquire a plurality of captured images each time the focal length is changed. The distance acquisition means is based on a plurality of captured images acquired by the imaging means according to the control of the imaging control means and a distance corresponding to a focal length at the time of acquisition of each of the plurality of captured images. The distance to each part of the subject is acquired.

また、請求項7記載の発明に係るカメラ装置にあっては、画角内における主たる被写体までの距離を取得する基準距離取得手段と、前記補正手段による補正後の撮影画像における、前記距離取得手段により取得された被写体の各部までの距離が前記基準距離取得手段により取得された主たる被写体までの距離よりも遠い背景部分に相当する各部に、前記距離取得手段により取得された距離に応じた度合のノイズ削減処理を施すノイズ削減手段を備え、前記記録制御手段は、前記ノイズ削減手段によるノイズ削減処理後の撮影画像を最終的な撮影画像として記録する制御を行うことを特徴とする。   In the camera device according to the seventh aspect of the present invention, reference distance acquisition means for acquiring a distance to a main subject within an angle of view, and the distance acquisition means in a photographed image corrected by the correction means The distance to each part of the subject acquired by the above is determined in accordance with the distance acquired by the distance acquiring unit in each part corresponding to the background portion farther than the distance to the main subject acquired by the reference distance acquiring unit. Noise reduction means for performing noise reduction processing is provided, and the recording control means performs control to record a captured image after the noise reduction processing by the noise reduction means as a final captured image.

また、請求項8記載の発明に係るカメラ装置にあっては、前記撮影補助光の発光量を、互いに異なる距離に位置する被写体に適正な照射量の補助光が照射できる発光量であって、対応する前記距離が既知の異なる発光量に順に制御して前記発光手段に複数回の発光動作を行わせるともに、各々の発光量による発光動作に合わせて前記撮像手段に被写体を撮像させて撮影画像を複数取得させる撮像制御手段を備え、前記補正手段は、前記撮像制御手段の制御に従い前記撮像手段により取得された複数の撮影画像のうちの所定の撮影画像を補正対象とする一方、当該補正対象以外の複数の撮影画像に、各々の取得時の発光量に対応する距離と、前記距離取得手段により取得された被写体の各部までの距離とに基づき、各々の撮影画像の取得時の発光量に対応する距離の被写体部分を特定し、各々の撮影画像に特定した互いに異なる距離の複数の被写体部分の部分画像を、前記補正対象の対応する複数の被写体部分に合成することによって前記補正対象の各部の明るさを補正することを特徴とする。   Further, in the camera device according to the invention of claim 8, the light emission amount of the photographing auxiliary light is a light emission amount capable of irradiating a subject with an appropriate irradiation amount to a subject located at a different distance from each other, The corresponding distance is controlled in sequence to different known light emission amounts to cause the light emission means to perform a plurality of light emission operations, and at the same time, the image pickup means images the subject in accordance with the light emission operations according to the respective light emission amounts. Imaging control means for acquiring a plurality of images, and the correction means targets a predetermined captured image among a plurality of captured images acquired by the imaging means according to the control of the imaging control means. Other than a plurality of captured images, the distance at the time of acquisition of each captured image is based on the distance corresponding to the amount of light emission at the time of acquisition and the distance to each part of the subject acquired by the distance acquisition means. A target portion having a distance corresponding to the amount is specified, and partial images of a plurality of subject portions having different distances specified in each captured image are combined with a plurality of corresponding subject portions to be corrected. The brightness of each part is corrected.

また、請求項9記載の発明に係るカメラ装置にあっては、画角内の中央部に位置する被写体、ユーザにより指定された画角内の任意の被写体、又は顔検出された画角内の被写体を、主たる被写体として特定する特定手段を備え、前記補正手段は、前記発光手段による前記特定手段により特定された主たる被写体の撮影に適した撮影補助光の発光動作を伴う所定の撮影に際し前記撮像手段により取得された撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離と前記主たる被写体までの距離に応じて補正することを特徴とする。
また、請求項10記載の発明に係るカメラ装置にあっては、前記補正手段は、前記発光手段による前記主たる被写体の撮影に適した撮影補助光の発光動作を伴う所定の撮影に際し前記撮像手段により取得された撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離と前記主たる被写体までの距離との差に応じた補正倍率で補正することを特徴とする。
また、請求項11記載の発明に係る撮影方法にあっては、被写体を撮像し撮影画像を取得する撮像手段と、前記被写体に向けて撮影補助光を照射する発光手段とを備えたカメラ装置において前記発光手段による主たる被写体の撮影に適した発光量での撮影補助光の発光動作を伴う所定の撮影に際し、画角内における被写体の各部までの距離と前記主たる被写体までの距離を取得する工程と、取得した被写体の各部までの距離と前記主たる被写体までの距離に応じ、前記撮像手段により取得された撮影画像の各部の明るさを補正する工程と、補正後の撮影画像を最終的な撮影画像として記録する工程とを含み、前記補正する工程は、前記主たる被写体までの距離を基準とし、前記被写体の各部までの距離が前記主たる被写体までの距離よりも近い場合は前記被写体の各部の明るさを下げるように補正し、前記被写体の各部までの距離が前記主たる被写体までの距離よりも遠い場合は前記被写体の各部の明るさを上げるように補正することを特徴とする。
In the camera device according to the ninth aspect of the present invention, a subject located at the center of the angle of view, an arbitrary subject within the angle of view designated by the user, or an angle within the angle of view where the face is detected. A specifying unit that specifies a subject as a main subject is provided, and the correction unit performs the imaging when performing a predetermined shooting with a light emission operation of a shooting auxiliary light suitable for shooting the main subject specified by the specifying unit by the light emitting unit. The brightness of each part of the captured image acquired by the means is corrected according to the distance to each part of the subject acquired by the distance acquisition means and the distance to the main subject.
Further, in the camera device according to the invention of claim 10, the correcting means is used by the imaging means at the time of predetermined photographing accompanied by a light emitting operation of photographing auxiliary light suitable for photographing the main subject by the light emitting means. The brightness of each part of the acquired photographed image is corrected with a correction magnification according to the difference between the distance to each part of the subject acquired by the distance acquisition unit and the distance to the main subject.
In addition, in the photographing method according to the invention of claim 11, in a camera apparatus comprising: an imaging unit that captures an image of a subject and obtains a captured image; and a light emitting unit that irradiates photographing auxiliary light toward the subject. Obtaining a distance to each part of the subject within the angle of view and a distance to the main subject when performing a predetermined photographing accompanied by a light emission operation of a photographing auxiliary light with a light emission amount suitable for photographing the main subject by the light emitting means; A step of correcting the brightness of each part of the captured image acquired by the imaging unit according to the distance to each part of the acquired subject and the distance to the main subject, and the corrected captured image as a final captured image look including the step of recording a step of the correction, the relative to the distance to the main subject, near than the distance to the distance the main subject to each part of the subject If it corrected to lower the brightness of each part of the object, when the distance to each part of the object is farther than the distance to the main subject that is corrected so as to raise the brightness of each part of the subject Features.

また、請求項12記載の発明に係る撮影制御プログラムにあっては、被写体を撮像し撮影画像を取得する撮像手段と、前記被写体に向けて撮影補助光を照射する発光手段とを備えたカメラ装置が有するコンピュータに、前記発光手段による主たる被写体の撮影に適した発光量での撮影補助光の発光動作を伴う所定の撮影に際し、画角内における被写体の各部までの距離と前記主たる被写体までの距離を取得する手順と、取得した被写体の各部までの距離と前記主たる被写体までの距離に応じ、前記撮像手段により取得された撮影画像の各部の明るさを補正する手順と、補正後の撮影画像を最終的な撮影画像として記録する手順とを実行させ、前記補正する工程は、前記主たる被写体までの距離を基準とし、前記被写体の各部までの距離が前記主たる被写体までの距離よりも近い場合は前記被写体の各部の明るさを下げるように補正し、前記被写体の各部までの距離が前記主たる被写体までの距離よりも遠い場合は前記被写体の各部の明るさを上げるように補正することを特徴とする。 In addition, in the photographing control program according to the twelfth aspect of the present invention, a camera apparatus comprising: an imaging unit that captures an image of a subject and obtains a captured image; and a light emitting unit that emits photographing auxiliary light toward the subject. The distance between the subject and each of the subject within the angle of view and the distance to the main subject when performing predetermined shooting accompanied by a light emission operation of the auxiliary shooting light with a light emission amount suitable for photographing the main subject by the light emitting means. A procedure for correcting the brightness of each part of the captured image acquired by the imaging unit according to the distance to each part of the acquired subject and the distance to the main subject, and the corrected captured image to execute the steps of recording as a final photographed image, wherein the step of correcting, the with respect to the distance to the main subject, the distance to each part of the subject is the When the distance to the subject is shorter, the brightness of each part of the subject is corrected to be lowered.When the distance to each part of the subject is farther than the distance to the main subject, the brightness of each part of the subject is corrected. It is characterized by correcting so as to increase

本発明によれば、フラッシュ撮影においても各部の明るさが自然な状態の画像を得ることが可能となる。   According to the present invention, it is possible to obtain an image in which the brightness of each part is natural even in flash photography.

以下、本発明の一実施の形態を図にしたがって説明する。
(実施形態1)
図1は、本実施形態に係るステレオカメラ1を示す外観斜視図である。このステレオカメラ1は、カメラ本体2の正面に左右一対のレンズ3a,3bを有しており、各々のレンズ3a,3bを介して任意の被写体を左右の異なる位置から同時に撮影できるよう構成されている。また、カメラ本体2の正面には、撮影時に必要に応じてストロボ光(撮影補助光)を被写体へ照射する発光手段であるフラッシュ発光部4が一対のレンズ3a,3bの上方に設けられており、またカメラ本体2の上面はシャッタースイッチ5が設けられている。なお、図には省略したがカメラ本体2には、シャッタースイッチ5以外にも、電源スイッチやモード切替スイッチ等を含む各種のスイッチ類が設けられている。また、シャッタースイッチ5は、半押し操作(ハーフシャッター)と全押し操作との2段階操作が可能な所謂ハーフシャッター機能を有する構成である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is an external perspective view showing a stereo camera 1 according to this embodiment. The stereo camera 1 has a pair of left and right lenses 3a and 3b on the front of the camera body 2, and is configured so that an arbitrary subject can be photographed simultaneously from different positions on the left and right via the lenses 3a and 3b. Yes. Further, on the front surface of the camera body 2, a flash light emitting unit 4, which is a light emitting means for irradiating a subject with strobe light (shooting auxiliary light) as necessary, is provided above the pair of lenses 3 a and 3 b. A shutter switch 5 is provided on the upper surface of the camera body 2. Although not shown in the drawing, the camera body 2 is provided with various switches other than the shutter switch 5 including a power switch and a mode switch. The shutter switch 5 is configured to have a so-called half shutter function capable of two-stage operation including a half-press operation (half shutter) and a full-press operation.

図2は、前記ステレオカメラ1の電気的構成の概略を示すブロック図である。ステレオカメラ1は、一対の撮影ブロック11a,11bを有しており、各々の撮影ブロック11a,11bはレンズブロック12a,12bと、光学系駆動部13a,13b、光学系制御部14a,14b、撮像素子15a,15b、AD変換部16a,16bから構成されている。なお、これ以降の説明においては、必要に応じて一方の撮影ブロック11aをメイン撮影ブロックと呼び、他方の撮影ブロック11bをサブ撮影ブロックと呼ぶことにより両者を区別する。   FIG. 2 is a block diagram showing an outline of the electrical configuration of the stereo camera 1. The stereo camera 1 has a pair of imaging blocks 11a and 11b. Each imaging block 11a and 11b has lens blocks 12a and 12b, optical system driving units 13a and 13b, optical system control units 14a and 14b, and imaging. It consists of elements 15a and 15b and AD converters 16a and 16b. In the following description, if necessary, one shooting block 11a is referred to as a main shooting block, and the other shooting block 11b is referred to as a sub shooting block.

前記レンズブロック12a,12bは、前記レンズ3a,3bと図示しない絞りをと含み、前記レンズ3a,3bは平行する光軸を有するとともに、各々がフォーカス調整用のレンズを含むレンズ群により構成されている。光学系駆動部13a,13bは、上記レンズ群を光軸方向に駆動してフォーカス調整を行うためのレンズモータと、前記レンズシャッター及び絞りを機械的に駆動する各々のアクチュエータから構成され、光学系制御部14a,14bは、そのレンズモータとアクチュエータとの駆動を制御部18からの指令に基づき制御する。   The lens blocks 12a and 12b include the lenses 3a and 3b and a diaphragm (not shown). The lenses 3a and 3b have a parallel optical axis, and each lens group includes a focus adjustment lens. Yes. The optical system driving units 13a and 13b are composed of a lens motor for adjusting the focus by driving the lens group in the optical axis direction, and actuators for mechanically driving the lens shutter and the diaphragm. The control units 14 a and 14 b control the driving of the lens motor and the actuator based on a command from the control unit 18.

撮像素子15a,15bは本実施形態においてはCCDであり、図示省略した駆動回路により駆動されることにより、前記レンズ3a,3bにより結像された被写体の光学像を電気信号に変換し撮像信号として出力する。なお、撮像素子15a,15bはCMOSセンサ等の他のイメージセンサであっても構わない。また、本実施形態においてはサブ撮影ブロック11b側の撮像素子15bが本発明の第2の撮像手段である。AD変換部16a,16bは、撮像素子15a,15bから出力された撮像信号をディジタル信号、すなわち画像データへ変換し画像処理部17へそれぞれ出力する。   The imaging elements 15a and 15b are CCDs in the present embodiment, and are driven by a driving circuit (not shown) to convert an optical image of the subject formed by the lenses 3a and 3b into an electrical signal to be used as an imaging signal. Output. Note that the image sensors 15a and 15b may be other image sensors such as a CMOS sensor. In the present embodiment, the image pickup device 15b on the sub photographing block 11b side is the second image pickup means of the present invention. The AD conversion units 16a and 16b convert the imaging signals output from the imaging elements 15a and 15b into digital signals, that is, image data, and output them to the image processing unit 17, respectively.

つまりステレオカメラ1は、互いに独立した2系統の光学系(撮影光学系)と撮像系とを備えることにより、前述したように任意の被写体を左右の異なる位置から同時に撮影可能となっている。   That is, the stereo camera 1 includes two optical systems (shooting optical systems) and an image pickup system that are independent from each other, so that an arbitrary subject can be shot simultaneously from different positions on the left and right as described above.

画像処理部17は、AD変換部16a,16bから入力した画像データ、より詳しくは撮像素子15a,15bの受光面に設けられているカラーフィルタの色配列に応じた色成分の画素情報からなる画像データ(本実施形態では、ベイヤー配列に応じたベイヤーデータ)を、画素毎にRGBの色成分を有するRGBデータへ変換する色変換、傷補正等の各種フィルター処理(プレ・フィルター処理)、サイズ変換(解像度変換)処理、画像データの圧縮・伸長処理を行う。さらに、後述するフラッシュ撮影時においては、本発明の距離取得手段、補正手段、ノイズ削減手段として機能し、双方の撮影ブロック11a,11bにより取得(撮像)された画像データに基づく後述する距離測定や、画像データに対する画素毎の輝度補正を含む画質に関する補正処理、ノイズリダクションを行う。   The image processing unit 17 includes image data input from the AD conversion units 16a and 16b, more specifically, an image composed of pixel information of color components corresponding to the color arrangement of the color filters provided on the light receiving surfaces of the image sensors 15a and 15b. Various filter processing (pre-filter processing) such as color conversion, flaw correction, and size conversion for converting data (in this embodiment, Bayer data corresponding to the Bayer array) into RGB data having RGB color components for each pixel (Resolution conversion) processing and image data compression / decompression processing are performed. Furthermore, at the time of flash photography, which will be described later, it functions as distance acquisition means, correction means, and noise reduction means of the present invention, and distance measurement, which will be described later, based on image data acquired (captured) by both of the imaging blocks 11a and 11b. Then, correction processing relating to image quality including luminance correction for each pixel for image data, and noise reduction are performed.

また、ステレオカメラ1は、画像処理部17で処理中の画像データを一時保存する画像処理メモリー19と、圧縮後の画像を記録する記録メモリー20、ユーザーがステレオカメラ1を操作するための前記シャッタースイッチ5を含む各種のスイッチ類からなるカメラ操作部21、表示部22、前記フラッシュ発光部4、フラッシュ制御部23を有している。   The stereo camera 1 also includes an image processing memory 19 that temporarily stores image data being processed by the image processing unit 17, a recording memory 20 that records a compressed image, and the shutter for the user to operate the stereo camera 1. The camera has a camera operation unit 21, a display unit 22, the flash light emitting unit 4, and a flash control unit 23, which include various switches including the switch 5.

表示部22は、カメラ本体2の図示しない背面に配置された液晶パネル等の表示器及びその駆動回路からなり、画像処理部17による処理後の画像を表示する。また、フラッシュ発光部4はストロボ光の発光源であるキセノン管等の発光管、及びレフレクタであり、フラッシュ制御部23は、発光用コンデンサと、その充電回路、発光管の駆動回路、調光回路を含み、制御部18からの命令に従いフラッシュ発光部4の発光動作、及び発光時間(発光量)を制御する。   The display unit 22 includes a display device such as a liquid crystal panel disposed on the back surface (not shown) of the camera body 2 and a driving circuit thereof, and displays an image processed by the image processing unit 17. The flash light emitting unit 4 is a light emitting tube such as a xenon tube, which is a light emission source of strobe light, and a reflector. The flash control unit 23 includes a light emitting capacitor, a charging circuit thereof, a driving circuit for the light emitting tube, a dimming circuit. And controls the light emission operation and the light emission time (light emission amount) of the flash light emission unit 4 in accordance with a command from the control unit 18.

制御部18は、CPU及びその周辺回路、各種の制御プログラムが格納されたROM、作業用のRAMを含み、前記制御プログラム、及びカメラ操作部21におけるステッチの操作内容に基づき動作することにより前述した各部を制御する。前記制御プログラムには、コントラスト検出方式によるAF(自動焦点)制御や、フラッシュ撮影時の光量調整を含むAE(自動露出)制御に使用されるプログラムが含まれるとともに、ROMには、それらの制御に際して使用される各種のデータも格納されている。また、フラッシュ撮影時には制御部18を本発明の記録制御手段、基準距離取得手段として機能させ、後述する動作をステレオカメラ1に行わせるための撮影報知プログラムも含まれている。   The control unit 18 includes a CPU and its peripheral circuits, a ROM in which various control programs are stored, and a working RAM. The control unit 18 operates as described above by operating based on the control program and the stitch operation contents in the camera operation unit 21. Control each part. The control program includes a program used for AF (automatic focus) control by a contrast detection method and AE (automatic exposure) control including light amount adjustment at the time of flash photography. Various types of data used are also stored. Further, a shooting notification program for causing the stereo camera 1 to perform the operation described later by causing the control unit 18 to function as the recording control unit and the reference distance acquisition unit of the present invention during flash shooting is also included.

次に、ステレオカメラ1において、例えばユーザーによりフラッシュの発光モードとして、被写体の明るさに応じて自動的に発光するオートモードや、常に発光する強制発光モードが設定されているときのフラッシュ撮影時の動作を図3のフローチャートに従い説明する。   Next, in the stereo camera 1, for example, when the flash shooting mode is set by the user, for example, an auto mode that automatically emits light according to the brightness of the subject or a forced flash mode that always emits light is set. The operation will be described with reference to the flowchart of FIG.

フラッシュ撮影時にステレオカメラ1においては、まず制御部18が一対の撮影ブロック11a,11bの各々の撮像素子(CCD)15a,15bのイニシャライズ(電荷蓄積時間等の動作パラメータの設定)を行い、所定のフレームレートによる被写体の撮像動作を開始する(ステップSA1)。その後、任意の時点でシャッタースイッチ5が半押しされたら(ステップSA2でYES)、その時点で制御部18がAF制御により、本実施形態では画角内の中央部に位置する被写体を主たる被写体として、その部分へのピント合わせを行う(ステップSA3)。   At the time of flash photography, in the stereo camera 1, first, the control unit 18 initializes the imaging elements (CCD) 15a and 15b of the pair of photographing blocks 11a and 11b (sets operation parameters such as charge accumulation time), and performs predetermined processing. The subject imaging operation at the frame rate is started (step SA1). Thereafter, when the shutter switch 5 is half-pressed at an arbitrary time (YES in Step SA2), the control unit 18 performs AF control at that time, and in this embodiment, the subject located at the center in the angle of view is set as the main subject. Then, focusing on that portion is performed (step SA3).

なお、ピント合わせの対象とする主たる被写体は画角内の中央部でなくともよく、例えばユーザーにより予め指定された画角内の任意の部分や、周知の顔検出技術によって検出した人物の顔部分等のように自動的に設定した部分の被写体としてもよい。また、上記AF処理においては、前述したレンズ3a,3bをそれぞれ構成するレンズ群の位置調整は、メイン撮影ブロック11a側とサブ撮影ブロック11b側とにおいて個別に行うようにしてもよいし、サブ撮影ブロック11b側の位置調整をメイン撮影ブロック11a側の位置調整に連動させるようにしてもよい。   Note that the main subject to be focused does not have to be in the center of the angle of view. For example, an arbitrary portion within the angle of view specified in advance by the user, or a human face detected by a known face detection technique. It is also possible to use a subject that is automatically set as described above. In the AF process, the position adjustment of the lens groups constituting the lenses 3a and 3b described above may be individually performed on the main photographing block 11a side and the sub photographing block 11b side, or the sub photographing. The position adjustment on the block 11b side may be linked to the position adjustment on the main photographing block 11a side.

引き続き、AF制御の終了後には、その直前(又はその直後)にメイン撮影ブロック11aの撮像素子(CCD)15aにより取得(撮像)した画像に基づき、主たる被写体の明るさを測定した後(ステップSA4)、主たる被写体の撮影に適したフラッシュ発光量を算出する(ステップSA5)。このときの発光量は、ピントを合わせを行った状態での前記レンズ群の調整位置に対応する被写体までの距離、つまり主たる被写体までの距離を、予め用意されている前記レンズ群の調整位置に対応する被写体までの距離を示す距離取得テーブルから取得し、取得した距離と被写体の明るさとに基づいて算出することにより取得する。なお、取得された被写体までの距離は画像処理部17へ送られる。しかる後、制御部18が上記発光量を基準として適正露出を得るためのシャッター速度、ISO感度、絞りの開口径(絞り値)といった撮影条件を設定する(ステップSA6)。   Subsequently, after the AF control is finished, the brightness of the main subject is measured based on the image acquired (captured) by the imaging device (CCD) 15a of the main imaging block 11a immediately before (or immediately after) (step SA4). ) The flash emission amount suitable for photographing the main subject is calculated (step SA5). The amount of light emitted at this time is the distance to the subject corresponding to the adjustment position of the lens group in the focused state, that is, the distance to the main subject is set as the adjustment position of the lens group prepared in advance. It is acquired from a distance acquisition table indicating the distance to the corresponding subject, and is obtained by calculating based on the acquired distance and the brightness of the subject. The acquired distance to the subject is sent to the image processing unit 17. Thereafter, the controller 18 sets shooting conditions such as a shutter speed, ISO sensitivity, and aperture diameter (aperture value) for obtaining an appropriate exposure based on the light emission amount (step SA6).

やがてシャッタースイッチ5が全押しされたら(ステップSA7でYES)、設定された撮影条件で、一対の撮影ブロック11a,11bの各々の撮像素子15a,15bの露光を開始し(ステップSA8)、露光期間中にはフラッシュ発光部4に、先に算出した所定の発光量のフラッシュ光を発光させ(ステップSA9)、シャッター速度に応じた時間に達した時点で露光を終了する(ステップSA10)。これにより、同一の撮影条件で個別に取得された異なる撮像データ(ベイヤーデータ)が画像処理部17に入力される。   Eventually, when the shutter switch 5 is fully pressed (YES in step SA7), exposure of the image sensors 15a and 15b of the pair of imaging blocks 11a and 11b is started under the set imaging conditions (step SA8), and the exposure period During this time, the flash light emitting unit 4 is caused to emit flash light having a predetermined light emission amount calculated previously (step SA9), and exposure is terminated when a time corresponding to the shutter speed is reached (step SA10). As a result, different image data (Bayer data) acquired individually under the same shooting conditions are input to the image processing unit 17.

その後、ステレオカメラ1においては、画像処理部17が、入力した各々の撮像データに対して前述したプレ・フィルター処理を行い、撮像データをRGBデータに変換するとともに(ステップSA11)、各々のRGBデータのサイズをユーザーにより予め指定されている画像サイズへ変換する解像度変換を行い、変換後のRGBデータを画像処理メモリー19に一時記憶する(ステップSA12)。この解像度変換の各々のRGBデータが撮影画像である。   Thereafter, in the stereo camera 1, the image processing unit 17 performs the above-described pre-filter processing on each input image data to convert the image data to RGB data (step SA <b> 11), and each RGB data Is converted to an image size designated in advance by the user, and the converted RGB data is temporarily stored in the image processing memory 19 (step SA12). Each RGB data of this resolution conversion is a photographed image.

なお、これ以後は、係る撮影画像のうちで前述したメイン撮影ブロック11aにより取得した側をメイン撮影画像、サブ撮影ブロック11bにより取得した側をサブ撮影画像と呼び、さらに係る1組の撮影画像をステレオ画像と呼ぶものとする。また、本実施形態においては上記メイン撮影画像が本発明の第1の撮影画像、上記サブ撮影画像が本発明の第2の撮影画像である。   In the following, the side acquired by the main shooting block 11a described above is referred to as a main shooting image, and the side acquired by the sub shooting block 11b is referred to as a sub shooting image. It shall be called a stereo image. In the present embodiment, the main photographed image is the first photographed image of the present invention, and the sub photographed image is the second photographed image of the present invention.

引き続き、画像処理部17は、上記ステレオ画像に基づく距離測定処理を実施し、ピント合わせの対象となった主たる被写体部分を除く、撮影画像内の全ての被写体部分の各々における距離(カメラ本体2からの距離)を測定する(ステップSA13)。   Subsequently, the image processing unit 17 performs a distance measurement process based on the stereo image, and removes the distance (from the camera body 2) in each of all the subject parts in the photographed image excluding the main subject part to be focused. ) Is measured (step SA13).

ここで周知のようにステレオ画像においては、前述したようにレンズ3a,3bの光軸が互いに平行であり、図5に示したように、双方の撮像素子15a,15bの撮像面(受光面)A,Bのu軸とu'軸とが直線上で同じ向きで、素子間に距離bが確保された構成においては、焦点距離をfとし、被写体の位置を空間座標(X,Y,Z)とすると、
X=bu/(u−u')
Y=bv/(u−u')
Z=bf/(u−u')
で表すことができる。
As is well known, in the stereo image, as described above, the optical axes of the lenses 3a and 3b are parallel to each other, and as shown in FIG. 5, the imaging surfaces (light receiving surfaces) of both the imaging elements 15a and 15b. In a configuration in which the u-axis and u′-axis of A and B are in the same direction on a straight line and the distance b is secured between the elements, the focal length is f and the position of the subject is the spatial coordinates (X, Y, Z )
X = bu / (u−u ′)
Y = bv / (u−u ′)
Z = bf / (u−u ′)
It can be expressed as

これは、カメラから被写体までの距離Zが、カメラのパラメータであるbfが一定の場合、双方の撮像面A,Bに結像された被写体像(光学像)の任意の点における、一方の撮像面Aのu軸上の位置と、他方の撮像面Bのu'軸上の位置との差、すなわち視差に反比例することを意味する。このとき双方の撮像面A,Bにおける上記任意の点は、v軸上の位置と、v'軸上の位置とが同一となり、u軸上の位置とu'軸上の位置とがカメラから被写体までの距離Zに応じて異なることとなる。係るu軸上の位置とu'軸上の位置との差が視差であり、距離Zが大きい(被写体が遠い)ほどそれが小さくなる。   This is because, when the distance Z from the camera to the subject is constant and bf, which is a camera parameter, is constant, imaging of one of the subject images (optical images) formed on both imaging surfaces A and B is performed. This means that it is inversely proportional to the difference between the position on the u-axis of the surface A and the position on the u′-axis of the other imaging surface B, that is, the parallax. At this time, the position on the v-axis is the same as the position on the v′-axis, and the position on the u-axis and the position on the u′-axis are the same from the camera. This differs depending on the distance Z to the subject. The difference between the position on the u-axis and the position on the u′-axis is parallax, and the smaller the distance Z (the farther the subject is), the smaller it becomes.

ステップSA13の距離測定処理においては、これに基づき全ての被写体各部の距離情報が測定される。図4は、画像処理部17による距離測定処理を示したフローチャートである。   In the distance measurement process in step SA13, the distance information of all parts of the subject is measured based on this. FIG. 4 is a flowchart showing distance measurement processing by the image processing unit 17.

係る処理においては、まず、ステレオ画像のうちのメイン撮影画像を基準とし、メイン撮影画像に対してエッジ検出を行うことにより1ライン分の特徴点を抽出する(ステップSA101)。次に、サブ撮影画像から、特徴ベースマッチングによって、設定した所定の探索範囲内において抽出した1ライン分の各々の特徴点と相関が最も高いと判断した点を探索し、探索した点を対応点として特定するとともに、メイン撮影画像の特徴点とサブ撮影画像の対応点との水平方向のずれ量(視差)を算出し(ステップSA102)、その算出結果を、記録画像に対応した距離データとして画像処理メモリーに記憶する(ステップSA103)。   In this process, first, feature points for one line are extracted by performing edge detection on the main captured image with reference to the main captured image of the stereo images (step SA101). Next, the sub-photographed image is searched for a point determined to have the highest correlation with each feature point for one line extracted within the predetermined search range set by feature-based matching, and the searched point is a corresponding point. And a horizontal shift amount (parallax) between the feature point of the main captured image and the corresponding point of the sub captured image is calculated (step SA102), and the calculation result is used as distance data corresponding to the recorded image. Store in the processing memory (step SA103).

そして、以上の処理を、処理対象のラインを順に変更しながら繰り返し行い、全てのラインについて特徴点の距離データが取得できたら(ステップSA104でYES)、各々の特徴点の距離データについて、主たる被写体に対応する領域(画面中央部)の距離データとの差を計算し、その結果と、前述したステップSA5で取得されていた主たる被写体の距離とに基づき、全ての特徴点におけるカメラからの距離を算出する(ステップSA105)。さらに、メイン撮影画像内でカメラからの距離がほぼ同一である複数の特徴点によって囲まれる領域が同一距離の被写体部分であるものとし、画像内を同一距離毎の複数の被写体エリアに分割し(ステップSA106)、同一の被写体エリア内の各画素に、当該被写体エリアを囲む前記特徴点の距離を割り当てることにより、画素単位の距離情報を取得する(ステップSA107)。これにより距離測定処理を終了する。   The above processing is repeated while sequentially changing the processing target lines, and when distance data of feature points can be obtained for all lines (YES in step SA104), the main subject is obtained for the distance data of each feature point. And the distance from the camera at all feature points based on the result and the distance of the main subject acquired in step SA5 described above. Calculate (step SA105). Furthermore, an area surrounded by a plurality of feature points having substantially the same distance from the camera in the main photographed image is assumed to be a subject portion having the same distance, and the image is divided into a plurality of subject areas for each same distance ( In step SA106), distance information in units of pixels is acquired by assigning the distance of the feature point surrounding the subject area to each pixel in the same subject area (step SA107). This completes the distance measurement process.

引き続き、図3の処理に戻り、画像処理部17は、メイン撮影画像の輝度をカメラからの距離に応じて画素毎に補正する(ステップSA14)。係る処理においては、カメラからの距離に応じた補正倍率を前述した複数の被写体エリア毎に決定し、各画素の輝度を、各々の画素が含まれる被写体エリア毎の補正倍率で補正する。   Subsequently, returning to the processing of FIG. 3, the image processing unit 17 corrects the luminance of the main captured image for each pixel in accordance with the distance from the camera (step SA14). In such processing, the correction magnification corresponding to the distance from the camera is determined for each of the plurality of subject areas described above, and the luminance of each pixel is corrected with the correction magnification for each subject area including each pixel.

図6は、係る補正に際して使用される補正倍率取得テーブルT1を示す概念図である。この補正倍率取得テーブルT1は、予め区分された各々の距離範囲に該当する被写体までの距離に対応するとともに、撮影時にフラッシュ発光量の算出基準となった主たる被写体までの距離によって異なる輝度の補正倍率を示すものであり、各々の補正倍率は、主たる被写体との距離の違いにより生じるフラッシュ光の照射光量の増減分に応じて予め決められた倍率である。   FIG. 6 is a conceptual diagram showing a correction magnification acquisition table T1 used for such correction. The correction magnification acquisition table T1 corresponds to the distance to the subject corresponding to each of the distance ranges divided in advance, and the correction magnification of the brightness that varies depending on the distance to the main subject that is the calculation reference of the flash emission amount at the time of shooting. Each correction magnification is a magnification determined in advance according to the increase / decrease in the amount of flash light irradiation caused by the difference in distance from the main subject.

そして、上記補正においては、補正倍率取得テーブルT1によって示される補正倍率で各画素の輝度を補正することにより、主たる被写体までの距離(距離範囲)を基準とし、それよりも距離が近い被写体エリア内の画素ほど輝度が下げられ、逆にそれよりも距離が遠い被写体エリア内の画素ほど輝度が上げられる。これにより、各被写体エリア内の各画素における、主たる被写体との距離の違いにより生じたフラッシュ光の照射量の増減分に応じて輝度の過不足が補正され、各被写体エリア内の各画素に、各被写体エリアの被写体までの距離が主たる被写体までの距離と同じであった場合に得られる適正輝度が確保される。   In the above correction, the luminance of each pixel is corrected with the correction magnification indicated by the correction magnification acquisition table T1, and the distance (distance range) to the main subject is used as a reference, and the distance within the subject area is shorter than that. The brightness of the pixel is lowered, and conversely, the brightness of the pixel in the subject area farther than that is raised. Thereby, the excess or deficiency of the brightness is corrected according to the increase or decrease in the amount of flash light irradiation caused by the difference in distance from the main subject in each pixel in each subject area, and in each pixel in each subject area, Appropriate luminance is obtained when the distance to the subject in each subject area is the same as the distance to the main subject.

したがって、補正後の画像(メイン撮影画像)においては、フラッシュ撮影で得られる画像に特有の、前景部分では露光量がオーバーして白飛び(輝度飽和)が生じたり、背景部分では露光量が不足して黒つぶれ(真っ暗な状態)が生じたりする不自然な状態が改善されることとなる。   Therefore, in the corrected image (main photographed image), the exposure amount is overexposed in the foreground part, resulting in overexposure (luminance saturation), or the exposure amount is insufficient in the background part. As a result, an unnatural state in which blackout (a completely dark state) occurs is improved.

さらに、画像処理部17は、画像(メイン撮影画像)の主たる被写体に対応する領域を除いた各被写体エリア内の画素を対象として、被写体までの距離に応じた度合のノイズリダクションを行う(ステップSA15)。   Further, the image processing unit 17 performs noise reduction according to the distance to the subject for pixels in each subject area excluding the region corresponding to the main subject of the image (main photographed image) (step SA15). ).

図7は、係る処理に際して使用されるノイズ削減レベル取得テーブルT2を示す概念図である。このノイズ削減レベル取得テーブルT2は、予め区分された各々の距離範囲に該当する被写体までの距離に対応するとともに、撮影時にフラッシュ発光量の算出基準となった主たる被写体までの距離によって異なるノイズ削減レベルを示すものである。各々のノイズ削減レベルは、図示したように、主たる被写体までの距離(距離範囲)よりも遠い距離の被写体エリアについてのみ予め決められており、本実施形態では大、中、小の3段階である。   FIG. 7 is a conceptual diagram showing a noise reduction level acquisition table T2 used for such processing. The noise reduction level acquisition table T2 corresponds to the distance to the subject corresponding to each of the distance ranges divided in advance, and the noise reduction level varies depending on the distance to the main subject that is a calculation reference of the flash emission amount at the time of shooting. Is shown. As shown in the figure, each noise reduction level is determined in advance only for a subject area that is farther than the distance (distance range) to the main subject, and in this embodiment, there are three levels: large, medium, and small. .

そして、上記ノイズリダクション処理においては、そのエリアの被写体までの距離が主たる被写体までの距離(距離範囲)よりも遠い被写体エリア内の画素に対し、距離が遠いほど強いレベルのノイズリダクション処理が施されることによって、画像領域内で、主たる被写体よりもフラッシュ光の照射量が少なく、ステップSA14の輝度補正時の輝度の増大率(補正倍率)が大きい被写体エリアほど顕著となるノイズが削減される。   In the noise reduction process, a higher level of noise reduction process is applied to the pixels in the subject area where the distance to the subject in the area is longer than the distance (distance range) to the main subject. As a result, noise that becomes more prominent in the image area is reduced as the subject area has a smaller amount of flash light irradiation than the main subject and has a larger luminance increase rate (correction magnification) at the time of luminance correction in step SA14.

したがって、処理後の画像(メイン撮影画像)においては、主たる被写体部分の画質を維持したままで、背景の被写体部分のノイズが低減されることとなる。   Therefore, in the processed image (main photographed image), the noise of the background subject portion is reduced while maintaining the image quality of the main subject portion.

その後、画像処理部17はノイズリダクション後の画像にホワイトバランス等の色補正を行うとともに(ステップSA16)、係る色補正後の画像が前記表示部22において表示される(ステップSA17)。そして、色補正後の画像を画像処理部17によって圧縮した後(ステップSA18)、最終的には記録メモリー20へ記録する。   Thereafter, the image processing unit 17 performs color correction such as white balance on the image after noise reduction (step SA16), and the image after color correction is displayed on the display unit 22 (step SA17). The color-corrected image is compressed by the image processing unit 17 (step SA18), and finally recorded in the recording memory 20.

以上のように本実施形態のステレオカメラ1におけるフラッシュ撮影時には、メイン撮影ブロック11a側で取得された撮影画像が最終的に記録されるが、その撮影画像に対して前述した輝度補正処理を行うことにより、フラッシュ撮影で得られる画像に特有の、前景部分では露光量がオーバーして白飛び(輝度飽和)が生じたり、背景部分では露光量が不足して黒つぶれ(真っ暗な状態)が生じたりする不自然な状態を改善することができる。よって、フラッシュ撮影においてもより各部の明るさが自然な状態の画像を得ることができる。さらに、本実施形態においては、前述したノイズリダクション処理を行うことにより、画像内の各部の明るさが自然な状態の確保に伴い背景の被写体部分に生じるノイズを、主たる被写体部分の画質を維持したままで低減することができることから、より質の高い画像を得ることができる。   As described above, at the time of flash shooting with the stereo camera 1 of the present embodiment, the shot image acquired on the main shooting block 11a side is finally recorded, and the above-described luminance correction processing is performed on the shot image. As a result, the overexposure amount in the foreground part may cause overexposure (brightness saturation) in the foreground part, or the exposure amount may be insufficient in the background part, resulting in blackout (pure darkness). You can improve the unnatural state. Therefore, it is possible to obtain an image in which the brightness of each part is natural even in flash photography. Furthermore, in the present embodiment, by performing the noise reduction process described above, the image quality of the main subject portion is maintained with respect to noise generated in the subject portion of the background due to the natural brightness of each portion in the image. Since it can be reduced as it is, a higher quality image can be obtained.

図8は、部屋の中で前述したフラッシュ撮影を行った場合に得られる画像と、他の撮影方法での撮影により得られる画像との違いを示す説明図である。同図(a)は、撮影時におけるステレオカメラ1と、主たる被写体(人物)Aと、その手前に位置する前景の被写体(机と椅子)B,C、その奥に位置する背景の被写体(ドアと窓)D,Eとの位置関係を示す平面図である。また、同図(b)は、十分に明るい環境下でフラッシュを使用しない撮影を行ったとき得られる各部の明るさが自然な状態の画像の例、同図(c)は、暗い環境下で高感度撮影を行ったとき得られるノイズが目立つ画像の例、同図(d)は、暗い環境下で一般的なフラッシュ撮影を行ったとき得られる画像であって、前景の被写体B,Cに白飛びが生じ、背景の被写体D,Eに黒つぶれが生じた画像の例、そして、同図(e)が、暗い環境下で本実施形態のフラッシュ撮影を行ったとき得られる画像の例である。図示したように前述したフラッシュ撮影を行うことにより、同図(b)に示したものと同様に各部の明るさが自然な状態で、同図(d)に示したものは異なり背景の被写体D,Eのノイズが目立たない画像を得ることができる。   FIG. 8 is an explanatory diagram showing a difference between an image obtained when the above-described flash photography is performed in a room and an image obtained by photography using another photography method. FIG. 6A shows a stereo camera 1 at the time of shooting, a main subject (person) A, foreground subjects (desks and chairs) B and C located in front of it, and a background subject (door) located behind them. It is a top view which shows the positional relationship with window and D) and E. FIG. FIG. 5B shows an example of an image in which the brightness of each part is natural when shooting without using a flash in a sufficiently bright environment, and FIG. 6C shows an image in a dark environment. An example of an image with noticeable noise obtained when performing high-sensitivity shooting, FIG. 6D is an image obtained when performing general flash shooting in a dark environment, and is applied to the foreground subjects B and C. An example of an image in which overexposure occurs and the background objects D and E are blacked out, and FIG. 8E is an example of an image obtained when the flash shooting of the present embodiment is performed in a dark environment. is there. As shown in the figure, by performing the above-described flash photography, the brightness of each part is natural as in the case shown in FIG. 5B, and the background D is different from that shown in FIG. , E noise can be obtained.

また、以上に加え本実施形態においては、輝度補正処理で必要となる画像内の被写体各部におけるカメラからの距離を1回の撮影で同時に撮影したステレオ画像(メイン撮影画像とサブ撮影画像)に基づき行うことから、被写体各部におけるカメラからの距離を、例えば本撮影の前にフラッシュ光をプリ発光させ、その状態で撮像した画像における被写体各部の輝度情報から取得する場合に比べると、被写体各部の色の影響を受けることかなく、正確な距離を得ることができる。したがって、被写体の色に関係なく適切な輝度補正処理を行うことができ、より各部の明るさが自然な状態の画像を確実に得ることができる。また、後述する第3の実施形態と異なり、動きのある被写体を対象としたフラッシュ撮影にも対応することができる。   In addition to the above, in the present embodiment, the distance from the camera in each part of the subject in the image necessary for the luminance correction processing is based on a stereo image (main captured image and sub-captured image) captured simultaneously in one shooting. Therefore, the color of each part of the subject is compared with the distance from the camera in each part of the subject, for example, compared to the case where the flash light is pre-flashed before the actual shooting and obtained from the luminance information of each part of the subject in the captured image. It is possible to obtain an accurate distance without being affected by. Therefore, appropriate luminance correction processing can be performed regardless of the color of the subject, and an image in which the brightness of each part is more natural can be obtained with certainty. In addition, unlike the third embodiment to be described later, it is possible to cope with flash photography for a moving subject.

なお、前述した背景の被写体部分のノイズ低減については、背景の被写体が主たる被写体に近い場合には上記ノイズが僅かであり、かつ背景の被写体までの距離が上記ノイズが顕著となるほど遠い場合には、その被写体部分にボケが生じている場合も多い。係ることから、前述したノイズリダクション処理は必ずしも行わなくともよく、例えばそれを廃止したり、或いはその処理の有無をユーザーが設定できるようにしてもよい。   Regarding the noise reduction of the background subject portion described above, when the background subject is close to the main subject, the noise is slight, and the distance to the background subject is so far that the noise becomes significant. In many cases, the subject portion is blurred. Therefore, the noise reduction process described above does not necessarily have to be performed. For example, it may be abolished or the user may be able to set the presence or absence of the process.

(実施形態2)
次に本発明の第2の実施形態について説明する。本実施形態は、第1の実施形態と同様、互いに独立した2系統の光学系と撮像系とを備えることにより任意の被写体を左右の異なる位置から同時に撮影可能なステレオカメラに関するものである。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. As in the first embodiment, the present embodiment relates to a stereo camera that includes two optical systems and an imaging system that are independent from each other and can simultaneously photograph an arbitrary subject from different positions on the left and right.

図9は、本実施形態におけるステレオカメラ51の電気的構成の概略を示すブロック図である。図から明らかなように第1の実施形態で説明したステレオカメラ1(図2)であるため、同一の部分には同一の符号を付し異なる部分についてのみ説明する。   FIG. 9 is a block diagram showing an outline of the electrical configuration of the stereo camera 51 in the present embodiment. As is apparent from the figure, since it is the stereo camera 1 (FIG. 2) described in the first embodiment, the same portions are denoted by the same reference numerals and only different portions will be described.

すなわちステレオカメラ51には、サブ撮影ブロック11bのレンズ33bと撮像素子15bとの間に、撮像素子15bへの入射光量を減少させるためのNDフィルター(減光フィルター)52が出し入れ可能に設けられている。また、サブ撮影ブロック11bの光学系駆動部13bには、NDフィルター52を機械的に駆動するアクチュエータが含まれており、そのアクチュエータの駆動を光学系制御部14bが制御部18からの指令に基づき制御することにより、NDフィルター52が、撮像素子15bへの入射光の光軸上に挿入された挿入位置(図に示した位置)と、上記光路から外れた解除位置とに移動可能となっている。すなわち制御部18が本発明の位置制御手段として機能する   That is, the stereo camera 51 is provided with an ND filter (dark filter) 52 for reducing the amount of light incident on the image sensor 15b between the lens 33b and the image sensor 15b of the sub photographing block 11b. Yes. The optical system drive unit 13b of the sub photographing block 11b includes an actuator that mechanically drives the ND filter 52. The optical system control unit 14b drives the actuator based on a command from the control unit 18. By controlling, the ND filter 52 can move to the insertion position (position shown in the figure) inserted on the optical axis of the incident light to the image sensor 15b and the release position off the optical path. Yes. That is, the control unit 18 functions as the position control means of the present invention.

そして、本実施形態のステレオカメラ51においては、制御部18の制御により、フラッシュ撮影時には以下のように動作する。以下、本実施形態のステレオカメラ51におけるフラッシュ撮影時の動作を図10のフローチャートに従い説明する。   The stereo camera 51 of the present embodiment operates as follows during flash photography under the control of the control unit 18. Hereafter, the operation | movement at the time of flash imaging | photography in the stereo camera 51 of this embodiment is demonstrated according to the flowchart of FIG.

本実施形態においてもフラッシュ撮影時には、第1の実施形態と同様に、まず制御部18が一対の撮影ブロック11a,11bの各々の撮像素子(CCD)15a,15bのイニシャライズを行うことにより、所定のフレームレートによる被写体の撮像動作を開始し(ステップSB1)、その後、シャッタースイッチ5が半押しされたら(ステップSB2でYES)、その時点でAF制御により主たる被写体へのピント合わせを行う(ステップSB3)。   Also in the present embodiment, at the time of flash photographing, as in the first embodiment, the control unit 18 first initializes the image sensors (CCD) 15a and 15b of the pair of photographing blocks 11a and 11b, thereby obtaining a predetermined value. The subject imaging operation at the frame rate is started (step SB1). After that, when the shutter switch 5 is half-pressed (YES in step SB2), focusing on the main subject is performed by AF control at that time (step SB3). .

そして、AF制御の終了後には、第1の実施形態とは異なり、まず画角内にカメラからの距離が主たる被写体よりも近い副被写体が存在するか否かを判断し、係る副被写体が存在していた場合にのみ(ステップSB4でYES)、サブ撮影ブロック11bの光学系に前述したNDフィルター52を挿入する(ステップSB5)。なお、ステップSB4の判断は、例えばAF制御で前述したレンズ3a,3bをそれぞれ構成するレンズ群の位置調整を行う際、主たる被写体以外(画面中央部以外)の領域についても高周波成分の変化を逐次確認するとともに、前記レンズ群の位置が合焦位置よりも近距離側の位置にある間に高周波成分にピークが現れるか否かを確認しておくことにより行う。   After the AF control ends, unlike the first embodiment, first, it is determined whether or not there is a sub-subject within the angle of view that is closer to the main subject than the main subject, and such a sub-subject exists. Only in the case where it has been (YES in step SB4), the above-described ND filter 52 is inserted into the optical system of the sub photographing block 11b (step SB5). In step SB4, for example, when adjusting the position of the lens groups constituting the lenses 3a and 3b described above by AF control, for example, the change of the high-frequency component is sequentially performed also in regions other than the main subject (other than the center of the screen). Confirmation is performed by confirming whether or not a peak appears in the high frequency component while the position of the lens group is closer to the in-focus position.

引き続き、ステレオカメラ51においては、第1の実施形態で説明した図3のステップSA4〜SA13と同様に、メイン撮影ブロック11a及びサブ撮影ブロック11bとの撮像素子15a,15bによりステレオ画像を取得するとともに、画像処理部17がステレオ画像に基づく距離測定処理(図4参照)を行い、ピント合わせの対象となった主たる被写体部分を除く、撮影画像内の全ての被写体部分(前述した特徴点)の各々におけるカメラ本体2からの距離を測定する(ステップSB6〜SB15)。   Subsequently, in the stereo camera 51, as in steps SA4 to SA13 in FIG. 3 described in the first embodiment, a stereo image is acquired by the image pickup devices 15a and 15b with the main shooting block 11a and the sub shooting block 11b. The image processing unit 17 performs a distance measurement process based on the stereo image (see FIG. 4), and each of all the subject parts (feature points described above) in the photographed image excluding the main subject part that is a focus target. The distance from the camera body 2 is measured (steps SB6 to SB15).

その後、画像処理部17は、第1の実施形態とは異なる輝度補正処理によってメイン撮影画像の輝度をカメラからの距離に応じて画素毎に補正する(ステップSB16)。図11は上記輝度補正処理を示すフローチャートである。   Thereafter, the image processing unit 17 corrects the luminance of the main captured image for each pixel according to the distance from the camera by a luminance correction process different from that of the first embodiment (step SB16). FIG. 11 is a flowchart showing the brightness correction process.

係る処理においては、各画素を対象として以下の処理を行う。まず対象の画素について、それを含む被写体エリアにおける被写体までの距離が、ステップSB11で発光したフラッシュ光における適正距離、つまり主たる被写体までの距離よりも近いか否かを確認し、適正距離よりも近い場合には(ステップSB101でYES)、当該画素の輝度をNDフィルター有りの画像データ(サブ撮影画像)の対応する画素の輝度に補正する(ステップSB102)。つまりカメラからの距離が主たる被写体よりも近い副被写体に対応する被写体エリア内の画素の輝度を、それと対応するサブ撮影画像の画素の輝度に置き換える。   In such processing, the following processing is performed for each pixel. First, with respect to the target pixel, it is confirmed whether or not the distance to the subject in the subject area including the target pixel is closer than the appropriate distance in the flash light emitted in step SB11, that is, the distance to the main subject. In this case (YES in step SB101), the luminance of the pixel is corrected to the luminance of the corresponding pixel in the image data with the ND filter (sub-photographed image) (step SB102). That is, the luminance of the pixel in the subject area corresponding to the sub-subject that is closer to the camera than the main subject is replaced with the luminance of the pixel of the corresponding sub-photographed image.

また、対象の画素を含む被写体エリアにおける被写体までの距離が適正距離よりも遠い場合には(ステップSB101がNO、ステップSB103でYES)、当該画素の輝度を、第1の実施形態における輝度補正処理(図3のステップSA14)と同様に、距離に応じた補正倍率で補正する(ステップSB104)。さらに、対象の画素を含む被写体エリアにおける被写体までの距離が適正距離と等しい場合には(ステップSB101、ステップSB103が共にNO)、輝度補正を行わずに当該画素の輝度をそのまま維持する(ステップSB5)。そして、以上の処理を対象画素を変更しながら繰り返し行い、全画素について処理の終了した時点で(ステップSB106でYES)、輝度補正処理を終了する。   Further, when the distance to the subject in the subject area including the target pixel is longer than the appropriate distance (step SB101 is NO, step SB103 is YES), the brightness of the pixel is changed to the brightness correction process in the first embodiment. Similar to (step SA14 in FIG. 3), correction is performed with a correction magnification corresponding to the distance (step SB104). Furthermore, when the distance to the subject in the subject area including the target pixel is equal to the appropriate distance (NO in both steps SB101 and SB103), the luminance of the pixel is maintained as it is without performing luminance correction (step SB5). ). Then, the above processing is repeated while changing the target pixel, and when the processing is completed for all the pixels (YES in step SB106), the luminance correction processing is ended.

引き続き、図10の処理に戻り、第1の実施形態で説明した、メイン撮影画像の主たる被写体に対応する領域を除いた各被写体エリアを対象とする、被写体までの距離に応じた度合のノイズリダクション処理を実施する(ステップSB17)。これ以後についても、第1の実施形態で説明した図3のステップSA16〜SA19と同様の処理により、メイン撮影画像に対する色補正を行うとともに、補正後の画像を圧縮して記録メモリー20へ記録する(ステップSB18〜SB21)。   Subsequently, returning to the processing of FIG. 10, the noise reduction according to the distance to the subject for each subject area excluding the region corresponding to the main subject of the main captured image described in the first embodiment. Processing is performed (step SB17). Thereafter, color correction is performed on the main photographed image and the corrected image is compressed and recorded in the recording memory 20 by processing similar to steps SA16 to SA19 in FIG. 3 described in the first embodiment. (Steps SB18 to SB21).

以上のように本実施形態のステレオカメラ51においても、フラッシュ撮影時には、最終的に記録されるメイン撮影画像の各部の輝度を、第1の実施形態と異なるステップSB16の輝度補正処理においてカメラからの距離に応じて補正することにより、フラッシュ撮影においてもより各部の明るさが自然な状態の画像を得ることができ、さらに、上記の輝度補正後の画像に、第1の実施形態と同様のノイズリダクション処理を行うことにより、より質の高い画像を得ることができる。また、動きのある被写体を対象としたフラッシュ撮影にも対応することができる。   As described above, also in the stereo camera 51 of the present embodiment, at the time of flash photography, the brightness of each part of the main photographed image that is finally recorded is obtained from the camera in the brightness correction process of step SB16 different from the first embodiment. By correcting according to the distance, it is possible to obtain an image in which the brightness of each part is natural even in flash photography. Further, the same noise as in the first embodiment is added to the image after the brightness correction. By performing the reduction process, a higher quality image can be obtained. In addition, flash photography for a moving subject can also be handled.

上記に加え本実施形態においては、フラッシュ撮影に際し、画角内にカメラからの距離が主たる被写体よりも近い副被写体が存在する場合には、サブ撮影ブロック11b側ではNDフィルター52を介して被写体を撮像してサブ撮影画像を取得しておき、輝度補正処理においてメイン撮影画像の輝度をカメラからの距離に応じて画素毎に補正するとき、カメラからの距離が主たる被写体よりも近い副被写体に対応する被写体エリア内の画素については、その輝度を、それと対応するサブ撮影画像の画素の輝度に置き換え、かつ他の画素の輝度は第1の実施形態と同様の補正を行うようにした。つまり白飛びが生じやすい、主たる被写体の前景部分(副被写体に相当する部分)の画素の輝度をサブ撮影画像側の画素の輝度と置き換えることによって、前景部分の白飛びを、実質的には撮影時点にNDフィルター52によって防止するようにした。   In addition to the above, in the present embodiment, during flash shooting, if there is a sub-subject within the angle of view that is closer to the main subject than the main subject, the sub-photographing block 11b side selects the subject via the ND filter 52. When sub-images are acquired by capturing images and the luminance of the main captured image is corrected pixel by pixel according to the distance from the camera in the luminance correction process, it corresponds to sub-subjects that are closer to the camera than the main subject. For the pixels in the subject area, the luminance is replaced with the luminance of the pixel of the corresponding sub-photographed image, and the luminance of the other pixels is corrected in the same manner as in the first embodiment. In other words, the brightness of the foreground part of the main subject (the part corresponding to the sub-subject) that is likely to be overexposed is replaced with the brightness of the pixel on the side of the sub-photographed image, so that the overexposure in the foreground part is substantially taken. At the time, the ND filter 52 prevents it.

よって、第1の実施形態とは異なり、前景部分については、単に白飛びを防止するだけでなく、撮影時における輝度飽和に伴う画像情報の欠落がなく、十分に明るい環境下でフラッシュを使用しない撮影を行ったときとより近い状態の画質を確保することができる。   Therefore, unlike the first embodiment, the foreground portion not only prevents whiteout, but also does not use image flash in a sufficiently bright environment without any loss of image information due to luminance saturation during shooting. It is possible to ensure image quality that is closer to that when shooting.

(実施形態3)
次に本発明の第3の実施形態について説明する。本実施形態は、第1の実施形態と同様、互いに独立した2系統の光学系と撮像系とを備えることにより任意の被写体を左右の異なる位置から同時に撮影可能なステレオカメラに関するものである。そして、本実施形態のステレオカメラは図2に示した電気的構成を有するとともに、制御部18がフラッシュ撮影時には本発明の撮像制御手段、補正手段として機能するとともに、ステレオカメラに以下の動作を行わせるよう構成されている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. As in the first embodiment, the present embodiment relates to a stereo camera that includes two optical systems and an imaging system that are independent from each other and can simultaneously photograph an arbitrary subject from different positions on the left and right. The stereo camera of the present embodiment has the electrical configuration shown in FIG. 2, and the control unit 18 functions as an imaging control unit and a correction unit of the present invention during flash photography, and performs the following operation on the stereo camera. It is configured to

図12及び図13は、本実施形態におけるステレオカメラのフラッシュ撮影時の動作を示すフローチャートである。   12 and 13 are flowcharts showing the operation at the time of flash photographing of the stereo camera in the present embodiment.

本実施形態においてもフラッシュ撮影時には、第1の実施形態と同様に、まず制御部18が一対の撮影ブロック11a,11bの各々の撮像素子(CCD)15a,15bのイニシャライズを行うことにより、所定のフレームレートによる被写体の撮像動作を開始し(ステップSC1)、シャッタースイッチ5が半押しされたら(ステップSC2でYES)、AF制御により主たる被写体へのピント合わせを行う(ステップSC3)。また、AF制御が終了した時点で、メイン撮影ブロック11aの撮像素子(CCD)15aにより撮像された画像に基づき、主たる被写体の明るさを測定する(ステップSC4)。   Also in the present embodiment, at the time of flash photographing, as in the first embodiment, the control unit 18 first initializes the image sensors (CCD) 15a and 15b of the pair of photographing blocks 11a and 11b, thereby obtaining a predetermined value. The subject imaging operation at the frame rate is started (step SC1). When the shutter switch 5 is half-pressed (YES in step SC2), the main subject is focused by AF control (step SC3). When the AF control is completed, the brightness of the main subject is measured based on the image captured by the image sensor (CCD) 15a of the main imaging block 11a (step SC4).

引き続き、本実施形態においては、主たる被写体までの距離に応じたフラッシュ発光量である適正発光量を第1の実施形態と同様にして算出するとともに、さらにカメラからの距離が互いに異なる複数位置の被写体の撮影に適した複数段階のフラッシュ発光量を算出する(ステップSC5)。ここで、各段階のフラッシュ発光量は、撮影可能な至近距離から無限遠までの距離範囲において主たる被写体までの距離を中心とした前後の範囲を複数に区分したときの各距離区分の範囲(1.0m〜3.0m等)に対応した発光量である。なお、算出した各段階のフラッシュ発光量と各距離区分の範囲との関係は内部メモリ(RAM)に記憶する。しかる後、上記適正発光量に応じた適正露出を得るためのシャッター速度、ISO感度、絞りの開口径(絞り値)といった撮影条件を設定する(ステップSC6)。   Subsequently, in the present embodiment, the appropriate light emission amount that is the flash light emission amount according to the distance to the main subject is calculated in the same manner as in the first embodiment, and the subjects at a plurality of positions whose distances from the camera are different from each other. A plurality of levels of flash emission suitable for photographing is calculated (step SC5). Here, the amount of flash emission at each stage is the range of each distance division (1) when the range before and after the distance to the main subject is divided into a plurality of ranges in the distance range from the closest distance that can be taken to infinity. .0m to 3.0m, etc.). The calculated relationship between the flash emission amount at each stage and the range of each distance section is stored in an internal memory (RAM). Thereafter, photographing conditions such as shutter speed, ISO sensitivity, aperture diameter (aperture value) for obtaining an appropriate exposure according to the appropriate light emission amount are set (step SC6).

その後、シャッタースイッチ5が全押しされたら(ステップSC7でYES)、フラッシュ発光量として、一番遠い距離の被写体に応じた段階の発光量を設定した後(ステップSC8)、露光を開始し(ステップSC9)、露光期間中にはフラッシュ発光部4に、先に算出した所定の発光量のフラッシュ光を発光させ(ステップSC10)、シャッター速度に応じた時間に達した時点で露光を終了する(ステップSC11)。引き続き、ステップSC5で算出した、適正発光量を含む全ての段階のフラッシュ発光量による撮像動作が終了するまで(ステップSC13でNO)、フラッシュ発光量の設定を次の段階の発光量(より近い距離の被写体に対応する発光量)に順次に変更しながら(ステップSC14)、フラッシュ発光量以外の撮影条件は変えずにステップSC9〜SC12における撮像及び撮像データの一時記録を繰り返す。   Thereafter, when the shutter switch 5 is fully pressed (YES in step SC7), the flash emission amount is set to a light emission amount at a stage corresponding to the subject at the farthest distance (step SC8), and then exposure is started (step SC8). SC9) During the exposure period, the flash light emitting unit 4 is caused to emit flash light having a predetermined light emission amount calculated previously (step SC10), and the exposure is terminated when the time corresponding to the shutter speed is reached (step SC10). SC11). Subsequently, until the imaging operation with all the flash emission amounts including the appropriate emission amount calculated in step SC5 is completed (NO in step SC13), the flash emission amount is set to the next emission amount (closer distance). The light emission amount corresponding to the subject is sequentially changed (step SC14), and the imaging and temporary recording of the imaging data in steps SC9 to SC12 are repeated without changing the imaging conditions other than the flash light emission amount.

ここで、図には省略するが、上記ステップSC9〜SC12の繰り返しによる連続撮影に際しては、フラッシュ発光量を適正発光量に設定したときには、一対の撮影ブロック11a,11bの各々の撮像素子15a,15bを駆動し、1組の撮像データを画像処理メモリー19に一時的に記録し、フラッシュ発光量を適正発光量以外の発光量に設定したときには、メイン撮影ブロック11aの撮像素子15a(サブ撮影ブロック11bの撮像素子15bでもよい)のみを駆動して単一の撮像データを画像処理メモリー19に一時的に記録する。さらに、各回の撮像データの記録時には、制御部18が各々の撮像データと対応付けて、それらを撮像したときのフラッシュ発光量が対応する前述した距離区分の範囲を内部メモリ(RAM)に記憶する。   Here, although not shown in the figure, during continuous shooting by repeating the above steps SC9 to SC12, when the flash light emission amount is set to an appropriate light emission amount, the image pickup devices 15a and 15b of the pair of image pickup blocks 11a and 11b, respectively. , And a set of imaging data is temporarily recorded in the image processing memory 19, and when the flash emission amount is set to an emission amount other than the appropriate emission amount, the image sensor 15a (sub-imaging block 11b) of the main imaging block 11a is set. Only the image pickup device 15b) is driven, and single image pickup data is temporarily recorded in the image processing memory 19. Further, at the time of recording the imaging data at each time, the control unit 18 associates with each imaging data, and stores the above-described distance division range corresponding to the flash light emission amount when the imaging data is captured in the internal memory (RAM). .

その後、全ての段階のフラッシュ発光量による撮像動作が終了したら(ステップSC13でYES)、画像処理部17が、画像処理メモリー19に一時的に記録してある全ての撮像データをそれぞれ対象として、既説したプレ・フィルター処理、解像度変換を行う(ステップSC15,SC16)。これにより、適正発光量のフラッシュ発光の下で取得したステレオ画像と、互いに異なる距離に対応する複数段階の発光量のフラッシュ発光の下で取得した複数の撮影画像とが画像処理メモリー19内に生成される。   After that, when the imaging operation with the flash emission amount at all stages is completed (YES in step SC13), the image processing unit 17 sets all the imaging data temporarily recorded in the image processing memory 19 as targets. The pre-filter processing and resolution conversion described above are performed (steps SC15 and SC16). As a result, a stereo image acquired under flash emission with an appropriate amount of light emission and a plurality of captured images acquired under flash emission with multiple levels of light emission corresponding to different distances are generated in the image processing memory 19. Is done.

引き続き、画像処理部17が上記ステレオ画像に基づく既説した距離測定処理(図4参照)を行い、画素毎の距離情報を取得した後(ステップSC17)、制御部18が、その画素毎の距離情報に基づき、前記ステレオ画像のメイン撮影画像と前記複数の撮影画像とを合成する(ステップSC18)。   Subsequently, after the image processing unit 17 performs the above-described distance measurement processing based on the stereo image (see FIG. 4) and acquires distance information for each pixel (step SC17), the control unit 18 performs the distance for each pixel. Based on the information, the main captured image of the stereo image and the plurality of captured images are synthesized (step SC18).

係る合成処理においては、メイン撮影画像をベース画像として、その他の複数の撮影画像の各々を対象として、その撮影画像から、対応する距離区分の範囲に含まれる距離情報を有する画素群からなる被写体エリアの部分画像を切り出し、切り出した部分画像をメイン撮影画像の対応する領域に上書き合成する。例えば画像内に図8(a)に説明した被写体が存在していた場合には、メイン撮影画像の主たる被写体Aに相当する部分は残して、それ以外の被写体B,C,D,Eに相当する部分については、それぞれ複数の撮影画像のうちの互いに異なる撮影画像から、その撮影時に設定されていたフラッシュ発光量が適正発光量であった被写体に相当する被写体エリアの部分画像をそれぞれ切り出して上書き合成する。   In such composition processing, a subject area including a group of pixels having distance information included in the range of the corresponding distance category from the captured image, with the main captured image as a base image and each of a plurality of other captured images as targets. Are cut out, and the cut-out partial image is overwritten and synthesized on the corresponding area of the main photographed image. For example, when the subject described in FIG. 8A exists in the image, the portion corresponding to the main subject A in the main photographed image is left and it corresponds to the other subjects B, C, D, and E. For the part to be shot, each partial image of the subject area corresponding to the subject whose flash emission amount set at the time of shooting was the appropriate flash amount was cut out and overwritten from different shot images of the plurality of shot images. Synthesize.

これにより、合成後の画像として、カメラからの距離が互いに異なる全ての被写体部分A〜Eに、その距離に関係なく適正量のフラッシュ発光が照射された場合と同様の明るさが確保された画像、例えば図8(b)に例示した十分に明るい環境下でフラッシュを使用しない撮影を行ったとき得られる画像とほぼ同様の画像が得られることとなる。   As a result, as a combined image, all the subject portions A to E having different distances from the camera are secured with the same brightness as when an appropriate amount of flash light is emitted regardless of the distance. For example, an image substantially similar to the image obtained when shooting is performed without using a flash in a sufficiently bright environment illustrated in FIG. 8B, for example.

しかる後、上記合成処理により得られた画像を撮影画像として、第1の実施形態で説明した図3のステップSA16〜SA19と同様色補正、及び圧縮を行い、圧縮後の画像データを記録メモリー20へ記録する(ステップSC19〜SC22)。   Thereafter, the image obtained by the above synthesis process is used as a captured image, color correction and compression are performed in the same manner as steps SA16 to SA19 in FIG. 3 described in the first embodiment, and the compressed image data is stored in the recording memory 20. (Steps SC19 to SC22).

以上のように本実施形態においては、フラッシュ撮影時には、各々の撮影時のフラッシュ光の発光量を、主たる被写体までの距離に応じた適正発光量を含む複数段階の発光量であって、互いに異なる距離に応じた複数段階の発光量に変化させる連続撮影を行い、それにより取得した複数枚の撮影画像を上記距離に基づき部分的に切り出して合成することにより、カメラからの距離が互いに異なる全ての被写体部分に、その距離に関係なく適正量のフラッシュ発光が照射された場合と同様の明るさが確保された画像を撮影画像として最終的に取得する。   As described above, in the present embodiment, at the time of flash photography, the light emission quantity of the flash light at each photography is a multi-stage light emission quantity including an appropriate light emission quantity according to the distance to the main subject, and is different from each other. By performing continuous shooting that changes to multiple levels of light emission depending on the distance, and cutting out and synthesizing a plurality of captured images obtained based on the above distance, all the distances from the camera are different from each other Finally, an image in which the same brightness is secured as when the subject portion is irradiated with an appropriate amount of flash emission regardless of the distance is acquired as a captured image.

よって、フラッシュ撮影においても各部の明るさが自然な状態の画像を得ることができる。しかも、カメラからの距離が主たる被写体よりも遠い背景の被写体部分にノイズが生じたり、カメラからの距離が主たる被写体よりも近い前景の被写体部分に画像情報の欠落が生じたりする心配がなく、より質の高い画像を得ることができる。   Therefore, an image with a natural brightness of each part can be obtained even in flash photography. In addition, there is no worry that noise will occur in the background subject part that is farther from the camera than the main subject, or image information will be lost in the foreground subject part that is closer to the camera than the main subject. A high quality image can be obtained.

(実施形態4)
次に本発明の第4の実施形態について説明する。本実施形態は、第1〜第3の実施形態とは異なり、画像内における各被写体部分の距離情報(画素毎の距離情報)を光飛行時間測定法により取得するカメラに関するものである。ここで、光飛行時間測定法は、測距用の光パルスが対象物に到達し、そこから反射して戻ってくるまでに必要とする時間(飛行時間:time of flight)に基づき対象物までの距離を測定する方法である。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. Unlike the first to third embodiments, the present embodiment relates to a camera that acquires distance information (distance information for each pixel) of each subject portion in an image by an optical time-of-flight measurement method. Here, the optical flight time measurement method is based on the time (flight time: flight of time) required for a distance measuring light pulse to reach an object and reflect back from the object. It is a method of measuring the distance.

すなわち本実施形態のカメラは、図示しないが図2に示したステレオカメラ1に、前記フラッシュ発光部4およびフラッシュ制御部23とは別に、被写体に向けて近赤外領域の波長を有するパルス光を照射する所定の発光素子を含む発光部(測距用光発手段、)と、その発光を制御部18の指令に基づき制御する発光制御部とを設けるとともに、サブ撮影ブロック11b側の撮像素子15bをCMOSセンサに代えた構成である。また、制御部18がフラッシュ撮影時には本発明の距離取得手段、撮像制御手段として機能するとともに、ステレオカメラに以下の動作を行わせるよう構成されている。   That is, the camera according to the present embodiment, although not shown, emits pulsed light having a wavelength in the near-infrared region toward the subject, separately from the flash light emitting unit 4 and the flash control unit 23, on the stereo camera 1 shown in FIG. A light emitting unit (ranging light emitting means) including a predetermined light emitting element to irradiate and a light emission control unit for controlling the light emission based on a command from the control unit 18 and an image sensor 15b on the sub photographing block 11b side are provided. Is replaced with a CMOS sensor. Further, the control unit 18 functions as a distance acquisition unit and an imaging control unit of the present invention at the time of flash photography, and is configured to cause the stereo camera to perform the following operations.

図14は、本実施形態のカメラにおける制御部18の制御に基づいたフラッシュ撮影時の動作を示すフローチャートである。基本的な動作は第1の実施形態で図3に示した動作と同様である。すなわち本実施形態では、制御部18が図3のステップSA1〜SA6と同様の処理を行い(ステップSD1〜SD6)、シャッタースイッチ5が全押しされた時点で(ステップSD7でYES)、近赤外光による距離測定を行う(ステップSD8)。   FIG. 14 is a flowchart showing an operation at the time of flash photography based on the control of the control unit 18 in the camera of the present embodiment. The basic operation is the same as that shown in FIG. 3 in the first embodiment. That is, in the present embodiment, the control unit 18 performs the same processing as Steps SA1 to SA6 in FIG. 3 (Steps SD1 to SD6), and when the shutter switch 5 is fully pressed (YES in Step SD7), the near infrared Distance measurement using light is performed (step SD8).

図15は、その距離測定の詳細を示したフローチャートである。係る処理においては、まず、前記CMOSセンサ(図示せず)の露光時間を設定する(ステップSD101)。ここで設定する露光時間は微少時間であるともに、予め決められている測定距離範囲の異なる測定距離(所定距離刻みの距離)に対応する異なる露光時間の初期値(測定距離範囲の最大または最小)である。   FIG. 15 is a flowchart showing details of the distance measurement. In this process, first, an exposure time of the CMOS sensor (not shown) is set (step SD101). The exposure time set here is a very short time, and the initial value of the different exposure time corresponding to a different measurement distance (distance in steps of a predetermined distance) in the predetermined measurement distance range (maximum or minimum of the measurement distance range). It is.

次に、設定した露光時間によるCMOSセンサの露光を開始し(ステップSD102)、その後、直ちに前記発光部(図示せず)に近赤外光(パルス光)を発光させ(ステップSD013)、露光時間に達した時点で露光を終了し(ステップSD104)、距離測定用の画像(以下、測距画像という。)である撮像データ(ベイヤーデータ)を画像処理メモリー19に一時的に記録する(ステップSD105)。このとき記録される撮像データにおいては、カメラからの距離がステップSD101で設定した露光時間に対応する距離(測定距離)にある被写体部分の画素データのみの画素値が一定以上となる。   Next, the exposure of the CMOS sensor with the set exposure time is started (step SD102), and then the near-infrared light (pulse light) is immediately emitted to the light emitting unit (not shown) (step SD013), and the exposure time is set. Exposure is terminated (step SD104), and imaging data (Bayer data) that is an image for distance measurement (hereinafter referred to as a distance measurement image) is temporarily recorded in the image processing memory 19 (step SD105). ). In the imaging data recorded at this time, the pixel value of only the pixel data of the subject portion whose distance from the camera is at a distance (measurement distance) corresponding to the exposure time set in step SD101 is greater than or equal to a certain value.

引き続き、測定すべき距離に応じた全ての露光時間での露光を伴う複数回の撮像動作(距離測定)が終了するまでは(ステップSD106でNO)、露光時間(測定距離)を順次変更しながら(ステップSD107)、前述したステップSD102〜SD105における撮像及び撮像データの一時記録を繰り返す。なお、各回の撮像データの記録時には、制御部18が各々の撮像データと対応付けて、それらを撮像したときの露光時間を測定距離情報として内部メモリ(RAM)に記憶する。   Subsequently, the exposure time (measurement distance) is sequentially changed until a plurality of imaging operations (distance measurement) with exposure at all exposure times according to the distance to be measured is completed (NO in step SD106). (Step SD107), the imaging and the temporary recording of the imaging data in steps SD102 to SD105 described above are repeated. In addition, at the time of recording each time of imaging data, the control unit 18 associates with each imaging data, and stores the exposure time when imaging them in the internal memory (RAM) as measurement distance information.

やがて、全ての露光時間での露光を伴う複数回の撮像動作(距離測定)が終了したら(ステップSD106でYES)、制御部18が画像処理メモリー19に一時的に記録されている各々の撮像データと、それぞれの撮像データの取得時(撮像時)に設定されていた露光時間に対応する測定距離とに基づき、画素毎の距離データを取得する(ステップSD108)。すなわち、各々の撮像データについて画素値が一定以上である画素を確認し、それらの距離データとして当該撮像データに対応する測定距離を取得する。   Eventually, when a plurality of imaging operations (distance measurement) involving exposure for all exposure times are completed (YES in step SD106), the control unit 18 temporarily captures each imaging data recorded in the image processing memory 19. And distance data for each pixel is acquired based on the measurement distance corresponding to the exposure time set at the time of acquisition of the respective imaging data (at the time of imaging) (step SD108). That is, for each imaging data, a pixel having a pixel value greater than or equal to a certain value is confirmed, and a measurement distance corresponding to the imaging data is acquired as distance data thereof.

さらに、ここで取得した画素毎の距離データを、各々の撮像データつまり測距画像と、後述するステップSD9〜SD13で取得する撮影画像との視差に応じて補正することにより、記録用の撮影画像における画素毎の距離情報を取得する(ステップSD109)。これにより距離測定処理を終了する。   Further, the distance data for each pixel acquired here is corrected in accordance with the parallax between each captured image data, that is, the distance measurement image, and the captured image acquired in steps SD9 to SD13 described later, so that the captured image for recording is recorded. The distance information for each pixel is acquired (step SD109). This completes the distance measurement process.

引き続き、図4の処理へ戻り、図3のステップSA8〜SA12と同様の処理を行い(ステップSD9〜SD13)、その際にメイン撮影ブロック11a側の撮像素子15aのみを駆動して単一の撮影画像を取得する。これ以降は、画像処理部17が、ステップSD8の距離測定処理により取得された画素毎の距離情報に基づいて、取得した撮影画像のデータに対して第1の実施形態と同様の輝度補正処理、ノイズリダクション処理、色補正処理、圧縮処理を行うとともに、制御部18が処理後の画像データを記録メモリー20へ記録する(ステップSD14〜SD19)。   Subsequently, returning to the processing of FIG. 4, the same processing as Steps SA8 to SA12 of FIG. 3 is performed (Steps SD9 to SD13). At this time, only the image sensor 15a on the main imaging block 11a side is driven to perform a single imaging. Get an image. Thereafter, the image processing unit 17 performs brightness correction processing similar to that of the first embodiment on the acquired captured image data based on the distance information for each pixel acquired by the distance measurement processing in step SD8. In addition to performing noise reduction processing, color correction processing, and compression processing, the control unit 18 records the processed image data in the recording memory 20 (steps SD14 to SD19).

以上説明した本実施形態においても、第1の実施形態と同様、フラッシュ撮影においてもより各部の明るさが自然な状態の画像を得ることができる。さらに、被写体の色に関係なく適切な輝度補正処理を行うことができ、より各部の明るさが自然な状態の画像を確実に得ることができる。   Also in the present embodiment described above, as in the first embodiment, an image in which the brightness of each part is natural can be obtained even in flash photography. Furthermore, appropriate luminance correction processing can be performed regardless of the color of the subject, and an image in which the brightness of each part is more natural can be reliably obtained.

なお、本実施形態においては撮像系を2系統有する構成において、一方の撮像系の撮像素子をCMOSセンサとし、それを光飛行時間測定法による距離測定用のセンサとして使用する場合について説明したが、係る距離測定用のセンサを、記録画像の撮像にそのまま使用する構成とすることもできる。また、近赤外光による距離測定を行うタイミングは、シャッタースイッチ5が全押しされた直後に限らず、記録用の撮影画像を取得した直後(ステップSD13の直後)であってもよい。   In the present embodiment, in the configuration having two image pickup systems, the case where the image pickup element of one image pickup system is a CMOS sensor and it is used as a distance measurement sensor by the optical time-of-flight measurement method has been described. Such a distance measuring sensor may be used as it is for capturing a recorded image. Further, the timing for performing distance measurement using near-infrared light is not limited to immediately after the shutter switch 5 is fully pressed, but may be immediately after a captured image for recording is acquired (immediately after step SD13).

また、ここでは、前述した近赤外光による距離測定を、第1の実施形態と同様の動作を基本とするフラッシュ撮影時に行う場合について説明したが、近赤外光による距離測定によってフラッシュ撮影時に取得した記録用の撮影画像の画素毎の距離情報を取得する方法は、前述した第2の実施形態と同様の動作を基本とするフラッシュ撮影時にも適用することができる。   In addition, here, a case has been described in which the distance measurement using near infrared light described above is performed during flash photography based on the same operation as in the first embodiment, but during flash photography by distance measurement using near infrared light. The method for acquiring the distance information for each pixel of the acquired recording image for recording can also be applied during flash shooting based on the same operation as that of the second embodiment described above.

(実施形態5)
次に本発明の第5の実施形態について説明する。本実施形態は、第4の実施形態とは異なり、画像内における各被写体部分の距離情報(画素毎の距離情報)を、焦点距離をずらしたAF処理を複数回行い、それにより取得した複数の画像におけるボケ度合に基づき取得するカメラに関するものである。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described. Unlike the fourth embodiment, the present embodiment performs a plurality of AF processes by shifting the focal length of the distance information (distance information for each pixel) of each subject portion in the image, thereby obtaining a plurality of pieces of information. The present invention relates to a camera acquired based on the degree of blur in an image.

本実施形態のカメラの構成は、一般的なカメラと同様、単一の光学系と撮像系とを備えた構成、例えば図2に示した構成においてサブ撮影ブロック11bを廃止した構成である。また、制御部18がフラッシュ撮影時には本発明の撮像制御手段として機能し、ステレオカメラに以下の動作を行わせるよう構成されている。すなわちフラッシュ撮影時における基本的な動作は、第4の実施形態で図14に示した動作と同様であるため図示しないが、本実施形態ではシャッタースイッチ5が全押しされた直後のタイミングにおける既説した近赤外光による距離測定(ステップSD8)に代えて、以下に述べるAF制御による距離測定を行う。   The configuration of the camera according to the present embodiment is a configuration including a single optical system and an imaging system, for example, the configuration shown in FIG. Further, the control unit 18 functions as an imaging control unit of the present invention at the time of flash photography, and is configured to cause the stereo camera to perform the following operation. That is, the basic operation at the time of flash photography is the same as the operation shown in FIG. 14 in the fourth embodiment and is not shown, but in the present embodiment, the explanation at the timing immediately after the shutter switch 5 is fully pressed is given. Instead of the distance measurement using near infrared light (step SD8), distance measurement by AF control described below is performed.

図16は、その距離測定の詳細を示したフローチャートである。係る処理においては、まず、焦点距離を測定距離範囲内の最も手前の距離(撮影可能な至近距離)に設定し、それに応じた位置へ光学系を移動するAF処理を行う(ステップSE101)。次に、その状態で被写体の撮像、及び撮像した画像の記録を行う(ステップSE102)。つまり距離測定用の画像(以下、測距画像という。)である撮像データ(ベイヤーデータ)を画像処理メモリー19への一時的に記録する。このとき記録される撮像データにおいては、カメラからの距離がステップSE101で設定した焦点距離に対応する距離(測定距離)にある被写体部分の空間周波数が最も高くなる。   FIG. 16 is a flowchart showing details of the distance measurement. In this process, first, the focal distance is set to the nearest distance (closest distance that can be photographed) within the measurement distance range, and the AF process is performed to move the optical system to a position corresponding thereto (step SE101). Next, in this state, the subject is imaged and the captured image is recorded (step SE102). That is, imaging data (Bayer data), which is a distance measurement image (hereinafter referred to as a distance measurement image), is temporarily recorded in the image processing memory 19. In the imaging data recorded at this time, the spatial frequency of the subject portion whose distance from the camera is the distance (measurement distance) corresponding to the focal length set in step SE101 is the highest.

引き続き、測定すべき距離に応じた全ての焦点距離(予め決められている所定距離刻みの距離)に応じた位置に光学系を移動して画像を取得するまでは(ステップSE103でNO)、焦点距離を順次変更しながら(ステップSE104)、前述したステップSE102における撮像及び撮像データの一時記録を繰り返す。なお、各回の撮像データの記録時には、制御部18が各々の撮像データと対応付けて、それらを撮像したときの焦点距離を測定距離情報として内部メモリ(RAM)に記憶する。   Subsequently, until the image is acquired by moving the optical system to a position corresponding to all the focal lengths corresponding to the distance to be measured (distances determined in advance by a predetermined distance) (NO in step SE103), the focus is increased. While sequentially changing the distance (step SE104), the imaging in step SE102 and the temporary recording of the imaging data are repeated. In addition, at the time of recording each time of imaging data, the control unit 18 associates with each imaging data, and stores the focal distance when the images are captured in the internal memory (RAM) as measurement distance information.

やがて、全ての焦点距離での画像の取得が終了したら(ステップSE103でYES)、画像処理部17が、画像処理メモリー19に一時的に記録されている各々の撮像データについて、画像間における周波数成分を比較することにより、画像内を同一距離毎の複数の被写体エリアに分割するとともに、各々の被写体エリアの空間周波数が最も高い測距画像の焦点距離に対応する測定距離を制御部18から取得し、その被写体エリアにおける被写体までの距離として取得する(ステップSE105)。さらに、同一の被写体エリア内の各画素に、当該被写体エリア内の距離を割り当てることにより、画素単位の距離情報を取得し、記憶する(ステップSE106)。   Eventually, when the acquisition of images at all focal lengths is completed (YES in step SE103), the image processing unit 17 uses the frequency components between the images for each piece of imaging data temporarily recorded in the image processing memory 19. Are divided into a plurality of subject areas at the same distance, and the measurement distance corresponding to the focal length of the distance measurement image having the highest spatial frequency of each subject area is acquired from the control unit 18. The distance to the subject in the subject area is acquired (step SE105). Further, by assigning a distance in the subject area to each pixel in the same subject area, distance information in units of pixels is acquired and stored (step SE106).

しかる後、記録用の画像の撮影に向けて、距離測定処理の前に行っていたAF制御(図14でステップSD3)で検出した主たる被写体に応じた位置へ光学系を移動し(ステップSE107)、これにより距離測定処理を終了する。   Thereafter, the optical system is moved to a position corresponding to the main subject detected by the AF control (step SD3 in FIG. 14) that was performed before the distance measurement process, toward the recording of the recording image (step SE107). This completes the distance measurement process.

以上説明した本実施形態においても、第1及び第4の実施形態と同様、フラッシュ撮影においてもより各部の明るさが自然な状態の画像を得ることができる。さらに、被写体の色に関係なく適切な輝度補正処理を行うことができ、より各部の明るさが自然な状態の画像を確実に得ることができる。   Also in the present embodiment described above, as in the first and fourth embodiments, an image in which the brightness of each part is more natural can be obtained even in flash photography. Furthermore, appropriate luminance correction processing can be performed regardless of the color of the subject, and an image in which the brightness of each part is more natural can be reliably obtained.

なお、本実施形態においては、一般的なカメラと同様、単一の光学系と撮像系とを備えた構成のカメラにおいてAF制御による距離測定を行う場合について説明したが、係るAF制御による距離測定は、第1及び第4の実施形態で説明した撮像系を2系統有するステレオカメラにおいても行うことができる。   In the present embodiment, as in the case of a general camera, a case where distance measurement by AF control is performed in a camera having a single optical system and an imaging system has been described. However, distance measurement by AF control is described. Can also be performed in a stereo camera having two image pickup systems described in the first and fourth embodiments.

また、ここでは、前述したAF制御による距離測定を、第1の実施形態と同様の動作を基本とするフラッシュ撮影時に行う場合について説明したが、AF制御による距離測定によってフラッシュ撮影時に取得した記録用の撮影画像の画素毎の距離情報を取得する方法は、前述した第2の実施形態と同様の動作を基本とするフラッシュ撮影時にも適用することができる。   Further, here, the case where the distance measurement by the AF control described above is performed at the time of flash photographing based on the same operation as in the first embodiment has been described. However, for the recording acquired at the time of flash photographing by the distance measurement by the AF control. The method for acquiring the distance information for each pixel of the captured image can also be applied during flash photographing based on the same operation as in the second embodiment.

第1の実施形態を示すステレオカメラの外観斜視図である。It is an external appearance perspective view of the stereo camera which shows 1st Embodiment. 同ステレオカメラのブロック図である。It is a block diagram of the stereo camera. 同ステレオカメラのフラッシュ撮影時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of flash photography of the stereo camera. 同ステレオカメラの距離測定処理を示すフローチャートである。It is a flowchart which shows the distance measurement process of the stereo camera. ステレオ画像からの距離測定方法を示す図である。It is a figure which shows the distance measurement method from a stereo image. 補正倍率取得テーブルを示す概念図である。It is a conceptual diagram which shows a correction magnification acquisition table. ノイズ削減レベル取得テーブルを示す概念図である。It is a conceptual diagram which shows a noise reduction level acquisition table. フラッシュ撮影により得られる画像と、他の撮影方法での撮影により得られる画像との違いを示す説明図である。It is explanatory drawing which shows the difference between the image obtained by flash photography, and the image obtained by imaging | photography with another imaging method. 第2の実施形態を示すステレオカメラのブロック図である。It is a block diagram of the stereo camera which shows 2nd Embodiment. 同ステレオカメラのフラッシュ撮影時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of flash photography of the stereo camera. 同ステレオカメラの輝度補正処理を示すフローチャートである。It is a flowchart which shows the brightness correction process of the stereo camera. 第3の実施形態におけるステレオカメラのフラッシュ撮影時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of flash photography of the stereo camera in 3rd Embodiment. 図12に続くフローチャートである。It is a flowchart following FIG. 第4の実施形態におけるステレオカメラのフラッシュ撮影時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of flash photography of the stereo camera in 4th Embodiment. 同実施形態の距離測定処理を示すフローチャートである。It is a flowchart which shows the distance measurement process of the embodiment. 第5の実施形態のカメラにおける距離測定処理を示すフローチャートである。It is a flowchart which shows the distance measurement process in the camera of 5th Embodiment.

符号の説明Explanation of symbols

1 ステレオカメラ
2 カメラ本体
3a,3b レンズ
4 フラッシュ発光部
11a,11b 撮影ブロック
12a,12b レンズブロック
13a,13b 光学系駆動部
14a,14b 光学系制御部
15a,15b 撮像素子
16a,16b AD変換部
17 画像処理部
18 制御部
23 フラッシュ制御部
51 ステレオカメラ
52 NDフィルター
T1 補正倍率取得テーブル
T2 ノイズ削減レベル取得テーブル
DESCRIPTION OF SYMBOLS 1 Stereo camera 2 Camera body 3a, 3b Lens 4 Flash light emission part 11a, 11b Shooting block 12a, 12b Lens block 13a, 13b Optical system drive part 14a, 14b Optical system control part 15a, 15b Image pick-up element 16a, 16b AD conversion part 17 Image processing unit 18 Control unit 23 Flash control unit 51 Stereo camera 52 ND filter T1 Correction magnification acquisition table T2 Noise reduction level acquisition table

Claims (12)

被写体を撮像し撮影画像を取得する撮像手段と、前記被写体に向けて撮影補助光を照射する発光手段とを備えたカメラ装置において、
画角内における被写体の各部までの距離と主たる被写体までの距離を取得する距離取得手段と、
前記発光手段による前記主たる被写体の撮影に適した発光量での撮影補助光の発光動作を伴う所定の撮影に際し前記撮像手段により取得された撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離と前記主たる被写体までの距離に応じて補正する補正手段と、
その補正手段による補正後の撮影画像を最終的な撮影画像として記録する制御を行う記録制御手段とを備え
前記補正手段は、前記主たる被写体までの距離を基準とし、前記被写体の各部までの距離が前記主たる被写体までの距離よりも近い場合は前記被写体の各部の明るさを下げるように補正し、前記被写体の各部までの距離が前記主たる被写体までの距離よりも遠い場合は前記被写体の各部の明るさを上げるように補正することを特徴とするカメラ装置。
In a camera apparatus including an imaging unit that captures an image of a subject and obtains a captured image, and a light-emitting unit that irradiates shooting auxiliary light toward the subject.
Distance acquisition means for acquiring the distance to each part of the subject within the angle of view and the distance to the main subject;
The brightness of each part of the captured image acquired by the imaging unit is acquired by the distance acquisition unit at the time of predetermined imaging accompanied by the emission operation of the auxiliary shooting light with a light emission amount suitable for imaging the main subject by the light emitting unit. Correction means for correcting according to the distance to each part of the subject and the distance to the main subject,
A recording control unit that performs control to record the captured image corrected by the correcting unit as a final captured image ;
The correction means corrects the brightness of each part of the subject to be reduced when the distance to each part of the subject is closer than the distance to the main subject, based on the distance to the main subject. When the distance to each part of the camera is longer than the distance to the main subject , the camera apparatus is corrected so as to increase the brightness of each part of the subject .
前記撮像手段により取得される第1の撮影画像とは別に、当該第1の撮影画像との間に視差が存在する第2の撮影画像を取得する第2の撮像手段を備え、
前記距離取得手段は、前記撮像手段に取得された第1の撮影画像、及び当該第1の撮影画像と同時に前記第2の撮像手段により取得された第2の撮影画像に基づいて画角内における被写体の各部までの距離を取得し、
前記補正手段は、前記所定の撮影に際して前記撮像手段に取得された第1の撮影画像と前記第2の撮像手段により取得された第2の撮影画像とのいずれか一方を補正対象として、当該補正対象の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離に応じて補正する
ことを特徴とする請求項1記載のカメラ装置。
In addition to the first captured image acquired by the imaging unit, the image capturing unit includes a second imaging unit that acquires a second captured image in which a parallax exists between the first captured image and the first captured image.
The distance acquisition means is within an angle of view based on the first captured image acquired by the imaging means and the second captured image acquired by the second imaging means simultaneously with the first captured image. Get the distance to each part of the subject,
The correction unit uses the first captured image acquired by the imaging unit during the predetermined shooting and the second captured image acquired by the second imaging unit as a correction target, and performs the correction. The camera device according to claim 1, wherein the brightness of each part of the target is corrected according to the distance to each part of the subject acquired by the distance acquisition unit.
画角内における主たる被写体までの距離を取得する基準距離取得手段と、
前記第2の撮像手段への入射光の光軸上に挿入された挿入位置と前記光軸上から外れた解除位置とに移動可能な減光フィルターと、
前記所定の撮影に際して前記減光フィルターの位置を前記挿入位置に制御する位置制御手段と
を備え、
前記補正手段は、前記所定の撮影に際して前記撮像手段に取得された第1の撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離に応じて補正するとともに、前記第1の撮影画像における、前記距離取得手段により取得された被写体の各部までの距離が前記基準距離取得手段により取得された主たる被写体までの距離よりも近い前景部分に相当する各部の明るさを、前記位置制御手段により減光フィルターの位置が挿入位置に制御された状態で前記第2の撮像手段により取得された第2の撮影画像の対応する各部の明るさに補正する
ことを特徴とする請求項2記載のカメラ装置。
Reference distance acquisition means for acquiring the distance to the main subject within the angle of view;
A neutral density filter movable to an insertion position inserted on the optical axis of incident light to the second imaging means and a release position off the optical axis;
Position control means for controlling the position of the neutral density filter to the insertion position at the time of the predetermined photographing,
The correction unit corrects the brightness of each part of the first captured image acquired by the imaging unit during the predetermined shooting according to the distance to each part of the subject acquired by the distance acquisition unit, and In each of the first captured images, the brightness of each part corresponding to the foreground portion in which the distance to each part of the subject acquired by the distance acquisition unit is closer than the distance to the main subject acquired by the reference distance acquisition unit. And correcting the brightness of each corresponding part of the second photographed image acquired by the second imaging means in a state where the position of the neutral density filter is controlled to the insertion position by the position control means. The camera device according to claim 2.
前記補正手段による補正後の第1の撮影画像における、前記距離取得手段により取得された被写体の各部までの距離が前記基準距離取得手段により取得された主たる被写体までの距離よりも遠い背景部分に相当する各部に、前記距離取得手段により取得された距離に応じた度合のノイズ削減処理を施すノイズ削減手段を備え、
前記記録制御手段は、前記ノイズ削減手段によるノイズ削減処理後の第1の撮影画像を最終的な撮影画像として記録する制御を行う
ことを特徴とする請求項3記載のカメラ装置。
In the first captured image after correction by the correction unit, the distance to each part of the subject acquired by the distance acquisition unit corresponds to a background portion farther than the distance to the main subject acquired by the reference distance acquisition unit. In each part to be provided with noise reduction means for performing noise reduction processing of a degree according to the distance acquired by the distance acquisition means,
The camera apparatus according to claim 3, wherein the recording control unit performs control to record the first captured image after the noise reduction processing by the noise reducing unit as a final captured image.
前記被写体に向けて測距用の光パルスを照射する測距用発光手段を備え、
前記距離取得手段は、前記測距用発光手段により照射された光パルスが対象物に到達し、そこから反射して戻ってくるまでに必要とする時間に基づいて、画角内における被写体の各部までの距離を取得する
ことを特徴とする請求項1記載のカメラ装置。
Ranging light emitting means for irradiating a distance measuring light pulse toward the subject,
The distance acquisition means is configured so that each part of the subject within the angle of view is based on the time required for the light pulse emitted from the distance measuring light emitting means to reach the object and be reflected from the object. The camera apparatus according to claim 1, wherein the distance to the camera is acquired.
焦点距離が調整可能な撮影光学系と、
この撮影光学系の焦点距離を、互いに異なる距離に位置する被写体にピントが合う焦点距離であって、対応する前記距離が既知の異なる焦点距離に順に変更制御するとともに、焦点距離を変更する毎に前記撮像手段に被写体を撮像させて撮影画像を複数取得させる撮像制御手段と
を備え、
前記距離取得手段は、前記撮像制御手段の制御に従い前記撮像手段により取得された複数の撮影画像と、当該複数の撮影画像の各々の取得時の焦点距離に対応する距離とに基づいて、画角内における被写体の各部までの距離を取得する
ことを特徴とする請求項1記載のカメラ装置。
A photographic optical system with adjustable focal length;
The focal length of this photographic optical system is a focal length that focuses on subjects located at different distances, and the corresponding distances are sequentially changed to different known focal lengths, and each time the focal length is changed. Imaging control means for causing the imaging means to capture a subject and acquiring a plurality of captured images,
The distance acquisition means is based on a plurality of captured images acquired by the imaging means according to the control of the imaging control means and a distance corresponding to a focal length at the time of acquisition of each of the plurality of captured images. The camera apparatus according to claim 1, wherein the distance to each part of the subject in the camera is acquired.
画角内における主たる被写体までの距離を取得する基準距離取得手段と、
前記補正手段による補正後の撮影画像における、前記距離取得手段により取得された被写体の各部までの距離が前記基準距離取得手段により取得された主たる被写体までの距離よりも遠い背景部分に相当する各部に、前記距離取得手段により取得された距離に応じた度合のノイズ削減処理を施すノイズ削減手段を備え、
前記記録制御手段は、前記ノイズ削減手段によるノイズ削減処理後の撮影画像を最終的な撮影画像として記録する制御を行う
ことを特徴とする請求項1,2,5,6いずれか記載のカメラ装置。
Reference distance acquisition means for acquiring the distance to the main subject within the angle of view;
In each of the portions corresponding to the background portion where the distance to each part of the subject acquired by the distance acquisition unit is farther than the distance to the main subject acquired by the reference distance acquisition unit in the photographed image corrected by the correction unit. A noise reduction means for performing a noise reduction process of a degree according to the distance acquired by the distance acquisition means,
The camera apparatus according to any one of claims 1, 2, 5, and 6, wherein the recording control unit performs control to record a captured image after the noise reduction processing by the noise reducing unit as a final captured image. .
前記撮影補助光の発光量を、互いに異なる距離に位置する被写体に適正な照射量の補助光が照射できる発光量であって、対応する前記距離が既知の異なる発光量に順に制御して前記発光手段に複数回の発光動作を行わせるともに、各々の発光量による発光動作に合わせて前記撮像手段に被写体を撮像させて撮影画像を複数取得させる撮像制御手段を備え、
前記補正手段は、前記撮像制御手段の制御に従い前記撮像手段により取得された複数の撮影画像のうちの所定の撮影画像を補正対象とする一方、当該補正対象以外の複数の撮影画像に、各々の取得時の発光量に対応する距離と、前記距離取得手段により取得された被写体の各部までの距離とに基づき、各々の撮影画像の取得時の発光量に対応する距離の被写体部分を特定し、各々の撮影画像に特定した互いに異なる距離の複数の被写体部分の部分画像を、前記補正対象の対応する複数の被写体部分に合成することによって前記補正対象の各部の明るさを補正する
ことを特徴とする請求項1記載のカメラ装置。
The light emission amount of the photographing auxiliary light is a light amount that can irradiate a subject with an appropriate irradiation amount to a subject located at a different distance, and the corresponding distance is sequentially controlled to a known different light emission amount. An imaging control unit that causes the unit to perform a plurality of light emission operations, and causes the imaging unit to capture a subject in accordance with a light emission operation according to each light emission amount, thereby acquiring a plurality of captured images;
The correction unit sets a predetermined captured image among a plurality of captured images acquired by the imaging unit according to the control of the imaging control unit as a correction target, and adds a plurality of captured images other than the correction target to each of the captured images. Based on the distance corresponding to the light emission amount at the time of acquisition and the distance to each part of the subject acquired by the distance acquisition unit, the subject portion of the distance corresponding to the light emission amount at the time of acquisition of each captured image is specified, The brightness of each part of the correction target is corrected by synthesizing the partial images of the plurality of subject parts at different distances specified for each captured image with the corresponding subject parts of the correction target. The camera device according to claim 1.
画角内の中央部に位置する被写体、ユーザにより指定された画角内の任意の被写体、又は顔検出された画角内の被写体を、主たる被写体として特定する特定手段を備え、
前記補正手段は、前記発光手段による前記特定手段により特定された主たる被写体の撮影に適した撮影補助光の発光動作を伴う所定の撮影に際し前記撮像手段により取得された撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離と前記主たる被写体までの距離に応じて補正する
ことを特徴とする請求項1乃至8のいずれか記載のカメラ装置。
A specifying means for specifying a subject located at the center of the angle of view, an arbitrary subject within the angle of view designated by the user, or a subject within the angle of view detected by the face as a main subject;
The correction means adjusts the brightness of each part of the photographed image acquired by the imaging means at the time of predetermined photographing accompanied by the light emission operation of the auxiliary photographing light suitable for photographing the main subject identified by the identifying means by the light emitting means. The camera apparatus according to claim 1, wherein the correction is performed according to a distance to each part of the subject acquired by the distance acquisition unit and a distance to the main subject.
前記補正手段は、前記発光手段による前記主たる被写体の撮影に適した撮影補助光の発光動作を伴う所定の撮影に際し前記撮像手段により取得された撮影画像の各部の明るさを、前記距離取得手段により取得された被写体の各部までの距離と前記主たる被写体までの距離との差に応じた補正倍率で補正する
ことを特徴とする請求項1乃至9のいずれか記載のカメラ装置。
The correction means uses the distance acquisition means to determine the brightness of each part of the photographed image obtained by the imaging means during a predetermined photographing involving a light emission operation of photographing auxiliary light suitable for photographing the main subject by the light emitting means. The camera device according to claim 1, wherein correction is performed at a correction magnification according to a difference between the acquired distance to each part of the subject and the distance to the main subject.
被写体を撮像し撮影画像を取得する撮像手段と、前記被写体に向けて撮影補助光を照射する発光手段とを備えたカメラ装置において前記発光手段による主たる被写体の撮影に適した発光量での撮影補助光の発光動作を伴う所定の撮影に際し、
画角内における被写体の各部までの距離と前記主たる被写体までの距離を取得する工程と、
取得した被写体の各部までの距離と前記主たる被写体までの距離に応じ、前記撮像手段により取得された撮影画像の各部の明るさを補正する工程と、
補正後の撮影画像を最終的な撮影画像として記録する工程とを含み、
前記補正する工程は、前記主たる被写体までの距離を基準とし、前記被写体の各部までの距離が前記主たる被写体までの距離よりも近い場合は前記被写体の各部の明るさを下げるように補正し、前記被写体の各部までの距離が前記主たる被写体までの距離よりも遠い場合は前記被写体の各部の明るさを上げるように補正することを特徴とする撮影方法。
Shooting assistance with a light emission amount suitable for photographing the main subject by the light emitting means in a camera apparatus comprising an imaging means for capturing an image of a subject and acquiring a photographed image and a light emitting means for emitting photographing auxiliary light toward the subject When performing predetermined shooting with light emission,
Obtaining the distance to each part of the subject within the angle of view and the distance to the main subject;
Correcting the brightness of each part of the captured image acquired by the imaging means according to the distance to each part of the acquired subject and the distance to the main subject;
Look including the step of recording the captured image after the correction as a final photographed image,
The correcting step is based on the distance to the main subject, and when the distance to each part of the subject is closer than the distance to the main subject, corrects to reduce the brightness of each part of the subject, An imaging method comprising: correcting the brightness of each part of the subject to be increased when the distance to each part of the subject is longer than the distance to the main subject .
被写体を撮像し撮影画像を取得する撮像手段と、前記被写体に向けて撮影補助光を照射する発光手段とを備えたカメラ装置が有するコンピュータに、
前記発光手段による主たる被写体の撮影に適した発光量での撮影補助光の発光動作を伴う所定の撮影に際し、
画角内における被写体の各部までの距離と前記主たる被写体までの距離を取得する手順と、
取得した被写体の各部までの距離と前記主たる被写体までの距離に応じ、前記撮像手段により取得された撮影画像の各部の明るさを補正する手順と、
補正後の撮影画像を最終的な撮影画像として記録する手順とを実行させ
前記補正する工程は、前記主たる被写体までの距離を基準とし、前記被写体の各部までの距離が前記主たる被写体までの距離よりも近い場合は前記被写体の各部の明るさを下げるように補正し、前記被写体の各部までの距離が前記主たる被写体までの距離よりも遠い場合は前記被写体の各部の明るさを上げるように補正することを特徴とする撮影制御プログラム。
A computer having a camera apparatus including an imaging unit that captures an image of a subject and obtains a captured image, and a light emitting unit that irradiates shooting auxiliary light toward the subject
When performing a predetermined shooting with a shooting auxiliary light emission operation with a light emission amount suitable for shooting the main subject by the light emitting means,
A procedure for obtaining the distance to each part of the subject within the angle of view and the distance to the main subject;
A procedure for correcting the brightness of each part of the captured image acquired by the imaging unit according to the distance to each part of the acquired subject and the distance to the main subject;
And a procedure for recording the corrected captured image as a final captured image ,
The correcting step is based on the distance to the main subject, and when the distance to each part of the subject is closer than the distance to the main subject, corrects the brightness of each part of the subject to decrease, An imaging control program for correcting to increase the brightness of each part of the subject when the distance to each part of the subject is longer than the distance to the main subject .
JP2008184366A 2008-07-16 2008-07-16 Camera device, photographing method thereof and photographing control program Expired - Fee Related JP5444651B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008184366A JP5444651B2 (en) 2008-07-16 2008-07-16 Camera device, photographing method thereof and photographing control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008184366A JP5444651B2 (en) 2008-07-16 2008-07-16 Camera device, photographing method thereof and photographing control program

Publications (2)

Publication Number Publication Date
JP2010026018A JP2010026018A (en) 2010-02-04
JP5444651B2 true JP5444651B2 (en) 2014-03-19

Family

ID=41731945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008184366A Expired - Fee Related JP5444651B2 (en) 2008-07-16 2008-07-16 Camera device, photographing method thereof and photographing control program

Country Status (1)

Country Link
JP (1) JP5444651B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5450200B2 (en) * 2009-07-17 2014-03-26 富士フイルム株式会社 Imaging apparatus, method and program
JP5657362B2 (en) * 2010-12-06 2015-01-21 オリンパスイメージング株式会社 Image capturing apparatus and method for controlling image capturing apparatus
KR101932541B1 (en) * 2013-04-23 2018-12-27 한화테크윈 주식회사 Apparatus and method for processing image
CN105530496B (en) * 2014-09-28 2018-12-14 联想(北京)有限公司 Information processing method and device
US9762893B2 (en) 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
JP7173657B2 (en) * 2019-09-20 2022-11-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Control device, imaging device, control method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4275344B2 (en) * 2002-01-22 2009-06-10 富士フイルム株式会社 Imaging apparatus, imaging method, and program
JP2005241791A (en) * 2004-02-25 2005-09-08 Olympus Corp Stereo imaging device
JP4679399B2 (en) * 2006-03-16 2011-04-27 オリンパスイメージング株式会社 camera
JP4619981B2 (en) * 2006-04-10 2011-01-26 富士重工業株式会社 Image recognition device
JP4452951B2 (en) * 2006-11-02 2010-04-21 富士フイルム株式会社 Distance image generation method and apparatus

Also Published As

Publication number Publication date
JP2010026018A (en) 2010-02-04

Similar Documents

Publication Publication Date Title
JP4665718B2 (en) Imaging device
KR101265358B1 (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
TWI423664B (en) Imaging apparatus and exposure control method
JP5444651B2 (en) Camera device, photographing method thereof and photographing control program
US10986262B2 (en) Imaging apparatus, control method, and non-transitory storage medium
JP6825073B2 (en) Imaging equipment, control methods, and programs
JP2005033508A (en) Imaging device
US7864239B2 (en) Lens barrel and imaging apparatus
JP5130178B2 (en) Focal length detection apparatus, imaging apparatus, imaging method, and camera
JP2005003813A (en) Imaging apparatus, imaging system and imaging method
JP6175748B2 (en) Imaging device
JP6300670B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP2008164731A (en) Photographing device and its control method
JP4661269B2 (en) Imaging apparatus and program
JP2004328657A (en) Image input device, image input method and program
JP2008098836A (en) Imaging apparatus and imaging method
JP4170194B2 (en) Imaging device
JP4872421B2 (en) Imaging apparatus, autofocus AF auxiliary light emission method, and program
CN108604043B (en) Image capturing apparatus and control method thereof
JP5597942B2 (en) Electronic camera
JP2007110498A (en) Compound eye photographing apparatus
JP3955080B2 (en) Digital camera and operation control method thereof
JP2007057704A (en) Camera
JP4756005B2 (en) Imaging apparatus and imaging method
JP2007104586A (en) Non-interlocking automatic system processing device for compound eye photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130913

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5444651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees