JP5239280B2 - Imaging apparatus, imaging control program, and imaging method - Google Patents

Imaging apparatus, imaging control program, and imaging method Download PDF

Info

Publication number
JP5239280B2
JP5239280B2 JP2007253050A JP2007253050A JP5239280B2 JP 5239280 B2 JP5239280 B2 JP 5239280B2 JP 2007253050 A JP2007253050 A JP 2007253050A JP 2007253050 A JP2007253050 A JP 2007253050A JP 5239280 B2 JP5239280 B2 JP 5239280B2
Authority
JP
Japan
Prior art keywords
image
subject
imaging
images
portions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007253050A
Other languages
Japanese (ja)
Other versions
JP2009088742A (en
Inventor
哲 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007253050A priority Critical patent/JP5239280B2/en
Publication of JP2009088742A publication Critical patent/JP2009088742A/en
Application granted granted Critical
Publication of JP5239280B2 publication Critical patent/JP5239280B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体を撮像する撮像装置、及びこの撮像装置に用いられる撮像制御プログラム並びに撮像方法に関する。   The present invention relates to an imaging apparatus that images a subject, an imaging control program used in the imaging apparatus, and an imaging method.

従来、より良好な画像を記録するための撮像装置として下記特許文献1記載のものが知られている。この撮像装置は、目瞑り検出モードが設定されると、連写が行われて複数枚の画像が撮像される。引き続き、この複数枚の各々画像から目を瞑っている人物の数が検出され、目を瞑っている人物の最も少ない画像がメモリカードに記録される。
特開2005−39365号公報
2. Description of the Related Art Conventionally, an image pickup apparatus for recording a better image is known from Patent Document 1 below. In this imaging apparatus, when the eye-meditation detection mode is set, continuous shooting is performed and a plurality of images are captured. Subsequently, the number of persons with eyes closed is detected from each of the plurality of images, and the image with the least number of persons with eyes closed is recorded on the memory card.
JP 2005-39365 A

しかしながら、連写された複数の画像中に各被写体(各人物)の全てが良好な状態で撮像された画像が存在するとは限らない。したがって、連写した複数枚の画像からいずれか最も良好な一枚の画像を選択して記録しても、一部の被写体が不鮮明である場合が生ずる。
つまり、連写した複数枚の画像から最も良好な画像を選択する従来の技術では、画像中に複数の被写体が存在する場合において、一部の被写体が不鮮明であってもその画像が最も良好な画像として選択される場合が不可避的に生ずる。よって、画像中に存在する複数の被写体が全て鮮明な画像を確実に得ることはできない。
However, an image in which all the subjects (each person) are captured in a good state does not always exist in a plurality of continuously shot images. Therefore, even if one of the best images is selected from a plurality of continuously shot images and recorded, some subjects may be unclear.
In other words, in the conventional technique for selecting the best image from a plurality of continuously shot images, when there are a plurality of subjects in the image, the best image is obtained even if some subjects are unclear. The case where it is selected as an image inevitably occurs. Therefore, it is impossible to surely obtain a clear image for all of the plurality of subjects present in the image.

本発明は、画像中に存在する複数の被写体が全て鮮明な画像を得ることのできる撮像装置、撮像制御プログラム及び撮像方法を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus, an imaging control program, and an imaging method that can obtain a clear image from a plurality of subjects present in an image.

前記課題を解決するため請求項1記載の発明は、複数の被写体を含む画像を、被写界深度を変化させながら複数枚撮像する撮像手段と、この撮像手段により撮像された各画像において、共通する複数の被写体部分を認識する被写体認識手段と、この被写体認識手段により認識された各画像における共通する複数の被写体部分夫々において、最もピントが合った被写体部分を選択する選択手段と、この選択手段により選択された被写体部分を、この被写体部分を有する画像から夫々抽出する抽出手段と、この抽出手段により夫々抽出された被写体部分を合成して、単一の合成画像を生成する画像合成手段と、を備えることを特徴とする。 In order to solve the above-described problem, the invention according to claim 1 is common to an imaging unit that captures a plurality of images including a plurality of subjects while changing the depth of field , and each image captured by the imaging unit. A subject recognizing unit for recognizing a plurality of subject portions, a selecting unit for selecting the most in- focus subject portion in each of a plurality of common subject portions in each image recognized by the subject recognizing unit, and the selecting unit. the selected object portion by an extraction means for respectively extracting from an image having the object portion, by combining the respective extracted object portion by the extracting means, and an image synthesizing means for generating a single combined image, It is characterized by providing.

また、請求項記載の発明にあっては、前記撮像手段は、前記被写界深度を漸次変化させながら複数枚撮像することを特徴とする。 According to a second aspect of the present invention, the image pickup means picks up a plurality of images while gradually changing the depth of field.

また、請求項3記載の発明にあっては、前記撮像手段は、自身に被写体像を結像する光学系の焦点距離を制御することにより、前記被写界深度を変化させることを特徴とする。 According to a third aspect of the present invention, the imaging means changes the depth of field by controlling a focal length of an optical system that forms a subject image on the imaging means. .

また、請求項4記載の発明にあっては、前記撮像手段は、自身の前方に配置された絞りを制御することにより、前記被写界深度を変化させることを特徴とする。 According to a fourth aspect of the present invention, the imaging means changes the depth of field by controlling a diaphragm arranged in front of itself.

また、請求項記載の発明にあっては、前記撮像手段が撮像する画像の枚数を設定する設定手段を更に備えることを特徴とする。 The invention according to claim 5 further includes setting means for setting the number of images picked up by the image pickup means.

また、請求項記載の発明にあっては、前記画像合成手段は、前記選択手段により選択された被写体部分を有するいずれかの画像を基準画像として、この基準画像に前記選択手段により選択された他の画像の被写体部分を合成することにより、単一の合成画像を生成することを特徴とする。 In the invention according to claim 6 , the image synthesizing unit selects any image having the subject portion selected by the selection unit as a reference image, and the selection unit selects the reference image. A single composite image is generated by combining subject portions of other images.

また、請求項記載の発明にあっては、前記画像合成手段により合成された単一の合成画像を記録する記録手段を更に備えることを特徴とする。 The invention according to claim 7 further includes recording means for recording a single synthesized image synthesized by the image synthesizing means.

また、請求項記載の発明にあっては、前記画像合成手段により合成された単一の合成画像を表示する画像表示手段を更に備えることを特徴とする。 The invention according to claim 8 further includes image display means for displaying a single synthesized image synthesized by the image synthesizing means.

また、請求項記載の発明にあっては、撮像手段を備える撮像装置が有するコンピュータを、複数の被写体を含む画像を、被写界深度を変化させながら複数枚撮像するよう制御する撮像制御手段この撮像制御手段により撮像された各画像において、共通する複数の被写体部分を認識する被写体認識手段この被写体認識手段により認識された各画像における共通する複数の被写体部分夫々において、最もピントが合った被写体部分を選択する選択手段この選択手段により選択された被写体部分を、この被写体部分を有する画像から夫々抽出する抽出手段この抽出手段により夫々抽出された被写体部分を合成して、単一の合成画像を生成する画像合成手段、として機能させることを特徴とする撮像制御プログラム。 According to the ninth aspect of the present invention, the imaging control means for controlling the computer included in the imaging apparatus including the imaging means to capture a plurality of images including a plurality of subjects while changing the depth of field. in each image captured by the imaging control unit, a plurality of object part recognizing object recognition means common in each of the plurality of object portion husband common in each image recognized by the object recognition unit, the best focus match selection means for selecting an object moiety, selected subject portion by the selection means, extracting means for respectively extracting from an image having the object portion, by combining the respective extracted object portion by the extraction means, single imaging control program for the combined image the image synthesizing means for generating a, characterized in that to the to function.

また、請求項10記載の発明にあっては、複数の被写体を含む画像を、被写界深度を変化させながら複数枚撮像する撮像ステップと、この撮像ステップにて撮像された各画像において、共通する複数の被写体部分を認識する被写体認識ステップと、この被写体認識ステップにて認識された各画像における共通する複数の被写体部分夫々において、最もピントが合った被写体部分を選択する選択ステップと、この選択ステップにて選択された被写体部分を、この被写体部分を有する画像から夫々抽出する抽出ステップと、この抽出ステップにて夫々抽出された被写体部分を合成して、単一の合成画像を生成する画像合成ステップと、を含むことを特徴とする In the invention of claim 10 , the image capturing step of capturing a plurality of images including a plurality of subjects while changing the depth of field, and the images captured in the image capturing step are common. A subject recognition step for recognizing a plurality of subject portions, a selection step for selecting a subject portion that is most in focus in each of a plurality of common subject portions in each image recognized in the subject recognition step, and this selection the selected subject portion in step, an extraction step of respectively extracted from the image having the object portion, by combining the respective extracted object portion in this extraction step, the image synthesis to generate a single composite image And including a step

本発明によれば、画像中に存在する全ての被写体がより鮮明な画像を得ることができる。   According to the present invention, it is possible to obtain a clearer image of all subjects present in the image.

以下、本発明の一実施の形態を図に従って説明する。図1は本発明の一実施の形態を適用したデジタルカメラの概略構成を示すブロック図である。このデジタルカメラは、CPU1を中心に構成されており、CPU1にはROM2、RAM3、キー入力部4およびI/Oポート5が接続されている。またCPU1には、バスを介してDRAM7、フラッシュメモリ8、圧縮/伸張部9、TG(Timming Generater)10、SG(Signal Generater)11、絞り駆動部12、AF制御部13が接続されている。ROM2内にはCPU1の動作プログラム等が記憶されており、CPU1は、この動作プログラムに基づき動作し、RAM3をワークメモリとして使用して各部の制御を行う。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a digital camera to which an embodiment of the present invention is applied. This digital camera is configured around a CPU 1, and a ROM 2, a RAM 3, a key input unit 4, and an I / O port 5 are connected to the CPU 1. Further, the DRAM 1, the flash memory 8, the compression / expansion unit 9, the TG (Timing Generator) 10, the SG (Signal Generator) 11, the aperture driving unit 12, and the AF control unit 13 are connected to the CPU 1 through a bus. The ROM 2 stores an operation program of the CPU 1 and the like. The CPU 1 operates based on the operation program, and controls each unit using the RAM 3 as a work memory.

キー入力部4には、電源のオン・オフ時に操作される電源キー、映像をフラッシュメモリ8に記憶させる際に操作されるシャッターキー、録画モード(RECモード)から再生モードへの切り替え及び再生モードから録画モードへの切り替えを行う際に操作されるモード切り替えキー、フラッシュメモリ8に記憶されている画像データに基づく画像を再生する際に操作される再生キー等の各種キーが設けられている。なお、シャッターキーは、半押しと全押しとが可能な所謂ハーフシャッター機能を有するものである。I/Oポート5にはシリアルI/O端子14が接続されている。I/Oポート5は、シリアル信号に変換された映像信号等をシリアルI/O端子14を介して一般のパソコン等の他の機器へ入出力するインタフェースである。   The key input unit 4 includes a power key that is operated when the power is turned on / off, a shutter key that is operated when the video is stored in the flash memory 8, a switching from the recording mode (REC mode) to the reproduction mode, and the reproduction mode. Various keys such as a mode switching key operated when switching from the recording mode to the recording mode and a reproduction key operated when reproducing an image based on the image data stored in the flash memory 8 are provided. The shutter key has a so-called half shutter function that can be half-pressed and fully pressed. A serial I / O terminal 14 is connected to the I / O port 5. The I / O port 5 is an interface for inputting and outputting a video signal converted into a serial signal to other devices such as a general personal computer via the serial I / O terminal 14.

DRAM7は取り込んだデジタル映像信号を一時記憶するメモリであり、フラッシュメモリ8は圧縮された映像信号を格納するメモリである。圧縮/伸張部9は、取り込んだデジタル映像信号を符号化/復号化することにより、圧縮/伸長処理を行う。TG10には駆動回路(Driver)15を介してCCD16が接続されている。駆動回路15は、TG10が発生するタイミング信号により制御されるとともに、そのタイミング信号に基づいてCCD16を駆動する。   The DRAM 7 is a memory that temporarily stores the captured digital video signal, and the flash memory 8 is a memory that stores the compressed video signal. The compression / decompression unit 9 performs compression / decompression processing by encoding / decoding the captured digital video signal. A CCD 16 is connected to the TG 10 via a drive circuit (Driver) 15. The drive circuit 15 is controlled by a timing signal generated by the TG 10 and drives the CCD 16 based on the timing signal.

CCD16の前面側には、固定レンズ17、フォーカスレンズ18、絞り19が配置されている。フォーカスレンズ18は、前記AF制御部13が発生する駆動信号により動作するAFモータ等からなる駆動機構20に保持されており、前記AF制御部13に接続されたAFセンサー21を用いて測距された被写体距離に基づき光軸上を進退する合焦動作を行う。   A fixed lens 17, a focus lens 18, and a diaphragm 19 are disposed on the front side of the CCD 16. The focus lens 18 is held by a drive mechanism 20 composed of an AF motor or the like that operates according to a drive signal generated by the AF control unit 13, and is measured using an AF sensor 21 connected to the AF control unit 13. A focusing operation for moving back and forth on the optical axis is performed based on the subject distance.

また、絞り19は、前記絞り駆動部12が発生する駆動信号により駆動しCCD16に入射する被写体像の光量を調整する。CCD16はアンプ22、A/Dコンバータ23を介して前記TG10に接続されており、A/Dコンバータ23は、CCD16が取り込んだアナログ映像信号をデジタル信号に変換しTG10に出力する。   The diaphragm 19 is driven by a driving signal generated by the diaphragm driving unit 12 and adjusts the amount of light of the subject image incident on the CCD 16. The CCD 16 is connected to the TG 10 via an amplifier 22 and an A / D converter 23. The A / D converter 23 converts the analog video signal captured by the CCD 16 into a digital signal and outputs it to the TG 10.

前記SG11にはVRAM24とD/Aコンバータ25が接続されている。SG11は、フラッシュメモリ8から読み出されたのち圧縮/伸張部9で伸張された輝度信号及び色信号や、TG10から転送されてきた輝度信号及び色信号、すなわちデジタル映像信号に同期信号等を付加してデジタルビデオ信号を作成するものであり、SG11にて作成されたデジタルビデオ信号はVRAM24に記憶される。   A VRAM 24 and a D / A converter 25 are connected to the SG 11. The SG 11 adds a synchronization signal or the like to the luminance signal and color signal read from the flash memory 8 and then expanded by the compression / decompression unit 9, and the luminance signal and color signal transferred from the TG 10, that is, the digital video signal. Thus, the digital video signal is created, and the digital video signal created in SG11 is stored in the VRAM 24.

また、D/Aコンバータ25はSG11から取り込んだデジタルビデオ信号をアナログビデオ信号に変換するものである。D/Aコンバータ25にはアンプ26を介してビデオ出力端子27とLCD(Liquid Crystal Display)28とが接続されている。LCD28は、D/Aコンバータ25より送られたアナログビデオ信号に基づいて、液晶を駆動して映像を表示する。さらに、LCD28上には、タッチパネル29が積層されており、このタッチパネル29により検出されたタッチ位置データは、CPU1に入力される。   The D / A converter 25 converts the digital video signal fetched from the SG 11 into an analog video signal. A video output terminal 27 and an LCD (Liquid Crystal Display) 28 are connected to the D / A converter 25 via an amplifier 26. The LCD 28 drives the liquid crystal based on the analog video signal sent from the D / A converter 25 to display an image. Further, a touch panel 29 is stacked on the LCD 28, and touch position data detected by the touch panel 29 is input to the CPU 1.

前記RAM3には、図2(a)に示すように被写体−撮影順位テーブル31が格納されている。この被写体−撮影順位テーブル31には、縦軸方向に後述する連写により撮影された画像中において、認識された被写体A、B、C・・・が記憶されるとともに、横軸方向に連写された画像の撮影順位を示す1枚目、2枚目、3枚目・・・N枚目が記憶される。そして、縦軸と横軸の交点領域には、初期状態においては全て「0」が記憶されており、1枚目〜N枚目において、最も鮮明(最もピントが合ったボケの少ない)とされた被写体A、B、C・・・が、同図(b)に示すように、「0」から「1」に書き換えられるように構成されている。   The RAM 3 stores a subject-photographing order table 31 as shown in FIG. This subject-photographing order table 31 stores the recognized subjects A, B, C,... In the image captured by continuous shooting described later in the vertical axis direction and continuous shooting in the horizontal axis direction. The first image, the second image, the third image,... In the intersection area between the vertical axis and the horizontal axis, all “0” s are stored in the initial state, and the first to Nth sheets are the clearest (the most out of focus). The subjects A, B, C,... Are rewritten from “0” to “1” as shown in FIG.

以上の構成にかかる本実施の形態において、録画モードにおける連写合成モードが設定されている状態にあると、CPU1は前記プログラムに基づき、図3に示すフローチャートに従って動作する。先ず、LCD28にスルー画像を表示する(ステップS101)。つまり、TG10からのタイミング信号に基づき駆動回路15がCCD16を駆動し、CCD16からの電気信号はアンプ22、A/Dコンバータ23、TG10を介してSG11に入力される。このSG11にてデジタル画像信号に同期信号等が付加され、デジタルビデオ信号が作成されて、VRAM24に書き込まれるとともに、D/Aコンバータ25、及びアンプ26を介してLCD28に与えられる。これによりLCD28に、図4例示するように、固定レンズ17とフォーカスレンズ18とにより結像されたスルー画像281が表示される。   In the present embodiment with the above configuration, when the continuous shooting composition mode in the recording mode is set, the CPU 1 operates according to the flowchart shown in FIG. 3 based on the program. First, a through image is displayed on the LCD 28 (step S101). That is, the drive circuit 15 drives the CCD 16 based on the timing signal from the TG 10, and the electrical signal from the CCD 16 is input to the SG 11 via the amplifier 22, the A / D converter 23, and the TG 10. In SG 11, a synchronization signal or the like is added to the digital image signal to create a digital video signal, which is written into the VRAM 24 and is given to the LCD 28 via the D / A converter 25 and the amplifier 26. As a result, as shown in FIG. 4, a through image 281 formed by the fixed lens 17 and the focus lens 18 is displayed on the LCD 28.

なお、本例においては、図4に示したように、スルー画像281中にはこのデジタルカメラから各々異なる距離に位置する被写体A、B、C、Dが存在するものとする。   In this example, it is assumed that subjects A, B, C, and D located at different distances from the digital camera exist in the through image 281 as shown in FIG.

次に、シャッターキーが半押しされたか否かを判断し(ステップS102)、シャッターキーが半押しされたならば、AF処理を実行する(ステップS103)。すなわち、スルー画像281において、中央部に位置する被写体AまでをAFセンサー21により測距を行うとともに、測距した被写体距離に応じてフォーカスレンズ18を駆動し、被写体Aにピントを合わせる。   Next, it is determined whether or not the shutter key is half-pressed (step S102). If the shutter key is half-pressed, AF processing is executed (step S103). That is, in the through image 281, the AF sensor 21 measures the distance up to the subject A located at the center, and the focus lens 18 is driven according to the measured subject distance to focus on the subject A.

次に、シャッターキーが全押しされたか否かを判断する(ステップS104)。シャッターキーが全押しされたならば、被写界深度を変更する(ステップS105)。この被写界深度は、後述するようにN回変更されるが、例えば1回目の変更においては、前記AFを実行した状態(ステップS103)から、所定量被写界深度が浅くなる状態にして、しかる後に順次深くなる方向に漸次変化させてもよいし、逆に所定量被写界深度が深くなる状態にして、しかる後に漸次浅くなる方向に順次変化させてもよい。
これにより、効率的に被写界深度を変更することができる。
Next, it is determined whether or not the shutter key has been fully pressed (step S104). If the shutter key is fully pressed, the depth of field is changed (step S105). The depth of field is changed N times as will be described later. For example, in the first change, the depth of field is reduced by a predetermined amount from the state in which the AF is performed (step S103). Thereafter, the depth of field may be gradually changed in a gradually increasing direction, or conversely, the depth of field may be increased by a predetermined amount and then gradually changed in a gradually decreasing direction.
Thereby, the depth of field can be changed efficiently.

また、この被写界深度の変更に際しては、下記(1)〜(3)のいずれの手法を用いてもよい。
(1)絞り駆動部12により絞り19のみを駆動して被写界深度を変更する。
(2)AF制御部13によりフォーカスレンズ18のみを駆動して被写界深度を変更する。
(3)絞り駆動部12により絞り19を駆動するとともに、AF制御部13によりフォーカスレンズ18を駆動して被写界深度を変更する。
これら(1)(2)(3)のいずれであっても、被写界深度を変更することができる。
In changing the depth of field, any of the following methods (1) to (3) may be used.
(1) The diaphragm drive unit 12 drives only the diaphragm 19 to change the depth of field.
(2) Only the focus lens 18 is driven by the AF control unit 13 to change the depth of field.
(3) The diaphragm drive unit 12 drives the diaphragm 19 and the AF control unit 13 drives the focus lens 18 to change the depth of field.
In any of (1), (2), and (3), the depth of field can be changed.

なお、このステップS105で変更される被写界深度の一つには、前記ステップS103で実行したAF時の被写界深度が含まれることが好ましい。   Note that one of the depths of field changed in step S105 preferably includes the depth of field during AF executed in step S103.

引き続き、被写界深度を変更した状態でCCD16から出力された画像データを取り込んで(ステップS106)、DRAM7に保存する(ステップS107)。次に、撮影枚数をカウントするカウンタCの値をインクリメントし(ステップS108)、このインクリメントしたカウンタCの値が設定枚数Nとなったか否かを判断する(ステップS109)。ここで、設定枚数Nは、予めユーザにより設定された連写枚数である。   Subsequently, the image data output from the CCD 16 with the depth of field changed is captured (step S106) and stored in the DRAM 7 (step S107). Next, the value of the counter C that counts the number of shots is incremented (step S108), and it is determined whether or not the incremented value of the counter C reaches the set number N (step S109). Here, the set number N is the number of continuous shots set in advance by the user.

したがって、ユーザは、この連写合成モードにおける連写枚数を任意に設定することができる。   Therefore, the user can arbitrarily set the number of continuous shots in this continuous shooting combination mode.

そして、ステップS109での判断結果、C≠Nであるならば、ステップS105に戻る。したがって、C=Nとなるまで、ステップS105〜S109のループがN回繰り返され、DRAM7には各々被写界深度が異なる状態で撮影されたN枚の画像が記憶される。よって、ユーザが例えば「N=5枚」を設定していたならば、5枚の被写界深度が異なる状態で撮影された画像がDRAM7に記憶されることとなる。   If the result of determination in step S109 is C ≠ N, the process returns to step S105. Therefore, the loop of steps S105 to S109 is repeated N times until C = N, and N images taken with different depths of field are stored in the DRAM 7. Therefore, if the user has set “N = 5”, for example, five images captured with different depths of field are stored in the DRAM 7.

次に、これらDRAM7に記憶された複数枚の画像において、共通する被写体部分を認識して、被写体−撮影順位テーブル31に記憶する(ステップS110)。このステップS110での被写体の認識は、例えば、DRAM7に記憶された各画像における輝度に基づき、当該部分とこれ以外の部分との輝度差により、該被写体のエッジを検出し、このエッジにより囲まれた領域を一つの被写体と認識することにより行う。   Next, in the plurality of images stored in the DRAM 7, a common subject portion is recognized and stored in the subject-photographing order table 31 (step S110). The recognition of the subject in step S110 is, for example, based on the luminance in each image stored in the DRAM 7 and detecting the edge of the subject based on the luminance difference between the portion and the other portion and surrounded by the edge. This is done by recognizing the selected area as one subject.

したがって、このデジタルカメラを固定して、連写合成モードでシャッターキーを全押しすると、DRAM7には、図5に示したように各々被写体A、B、C、Dが存在するN枚(5枚)の画像から、共通する被写体A、B、C、Dが認識される。また、図2(a)に示すように、被写体−撮影順位テーブル31には、認識された被写体A、B、C、Dが記憶されるとともに、横軸方向に連写された画像の撮影順位を示す1枚目、2枚目、3枚目、4枚目、5枚目が記憶されることとなる。このとき、縦軸と横軸の交点領域には、全て「0」が記憶されている。   Therefore, when this digital camera is fixed and the shutter key is fully pressed in the continuous shooting composition mode, the DRAM 7 has N sheets (5 sheets) each having subjects A, B, C, and D as shown in FIG. ) Common objects A, B, C, and D are recognized. As shown in FIG. 2A, the subject-photographing order table 31 stores the recognized subjects A, B, C, and D, and the photographing order of images taken continuously in the horizontal axis direction. The first sheet, the second sheet, the third sheet, the fourth sheet, and the fifth sheet are stored. At this time, “0” is all stored in the intersection area of the vertical axis and the horizontal axis.

引き続き、被写体選択処理を実行する(ステップS111)。この被写体選択処理に際しては、前記ステップS110で認識された被写界深度の異なる画像における共通する被写体A、B、C、Dにおいて、最も鮮明な(最もピントの合ったボケの少ない)被写体を選択する。また、最も鮮明な(最もピントの合ったボケの少ない)被写体を選択するに際しては、例えば各被写体の中央部のコントラストを当該箇所の輝度信号に基づき検出し、コントラストのピークが最も高い被写体を最も鮮明な(最もピントの合ったボケの少ない)被写体とする。そして、被写体−撮影順位テーブル31において、この選択した被写体と撮影順位に対応する領域の「0」を「1」に書き換える。   Subsequently, subject selection processing is executed (step S111). In this subject selection process, the clearest subject (the least in-focus blur) is selected from the common subjects A, B, C, and D in the images with different depths of field recognized in step S110. To do. When selecting the clearest subject (the least in-focus), for example, the contrast at the center of each subject is detected based on the luminance signal at that location, and the subject with the highest contrast peak is selected. Make the subject clear (the most out of focus). In the subject-photographing order table 31, “0” in the area corresponding to the selected subject and photographing order is rewritten to “1”.

したがって、例えば被写体Aに関しては1枚目が、被写体Bに関しては2枚目が、被写体Cに関しては4枚目が、被写体Dに関しては5枚目が、各々最も鮮明であった(最もピントが合ったボケの少なかった)とすると、図2(b)に示すように、被写体−撮影順位テーブル31には、被写体Aと1枚目、被写体Bと2枚目、被写体Cと4枚目、被写体Dと5枚目の各交点領域に「1」が書き込まれる。   Therefore, for example, the first image for subject A, the second image for subject B, the fourth image for subject C, and the fifth image for subject D were the clearest (the most in-focus). 2 (b), in the subject-photographing order table 31, the subject A and the first image, the subject B and the second image, the subject C and the fourth image, and the subject “1” is written in each intersection area of D and the fifth sheet.

次に、被写体部分抽出処理を実行する(ステップS112)。この被写体部分抽出処理に際しては、図2(b)に示した被写体−撮影順位テーブル31を参照して、「1」となっている撮影順位の画像から対応する被写体部分を抽出する。つまり、図5に示すように、(a)1枚目の画像からは被写体A部分を、(b)2枚目の画像からは被写体B部分を各々抽出し、(c)3枚目の画像からはいずれの被写体部分も抽出せず、(d)4枚目の画像からは被写体C部分を、(e)5枚目の画像からは被写体D部分を、各々抽出する。   Next, subject part extraction processing is executed (step S112). In the subject portion extraction process, the corresponding subject portion is extracted from the image having the photographing order “1” with reference to the subject-photographing order table 31 shown in FIG. That is, as shown in FIG. 5, (a) the subject A portion is extracted from the first image, (b) the subject B portion is extracted from the second image, and (c) the third image is extracted. No subject portion is extracted from (d) the subject C portion is extracted from the fourth image, and (e) the subject D portion is extracted from the fifth image.

そして、これら抽出した被写体部分を合成して、(f)単一の合成画像を生成する(ステップS113)。これにより撮影画像中に存在する全ての被写体がより鮮明な単一の合成画像を得ることができる。   Then, these extracted subject portions are combined to generate (f) a single combined image (step S113). This makes it possible to obtain a single composite image in which all subjects existing in the captured image are clearer.

この合成画像の生成に際しては、前記ステップS111で被写体が選択されたいずれかの画像(1枚目〜5枚目)のいずれか1枚、例えば1枚目の画像を基準画像とし、この基準画像以外の画像(2、4、5枚目)から、選択された被写体部分(被写体B、C、D部分)を切り出す。この切り出した被写体部分(被写体部分B、C、D)を、基準画像とした1枚目の画像の対応する被写体部分B、C、Dに合成する。   When generating the composite image, any one of the images (first to fifth images) from which the subject is selected in step S111, for example, the first image is used as a reference image, and the reference image is displayed. The selected subject portion (subjects B, C, and D) is cut out from the other images (second, fourth, and fifth images). The cut out subject portions (subject portions B, C, and D) are combined with the corresponding subject portions B, C, and D of the first image as the reference image.

このように、ある全体画像を基準画像として被写体部分を合成することにより、簡単な合成処理で背景のある画像中の適正な位置に、切り出した被写体部分(被写体部分B、C、D)を配置して合成することができる。   In this way, by synthesizing the subject portion using a whole image as a reference image, the cut out subject portions (subject portions B, C, and D) are arranged at appropriate positions in the background image by a simple synthesis process. And can be synthesized.

無論、このような画像合成に限らず、選択された被写体部分(被写体A,B、C、D部分)を全て切り出し、背景画像に合成する等、他の画像合成手法を用いてもよい。   Of course, the image composition is not limited to such image composition, and other image composition methods such as cutting out all selected subject portions (subjects A, B, C, and D portions) and compositing them with the background image may be used.

次に、この合成した画像をLCD28に表示する(ステップS114)。これにより、ユーザは、合成された画像を確認することができる。   Next, the synthesized image is displayed on the LCD 28 (step S114). Thereby, the user can confirm the synthesized image.

引き続き、前記合成した画像をフラッシュメモリ8に記録する(ステップS115)。これにより、フラッシュメモリ8に、異なる位置に存在する被写体A〜Dが全て鮮明な画像を記録することができる。   Subsequently, the synthesized image is recorded in the flash memory 8 (step S115). As a result, a clear image can be recorded in the flash memory 8 with all the subjects A to D existing at different positions.

また、この連写合成モードから他のモードへの切替がなされたか否かを判断する(ステップS116)。連写合成モードが設定されている状態にあれば、ステップS101からの処理を繰り返し、他のモードに移行した時点で、このフローに従った処理を終了する。   Also, it is determined whether or not switching from the continuous shooting composition mode to another mode has been performed (step S116). If the continuous shooting composition mode is set, the processing from step S101 is repeated, and the processing according to this flow is terminated when the mode is shifted to another mode.

図6は、本発明の他の実施の形態における処理手順を示すフローチャートである。このフローチャートにおいて、ステップS201〜S209の処理は、前述した図3のフローチャートにおけるステップS101〜S109と同一の処理である。すなわち、LCD28にスルー画像を表示し(ステップS201)、シャッターキーが半押しされたか否かを判断し(ステップS202)、シャッターキーが半押しされたならば、AF処理を実行する(ステップS203)。次に、シャッターキーが全押しされたか否かを判断し(ステップS204)、シャッターキーが全押しされたならば、被写界深度を変更する(ステップS205)。この被写界深度の変更も前述した実施の形態と同様に、(1)〜(3)のいずれの手法を用いてもよい。   FIG. 6 is a flowchart showing a processing procedure in another embodiment of the present invention. In this flowchart, the processes in steps S201 to S209 are the same as those in steps S101 to S109 in the flowchart of FIG. 3 described above. That is, a through image is displayed on the LCD 28 (step S201), and it is determined whether or not the shutter key is half-pressed (step S202). If the shutter key is half-pressed, AF processing is executed (step S203). . Next, it is determined whether or not the shutter key is fully pressed (step S204). If the shutter key is fully pressed, the depth of field is changed (step S205). For the change of the depth of field, any of the methods (1) to (3) may be used as in the above-described embodiment.

引き続き、被写界深度を変更した状態でCCD16から出力された画像データを取り込んで(ステップS206)、DRAM7に保存する(ステップS207)。また、撮影枚数をカウントするカウンタCの値をインクリメントし(ステップS208)、このインクリメントしたカウンタCの値が設定枚数Nとなったか否かを判断する(ステップS209)。そして、ステップS209での判断結果、C≠Nであるならば、ステップS205に戻る。したがって、C=Nとなるまで、ステップS205〜S209のループがN回繰り返され、DRAM7には各々被写界深度が異なる状態で撮影されたN枚の画像が記憶される。よって、ユーザが例えば「N=5枚」を設定していたならば、5枚の被写界深度が異なる状態で撮影された画像がDRAM7に記憶されることとなる。   Subsequently, the image data output from the CCD 16 with the depth of field changed is captured (step S206) and stored in the DRAM 7 (step S207). Further, the value of the counter C that counts the number of shots is incremented (step S208), and it is determined whether or not the incremented value of the counter C reaches the set number N (step S209). If the result of determination in step S209 is C ≠ N, the process returns to step S205. Therefore, the loop of steps S205 to S209 is repeated N times until C = N, and N images captured with different depths of field are stored in the DRAM 7. Therefore, if the user has set “N = 5”, for example, five images captured with different depths of field are stored in the DRAM 7.

次に、これらDRAM7に記憶された複数枚の画像において、共通する被写体部分を認識して、被写体−撮影順位テーブル31に記憶する(ステップS210)。これにより、DRAM7には、図4に示したように各々被写体A、B、C、Dが存在するN枚(5枚)の画像から、共通する被写体A、B、C、Dが認識される。また、図2(a)に示すように、被写体−撮影順位テーブル31には、認識された被写体A、B、C、Dが記憶されるとともに、横軸方向に連写された画像の撮影順位を示す1枚目、2枚目、3枚目、4枚目、5枚目が記憶されることとなる。このとき、縦軸と横軸の交点領域には、全て「0」が記憶されている。   Next, in the plurality of images stored in the DRAM 7, a common subject portion is recognized and stored in the subject-photographing order table 31 (step S210). As a result, the DRAM 7 recognizes the common subjects A, B, C, and D from N (five) images each having the subjects A, B, C, and D as shown in FIG. . As shown in FIG. 2A, the subject-photographing order table 31 stores the recognized subjects A, B, C, and D, and the photographing order of images taken continuously in the horizontal axis direction. The first sheet, the second sheet, the third sheet, the fourth sheet, and the fifth sheet are stored. At this time, “0” is all stored in the intersection area of the vertical axis and the horizontal axis.

引き続き、画像表示処理を実行して、DRAM7に記憶された複数枚の画像における1枚目の画像をLCD28に表示する(ステップS211)。そして、この1枚目の画像がLCD28に被写体像が表示されている状態で、ユーザはこれを視認して、複数の被写体A〜Dにおいて最も鮮明(最もピントが合ったボケの少ない)と判断した被写体部分に指等でタッチして被写体を選択する。すると、ステップS212の判断がYESとなり、ステップ214の被写体選択処理を実行する。この被写体選択処理においては、CPU1はタッチパネル29からの出力信号に基づき、タッチ位置を検出し、検出したタッチ位置に対応する被写体を選択し、被写体−撮影順位テーブル31において、この選択した被写体と撮影順位に対応する領域の「0」を「1」に書き換える。   Subsequently, an image display process is executed, and the first image of the plurality of images stored in the DRAM 7 is displayed on the LCD 28 (step S211). Then, in the state where the subject image is displayed on the LCD 28 for the first image, the user visually recognizes this and determines that the plurality of subjects A to D are the clearest (the focus is the least in focus). The subject is touched with a finger or the like to select the subject. Then, the determination in step S212 is YES, and the subject selection process in step 214 is executed. In this subject selection process, the CPU 1 detects a touch position based on an output signal from the touch panel 29, selects a subject corresponding to the detected touch position, and shoots the selected subject and the image in the subject-photographing order table 31. Rewrite “0” in the area corresponding to the rank to “1”.

したがって、図5(a)に示すように一枚目の画像282がLCD28に表示されている状態において、被写体Aにタッチしたとすると、図2(b)に示すように、被写体−撮影順位テーブル31において、「一枚目」と「被写体A」とに対応する交点領域の「0」が「1」に書き換えられる。   Therefore, if the subject A is touched in the state where the first image 282 is displayed on the LCD 28 as shown in FIG. 5A, the subject-photographing order table is shown in FIG. 2B. In 31, “0” in the intersection area corresponding to “first image” and “subject A” is rewritten to “1”.

しかる後に、前記ステップS210で認識した全ての被写体(被写体A〜D)が選択済みとなったか否かを判断し(ステップS215)、選択済みとなっていない場合には、ステップS211に戻って、DRAM7に記憶された複数枚の画像における次の画像をLCD28に表示する。また、ステップS212の判断がNOであって、タッチによる被写体選択操作がない場合には、所定時間が経過した時点で(ステップS213;YES)、ステップS211に戻り、DRAM7に記憶された複数枚の画像における次の画像をLCD28に表示する。   Thereafter, it is determined whether or not all the subjects (subjects A to D) recognized in step S210 have been selected (step S215). If they have not been selected, the process returns to step S211. The next image of the plurality of images stored in the DRAM 7 is displayed on the LCD 28. If the determination in step S212 is NO and there is no subject selection operation by touch, when a predetermined time has elapsed (step S213; YES), the process returns to step S211 and the plurality of sheets stored in the DRAM 7 are stored. The next image in the image is displayed on the LCD 28.

したがって、図5に示すように、例えばユーザが表示された(a)1枚目の画像から被写体Aを選択し、(b)2枚目の画像から被写体Bを選択し、(c)3枚目の画像からは被写体を選択せず、(d)4枚目の画像から被写体Cを選択し、(e)5枚目の画像から被写体Dを選択したとすると、図2(b)に示すように、被写体−撮影順位テーブル31には、被写体Aと1枚目、被写体Bと2枚目、被写体Cと4枚目、被写体Dと5枚目の各交点領域に「1」が書き込まれる。   Accordingly, as shown in FIG. 5, for example, the user displays (a) the subject A from the first image, (b) the subject B from the second image, and (c) three images If no subject is selected from the eye image, (d) subject C is selected from the fourth image, and (e) subject D is selected from the fifth image, FIG. Thus, in the subject-photographing order table 31, “1” is written in each intersection area of the subject A and the first image, the subject B and the second image, the subject C and the fourth image, and the subject D and the fifth image. .

また、このように、被写体−撮影順位テーブル31において、被写体A〜Dに対応して「1」が書き込まれると、全ての被写体(被写体A〜D)が選択済みとなり、ステップS215の判断がYESとなる。よって、ステップS215からステップS216に進み、ステップS216〜S220において、前述した実施の形態におけるステップS112〜S1116と同一の処理を実行する。   In this manner, in the subject-photographing order table 31, when “1” is written corresponding to the subjects A to D, all the subjects (subjects A to D) have been selected, and the determination in step S215 is YES. It becomes. Therefore, the process proceeds from step S215 to step S216, and in steps S216 to S220, the same processing as steps S112 to S1116 in the above-described embodiment is executed.

すなわち、被写体部分抽出処理を実行し(ステップS216)、図2(b)に示した被写体−撮影順位テーブル31を参照して、「1」となっている撮影順位の画像から対応する被写体部分を抽出する。つまり、図5に示したように、(a)1枚目の画像からは被写体A部分を、(b)2枚目の画像からは被写体B部分を各々抽出するするとともに、(c)3枚目の画像からはいずれの被写体部分も抽出せず、(d)4枚目の画像からは被写体C部分を、(e)5枚目の画像からは被写体D部分を、各々抽出する。   That is, the subject portion extraction process is executed (step S216), and the subject portion corresponding to the subject order from the image with the photographing order “1” is referred to with reference to the subject-photographing order table 31 shown in FIG. Extract. That is, as shown in FIG. 5, (a) the subject A portion is extracted from the first image, (b) the subject B portion is extracted from the second image, and (c) three images are extracted. No subject portion is extracted from the eye image, (d) the subject C portion is extracted from the fourth image, and (e) the subject D portion is extracted from the fifth image.

そして、これら抽出した被写体部分を合成して、(e)単一の合成画像を生成する(ステップS217)。この合成画像の生成に際しては、前記ステップS214で被写体が選択されたいずれかの画像(1枚目〜5枚目)のいずれか1枚、例えば1枚目の画像を基準画像とし、この基準画像以外の画像(2、4、5枚目)から、選択された被写体部分(被写体部分B、C、D)を切り出す。この切り出した被写体部分(被写体部分B、C、D)を、基準画像とした1枚目の画像の対応する被写体部分B、C、Dに合成する。次に、この合成した画像をLCD28に表示する(ステップS218)。これにより、ユーザは、合成された画像を確認することができる。   Then, these extracted subject portions are combined to generate (e) a single combined image (step S217). In generating the composite image, any one of the images (first to fifth images) in which the subject is selected in step S214, for example, the first image is used as a reference image, and the reference image is displayed. The selected subject portions (subject portions B, C, and D) are cut out from the other images (second, fourth, and fifth images). The cut out subject portions (subject portions B, C, and D) are combined with the corresponding subject portions B, C, and D of the first image as the reference image. Next, the synthesized image is displayed on the LCD 28 (step S218). Thereby, the user can confirm the synthesized image.

引き続き、前記合成した画像をフラッシュメモリ8に記録する(ステップS219)。これにより、フラッシュメモリ8に、ユーザより選択され、異なる位置に存在する被写体A〜Dが全て鮮明な画像を記録することができる。   Subsequently, the synthesized image is recorded in the flash memory 8 (step S219). As a result, a clear image can be recorded in the flash memory 8 by all the subjects A to D selected by the user and present at different positions.

また、この連写合成モードから他のモードへの切替がなされたか否かを判断する(ステップS220)。連写合成モードが設定されている状態にあれば、ステップS201からの処理を繰り返し、他のモードに移行した時点で、このフローに従った処理を終了する。   Further, it is determined whether or not switching from the continuous shooting composition mode to another mode has been performed (step S220). If the continuous shooting composition mode is set, the processing from step S201 is repeated, and the processing according to this flow is terminated when the mode is shifted to another mode.

なお、実施の形態においては、ステップS103やステップS203でAFを実行するようにしたが、AFを実行することなく、順次被写界深度を変更して連写を行うようにしてよい。この場合、連写枚数をユーザが設定可能とすることなく、より多くの所定枚数で連写を行うようにすれば、連写された画像中に鮮明な(ピントが合ったボケの少ない)被写体を有する画像を確実に含ませることができる。   In the embodiment, AF is performed in step S103 or step S203. However, continuous shooting may be performed by sequentially changing the depth of field without performing AF. In this case, if the number of continuous shots is not settable by the user and the continuous shooting is performed with a larger number of predetermined numbers, a clear (in-focus, less out-of-focus) subject in the continuously shot images It is possible to reliably include an image having

また、実施の形態においては、ステップS114やステップS218で表示した合成画像は必ずステップS115やステップS219でフラッシュメモリ8に記録するようにしたが、キー入力部4にOKキーを設けておき、OKキーが操作された場合にのみ、合成画像をフラッシュメモリ8に記録するようにしてもよい。   In the embodiment, the composite image displayed in step S114 or step S218 is always recorded in the flash memory 8 in step S115 or step S219. However, an OK key is provided in the key input unit 4, and the OK is performed. The composite image may be recorded in the flash memory 8 only when the key is operated.

また、本実施の形態においては、ステップS105やステップS205で被写界深度を変更するようにしたが、被写界深度を変更することなく連写を行うようにしてもよい。この場合にあっては、複数の被写体中に動的被写体が含まれている場合において、動的被写体が動くことにより不鮮明となった被写体部分に鮮明な被写体部分を合成して、全被写体が鮮明な合成画像を生成することができる。例えば、集合写真において、ある人物が瞬きをして目の部分が不鮮明な被写体人物が存在する場合であっても、当該人物被写体に瞬きする前の当該人物被写体部分を合成することにより、全員が目を開いた集合写真の記録が可能となる。   In this embodiment, the depth of field is changed in step S105 or step S205. However, continuous shooting may be performed without changing the depth of field. In this case, when a dynamic subject is included in a plurality of subjects, a clear subject portion is combined with a subject portion that has become blurred due to the movement of the dynamic subject, so that all subjects are clear. A simple composite image can be generated. For example, in a group photo, even if a person blinks and there is a subject person whose eyes are unclear, by combining the person subject part before blinking on the person subject, Group photos with open eyes can be recorded.

さらに、図5に示した他の実施の形態においては、タッチパネル29により検出されたタッチ位置データに基づき、被写体の選択を行うようにしたが、LCD28にポインタを表示し、このポインターを移動させるカーソルキーの操作と決定キーの操作とにより、被写体の選択を行うようにしてもよい。   Further, in the other embodiment shown in FIG. 5, the subject is selected based on the touch position data detected by the touch panel 29. However, a pointer is displayed on the LCD 28 and a cursor for moving the pointer is displayed. The subject may be selected by operating the key and the enter key.

本発明の一実施の形態を適用したデジタルカメラの概略ブロック構成図である。It is a schematic block diagram of a digital camera to which an embodiment of the present invention is applied. 被写体−撮影順位テーブルのメモリ構成を示す概念図である。3 is a conceptual diagram illustrating a memory configuration of a subject-photographing order table. 本発明の一実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in one embodiment of this invention. 本発明の一実施の形態と他の実施の形態表示画面例を示す図である。It is a figure which shows the example of 1 embodiment of this invention, and another embodiment display screen. 画像の選択、被写体部分の抽出及び単一の画像合成を示す説明図である。It is explanatory drawing which shows selection of an image, extraction of a subject part, and single image composition. 本発明の他の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in other embodiment of this invention.

符号の説明Explanation of symbols

1 CPU
2 ROM
3 RAM
4 キー入力部
7 DRAM
8 フラッシュメモリ
10 TG
11 SG
12 絞り駆動部
13 AF制御部
14 シリアルI/O端子
16 CCD
17 固定レンズ
18 フォーカスレンズ
20 駆動機構
21 AFセンサー
28 LCD
29 タッチパネル
31 被写体−撮影順位テーブル
281 スルー画像
282 1枚目の画像
A 被写体
B 被写体
C 被写体
D 被写体
1 CPU
2 ROM
3 RAM
4 Key input part 7 DRAM
8 Flash memory 10 TG
11 SG
12 Aperture Drive Unit 13 AF Control Unit 14 Serial I / O Terminal 16 CCD
17 Fixed Lens 18 Focus Lens 20 Drive Mechanism 21 AF Sensor 28 LCD
29 Touch Panel 31 Subject-Sequence Ranking Table 281 Through Image 282 First Image A Subject B Subject C Subject D Subject

Claims (10)

複数の被写体を含む画像を、被写界深度を変化させながら複数枚撮像する撮像手段と、
この撮像手段により撮像された各画像において、共通する複数の被写体部分を認識する被写体認識手段と、
この被写体認識手段により認識された各画像における共通する複数の被写体部分夫々において、最もピントが合った被写体部分を選択する選択手段と、
この選択手段により選択された被写体部分を、この被写体部分を有する画像から夫々抽出する抽出手段と、
この抽出手段により夫々抽出された被写体部分を合成して、単一の合成画像を生成する画像合成手段と、
を備えることを特徴とする撮像装置。
Imaging means for capturing a plurality of images including a plurality of subjects while changing the depth of field ;
Subject recognition means for recognizing a plurality of common subject portions in each image taken by the imaging means;
A selection means for selecting the most in- focus subject portion in each of a plurality of common subject portions in each image recognized by the subject recognition means;
Extraction means for extracting the subject portions selected by the selection means from the images having the subject portions ,
By combining the respective extracted object portion by the extracting means, and an image synthesizing means for generating a single combined image,
An imaging apparatus comprising:
前記撮像手段は、前記被写界深度を漸次変化させながら複数枚撮像することを特徴とする請求項1記載の撮像装置。 The imaging apparatus according to claim 1 , wherein the imaging unit captures a plurality of images while gradually changing the depth of field . 前記撮像手段は、自身に被写体像を結像する光学系の焦点距離を制御することにより、前記被写界深度を変化させることを特徴とする請求項1又は2記載の撮像装置。 The imaging apparatus according to claim 1, wherein the imaging unit changes the depth of field by controlling a focal length of an optical system that forms a subject image on the imaging unit. 前記撮像手段は、自身の前方に配置された絞りを制御することにより、前記被写界深度を変化させることを特徴とする請求項1乃至3のいずれかに記載の撮像装置。 The imaging apparatus according to claim 1, wherein the imaging unit changes the depth of field by controlling a diaphragm disposed in front of the imaging unit. 前記撮像手段が撮像する画像の枚数を設定する設定手段を更に備えることを特徴とする請求項1乃至4のいずれかに記載の撮像装置。 The imaging apparatus according to claim 1, further comprising a setting unit that sets the number of images to be captured by the imaging unit. 前記画像合成手段は、前記選択手段により選択された被写体部分を有するいずれかの画像を基準画像として、この基準画像に前記選択手段により選択された他の画像の被写体部分を合成することにより、単一の合成画像を生成することを特徴とする請求項1乃至5のいずれかに記載の撮像装置。 The image synthesizing unit uses any image having the subject portion selected by the selection unit as a reference image, and synthesizes the subject portion of the other image selected by the selection unit with the reference image. The imaging apparatus according to claim 1, wherein one composite image is generated . 前記画像合成手段により合成された単一の合成画像を記録する記録手段を更に備えることを特徴とする請求項1乃至6のいずれかに記載の撮像装置。 The imaging apparatus according to claim 1, further comprising recording means for recording a single composite image synthesized by the image synthesis means . 前記画像合成手段により合成された単一の合成画像を表示する画像表示手段を更に備えることを特徴とする請求項1乃至7のいずれかに記載の撮像装置。 The imaging apparatus according to claim 1, further comprising image display means for displaying a single composite image synthesized by the image synthesis means . 撮像手段を備える撮像装置が有するコンピュータを、A computer included in an imaging apparatus including an imaging unit,
複数の被写体を含む画像を、被写界深度を変化させながら複数枚撮像するよう制御する撮像制御手段、An imaging control means for controlling to capture a plurality of images including a plurality of subjects while changing the depth of field;
この撮像制御手段により撮像された各画像において、共通する複数の被写体部分を認識する被写体認識手段、Subject recognition means for recognizing a plurality of common subject portions in each image taken by the imaging control means;
この被写体認識手段により認識された各画像における共通する複数の被写体部分夫々において、最もピントが合った被写体部分を選択する選択手段、Selection means for selecting the most in-focus subject part in each of a plurality of common subject parts in each image recognized by the subject recognition means;
この選択手段により選択された被写体部分を、この被写体部分を有する画像から夫々抽出する抽出手段、Extraction means for extracting the subject parts selected by the selection means from the images having the subject parts,
この抽出手段により夫々抽出された被写体部分を合成して、単一の合成画像を生成する画像合成手段、Image combining means for generating a single composite image by combining the subject portions respectively extracted by the extraction means;
として機能させることを特徴とする撮像制御プログラム。An imaging control program that functions as a computer program.
複数の被写体を含む画像を、被写界深度を変化させながら複数枚撮像する撮像ステップと、An imaging step of imaging a plurality of images including a plurality of subjects while changing the depth of field;
この撮像ステップにて撮像された各画像において、共通する複数の被写体部分を認識する被写体認識ステップと、A subject recognition step for recognizing a plurality of common subject portions in each of the images taken in this imaging step;
この被写体認識ステップにて認識された各画像における共通する複数の被写体部分夫々において、最もピントが合った被写体部分を選択する選択ステップと、A selection step for selecting the most in-focus subject portion in each of a plurality of common subject portions in each image recognized in the subject recognition step;
この選択ステップにて選択された被写体部分を、この被写体部分を有する画像から夫々抽出する抽出ステップと、An extraction step for extracting the subject portions selected in the selection step from the images having the subject portions, respectively;
この抽出ステップにて夫々抽出された被写体部分を合成して、単一の合成画像を生成する画像合成ステップと、An image synthesis step for synthesizing the subject portions extracted in this extraction step to generate a single synthesized image;
を含むことを特徴とする撮像方法。An imaging method comprising:
JP2007253050A 2007-09-28 2007-09-28 Imaging apparatus, imaging control program, and imaging method Active JP5239280B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007253050A JP5239280B2 (en) 2007-09-28 2007-09-28 Imaging apparatus, imaging control program, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007253050A JP5239280B2 (en) 2007-09-28 2007-09-28 Imaging apparatus, imaging control program, and imaging method

Publications (2)

Publication Number Publication Date
JP2009088742A JP2009088742A (en) 2009-04-23
JP5239280B2 true JP5239280B2 (en) 2013-07-17

Family

ID=40661615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007253050A Active JP5239280B2 (en) 2007-09-28 2007-09-28 Imaging apparatus, imaging control program, and imaging method

Country Status (1)

Country Link
JP (1) JP5239280B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5526733B2 (en) * 2009-11-25 2014-06-18 株式会社ニコン Image composition device, image reproduction device, and imaging device
JP2011118834A (en) 2009-12-07 2011-06-16 Sony Corp Apparatus and method for processing information, and program
US8633968B2 (en) * 2009-12-11 2014-01-21 Dish Network L.L.C. Three-dimensional recording and display system using near- and distal-focused images
JP5662511B2 (en) 2013-04-10 2015-01-28 シャープ株式会社 Imaging device
JP6288952B2 (en) 2013-05-28 2018-03-07 キヤノン株式会社 Imaging apparatus and control method thereof
WO2021152933A1 (en) 2020-01-31 2021-08-05 富士フイルム株式会社 Imaging device, operation method for imaging device, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3429755B2 (en) * 1990-04-27 2003-07-22 株式会社日立製作所 Depth of field control device for imaging device
JP3859131B2 (en) * 2002-01-11 2006-12-20 富士フイルムホールディングス株式会社 Digital camera
JP2004046591A (en) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc Picture evaluation device
JP4777087B2 (en) * 2005-03-03 2011-09-21 富士フイルム株式会社 Imaging apparatus, imaging method, imaging program, image recording output system, and image recording output method
JP2006330800A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Image synthesis system, image synthesis method, and program of the method

Also Published As

Publication number Publication date
JP2009088742A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
CN101355631B (en) Image processor and digital camera
JP4678603B2 (en) Imaging apparatus and imaging method
KR100547992B1 (en) Digital camera and control method thereof
JP4019200B2 (en) Camera with image display
KR20130071793A (en) Digital photographing apparatus splay apparatus and control method thereof
JP2009089174A (en) Digital camera and photographing method thereof
KR20130069041A (en) Display apparatus and method
US20110069156A1 (en) Three-dimensional image pickup apparatus and method
JP5239280B2 (en) Imaging apparatus, imaging control program, and imaging method
KR101710626B1 (en) Digital photographing apparatus and control method thereof
JP2007310813A (en) Image retrieving device and camera
JP2008085737A (en) Electronic camera
JP5040753B2 (en) Imaging device
KR20100056280A (en) Apparatus for processing digital image and method for controlling thereof
JP2008079193A (en) Digital camera
KR20130031176A (en) Display apparatus and method
JP2006319903A (en) Mobile apparatus provided with information display screen
JP2011044838A (en) Imaging device and method, and program
KR101510101B1 (en) Apparatus for processing digital image and method for controlling thereof
KR102146856B1 (en) Method of displaying a photographing mode using lens characteristics, Computer readable storage medium of recording the method and a digital photographing apparatus.
JP2012231520A (en) Imaging apparatus, control apparatus, and control method therefor
JP2008054031A (en) Digital camera and display control method
JP4747568B2 (en) Camera apparatus and photographing control program
KR20110060297A (en) Digital photographing apparatus and controlling method thereof
JP2002006206A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5239280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150