JP4497001B2 - Image processing apparatus, electronic camera, and image processing program - Google Patents

Image processing apparatus, electronic camera, and image processing program Download PDF

Info

Publication number
JP4497001B2
JP4497001B2 JP2005082192A JP2005082192A JP4497001B2 JP 4497001 B2 JP4497001 B2 JP 4497001B2 JP 2005082192 A JP2005082192 A JP 2005082192A JP 2005082192 A JP2005082192 A JP 2005082192A JP 4497001 B2 JP4497001 B2 JP 4497001B2
Authority
JP
Japan
Prior art keywords
image
images
unit
image processing
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005082192A
Other languages
Japanese (ja)
Other versions
JP2006270238A (en
Inventor
透 落合
逸人 鉾井
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005082192A priority Critical patent/JP4497001B2/en
Publication of JP2006270238A publication Critical patent/JP2006270238A/en
Application granted granted Critical
Publication of JP4497001B2 publication Critical patent/JP4497001B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数回の撮影により生成した画像を合成して合成画像を生成する画像処理装置、電子カメラ、および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an electronic camera, and an image processing program that combine images generated by a plurality of shootings to generate a combined image.

従来より、分割露光による撮像を繰り返して生成した複数枚の画像を合成し、最終的に1枚の合成画像を得る構成とした電子カメラが知られている(例えば、特許文献1参照)。
特許文献1の電子カメラにおいては、ダイナミックレンジの制限された複数の画像を生成し、これらを合成することにより、ダイナミックレンジの拡張された画像を得ることができる。また、画像の合成を行う場合には、撮像を複数回繰り返す際の撮影時のカメラの振動等による各画像のずれを補正するために位置合わせが行われる。
特開2004−159292号公報
2. Description of the Related Art Conventionally, there has been known an electronic camera having a configuration in which a plurality of images generated by repeated imaging by divided exposure are combined to finally obtain one combined image (see, for example, Patent Document 1).
In the electronic camera disclosed in Patent Document 1, a plurality of images with a limited dynamic range are generated, and these are combined to obtain an image with an extended dynamic range. Further, when images are combined, alignment is performed in order to correct displacement of each image due to camera vibration or the like during shooting when imaging is repeated a plurality of times.
JP 2004-159292 A

しかし、上述した位置合わせによるずれの補正は、被写体自身の動きが大きい場合、特に、複数回撮影の間に形が変化してしまうような場合に、位置合わせ演算に時間がかかるなど効果的に合成することができないばかりか、最終的に得られた画像上に異なった形の複数の被写体が現出してしまうなど、合成による新たな不都合を生じさせる結果となってしまっていた。   However, the above-described correction of misalignment by alignment is effective in that the alignment calculation takes time, for example, when the movement of the subject itself is large, especially when the shape changes during multiple shooting. In addition to being unable to combine, a plurality of differently shaped subjects appear on the finally obtained image, resulting in a new inconvenience due to the combination.

本発明は、被写体に応じて効果的に画像を合成して高画質の合成画像を生成することができる画像処理装置、電子カメラ、および画像処理プログラムを提供することを目的とする。   An object of the present invention is to provide an image processing apparatus, an electronic camera, and an image processing program that can generate a high-quality composite image by effectively combining images according to a subject.

本発明の画像処理装置は、被写界の像を、繰り返し撮像して得られた所定数以上の画像から、1フレームの基準画像を決定する決定部と、前記所定数以上の画像のうちの前記基準画像を除いた画像からなる比較画像のそれぞれについて、前記基準画像を比較対象として近似度合の評価を行う評価部と、前記比較画像から、前記評価部による評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と前記基準画像とを用いて、合成画像を生成する合成部とを備えたことを特徴とする。 An image processing apparatus according to the present invention includes: a determination unit that determines a reference image of one frame from a predetermined number or more images obtained by repeatedly capturing an image of an object scene; and For each comparison image composed of images excluding the reference image, an evaluation unit that evaluates the degree of approximation using the reference image as a comparison target, and from the comparison image in descending order of evaluation by the evaluation unit (the predetermined number) -2) It is characterized by comprising a synthesis unit that selects a frame image as a selected image and generates a synthesized image using the selected image and the reference image.

なお、前記合成部は、前記選択画像の各々に対して、前記基準画像を基準として位置合わせ処理を行い、当該位置合わせ処理を施された各々の前記選択画像と、前記基準画像との加算処理によって前記合成画像を生成しても良い。
また、前記評価部は、前記被写界中の主要被写体の前記比較画像のそれぞれにおける動き量と、前記主要被写体の前記比較画像のそれぞれにおける変形度合と、前記比較画像のそれぞれのフォーカス状態と、前記比較画像のそれぞれの明度との少なくとも1つをファクターとして前記評価を行っても良い。
The synthesizing unit performs an alignment process on each of the selected images with reference to the reference image, and an addition process between each of the selected images subjected to the alignment process and the reference image The composite image may be generated by
In addition , the evaluation unit, the amount of movement of each of the comparative images of the main subject in the object scene, the degree of deformation of each of the comparative images of the main subject, the focus state of each of the comparative images, the evaluation may me a line as a factor of at least one of the respective brightness of the comparison image.

また、前記評価部は、前記比較画像のそれぞれを複数の領域に分割し、各領域における被写体の動き量と、前記各領域における前記被写体の変形度合と、前記各領域におけるフォーカス状態と、前記各領域における明度分布との少なくとも1つをファクターとして前記評価を行っても良い。 Further , the evaluation unit divides each of the comparison images into a plurality of regions, the amount of movement of the subject in each region, the degree of deformation of the subject in each region, the focus state in each region, the evaluation of at least one as a factor of the brightness distribution in the region may be I lines.

また、前記決定部は、前記所定数以上の画像のそれぞれにおける明るさと、コントラストと、高周波成分との少なくとも1つに基づいて、前記基準画像を決定しても良い。
また、前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する撮像部を有し、前記決定部は、前記繰り返し撮像動作の最初に撮像された画像を前記基準画像として決定し、前記評価部は、前記撮像部による繰り返し撮像動作と並行して、前記近似度合の評価を行っても良い。
The determination unit may determine the reference image based on at least one of brightness, contrast, and high frequency component in each of the predetermined number or more of images .
In addition , the image capturing apparatus may include an imaging unit that repeatedly captures an image of the object scene and generates the predetermined number or more images, and the determination unit uses an image captured at the beginning of the repeated imaging operation as the reference image. determined, the evaluation unit, in parallel with repetitive imaging operation by the imaging unit, the evaluation of the approximation degree can be I line.

また、前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する撮像部と、予備発光を行う照明部とを備え、前記撮像部は、前記照明部による予備発光時に焦点調節を行い、その後、前記被写界の像を繰り返し撮像し、前記所定数以上の画像の生成を終了するまでの間、焦点状態を固定しても良い。 In addition , the imaging unit includes an imaging unit that repeatedly captures an image of the object scene to generate the predetermined number of images and an illumination unit that performs preliminary light emission, and the imaging unit is in focus during preliminary light emission by the illumination unit. After the adjustment, the focus state may be fixed until the image of the object scene is repeatedly captured and the generation of the predetermined number of images or more is completed .

また、前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する撮像部を有し、前記決定部は、前記繰り返し撮像動作の最初に撮像された画像の中から、所定の被写体を設定し、前記撮像部は、前記繰り返し撮像動作の行われている間、前記所定の被写体に対して、継続的に自動合焦動作を行っても良い。 In addition , the image capturing apparatus includes an imaging unit that repeatedly captures an image of the object scene and generates the predetermined number or more images, and the determination unit selects a predetermined image from among images captured at the beginning of the repeated imaging operation. set the object, the imaging unit, while the being performed repetitive imaging operation, to the predetermined subject may be I line continuous automatic focusing operation.

本発明の電子カメラは、上述した何れか画像処理装置を備えた電子カメラであって、被写界の像を繰り返し撮像し、複数の画像を連続的に生成する予備撮像動作を行うとともに、前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する本撮像動作を行う撮像部と、前記予備撮像動作により連続的に生成された前記複数の画像のそれぞれから、所定の特徴量を抽出する抽出部と、前記抽出部により抽出したそれぞれの前記特徴量を比較して、その変化量が所定の閾値より小さい場合には、前記合成部による画像の合成を行うと判定する判定部とを有し、前記判定部が、前記合成部による画像の合成を行うと判定した場合、前記決定部は、前記本撮像動作によって得られた前記所定数以上の画像から、1フレームの基準画像を決定し、前記評価部は、前記所定数以上の画像のうちの前記基準画像を除いた画像からなる比較画像のそれぞれについて、前記基準画像を比較対象として近似度合の評価を行い、前記合成部は、前記比較画像から、前記評価部による評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と前記基準画像とを用いて合成画像を生成することを特徴とする。 An electronic camera according to the present invention is an electronic camera including any one of the above-described image processing apparatuses, repeatedly performing an image capturing operation of an object scene and performing a preliminary image capturing operation for continuously generating a plurality of images, From the imaging unit that performs the main imaging operation for repeatedly capturing the image of the object scene and generating the predetermined number of images, and the plurality of images continuously generated by the preliminary imaging operation When the amount of change is smaller than a predetermined threshold value, the extraction unit that extracts the feature amount of the image is compared with each of the feature amounts extracted by the extraction unit. The determination unit determines that the image is to be combined by the combining unit, the determining unit is configured to transmit one frame from the predetermined number or more of images obtained by the main imaging operation. Determine the reference image The evaluation unit evaluates the degree of approximation with respect to each of the comparison images including the reference image of the predetermined number or more images excluding the reference image, and the synthesis unit includes: The (predetermined number−2) frame image is selected as a selection image from the comparison image in descending order of evaluation by the evaluation unit, and a composite image is generated using the selection image and the reference image. And

なお、上記発明に関する構成を、処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムに変換して表現したものも本発明の具体的態様として有効である。It is also effective as a specific aspect of the present invention to express the configuration related to the above invention by converting it into an image processing program for realizing image processing on an image to be processed by a computer.

本発明の画像処理装置、電子カメラ、および画像処理プログラムによれば、被写体に応じて効果的に画像を合成して高画質の合成画像を生成することができる。   According to the image processing apparatus, the electronic camera, and the image processing program of the present invention, it is possible to effectively synthesize images according to the subject and generate a high-quality synthesized image.

《第1実施形態》
以下、本発明の第1実施形態について説明する。
第1実施形態の電子カメラ1は、図1の機能ブロック図に示すように、制御部(回路)2、撮像部(回路)3、画像処理部(回路)4、記録部(回路)5、照明部(回路)6、測光部(回路)8を備え、これらの各部はバスを介して相互に接続される。また、電子カメラ1は、不図示の電源ボタンやレリーズボタンなどを含む操作部7を備える。
<< First Embodiment >>
The first embodiment of the present invention will be described below.
As shown in the functional block diagram of FIG. 1, the electronic camera 1 according to the first embodiment includes a control unit (circuit) 2, an imaging unit (circuit) 3, an image processing unit (circuit) 4, a recording unit (circuit) 5, An illumination unit (circuit) 6 and a photometry unit (circuit) 8 are provided, and these units are connected to each other via a bus. The electronic camera 1 also includes an operation unit 7 including a power button, a release button, and the like (not shown).

コントローラとして機能する制御部2は、不図示のCPUやメモリなどを備え、メモリには各部を制御するためのプログラムを予め記録している。また、制御部2は、本発明の特徴である基準画像の決定、画像の評価、合成する画像の選択なども行う(詳細は後述する)。また、制御部2は、撮影回数をカウントする不図示のカウンタを備える。また、制御部2は、測光部8による測光データをもとに、撮像部3による撮像パラメータ(例えば、絞り値)を設定する。   The control unit 2 functioning as a controller includes a CPU and a memory (not shown), and a program for controlling each unit is recorded in the memory in advance. The control unit 2 also performs determination of a reference image, evaluation of an image, selection of an image to be combined, and the like, which are features of the present invention (details will be described later). In addition, the control unit 2 includes a counter (not shown) that counts the number of photographing. Further, the control unit 2 sets an imaging parameter (for example, an aperture value) by the imaging unit 3 based on the photometric data by the photometric unit 8.

撮像部3は、不図示の撮影レンズ、シャッタ、撮像素子、絞りなどを含み、制御部2で設定された撮影パラメータで被写体像を撮像して画像を生成する。不図示のシャッタを開放する時間を調整することで、撮像素子に露光する露光量を調節することができる。なお、このシャッタは、撮像素子の電子シャッタ機能によって実現する構成としても良いし、両者を併用する構成としても良い。   The imaging unit 3 includes an imaging lens (not shown), a shutter, an imaging device, an aperture, and the like, and generates an image by capturing a subject image with the imaging parameters set by the control unit 2. By adjusting the time for opening a shutter (not shown), it is possible to adjust the exposure amount to be exposed to the image sensor. Note that this shutter may be realized by an electronic shutter function of the image sensor or may be a combination of both.

また、画像処理部4は、撮像部3により生成された画像信号に対してホワイトバランス調整などの所定の画像処理を施すとともに、本発明の特徴である画像の合成を行う。また、記録部5は、画像処理部4により画像処理が施された画像データを記録し、メモリカードなどのリムーバブルメモリを着脱可能である。
以上説明した構成の電子カメラ1の撮影時の動作について、図2のフローチャートおよび図3のタイミングチャートを用いて説明する。以下では、本発明の特徴である画像を合成する場合の処理について説明する。
In addition, the image processing unit 4 performs predetermined image processing such as white balance adjustment on the image signal generated by the imaging unit 3 and combines the images that are the characteristics of the present invention. The recording unit 5 records image data that has been subjected to image processing by the image processing unit 4, and a removable memory such as a memory card can be attached and detached.
The operation at the time of shooting of the electronic camera 1 having the above-described configuration will be described with reference to the flowchart of FIG. 2 and the timing chart of FIG. Below, the process in the case of synthesize | combining the image which is the characteristics of this invention is demonstrated.

操作部7を介して、ユーザにより撮影開始が指示されると、ステップS1において、制御部2は、全露光時間とその分割数Nとを決定する。制御部2は、全露光時間とその分割数Nとを、測光部8による測光データ、撮像部3の撮像素子により得られる画像信号レベル、撮像部3の撮像素子の感度やノイズ性能、分割露光時間の長さ(すなわち、シャッタ速度)等の諸条件により決定する。ここでは、このような諸条件によって、露光時間の分割数Nが、例えば、N=4と決定されたものとして説明を行う。これは、例えば、ある撮影パラメータによって、撮像素子により撮像された被写体像の信号レベルが、適正レベルの約1/4のレベルである場合に相当する。   When an instruction to start shooting is given by the user via the operation unit 7, the control unit 2 determines the total exposure time and the number N of divisions in step S1. The control unit 2 determines the total exposure time and the number of divisions N, the photometric data obtained by the photometric unit 8, the image signal level obtained by the image pickup device of the image pickup unit 3, the sensitivity and noise performance of the image pickup device of the image pickup unit 3, and the divided exposure. It is determined according to various conditions such as the length of time (ie, shutter speed). Here, the description will be made assuming that the number N of exposure times is determined to be N = 4, for example, under such various conditions. This corresponds to, for example, a case where the signal level of the subject image picked up by the image pickup device is about ¼ of the appropriate level by a certain shooting parameter.

ステップS2において、制御部2は、制御部2内の不図示のカウンタを初期化し、カウント値nをn=0とする。
ステップS3において、制御部2は、図3に示すパルス信号Aのタイミングでの撮像部3の画像信号出力を禁止する。すなわち、制御部2は、図3に示すパルス信号を一定の周期(例えば、32ms)で撮像部3に出力する。そして、撮像部3は、例えば、パルス信号Bのタイミングで撮像部3の撮像素子より、蓄積電荷の読み出しを行い、画像信号の出力を行う。図3の例においては、シャッタ開放状態にある場合には、パルス信号の入力があっても蓄積電荷の読み出し、画像信号の出力を行わない構成とされており、制御部2は、パルス信号Aのタイミングでの蓄積電荷の読み出し、画像信号を禁止する。
In step S2, the control unit 2 initializes a counter (not shown) in the control unit 2, and sets the count value n to n = 0.
In step S3, the control unit 2 prohibits image signal output from the imaging unit 3 at the timing of the pulse signal A shown in FIG. That is, the control unit 2 outputs the pulse signal shown in FIG. 3 to the imaging unit 3 at a constant cycle (for example, 32 ms). Then, for example, the imaging unit 3 reads the accumulated charge from the imaging device of the imaging unit 3 at the timing of the pulse signal B, and outputs an image signal. In the example of FIG. 3, when the shutter is in the open state, the stored charge is not read and the image signal is not output even if the pulse signal is input. The readout of the stored charge and the image signal at the timing is prohibited.

ステップS4において、制御部2は、撮像部3の不図示のシャッタを時間t開放した後閉じる。時間tは、全露光時間をステップS1で決定した分割数Nで除した時間である。本実施形態では分割数Nで均等に除す例を示すが、この限りではない。
ステップS5において、制御部2は、シャッタ閉動作に続くパルス信号のタイミングでの蓄積電荷の読み出し、画像信号の出力を許可する。これは図3に示すパルス信号Bのタイミングで、蓄積電荷の読み出し、画像信号の出力を行うためである。例えば、シャッタ開放時間が50msであった場合には、パルス信号Bのタイミングでも蓄積電荷の読み出し、画像信号の出力が禁止され、パルス信号Bに続くパルス信号Cのタイミングで、蓄積電荷の読み出し、画像信号の出力が許可されることとなる。
In step S <b> 4, the control unit 2 closes a shutter (not shown) of the imaging unit 3 after opening the time t. Time t is the time obtained by dividing the total exposure time by the division number N determined in step S1. In the present embodiment, an example of equally dividing by the division number N is shown, but this is not restrictive.
In step S5, the control unit 2 permits the readout of the accumulated charges and the output of the image signal at the timing of the pulse signal following the shutter closing operation. This is because the stored charge is read out and the image signal is output at the timing of the pulse signal B shown in FIG. For example, when the shutter opening time is 50 ms, the readout of the accumulated charge and the output of the image signal are prohibited at the timing of the pulse signal B, and the readout of the accumulated charge is performed at the timing of the pulse signal C following the pulse signal B. The output of the image signal is permitted.

ステップS6において、制御部2は、撮像部3にパルス信号Bのタイミングでの蓄積電荷の読み出し、画像信号の出力を行わせ、画像データの記録を行う。撮像部3は、パルス信号Bのタイミングで撮像部3の撮像素子の画像信号の出力を行う。すなわち、シャッタが閉じた後の、次のパルス信号のタイミングで、シャッタが閉じる前に撮像素子に蓄積された蓄積電荷を読み出して、画像信号として出力する。撮像部3により出力される画像信号は、A/D変換を始めとする信号処理が施された後、画像処理部4に入力され、これより出力される画像データは制御部2内の不図示のメモリに記録される。   In step S6, the control unit 2 causes the imaging unit 3 to read out stored charges at the timing of the pulse signal B and output an image signal, thereby recording image data. The imaging unit 3 outputs an image signal of the imaging element of the imaging unit 3 at the timing of the pulse signal B. That is, at the timing of the next pulse signal after the shutter is closed, the accumulated charge accumulated in the image sensor before the shutter is closed is read and output as an image signal. The image signal output from the imaging unit 3 is subjected to signal processing such as A / D conversion, and then input to the image processing unit 4. Image data output from the image signal is not shown in the control unit 2. Recorded in the memory.

ステップS7において、制御部2は、制御部2内の不図示のカウンタのカウント値を1増やし、n=n+1とする。
ステップS8において、制御部2は、n=N×2であるか否かを判定する。ここで、「N×2」とは、請求項の「所定数以上」の一例である。また、本実施形態における、「N+1」は請求項の「所定数」の一例である。n=N×2とするのは、後述する画像の評価および選択において、合成に適した画像を選択する際に、予備を含めた画像が必要であることに起因する(詳細は後述する)。なお、本実施形態では、N×2としたが、この限りではない。制御部2は、n=N×2になるまでステップS3からステップS8の処理を繰り返し、n=N×2に達すると、ステップS9に進む。この時点で、制御部2内の不図示のメモリには、(N×2)フレームの画像が記録されることになる。
In step S7, the control unit 2 increments the count value of a counter (not shown) in the control unit 2 by 1, so that n = n + 1.
In step S8, the control unit 2 determines whether n = N × 2. Here, “N × 2” is an example of “a predetermined number or more” in the claims. In the present embodiment, “N + 1” is an example of the “predetermined number” in the claims. The reason for n = N × 2 is that an image including a spare is required when selecting an image suitable for composition in evaluation and selection of an image to be described later (details will be described later). In this embodiment, N × 2 is used, but this is not restrictive. The controller 2 repeats the processing from step S3 to step S8 until n = N × 2, and when n = N × 2, the process proceeds to step S9. At this time, an image of (N × 2) frames is recorded in a memory (not shown) in the control unit 2.

ステップS9において、制御部2は、基準画像を決定する。制御部2は、制御部2内のメモリに記録される連続撮影画像のそれぞれについて、画像データレベル(明るさ)と、コントラストと、空間周波数の高周波成分との少なくとも1つを求め、最も合成に適した画像を基準画像として決定する。例えば、画像データレベルが飽和レベルに達していない、最も明るい画像、最もコントラスト値が高い画像、最も高周波成分が多い画像などが基準画像として設定される。   In step S9, the control unit 2 determines a reference image. The control unit 2 obtains at least one of the image data level (brightness), the contrast, and the high-frequency component of the spatial frequency for each of the continuously shot images recorded in the memory in the control unit 2, and performs the most composition. A suitable image is determined as a reference image. For example, the brightest image whose image data level has not reached the saturation level, the image with the highest contrast value, the image with the highest high-frequency component, etc. are set as the reference image.

ステップS10において、制御部2は、画像の評価を行う。制御部2は、ステップS9で決定した基準画像を比較の対象とし、不図示のメモリに記録された(N×2)フレームの画像のうち、基準画像を除くそれぞれの画像(比較画像)の基準画像に対する近似度合について、被写界中の主要被写体の画像における動き量、画像のフォーカス状態、被写体の変形度合、および画像の明度をファクターとして評価を行う。制御部2は、それぞれのファクターについて数値化して評価を行う。なお、主要被写体は、基準画像の中からユーザが指示して選択する、あるいは、基準画像の中央部に位置する被写体が自動的に主要被写体として設定される等の方法によって設定される。   In step S10, the control unit 2 evaluates the image. The control unit 2 uses the reference image determined in step S9 as a comparison target, and among the (N × 2) frame images recorded in the memory (not shown), the reference of each image (comparison image) excluding the reference image. The degree of approximation to the image is evaluated using factors such as the amount of motion of the main subject in the field, the focus state of the image, the degree of deformation of the subject, and the brightness of the image. The control unit 2 evaluates each factor numerically. The main subject is set by a method in which the user instructs and selects the reference image from the reference image, or the subject located at the center of the reference image is automatically set as the main subject.

・主要被写体の動き量について
静止する背景に対して主要被写体(人物)が動いている場合、主要被写体の動き情報を基に、主要被写体を基準にして画像全体の位置合わせを行って合成画像を得る場合、主要被写体の位置は一致させることができるが、その分、背景が多重像となった合成画像が得られてしまう。多重像の間隔は、主要被写体の動き量が大きいほど大きくなり、合成画像の画質が劣化することになる。したがって、動き量が小さいほど評価値を高くする。なお、動き量は、画面中の主要被写体領域のみではなく、画面中の他の領域を含んだ領域で評価するものであっても良い。
-About the amount of movement of the main subject When the main subject (person) is moving against the stationary background, the entire image is aligned based on the main subject based on the movement information of the main subject. In the case of obtaining, the position of the main subject can be made to coincide with each other, but a composite image in which the background becomes a multiple image is obtained accordingly. The interval between the multiple images increases as the amount of movement of the main subject increases, and the image quality of the composite image deteriorates. Therefore, the smaller the amount of motion is, the higher the evaluation value is. Note that the motion amount may be evaluated not only in the main subject area on the screen but also in an area including other areas on the screen.

・フォーカス状態について
フォーカスがぼけると、画像の位置合わせ(動き補償処理)おけるブロックマッチングの精度が低下し、結果としてぼけた合成画像が得られてしまう。ブロックマッチング処理は、動き補償処理において良く用いられる一般的な技術であり、例えば、特開平5−40828号公報に技術の一例が開示されている。したがって、フォーカス状態の変化が小さいほど評価値を高くする。なお、フォーカス状態の変化についても、主要被写体領域のみではなく、その他の領域を含んだ領域で評価するものであっても良い。
-About the focus state When the focus is blurred, the accuracy of block matching in image alignment (motion compensation processing) is lowered, and as a result, a blurred composite image is obtained. The block matching process is a general technique often used in the motion compensation process. For example, Japanese Patent Laid-Open No. 5-40828 discloses an example of the technique. Therefore, the evaluation value is increased as the change in the focus state is smaller. Note that the change of the focus state may be evaluated not only in the main subject area but also in an area including other areas.

また、フォーカス状態の変化を抑えるために、ステップS2で説明したカウンタの初期化の後に、照明部6による予備発光を行って焦点調節を行い、その後、ステップS8でn=N×2になるまで焦点状態を固定するようにしても良い。このように焦点状態を保持することにより、フォーカス状態の変化を抑えることができる。このような処理は自動で行われるようにしても良いし、ユーザ操作に応じて行われるようにしても良い。
・被写体の変形度合について
ブロックマッチング処理による基準画像のブロックの比較処理において、拡大、縮小処理を含む構成とすれば、被写体の変形度合の大きさが大きくなければ、時間と共に変形(大きさの変化を含む)する被写体が含まれる複数フレームの画像についても合成することができる。
Further, in order to suppress the change in the focus state, after the counter described in step S2 is initialized, preliminary illumination is performed by the illumination unit 6 to perform focus adjustment, and then in step S8, until n = N × 2. The focus state may be fixed. By maintaining the focus state in this way, changes in the focus state can be suppressed. Such processing may be performed automatically or may be performed in response to a user operation.
-Deformation degree of subject If the configuration including the enlargement / reduction processing is included in the comparison processing of the block of the reference image by the block matching process, if the degree of deformation of the subject is not large, the deformation (change in size) will occur over time. It is also possible to combine a plurality of frames of images including a subject to be included.

しかし、基準画像中の被写体に対する、残りの画像の被写体の変形(大きさの変化を含む)度合が大きいと、ブロックマッチング処理に誤りが発生する可能性が高くなり、結果として、例えば被写体部が多重像となった合成画像が得られてしまう。
このように、ブロックマッチング処理が対応できなくなる確率は、被写体の変形度合(変倍度合)が大きくなるほど大きくなる。したがって、被写体の変形度合(変倍度合)が小さいほど、評価値を高くする。
However, if the degree of deformation (including change in size) of the subject in the remaining image with respect to the subject in the reference image is large, there is a high possibility that an error will occur in the block matching process. A composite image that is a multiple image is obtained.
In this way, the probability that the block matching process cannot be handled increases as the degree of deformation (magnification) of the subject increases. Therefore, the evaluation value is increased as the deformation degree (magnification degree) of the subject is smaller.

被写体の変形度合は、例えば、基準画像中の被写体に対して変倍処理を施した変倍被写体像と、比較対象となる画像中の被写体像との画像データの差分値を算出し、変倍処理の倍率と画像データの差分値とを基に判断する。変倍処理の倍率が1で、画像データの差分値が0の場合には、基準画像中の被写体と、比較対象となる画像中の被写体とが同じであることを示しており、評価値が最も高く設定される。   The degree of deformation of the subject is calculated by, for example, calculating a difference value between image data of a zoomed subject image obtained by subjecting the subject in the reference image to a scaling process and a subject image in the comparison target image. The determination is made based on the processing magnification and the difference value of the image data. When the magnification of the scaling process is 1 and the difference value of the image data is 0, it indicates that the subject in the reference image is the same as the subject in the image to be compared, and the evaluation value is Highest set.

この評価は、合成画像の高品質化を図るために基準画像中の全ての被写体について行っても良いし、演算時間の短縮化を図るために、例えば主要被写体など一部の被写体についてのみ行っても良い。
・画像の明度について
ブロックマッチング処理による基準画像のブロックの比較処理において、基準画像と、比較対象となる画像との間で、明るさの変化がある場合には、ブロックマッチング処理が正常に行われなくなる。
This evaluation may be performed for all subjects in the reference image in order to improve the quality of the composite image, or only for some subjects such as the main subject in order to shorten the calculation time. Also good.
・ Brightness of the image In the comparison process of the block of the reference image by the block matching process, if there is a change in brightness between the reference image and the image to be compared, the block matching process is performed normally. Disappear.

このため、基準画像の明るさを基準として、比較対象となる画像の明るさを評価し、明るさが同じ場合の評価値を最も高く設定し、明るさの変化量が大きいほど、評価値を低く設定する。この評価は、画面全体の平均的な明るさについて行っても良いし、主要被写体が含まれる領域など画面内の一部の被写体領域についてのみ行っても良い。
ステップS11において、制御部2は、ステップS10で行った評価結果に応じて、合成する画像を選択する。制御部2は、不図示のメモリに記録された(N×2)フレームの画像のうち、評価の高い順に3フレーム(すなわち、(N−2)フレーム)の画像(選択画像)を選択し、基準画像と合わせて4フレームの画像を合成する画像として選択し、画像処理部4に供給する。
For this reason, the brightness of the image to be compared is evaluated based on the brightness of the reference image, the evaluation value when the brightness is the same is set to the highest value, and the evaluation value is increased as the amount of change in brightness increases. Set low. This evaluation may be performed for the average brightness of the entire screen, or may be performed only for a part of the subject area in the screen, such as an area including the main subject.
In step S11, the control unit 2 selects an image to be synthesized according to the evaluation result performed in step S10. The control unit 2 selects an image (selected image) of 3 frames (that is, (N-2) frames) in order of highest evaluation from (N × 2) frame images recorded in a memory (not shown), The four-frame image is selected as an image to be combined with the reference image and supplied to the image processing unit 4.

ステップS12において、制御部2は、ステップS11で決定した4フレームの画像の間で、基準画像を基準とした位置合わせ処理を行った上で、合成する。
基準画像は、複数のブロックに分割され、分割された各ブロックと、合成に用いられる残りの画像との間で、ブロックマッチング処理が行われ、基準画像の各ブロックの動きベクトルが、各画像に対して求められる。
In step S <b> 12, the control unit 2 combines the four frames of images determined in step S <b> 11 after performing alignment processing using the reference image as a reference.
The reference image is divided into a plurality of blocks, and a block matching process is performed between each of the divided blocks and the remaining image used for synthesis, and a motion vector of each block of the reference image is added to each image. Against it.

このようにして求められた動きベクトルをもとに、合成に用いられる残りの各画像の領域と、基準画像のある領域との対応付けを行い、動きベクトルによって対応付けられた各画像の領域を、対応する基準画像の領域位置に移動した上で、領域内の各画素ごとに、画像データの加算処理が行われる。
ここで、例えばブロックの大きさを小さくし、ブロックマッチング処理による基準画像のブロックとの比較処理において、拡大、縮小処理を行い、各画像の領域を、対応する基準画像の領域位置に移動する際に補間処理を行う構成とすれば、時間と共に変形(大きさの変化を含む)する被写体が含まれる複数フレームの画像についても合成することができる。
Based on the motion vector thus determined, the remaining image areas used for synthesis are associated with a certain area of the reference image, and the areas of the images associated with the motion vectors are determined. The image data is added to each pixel in the area after moving to the area position of the corresponding reference image.
Here, for example, when the size of the block is reduced and the enlargement / reduction process is performed in the comparison process with the block of the reference image by the block matching process, and the area of each image is moved to the area position of the corresponding reference image If the configuration is such that the interpolation processing is performed, it is also possible to synthesize a plurality of frames of images including a subject that deforms (including a change in size) with time.

ステップS13において、制御部2は、ステップS12の処理の結果得られた合成画像を、記録部5に記録し、一連の処理を終了する。
以上説明したように、第1実施形態によれば、被写界の像を、繰り返し撮像して得られた所定数以上の画像から、1フレームの基準画像を決定し、所定数以上の画像のうちの基準画像を除いた画像からなる比較画像のそれぞれについて、基準画像を比較対象として近似度合の評価を行う。そして、比較画像から、評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と基準画像とを用いて、合成画像を生成する。さらに、合成画像の生成は、選択画像の各々に対して、基準画像を基準として位置合わせ処理を行い、当該位置合わせ処理を施された各々の選択画像と、基準画像との加算処理によって行う。したがって、合成に適した画像から順に(評価の順位の高い順に)選択して合成することにより、被写体に応じて効果的に画像を合成して高画質の合成画像を生成することができる。例えば、連続して撮像した画像のうち、1フレームの画像において動き量が大きくなり、次の画像で元の状態に戻った場合には、動き量が大きい画像は、評価の順位が低くなり、結果として合成の対象から除くことができる。
In step S13, the control unit 2 records the composite image obtained as a result of the processing in step S12 in the recording unit 5, and ends a series of processing.
As described above, according to the first embodiment, a reference image of one frame is determined from a predetermined number or more images obtained by repeatedly capturing an image of the object scene, and a predetermined number or more of images are determined. For each of the comparison images including the images excluding the reference image, the degree of approximation is evaluated using the reference image as a comparison target. Then, an image of (the predetermined number −2) frames is selected as a selected image in the descending order of evaluation from the comparative image, and a composite image is generated using the selected image and the reference image. Further, the composite image is generated by performing alignment processing on each selected image with reference to the reference image, and adding each selected image subjected to the alignment processing to the reference image. Therefore, by selecting and synthesizing images in order from the image suitable for synthesis (in descending order of evaluation), it is possible to effectively synthesize the images according to the subject and generate a high-quality synthesized image. For example, when the amount of motion increases in one frame image among images captured continuously and returns to the original state in the next image, an image with a large amount of motion has a lower evaluation order, As a result, it can be excluded from the object of synthesis.

上述のブロックマッチング処理には、膨大な演算が必要となる。評価値の高い順に合成に用いる画像を選択する構成とすれば、基準画像に対して動き(変形)の少ない順に合成に用いる画像が選択されるので、ブロックマッチングの探索エリアを小さくすることができ、演算時間を短くすることができる。また、フォーカス状態の変化が少ない順、明るさの変化量が小さい順、あるいは、被写体の変形(変倍)度合が小さい順に合成に用いるフレーム画像が選択されるので、ブロックマッチング処理の精度を向上させることができる。   The block matching process described above requires enormous operations. If the image used for composition is selected in descending order of evaluation value, the image used for composition is selected in the order of least movement (deformation) with respect to the reference image, so that the search area for block matching can be reduced. The calculation time can be shortened. In addition, the frame image used for composition is selected in the order of the smallest change in focus state, the smallest amount of change in brightness, or the smallest degree of deformation (scaling) of the subject, improving the accuracy of block matching processing. Can be made.

さらに、明るさの十分な画像を生成することができ、複数フレームの画像データの加算によるランダムノイズ除去効果も期待できる。
また、第1実施形態によれば、被写界中の主要被写体の比較画像のそれぞれにおける動き量と、主要被写体の比較画像のそれぞれにおける変形度合と、比較画像のそれぞれのフォーカス状態と、比較画像のそれぞれの明度との少なくとも1つをファクターとして前記評価を行う。したがって、被写体の動きや被写体の変化などに応じて、合成に用いる画像を選択することができる。例えば、これらの評価値を用いて、画像の位置合わせ処理が可能か否かを判断し、位置合わせ処理が可能と判断された画像のみを用いて位置合わせ処理、合成処理を行うようにしても良い。
Furthermore, an image with sufficient brightness can be generated, and a random noise removal effect by adding a plurality of frames of image data can be expected.
Further, according to the first embodiment, the amount of movement in each of the comparison images of the main subject in the field, the degree of deformation in each of the comparison images of the main subject, the respective focus states of the comparison image, and the comparison image The evaluation is performed using at least one of the lightness of each as a factor. Therefore, an image used for composition can be selected in accordance with the movement of the subject, the change of the subject, and the like. For example, using these evaluation values, it is determined whether or not image alignment processing is possible, and only the images that are determined to be alignment processing can be used to perform alignment processing and composition processing. good.

また、第1実施形態によれば、所定数以上の画像のそれぞれにおける明るさと、コントラストと、高周波成分との少なくとも1つに基づいて、複数フレームの画像の位置合わせの基準となる基準画像を決定する。したがって、基準画像を適切に決定することができるので、合成により生成される画像の画質を向上させることができる。複数フレームの画像取得時に、照明部による発光を行う場合には、この際に撮像された画像を基準画像として、比較画像(あるいは選択画像)の明度を基準画像に合うように補正した上で、位置合わせ処理を行う構成とすれば、明るい画像が基準となるので、ブロックマッチング処理の精度が向上する。   In addition, according to the first embodiment, a reference image serving as a reference for alignment of images of a plurality of frames is determined based on at least one of brightness, contrast, and high frequency components in each of a predetermined number of images. To do. Therefore, since the reference image can be appropriately determined, the image quality of the image generated by the synthesis can be improved. When light is emitted by the illumination unit at the time of acquiring a plurality of frames of images, the image captured at this time is used as a reference image, and the brightness of the comparison image (or selected image) is corrected to match the reference image. If the configuration is such that the alignment process is performed, the bright image is the reference, so the accuracy of the block matching process is improved.

また、第1実施形態によれば、予備発光を行う照明部を備え、照明部による予備発光時に焦点調節を行い、その後、被写界の像を繰り返し撮像し、所定数以上の画像の生成を終了するまでの間、焦点状態を固定する。したがって、合成に用いる複数の画像を生成する最中にフォーカス状態を一定に保つことができるので、合成に適した画像を生成することが可能になる。   In addition, according to the first embodiment, the illumination unit that performs preliminary light emission is provided, focus adjustment is performed at the time of preliminary light emission by the illumination unit, and then an image of the object scene is repeatedly captured to generate a predetermined number of images or more. The focus state is fixed until the end. Therefore, since the focus state can be kept constant during the generation of a plurality of images used for composition, an image suitable for composition can be generated.

勿論、画面中の注目被写体(主要被写体)に対して、追尾をしながら自動合焦動作を連続して行うように構成しても良い。このような構成とすれば、各フレーム画像において注目被写体に焦点の合った画像が得られ、合成に適した注目被写体の像が得られると共に、ブロックマッチング処理の精度が向上する。この場合、注目被写体は分割数以上の撮像動作の最初に撮像された画像の中から制御部2によって設定されることが望ましい。   Of course, the automatic focusing operation may be continuously performed while tracking the subject of interest (main subject) on the screen. With such a configuration, an image focused on the subject of interest is obtained in each frame image, an image of the subject of interest suitable for synthesis is obtained, and the accuracy of the block matching process is improved. In this case, it is desirable that the target subject is set by the control unit 2 from among images captured at the beginning of the imaging operation equal to or greater than the division number.

なお、低解像度の暗画像を複数フレーム取得し、分割露光の最後でストロボを発光して主要被写体(人物)の高解像度画像を得て、各画像を加算合成することにより、S/N比を改善し、主要被写体の明画像を得ること考える場合にも、本実施形態を適用することができる。このような場合には、分割露光の最後でストロボを発光して得た主要被写体(人物)の高解像度画像を除く画像に対して本実施形態で説明した各処理を行い、合成後の画像にこの高解像度画像を合成すれば良い。   Note that multiple frames of low-resolution dark images are acquired, a strobe is emitted at the end of the divided exposure to obtain a high-resolution image of the main subject (person), and each image is added and combined to obtain an S / N ratio. The present embodiment can also be applied when improving and obtaining a bright image of the main subject. In such a case, each process described in the present embodiment is performed on an image excluding a high-resolution image of a main subject (person) obtained by emitting a strobe at the end of divided exposure, and the combined image is displayed. What is necessary is just to synthesize | combine this high resolution image.

また、第1実施形態では、画像データレベル(明るさ)と、コントラストと、高周波成分との少なくとも1つを求め、最も合成に適した画像を基準画像として決定する例を示したが、コントラストが最も大きい画像を基準画像としても良いし、連続撮影の撮影順序に応じて基準画像を決定しても良いし、いくつかの方法を組み合わせるようにしても良い。
例えば、連続撮影の一番最初に撮影された画像を基準画像とすれば、図2の撮像動作(ステップS3〜ステップS8)と、画像の評価動作(ステップS10)とを並行して行うことができ、合成画像生成までの時間を短縮化することができる。また、連続撮影期間中のほぼ中央の時間に撮影された画像を基準画像とすれば、時間的に前後して撮影された画像を合成に用いる画像とすることができる。このような構成とすれば、例えば連続撮影の最後に得られた画像を基準画像とする場合と比較して、動き量、変形(変倍)量、明るさの変化量の小さなフレーム画像を合成に用いることができる。
In the first embodiment, an example in which at least one of the image data level (brightness), contrast, and high-frequency component is obtained and an image most suitable for synthesis is determined as a reference image has been described. The largest image may be used as the reference image, the reference image may be determined according to the shooting order of continuous shooting, or several methods may be combined.
For example, if the first image of continuous shooting is the reference image, the imaging operation (steps S3 to S8) in FIG. 2 and the image evaluation operation (step S10) can be performed in parallel. It is possible to shorten the time until generation of the composite image. Further, if an image taken at approximately the center time during the continuous shooting period is used as a reference image, an image taken before and after the time can be used as an image for synthesis. With such a configuration, for example, a frame image with a small amount of motion, deformation (magnification), and change in brightness is synthesized as compared with a case where an image obtained at the end of continuous shooting is used as a reference image. Can be used.

《第2実施形態》
以下、本発明の第2実施形態について説明する。
第2実施形態の電子カメラは、第1実施形態の電子カメラ1と同様の構成である。したがって、構成の図示および説明を省略し、以下では、第1実施形態と同様の符号を用いる。
<< Second Embodiment >>
The second embodiment of the present invention will be described below.
The electronic camera of the second embodiment has the same configuration as the electronic camera 1 of the first embodiment. Therefore, illustration and description of the configuration are omitted, and the same reference numerals as those in the first embodiment are used below.

まず、第2実施形態の特徴である撮影開始前の処理について、図4のフローチャートを用いて説明する。第2実施形態では、合成に用いる画像を取得する連続撮影開始前に、画像の合成を行うか否かを判定する。例えば、静止した背景の中でボール(主要被写体)が転がる場合に、ぶれ補正を行うために背景部分で位置合わせをして画像合成を行うと、背景部分は位置合わせによってぶれを補正することができる。しかし、転がるボールは分割露光の間に移動し続けた画像が合成されるため、ボールの速度によっては、合成後の画像に複数のボールが現出してしまう。同様に、主要被写体が変形する場合や、明るさが急激に変化する場合、被写体までの距離が急激に変化する場合も同様のことが言える。そこで、第2実施形態では、撮影開始前に被写体の状況を把握し、状況に応じて画像の合成を行うか否かを判定する。   First, the process before the start of photographing, which is a feature of the second embodiment, will be described using the flowchart of FIG. In the second embodiment, it is determined whether or not to combine images before starting continuous shooting for acquiring images used for combining. For example, when a ball (main subject) rolls in a stationary background, if the background portion is aligned and image synthesis is performed in order to perform shake correction, the background portion may correct the shake by alignment. it can. However, since the rolling ball is synthesized with an image that continues to move during the divided exposure, a plurality of balls appear in the synthesized image depending on the velocity of the ball. Similarly, the same can be said when the main subject is deformed, when the brightness changes abruptly, or when the distance to the subject changes abruptly. Therefore, in the second embodiment, the situation of the subject is grasped before the start of shooting, and it is determined whether or not to synthesize an image according to the situation.

電子カメラ1の不図示の電源ボタンがONされると、制御部2はこれを検知し、ステップS21において、撮像部3を介して予備撮像を開始する。予備撮像とは、構図確認用のいわゆるスルー画像の撮像であり、撮像部3は、被写界の像を繰り返し撮像し、複数の画像を連続的に生成する。
ステップS22において、制御部2は、複数の画像のそれぞれから特徴量を抽出する。制御部2は、所定のフレーム数(例えば4フレーム)の画像を撮像部3を介して生成すると、それらの画像から、特徴量として被写界中の主要被写体の各画像における動き量と、被写体の各画像における変形(変倍を含む)度合と、各画像のフォーカス状態と、各画像の明度との少なくとも1つを抽出する。主要被写体は、第1実施形態に記載の手法と同様の手法によって抽出することができる。
When a power button (not shown) of the electronic camera 1 is turned on, the control unit 2 detects this, and starts preliminary imaging via the imaging unit 3 in step S21. Preliminary imaging is imaging of a so-called through image for composition confirmation, and the imaging unit 3 repeatedly captures an image of the object scene and continuously generates a plurality of images.
In step S22, the control unit 2 extracts feature amounts from each of the plurality of images. When the control unit 2 generates images of a predetermined number of frames (for example, 4 frames) via the imaging unit 3, the motion amount of each main subject in the object scene as the feature amount from these images, and the subject At least one of the degree of deformation (including zooming), the focus state of each image, and the brightness of each image is extracted. The main subject can be extracted by a method similar to the method described in the first embodiment.

例えば、動き量は、複数の画像から移動する主要被写体を検出し、複数の画像間で主要被写体の各領域の対応付けを行った上で、主要被写体の同一点がどれだけ移動したかを算出する。これは例えば複数の主要被写体における画像間の動き量の平均、または画面全体における画像間の動き量の平均、またはそれに類する計算により求める。また、変形度合は、第1実施形態に記載の手法や画像内のある領域について他の領域との境界情報を求め、その境界情報が複数の画像間で変化した度合、例えば縦横比や近似多角形の頂点数などから求める。また、フォーカス状態は、被写界内の複数の位置におけるフォーカス位置を算出し、複数の画像間でのフォーカス位置の変化を算出する。フォーカス位置は、オートフォーカス用のセンサ出力の解析などにより求める。求められたフォーカス位置情報は、各画像に関連付けて、各画像データとともに記録部5に記録することもできる。また、撮像部3によって生成された画像の画像データから、各画像のフォーカス状態を求める構成としても良い。制御部2は、それぞれの特徴量を数値化して求める。   For example, the amount of movement is calculated based on how much the same point of the main subject has moved after detecting the main subject moving from multiple images and associating each region of the main subject between multiple images. To do. This is obtained by, for example, an average of the amount of motion between images in a plurality of main subjects, an average of the amount of motion between images in the entire screen, or a similar calculation. In addition, the degree of deformation is obtained by obtaining boundary information between the method described in the first embodiment and a certain region in an image with another region, and the degree of change of the boundary information among a plurality of images, for example, the aspect ratio and the approximation ratio. It is calculated from the number of vertices of the square. In addition, the focus state calculates the focus position at a plurality of positions in the object scene, and calculates the change of the focus position between the plurality of images. The focus position is obtained by analyzing the sensor output for autofocus. The obtained focus position information can be associated with each image and recorded in the recording unit 5 together with each image data. Further, the focus state of each image may be obtained from the image data of the image generated by the imaging unit 3. The control part 2 calculates | requires each feature-value numerically.

ステップS23において、制御部2は、特徴量の変化量を求める。
ステップS24において、制御部2は、変化量が閾値以下であるか否かを判定する。変化量が閾値より大きい場合、画像合成の結果として前述のボールの例のような不自然さが発生することが予想される。閾値の決定には、実験の結果などを加味し、被写体の変化が目立つか目立たないかといった境界に設定することが好ましい。
In step S23, the control unit 2 obtains a change amount of the feature amount.
In step S24, the control unit 2 determines whether or not the amount of change is equal to or less than a threshold value. When the amount of change is larger than the threshold value, it is expected that unnaturalness such as the above-described ball example will occur as a result of image synthesis. In determining the threshold value, it is preferable to set the boundary of whether the change of the subject is conspicuous or inconspicuous in consideration of the result of the experiment.

ステップS24において、変化量が閾値以下であると判定すると、ステップS25において、制御部2は、制御部2内の画像合成実施フラグをONする。
一方、ステップS24において、変化量が閾値以下でないと判定すると、ステップS26において、制御部2は、画像合成実施フラグをOFFする。制御部2は、画像合成実施フラグをOFFすることにより、予備撮像(スルー画撮像)に続く本撮影時の画像合成を禁止する。
If it is determined in step S24 that the amount of change is equal to or less than the threshold value, the control unit 2 turns on the image composition execution flag in the control unit 2 in step S25.
On the other hand, if it is determined in step S24 that the amount of change is not less than or equal to the threshold value, in step S26, the control unit 2 turns off the image composition execution flag. The control unit 2 prohibits image synthesis at the time of main shooting subsequent to preliminary imaging (through image imaging) by turning off the image synthesis execution flag.

次に、電子カメラ1の本撮影時の動作について、図5のフローチャートを用いて説明する。なお、図5のフローチャートを実行する前に、上述した図4のフローチャートの各処理が行われているものとする。
操作部7を介して、ユーザにより本撮影の開始が指示されると、ステップS31において、制御部2は、画像合成実施フラグがONであるか否かを判定する。
Next, the operation of the electronic camera 1 during actual photographing will be described using the flowchart of FIG. It is assumed that each process of the flowchart of FIG. 4 described above is performed before the flowchart of FIG. 5 is executed.
When the user gives an instruction to start actual shooting via the operation unit 7, in step S31, the control unit 2 determines whether or not the image composition execution flag is ON.

ステップS31において、画像合成実施フラグがONであると判定すると、ステップS32において、制御部2は、撮像・画像の合成を行う。
ステップS32において、制御部2は、第1実施形態において、図2のフローチャートを用いて説明した一連の処理を行う。ただし、ステップS10の画像の評価については、以下の処理を行う。すなわち、ステップS10において、制御部2は、不図示のメモリに記録された(N×2)フレームの各画像を複数の領域に分割し、各領域における主要被写体の変形度合および各領域における明度分布をファクターとし、ステップS9で決定した基準画像を比較の対象として評価を行う。制御部2は、それぞれのファクターについて数値化して評価を行う。
If it is determined in step S31 that the image synthesis execution flag is ON, in step S32, the control unit 2 performs imaging and image synthesis.
In step S32, the control unit 2 performs a series of processes described using the flowchart of FIG. 2 in the first embodiment. However, the following processing is performed for the image evaluation in step S10. That is, in step S10, the control unit 2 divides each image of the (N × 2) frame recorded in a memory (not shown) into a plurality of areas, the degree of deformation of the main subject in each area, and the brightness distribution in each area. And the reference image determined in step S9 is evaluated as a comparison target. The control unit 2 evaluates each factor numerically.

・主要被写体の変形(変倍)度合について
各領域ごとに動きベクトルを算出し、動きベクトルの大きさのばらつきおよび動きベクトルの向きのばらつきをそれぞれ分散として求め、この分散を基に主要被写体の変形度合を求める。変形度合が大きいほど合成におけるブロックマッチングの精度が低下し、結果としてぼけた合成画像が得られてしまう。したがって、変形度合の変化が小さいほど評価値を高くする。
・ Deformation (magnification) degree of main subject Calculates motion vectors for each area, obtains motion vector size variation and motion vector direction variation as variances, and based on this variance, transforms the main subject Find the degree. The greater the degree of deformation, the lower the accuracy of block matching in composition, resulting in a blurred composite image. Therefore, the smaller the change in the degree of deformation, the higher the evaluation value.

・明度分布について
各領域ごとに画像データレベル(明るさ)を求め、他の画像との差分を基に、明度分布の変化を検出する。明度分布の変化が大きいほど、合成におけるブロックマッチングの精度が低下し、結果としてぼけた合成画像が得られてしまう。したがって、明度分布の変化が小さいほど評価値を高くする。
-About brightness distribution The image data level (brightness) is calculated | required for every area | region, and the change of brightness distribution is detected based on the difference with another image. The greater the change in the lightness distribution, the lower the accuracy of block matching in composition, resulting in a blurred composite image. Therefore, the evaluation value is increased as the change in brightness distribution is smaller.

なお、各領域の評価を行う際に、各領域の評価を平均して画面全体の評価値を求めるようにしても良いし、画面内の一部の領域の評価値を画面全体に反映させるようにしても良い。
一方、ステップS31において、画像合成実施フラグがOFFであると判定すると、制御部2は、ステップS33からステップS36において、画像合成を行わず通常の撮影を行う。すなわち、全露光時間の間、継続的に露光を行うことにより被写界の像を撮像し、1フレームの画像を生成する。
When evaluating each area, the evaluation of each area may be averaged to obtain the evaluation value of the entire screen, or the evaluation values of some areas in the screen may be reflected on the entire screen. Anyway.
On the other hand, if it is determined in step S31 that the image composition execution flag is OFF, the control unit 2 performs normal photographing without performing image composition in steps S33 to S36. That is, an image of the object scene is captured by continuously performing exposure for the entire exposure time, and an image of one frame is generated.

ステップS33において、制御部2は、図2のステップS3と同様に、パルス信号Aのタイミングでの蓄積電荷の読み出し、画像信号を禁止する。
ステップS34において、制御部2は、図2のステップS4と同様に、シャッタを時間t1開放した後閉じる。ただし、時間t1とはシャッタスピードなどに基づいて決定される全露光時間である。
In step S <b> 33, the control unit 2 prohibits reading of accumulated charges and image signals at the timing of the pulse signal A, as in step S <b> 3 of FIG. 2.
In step S34, the control unit 2 closes the shutter after releasing the time t1 as in step S4 of FIG. However, the time t1 is the total exposure time determined based on the shutter speed or the like.

ステップS35において、制御部2は、図2のステップS5と同様に、パルス信号Bのタイミングでの蓄積電荷の読み出し、画像信号の出力を許可する。
ステップS36において、制御部2は、図2のステップS6と同様に、パルス信号Bのタイミングでの蓄積電荷の読み出し、画像信号の出力を行わせ、記録部5への画像データの記録を行う。
In step S <b> 35, the control unit 2 permits the readout of the accumulated charges and the output of the image signal at the timing of the pulse signal B as in step S <b> 5 of FIG. 2.
In step S <b> 36, the control unit 2 records the image data in the recording unit 5 by reading out the accumulated charges and outputting the image signal at the timing of the pulse signal B, similarly to step S <b> 6 in FIG. 2.

なお、ステップS31において、画像合成実施フラグがOFFであると判定された場合に、画像合成が実施されない旨を告知する構成としても良い。この告知が図4のステップS26で行われる構成とすれば、予備撮像の段階が告知がなされるのでより一層好適である。
以上説明したように、第2実施形態によれば、比較画像のそれぞれを複数の領域に分割し、各領域における被写体の変形度合と、各領域における明度分布とをファクターとして前記評価を行う。したがって、被写体の動きや被写体の変化などに応じて、評価の高い順に合成に用いる画像を選択することができる。
In step S31, when it is determined that the image composition execution flag is OFF, it may be configured to notify that the image composition is not performed. If the notification is made in step S26 in FIG. 4, it is even more preferable because the preliminary imaging stage is notified.
As described above, according to the second embodiment, each of the comparison images is divided into a plurality of regions, and the evaluation is performed using the degree of deformation of the subject in each region and the brightness distribution in each region as factors. Therefore, it is possible to select an image to be used for composition in descending order of evaluation according to the movement of the subject or the change of the subject.

また、第2実施形態によれば、被写界の像を繰り返し撮像し、複数の画像を連続的に生成する予備撮像を行い予備撮像により連続的に生成された複数の画像のそれぞれから、所定の特徴量を抽出し、抽出したそれぞれの特徴量を比較して、その変化量が所定の閾値より小さい場合には、画像の合成を行うと判定する。そして、画像の合成を行うと判定した場合、被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成し、得られた所定数以上の画像から、1フレームの基準画像を決定し、所定数以上の画像のうちの基準画像を除いた画像からなる比較画像のそれぞれについて、基準画像を比較対象として近似度合の評価を行い、比較画像から、評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と記基準画像とを用いて合成画像を生成する。したがって、被写体が合成に適した場合にのみ分割露光と画像の合成とを行うことができる。   In addition, according to the second embodiment, a predetermined image is obtained from each of a plurality of images continuously generated by preliminary imaging by repeatedly capturing images of an object scene and continuously generating a plurality of images. These feature amounts are extracted, and the extracted feature amounts are compared. If the change amount is smaller than a predetermined threshold value, it is determined that the images are to be combined. If it is determined that the images are to be combined, the image of the object scene is repeatedly captured to generate the predetermined number or more images, and a reference image of one frame is determined from the obtained predetermined number or more images. Then, for each of the comparison images formed by removing the reference image from among the predetermined number of images, the degree of approximation is evaluated using the reference image as a comparison target. -2) A frame image is selected as a selected image, and a composite image is generated using the selected image and the reference image. Therefore, division exposure and image synthesis can be performed only when the subject is suitable for synthesis.

また、第2実施形態によれば、所定の特徴量として、被写界中の主要被写体の各画像における動き量と、被写体の各画像における変形度合と、各画像のフォーカス状態と、各画像の明度との少なくとも1つを抽出する。したがって、被写体の動きや被写体の変化などに応じた特徴量を用いて、合成を行うか否かの判定を行うことができる。
また、第2実施形態において、全露光時間、分割数、シャッタ速度、連続撮影における各撮影の撮影間隔などに応じて、所定の閾値を決定することができる。したがって、画像の合成を行うか否かの判定を行うための閾値を適切な値に設定することが可能になる。
Further, according to the second embodiment, as the predetermined feature amount, the amount of movement of each main subject image in the object scene, the degree of deformation of each subject image, the focus state of each image, Extract at least one of brightness. Therefore, it is possible to determine whether or not to perform synthesis using a feature amount corresponding to the movement of the subject or the change in the subject.
In the second embodiment, the predetermined threshold can be determined according to the total exposure time, the number of divisions, the shutter speed, the shooting interval of each shooting in continuous shooting, and the like. Therefore, it is possible to set a threshold value for determining whether or not to combine images to an appropriate value.

また、第2実施形態によれば、画像の合成を行うと判定しない場合、全露光時間の間、継続的に露光を行うことにより被写界の像を撮像し、1フレームの画像を生成する。したがって、合成に適さない場合には、通常の撮影を行うことにより不都合を抑えた撮影を行うことができる。また、流し撮りなどのユーザの意図に沿った撮影を行うことができる。
なお、第2実施形態では、予備撮像の結果に基づいて画像の合成を行うか否かを判定したが、判定に、モード(シャッタ優先モードなど)や、シャッタスピードなどを加味するようにしても良い。
According to the second embodiment, when it is not determined that the images are to be combined, the exposure is continuously performed for the entire exposure time, thereby capturing an image of the object scene and generating a one-frame image. . Therefore, when it is not suitable for synthesis, it is possible to perform shooting with reduced inconvenience by performing normal shooting. Moreover, it is possible to perform shooting according to the user's intention such as panning.
In the second embodiment, it is determined whether or not to synthesize an image based on the result of preliminary imaging. However, a mode (such as shutter priority mode) or a shutter speed may be added to the determination. good.

また、予備撮像の際に、第1実施形態で説明したような露光時間を所定の分割数で分割して分割露光を行うようにしても良い。
なお、上記第1実施形態および第2実施形態では、本発明の一例として電子カメラを用いて説明を行ったが、これらの電子カメラの行った処理の一部(例えば、図2のステップS9〜ステップS12の処理)をコンピュータで実現するようにしても良い。この場合、コンピュータには、本発明の画像処理プログラムを予めインストールしておけば良い。
In preliminary imaging, the exposure time as described in the first embodiment may be divided by a predetermined number of divisions to perform division exposure.
The first embodiment and the second embodiment have been described using an electronic camera as an example of the present invention. However, a part of the processing performed by these electronic cameras (for example, steps S9 to S9 in FIG. 2). The processing in step S12 may be realized by a computer. In this case, the image processing program of the present invention may be installed in advance in the computer.

また、上記第1実施形態および第2実施形態で説明した各処理を組み合わせて実行するようにしても良い。例えば、第2実施形態において、画像の評価を行う際に、第1実施形態と同様に主要被写体の動き量や画像のフォーカス状態などをファクターとしても良い。
また、上記実施形態においては、分割露光によって得られた複数フレームの画像の位置合わせを行った上で、画像データを加算する装置について説明したが、複数フレームの画像の位置合わせを行った上で、画像データを加算平均、または加重平均するノイズリデューサのような画像処理装置に対しても、本発明を同様に適用できる。
Moreover, you may make it perform combining each process demonstrated in the said 1st Embodiment and 2nd Embodiment. For example, in the second embodiment, when evaluating an image, the amount of movement of the main subject, the focus state of the image, and the like may be used as factors as in the first embodiment.
Further, in the above-described embodiment, the apparatus for adding the image data after performing the alignment of the images of the plurality of frames obtained by the divided exposure has been described. However, after performing the alignment of the images of the plurality of frames. The present invention can be similarly applied to an image processing apparatus such as a noise reducer that averages or weights averages image data.

電子カメラ1の機能ブロック図である。2 is a functional block diagram of the electronic camera 1. FIG. 電子カメラ1の動作を示すフローチャートである。3 is a flowchart showing the operation of the electronic camera 1. 電子カメラ1の処理におけるタイミングチャートである。4 is a timing chart in processing of the electronic camera 1. 電子カメラ1の動作を示す別のフローチャートである。6 is another flowchart showing the operation of the electronic camera 1. 電子カメラ1の動作を示す別のフローチャートである。6 is another flowchart showing the operation of the electronic camera 1.

符号の説明Explanation of symbols

1,電子カメラ 2,制御部 3,撮像部 4,画像処理部 5,記録部 6,照明部 7,操作部 8,測光部
1, electronic camera 2, control unit 3, imaging unit 4, image processing unit 5, recording unit 6, illumination unit 7, operation unit 8, photometry unit

Claims (14)

被写界の像を、繰り返し撮像して得られた所定数以上の画像から、1フレームの基準画像を決定する決定部と、
前記所定数以上の画像のうちの前記基準画像を除いた画像からなる比較画像のそれぞれについて、前記基準画像を比較対象として近似度合の評価を行う評価部と、
前記比較画像から、前記評価部による評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と前記基準画像とを用いて、合成画像を生成する合成部と
を備えたことを特徴とする画像処理装置。
A determining unit that determines a reference image of one frame from a predetermined number of images obtained by repeatedly capturing an image of the object scene;
An evaluation unit that evaluates the degree of approximation for each of the comparison images including the reference image of the predetermined number or more images excluding the reference image;
A synthesis unit that selects an image of the (predetermined number−2) frames as a selection image in descending order of evaluation by the evaluation unit from the comparison image, and generates a synthesis image using the selection image and the reference image. An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記合成部は、前記選択画像の各々に対して、前記基準画像を基準として位置合わせ処理を行い、当該位置合わせ処理を施された各々の前記選択画像と、前記基準画像との加算処理によって前記合成画像を生成する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The synthesizing unit performs an alignment process on each of the selected images with the reference image as a reference, and adds each of the selected images subjected to the alignment process and the reference image to perform the alignment process. An image processing apparatus for generating a composite image.
請求項2に記載の画像処理装置において、
前記評価部は、前記被写界中の主要被写体の前記比較画像のそれぞれにおける動き量と、前記主要被写体の前記比較画像のそれぞれにおける変形度合と、前記比較画像のそれぞれのフォーカス状態と、前記比較画像のそれぞれの明度との少なくとも1つをファクターとして前記評価を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The evaluation unit includes a movement amount of each of the comparison images of the main subject in the object scene, a degree of deformation of each of the comparison images of the main subject, a focus state of each of the comparison images, and the comparison. An image processing apparatus, wherein the evaluation is performed using at least one of the brightness of each image as a factor.
請求項2に記載の画像処理装置において、
前記評価部は、前記比較画像のそれぞれを複数の領域に分割し、各領域における被写体の動き量と、前記各領域における前記被写体の変形度合と、前記各領域におけるフォーカス状態と、前記各領域における明度分布との少なくとも1つをファクターとして前記評価を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The evaluation unit divides each of the comparison images into a plurality of regions, the amount of movement of the subject in each region, the degree of deformation of the subject in each region, the focus state in each region, and the amount in each region The image processing apparatus, wherein the evaluation is performed using at least one of the brightness distribution as a factor.
請求項1に記載の画像処理装置において、
前記決定部は、前記所定数以上の画像のそれぞれにおける明るさと、コントラストと、高周波成分との少なくとも1つに基づいて、前記基準画像を決定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The determination unit determines the reference image based on at least one of brightness, contrast, and high-frequency component in each of the predetermined number of images.
請求項1に記載の画像処理装置において、
前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する撮像部を有し、
前記決定部は、前記繰り返し撮像動作の最初に撮像された画像を前記基準画像として決定し、
前記評価部は、前記撮像部による繰り返し撮像動作と並行して、前記近似度合の評価を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An image capturing unit that repeatedly captures the image of the object scene and generates the predetermined number or more images;
The determining unit determines an image captured at the beginning of the repeated imaging operation as the reference image,
The said evaluation part evaluates the said approximation degree in parallel with the repeated imaging operation by the said imaging part. The image processing apparatus characterized by the above-mentioned.
請求項1に記載の画像処理装置において、
前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する撮像部と、
予備発光を行う照明部とを備え、
前記撮像部は、前記照明部による予備発光時に焦点調節を行い、その後、前記被写界の像を繰り返し撮像し、前記所定数以上の画像の生成を終了するまでの間、焦点状態を固定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An imaging unit that repeatedly captures an image of the object scene and generates the predetermined number of images;
An illumination unit that performs preliminary light emission,
The imaging unit performs focus adjustment at the time of preliminary light emission by the illuminating unit, and then repeatedly captures the image of the object scene and fixes the focus state until the generation of the predetermined number of images or more is completed. An image processing apparatus.
請求項1に記載の画像処理装置において、
前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する撮像部を有し、
前記決定部は、前記繰り返し撮像動作の最初に撮像された画像の中から、所定の被写体を設定し、
前記撮像部は、前記繰り返し撮像動作の行われている間、前記所定の被写体に対して、継続的に自動合焦動作を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An image capturing unit that repeatedly captures the image of the object scene and generates the predetermined number or more images;
The determination unit sets a predetermined subject from among images captured at the beginning of the repeated imaging operation,
The image processing apparatus, wherein the imaging unit continuously performs an automatic focusing operation on the predetermined subject while the repeated imaging operation is performed.
請求項1から請求項5の何れか1項に記載の画像処理装置を備えた電子カメラであって、
被写界の像を繰り返し撮像し、複数の画像を連続的に生成する予備撮像動作を行うとともに、前記被写界の像を、繰り返し撮像し、前記所定数以上の画像を生成する本撮像動作を行う撮像部と、
前記予備撮像動作により連続的に生成された前記複数の画像のそれぞれから、所定の特徴量を抽出する抽出部と、
前記抽出部により抽出したそれぞれの前記特徴量を比較して、その変化量が所定の閾値より小さい場合には、前記合成部による画像の合成を行うと判定する判定部とを有し、
前記判定部が、前記合成部による画像の合成を行うと判定した場合、前記決定部は、前記本撮像動作によって得られた前記所定数以上の画像から、1フレームの基準画像を決定し、前記評価部は、前記所定数以上の画像のうちの前記基準画像を除いた画像からなる比較画像のそれぞれについて、前記基準画像を比較対象として近似度合の評価を行い、前記合成部は、前記比較画像から、前記評価部による評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と前記基準画像とを用いて合成画像を生成する
ことを特徴とする電子カメラ。
An electronic camera comprising the image processing device according to any one of claims 1 to 5,
A main imaging operation that repeatedly captures images of the object scene and performs a preliminary image capturing operation that continuously generates a plurality of images, and repeatedly captures images of the object scene and generates the predetermined number of images or more. An imaging unit for performing
An extraction unit that extracts a predetermined feature amount from each of the plurality of images continuously generated by the preliminary imaging operation;
A determination unit that compares the feature amounts extracted by the extraction unit and determines that the image is to be combined by the combining unit when the amount of change is smaller than a predetermined threshold;
When the determination unit determines to combine the images by the combining unit, the determination unit determines a reference image of one frame from the predetermined number or more images obtained by the main imaging operation, The evaluation unit evaluates the degree of approximation for each of the comparison images made up of images excluding the reference image among the predetermined number or more images, with the reference image as a comparison target, and the combining unit performs the comparison image From the highest evaluation by the evaluation unit, an image of (the predetermined number−2) frames is selected as a selection image, and a composite image is generated using the selection image and the reference image. camera.
処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムであって、An image processing program for realizing image processing on an image to be processed by a computer,
被写界の像を、繰り返し撮像して得られた所定数以上の画像を取得する取得ステップと、An acquisition step of acquiring a predetermined number or more images obtained by repeatedly capturing an image of the object scene;
前記所定数以上の画像から、1フレームの基準画像を決定する決定ステップと、A determining step of determining a reference image of one frame from the predetermined number of images;
前記所定数以上の画像のうちの前記基準画像を除いた画像からなる比較画像のそれぞれについて、前記基準画像を比較対象として近似度合の評価を行う評価ステップと、An evaluation step for evaluating the degree of approximation for each of the comparison images including the reference image of the predetermined number or more images excluding the reference image;
前記比較画像から、前記評価ステップにおける評価の高い順に、(前記所定数−2)フレームの画像を選択画像として選択し、当該選択画像と前記基準画像とを用いて、合成画像を生成する合成ステップとA synthesis step of selecting an image of the (predetermined number−2) frames as a selection image from the comparison image in descending order of evaluation in the evaluation step, and generating a composite image using the selection image and the reference image. When
を備えたことを特徴とする画像処理プログラム。An image processing program comprising:
請求項10に記載の画像処理プログラムにおいて、The image processing program according to claim 10,
前記合成ステップでは、前記選択画像の各々に対して、前記基準画像を基準として位置合わせ処理を行い、当該位置合わせ処理を施された各々の前記選択画像と、前記基準画像との加算処理によって前記合成画像を生成するIn the synthesizing step, alignment processing is performed on each of the selected images with reference to the reference image, and the selection image that has been subjected to the alignment processing is added to the reference image to perform the alignment processing. Generate a composite image
ことを特徴とする画像処理プログラム。An image processing program characterized by that.
請求項11に記載の画像処理プログラムにおいて、The image processing program according to claim 11,
前記評価ステップでは、前記被写界中の主要被写体の前記比較画像のそれぞれにおける動き量と、前記主要被写体の前記比較画像のそれぞれにおける変形度合と、前記比較画像のそれぞれのフォーカス状態と、前記比較画像のそれぞれの明度との少なくとも1つをファクターとして前記評価を行うIn the evaluation step, the amount of movement of each of the comparison images of the main subject in the object scene, the degree of deformation of each of the comparison images of the main subject, the focus state of each of the comparison images, and the comparison The evaluation is performed using at least one of the brightness of each image as a factor.
ことを特徴とする画像処理プログラム。An image processing program characterized by that.
請求項11に記載の画像処理プログラムにおいて、The image processing program according to claim 11,
前記評価ステップでは、前記比較画像のそれぞれを複数の領域に分割し、各領域における被写体の動き量と、前記各領域における前記被写体の変形度合と、前記各領域におけるフォーカス状態と、前記各領域における明度分布との少なくとも1つをファクターとして前記評価を行うIn the evaluation step, each of the comparison images is divided into a plurality of regions, the amount of movement of the subject in each region, the degree of deformation of the subject in each region, the focus state in each region, and the amount in each region The evaluation is performed using at least one of the brightness distribution as a factor.
ことを特徴とする画像処理プログラム。An image processing program characterized by that.
請求項10に記載の画像処理プログラムにおいて、The image processing program according to claim 10,
前記決定ステップでは、前記所定数以上の画像のそれぞれにおける明るさと、コントラストと、高周波成分との少なくとも1つに基づいて、前記基準画像を決定するIn the determining step, the reference image is determined based on at least one of brightness, contrast, and high-frequency component in each of the predetermined number or more images.
ことを特徴とする画像処理プログラム。An image processing program characterized by that.
JP2005082192A 2005-03-22 2005-03-22 Image processing apparatus, electronic camera, and image processing program Active JP4497001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005082192A JP4497001B2 (en) 2005-03-22 2005-03-22 Image processing apparatus, electronic camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005082192A JP4497001B2 (en) 2005-03-22 2005-03-22 Image processing apparatus, electronic camera, and image processing program

Publications (2)

Publication Number Publication Date
JP2006270238A JP2006270238A (en) 2006-10-05
JP4497001B2 true JP4497001B2 (en) 2010-07-07

Family

ID=37205763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005082192A Active JP4497001B2 (en) 2005-03-22 2005-03-22 Image processing apparatus, electronic camera, and image processing program

Country Status (1)

Country Link
JP (1) JP4497001B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4825093B2 (en) * 2006-09-20 2011-11-30 富士通株式会社 Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program
WO2008090730A1 (en) * 2007-01-23 2008-07-31 Nikon Corporation Image processing device, electronic camera, image processing method, and image processing program
JP4872830B2 (en) * 2007-06-28 2012-02-08 セイコーエプソン株式会社 Imaging apparatus, imaging method, image processing apparatus, image processing program, and image processing method
JP5239601B2 (en) * 2007-09-28 2013-07-17 カシオ計算機株式会社 Imaging apparatus and program
JP2009194896A (en) * 2008-01-18 2009-08-27 Sanyo Electric Co Ltd Image processing device and method, and imaging apparatus
JP2009205283A (en) * 2008-02-26 2009-09-10 Olympus Corp Image processing apparatus, method and program
JP4561845B2 (en) 2008-02-29 2010-10-13 カシオ計算機株式会社 Imaging apparatus and image processing program
JP5054583B2 (en) * 2008-03-17 2012-10-24 株式会社リコー Imaging device
JP4720859B2 (en) * 2008-07-09 2011-07-13 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5256912B2 (en) * 2008-07-30 2013-08-07 株式会社ニコン Electronic camera
JP5272581B2 (en) * 2008-08-25 2013-08-28 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP5200820B2 (en) * 2008-09-25 2013-06-05 カシオ計算機株式会社 Imaging apparatus, imaging method, and image processing program
JP5233611B2 (en) * 2008-11-25 2013-07-10 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US8963949B2 (en) * 2009-04-22 2015-02-24 Qualcomm Incorporated Image selection and combination method and device
JP5566196B2 (en) * 2010-06-14 2014-08-06 キヤノン株式会社 Image processing apparatus and control method thereof
JP5018937B2 (en) * 2010-07-16 2012-09-05 カシオ計算機株式会社 Imaging apparatus and image processing program
JP5539098B2 (en) * 2010-08-06 2014-07-02 キヤノン株式会社 Image processing apparatus, control method therefor, and program
JP5641411B2 (en) * 2010-09-15 2014-12-17 株式会社リコー Imaging apparatus, electronic device, image processing system, and computer-readable recording medium
JP5760654B2 (en) * 2011-04-28 2015-08-12 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US8902328B2 (en) * 2013-03-14 2014-12-02 Konica Minolta Laboratory U.S.A., Inc. Method of selecting a subset from an image set for generating high dynamic range image
US9338349B2 (en) * 2013-04-15 2016-05-10 Qualcomm Incorporated Generation of ghost-free high dynamic range images
US9672608B2 (en) 2013-08-22 2017-06-06 Olympus Corporation Image processing device, endoscope apparatus, image processing method, and program
JP6230333B2 (en) * 2013-08-22 2017-11-15 オリンパス株式会社 Image processing apparatus, image processing method, and program
CN111869194B (en) * 2018-03-16 2023-04-14 索尼公司 Information processing apparatus, information processing method, and storage medium
JP2019212138A (en) * 2018-06-07 2019-12-12 コニカミノルタ株式会社 Image processing device, image processing method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540828A (en) * 1991-08-05 1993-02-19 Fujitsu Ltd Block matching search system
JP2000244851A (en) * 1999-02-18 2000-09-08 Canon Inc Picture processor and method and computer readable storage medium
JP2004159292A (en) * 2002-07-11 2004-06-03 Eastman Kodak Co Method for generating images used in extended dynamic range image composition
WO2004093011A1 (en) * 2003-04-17 2004-10-28 Seiko Epson Corporation Generation of still image from a plurality of frame images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540828A (en) * 1991-08-05 1993-02-19 Fujitsu Ltd Block matching search system
JP2000244851A (en) * 1999-02-18 2000-09-08 Canon Inc Picture processor and method and computer readable storage medium
JP2004159292A (en) * 2002-07-11 2004-06-03 Eastman Kodak Co Method for generating images used in extended dynamic range image composition
WO2004093011A1 (en) * 2003-04-17 2004-10-28 Seiko Epson Corporation Generation of still image from a plurality of frame images

Also Published As

Publication number Publication date
JP2006270238A (en) 2006-10-05

Similar Documents

Publication Publication Date Title
JP4497001B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5394296B2 (en) Imaging apparatus and image processing method
JP6124538B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5507014B2 (en) Moving object detection apparatus and method
US20190086768A1 (en) Automatic focusing apparatus and control method therefor
JP5643563B2 (en) Image processing apparatus and control method thereof
JP2008271240A (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
US20080074441A1 (en) Image processing apparatus, image processing method, image processing program, and image pickup apparatus
JP5453573B2 (en) Imaging apparatus, imaging method, and program
JP6672081B2 (en) Imaging device
US20110149095A1 (en) Image pickup apparatus and method of picking up image
JP2009194700A (en) Image processor and image processing program
JP2009109564A (en) Autofocus control circuit, autofocus control method and imaging apparatus
JP2008035167A (en) Imaging apparatus
JP2008276017A (en) Imaging apparatus and method, and program
JP4420906B2 (en) Imaging device
JP5144724B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
US10412321B2 (en) Imaging apparatus and image synthesis method
JP6838894B2 (en) Focus control device, its control method and program
JP6070283B2 (en) Imaging apparatus, exposure control method, and program
JP5618765B2 (en) Imaging apparatus and control method thereof
JP2009017427A (en) Imaging device
JP2009164859A (en) Imaging apparatus and imaging control method
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP5043178B2 (en) Image blur correction apparatus and correction method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4497001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250