JP5760654B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5760654B2
JP5760654B2 JP2011101570A JP2011101570A JP5760654B2 JP 5760654 B2 JP5760654 B2 JP 5760654B2 JP 2011101570 A JP2011101570 A JP 2011101570A JP 2011101570 A JP2011101570 A JP 2011101570A JP 5760654 B2 JP5760654 B2 JP 5760654B2
Authority
JP
Japan
Prior art keywords
image
data
captured
condition
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011101570A
Other languages
Japanese (ja)
Other versions
JP2012235255A5 (en
JP2012235255A (en
Inventor
松永 和久
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011101570A priority Critical patent/JP5760654B2/en
Publication of JP2012235255A publication Critical patent/JP2012235255A/en
Publication of JP2012235255A5 publication Critical patent/JP2012235255A5/en
Application granted granted Critical
Publication of JP5760654B2 publication Critical patent/JP5760654B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus , an image processing method, and a program.

近年のデジタルカメラは、撮像時間内に発生した手ブレにより生ずる画像のボケを、撮影条件の調整や画像処理等様々な手段で抑制している。以下、このような補正を「手ブレ補正」と呼ぶ。
このような手ブレ補正の手法として、動画像のうちの何枚かの連続するフレーム群や、連写により連続して得られた何枚かのシャッタ時間の短い静止画像群を処理対象にして、処理対象の各画素のデータを位置合わせし、それぞれ加算平均することで、処理対象を合成する手法、即ちいわゆるマルチプレーン加算方式が用いられている。
なお、以下、マルチプレーン加算方式により処理対象(フレーム群や静止画像群)が合成された結果得られる画像を、「合成画像」と呼ぶ。
In recent digital cameras, blurring of an image caused by camera shake occurring within an imaging time is suppressed by various means such as adjustment of shooting conditions and image processing. Hereinafter, such correction is referred to as “camera shake correction”.
As a method for correcting camera shake, several continuous frames of a moving image or several still images with a short shutter time obtained by continuous shooting are processed. A method of combining processing objects by aligning data of each pixel to be processed and averaging each of them, that is, a so-called multiplane addition method is used.
Hereinafter, an image obtained as a result of combining processing targets (frame group or still image group) by the multi-plane addition method is referred to as a “composite image”.

ここで、マルチプレーン加算方式において、フレーム群や静止画像群の全画素(全領域)が加算平均の対象になると、その結果得られる合成画像においては、手ブレの領域は有効に補正されているが、動被写体の領域では、単純に合成されたことに起因してボケが生じてしまう。
そこで、このような動被写体のボケを低減すべく、動被写体以外の領域のみを加算平均する一方、動被写体の領域については加算平均しない手法が、特許文献1に開示されている。
Here, in the multi-plane addition method, when all the pixels (all regions) of the frame group or the still image group are subjected to addition averaging, the camera shake region is effectively corrected in the resultant composite image. However, in the area of the moving subject, blurring occurs due to simple composition.
In order to reduce such blurring of a moving subject, Japanese Patent Application Laid-Open No. 2004-133867 discloses a method in which only the area other than the moving subject is added and averaged while the moving subject area is not added and averaged.

特開2009−290827号公報JP 2009-290827 A

しかしながら、特許文献1に記載の手法では、動被写体の領域の処理として、フレーム群や静止画像群内の所定の1枚を基準画像として、基準画像内の動被写体の領域をそのまま採用して張り付ける処理が採用される。このような基準画像内の動被写体の領域で、被写体ブレが生じている場合が多い。
ここで、被写体ブレとは、1枚の静止画像を撮像するための露光時間(シャッタ時間)に撮像素子の各画素に蓄積された光量の積分により、各画素のデータ(画素値)が得られるが、露光時間内に被写体が動いてしまうと、動く前後の光が混在して積分されてしまうため、被写体の領域にボケが生ずることをいう。
このため、特許文献1に記載の手法を適用しても、被写体ブレは回避できずに、マルチプレーン加算方式に従った画像処理後の合成画像の画質が劣化してしまう。
However, in the method described in Patent Document 1, as a process of moving subject areas, a predetermined one of a frame group or a still image group is used as a reference image, and the moving subject area in the reference image is directly adopted and pasted. Is adopted. In many cases, subject blurring occurs in such a moving subject region in the reference image.
Here, subject blur means that data (pixel value) of each pixel is obtained by integrating the amount of light accumulated in each pixel of the image sensor during the exposure time (shutter time) for capturing one still image. However, if the subject moves within the exposure time, the light before and after the movement is mixed and integrated, which means that the region of the subject is blurred.
For this reason, even if the method described in Patent Document 1 is applied, subject blurring cannot be avoided, and the image quality of the composite image after image processing according to the multiplane addition method is deteriorated.

本発明は、このような状況に鑑みてなされたものであり、マルチプレーン加算方式に従った画像処理後の合成画像において、手ブレ等に起因するボケと、被写体ブレとを共に低減させて画質を向上させることを目的とする。   The present invention has been made in view of such a situation, and in a composite image after image processing according to the multiplane addition method, image quality is reduced by reducing both blur caused by camera shake and subject blur and subject blur. It aims at improving.

上記目的を達成するため、本発明の一態様の画像処理装置は、同一の被写体を含む複数の撮像画像のデータを異なる複数の撮影条件により取得する画像取得手段と、前記画像取得手段により取得された前記複数の撮像画像のデータ毎に、前記異なる複数の撮影条件の中で、前記被写体の動きに関する所定の条件を満たす撮影条件であるか否かを判定する条件判定手段と、前記条件判定手段の判定結果に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択手段と、前記画像取得手段により取得された前記複数の撮像画像のデータのうち、前記合成基準画像選択手段により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成手段と、を備えることを特徴とする。 In order to achieve the above object, an image processing apparatus according to an aspect of the present invention is obtained by an image acquisition unit that acquires data of a plurality of captured images including the same subject under a plurality of different shooting conditions, and the image acquisition unit. A condition determining unit that determines whether or not the shooting condition satisfies a predetermined condition regarding the movement of the subject among the plurality of different shooting conditions for each of the plurality of captured image data; and the condition determining unit Based on the determination result, from among the plurality of captured image data acquired by the image acquisition means, a synthesis reference image selection means for selecting data of a synthesis reference image that serves as a reference when performing image synthesis; Of the plurality of captured image data acquired by the image acquisition means, two or more image capturing data including the composite reference image data selected by the composite reference image selection means. A synthesis unit configured to generate composite image data by executing image synthesis processing according to a multi-plane addition method using the image data as a processing target based on the synthesis reference image. .

本発明によれば、マルチプレーン加算方式に従った画像処理後の合成画像において、手ブレ等に起因するボケと、被写体ブレとを共に低減させて画質を向上させることができる。   According to the present invention, in a composite image after image processing according to the multiplane addition method, it is possible to improve image quality by reducing both blur caused by camera shake and subject blur and subject blur.

本発明の画像処理装置の一実施形態としての撮像装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an imaging apparatus as an embodiment of an image processing apparatus of the present invention. このような撮像装置の機能的構成のうち、撮像処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing an imaging process among the functional structures of such an imaging device. 図2の機能的構成を有する図1の撮像装置が実行する撮影処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of imaging processing executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG. 2. マルチプレーン加算方式に従った画像処理の処理対象の選択手法の一例を示す模式図である。It is a schematic diagram which shows an example of the selection method of the process target of the image process according to a multiplane addition system.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムにしたがって各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
例えば、画像処理部14は、撮像部17から連続して出力される複数の撮像画像のデータに対して、マルチプレーン加算方式に従った画像処理を施し、その結果得られる合成画像のデータを出力する。
The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.
For example, the image processing unit 14 performs image processing according to the multi-plane addition method on the data of a plurality of captured images continuously output from the imaging unit 17, and outputs the resultant composite image data. To do.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、図示はしないがフォーカスレンズやズームレンズを含む光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit including a focus lens and a zoom lens, and an image sensor.

光学レンズ部は、被写体を撮影するために、フォーカスレンズやズームレンズ等の各種レンズで構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit includes various lenses such as a focus lens and a zoom lens in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
本明細書では、このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼んでいる。撮像画像のデータは、CPU11に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
In the present specification, such an output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is appropriately supplied to the CPU 11.

このような撮像部17の動作は、後述の図2を参照して説明する撮像制御部41によって制御される。例えば、撮像制御部41は、撮像部17の各種撮像条件を設定する。例えば撮像制御部41は、撮像条件の1つとしてズーム倍率を設定し、設定したズーム倍率になるように、図示せぬレンズ駆動部を制御してズームレンズを駆動する。   The operation of the imaging unit 17 is controlled by the imaging control unit 41 described with reference to FIG. For example, the imaging control unit 41 sets various imaging conditions for the imaging unit 17. For example, the imaging control unit 41 sets a zoom magnification as one of the imaging conditions, and controls a lens driving unit (not shown) to drive the zoom lens so that the set zoom magnification is obtained.

入力部18は、電源ボタン、シャッタボタン等、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 18 includes various buttons such as a power button and a shutter button, and inputs various types of information according to user instruction operations.
The output unit 19 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、このような撮像装置1の機能的構成のうち、撮像処理を実行するための機能的構成を示す機能ブロック図である。
ここでいう「撮像処理」とは、いわゆる連写により繰り返し連続して複数の撮像画像を撮像し、当該複数の撮像画像のデータに対してマルチプレーン加算方式に従った画像処理を施し、その結果得られる合成画像のデータを記録するまでの一連の処理をいう。
FIG. 2 is a functional block diagram showing a functional configuration for executing the imaging process among the functional configurations of the imaging apparatus 1 as described above.
The “imaging processing” here refers to imaging a plurality of captured images repeatedly and continuously by so-called continuous shooting, and performing image processing according to the multi-plane addition method on the data of the plurality of captured images. This refers to a series of processing until recording of the resultant composite image data.

撮像処理の実行が制御される場合、CPU11においては、撮像制御部41と、画像取得部42と、表示制御部43と、合成基準画像選択部44と、が機能する。画像処理部14においては、条件判定部51と、合成部52と、が機能する。   When the execution of the imaging process is controlled, in the CPU 11, the imaging control unit 41, the image acquisition unit 42, the display control unit 43, and the composite reference image selection unit 44 function. In the image processing unit 14, a condition determination unit 51 and a synthesis unit 52 function.

撮像制御部41は、ユーザによる入力部18に対する各種操作等に応じて各種撮像条件を設定し、当該各種撮像条件に基づいて撮像部17の撮像動作を制御する。撮像部17は、撮像制御部41の制御に基づいて撮像動作をし、その結果得られる撮像画像のデータを出力して記憶部20に一旦記録させる。   The imaging control unit 41 sets various imaging conditions according to various operations on the input unit 18 by the user and controls the imaging operation of the imaging unit 17 based on the various imaging conditions. The imaging unit 17 performs an imaging operation based on the control of the imaging control unit 41, outputs captured image data obtained as a result, and temporarily records the data in the storage unit 20.

画像取得部42は、入力部18のシャッタボタンの押下による記録指示操作の前の段階では、撮像部17から出力されて、入出力インターフェース16を介して記憶部20に一旦記憶された撮像画像のデータを、ライブビュー画像のデータとして取得する。
即ち、画像取得部42の他、撮像制御部41及び表示制御部43としても機能しているCPU11は、撮像処理中、ライブビュー撮像処理及びライブビュー表示処理を実行することで、ライブビュー画像を出力部19(撮像装置1のディスプレイ)に表示させる。
具体的には、撮像制御部41は、撮像処理が開始すると、撮像部17による撮像動作を継続させる。そして、撮像制御部41は、撮像部17による撮像動作が継続されている間、当該撮像部17から順次出力される撮像画像のデータを、メモリ(本実施形態では記憶部20)に一時的に記憶させる。このような一連の制御処理が、ここでいう「ライブビュー撮像処理」である。
また、画像取得部42は、ライブビュー撮像処理の最中にメモリ(本実施形態では記憶部20)に一時的に記録された各撮像画像のデータを順次読み出して、表示制御部43に供給する。表示制御部43は、当該撮像画像を出力部19に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」である。そして、ライブビュー表示処理により出力部19に表示されている撮像画像が、ここでいう「ライブビュー画像」である。
The image acquisition unit 42 outputs the captured image output from the imaging unit 17 and temporarily stored in the storage unit 20 via the input / output interface 16 before the recording instruction operation by pressing the shutter button of the input unit 18. Data is acquired as live view image data.
That is, in addition to the image acquisition unit 42, the CPU 11 that functions as the imaging control unit 41 and the display control unit 43 performs a live view imaging process and a live view display process during the imaging process, thereby generating a live view image. The image is displayed on the output unit 19 (display of the imaging apparatus 1).
Specifically, the imaging control unit 41 continues the imaging operation by the imaging unit 17 when the imaging process starts. Then, while the image capturing operation by the image capturing unit 17 is continued, the image capturing control unit 41 temporarily stores the captured image data sequentially output from the image capturing unit 17 in the memory (the storage unit 20 in the present embodiment). Remember me. Such a series of control processes is the “live view imaging process” referred to herein.
In addition, the image acquisition unit 42 sequentially reads the data of each captured image temporarily recorded in the memory (the storage unit 20 in the present embodiment) during the live view imaging process, and supplies the data to the display control unit 43. . The display control unit 43 causes the output unit 19 to sequentially display the captured image. Such a series of control processes is the “live view display process” referred to herein. The captured image displayed on the output unit 19 by the live view display process is the “live view image” here.

その後、入力部18のシャッタボタンの押下操作による記録指示操作がなされると、撮像部17は、撮像制御部41の制御の下、いわゆる連写動作を行い、複数の撮像画像のデータを出力して記憶部20に一旦記憶させる。画像取得部42は、これらの複数の撮像画像のデータを、マルチプレーン加算方式に従った画像処理を実行する上での処理対象として取得して、条件判定部51に供給する。   Thereafter, when a recording instruction operation is performed by pressing the shutter button of the input unit 18, the imaging unit 17 performs a so-called continuous shooting operation under the control of the imaging control unit 41, and outputs data of a plurality of captured images. And once stored in the storage unit 20. The image acquisition unit 42 acquires the data of the plurality of captured images as a processing target for executing image processing according to the multiplane addition method, and supplies the acquired processing target to the condition determination unit 51.

条件判定部51は、画像取得部42により処理対象として取得された複数の撮像画像のデータ毎に、後述の合成基準画像を選択するための各種条件を満たすか否かを判定する。
このような条件は、種類や個数は特に限定されないが、本実施形態では、手ブレ及び大きな被写体ブレが生じていないという第1条件、人物の顔(特に目)の被写体ブレが生じていないという第2条件、人物の目がつぶっていないという第3条件、及び所定基準に対してシャッタ時間が短い等所定の撮像条件を満たすという第4条件が採用されている。
このため、条件判定部51には、第1条件を判定するブレ判定部61と、第2条件を判定する顔判定部62と、第3条件を判定する目判定部63と、第4条件を判定する撮像条件判定部64と、が設けられている。
The condition determination unit 51 determines whether or not various conditions for selecting a composite reference image to be described later are satisfied for each data of a plurality of captured images acquired as processing targets by the image acquisition unit 42.
The type and number of such conditions are not particularly limited, but in this embodiment, the first condition that camera shake and large subject blur do not occur, the subject blur of the person's face (especially eyes) does not occur. A second condition, a third condition that the person's eyes are not collapsed, and a fourth condition that satisfies a predetermined imaging condition such as a shutter time being shorter than a predetermined reference are employed.
For this reason, the condition determination unit 51 includes a blur determination unit 61 that determines the first condition, a face determination unit 62 that determines the second condition, an eye determination unit 63 that determines the third condition, and a fourth condition. An imaging condition determination unit 64 for determination is provided.

合成基準画像選択部44は、条件判定部51による各種条件の判定結果を総合的に判断して、画像取得部42により処理対象として取得された複数の撮像画像のデータから、所定の1枚のデータを、後述の合成部52において基準として用いられる画像のデータ(以下、「合成基準画像のデータ」と呼ぶ)として採用する。   The composite reference image selection unit 44 comprehensively determines the determination results of various conditions by the condition determination unit 51, and from a plurality of captured image data acquired as processing targets by the image acquisition unit 42, a predetermined one sheet The data is used as image data (hereinafter referred to as “compositing reference image data”) used as a reference in the combining unit 52 described later.

合成部52は、画像取得部42により処理対象として取得された複数の撮像画像のデータに対して、マルチプレーン加算方式に従った画像処理を施し、その結果得られる合成画像のデータを、ドライブ22を介してリムーバブルメディア31として記憶させる。
この場合、動被写体以外の領域のみが加算平均され、動被写体の領域については加算平均されずに、合成基準画像選択部44により選択された合成基準画像に含まれるものが合成画像においてそのまま採用される。
より正確には、合成部52は、合成基準画像のデータについて、他の撮像画像のデータと画素毎に相関を計算し、相関の高い画素(主に動被写体以外の画素)のみについて他の撮像画像の各画素値と加算平均し、相関の低い画素(主に動被写体の画素)の画素値については加算平均しないでそのまま採用する。
ここで、合成基準画像選択部44は、条件判定部51による各種条件の判定結果を総合的考慮することで、動被写体について被写体ブレが無い又は最小の撮像画像を、合成基準画像として選択することができる。このような合成基準画像に含まれる動被写体、即ち、被写体ブレが無い又は最小の動被写体が合成画像においてそのまま採用されるので、結果として、被写体ブレが最小限に抑制されると共に、被写体ブレの発生していない領域では、加算平均によりノイズの低減が図られる。
The synthesizing unit 52 performs image processing according to the multi-plane addition method on the data of the plurality of captured images acquired as the processing target by the image acquiring unit 42, and the resultant synthesized image data is output to the drive 22. And stored as removable media 31.
In this case, only the area other than the moving subject is added and averaged, and the moving subject area is not added and averaged, and what is included in the synthesized reference image selected by the synthesized reference image selection unit 44 is directly adopted in the synthesized image. The
More precisely, the synthesis unit 52 calculates the correlation between the data of the synthesis reference image and the data of the other captured image for each pixel, and performs other imaging only for the highly correlated pixels (mainly pixels other than the moving subject). The pixel values of the image are added and averaged, and the pixel values of pixels with low correlation (mainly moving subject pixels) are used without being added and averaged.
Here, the synthesis reference image selection unit 44 selects, as a synthesis reference image, a captured image that has no subject blur or a minimum motion blur for a moving subject by comprehensively considering the determination results of various conditions by the condition determination unit 51. Can do. A moving subject included in such a composite reference image, that is, a subject having no subject blur or a minimum moving subject is adopted as it is in the composite image, and as a result, subject blur is suppressed to a minimum and subject blurring is not caused. In a region where no noise is generated, noise is reduced by averaging.

次に、図3を参照して、上述の図2の機能的構成の撮像装置1が実行する撮像処理について説明する。
図3は、図2の機能的構成を有する図1の撮像装置1が実行する撮影処理の流れを説明するフローチャートである。
Next, an imaging process executed by the imaging apparatus 1 having the functional configuration of FIG. 2 described above will be described with reference to FIG.
FIG. 3 is a flowchart for explaining the flow of imaging processing executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.

撮像処理は、ユーザによる入力部18の所定の操作がなされて、撮像装置1の動作モードが例えば撮像モードに切り替えられ、かつ、被写体ブレを軽減するための連写合成画像モードが選択されたことを契機として開始され、次のような処理が実行される。   In the imaging process, a predetermined operation of the input unit 18 by the user is performed, the operation mode of the imaging apparatus 1 is switched to, for example, the imaging mode, and the continuous-shot composite image mode for reducing subject blur is selected. The following processing is executed at the start.

ステップS11において、撮像制御部41は、連写合成画像モードを設定する。   In step S11, the imaging control unit 41 sets a continuous-shot composite image mode.

ステップS12において、表示制御部43は、ライブビュー画像表示処理を開始する。これにより、ライブビュー画像が出力部19のディスプレイに表示される。
なお、本実施形態では、撮像処理が終了されるまでの間、ライブビュー画像が出力部19のディスプレイに表示され続けるものとする。
In step S12, the display control unit 43 starts a live view image display process. Thereby, the live view image is displayed on the display of the output unit 19.
In the present embodiment, it is assumed that the live view image continues to be displayed on the display of the output unit 19 until the imaging process is completed.

ステップS13において、撮像制御部41は、入力部18のシャッタボタンの押下による記録指示操作がなされたか否かを判定する。
記録指示操作がなされていない場合、ステップS13においてNOであると判定されて、処理は再度ステップS13に戻される。即ち、記録指示操作がなされるまでの間、ステップS13の判定処理が繰り返し実行される。
In step S <b> 13, the imaging control unit 41 determines whether a recording instruction operation is performed by pressing the shutter button of the input unit 18.
When the recording instruction operation is not performed, it is determined as NO in Step S13, and the process returns to Step S13 again. That is, until the recording instruction operation is performed, the determination process in step S13 is repeatedly executed.

ここで、本実施形態では、入力部18のシャッタボタンの押下操作として、次の2種類の操作が採用されている。
即ち、1つ目の操作は、入力部18のシャッタボタンが途中(下限に至らない所定の位置)まで押下される操作であり、「半押し操作」又は単に「半押し」と呼ばれている。半押しがなされると、撮像制御部41は、AF(Auto Focus)処理等を実行する。
2つ目の操作は、入力部18のシャッタボタンが下限まで押下される操作であり、「全押し操作」又は単に「全押し」と呼ばれている。この全押しが、本実施形態では、記録指示操作として採用されている。
従って、全押しがされると、ステップS13においてYESであると判定されて、処理はステップS14に進む。
Here, in this embodiment, the following two types of operations are employed as the pressing operation of the shutter button of the input unit 18.
That is, the first operation is an operation in which the shutter button of the input unit 18 is pressed halfway (a predetermined position that does not reach the lower limit), and is called “half-press operation” or simply “half-press”. . When half-pressed, the imaging control unit 41 executes an AF (Auto Focus) process or the like.
The second operation is an operation in which the shutter button of the input unit 18 is pressed to the lower limit, and is called “full press operation” or simply “full press”. This full press is adopted as a recording instruction operation in the present embodiment.
Accordingly, when the button is fully pressed, it is determined as YES in Step S13, and the process proceeds to Step S14.

ステップS14において、撮像制御部41は、適正露出と判断した撮像条件(当該撮像条件で特定されるシャッタ時間に対して2段シャッタ時間を下げたシャッタ時間を所定基準とした場合)に対して、2段シャッタ時間を下げた(短くした)画像と、3段シャッタ時間を下げた(短くした)画像とを交互に4セット、計8枚の撮像画像を得るために、撮像部17に連写動作をさせる。
これにより、計8枚の撮像画像のデータが撮像部17から出力されて記憶部20に一旦記憶される。これらの計8枚の撮像画像のデータが、画像取得部42により取得され条件判定部51に供給されると、処理はステップS15に進む。
In step S14, the imaging control unit 41 determines that the exposure is determined to be appropriate exposure (when the shutter time obtained by lowering the two-stage shutter time with respect to the shutter time specified by the imaging condition is a predetermined reference). In order to obtain a total of eight captured images of four sets of images with a reduced (shortened) two-stage shutter time and images with a reduced (shortened) three-stage shutter time, continuous shooting is performed on the imaging unit 17. Make it work.
As a result, data of a total of eight captured images is output from the imaging unit 17 and temporarily stored in the storage unit 20. When the data of these eight captured images is acquired by the image acquisition unit 42 and supplied to the condition determination unit 51, the process proceeds to step S15.

ステップS15において、条件判定部51は、計8枚の撮像画像の各データに対してデモザイク処理を施し、その形態をRAWデータからYUVデータに変換する。   In step S15, the condition determination unit 51 performs demosaic processing on each data of a total of eight captured images, and converts the form from RAW data to YUV data.

ステップS16において、条件判定部51は、計8枚の撮像画像の各データの位置合わせを行う。
具体的には、条件判定部51は、時間的に中央の撮像画像のデータを位置合わせ基準として設定し、その位置合わせ基準画像のデータの位置への射影変換行列を、位置合わせ基準画像以外の各撮像画像のデータに対して求める。そして、条件判定部51は、当該射影変換行列を各撮像画像のデータに対してかけることで、各データの位置合わせを行う。
In step S <b> 16, the condition determination unit 51 aligns each data of a total of eight captured images.
Specifically, the condition determining unit 51, the temporally sets the data of the center of the captured image as a registration datum, projective transformation matrix to the position data of the standards image to match its position, the position match was based It calculates | requires with respect to the data of each captured image other than a quasi image. Then, the condition determining unit 51 performs alignment of each data by applying the projective transformation matrix to each captured image data.

ステップS17において、条件判定部51は、計8枚の撮像画像の各データから顔検出を試みて、顔が存在するか否かを判定する。   In step S <b> 17, the condition determination unit 51 tries to detect a face from each data of a total of eight captured images and determines whether or not a face exists.

顔が存在しない場合、ステップS17においてNOであると判定されて、処理はステップS18に進む。
ステップS18において、条件判定部51は、計8枚の撮像画像の各データのうち、3段シャッタ時間を下げた計4枚の撮像画像各データを対象として、ブレ判定を行う。
ここで、計8枚の撮像画像の各データのうち、所定基準(当該撮影条件で特定されるシャッタ時間に対して2段シャッタ時間を下げたシャッタ時間)に対して3段シャッタ時間を下げた計4枚の撮像画像各データを対象とすることは、撮像条件として、所定基準に対してシャッタ時間が短いことという第4条件を満たすか否かが撮像条件判定部64により判定されたことを意味する。
また、ブレ判定とは、手ブレ及び大きな被写体ブレが生じていないという第1条件を満たすか否かを判定することを意味する。即ち、ブレ判定部61が、3段シャッタ時間を下げた計4枚の撮像画像各データを対象として、当該第1条件を満たすか否かを判定することで、ブレ判定を行う。ブレの判定では、微分画像のデータが生成され、その画素値を用いた判定がなされる。
このように、被写体ブレの識別に、画像間の動きベクトルではなく、識別の対象画像のみの微分画像を用いることで、より正確な判断が可能となる。画像間の動きベクトルを用いると、2画像の間の平均の動きであり、動きが直線的でなければ、正確な判断ができなくなるからである。なお、微分画像のデータの生成の手法は、特に限定されず、例えば、Sobel、Robinson,Prewitt演算子等の一次微分や、Laplacian演算子等の2次微分等を用いる手法が適用可能である。
ステップS19において、合成基準画像選択部44は、このようなステップS18のブレ判定の結果に基づいて、3段シャッタ時間を下げた画像群(4枚の撮像画像)の中から、被写体ブレ及び手ブレが一番少ないものを、合成基準画像として選択する。
When the face does not exist, it is determined as NO in Step S17, and the process proceeds to Step S18.
In step S <b> 18, the condition determination unit 51 performs blur determination on a total of four pieces of captured image data with a three-stage shutter time lowered among a total of eight pieces of captured image data.
Here, among the data of a total of eight captured images, the three-stage shutter time was lowered with respect to a predetermined reference (the shutter time obtained by reducing the two-stage shutter time with respect to the shutter time specified by the shooting condition). The fact that each of the data of a total of four captured images is targeted is that the imaging condition determination unit 64 determines whether or not the fourth condition that the shutter time is short with respect to a predetermined reference is satisfied as an imaging condition. means.
The blur determination means determining whether or not the first condition that no camera shake or large subject blur occurs is satisfied. That is, the blur determination unit 61 performs blur determination by determining whether or not the first condition is satisfied with respect to each of four pieces of captured image data with the three-stage shutter time lowered. In blur determination, differential image data is generated, and determination using the pixel value is performed.
As described above, more accurate determination can be made by using the differential image of only the target image for identification instead of the motion vector between the images for identifying the subject blur. This is because if a motion vector between images is used, it is an average motion between two images, and if the motion is not linear, accurate determination cannot be made. The method of generating differential image data is not particularly limited, and for example, a method using primary differentiation such as Sobel, Robinson, Prewitt operator, or secondary differentiation such as Laplacian operator is applicable.
In step S19, the compositing reference image selection unit 44 determines subject blurring and hand movement from the image group (four captured images) in which the three-step shutter time is reduced based on the blur determination result in step S18. The image with the least blur is selected as the composite reference image.

このようにして、計8枚の撮像画像の各データに顔が存在しない場合、ステップS17においてNOであると判定されて、ステップS18及びS19の処理により、合成基準画像が選択される。
これに対して、計8枚の撮像画像の各データに顔が存在する場合、ステップS17においてYESであると判定されて、処理はステップS20に進み、次のような処理が実行される。
In this way, if there is no face in each data of the eight captured images, it is determined NO in step S17, and the composite reference image is selected by the processing in steps S18 and S19.
On the other hand, when a face exists in each data of a total of eight captured images, it is determined as YES in step S17, the process proceeds to step S20, and the following process is executed.

ステップS20において、条件判定部51は、計8枚の撮像画像の各データのうち、3段シャッタ時間を下げた計4枚の撮像画像各データを対象として、顔判定及び目判定を行う。
ここで、計8枚の撮像画像の各データのうち、3段シャッタ時間を下げた計4枚の撮像画像各データを対象とすることは、ステップS18と同様に、撮像条件としてシャッタ時間が短いことという第4条件を満たすか否かが撮像条件判定部64により判定されたことを意味する。
また、顔判定とは、人物の顔(特に目)の被写体ブレが生じていないという第2条件を満たすか否かを判定することを意味する。即ち、顔判定部62が、3段シャッタ時間を下げた計4枚の撮像画像各データを対象として、当該第2条件を満たすか否かを判定することで、顔判定を行う。なお、目の被写体ブレが判定される場合には、目検出が行われる。また、被写体ブレの判定では、微分画像のデータが生成され、その画素値を用いた判定がなされる。
また、目判定とは、人物の目がつぶっていないという第3条件を満たすか否かを判定することを意味する。即ち、目判定部63が、3段シャッタ時間を下げた計4枚の撮像画像各データを対象として、当該第3条件を満たすか否かを判定することで、目判定を行う。なお、目判定のためには、その前提として、目検出が行われる。
ステップS21において、合成基準画像選択部44は、このようなステップS20の顔判定及び目判定の結果に基づいて、3段シャッタ時間を下げた画像群(4枚の撮像画像)の中から、目をつぶってなくて顔(目)の被写体ブレが一番少ないものを、合成基準画像として選択する。
In step S <b> 20, the condition determination unit 51 performs face determination and eye determination for each of the total of four captured image data with the three-stage shutter time being reduced among the total of eight captured image data.
Here, among the data of a total of eight captured images, targeting the total of four captured image data with the three-stage shutter time lowered is the same as in step S18, and the shutter time is short as the imaging condition. This means that the imaging condition determination unit 64 determines whether or not the fourth condition is satisfied.
Further, the face determination means determining whether or not the second condition that subject blurring of a human face (particularly eyes) does not occur is satisfied. That is, the face determination unit 62 performs face determination by determining whether or not the second condition is satisfied for a total of four pieces of captured image data with the three-step shutter time lowered. Note that when eye subject blur is determined, eye detection is performed. In the determination of subject blur, differential image data is generated and a determination is made using the pixel value.
The eye determination means determining whether or not a third condition that the person's eyes are not collapsed is satisfied. That is, the eye determination unit 63 performs eye determination by determining whether or not the third condition is satisfied with respect to each of four pieces of captured image data with the three-step shutter time lowered. Note that eye detection is performed as a prerequisite for eye determination.
In step S21, the composite reference image selection unit 44 selects an eye from an image group (four captured images) obtained by reducing the three-step shutter time based on the results of the face determination and the eye determination in step S20. The image with the smallest subject blurring of the face (eyes) is selected as the composite reference image.

このようにして、ステップS19又はS21の処理で合成基準画像が選択されると、処理はステップS22に進む。   In this way, when the composite reference image is selected in the process of step S19 or S21, the process proceeds to step S22.

ステップS22において、合成部52は、計8枚の撮像画像のデータのうち、合成基準画像を含む4枚の撮像画像のデータを処理対象として選択して、処理対象に対してマルチプレーン加算方式に従った画像処理を施す。   In step S <b> 22, the combining unit 52 selects four captured image data including the composite reference image from among the total of eight captured image data as a processing target, and applies the multiplane addition method to the processing target. Follow the image processing.

ここで、マルチプレーン加算方式に従った画像処理の処理対象の選択手法は、合成基準画像を含むように選択すれば足り、特に限定されないが、本実施形態では図4に示す選択手法が採用されている。
図4は、マルチプレーン加算方式に従った画像処理の処理対象の選択手法の一例を示している。
合成基準画像72は、上述のごとく、3段シャッタ時間を短くした計4枚の撮像画像から選択されたものである。このため、図4の例では、残りの3枚の処理対象として、2段シャッタ時間を短くした計4枚の撮像画像のうち、1番目に撮像された撮像画像71、3番目に撮像された撮像画像73、及び撮像画像74が選択されている。
この場合、合成基準画像72のうち、撮像画像71,73,74と相関の高い領域についてのみ、処理対象の各画素値が加算平均されることによって、マルチプレーン加算方式に従った画像処理が実行される。その結果、被写体がブレず(ボケず)、背景のノイズが少ない合成画像81のデータが得られる。
Here, the selection method of the processing target of the image processing according to the multiplane addition method is not particularly limited as long as it is selected so as to include the synthesis reference image, but in this embodiment, the selection method shown in FIG. 4 is adopted. ing.
FIG. 4 shows an example of a method for selecting a processing target of image processing according to the multi-plane addition method.
The composite reference image 72 is selected from a total of four captured images in which the three-stage shutter time is shortened as described above. Therefore, in the example of FIG. 4, as the remaining three processing objects, the first picked-up image 71 and the third picked-up image out of a total of four picked-up images with the two-step shutter time shortened. A captured image 73 and a captured image 74 are selected.
In this case, the image processing according to the multi-plane addition method is executed by averaging the pixel values to be processed only in regions of the composite reference image 72 that are highly correlated with the captured images 71, 73, and 74. Is done. As a result, data of the composite image 81 in which the subject is not blurred (blurred) and the background noise is small is obtained.

図3に戻り、ステップS23において、合成部52は、このようにしてステップS22の処理で生成した合成画像のデータを、リムーバブルメディア31に記録させる。
これにより、撮像処理は終了になる。
Returning to FIG. 3, in step S <b> 23, the compositing unit 52 records the composite image data generated in the process of step S <b> 22 in this manner on the removable medium 31.
Thereby, the imaging process is completed.

以上説明したように、本実施形態の撮像装置1は、画像取得部42と、条件判定部51と、合成基準画像選択部44と、合成部52と、を備える。
画像取得部42は、同一の被写体を含む複数の撮像画像のデータを取得する。
条件判定部51は、画像取得部42により取得された複数の撮像画像のデータ毎に、被写体の動きに関する所定の条件を満たすか否かを判定する。
合成基準画像選択部44は、条件判定部51の判定結果に基づいて、画像取得部42により取得された複数の撮像画像のデータの中から、合成基準画像のデータを選択する。
合成部52は、画像取得部42により取得された複数の撮像画像のデータのうち、合成基準画像選択部44により選択された合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、マルチプレーン加算方式に従った画像処理を実行することによって、合成画像のデータを生成する。
ここで、所定の条件として適切なものを採用することで、目つぶり画像や、被写体ブレ画像を合成基準画像として選択してしまうというリスクを最小限にすることができる。また、被写体ブレが発生していない領域については、手ブレ抑制用にシャッタ時間を短くしていること等に起因するノイズ低減を図ることができる。
また、条件判定部51は、複数の撮像画像が撮像されたときの撮像条件に関する条件を満たすか否かを判定する。そして、条件判定部51は、撮像条件に関する条件として、シャッタ時間に関する条件を満たすか否かを判定することで、被写体ブレ画像を合成基準画像として選択してしまうというリスクを最小限にすることができる。
即ち、マルチプレーン加算方式に従った画像処理後の合成画像において、手ブレ抑制用にシャッタ時間を短くしていること等に起因するノイズと、被写体ブレとを共に低減させて画質を向上させることができる。
特に、シャッタ時間に関する条件として、所定基準に対してシャッタ時間が短いという条件を採用することにより、合成基準画像のデータとして、シャッタ時間が短い分だけ、被写体ブレや手ブレの影響がより少ない画像のデータを選択することが可能となる。
しかも、合成する画像データとしては、所定基準で撮影された画像データを含むので、所定基準よりも短いシャッタ時間で撮影された画像データだけを合成する場合と比べて、必要な明るさを確保するために必要な画像データの合成回数を少なくすることが可能になり、処理時間の短縮や、合成処理にともなうノイズ等も低減することが可能となる。
As described above, the imaging apparatus 1 according to the present embodiment includes the image acquisition unit 42, the condition determination unit 51, the synthesis reference image selection unit 44, and the synthesis unit 52.
The image acquisition unit 42 acquires data of a plurality of captured images including the same subject.
The condition determination unit 51 determines whether or not a predetermined condition regarding the movement of the subject is satisfied for each of the plurality of captured image data acquired by the image acquisition unit 42.
Based on the determination result of the condition determination unit 51, the combination reference image selection unit 44 selects the data of the combination reference image from among the plurality of captured image data acquired by the image acquisition unit 42.
The synthesizing unit 52 processes two or more captured image data including the synthesized reference image data selected by the synthesized reference image selecting unit 44 among the plurality of captured image data acquired by the image acquiring unit 42. Then, composite image data is generated by executing image processing according to the multi-plane addition method.
Here, by adopting an appropriate one as the predetermined condition, it is possible to minimize the risk of selecting a blink image or a subject blur image as a composite reference image. Further, in an area where no subject blur occurs, noise due to a shortened shutter time for camera shake suppression can be achieved.
Moreover, the condition determination part 51 determines whether the conditions regarding the imaging condition when a some captured image is imaged are satisfy | filled. Then, the condition determination unit 51 determines whether or not the condition regarding the shutter time is satisfied as the condition regarding the imaging condition, thereby minimizing the risk of selecting the subject blurred image as the composite reference image. it can.
In other words, in a composite image after image processing according to the multi-plane addition method, noise caused by shortening the shutter time for camera shake suppression, etc., and subject blur are both reduced to improve image quality. Can do.
In particular, by adopting a condition that the shutter time is short with respect to a predetermined reference as a condition relating to the shutter time, an image that is less affected by subject blurring and camera shake as the shutter time is short as data of the composite reference image. It becomes possible to select the data.
Moreover, since the image data to be combined includes image data shot with a predetermined standard, the necessary brightness is ensured as compared with a case where only image data shot with a shutter time shorter than the predetermined reference is combined. Therefore, it is possible to reduce the number of times of image data synthesis required for this purpose, and it is possible to reduce processing time and noise associated with the synthesis processing.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、条件判定部51により判定される条件は、手ブレ及び大きな被写体ブレが生じていないという第1条件、人物の顔(特に目)の被写体ブレが生じていないという第2条件、人物の目がつぶっていないという第3条件、及び所定基準よりシャッタ時間が短い等所定の撮像条件を満たすという第4条件が採用されていた。
しかしながら、条件判定部51により判定される条件は、被写体の動きに関する条件であれば足り、種類及び個数は特に限定されない。
例えば、画像取得部42が、シャッタの全押しのタイミングの前後にわたって複数の撮像画像のデータを取得するものとして、当該複数の撮像画像のデータのうち、シャッタの全押しのタイミングに近いものを、合成基準画像として選択するという条件を採用することもできる。
In the above-described embodiment, the conditions determined by the condition determination unit 51 are the first condition that no camera shake or large subject blur occurs, and the second condition that no subject blur occurs on the human face (particularly eyes). The third condition that the person's eyes are not collapsed and the fourth condition that satisfies a predetermined imaging condition such as a shutter time shorter than the predetermined reference are employed.
However, the condition determined by the condition determination unit 51 is sufficient if it is a condition related to the movement of the subject, and the type and number are not particularly limited.
For example, the image acquisition unit 42 acquires data of a plurality of captured images before and after the shutter full-press timing, and among the data of the plurality of captured images, those close to the shutter full-press timing, It is also possible to adopt a condition of selecting as a composite reference image.

また、上述の実施形態では、合成基準画像選択部44は、各条件を同一重要度として取り扱って総合的に、合成基準画像を選択していた。
しかしながら、各条件を同一重要度にする必要は特になく、合成基準画像選択部44は、各条件に対して重要度に応じた重み付けをして、重み付け後の条件に基づいて合成基準画像を選択してもよい。
Further, in the above-described embodiment, the synthesis reference image selection unit 44 treats each condition as the same importance and selects the synthesis reference image comprehensively.
However, it is not particularly necessary that the conditions have the same importance, and the composition reference image selection unit 44 weights each condition according to the importance and selects a composition reference image based on the weighted conditions. May be.

また、上述の実施形態では、マルチプレーン加算方式に従った画像処理の対象は、図4に示すように、所定基準より3段シャッタ時間を短くした4枚の撮像画像群の中から選択された合成基準画像72と、所定基準より2段シャッタ時間を短くした3枚の撮像画像71,73,74とが採用された。
しかしながら、マルチプレーン加算方式に従った画像処理の対象は、特に限定されず、逆に、所定基準より2段シャッタ時間を短くした撮像画像群の中から選択された合成基準画像と、所定基準より3段シャッタ時間を短くした1枚以上の撮像画像とが採用されてもよい。
或いは、シャッタ時間の変化も、特に2段や3段に限定されず、任意の段の任意の組み合わせとしてもよい。即ち、2段、3段とシャッタ時間を短くすることは、シャッタ時間を、例えば1/2、1/4と段階的に短くすることを意味する。ただし、シャッタ時間を短くする段階や程度については、実装に応じ適宜設定可能である。この場合、任意の1枚の合成基準画像と、任意の1枚以上の撮像画像とを、マルチプレーン加算方式に従った画像処理の対象とすることができる。
さらに、シャッタ時間の所定基準としては、上述の実施形態では、2段シャッタ時間を下げたシャッタ時間が採用されたが、特にこれに限定されず、例えば1段、3段、或いはその他の段数だけシャッタ時間を下げたシャッタ時間や、予め決定された固定値を採用することもできるし、所定のアルゴリズムにより演算される可変値を採用することもできる。
In the above-described embodiment, the target of image processing according to the multi-plane addition method is selected from the group of four captured images in which the three-stage shutter time is shorter than the predetermined reference, as shown in FIG. A composite reference image 72 and three captured images 71, 73, 74 with a two-step shutter time shorter than a predetermined reference are employed.
However, the target of image processing according to the multi-plane addition method is not particularly limited, and conversely, the composite reference image selected from the captured image group in which the two-step shutter time is shorter than the predetermined reference, and the predetermined reference One or more captured images in which the three-stage shutter time is shortened may be employed.
Alternatively, the change in the shutter time is not particularly limited to two or three stages, and may be any combination of arbitrary stages. In other words, shortening the shutter time by two steps or three steps means shortening the shutter time stepwise, for example, 1/2 or 1/4. However, the stage and degree of shortening the shutter time can be set as appropriate according to the mounting. In this case, any one composite reference image and any one or more picked-up images can be targeted for image processing according to the multiplane addition method.
Furthermore, as the predetermined reference for the shutter time, the shutter time obtained by lowering the two-stage shutter time is employed in the above-described embodiment, but the present invention is not limited to this. For example, only one stage, three stages, or other stages are used. A shutter time obtained by lowering the shutter time, a fixed value determined in advance, or a variable value calculated by a predetermined algorithm can be used.

また、本実施形態の画像処理装置は、撮像装置1に適用しているがこれに限られるものではなく、画像処理を行うことができる装置であれば、任意の装置にも適用することができる。
例えば、本発明は、電子機器一般に適用することができる。具体的には例えば、本発明は、スマートフォン、ノート型のパーソナルコンピュータ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In addition, the image processing apparatus of the present embodiment is applied to the imaging apparatus 1, but is not limited to this, and can be applied to any apparatus as long as it can perform image processing. .
For example, the present invention can be applied to electronic devices in general. Specifically, for example, the present invention can be applied to a smartphone, a notebook personal computer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
同一の被写体を含む複数の撮像画像のデータを取得する画像取得手段と、
前記画像取得手段により取得された前記複数の撮像画像のデータ毎に、前記被写体の動きに関する所定の条件を満たすか否かを判定する条件判定手段と、
前記条件判定手段の判定結果に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータの中から、画像合成用の合成基準画像のデータを選択する合成基準画像選択手段と、
前記画像取得手段により取得された前記複数の撮像画像のデータのうち、前記合成基準画像選択手段により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、マルチプレーン加算方式に従った画像処理を実行することによって、合成画像のデータを生成する合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記条件判定手段は、前記所定の条件の少なくとも1つとして、被写体ブレに関する条件を満たすか否かを判定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記条件判定手段は、前記複数の撮像画像の微分画像のデータを用いて、前記被写体ブレの識別を行い、当該識別の結果に基づいて、前記被写体ブレに関する条件を満たすか否かを判定する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記条件判定手段は、前記被写体が人物である場合、当該人物の目における被写体ブレについて、前記被写体ブレに関する条件を満たすか否かを判定する、
ことを特徴とする付記2又は3に記載の画像処理装置。
[付記5]
前記条件判定手段は、前記被写体が人物である場合、当該人物の目をつぶっていないという条件を満たすか否かを判定する、
ことを特徴とする付記1乃至4のうち何れか1つに記載の画像処理装置。
[付記6]
前記条件判定手段は、前記複数の撮像画像が撮像されたときの撮像条件に関する条件を満たすか否かを判定する、
ことを特徴とする付記1乃至5のうち何れか1つに記載の画像処理装置。
[付記7]
前記条件判定手段は、前記撮像条件に関する条件として、シャッタ時間に関する条件を満たすか否かを判定する、
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記画像取得手段は、前記複数の撮影画像の各々を撮像する際のシャッタ時間を、適正露出に対応するシャッタ時間に対して所定の割合で短くした撮影条件を設定し、
前記条件判定手段は、前記撮像条件に関する条件として、所定基準に対してシャッタ時間が短いという条件を満たすか否かを判定することを特徴とする付記7に記載の画像処理装置。
[付記9]
前記画像取得手段は、前記複数の撮影画像をシャッタ時間が異なる複数の撮影条件で撮像し、
前記条件判定手段は、前記複数の撮影条件の中で、最も短いシャッタ時間に対応する撮影条件か否かを判定することを特徴とする付記8に記載の画像処理装置。
[付記10]
同一の被写体を含む複数の撮像画像のデータに対して施す画像処理を制御するコンピュータを、
前記複数の撮像画像のデータ毎に、前記被写体の動きに関する所定の条件を満たすか否かを判定する条件判定手段、
前記条件判定手段の判定結果に基づいて、前記複数の撮像画像のデータの中から、画像合成用の合成基準画像のデータを選択する合成基準画像選択手段、
前記複数の撮像画像のデータのうち、前記合成基準画像選択手段により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、マルチプレーン加算方式に従った画像処理を実行することによって、合成画像のデータを生成する合成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Image acquisition means for acquiring data of a plurality of captured images including the same subject;
Condition determining means for determining whether or not a predetermined condition regarding the movement of the subject is satisfied for each data of the plurality of captured images acquired by the image acquiring means;
Based on the determination result of the condition determination unit, a combination reference image selection unit that selects data of a combination reference image for image combination from the data of the plurality of captured images acquired by the image acquisition unit;
Among the plurality of captured image data acquired by the image acquisition unit, multi-plane processing is performed on two or more captured image data including the composite reference image data selected by the composite reference image selection unit. Combining means for generating composite image data by executing image processing according to an addition method;
An image processing apparatus comprising:
[Appendix 2]
The condition determining means determines whether or not a condition regarding subject blur is satisfied as at least one of the predetermined conditions;
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The condition determining means identifies the subject blur using data of differential images of the plurality of captured images, and determines whether or not a condition regarding the subject blur is satisfied based on a result of the identification.
The image processing apparatus according to Supplementary Note 2, wherein
[Appendix 4]
When the subject is a person, the condition determining unit determines whether or not a condition regarding the subject blur is satisfied with respect to subject blur in the eyes of the person.
The image processing apparatus according to appendix 2 or 3, characterized by the above.
[Appendix 5]
The condition determination means determines whether or not a condition that the subject's eyes are not closed when the subject is a person,
The image processing apparatus according to any one of supplementary notes 1 to 4, wherein
[Appendix 6]
The condition determining means determines whether or not a condition regarding an imaging condition when the plurality of captured images are captured is satisfied;
The image processing apparatus according to any one of supplementary notes 1 to 5, characterized in that:
[Appendix 7]
The condition determining means determines whether or not a condition relating to a shutter time is satisfied as a condition relating to the imaging condition;
The image processing apparatus according to appendix 6, wherein:
[Appendix 8]
The image acquisition means sets a shooting condition in which a shutter time when capturing each of the plurality of captured images is shortened by a predetermined ratio with respect to a shutter time corresponding to appropriate exposure,
The image processing apparatus according to appendix 7, wherein the condition determination unit determines whether or not a condition that a shutter time is short with respect to a predetermined reference is satisfied as a condition relating to the imaging condition.
[Appendix 9]
The image acquisition means captures the plurality of photographed images under a plurality of photographing conditions with different shutter times,
9. The image processing apparatus according to appendix 8, wherein the condition determination unit determines whether or not a shooting condition corresponding to the shortest shutter time among the plurality of shooting conditions.
[Appendix 10]
A computer that controls image processing performed on data of a plurality of captured images including the same subject;
Condition determining means for determining whether or not a predetermined condition regarding the movement of the subject is satisfied for each of the data of the plurality of captured images;
Based on the determination result of the condition determination unit, a synthesis reference image selection unit that selects data of a synthesis reference image for image synthesis from the data of the plurality of captured images;
Image processing according to a multi-plane addition method is performed on two or more captured image data including the composite reference image data selected by the composite reference image selection unit from among the plurality of captured image data. A synthesis means for generating composite image data by executing,
A program characterized by functioning as

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・入力部、19・・・出力部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、41・・・撮像制御部、42・・・画像取得部、43・・・表示制御部、44・・・合成基準画像選択部、51・・・条件判定部、52・・・合成部、61・・・ブレ判定部、62・・・顔判定部、63・・・目判定部、64・・・撮像条件判定部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ... Image pick-up unit 18 ... Input unit 19 ... Output unit 20 ... Storage unit 21 ... Communication unit 22 ... Drive 31 ... Removable media 41 ... Imaging Control unit, 42 ... Image acquisition unit, 43 ... Display control unit, 44 ... Composition reference image selection unit, 51 ... Condition determination unit, 52 ... Composition unit, 61 ... Blur determination 62, face determination unit, 63 ... eye determination unit, 64 ... imaging condition determination unit

Claims (11)

同一の被写体を含む複数の撮像画像のデータを異なる複数の撮影条件により取得する画像取得手段と、
前記画像取得手段により取得された前記複数の撮像画像のデータ毎に、前記異なる複数の撮影条件の中で、前記被写体の動きに関する所定の条件を満たす撮影条件であるか否かを判定する条件判定手段と、
前記条件判定手段の判定結果に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択手段と、
前記画像取得手段により取得された前記複数の撮像画像のデータのうち、前記合成基準画像選択手段により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring data of a plurality of captured images including the same subject under a plurality of different shooting conditions ;
Each data of the acquired plurality of captured images by the image acquisition unit, in a plurality of different imaging conditions, determines the condition determining whether the predetermined condition is satisfied photographing condition regarding the movement of the subject Means,
Based on the determination result of the condition determination unit, a combined reference image that selects data of a combined reference image used as a reference when performing image combining from the data of the plurality of captured images acquired by the image acquisition unit A selection means;
Among the plurality of captured image data acquired by the image acquisition unit, two or more captured image data including the composite reference image data selected by the composite reference image selection unit is processed as the processing target. A synthesizing unit for generating synthesized image data by executing an image synthesizing process according to a multi-plane addition method based on a reference image;
An image processing apparatus comprising:
前記画像取得手段は、異なる複数の撮影条件毎に、同一の被写体を含む複数の撮像画像のデータを取得し、The image acquisition means acquires data of a plurality of captured images including the same subject for each of a plurality of different shooting conditions,
前記条件判定手段は、前記画像取得手段により取得された前記複数の撮像画像のデータ毎に、前記異なる複数の撮影条件のうちの1つの撮影条件により撮影された撮像画像のデータであるか否かを判定する、Whether the condition determination unit is data of a captured image captured under one of the plurality of different imaging conditions for each of the plurality of captured image data acquired by the image acquisition unit. Determine
ことを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
前記条件判定手段は、前記所定の条件の少なくとも1つとして、被写体ブレに関する条件を満たすか否かを判定する、
ことを特徴とする請求項1又は2に記載の画像処理装置。
The condition determining means determines whether or not a condition regarding subject blur is satisfied as at least one of the predetermined conditions;
The image processing apparatus according to claim 1 or 2, characterized in that.
前記条件判定手段は、前記複数の撮像画像の微分画像のデータを用いて、前記被写体ブレの識別を行い、当該識別の結果に基づいて、前記被写体ブレに関する条件を満たすか否かを判定する、
ことを特徴とする請求項に記載の画像処理装置。
The condition determining means identifies the subject blur using data of differential images of the plurality of captured images, and determines whether or not a condition regarding the subject blur is satisfied based on a result of the identification.
The image processing apparatus according to claim 3 .
前記条件判定手段は、前記被写体が人物である場合、当該人物の目における被写体ブレについて、前記被写体ブレに関する条件を満たすか否かを判定する、
ことを特徴とする請求項又はに記載の画像処理装置。
When the subject is a person, the condition determining unit determines whether or not a condition regarding the subject blur is satisfied with respect to subject blur in the eyes of the person.
The image processing apparatus according to claim 3 or 4, characterized in that.
前記条件判定手段は、前記被写体が人物である場合、当該人物の目をつぶっていないという条件を満たすか否かを判定する、
ことを特徴とする請求項1乃至のうち何れか1項に記載の画像処理装置。
The condition determination means determines whether or not a condition that the subject's eyes are not closed when the subject is a person,
The image processing apparatus according to any one of claims 1 to 5, characterized in that.
同一の被写体を含む複数の撮像画像の各々を撮像する際のシャッタ時間を適正露出に対応するシャッタ時間に対して所定の割合で短くした撮影条件を、異なるシャッタ時間で複数設定して取得する画像取得手段と、
前記画像取得手段により取得された前記複数の撮像画像のデータ毎に、前記複数の撮像画像が撮像されたときのシャッタ時間が最も短いシャッタ時間に対応する撮影条件か否かを判定する条件判定手段と、
前記条件判定手段の判定結果に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択手段と、
前記画像取得手段により取得された前記複数の撮像画像のデータのうち、前記合成基準画像選択手段により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成手段と、
を備えることを特徴とする画像処理装置。
An image obtained by setting a plurality of shooting conditions with different shutter times by shortening the shutter time for capturing each of a plurality of captured images including the same subject at a predetermined ratio with respect to the shutter time corresponding to the appropriate exposure. Acquisition means;
Condition determining means for determining, for each data of the plurality of captured images acquired by the image acquiring means, whether or not the shooting condition corresponds to the shortest shutter time when the plurality of captured images are captured. When,
Based on the determination result of the condition determination unit, a combined reference image that selects data of a combined reference image used as a reference when performing image combining from the data of the plurality of captured images acquired by the image acquisition unit A selection means;
Among the plurality of captured image data acquired by the image acquisition unit, two or more captured image data including the composite reference image data selected by the composite reference image selection unit is processed as the processing target. A synthesizing unit for generating synthesized image data by executing an image synthesizing process according to a multi-plane addition method based on a reference image;
An image processing apparatus comprising:
異なる複数の撮影条件により取得された同一の被写体を含む複数の撮像画像のデータに対して施す画像処理方法であって、
前記複数の撮像画像のデータ毎に、前記異なる複数の撮影条件の中で、前記被写体の動きに関する所定の条件を満たす撮影条件であるか否かを判定する条件判定処理と、
前記条件判定処理の判定結果に基づいて、前記複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択処理と、
前記複数の撮像画像のデータのうち、前記合成基準画像選択処理により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成処理と、
を含むことを特徴とする画像処理方法。
An image processing method applied to data of a plurality of captured images including the same subject acquired under a plurality of different shooting conditions ,
A condition determination process for determining whether or not the imaging conditions satisfy a predetermined condition regarding the movement of the subject among the plurality of different imaging conditions for each of the plurality of captured image data;
Based on the determination result of the condition determination process , a combination reference image selection process that selects, from among the plurality of captured image data, data of a combination reference image that serves as a reference when performing image combination;
A multi-plane based on the composite reference image with two or more captured image data including the composite reference image data selected by the composite reference image selection process as a processing target among the plurality of captured image data A composition process for generating composite image data by executing an image composition process according to the addition method;
An image processing method comprising:
異なる複数の撮影条件により取得された同一の被写体を含む複数の撮像画像のデータに対して施す画像処理を制御するコンピュータに、
前記複数の撮像画像のデータ毎に、前記異なる複数の撮影条件の中で、前記被写体の動きに関する所定の条件を満たす撮影条件であるか否かを判定する条件判定機能、
前記条件判定機能の判定結果に基づいて、前記複数の撮像画像のデータであって、異なる複数の撮影条件のうちの1つの撮影条件により撮影された複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択機能、
前記複数の撮像画像のデータのうち、前記合成基準画像選択機能により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成機能、
を実現させることを特徴とするプログラム。
A computer that controls image processing performed on data of a plurality of captured images including the same subject acquired under a plurality of different shooting conditions ,
A condition determination function for determining whether or not the image capturing condition satisfies a predetermined condition regarding the movement of the subject among the plurality of different image capturing conditions for each of the plurality of captured image data;
Based on the determination result of the condition determination function, the image synthesis is performed from the data of the plurality of captured images and the data of the plurality of captured images captured under one of the plurality of shooting conditions. A composite reference image selection function for selecting the composite reference image data used as a reference when
A multi-plane based on the composite reference image with two or more captured image data including the composite reference image data selected by the composite reference image selection function as the processing target among the plurality of captured image data A composition function for generating composite image data by executing image composition processing according to the addition method;
A program characterized by realizing.
撮像する際のシャッタ時間を適正露出に対応するシャッタ時間に対して所定の割合で短くした撮影条件を、異なるシャッタ時間で複数設定して取得した同一の被写体を含む複数の撮像画像のデータに対して施す画像処理方法であって、For data of a plurality of captured images including the same subject acquired by setting a plurality of shooting conditions at different shutter times with the shutter time at the time of imaging shortened at a predetermined ratio with respect to the shutter time corresponding to the appropriate exposure An image processing method applied to
前記複数の撮像画像のデータ毎に、前記複数の撮像画像が撮像されたときのシャッタ時間が最も短いシャッタ時間に対応する撮影条件か否かを判定する条件判定処理と、A condition determination process for determining whether or not a shooting condition corresponding to the shortest shutter time when the plurality of captured images are captured for each of the plurality of captured image data;
前記条件判定処理の判定結果に基づいて、前記複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択処理と、Based on the determination result of the condition determination process, a combination reference image selection process that selects, from among the plurality of captured image data, data of a combination reference image that serves as a reference when performing image combination;
前記複数の撮像画像のデータのうち、前記合成基準画像選択処理により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成処理と、A multi-plane based on the composite reference image with two or more captured image data including the composite reference image data selected by the composite reference image selection process as a processing target among the plurality of captured image data A composition process for generating composite image data by executing an image composition process according to the addition method;
を含むことを特徴とする画像処理方法。An image processing method comprising:
撮像する際のシャッタ時間を適正露出に対応するシャッタ時間に対して所定の割合で短くした撮影条件を、異なるシャッタ時間で複数設定して取得した同一の被写体を含む複数の撮像画像のデータに対して施す画像処理を制御するコンピュータに、For data of a plurality of captured images including the same subject acquired by setting a plurality of shooting conditions at different shutter times with the shutter time at the time of imaging shortened at a predetermined ratio with respect to the shutter time corresponding to the appropriate exposure To the computer that controls the image processing
前記複数の撮像画像のデータ毎に、前記複数の撮像画像が撮像されたときのシャッタ時間が最も短いシャッタ時間に対応する撮影条件か否かを判定する条件判定機能、A condition determination function for determining whether or not the shooting conditions corresponding to the shortest shutter time when the plurality of captured images are captured for each of the plurality of captured image data;
前記条件判定機能の判定結果に基づいて、前記複数の撮像画像のデータの中から、画像合成を行う際に基準となる合成基準画像のデータを選択する合成基準画像選択機能、Based on the determination result of the condition determination function, a combination reference image selection function for selecting, from among the plurality of captured image data, data of a combination reference image serving as a reference when performing image combination;
前記複数の撮像画像のデータのうち、前記合成基準画像選択機能により選択された前記合成基準画像のデータを含む2以上の撮像画像のデータを処理対象として、当該合成基準画像を基準とするマルチプレーン加算方式に従った画像合成処理を実行することによって、合成画像のデータを生成する合成機能、A multi-plane based on the composite reference image with two or more captured image data including the composite reference image data selected by the composite reference image selection function as the processing target among the plurality of captured image data A composition function for generating composite image data by executing image composition processing according to the addition method;
を実現させることを特徴とするプログラム。A program characterized by realizing.
JP2011101570A 2011-04-28 2011-04-28 Image processing apparatus, image processing method, and program Active JP5760654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011101570A JP5760654B2 (en) 2011-04-28 2011-04-28 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011101570A JP5760654B2 (en) 2011-04-28 2011-04-28 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2012235255A JP2012235255A (en) 2012-11-29
JP2012235255A5 JP2012235255A5 (en) 2014-05-22
JP5760654B2 true JP5760654B2 (en) 2015-08-12

Family

ID=47435174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011101570A Active JP5760654B2 (en) 2011-04-28 2011-04-28 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5760654B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000862B2 (en) * 2013-01-18 2016-10-05 キヤノン株式会社 Imaging device
JP6452414B2 (en) * 2014-12-03 2019-01-16 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
CN116506732B (en) * 2023-06-26 2023-12-05 浙江华诺康科技有限公司 Image snapshot anti-shake method, device and system and computer equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140971A (en) * 2004-11-15 2006-06-01 Canon Inc Image processing apparatus and image processing method
JP4497001B2 (en) * 2005-03-22 2010-07-07 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP4315971B2 (en) * 2006-11-09 2009-08-19 三洋電機株式会社 Imaging device
JP5206466B2 (en) * 2009-02-13 2013-06-12 富士通株式会社 Image correction apparatus, image correction program, and image photographing apparatus

Also Published As

Publication number Publication date
JP2012235255A (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP4987355B2 (en) Imaging apparatus and imaging method
US8767085B2 (en) Image processing methods and apparatuses to obtain a narrow depth-of-field image
JP5664626B2 (en) Image processing apparatus, image processing method, and program
JP2010166558A (en) Image forming apparatus
JP3974634B2 (en) Imaging apparatus and imaging method
WO2015015966A1 (en) Imaging device, imaging method, and image processing device
JP2007324770A (en) Imaging apparatus and imaging method
CN108337450B (en) Image processing apparatus, image processing method, and recording medium
KR20130061083A (en) Image pickup apparatus, control method for image pickup apparatus, and storage medium
JP2017098631A (en) Image combination processing device
JP5861924B2 (en) Imaging device
JP2008277896A (en) Imaging device and imaging method
JP5760654B2 (en) Image processing apparatus, image processing method, and program
US20160284061A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2010193324A (en) Camera apparatus, photographing method thereof and program
JP2013218031A (en) Imaging apparatus
JP6020904B2 (en) Image processing apparatus and imaging apparatus
EP4002830A2 (en) Image pick up apparatus, image pick up method, and storage medium
JP5933306B2 (en) Imaging device
JP2008236739A (en) Imaging apparatus and imaging method
US20120188410A1 (en) Imaging device
JP2011155420A (en) Camera shake correction device, imaging processing method and program
JP2011135537A (en) Imaging apparatus and control method of the same
US11832020B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150525

R150 Certificate of patent or registration of utility model

Ref document number: 5760654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150