JP6732572B2 - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP6732572B2
JP6732572B2 JP2016132578A JP2016132578A JP6732572B2 JP 6732572 B2 JP6732572 B2 JP 6732572B2 JP 2016132578 A JP2016132578 A JP 2016132578A JP 2016132578 A JP2016132578 A JP 2016132578A JP 6732572 B2 JP6732572 B2 JP 6732572B2
Authority
JP
Japan
Prior art keywords
image
imaging
frames
control unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016132578A
Other languages
Japanese (ja)
Other versions
JP2018007064A5 (en
JP2018007064A (en
Inventor
浩一 新谷
浩一 新谷
勝久 川口
勝久 川口
将臣 冨澤
将臣 冨澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016132578A priority Critical patent/JP6732572B2/en
Publication of JP2018007064A publication Critical patent/JP2018007064A/en
Publication of JP2018007064A5 publication Critical patent/JP2018007064A5/ja
Application granted granted Critical
Publication of JP6732572B2 publication Critical patent/JP6732572B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging device and an imaging method.

複数回の撮像の結果として得られた画像を合成する各種の画像処理が知られている。例えば、ハイダイナミックレンジ(HDR)合成処理では、露光量の異なる複数回の撮像の結果として得られた画像を合成することにより、画像のダイナミックレンジが拡大される(例えば、特許文献1)。また、深度合成処理では、合焦状態の異なる複数回の撮像の結果として得られた画像を合成することにより、画像全体の焦点状態が改善される。 Various types of image processing are known that combine images obtained as a result of multiple times of imaging. For example, in a high dynamic range (HDR) composition process, the dynamic range of an image is expanded by compositing images obtained as a result of multiple times of imaging with different exposure amounts (for example, Patent Document 1). Further, in the depth stacking process, the focus state of the entire image is improved by synthesizing the images obtained as a result of multiple times of imaging with different focus states.

特開平8−37628号公報JP-A-8-37628

複数回の撮像の結果として得られた画像を合成する場合、状況によって、例えば、各撮像の間に対象物に動きがある場合等の合成が困難になることがあった。 When synthesizing images obtained as a result of a plurality of times of imaging, depending on the situation, for example, it may be difficult to perform synthesizing when an object moves during each imaging.

本発明は、前記の事情に鑑みてなされたもので、複数回の撮像の結果として得られる画像の合成を行う場合の合成後の画像の画質を向上することができる撮像装置及び撮像方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an image pickup apparatus and an image pickup method capable of improving the image quality of images after combination when images obtained as a result of a plurality of times of image pickup are combined. The purpose is to do.

前記の目的を達成するために、本発明の第1の態様の撮像装置は、対象物を撮像して前記対象物に係る画像データを得る撮像部と、前記画像データにおける前記対象物の動きを検出する動き検出部と、前記動き検出部による前記対象物の動きの検出の結果、前記対象物が止まっているとみなされるときに、複数の前記画像データの画像合成処理を伴う複数の適用処理の実施の有無を決定し、実施すると決定されたそれぞれの前記適用処理に要するフレーム数に基づいて総フレーム数を算出し、前記撮像部の撮像条件を変更しながら前記総フレーム数に応じた複数回の前記撮像を行わせ、複数回の前記撮像によって得られた画像データをそれぞれの前記適用処理に従って合成する処理を行う制御部とを具備し、前記制御部は、実施すると決定された複数の前記適用処理の中で重複できるフレームがあるときには、前記重複できるフレームのフレーム数を削減して前記総フレーム数を算出することを特徴とする。 In order to achieve the above-mentioned object, an imaging device according to a first aspect of the present invention includes an imaging unit that captures an image of an object to obtain image data of the object, and a movement of the object in the image data. As a result of the motion detection unit to detect and the motion detection of the object by the motion detection unit, when the object is considered to be stationary, a plurality of application processes involving image combination processing of the plurality of image data. Whether or not to implement is determined, the total number of frames is calculated based on the number of frames required for each of the application processes determined to be performed, and a plurality of frames corresponding to the total number of frames are changed while changing the imaging condition of the imaging unit. And a control unit for performing a process of synthesizing image data obtained by a plurality of times of imaging according to each of the application processes , the control unit including a plurality of units determined to be implemented. When there is a frame that can be duplicated in the applying process, the number of frames that can be duplicated is reduced to calculate the total number of frames .

前記の目的を達成するために、本発明の第2の態様の撮像方法は、撮像部によって対象物を撮像して前記対象物に係る画像データを得ることと、前記画像データにおける前記対象物の動きを検出することと、前記対象物の動きの検出の結果、前記対象物が止まっているとみなされるときに、複数の前記画像データの画像合成処理を伴う複数の適用処理の実施の有無を決定することと、実施すると決定されたそれぞれの前記適用処理に要するフレーム数に基づいて総フレーム数を算出することと、前記撮像部の撮像条件を変更しながら前記総フレーム数に応じた複数回の前記撮像を行い、複数回の前記撮像によって得られた画像データをそれぞれの前記適用処理に従って合成することとを具備し、前記総フレーム数を算出することは、実施すると決定された複数の前記適用処理の中で重複できるフレームがあるときには、前記重複できるフレームのフレーム数を削減して前記総フレーム数を算出することを含むことを特徴とする。 In order to achieve the above-mentioned object, an imaging method according to a second aspect of the present invention provides an image of an object by an imaging unit to obtain image data of the object, and the object of the image data. As a result of detecting the motion and detecting the motion of the target object, when it is considered that the target object is stopped, it is possible to determine whether or not to perform a plurality of application processes involving an image synthesizing process of the plurality of image data. and Rukoto to determine, and calculating the total number of frames based on the number of frames required for the process of applying each determined to be performed, depending on the total number of frames while changing the image pickup condition for pre-Symbol imaging unit Performing the imaging a plurality of times, and synthesizing the image data obtained by the imaging a plurality of times according to each of the application processes, and calculating the total number of frames is determined to be performed by a plurality of When there is a frame that can be duplicated in the application process of, the number of frames that can be duplicated is reduced to calculate the total number of frames .

本発明によれば、複数回の撮像の結果として得られる画像の合成を行う場合の合成後の画像の画質を向上することができる撮像装置及び撮像方法を提供することができる。 According to the present invention, it is possible to provide an image pickup apparatus and an image pickup method capable of improving the image quality of images after combination when images obtained as a result of a plurality of times of image pickup are combined.

本発明の一実施形態に係る撮像装置の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the imaging device which concerns on one Embodiment of this invention. 撮像装置の静止画撮影モードにおける動作を示すフローチャートである。7 is a flowchart showing an operation of the image pickup apparatus in a still image shooting mode. シーン判別処理について示すフローチャートである。It is a flow chart which shows scene discriminating processing. 画像合成実施判定処理について示すフローチャートである。It is a flow chart which shows image compositing execution judging processing. フレーム数判定処理について示すフローチャートである。It is a flowchart which shows a frame number determination process. 合成用撮像制御の一例を説明するための図である。It is a figure for explaining an example of image pickup control for composition. 撮像装置の動画撮影モードにおける動作を示すフローチャートである。7 is a flowchart showing an operation of the image pickup apparatus in a moving image shooting mode. 合成用撮像制御の変形例を説明するための図である。It is a figure for demonstrating the modification of imaging control for composition.

以下、図面を参照して本発明の実施形態を説明する。図1は、本発明の一実施形態に係る撮像装置の一例の構成を示すブロック図である。図1に示す撮像装置は、例えばデジタルカメラ、カメラ機能付き携帯電話機、スマートフォンといった各種の携帯端末機器である。図1に示す撮像装置は、撮像部102と、表示部104と、仮記録部106と、記録部108と、操作部110と、制御部112とを有している。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an example of an image pickup apparatus according to an embodiment of the present invention. The imaging device shown in FIG. 1 is various mobile terminal devices such as a digital camera, a mobile phone with a camera function, and a smartphone. The imaging device shown in FIG. 1 includes an imaging unit 102, a display unit 104, a temporary recording unit 106, a recording unit 108, an operation unit 110, and a control unit 112.

撮像部102は、撮像光学系102aと、撮像素子102bと、駆動部102cとを有している。撮像光学系102aは、絞り及びレンズ等を有し、図示しない対象物からの光束を撮像素子102bに入射させる。撮像光学系102aは、合焦状態を調節するためのフォーカスレンズを含んでいる。撮像素子102bは、例えばCMOSイメージセンサ又はCCDイメージセンサを含み、対象物を撮像し、対象物に係る画像データを取得する。撮像素子102bは、撮影の対象物までの距離検出が可能なように位相差検出画素を含んでいてもよい。また、本実施形態における撮像素子102bは、撮像光学系102aに光軸と直交する平面内で移動可能に構成されていてもよい。駆動部102cは、制御部112による制御に従って、撮像光学系102aのフォーカスレンズをその光軸方向に駆動したり、撮像素子102bを駆動したりする。 The image pickup unit 102 has an image pickup optical system 102a, an image pickup element 102b, and a drive unit 102c. The imaging optical system 102a has a diaphragm, a lens, and the like, and causes a light flux from an object (not shown) to enter the imaging element 102b. The image pickup optical system 102a includes a focus lens for adjusting the in-focus state. The image sensor 102b includes, for example, a CMOS image sensor or a CCD image sensor, images an object, and acquires image data of the object. The image sensor 102b may include a phase difference detection pixel so that the distance to the object to be photographed can be detected. Further, the image pickup element 102b in the present embodiment may be configured to be movable in the image pickup optical system 102a in a plane orthogonal to the optical axis. The drive unit 102c drives the focus lens of the image pickup optical system 102a in the optical axis direction and drives the image pickup device 102b under the control of the control unit 112.

表示部104は、例えば液晶ディスプレイや有機ELディスプレイであり、撮像部102で取得された画像データに基づく画像等の各種の画像を表示する。 The display unit 104 is, for example, a liquid crystal display or an organic EL display, and displays various images such as an image based on the image data acquired by the imaging unit 102.

仮記録部106は、RAM等の揮発性メモリであり、各種のデータを仮記録するための記録媒体である。仮記録部106には、例えば画像合成処理に用いられる画像データが仮記録される。 The temporary recording unit 106 is a volatile memory such as a RAM, and is a recording medium for temporarily recording various data. In the temporary recording unit 106, for example, image data used for image combination processing is temporarily recorded.

記録部108は、フラッシュメモリ等の不揮発性メモリであり、各種のデータを記録するための記録媒体である。記録部108には、例えば撮影動作の結果として得られる画像ファイルが記録される。また、記録部108には、撮像装置の制御に用いられるプログラムが記録される。 The recording unit 108 is a non-volatile memory such as a flash memory, and is a recording medium for recording various data. An image file obtained as a result of the shooting operation is recorded in the recording unit 108, for example. In addition, the recording unit 108 records a program used for controlling the imaging device.

操作部110は、ユーザが撮像装置の操作をするための操作部材である。操作部110は、電源スイッチ、レリーズボタン等を操作部材として有している。電源スイッチは、撮像装置の電源のオン/オフの指示を与えるための操作部材である。レリーズボタンは、撮影開始の指示を与えるための操作部材である。また、操作部110は、タッチパネル等の他の操作部材を有していてもよい。 The operation unit 110 is an operation member for a user to operate the imaging device. The operation unit 110 has a power switch, a release button, etc. as operation members. The power switch is an operation member for giving an instruction to turn on/off the power of the image pickup apparatus. The release button is an operation member for giving an instruction to start shooting. Further, the operation unit 110 may have another operation member such as a touch panel.

制御部112は、CPU及びASIC等の制御回路であり、撮像装置の動作を統括的に制御する。制御部112は、撮像制御部1121としての機能と、表示制御部1122としての機能と、画像処理部1123としての機能と、シーン判別部1124としての機能と、動き検出部1125としての機能とを有している。ここで、制御部112の各機能は、単一のハードウェア又はソフトウェアによって実現されてもよいし、複数のハードウェア又はソフトウェアによって実現されてもよい。また、一部の機能は、制御部112と別個に設けられていてもよい。 The control unit 112 is a control circuit such as a CPU and an ASIC, and controls the operation of the image pickup apparatus as a whole. The control unit 112 has a function as the image pickup control unit 1121, a function as the display control unit 1122, a function as the image processing unit 1123, a function as the scene determination unit 1124, and a function as the motion detection unit 1125. Have Here, each function of the control unit 112 may be realized by a single piece of hardware or software, or may be realized by a plurality of pieces of hardware or software. In addition, some functions may be provided separately from the control unit 112.

撮像制御部1121は、撮像部102による対象物の撮像動作及び撮像部102からの画像データの読み出し動作を制御する。 The imaging control unit 1121 controls the imaging operation of the object by the imaging unit 102 and the operation of reading image data from the imaging unit 102.

表示制御部1122は、表示部104に各種の画像を表示するときの制御をする。 The display control unit 1122 controls when displaying various images on the display unit 104.

画像処理部1123は、画像データに対する各種の画像処理を行う。この画像処理は、ホワイトバランス処理、階調補正処理等を含む。また、この画像処理は、複数の画像データを合成する合成処理を含む。 The image processing unit 1123 performs various types of image processing on image data. This image processing includes white balance processing, gradation correction processing, and the like. Further, this image processing includes a combining process for combining a plurality of image data.

シーン判別部1124は、画像データ及び画像データが撮像されるシーンの判別を行う。例えば、シーン判別部1124は、画像データの輝度、対象物に対する合焦状態等を判別する。また、シーン判別部1124は、画像データが撮像された際の撮像条件、例えば撮像感度を判別する。ここで挙げたものは一例にすぎない。シーン判別部1124は、画像データの色の判別等の各種の判別を行ってもよい。また、シーン判別部1124は、撮像距離等の各種の撮像条件の判別を行ってもよい。さらに、ここでは、シーン判別部114は、各種のセンサ類の情報を併用して判別を行ってもよい。また、自動で判定せずに手動で設定してもよい。さらには、これは「シーン判定」という言葉以外にも表現可能な技術で代用してもよい。例えば、明るさ判定、撮像判定、画像判定、距離判定、対象物判定と言い直してもよい。また、この結果で、画像処理や合成方法を変更するので、画処理判定、合成判定としてもよい。 The scene determination unit 1124 determines the image data and the scene in which the image data is captured. For example, the scene discrimination unit 1124 discriminates the brightness of the image data, the in-focus state with respect to the target object, and the like. Further, the scene determination unit 1124 determines the image capturing condition when the image data is captured, for example, the image capturing sensitivity. The ones listed here are only examples. The scene determination unit 1124 may perform various types of determination such as color determination of image data. Further, the scene determination unit 1124 may determine various imaging conditions such as the imaging distance. Further, here, the scene discrimination unit 11 2 4 determines may be performed in combination with information of various sensors. Alternatively, it may be set manually instead of being automatically determined. Furthermore, this may be replaced by a technique that can be expressed in addition to the word "scene determination". For example, the brightness determination, the image capturing determination, the image determination, the distance determination, and the object determination may be referred to again. Further, since the image processing and the composition method are changed based on this result, the image processing determination and the composition determination may be performed.

動き検出部1125は、複数回の撮像の間の対象物の動きを検出する。動き検出部1125は、例えば動きベクトルを検出することによって、対象物の動きを検出する。 The motion detection unit 1125 detects the motion of the target object during a plurality of times of imaging. The motion detection unit 1125 detects the motion of the target object by detecting a motion vector, for example.

次に、本実施形態に係る撮像装置の撮影動作について説明する。本実施形態に係る撮像装置は、撮影モードとして静止画撮影モードと動画撮影モードとを有している。静止画撮影モードは、ユーザの撮影指示に従って静止画を撮影するための撮影モードである。動画撮影モードは、ユーザの撮影指示に従って動画を撮影するための撮影モードである。撮影モードの設定は、例えばユーザによる操作部110の操作によってなされる。 Next, a shooting operation of the image pickup apparatus according to the present embodiment will be described. The imaging device according to the present embodiment has a still image shooting mode and a moving image shooting mode as shooting modes. The still image shooting mode is a shooting mode for shooting a still image according to a user's shooting instruction. The moving image shooting mode is a shooting mode for shooting a moving image in accordance with a user's shooting instruction. The shooting mode is set, for example, by the user operating the operation unit 110.

まず、静止画撮影モードの処理について説明する。図2は、撮像装置の静止画撮影モードにおける動作を示すフローチャートである。図2の処理は、例えば撮像装置の撮影モードが静止画撮影モードに切り替えられたときに開始される。 First, the processing in the still image shooting mode will be described. FIG. 2 is a flowchart showing the operation of the image pickup apparatus in the still image shooting mode. The process of FIG. 2 is started, for example, when the shooting mode of the imaging device is switched to the still image shooting mode.

ステップS1において、制御部112は、静止画撮影モードがシーン判別モードであるか否かを判定する。本実施形態において、静止画撮影モードは、通常モードとシーン判別モードとを有している。通常モードは、HDR合成処理、深度合成処理、ノイズ低減(NR)合成処理といった複数回の撮像によって得られた複数の画像データの画像合成処理を伴う適用処理を行わないモードである。シーン判別モードは、複数回の撮像によって得られた複数の画像データの画像合成処理を伴う適用処理を行うモードである。本実施形態におけるシーン判別モードでは、シーンの判別結果に応じて、HDR合成処理、深度合成処理、ノイズ低減(NR)処理といった適用処理のなかから適宜に適用処理が選択される。静止画撮影モードを通常モードとするか又はシーン判別モードとするかの設定は、例えばユーザの操作部110の操作によって行われる。ステップS1において、静止画撮影モードがシーン判別モードでない、すなわち通常モードであると判定されたときには、処理はステップS2に移行する。ステップS1において、静止画撮影モードがシーン判別モードであると判定されたときには、処理はステップS7に移行する。シーン判定は、後述のように、画像を合成処理するかどうかを決めたりもするので、ステップS1は、シーン判定モードか、という書き方以外に、合成許可するか、というような表現の分岐でもよい。また、かならず、合成許可する仕様もあり、この分岐なく、必ずステップS7に分岐してもよい。 In step S1, the control unit 112 determines whether or not the still image shooting mode is the scene determination mode. In the present embodiment, the still image shooting mode has a normal mode and a scene determination mode. The normal mode is a mode in which an application process involving image combination processing of a plurality of image data obtained by a plurality of times of imaging such as HDR combination processing, depth combination processing, and noise reduction (NR) combination processing is not performed. The scene determination mode is a mode in which an application process involving image combination processing of a plurality of image data obtained by a plurality of image pickups is performed. In the scene determination mode in the present embodiment, an application process is appropriately selected from application processes such as HDR synthesis process, depth synthesis process, and noise reduction (NR) process according to the scene determination result. The setting of whether the still image shooting mode is the normal mode or the scene determination mode is performed, for example, by the operation of the operation unit 110 by the user. When it is determined in step S1 that the still image shooting mode is not the scene determination mode, that is, the normal mode, the process proceeds to step S2. When it is determined in step S1 that the still image shooting mode is the scene determination mode, the process proceeds to step S7. In the scene determination, as will be described later, whether or not the image is to be combined is determined. Therefore, step S1 may be a branch of an expression such as whether or not to allow composition, in addition to the description of the scene determination mode. .. In addition, there is always a specification for permitting composition, and it is possible to always branch to step S7 without this branch.

通常モードの処理であるステップS2において、制御部112は、静止画撮影要求があるか否かを判定する。静止画撮影要求は、例えばユーザによるレリーズボタンの操作又はタッチパネルの操作によってなされる。ステップS2において、静止画撮影要求があると判定されたときには、処理はステップS3に移行する。ステップS2において、静止画撮影要求がないと判定されたときには、処理はステップS4に移行する。 In step S2, which is processing in the normal mode, the control unit 112 determines whether or not there is a still image shooting request. Still image capturing request is made by, for example, the operation of the operation or the touch panel of the release button by the user. If it is determined in step S2 that there is a still image shooting request, the process proceeds to step S3. When it is determined in step S2 that there is no still image capturing request, the process proceeds to step S4.

ステップS3において、制御部112は、静止画撮影を開始する。例えば、制御部112は、撮像光学系102aの絞りの設定及び撮像素子102bの露出時間等を対象物の輝度に応じて設定する。そして、制御部112は、撮像部102の撮像動作を行わせる。制御部112は、撮像動作で得られた画像データに対して必要な画像処理を施して静止画ファイルを作成する。そして、制御部112は、作成した静止画ファイルを記録部108に記録する。このような静止画撮影動作の後、処理はステップS4に移行する。 In step S3, the control unit 112 starts still image shooting. For example, the control unit 112 sets the aperture setting of the image pickup optical system 102a, the exposure time of the image pickup element 102b, and the like according to the brightness of the object. Then, the control unit 112 causes the image pickup unit 102 to perform an image pickup operation. The control unit 112 performs necessary image processing on the image data obtained by the imaging operation to create a still image file. Then, the control unit 112 records the created still image file in the recording unit 108. After such a still image shooting operation, the process proceeds to step S4.

ステップS4において、制御部112は、表示用撮像制御を行う。例えば、制御部112は、スルー画表示用の絞りの設定及び露出時間の設定で撮像部102の撮像動作を行わせる。 In step S4, the control unit 112 performs display imaging control. For example, the control unit 112 causes the image capturing unit 102 to perform the image capturing operation by setting the aperture for displaying the through image and setting the exposure time.

ステップS5において、制御部112は、ステップS4の表示用撮像制御の結果として得られた画像データに基づく画像を表示部104に表示させる。これにより、スルー画表示が行われる。 In step S5, the control unit 112 causes the display unit 104 to display an image based on the image data obtained as a result of the display imaging control in step S4. As a result, a through image display is performed.

ステップS6において、制御部112は、静止画撮影モードの動作を終了するか否かを判定する。例えば、撮影モードが動画撮影モードに切り替えられたり、撮像装置の電源がオフされたりしたときには、静止画撮影モードの動作を終了すると判定される。ステップS6において、静止画撮影モードの動作を終了すると判定されたときには、図2の処理は終了する。ステップS6において、静止画撮影モードの動作を終了しないと判定されたときには、処理はステップS1に戻る。 In step S6, the control unit 112 determines whether to end the operation in the still image shooting mode. For example, when the shooting mode is switched to the moving image shooting mode or the power of the image pickup apparatus is turned off, it is determined that the operation in the still image shooting mode ends. When it is determined in step S6 that the operation in the still image shooting mode is to be ended, the processing in FIG. 2 is ended. When it is determined in step S6 that the operation in the still image shooting mode is not ended, the process returns to step S1.

シーン判別モードの処理であるステップS7において、制御部112は、シーン判別処理を行う。以下、シーン判別処理について説明する。図3は、シーン判別処理について示すフローチャートである。これは「シーン判定」という言葉以外にも表現可能な技術で代用してもよい。例えば、明るさ判定、撮像判定、画像判定、距離判定、対象物判定と言い直してもよい。また、「判定」とあっても、自動で判定せずにユーザが手動で設定してもよい。 In step S7, which is the process of the scene determination mode, the control unit 112 performs the scene determination process. The scene determination process will be described below. FIG. 3 is a flowchart showing the scene discrimination processing. This may be replaced by a technique that can be expressed other than the word "scene determination". For example, the brightness determination, the image capturing determination, the image determination, the distance determination, and the object determination may be referred to again. In addition, even if the word “judgment” is used, the user may manually set the value instead of automatically making the judgment.

ステップS21において、制御部112は、撮像部102を介して得られる画像データにおいて、低レベルの画素と飽和レベルの画素との全画素に対する割合が所定値以上(例えば10%)であるか、すなわち画像データにおける明暗差が大きいか否かを判定する。1画素のデータが256階調で表されるとすると、低レベルの画素は、例えば16階調以下のデータを有する画素であり、飽和レベルの画素は、例えば246階調以上のデータを有する画素である。ステップS21において、低レベルの画素と飽和レベルの画素との割合が所定値以上であると判定されたとき、処理はステップS22に移行する。ステップS21において、低レベルの画素と飽和レベルの画素との割合が所定値以上でないと判定されたとき、処理はステップS23に移行する。 In step S21, the control unit 112 determines whether the ratio of low-level pixels and saturation-level pixels to all pixels in the image data obtained via the imaging unit 102 is a predetermined value or more (for example, 10%), that is, It is determined whether or not the difference in brightness in the image data is large. If data of one pixel is represented by 256 gradations, a low-level pixel is a pixel having data of 16 gradations or less, and a saturation level pixel is a pixel having data of 246 gradations or more, for example. Is. When it is determined in step S21 that the ratio of the low level pixel to the saturation level pixel is equal to or greater than the predetermined value, the process proceeds to step S22. When it is determined in step S21 that the ratio of the low level pixel to the saturation level pixel is not equal to or more than the predetermined value, the process proceeds to step S23.

ステップS22において、制御部112は、HDR合成処理を適用処理として実施することを決定する。その後、処理はステップS23に移行する。HDR合成処理は、露出量を異ならせた複数回の撮像によって得られた画像データを合成することによって画像データのダイナミックレンジを拡大する処理である。このようなHDR合成処理は、明暗差の大きいシーン、すなわち高いダイナミックレンジを必要とするシーンにおいて有効である。 In step S22, the control unit 112 determines to execute the HDR combining process as the applying process. After that, the process proceeds to step S23. The HDR synthesizing process is a process of expanding the dynamic range of image data by synthesizing image data obtained by a plurality of times of imaging with different exposure amounts. Such an HDR synthesizing process is effective in a scene having a large difference in light and shade, that is, a scene requiring a high dynamic range.

ステップS23において、制御部112は、撮像素子102bに設定されている撮像感度が一定値(例えばISO8000)以上であるか否かを判定する。撮像感度の設定は、例えばユーザによる操作部110の操作によってなされる。ステップS23において、撮像素子102bに設定されている撮像感度が一定値以上であると判定されたときには、処理はステップS24に移行する。ステップS23において、撮像素子102bに設定されている撮像感度が一定値以上でないと判定されたときには、処理はステップS25に移行する。 In step S23, the control unit 112 determines whether or not the image pickup sensitivity set in the image pickup element 102b is a certain value (for example, ISO8000) or more. The imaging sensitivity is set, for example, by the user operating the operation unit 110. When it is determined in step S23 that the imaging sensitivity set in the image sensor 102b is equal to or higher than a certain value, the process proceeds to step S24. When it is determined in step S23 that the imaging sensitivity set in the image sensor 102b is not equal to or higher than the certain value, the process proceeds to step S25.

ステップS24において、制御部112は、NR合成処理を適用処理として実施することを決定する。その後、処理はステップS25に移行する。NR合成処理は、複数回の撮像によって得られた画像データを平均化合成することによって画像データのノイズを低減する処理である。このようなNR合成処理は、ノイズの大きいシーンにおいて有効である。例えば、撮像感度が大きくなると、ノイズが大きくなるのでNR合成処理が有効である。実際には、対象物の輝度が低輝度でなければ、ノイズの影響はそれほど大きくならないので、ステップS23においては、対象物の輝度が所定値以下、かつ、撮像感度が所定値以上のときにステップS24において、NR合成処理を実施することが決定されてもよい。 In step S24, the control unit 112 determines to perform the NR combination process as the application process. After that, the process proceeds to step S25. The NR synthesizing process is a process of reducing noise of image data by averaging and synthesizing image data obtained by a plurality of times of image pickup. Such an NR combination process is effective in a scene with a lot of noise. For example, as the imaging sensitivity increases, the noise increases, so that the NR synthesis process is effective. In reality, the effect of noise is not so large unless the brightness of the object is low, so in step S23, when the brightness of the object is equal to or lower than a predetermined value and the imaging sensitivity is equal to or higher than the predetermined value, the step is performed. In S24, it may be decided to perform the NR combination process.

ステップS25において、制御部112は、対象物が焦点深度外であるか否か、すなわち対象物が非合焦状態であるか否かを判定する。対象物は、例えば人物の顔である。例えば、過焦点深度をH、焦点距離をf、絞り値をN、許容錯乱円径をcとしたとき、対象物に対するデフォーカス量がH=f/Nc以上であるときには、対象物は焦点深度外であると判定される。ステップS25において、対象物が焦点深度外であると判定されたときには、処理はステップS26に移行する。対象物が焦点深度外でないと判定されたときには、図3の処理は終了する。 In step S25, the control unit 112 determines whether the target object is out of the depth of focus, that is, whether the target object is out of focus. The target object is, for example, the face of a person. For example, when the hyperfocal depth is H, the focal length is f, the aperture value is N, and the permissible circle of confusion is c, when the defocus amount for the object is H=f 2 /Nc or more, the object is focused. It is determined to be out of depth. When it is determined in step S25 that the object is out of the depth of focus, the process proceeds to step S26. When it is determined that the object is not out of the depth of focus, the process of FIG. 3 ends.

ステップS26において、制御部112は、深度合成処理を適用処理として実施することを決定する。その後、図3の処理は終了する。深度合成処理は、撮像光学系102aの焦点位置を異ならせた複数回の撮像によって得られた画像データを合成することによって画像データの合焦状態を改善する処理である。深度合成処理は、対象物の一部にしか合焦していないようなシーンにおいて有効である。 In step S26, the control unit 112 determines to perform the depth stacking process as the applying process. After that, the process of FIG. 3 ends. The depth combination process is a process for improving the focus state of image data by combining image data obtained by a plurality of times of image pickup in which the focus position of the image pickup optical system 102a is different. The depth stacking process is effective in a scene in which only a part of the object is in focus.

このように、図3のようなフローチャートの結果で、画像処理や合成方法を変更するので、これを「シーン判定」とせず、画処理判定、合成判定と書いてもよい。ユーザが手動で設定する場合は、合成切り替え処理と表現してもよい。合成処理選択ステップと表現してもよい。合成方法が一種類しかない場合もあり、この場合は切り替えではないので、シーン判定ステップは省略が可能である。 As described above, since the image processing and the composition method are changed according to the result of the flowchart shown in FIG. 3, this may be written as the image processing judgment and the composition judgment instead of the “scene judgment”. When manually set by the user, it may be expressed as a combination switching process. It may be expressed as a combination process selection step. In some cases, there is only one combination method, and in this case, there is no switching, so the scene determination step can be omitted.

ここで、図2の説明に戻る。シーン判別処理の後のステップS8において、制御部112は、画像合成実施判定処理を行う。以下、画像合成実施判定処理について説明する。図4は、画像合成実施判定処理について示すフローチャートである。ステップS31において、制御部112は、スルー画表示のための撮像によって得られる複数フレームの画像データから各対象物の動きベクトルを算出する。 Here, returning to the description of FIG. In step S8 after the scene determination process, the control unit 112 performs an image synthesis execution determination process. The image compositing execution determination process will be described below. FIG. 4 is a flowchart showing the image compositing execution determination process. In step S31, the control unit 112 calculates a motion vector of each target object from image data of a plurality of frames obtained by imaging for displaying a through image.

ステップS32において、制御部112は、最大の動きベクトルの大きさが一定値(例えば画像データ上の5ピクセル程度)以下であるか否か、すなわち撮像装置及び対象物の双方が止まっていると見なせる状態であるか否かを判定する。ステップS32において、最大の動きベクトルの大きさが一定値以下であると判定されたときには、処理はステップS33に移行する。ステップS32において、最大の動きベクトルの大きさが一定値以下でないと判定されたときには、図4の処理は終了する。 In step S32, the control unit 112 can determine whether or not the magnitude of the maximum motion vector is equal to or smaller than a fixed value (for example, about 5 pixels on the image data), that is, both the imaging device and the object are stopped. It is determined whether or not the state. When it is determined in step S32 that the maximum motion vector magnitude is equal to or smaller than the fixed value, the process proceeds to step S33. When it is determined in step S32 that the maximum motion vector magnitude is not equal to or less than the fixed value, the process of FIG. 4 ends.

ステップS33において、制御部112は、画像合成処理を実施することを決定する。その後、図4の処理は終了する。すなわち、本実施形態においては、対象物が止まっていると見なせる状態において画像合成処理が実施される。これにより、高い画質で画像合成処理が実施され得る。 In step S33, the control unit 112 determines to perform the image combining process. After that, the processing of FIG. 4 ends. That is, in the present embodiment, the image combining process is performed in a state where the object can be regarded as stopped. As a result, the image combining process can be performed with high image quality.

ここで、図2の説明に戻る。画像合成実施判定処理の後のステップS9において、制御部112は、画像合成実施判定処理の結果から、画像合成処理を実施するか否かを判定する。ステップS9において、画像合成処理を実施すると判定されたときには、処理はステップS10に移行する。ステップS9において、画像合成処理を実施しないと判定されたときには、処理はステップS17に移行する。 Here, returning to the description of FIG. In step S9 after the image synthesis execution determination process, the control unit 112 determines whether to perform the image synthesis process based on the result of the image synthesis execution determination process. When it is determined in step S9 that the image combining process is performed, the process proceeds to step S10. When it is determined in step S9 that the image synthesizing process is not performed, the process proceeds to step S17.

ステップS10において、制御部112は、撮像フレームレートを判定する。撮像フレームレートは、例えば静止画像の記録モードに応じて設定される。すなわち、多少の応答性を犠牲にしても高画質(高画素数)が要求される記録モードのときには、制御部112は、撮像フレームレートを低く(例えば60fps程度に)設定する。一方、応答性が優先される記録モードのときには、制御部112は、撮像フレームレートを高く(例えば240fps程度に)設定する。なお、記録モードは、例えばユーザによる操作部110の操作によって設定される。 In step S10, the control unit 112 determines the image capture frame rate. The imaging frame rate is set according to, for example, a still image recording mode. That is, in the recording mode in which high image quality (high number of pixels) is required even if some responsiveness is sacrificed, the control unit 112 sets the imaging frame rate to a low value (for example, about 60 fps). On the other hand, in the recording mode in which the responsiveness is prioritized, the control unit 112 sets the imaging frame rate to a high value (for example, to about 240 fps). The recording mode is set, for example, by the user operating the operation unit 110.

ステップS11において、制御部112は、フレーム数判定処理を行う。以下、フレーム数判定処理について説明する。図5は、フレーム数判定処理について示すフローチャートである。ステップS41において、制御部112は、HDR合成処理を実施するか否かを判定する。ステップS41において、HDR合成処理を実施すると判定されたときには、処理はステップS42に移行する。ステップS41において、HDR合成処理を実施しないと判定されたときには、処理はステップS43に移行する。 In step S11, the control unit 112 performs a frame number determination process. The frame number determination process will be described below. FIG. 5 is a flowchart showing the frame number determination process. In step S41, the control unit 112 determines whether to execute the HDR combining process. If it is determined in step S41 that the HDR combining process is to be performed, the process proceeds to step S42. When it is determined in step S41 that the HDR combining process is not performed, the process proceeds to step S43.

ステップS42において、制御部112は、HDR合成処理用のフレームを設定する。その後、処理はステップS43に移行する。HDR合成処理には、露出量の異なる少なくとも2枚の画像データが必要である。したがって、制御部112は、HDR合成処理用のフレームとして例えば2フレームを追加する。勿論、HDR合成処理用のフレーム数を3フレーム以上としてもよい。 In step S42, the control unit 112 sets a frame for HDR combination processing. Then, a process transfers to step S43. The HDR combination processing requires at least two pieces of image data having different exposure amounts. Therefore, the control unit 112 adds, for example, two frames as a frame for HDR combination processing. Of course, the number of frames for HDR combination processing may be three or more.

ステップS43において、制御部112は、NR合成処理を実施するか否かを判定する。ステップS43において、NR合成処理を実施すると判定されたときには、処理はステップS44に移行する。ステップS43において、NR合成処理を実施しないと判定されたときには、処理はステップS45に移行する。 In step S43, the control unit 112 determines whether to perform the NR synthesis process. If it is determined in step S43 that the NR synthesis process is to be performed, the process proceeds to step S44. When it is determined in step S43 that the NR synthesis process is not performed, the process proceeds to step S45.

ステップS44において、制御部112は、NR合成処理用のフレームを設定する。その後、処理はステップS45に移行する。NR合成処理用のフレーム数は、例えば撮像感度に応じて設定される。例えば、撮像感度がISO16000以下のときには、制御部112は、NR合成処理用のフレームとして1フレームを追加する。また、撮像感度がISO16000よりも大きく、ISO32000以下のときには、制御部112は、NR合成処理用のフレームとして2フレームを追加する。また、撮像感度がISO32000よりも大きく、ISO64000以下のときには、制御部112は、NR合成処理用のフレームとして4フレームを追加する。一般に、NR合成処理においてnフレームの画像データを合成することにより、ノイズ量は、ルートn分の一に低減される。なお、NR合成処理用のフレーム数の算出手法は、ここで説明したものに限るものではない。 In step S44, the control unit 112 sets a frame for NR synthesis processing. Then, a process transfers to step S45. The number of frames for the NR synthesis processing is set, for example, according to the imaging sensitivity. For example, when the imaging sensitivity is ISO 16000 or less, the control unit 112 adds one frame as a frame for NR synthesis processing. Further, when the imaging sensitivity is higher than ISO16000 and ISO32000 or lower, the control unit 112 adds two frames as a frame for NR synthesis processing. Further, when the imaging sensitivity is higher than ISO32000 and ISO64000 or less, the control unit 112 adds four frames as a frame for NR synthesis processing. In general, the noise amount is reduced to 1/n of the route by synthesizing the image data of n frames in the NR synthesizing process. The method of calculating the number of frames for the NR synthesis processing is not limited to the method described here.

ステップS45において、制御部112は、深度合成処理を実施するか否かを判定する。ステップS45において、深度合成処理を実施すると判定されたときには、処理はステップS46に移行する。ステップS45において、深度合成処理を実施しないと判定されたときには、処理はステップS47に移行する。 In step S45, the control unit 112 determines whether to perform the depth stacking process. If it is determined in step S45 that the depth stacking process is to be performed, the process proceeds to step S46. When it is determined in step S45 that the depth stacking process is not performed, the process proceeds to step S47.

ステップS46において、制御部112は、深度合成処理用のフレームを設定する。その後、処理はステップS47に移行する。例えば、制御部112は、フォーカスレンズの駆動時間を算出する。フォーカスレンズの駆動時間は、(深度合成に必要なフォーカスレンズの駆動量)/(単位時間当たりのフォーカスレンズの駆動量)によって算出される。フォーカスレンズの駆動時間の算出後、制御部112は、深度合成処理用として追加するフレームの数を算出する。追加するフレームの数は、例えば、(フォーカスレンズの駆動時間)/(1撮像フレーム分の時間)によって算出される。なお、深度合成処理用のフレーム数の算出手法は、ここで説明したものに限るものではない。 In step S46, the control unit 112 sets a frame for depth stacking processing. After that, the process proceeds to step S47. For example, the control unit 112 calculates the drive time of the focus lens. The drive time of the focus lens is calculated by (drive amount of focus lens required for depth stacking)/(drive amount of focus lens per unit time). After calculating the drive time of the focus lens, the control unit 112 calculates the number of frames to be added for the depth stacking process. The number of frames to be added is calculated, for example, by (driving time of the focus lens)/(time for one imaging frame). The method of calculating the number of frames for the depth stacking process is not limited to the one described here.

ステップS47において、制御部112は、総フレーム数を算出する。その後、図5の処理は終了する。総フレーム数は、基本的には、(HDR合成処理用のフレーム数)+(NR合成処理用のフレーム数)+(深度合成処理用のフレーム数)によって算出される。ただし、HDR合成処理用のフレームと、NR合成処理用のフレームと、深度合成処理用のフレームとで重複させることができるフレームが存在している場合には、その分だけ総フレーム数は削減され得る。また、総フレーム数には、上限が設けられていてもよい。例えば、スルー画表示において合成処理が行われることを想定した場合、表示部104の表示フレームレートよりも短い時間で合成処理が完了する必要がある。この場合、総フレーム数は、表示部104の表示フレームレートによって制限される。 In step S47, the control unit 112 calculates the total number of frames. Then, the process of FIG. 5 ends. The total number of frames is basically calculated by (the number of frames for HDR combination processing)+(the number of frames for NR combination processing)+(the number of frames for depth combination processing). However, if there is a frame that can be overlapped with a frame for HDR synthesis processing, a frame for NR synthesis processing, and a frame for depth synthesis processing, the total number of frames is reduced accordingly. obtain. An upper limit may be set for the total number of frames. For example, when it is assumed that the combining process is performed in the live view display, the combining process needs to be completed in a time shorter than the display frame rate of the display unit 104. In this case, the total number of frames is limited by the display frame rate of the display unit 104.

ここで、図2の説明に戻る。フレーム数判定処理の後のステップS12において、制御部112は、合成用撮像制御を実行する。その後、処理はステップS13に移行する。以下、図6を参照して合成用撮像制御の一例を説明する。合成用撮像制御では、撮像毎に1つ以上の撮像条件を変更しながら撮像が行われる。ここでの撮像条件は、HDR合成をするために必要な露出量と、深度合成をするために必要なフォーカスレンズ位置である。なお、図6の四角形は、合成用撮像制御の際の各撮像のタイミングを示している。図6の「露出」は、各撮像のタイミングにおける露出の変更量を示している。−1は、適正露出に対して1段分のアンダー露出であることを示し、+1は、適正露出に対して1段分のオーバー露出であることを示している。図6の「HDR合成」は、各撮像において得られた画像データをHDR合成処理に使用するか否かを示す。丸印が付されているときには、対応する撮像で得られた画像データがHDR合成処理に使用される。図6の「NR合成1」及び「NR合成2」は、各撮像において得られた画像データをNR合成処理に使用するか否かを示す。なお、「NR合成1」は、+1段の露出量の画像データ同士の合成によるNR合成処理であることを示す。「NR合成2」は、−1段の露出量の画像データ同士の合成によるNR合成処理であることを示す。丸印が付されているときには、対応する撮像で得られた画像データがNR合成処理に使用される。「深度合成」は、各撮像において得られた画像データを深度合成処理に使用するか否かを示す。丸印が付されているときには、対応する撮像で得られた画像データが深度合成処理に使用される。「フォーカスレンズ位置」は、各撮像におけるフォーカスレンズの位置を示す。 Here, returning to the description of FIG. In step S12 after the frame number determination process, the control unit 112 executes the composite imaging control. Thereafter, the processing shifts to step S13. Hereinafter, an example of the image capturing control for composition will be described with reference to FIG. In the composite image capturing control, image capturing is performed while changing one or more image capturing conditions for each image capturing. The imaging conditions here are the exposure amount required for HDR composition and the focus lens position required for depth composition. It should be noted that the squares in FIG. 6 indicate the timing of each image pickup in the image pickup control for synthesis. “Exposure” in FIG. 6 indicates the amount of change in exposure at each imaging timing. -1 indicates that the exposure is one step below the proper exposure, and +1 indicates that the exposure is one step above the proper exposure. “HDR composition” in FIG. 6 indicates whether or not the image data obtained in each imaging is used for HDR composition processing. When a circle is attached, the image data obtained by the corresponding image capturing is used for the HDR synthesizing process. “NR combination 1” and “NR combination 2” in FIG. 6 indicate whether or not the image data obtained in each imaging is used for the NR combination process. It should be noted that “NR synthesis 1” indicates NR synthesis processing by synthesizing image data with exposure amounts of +1 steps. “NR combination 2” indicates that the NR combination process is performed by combining the image data having the exposure amount of −1 stage. When a circle is attached, the image data obtained by the corresponding imaging is used for the NR synthesis process. “Depth synthesis” indicates whether or not the image data obtained in each image pickup is used for the depth synthesis processing. When a circle is attached, the image data obtained by the corresponding image capturing is used for the depth stacking process. “Focus lens position” indicates the position of the focus lens in each image pickup.

図6の例では、HDR合成処理には2フレームが使用され、NR合成処理には3フレームが使用され、深度合成処理には3フレームが使用される。しかしながら、一部のフレームおいて得られる画像データは、HDR合成処理、NR合成処理、深度合成処理のうちの複数の処理に使用される。このため、総フレーム数は、6フレームでよい。 In the example of FIG. 6, 2 frames are used for the HDR synthesizing process, 3 frames are used for the NR synthesizing process, and 3 frames are used for the depth synthesizing process. However, the image data obtained in a part of the frames is used for a plurality of processes of the HDR synthesizing process, the NR synthesizing process, and the depth synthesizing process. Therefore, the total number of frames may be 6 frames.

図6に示す1フレーム目において、制御部112は、1段分だけアンダー露出となるように撮像部102を設定する。そして、制御部112は、撮像部102による撮像を行う。撮像の後、制御部112は、1フレーム目の画像データを仮記録部106に仮記録する。 In the first frame shown in FIG. 6, the control unit 112 sets the imaging unit 102 so that it is underexposed by one stage. Then, the control unit 112 causes the image capturing unit 102 to capture an image. After the imaging, the control unit 112 temporarily records the image data of the first frame in the temporary recording unit 106.

2フレーム目において、制御部112は、1フレーム目と同じ条件で撮像部102による撮像を行う。撮像の後、制御部112は、2フレーム目の画像データを1フレーム目の画像データとは別個に仮記録部106に仮記録する。 In the second frame, the control unit 112 causes the image capturing unit 102 to capture an image under the same conditions as in the first frame. After imaging, the control unit 112 temporarily records the image data of the second frame in the temporary recording unit 106 separately from the image data of the first frame.

3フレーム目においても、制御部112は、1フレーム目と同じ条件で撮像部102による撮像を行う。撮像の後、制御部112は、3フレーム目の画像データを1フレーム目及び2フレーム目の画像データとは別個に仮記録部106に仮記録する。 Also in the third frame, the control unit 112 causes the image capturing unit 102 to capture an image under the same conditions as in the first frame. After the imaging, the control unit 112 temporarily records the image data of the third frame in the temporary recording unit 106 separately from the image data of the first frame and the image data of the second frame.

4フレーム目において、制御部112は、1段分だけオーバー露出となるように撮像部102を設定する。また、制御部112は、フォーカスレンズの駆動を開始させる。そして、制御部112は、撮像部102による撮像を行う。撮像の後、制御部112は、4フレーム目の画像データを1フレーム目−3フレーム目の画像データとは別個に仮記録部106に仮記録する。 In the fourth frame, the control unit 112 sets the image pickup unit 102 so that it is overexposed by one stage. Further, the control unit 112 starts driving the focus lens. Then, the control unit 112 causes the image capturing unit 102 to capture an image. After the image capturing, the control unit 112 temporarily records the image data of the fourth frame in the temporary recording unit 106 separately from the image data of the first frame to the third frame.

5フレーム目において、制御部112は、4フレーム目と同じ条件(ただし、フォーカスレンズは移動中である)で撮像部102による撮像を行う。撮像の後、制御部112は、5フレーム目の画像データを1フレーム目−4フレーム目の画像データとは別個に仮記録部106に仮記録する。 In the fifth frame, the control unit 112 takes an image with the imaging unit 102 under the same conditions as in the fourth frame (however, the focus lens is moving). After the image capturing, the control unit 112 temporarily records the image data of the fifth frame in the temporary recording unit 106 separately from the image data of the first frame to the fourth frame.

6フレーム目においても、制御部112は、4フレーム目と同じ条件で撮像部102による撮像を行う。撮像の後、制御部112は、6フレーム目の画像データを1フレーム目−5フレーム目の画像データとは別個に仮記録部106に仮記録する。 Even in the sixth frame, the control unit 112 causes the image capturing unit 102 to capture an image under the same conditions as in the fourth frame. After the image capturing, the control unit 112 temporarily records the image data of the sixth frame in the temporary recording unit 106 separately from the image data of the first frame to the fifth frame.

ここで、図2の説明に戻る。合成用撮像制御の後のステップS13において、制御部112は、合成処理を行う。その後、処理はステップS14に移行する。以下、合成処理を説明する。 Here, returning to the description of FIG. In step S13 after the image capturing control for composition, the control unit 112 performs composition processing. After that, the process proceeds to step S14. The synthesis process will be described below.

図6に示すように、制御部112は、1フレーム目の画像データと4フレーム目の画像データとを用いてHDR合成処理を行う。HDR合成処理に際し、制御部112は、例えば4フレーム目の画像データの白飛び領域を、この白飛び領域と対応する1フレーム目の画像データで置き換える。これにより、ダイナミックレンジの画像データが生成される。 As shown in FIG. 6, the control unit 112 performs HDR combination processing using the image data of the first frame and the image data of the fourth frame. In the HDR combining process, the control unit 112 replaces, for example, the whiteout area of the image data of the fourth frame with the image data of the first frame corresponding to the whiteout area. Thereby, high dynamic range image data is generated.

また、図6に示すように、制御部112は、1フレーム目、2フレーム目及び3フレーム目の画像データを用いてNR合成処理を行うとともに、4フレーム目、5フレーム目及び6フレーム目の画像データを用いてNR合成処理を行う。NR合成処理に際し、制御部112は、1フレーム目、2フレーム目及び3フレーム目の画像データを加算平均するとともに、4フレーム目、5フレーム目及び6フレーム目の画像データを加算平均する。これにより、ノイズ低減された明画像及び暗画像が生成される。 Further, as shown in FIG. 6, the control unit 112 performs the NR synthesis processing using the image data of the first frame, the second frame, and the third frame, and at the same time, the fourth frame, the fifth frame, and the sixth frame. NR synthesis processing is performed using the image data. In the NR synthesis process, the control unit 112 averages the image data of the first frame, the second frame, and the third frame, and averages the image data of the fourth frame, the fifth frame, and the sixth frame. As a result, noise-reduced bright and dark images are generated.

また、図6に示すように、制御部112は、4フレーム目、5フレーム目及び6フレーム目の画像データを用いて深度合成処理を行う。深度合成処理に際し、制御部112は、6フレーム目の画像データにおける低コントラストの領域を、この領域と対応している4フレーム目又は5フレーム目における高コントラストの領域の画像データで置き換える合成処理を行う。このようにして、各領域に合焦している画像データが生成される。 Further, as illustrated in FIG. 6, the control unit 112 performs the depth stacking process using the image data of the fourth frame, the fifth frame, and the sixth frame. In the depth composition processing, the control unit 112 performs composition processing for replacing the low-contrast area in the image data of the sixth frame with the image data of the high-contrast area in the fourth frame or the fifth frame corresponding to this area. To do. In this way, image data focused on each area is generated.

前述の例では、HDR合成処理、NR合成処理、深度合成処理が個別に行われ、4フレームの画像データが生成される。さらに、HDR合成処理、NR合成処理、深度合成処理の結果として得られた4フレームの画像データを合成してもよい。この場合、制御部112は、ノイズ低減された明画像と暗画像を用いてさらにNR合成処理を行う。すなわち、制御部112は、ノイズ低減された明画像と暗画像を加算平均によって合成する。その後、制御部112は、NR合成処理後の画像データにおける黒潰れ又は白飛びしている領域にHDR合成処理で得られた画像データを合成するとともに、NR合成処理後の画像データにおける低コントラストに深度合成処理で得られた画像データを合成する。 In the above-described example, the HDR synthesizing process, the NR synthesizing process, and the depth synthesizing process are individually performed to generate image data of 4 frames. Further, image data of four frames obtained as a result of the HDR synthesizing process, the NR synthesizing process, and the depth synthesizing process may be synthesized. In this case, the control unit 112 further performs NR synthesis processing using the noise-reduced bright image and dark image. That is, the control unit 112 combines the noise-reduced bright image and dark image by averaging. After that, the control unit 112 synthesizes the image data obtained by the HDR synthesis process with the black crushed or overexposed areas in the image data after the NR synthesis process, and reduces the contrast in the image data after the NR synthesis process. The image data obtained by the depth combination processing is combined.

ここで、図2の説明に戻る。合成処理の後のステップS14において、制御部112は、合成処理の結果として得られた画像データに基づく画像を表示部104に表示させる。ステップS14において、制御部112は、HDR合成処理、NR合成処理、深度合成処理の結果として得られた4フレームの画像データに基づく画像を並べて表示させてもよいし、これらの4フレームの画像データを再合成して得られた画像データに基づく画像をスルー画として表示させてもよい。 Here, returning to the description of FIG. In step S14 after the combining process, the control unit 112 causes the display unit 104 to display an image based on the image data obtained as a result of the combining process. In step S14, the control unit 112 may display images based on the image data of four frames obtained as a result of the HDR synthesizing process, the NR synthesizing process, and the depth synthesizing process side by side, or display the image data of these four frames. An image based on the image data obtained by recombining may be displayed as a through image.

ステップS15において、制御部112は、静止画撮影要求があるか否かを判定する。静止画撮影要求は、ステップS2と同様に、例えばユーザによるレリーズボタンの操作又はタッチパネルの操作によってなされる。ステップS15において、静止画撮影要求があると判定されたときには、処理はステップS16に移行する。ステップS15において、静止画撮影要求がないと判定されたときには、処理はステップS6に移行する。 In step S15, the control unit 112 determines whether or not there is a still image shooting request. Still image capturing request, as in step S2, made by for example the operation of the operation or the touch panel of the release button by the user. If it is determined in step S15 that there is a still image shooting request, the process proceeds to step S16. If it is determined in step S15 that there is no still image capturing request, the process proceeds to step S6.

ステップS16において、制御部112は、静止画撮影を開始する。このときの静止画撮影おける撮像部102の撮像動作は、ステップS12の合成用撮像制御のときと同じ設定で行われる。そして、制御部112は、撮像動作の結果として得られた画像データをステップS13と同様にして合成した後で、さらに必要な画像処理を施して静止画ファイルを作成する。そして、制御部112は、作成した静止画ファイルを記録部108に記録する。このような静止画撮影動作の後、処理はステップS6に移行する。 In step S16, the control unit 112 starts still image shooting. The image capturing operation of the image capturing unit 102 in still image capturing at this time is performed with the same setting as that in the composite image capturing control in step S12. Then, the control unit 112 synthesizes the image data obtained as a result of the image pickup operation in the same manner as in step S13, and then performs the necessary image processing to create a still image file. Then, the control unit 112 records the created still image file in the recording unit 108. After such a still image shooting operation, the process proceeds to step S6.

画像合成処理を実施しないと判定された後のステップS17において、制御部112は、表示用撮像制御を行う。ステップS18において、制御部112は、ステップS17の表示用撮像制御の結果として得られた画像データに基づく画像を表示部104に表示させる。ステップS17及びステップS18の処理は、ステップS4及びステップS5の処理と同様である。 In step S17 after it is determined that the image combining process is not performed, the control unit 112 performs display imaging control. In step S18, the control unit 112 causes the display unit 104 to display an image based on the image data obtained as a result of the display imaging control in step S17. The processing of steps S17 and S18 is the same as the processing of steps S4 and S5.

ステップS19において、制御部112は、シーン判別モードの設定が仕上がり優先設定になっているか否かを判定する。シーン判別モードの設定は、例えばユーザによる操作部110の操作によって設定される。ステップS19において、シーン判別モードの設定が仕上がり優先設定になっていないと判定されたときには、処理はステップS15に移行する。ステップS19において、シーン判別モードの設定が仕上がり優先設定になっていると判定されたときには、処理はステップS6に移行する。すなわち、画像合成処理を実施しないと判定され、シーン判別モードの設定が仕上がり優先設定になっていると判定されたときには、静止画撮影要求の有無の判定が行われない。したがって、ユーザが静止画撮影要求をしたとしてもその要求は無効になる。このため、仕上がり優先モードでは画像合成処理が実施されるまで撮影が行われないことになる。 In step S19, the control unit 112 determines whether or not the setting of the scene determination mode is the finish priority setting. The setting of the scene determination mode is set, for example, by the user operating the operation unit 110. If it is determined in step S19 that the setting of the scene determination mode is not the finish priority setting, the process proceeds to step S15. When it is determined in step S19 that the setting of the scene determination mode is the finish priority setting, the process proceeds to step S6. That is, when it is determined that the image synthesizing process is not performed, and it is determined that the setting of the scene determination mode is the finish priority setting, determination of whether or not there is a still image shooting request is not performed. Therefore, even if the user makes a still image shooting request, the request becomes invalid. Therefore, in the finish priority mode, shooting is not performed until the image combining process is performed.

次に、動画撮影モードの処理について説明する。図7は、撮像装置の動画撮影モードにおける動作を示すフローチャートである。図7の処理は、例えば撮像装置の撮影モードが動画撮影モードに切り替えられ、動画記録の開始が指示されたときに開始される。なお、図7において、図2と類似している処理については説明を適宜省略する。 Next, processing in the moving image shooting mode will be described. FIG. 7 is a flowchart showing the operation of the image pickup apparatus in the moving image shooting mode. The process of FIG. 7 is started, for example, when the shooting mode of the image pickup apparatus is switched to the moving image shooting mode and an instruction to start moving image recording is given. Note that in FIG. 7, description of processes similar to those in FIG. 2 will be appropriately omitted.

ステップS51において、制御部112は、動画撮影モードがシーン判別モードであるか否かを判定する。静止画撮影モードと同様、動画撮影モードも、通常モードとシーン判別モードとを有している。動画撮影モードを通常モードとするか又はシーン判別モードとするかの設定は、例えばユーザの操作部110の操作によって行われる。ステップS51において、動画撮影モードがシーン判別モードでない、すなわち通常モードであると判定されたときには、処理はステップS52に移行する。ステップS51において、動画撮影モードがシーン判別モードであると判定されたときには、処理はステップS56に移行する。 In step S51, the control unit 112 determines whether the moving image shooting mode is the scene determination mode. Similar to the still image shooting mode, the moving image shooting mode also has a normal mode and a scene determination mode. The setting as to whether the moving image shooting mode is the normal mode or the scene determination mode is performed, for example, by the user operating the operation unit 110. When it is determined in step S51 that the moving image shooting mode is not the scene determination mode, that is, the normal mode, the process proceeds to step S52. When it is determined in step S51 that the moving image shooting mode is the scene determination mode, the process proceeds to step S56.

通常モードの処理であるステップS52において、制御部112は、撮像制御を行う。例えば、制御部112は、動画撮影用の絞りの設定及び露出時間の設定で撮像部102の撮像動作を行わせる。 In step S52, which is the process in the normal mode, the control unit 112 performs imaging control. For example, the control unit 112 causes the image capturing unit 102 to perform an image capturing operation by setting a diaphragm for movie shooting and setting an exposure time.

ステップS53において、制御部112は、ステップS52の撮像制御の結果として得られた画像データに基づく画像を表示部104に表示させる。これにより、スルー画表示が行われる。 In step S53, the control unit 112 causes the display unit 104 to display an image based on the image data obtained as a result of the imaging control in step S52. As a result, a through image display is performed.

ステップS54において、制御部112は、動画記録を行う。例えば、制御部112は、ステップS52の撮像制御の結果として得られた画像データに対して必要な画像処理を施した後で動画ファイルを作成する。そして、制御部112は、作成した動画ファイルを記録部108に記録する。既に動画ファイルが作成済みであるときには、制御部112は、画像処理された画像データを作成した動画ファイルに追記する。このような動画記録の後、処理はステップS55に移行する。 In step S54, the control unit 112 records a moving image. For example, the control unit 112 creates a moving image file after performing necessary image processing on the image data obtained as a result of the imaging control in step S52. Then, the control unit 112 records the created moving image file in the recording unit 108. When the moving image file has already been created, the control unit 112 adds the image-processed image data to the created moving image file. After recording such a moving image, the process proceeds to step S55.

ステップS55において、制御部112は、動画記録を終了するか否かを判定する。例えば、ユーザの操作部110の操作によって動画記録の終了が指示されたり、撮影モードが静止画撮影モードに切り替えられたり、撮像装置の電源がオフされたりしたときには、動画記録を終了すると判定される。ステップS55において、動画記録を終了すると判定されたときには、図7の処理は終了する。ステップS55において、動画記録を終了しないと判定されたときには、処理はステップS51に戻る。 In step S55, the control unit 112 determines whether to end the moving image recording. For example, when the user operates the operation unit 110 to instruct the end of the moving image recording, the shooting mode is switched to the still image shooting mode, or the power of the imaging device is turned off, it is determined that the moving image recording is ended. .. When it is determined in step S55 that the moving image recording is to be ended, the processing of FIG. 7 is ended. When it is determined in step S55 that the moving image recording is not to be ended, the process returns to step S51.

シーン判別モードの処理であるステップS56において、制御部112は、シーン判別処理を行う。シーン判別処理の後、処理はステップS57に移行する。動画撮影モードのときのシーン判別処理は、基本的には静止画撮影モードのときのシーン判別処理と同じでよい。ただし、シーン判別処理において用いられた各種の閾値は、静止画撮影モードと動画撮影モードとで異なっていてもよい。また、動画撮影モードのときのシーン判別処理においては、静止画撮影モードのときのシーン判別処理の全ての判定が行われなくてもよい。例えば、ステップS25の処理(深度合成処理の実施の判定処理)は省略されてもよい。 In step S56 which is the process of the scene determination mode, the control unit 112 performs the scene determination process. After the scene determination process, the process proceeds to step S57. The scene determination process in the moving image shooting mode may be basically the same as the scene determination process in the still image shooting mode. However, various thresholds used in the scene determination process may be different between the still image shooting mode and the moving image shooting mode. Further, in the scene determination processing in the moving image shooting mode, all the determinations of the scene determination processing in the still image shooting mode may not be performed. For example, the process of step S25 (determination process for performing the depth stacking process) may be omitted.

ステップS57において、制御部112は、画像合成実施判定処理を行う。画像合成実施判定処理の後、処理はステップS58に移行する。動画撮影モードのときの画像合成実施判定処理は、基本的には静止画撮影モードのときの画像合成実施判定処理と同じでよい。 In step S57, the control unit 112 performs an image composition execution determination process. After the image compositing execution determination process, the process proceeds to step S58. The image combination execution determination process in the moving image shooting mode may be basically the same as the image combination execution determination process in the still image shooting mode.

ステップS58において、制御部112は、画像合成実施判定処理の結果から、画像合成処理を実施するか否かを判定する。ステップS58において、画像合成処理を実施すると判定されたときには、処理はステップS59に移行する。ステップS58において、画像合成処理を実施しないと判定されたときには、処理はステップS52に移行する。 In step S58, the control unit 112 determines from the result of the image synthesis execution determination process whether or not to perform the image synthesis process. If it is determined in step S58 that the image synthesizing process is to be performed, the process proceeds to step S59. When it is determined in step S58 that the image synthesizing process is not performed, the process proceeds to step S52.

ステップS59において、制御部112は、撮像フレームレートを判定する。撮像フレームレートは、例えば動画像のフレームレートに応じて設定される。動画像の撮像フレームレートも、静止画像と同様に画質も考慮して設定されてよい。 In step S59, the control unit 112 determines the image capture frame rate. The imaging frame rate is set according to, for example, the frame rate of a moving image. The image capturing frame rate of a moving image may be set in consideration of image quality as in the case of a still image.

ステップS60において、制御部112は、フレーム数判定処理を行う。フレーム数判定処理の後、処理はステップS61に移行する。動画撮影モードのときのフレーム数判定処理は、基本的には静止画撮影モードのときのフレーム数判定処理と同じでよい。 In step S60, the control unit 112 performs a frame number determination process. After the frame number determination process, the process proceeds to step S61. The frame number determination process in the moving image shooting mode may be basically the same as the frame number determination process in the still image shooting mode.

ステップS61において、制御部112は、合成用撮像制御を実行する。その後、処理はステップS62に移行する。動画撮影モードのときの合成用撮像制御も、静止画撮影モードのときと同様に図6で示したようにして行われてよい。しかしながら、合成用撮像制御は、以下の図8で示すように行われてもよい。 In step S61, the control unit 112 executes image capturing control for composition. Then, a process transfers to step S62. The image capturing control for combination in the moving image shooting mode may be performed as shown in FIG. 6 as in the still image shooting mode. However, the image capturing control for composition may be performed as shown in FIG. 8 below.

図8を参照して合成用撮像制御の変形例を説明する。ここで、図8の四角形は、合成用撮像制御の際の各撮像のタイミングを示している。図8の「露出」は、各撮像のタイミングにおける露出の変更量を示している。−1は、適正露出に対して1段分のアンダー露出であることを示し、+1は、適正露出に対して1段分のオーバー露出であることを示している。図8の「フォーカスレンズ位置」は、各撮像におけるフォーカスレンズの位置を示す。図8の「NR」は、NR合成処理されるフレーム数を示す。 A modified example of the image capturing control for composition will be described with reference to FIG. Here, the quadrangle in FIG. 8 indicates the timing of each image pickup in the image pickup control for synthesis. “Exposure” in FIG. 8 indicates the amount of change in exposure at each imaging timing. -1 indicates that the exposure is one step below the proper exposure, and +1 indicates that the exposure is one step above the proper exposure. “Focus lens position” in FIG. 8 indicates the position of the focus lens in each image pickup. “NR” in FIG. 8 indicates the number of frames subjected to NR synthesis processing.

図6の例では、露出量は−1段から+1段に不連続的に変化する。これに対し、図8の例では、露出量は、−1段から+1段の間で略連続的に変化する。例えば図8において、1フレーム目の撮像では、露出量は−1段分だけアンダーに設定される。一方、2フレーム目の撮像では露出量は、0段(適正露出)に設定される。そして、3フレーム目の撮像で露出量は+1段だけオーバーに設定される。このようにして露出量を連続的に変更することで、フレーム間での露出の急激な変動が抑えられる。したがって、動画記録される際又はスルー画表示される際の画像の違和感を低減することが可能である。 In the example of FIG. 6, the exposure amount changes discontinuously from -1 stage to +1 stage. On the other hand, in the example of FIG. 8, the exposure amount changes substantially continuously between −1 stage and +1 stage. For example, in FIG. 8, in imaging the first frame, the exposure amount is set to be under by -1 step. On the other hand, the exposure amount is set to 0 stage (appropriate exposure) in the imaging of the second frame. Then, the exposure amount is set to be over by +1 step in the imaging of the third frame. By continuously changing the exposure amount in this way, abrupt fluctuation of the exposure between frames can be suppressed. Therefore, it is possible to reduce the uncomfortable feeling of an image when recording a moving image or displaying a through image.

また、図6の例では、6フレームの撮像の後でNR合成処理が行われる。一方、図8の例では、NR合成処理は撮像制御と並行して行われる。この場合、制御部112は、各フレームの撮像が行われる毎に、撮像によって得られた画像データを合成していく。具体的には、制御部112は、2フレーム目の画像データを仮記録部106に仮記録した後、2フレーム目の画像データと1フレーム目の画像データとを合成する。また、制御部112は、3フレーム目の画像データを仮記録部106に仮記録した後、3フレーム目の画像データと2フレーム目に得られた合成画像データとを合成する。さらに、制御部112は、4フレーム目の画像データを仮記録部106に仮記録した後、4フレーム目の画像データと3フレーム目に得られた合成画像データとを合成する。以後も同様である。NR合成処理は、その他の処理に比べて動画記録される又はスルー画表示される画像に与える影響が小さい。したがって、NR合成処理は撮像制御と並行して行うことが可能である。なお、図6において、図8のようにNR合成処理と撮像制御とが並行して行われるようにしてもよい。 Further, in the example of FIG. 6, the NR combination processing is performed after the imaging of 6 frames. On the other hand, in the example of FIG. 8, the NR combination process is performed in parallel with the image pickup control. In this case, the control unit 112 synthesizes the image data obtained by the image pickup each time the image pickup of each frame is performed. Specifically, the control unit 112 temporarily records the image data of the second frame in the temporary recording unit 106, and then combines the image data of the second frame and the image data of the first frame. Further, the control unit 112 temporarily records the image data of the third frame in the temporary recording unit 106, and then combines the image data of the third frame and the combined image data obtained in the second frame. Further, the control unit 112 temporarily records the image data of the fourth frame in the temporary recording unit 106, and then combines the image data of the fourth frame and the combined image data obtained in the third frame. The same applies hereafter. The NR synthesizing process has a smaller effect on an image recorded as a moving image or displayed as a through image than other processes. Therefore, the NR synthesis process can be performed in parallel with the imaging control. Note that, in FIG. 6, the NR combination processing and the imaging control may be performed in parallel as in FIG.

また、図8の例では、露出量の変更が完了した後でフォーカスレンズの駆動を開始させるようにしている。このような制御では、フォーカスレンズの駆動中には露出量が変わらない。したがって、撮像条件の変更による動画記録される又はスルー画表示される画像に与える影響を小さくすることができる。さらに、図8の例では、露出量の変更が開始されてから変更が完了するまでのフレーム数は2フレームであり、フォーカスレンズの駆動が開始されてから駆動が完了するまでのフレーム数は3フレームである。このようにしてフレーム毎のフォーカスレンズの駆動量を小さくすることでも、動画記録される又はスルー画表示される画像に与える影響を小さくすることができる。 Further, in the example of FIG. 8, the drive of the focus lens is started after the change of the exposure amount is completed. With such control, the exposure amount does not change while the focus lens is being driven. Therefore, it is possible to reduce the influence of the change of the imaging condition on the image recorded in the moving image or displayed as the through image. Further, in the example of FIG. 8, the number of frames from the start of the change of the exposure amount to the completion of the change is two, and the number of frames from the start of the drive of the focus lens to the completion of the drive is three. It is a frame. By thus reducing the driving amount of the focus lens for each frame, it is possible to reduce the influence on the image recorded as a moving image or displayed as a through image.

ここで、図8においては露出量を−1段から+1段まで変更している。逆に、露出量を+1段から−1段まで変更するようにしてもよい。これは、図6の場合も同様である。なお、この場合であっても、撮像条件の変更順は、NR合成処理の枚数、露出量、フォーカスレンズ位置の順であることが望ましい。この順序にすることで、動画記録される又はスルー画表示される画像に与える影響を最も小さくできる。 Here, in FIG. 8, the exposure amount is changed from -1 step to +1 step. Conversely, the exposure amount may be changed from +1 step to -1 step. This also applies to the case of FIG. Even in this case, it is desirable that the order of changing the imaging conditions is the order of the number of NR combination processes, the exposure amount, and the focus lens position. By setting this order, the influence on the image recorded in the moving image or displayed as the through image can be minimized.

ここで、図7の説明に戻る。合成用撮像制御の後のステップS62において、制御部112は、合成処理を行う。その後、処理はステップS63に移行する。動画撮影モードのときの合成処理も、静止画撮影モードのときと同様にして行われてよい。 Here, the description returns to FIG. 7. In step S62 after the image capturing control for composition, the control unit 112 performs composition processing. After that, the process proceeds to step S63. The combining process in the moving image shooting mode may be performed in the same manner as in the still image shooting mode.

ステップS63において、制御部112は、合成処理の結果として得られた画像データに基づく画像を表示部104に表示させる。その後、処理はステップS54に移行する。この表示も静止画撮影モードのときの合成処理の結果の表示と同様に行われてよい。 In step S63, the control unit 112 causes the display unit 104 to display an image based on the image data obtained as a result of the combining process. After that, the process proceeds to step S54. This display may be performed similarly to the display of the result of the combining process in the still image shooting mode.

以上説明したように本実施形態においては、複数回の撮像を伴う合成処理は、対象物が止まっているとみなせるときに行われる。これによって合成が適切に行われるので、合成画像の画質は向上する。 As described above, in the present embodiment, the combining process involving a plurality of times of imaging is performed when it can be considered that the target object is stopped. As a result, the composition is performed properly, and the image quality of the composite image is improved.

また、本実施形態では、静止画撮影モードのシーン判別モードにおいて仕上がり優先の設定がなされているときには、対象物が止まっていると見なせる状態でない、すなわち合成処理が行われていないとユーザが静止画撮影要求をしたとしても静止画像が記録されない。このように仕上がり優先の設定では画像の仕上がりがユーザの指示よりも優先される。このことによっても画質の向上を図ることが可能である。 In addition, in the present embodiment, when the finish priority setting is set in the scene determination mode of the still image shooting mode, the user is not in a state in which it can be considered that the target object is still, that is, the user does not perform the synthesizing process. Still images are not recorded even if a shooting request is made. In this way, in the finish priority setting, the finish of the image is prioritized over the user's instruction. This also makes it possible to improve the image quality.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、前述した実施形態では、HDR合成処理、NR合成処理、深度合成処理の3つが合成処理として例示されている。しかしながら、合成処理は、これらの3つの処理に限るものではない。すなわち、本実施形態の技術は、複数回の撮像動作を伴う各種の合成処理に対して適用され得る。 Although the present invention has been described based on the above-described embodiments, the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications and applications are possible within the scope of the gist of the present invention. For example, in the above-described embodiment, three types of HDR combination processing, NR combination processing, and depth combination processing are exemplified as the combination processing. However, the combining process is not limited to these three processes. That is, the technique of the present embodiment can be applied to various combining processes involving a plurality of imaging operations.

また、前述の実施形態では、合成用撮像制御の開始前だけ対象物が止まっているか否かの判定が行われる。実際には、合成用撮像制御の間にも対象物は動き得るので、合成用撮像制御の間にも対象物が止まっているか否かの判定が行われるようにしてもよい。この場合、対象物が止まっているとみなせないときには同じ条件での撮像をやり直すなどしてもよい。 Further, in the above-described embodiment, it is determined whether or not the target object is stopped only before the start of the image capturing control for synthesis. In practice, the object may move during the image capturing control for composition, and thus it may be determined whether the object is stopped during image capturing control for composition. In this case, when the target object cannot be regarded as stopped, the image capturing may be performed again under the same condition.

また、前述の実施形態では、撮像装置は、デジタルカメラ等の画像の記録を目的とした撮像装置を例に挙げている。これに対し、本実施形態の技術は、各種の撮像装置に適用されるものであり、画像の記録を行わない撮像装置に対しても適用され得る。この点で、例えば内視鏡装置、顕微鏡装置、監視装置といった撮像装置に対しても本実施形態の技術は適用され得る。例えば、画質の向上によって視認性の向上も期待される。このため、画像を確認することが多いこれらの撮像装置に対しても本実施形態の技術は有用である。特に、観察対象物が様々な反射率や遠近関係を有するような場合の近接撮影や顕微鏡観察時に、ピントの差異、露出の差異、拡大の有無など状況に応じて、画像合成を行っての表示は差異や効果が出やすくなるので、本願の発明は効果を奏する状況が多い。 Further, in the above-described embodiment, the image pickup apparatus is exemplified by an image pickup apparatus for recording an image such as a digital camera. On the other hand, the technique of the present embodiment is applied to various image pickup apparatuses, and can also be applied to an image pickup apparatus that does not record an image. In this respect, the technique of this embodiment can be applied to an imaging device such as an endoscope device, a microscope device, or a monitoring device. For example, improvement in image quality is expected to improve visibility. For this reason, the technique of the present embodiment is also useful for those image pickup apparatuses that often check images. In particular, when performing close-up photography or microscope observation when the observation target has various reflectances and perspectives, image synthesis is performed according to the situation such as focus difference, exposure difference, and enlargement. Since the difference and the effect are easily obtained, the invention of the present application is often effective.

また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Further, in the above description of each operation flowchart, the operation is described by using “first”, “next”, etc. for convenience, but it does not mean that it is essential to perform the operation in this order. Absent.

また、上述した実施形態による各処理は、コンピュータである制御部112に実行させることができるプログラムとして記憶させておくこともできる。この他、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記録媒体に格納して配布することができる。そして、制御部112は、この外部記憶装置の記録媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。 Further, each processing according to the above-described embodiment can be stored as a program that can be executed by the control unit 112 that is a computer. In addition, it can be stored and distributed in a recording medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory. Then, the control unit 112 reads the program stored in the recording medium of the external storage device, and the operation is controlled by the read program, whereby the above-described processing can be executed.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituents are deleted from all constituents shown in the embodiment, the constituents are deleted when the above-mentioned problems can be solved and the above-described effects can be obtained. The configuration can also be extracted as an invention.

102 撮像部、102a 撮像光学系、102b 撮像素子、102c 駆動部、104 表示部、106 仮記録部、108 記録部、110 操作部、112 制御部、1121 撮像制御部、1122 表示制御部、1123 画像処理部、1124 シーン判別部、1125 動き検出部。 102 image pickup unit, 102a image pickup optical system, 102b image pickup device, 102c drive unit, 104 display unit, 106 temporary recording unit, 108 recording unit, 110 operation unit, 112 control unit, 1121 image pickup control unit, 1122 display control unit, 1123 image Processing unit, 1124 scene determination unit, 1125 motion detection unit.

Claims (5)

対象物を撮像して前記対象物に係る画像データを得る撮像部と、
前記画像データにおける前記対象物の動きを検出する動き検出部と、
前記動き検出部による前記対象物の動きの検出の結果、前記対象物が止まっているとみなされるときに、複数の前記画像データの画像合成処理を伴う複数の適用処理の実施の有無を決定し、実施すると決定されたそれぞれの前記適用処理に要するフレーム数に基づいて総フレーム数を算出し、前記撮像部の撮像条件を変更しながら前記総フレーム数に応じた複数回の前記撮像を行わせ、複数回の前記撮像によって得られた画像データをそれぞれの前記適用処理に従って合成する処理を行う制御部とを具備し、
前記制御部は、実施すると決定された複数の前記適用処理の中で重複できるフレームがあるときには、前記重複できるフレームのフレーム数を削減して前記総フレーム数を算出することを特徴とする撮像装置。
An image capturing unit that captures an image of an object to obtain image data of the object;
A motion detector that detects the motion of the object in the image data,
As a result of the detection of the movement of the object by the movement detection unit, when it is considered that the object has stopped, it is determined whether or not to perform a plurality of application processes involving an image synthesizing process of the plurality of image data. The total number of frames is calculated based on the number of frames required for each of the application processes determined to be performed, and the imaging is performed a plurality of times according to the total number of frames while changing the imaging conditions of the imaging unit. And a control unit that performs a process of synthesizing image data obtained by a plurality of times of imaging according to each of the applying processes ,
An imaging device , wherein the control unit calculates the total number of frames by reducing the number of frames that can be overlapped when there is a frame that can be overlapped among the plurality of application processes that are determined to be performed. ..
前記制御部は、表示フレームレートに応じた上限に制限されるように、前記総フレーム数を算出することを特徴とする請求項1に記載の撮像装置。The image pickup apparatus according to claim 1, wherein the control unit calculates the total number of frames so as to be limited to an upper limit according to a display frame rate. ユーザからの撮影要求を受け付ける操作部をさらに具備し、
前記制御部は、前記対象物が止まっているとみなされないときには、前記撮影要求が受け付けられたとしても前記合成する処理を行わないことを特徴とする請求項1又は2に記載の撮像装置。
Further comprising an operation unit for receiving a photographing request from a user,
Wherein, when not considered when the object has stopped, the image pickup apparatus according to claim 1 or 2, characterized in that no processing is performed for the synthesized as the imaging request is received.
前記制御部は、複数回の前記撮像の間に前記撮像条件を連続的に変化させることを特徴とする請求項1乃至3の何れか1項に記載の撮像装置。 Wherein the control unit, the imaging apparatus according to multiple any one of claims 1 to 3 the imaging condition is characterized by continuously changing during the imaging. 撮像部によって対象物を撮像して前記対象物に係る画像データを得ることと、
前記画像データにおける前記対象物の動きを検出することと、
前記対象物の動きの検出の結果、前記対象物が止まっているとみなされるときに、複数の前記画像データの画像合成処理を伴う複数の適用処理の実施の有無を決定することと、
実施すると決定されたそれぞれの前記適用処理に要するフレーム数に基づいて総フレーム数を算出することと、
記撮像部の撮像条件を変更しながら前記総フレーム数に応じた複数回の前記撮像を行い、複数回の前記撮像によって得られた画像データをそれぞれの前記適用処理に従って合成することと、
を具備し、
前記総フレーム数を算出することは、実施すると決定された複数の前記適用処理の中で重複できるフレームがあるときには、前記重複できるフレームのフレーム数を削減して前記総フレーム数を算出することを含むことを特徴とする撮像方法。
Capturing an image of an object with an image capturing unit to obtain image data relating to the object,
Detecting movement of the object in the image data,
Result of the detection of movement of the object, when it is considered the object is stopped, and Rukoto to determine the presence or absence of implementation of the plurality of application processing involving image synthesis processing of the plurality of the image data,
Calculating the total number of frames based on the number of frames required for each of the application processes determined to be implemented;
Before SL performed a plurality of times of the image pickup in accordance with the total number of frames while changing the imaging condition of the imaging unit, and synthesizing the image data obtained by the imaging of multiple in accordance with the respective said application process,
Equipped with,
Calculating the total number of frames includes calculating the total number of frames by reducing the number of frames that can be overlapped when there is a frame that can be overlapped among the plurality of application processes that are determined to be performed. An image pickup method comprising :
JP2016132578A 2016-07-04 2016-07-04 Imaging device and imaging method Active JP6732572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016132578A JP6732572B2 (en) 2016-07-04 2016-07-04 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016132578A JP6732572B2 (en) 2016-07-04 2016-07-04 Imaging device and imaging method

Publications (3)

Publication Number Publication Date
JP2018007064A JP2018007064A (en) 2018-01-11
JP2018007064A5 JP2018007064A5 (en) 2019-08-15
JP6732572B2 true JP6732572B2 (en) 2020-07-29

Family

ID=60949988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016132578A Active JP6732572B2 (en) 2016-07-04 2016-07-04 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP6732572B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4003151B2 (en) * 1998-07-09 2007-11-07 富士フイルム株式会社 Imaging device
JP5133921B2 (en) * 2009-03-03 2013-01-30 富士フイルム株式会社 Imaging apparatus and imaging method
JP2010239277A (en) * 2009-03-30 2010-10-21 Fujifilm Corp Imaging device and imaging method
JP2011229008A (en) * 2010-04-21 2011-11-10 Canon Inc Image capturing apparatus and program
JP6112807B2 (en) * 2012-09-11 2017-04-12 株式会社キーエンス Shape measuring device, shape measuring method, and shape measuring program
JP2015073172A (en) * 2013-10-02 2015-04-16 キヤノン株式会社 Imaging apparatus, control method and program of the same

Also Published As

Publication number Publication date
JP2018007064A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP5574423B2 (en) Imaging apparatus, display control method, and program
JP5764740B2 (en) Imaging device
JP5950678B2 (en) Imaging apparatus, control method, and program
US20160006931A1 (en) Imaging apparatus and method for controlling the imaging apparatus
WO2016072103A1 (en) Imaging device, imaging method and processing program
JP2019054461A (en) Imaging apparatus and imaging method
JP2017021250A (en) Imaging device and image processing method
JP5765590B2 (en) Imaging apparatus, display method, and program
JP5906427B2 (en) Imaging device, image processing device
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
JP6758950B2 (en) Imaging device, its control method and program
JP2006030972A (en) Imaging apparatus and imaging method
JP6675917B2 (en) Imaging device and imaging method
JP5760654B2 (en) Image processing apparatus, image processing method, and program
JP6732572B2 (en) Imaging device and imaging method
JP6717354B2 (en) Image processing apparatus, image processing method and program
JP5831492B2 (en) Imaging apparatus, display control method, and program
JP7086774B2 (en) Imaging equipment, imaging methods and programs
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2006238085A (en) Digital camera and program
US11832020B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP6547742B2 (en) Imaging control apparatus, imaging apparatus and imaging control method
JP5663989B2 (en) Imaging apparatus and image composition program
JP2006287679A (en) Electronic camera
JP6148575B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R151 Written notification of patent or utility model registration

Ref document number: 6732572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250