JP6718762B2 - Image processing device, imaging device, image processing method, and program - Google Patents

Image processing device, imaging device, image processing method, and program Download PDF

Info

Publication number
JP6718762B2
JP6718762B2 JP2016143771A JP2016143771A JP6718762B2 JP 6718762 B2 JP6718762 B2 JP 6718762B2 JP 2016143771 A JP2016143771 A JP 2016143771A JP 2016143771 A JP2016143771 A JP 2016143771A JP 6718762 B2 JP6718762 B2 JP 6718762B2
Authority
JP
Japan
Prior art keywords
unit
image
area
synthesizing
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016143771A
Other languages
Japanese (ja)
Other versions
JP2018014651A (en
Inventor
薫示 高橋
薫示 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016143771A priority Critical patent/JP6718762B2/en
Publication of JP2018014651A publication Critical patent/JP2018014651A/en
Application granted granted Critical
Publication of JP6718762B2 publication Critical patent/JP6718762B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、時系列順に並ぶ複数の画像データを合成する画像処理装置、撮像装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program that combine a plurality of image data arranged in time series.

従来、デジタルカメラ等の撮像装置において、複数の画像データを合成して、1つの画像データを生成する技術が知られている。例えば、特許文献1には、撮影を行いながら順次生成された画像データを合成して合成画像データを生成し、この合成画像データに対応する合成画像内における所定領域の出力が目標出力に到達したときに撮影を終了する技術が開示されている。 2. Description of the Related Art Conventionally, a technique of synthesizing a plurality of image data to generate one image data in an image pickup apparatus such as a digital camera is known. For example, in Japanese Patent Application Laid-Open No. 2004-242242, image data generated sequentially while shooting is combined to generate combined image data, and the output of a predetermined area in the combined image corresponding to this combined image data reaches the target output. A technique for sometimes ending shooting is disclosed.

また、特許文献2には、画像の領域毎に異なる合成方法で画像を合成する技術が開示されている。この技術では、指定した画像の領域毎に、比較明合成や比較暗合成等の合成方法を選択して指定することによって、領域毎に異なる合成方法が施された合成画像を生成する。 In addition, Patent Document 2 discloses a technique of combining images by a different combining method for each image region. In this technique, a composite image subjected to a different composition method for each area is generated by selecting and specifying a composition method such as comparative bright composition or comparative dark composition for each area of the specified image.

特開2014−135609号公報JP, 2014-135609, A 特開2015−73199号公報Japanese Unexamined Patent Publication No. 2015-73199

ところで、画像合成を行う場合、ユーザの創作意図を反映するため、画像合成のための各種設定を自由に設定できることが望ましい。しかしながら、上述した特許文献1,2では、画像合成のための各種設定を自由に設定することができず、ユーザの創作意図を合成画像に反映することができなかった。 By the way, when performing image synthesis, it is desirable to be able to freely set various settings for image synthesis in order to reflect the user's creative intention. However, in the above-mentioned Patent Documents 1 and 2, it is not possible to freely set various settings for image composition, and it is not possible to reflect the user's original intention in the composite image.

本発明は、上記に鑑みてなされたものであって、ユーザの創作意図を反映した合成画像を生成することができる画像処理装置、撮像装置、画像処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide an image processing device, an imaging device, an image processing method, and a program that can generate a composite image that reflects a user's creative intention. ..

上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、複数の画像データに対応する複数の画像の各々の所定の領域に、該複数の画像の各々を合成するための少なくとも2つの合成方法を指定する合成方法指定部と、前記複数の画像の各々の前記所定の領域に含まれる画像情報を順次抽出する画像情報抽出部と、前記画像情報抽出部が順次抽出した前記画像情報に基づいて、前記所定の領域に指定された前記少なくとも2つの合成方法を切り替えながら前記複数の画像を順次合成して1つの合成データを生成する合成処理部と、を備えることを特徴とする。 In order to solve the above problems and achieve the object, an image processing apparatus according to the present invention synthesizes each of a plurality of images in a predetermined area of each of a plurality of images corresponding to a plurality of image data. For synthesizing at least two synthesizing methods, an image information extracting unit for sequentially extracting image information included in the predetermined area of each of the plurality of images, and an image information extracting unit for sequentially extracting the image information. A combination processing unit configured to sequentially combine the plurality of images and generate one combined data while switching the at least two combining methods specified in the predetermined region based on the image information. Characterize.

また、本発明に係る画像情報装置は、上記発明において、前記所定の領域を、前記複数の画像の各々に1つ以上指定する合成領域指定部をさらに備えることを特徴とする。 Further, the image information apparatus according to the present invention is characterized in that, in the above-mentioned invention, the image information apparatus further includes a composite area designating unit for designating one or more of the predetermined areas for each of the plurality of images.

また、本発明に係る画像情報装置は、上記発明において、前記合成方法指定部が前記所定の領域に指定した前記少なくとも2つの合成方法を切り替えるための閾値を指定する閾値指定部と、前記画像情報抽出部によって抽出された前記画像情報に応じて定まる値が前記閾値以上であるか否かを判定する閾値判定部と、をさらに備え、前記合成処理部は、前記閾値判定部の判定結果に基づいて、前記合成データを生成することを特徴とする。 Further, in the image information device according to the present invention, in the above invention, a threshold value designating unit that designates a threshold value for switching the at least two synthesis methods designated by the synthesis method designating unit in the predetermined area, and the image information. A threshold determination unit that determines whether or not the value determined according to the image information extracted by the extraction unit is equal to or greater than the threshold, and the combining processing unit is based on the determination result of the threshold determination unit. Then, the synthetic data is generated.

また、本発明に係る画像情報装置は、上記発明において、前記閾値指定部は、前記画像情報抽出部が前記複数の画像において最も古い前記画像に対して抽出した前記画像情報に応じて定まる値を前記閾値に指定することを特徴とする。 Further, in the image information device according to the present invention, in the above invention, the threshold value designation unit sets a value determined according to the image information extracted by the image information extraction unit for the oldest image in the plurality of images. It is characterized in that the threshold value is designated.

また、本発明に係る画像情報装置は、上記発明において、前記合成領域指定部によって前記所定の領域が2つ以上指定された場合において、互いの少なくとも一部の領域が重なる重複領域が発生したとき、該重複領域に対する前記合成方法の優先度を指定する優先度指定部をさらに備え、前記合成処理部は、前記優先度指定部によって指定された前記優先度の高い前記合成方法によって前記合成データを生成することを特徴とする。 Further, in the image information device according to the present invention, in the above invention, when two or more of the predetermined areas are designated by the synthesis area designating unit, an overlapping area in which at least some of the areas overlap each other occurs. Further comprising a priority designating unit for designating the priority of the synthesizing method for the overlapping area, and the synthesizing processing unit is configured to convert the synthetic data by the synthesizing method having the high priority designated by the priority designating unit. It is characterized by generating.

また、本発明に係る画像情報装置は、上記発明において、前記複数の画像の各々に写る特定の被写体を指定する被写体指定部と、前記被写体指定部によって指定された前記被写体が前記所定の領域に含まれている場合に、前記複数の画像の各々において前記被写体が写る位置を含む被写体領域を順次追尾する被写体追尾部と、をさらに備え、前記合成領域指定部は、前記被写体追尾部が順次追尾した前記被写体領域を前記所定の領域に指定することを特徴とする。 Further, in the image information device according to the present invention, in the above invention, a subject designation unit that designates a specific subject captured in each of the plurality of images, and the subject designated by the subject designation unit is in the predetermined region. And a subject tracking unit for sequentially tracking a subject region including a position where the subject is captured in each of the plurality of images, wherein the combined region designating unit sequentially tracks the subject tracking unit. The specified subject area is designated as the predetermined area.

また、本発明に係る画像情報装置は、上記発明において、前記合成方法は、比較明合成処理、比較暗合成処理、加算合成処理、平均合成処理、置換合成処理および非合成処理のいずれかであることを特徴とする。 Further, in the image information device according to the present invention, in the above invention, the synthesizing method is any one of a comparative bright synthesizing process, a comparative dark synthesizing process, an additive synthesizing process, an average synthesizing process, a replacing synthesizing process, and a non-synthesizing process. It is characterized by

また、本発明に係る画像情報装置は、上記発明において、前記画像情報は、輝度、色成分、画像データ間における画素値の変化量および画像データ間における被写体の移動量のいずれかであることを特徴とする。 Further, in the image information device according to the present invention, in the above invention, the image information is any one of a luminance, a color component, a change amount of a pixel value between image data, and a movement amount of a subject between image data. Characterize.

また、本発明に係る画像情報装置は、上記発明において、前記複数の画像の各々を表示可能な表示部と、前記画像情報抽出部が抽出した前記画像情報を前記表示部に表示させる表示制御部と、をさらに備えたことを特徴とする。 In the image information device according to the present invention, in the above invention, a display unit that can display each of the plurality of images, and a display control unit that displays the image information extracted by the image information extraction unit on the display unit. And are further provided.

また、本発明に係る画像情報装置は、上記発明において、前記複数の画像の各々を表示可能な表示部と、前記合成方法と前記閾値を前記表示部に表示させる表示制御部と、をさらに備えることを特徴とする。 Further, the image information device according to the present invention further comprises a display unit capable of displaying each of the plurality of images, and a display control unit for displaying the combining method and the threshold value on the display unit. It is characterized by

また、本発明に係る撮像装置は、上記の画像処理装置と、被写体を連続的に撮像して画像データを順次生成可能な撮像部と、前記合成処理部が生成した前記合成データを順次記録する記録部と、を備え、前記合成処理部は、前記撮像部が前記画像データを生成する毎に、前記記録部が記録する直前の前記合成データと合成して、新たな前記合成データを生成して前記記録部が記録する前記合成データを更新することを特徴とする。 Further, an image pickup apparatus according to the present invention sequentially records the above image processing apparatus, an image pickup section capable of continuously picking up an image of a subject and sequentially generating image data, and the combined data generated by the combining processing section. A recording unit, and the synthesizing processing unit generates new synthetic data by synthesizing with the synthetic data immediately before being recorded by the recording unit each time the imaging unit generates the image data. And updating the combined data recorded by the recording unit.

また、本発明に係る画像処理方法は、画像処理装置が実行する画像処理方法であって、複数の画像データに対応する複数の画像の各々の所定の領域に、該複数の画像の各々を合成するための少なくとも2つの合成方法を指定する合成方法指定ステップと、前記複数の画像の各々の前記所定の領域に含まれる画像情報を順次抽出する画像情報抽出ステップと、前記画像情報抽出ステップにおいて順次抽出した前記画像情報に基づいて、前記所定の領域に指定された前記少なくとも2つの合成方法を切り替えながら前記複数の画像を順次合成して1つの合成データを生成する合成処理ステップと、を含むことを特徴とする。 An image processing method according to the present invention is an image processing method executed by an image processing apparatus, wherein each of the plurality of images is combined with a predetermined area of each of the plurality of images corresponding to the plurality of image data. In order to specify at least two synthesizing methods, an image information extracting step for sequentially extracting image information included in the predetermined area of each of the plurality of images, and an image information extracting step A composition processing step of composing the plurality of images in sequence while switching the at least two composition methods specified in the predetermined area based on the extracted image information to generate one composite data. Is characterized by.

また、本発明に係るプログラムは、画像処理装置に、複数の画像データに対応する複数の画像の各々の所定の領域に、該複数の画像の各々を合成するための少なくとも2つの合成方法を指定する合成方法指定ステップと、前記複数の画像の各々の前記所定の領域に含まれる画像情報を順次抽出する画像情報抽出ステップと、前記画像情報抽出ステップにおいて順次抽出した前記画像情報に基づいて、前記所定の領域に指定された前記少なくとも2つの合成方法を切り替えながら前記複数の画像を順次合成して1つの合成データを生成する合成処理ステップと、を実行させることを特徴とする。 Further, the program according to the present invention specifies, in the image processing device, at least two combining methods for combining each of the plurality of images in a predetermined area of each of the plurality of images corresponding to the plurality of image data. A synthesizing method specifying step, an image information extracting step of sequentially extracting image information included in the predetermined area of each of the plurality of images, and based on the image information sequentially extracted in the image information extracting step, And a synthesizing step of sequentially synthesizing the plurality of images to generate one synthesized data while switching the at least two synthesizing methods designated in a predetermined area.

本発明によれば、ユーザの創作意図を反映した合成画像を生成することができるという効果を奏する。 According to the present invention, it is possible to generate a composite image that reflects the user's original intention.

図1は、本発明の実施の形態1に係る撮像装置の機能構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 1 of the present invention. 図2は、本発明の実施の形態1に係る撮像装置が実行する処理の概要を示すフローチャートである。FIG. 2 is a flowchart showing an outline of processing executed by the image pickup apparatus according to Embodiment 1 of the present invention. 図3は、本発明の実施の形態1に係る撮像装置の表示部が表示するライブビュー画像の一例を示す図である。FIG. 3 is a diagram showing an example of a live view image displayed by the display unit of the image pickup apparatus according to Embodiment 1 of the present invention. 図4は、図2の画像情報抽出処理の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of the image information extraction processing of FIG. 図5は、本発明の実施の形態1に係る撮像装置の表示部が表示する抽出領域の一例を示す図である。FIG. 5 is a diagram showing an example of an extraction area displayed by the display unit of the image pickup apparatus according to Embodiment 1 of the present invention. 図6は、本発明の実施の形態1に係る撮像装置の表示部が表示する画像情報の一例を示す図である。FIG. 6 is a diagram showing an example of image information displayed by the display unit of the image pickup apparatus according to Embodiment 1 of the present invention. 図7は、図2の合成設定処理の概要を示すフローチャートである。FIG. 7 is a flowchart showing an outline of the synthesis setting process of FIG. 図8は、本発明の実施の形態1に係る撮像装置の表示部が合成設定処理時に表示する画像の一例を示す図である。FIG. 8 is a diagram showing an example of an image displayed by the display unit of the image pickup apparatus according to Embodiment 1 of the present invention during the synthesis setting process. 図9は、本発明の実施の形態1に係る撮像装置の表示部が合成設定処理時に表示する画像の一例を示す図である。FIG. 9 is a diagram showing an example of an image displayed by the display unit of the image pickup apparatus according to Embodiment 1 of the present invention during the synthesis setting process. 図10は、図2の合成処理の概要を示すフローチャートである。FIG. 10 is a flowchart showing an outline of the combining process of FIG. 図11は、本発明の実施の形態1に係る撮像装置の合成処理部が合成する時系列に並ぶ画像群の一例を模式的に示す図である。FIG. 11 is a diagram schematically illustrating an example of a time-series image group that is combined by the combining processing unit of the image pickup apparatus according to Embodiment 1 of the present invention. 図12は、図11の画像群を従来の比較明合成処理によって合成した場合における合成画像の遷移を模式的に示す図である。FIG. 12 is a diagram schematically showing transition of a combined image when the images in FIG. 11 are combined by the conventional comparative bright combination processing. 図13は、本発明の実施の形態1に係る撮像装置の合成処理部が合成処理によって生成した合成画像の遷移を模式的に示す図である。FIG. 13 is a diagram schematically showing a transition of a combined image generated by the combining processing by the combining processing unit of the image pickup apparatus according to Embodiment 1 of the present invention. 図14は、本発明の実施の形態1の変形例1に係る撮像装置が実行する合成設定処理の概要を示すフローチャートである。FIG. 14 is a flowchart showing an outline of the composition setting process executed by the imaging device according to the first modification of the first embodiment of the present invention. 図15は、本発明の実施の形態1の変形例1に係る撮像装置の表示部が表示する画像の一例を示す図である。FIG. 15 is a diagram showing an example of an image displayed by the display unit of the imaging device according to the first modification of the first embodiment of the present invention. 図16は、本発明の実施の形態1の変形例2に係る撮像装置が時刻Tで生成した画像の一例を示す図である。FIG. 16 is a diagram showing an example of an image generated at time T by the imaging device according to the second modification of the first embodiment of the present invention. 図17は、本発明の実施の形態1の変形例2に係る撮像装置が時刻Tから所定時間t経過後に生成した画像の一例を示す図である。FIG. 17 is a diagram showing an example of an image generated by the imaging device according to the second modification of the first embodiment of the present invention after a predetermined time t has elapsed from time T. 図18は、本発明の実施の形態1の変形例2に係る撮像装置の画像情報処理部による処理を模式的に説明する図である。FIG. 18 is a diagram schematically illustrating processing performed by the image information processing unit of the imaging device according to the second modification of the first embodiment of the present invention. 図19は、本発明の実施の形態1の変形例2に係る撮像装置の合成設定処理の概要を模式的に説明する図である。FIG. 19 is a diagram schematically illustrating an outline of the synthesis setting process of the imaging device according to the second modification of the first embodiment of the present invention. 図20は、従来の比較明合成処理によって合成した場合における合成画像の遷移を模式的に示す図である。FIG. 20 is a diagram schematically showing a transition of a combined image when combined by the conventional comparative light combination processing. 図21は、本発明の実施の形態1の変形例2に係る撮像装置の合成処理部が合成処理によって生成した合成画像の遷移を模式的に示す図である。FIG. 21 is a diagram schematically showing a transition of a combined image generated by the combining processing by the combining processing unit of the imaging device according to the second modification of the first embodiment of the present invention. 図22は、本発明の実施の形態1の変形例3に係る撮像装置の処理の概要を示すフローチャートである。FIG. 22 is a flowchart showing an outline of processing of the image pickup apparatus according to the third modification of the first embodiment of the present invention. 図23は、本発明の実施の形態2に係る撮像装置の機能構成を示すブロック図である。FIG. 23 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 2 of the present invention. 図24は、本発明の実施の形態2に係る撮像装置が実行する合成設定処理の概要を示すフローチャートである。FIG. 24 is a flowchart showing an outline of the composition setting process executed by the imaging device according to the second embodiment of the present invention. 図25は、本発明の実施の形態2に係る撮像装置の表示部が表示する画像の一例を示す図である。FIG. 25 is a diagram showing an example of an image displayed by the display unit of the image pickup apparatus according to Embodiment 2 of the present invention. 図26は、本発明の実施の形態3に係る撮像装置の機能構成を示すブロック図である。FIG. 26 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 3 of the present invention. 図27は、本発明の実施の形態3に係る撮像装置が実行する合成設定処理の概要を示すフローチャートである。FIG. 27 is a flowchart showing an outline of the combination setting process executed by the imaging device according to the third embodiment of the present invention. 図28は、本発明の実施の形態3に係る撮像装置の表示部が表示する画像の一例を示す図である。FIG. 28 is a diagram showing an example of an image displayed by the display unit of the image pickup apparatus according to Embodiment 3 of the present invention. 図29は、本発明の実施の形態3に係る撮像装置が連続的に生成した画像群の一例を示す図である。FIG. 29 is a diagram showing an example of an image group continuously generated by the imaging device according to the third embodiment of the present invention. 図30は、発明の実施の形態3に係る撮像装置の画像合成部によって生成された合成画像の遷移を模式的に示す図である。FIG. 30 is a diagram schematically showing a transition of a combined image generated by the image combining unit of the image pickup apparatus according to Embodiment 3 of the present invention. 図31は、本発明の実施の形態4に係る撮像装置の機能構成を示すブロック図である。FIG. 31 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 4 of the present invention. 図32は、本発明の実施の形態4に係る撮像装置の合成情報記録部が記録する合成情報の一例を模式的に示す図である。FIG. 32 is a diagram schematically showing an example of the composite information recorded by the composite information recording unit of the image pickup apparatus according to Embodiment 4 of the present invention. 図33は、本発明の実施の形態4に係る撮像装置が生成する画像の一例を示す図である。FIG. 33 is a diagram showing an example of an image generated by the image pickup apparatus according to Embodiment 4 of the present invention. 図34は、本発明の実施の形態4が実行する合成設定処理の概要を示すフローチャートである。FIG. 34 is a flowchart showing an outline of the combination setting process executed by the fourth embodiment of the present invention. 図35は、本発明の実施の形態4に係る撮像装置の表示部が表示するメニュー画像の一例を示す図である。FIG. 35 is a diagram showing an example of a menu image displayed by the display unit of the image pickup apparatus according to Embodiment 4 of the present invention.

以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。 Hereinafter, modes for carrying out the present invention (hereinafter, referred to as “embodiments”) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. In the description of the drawings, the same parts will be denoted by the same reference numerals.

(実施の形態1)
〔撮像装置の構成〕
図1は、本発明の実施の形態1に係る撮像装置の機能構成を示すブロック図である。図1に示す撮像装置1は、撮像部10と、画像処理部20と、記録部21と、メモリI/F22と、記録媒体23と、表示部24と、入力部25と、バス26と、制御部27と、を備える。
(Embodiment 1)
[Structure of imaging device]
FIG. 1 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 1 of the present invention. The imaging device 1 shown in FIG. 1 includes an imaging unit 10, an image processing unit 20, a recording unit 21, a memory I/F 22, a recording medium 23, a display unit 24, an input unit 25, a bus 26, and And a control unit 27.

撮像部10は、被写体を撮像し、この被写体の画像データを生成する。撮像部10は、レンズ部11と、絞り12と、シャッタ13と、撮像素子14と、A/D変換部15と、駆動制御部16と、を有する。 The imaging unit 10 images a subject and generates image data of this subject. The imaging unit 10 includes a lens unit 11, a diaphragm 12, a shutter 13, an image sensor 14, an A/D conversion unit 15, and a drive control unit 16.

レンズ部11は、撮像素子14の受光面に光学像(被写体像)結像させる。レンズ部11は、一または複数のレンズを用いて構成される。例えば、レンズ部11は、フォーカスレンズおよびズームレンズ等を用いて構成される。レンズ部11は、駆動制御部16の制御のもと、光軸に沿って移動する。 The lens unit 11 forms an optical image (subject image) on the light receiving surface of the image sensor 14. The lens unit 11 is configured by using one or a plurality of lenses. For example, the lens unit 11 is configured by using a focus lens, a zoom lens, and the like. The lens unit 11 moves along the optical axis under the control of the drive control unit 16.

絞り12は、駆動制御部16の制御のもと、レンズ部11が集光した光の入射量を制限することにより露出の調整を行う。 Under the control of the drive control unit 16, the diaphragm 12 adjusts the exposure by limiting the incident amount of the light condensed by the lens unit 11.

シャッタ13は、駆動制御部16の制御のもと、開閉動作を行うことによって、撮像素子14の状態を露光状態または遮光状態に切り替える。また、シャッタ13は、駆動制御部16の制御のもと、撮像素子14に入射する光の入射時間であるシャッタ速度を調整する。 Under the control of the drive control unit 16, the shutter 13 switches the state of the image sensor 14 to the exposure state or the light shielding state by performing the opening/closing operation. Under the control of the drive control unit 16, the shutter 13 adjusts the shutter speed, which is the incident time of light that enters the image sensor 14.

撮像素子14は、レンズ部11が集光した光学像を受光して光電変換を行うことによって電気信号を出力する複数の画素が2次元的に配列されたCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサを用いて構成される。撮像素子14は、駆動制御部16の制御のもと、所定のフレームレート、例えば30fpsや60fpsで連続的にアナログの画像データを生成してA/D変換部15へ出力する。 The image sensor 14 receives a optical image collected by the lens unit 11 and performs photoelectric conversion to output an electric signal, thereby forming a CMOS (Complementary Metal Oxide Semiconductor) and a CCD (Complementary Metal Oxide Semiconductor). It is configured using an image sensor such as a Charge Coupled Device). Under the control of the drive controller 16, the image sensor 14 continuously generates analog image data at a predetermined frame rate, for example, 30 fps or 60 fps, and outputs the analog image data to the A/D converter 15.

A/D変換部15は、駆動制御部16の制御のもと、撮像素子14から入力されたアナログの画像データに対して、A/D変換を行うことによって、デジタルの画像データを生成して出力する。 Under the control of the drive control unit 16, the A/D conversion unit 15 performs A/D conversion on the analog image data input from the image sensor 14 to generate digital image data. Output.

駆動制御部16は、制御部27の制御のもと、撮像部10全体の制御を行う。具体的には、駆動制御部16は、レンズ部11の駆動制御を行うことによって、ズーム位置やピント位置の制御、絞り12やシャッタ13の開閉状態を制御する。また、駆動制御部16は、撮像素子14の光の露光時間(受光時間)や画像データの読み出しタイミングを制御する。 The drive control unit 16 controls the entire imaging unit 10 under the control of the control unit 27. Specifically, the drive control unit 16 controls the drive of the lens unit 11 to control the zoom position and the focus position and the open/close state of the diaphragm 12 and the shutter 13. The drive control unit 16 also controls the light exposure time (light reception time) of the image sensor 14 and the image data read timing.

画像処理部20は、撮像部10が生成した画像データに対して、各種の画像処理を行って出力する。なお、画像処理部20の詳細な構成は、後述する。 The image processing unit 20 performs various kinds of image processing on the image data generated by the imaging unit 10 and outputs the image data. The detailed configuration of the image processing unit 20 will be described later.

記録部21は、ROM(Read Only Memory)やRAM(Random Access Memory)等を用いて構成され、バス26を介してA/D変換部15から入力される画像データ、撮像装置1の処理中の情報を一時的に記録する。また、記録部21は、プログラム記録部21aを有する。プログラム記録部21aは、撮像装置1を動作させるための各種プログラムや本実施の形態1に係るプログラムおよびプログラムの実行中に使用される各種データを記録する。 The recording unit 21 is configured by using a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and has image data input from the A/D conversion unit 15 via the bus 26 and processing being performed by the imaging device 1. Record information temporarily. The recording unit 21 also has a program recording unit 21a. The program recording unit 21a records various programs for operating the imaging apparatus 1, the program according to the first embodiment, and various data used during execution of the programs.

記録媒体23は、撮像装置1の外部から装着されるメモリカード等を用いて構成される。記録媒体23は、メモリI/F22を介して撮像装置1に着脱自在に装着される。記録媒体23には、画像処理部20によって画像処理が施された画像データやA/D変換部15によって生成されたデジタルの画像データ(RAWデータ)が書き込まれることによって記録される。また、記録媒体23は、メモリI/F22を介して記録された画像データが読み出される。 The recording medium 23 is configured by using a memory card or the like mounted from the outside of the imaging device 1. The recording medium 23 is detachably attached to the imaging device 1 via the memory I/F 22. The recording medium 23 is recorded by writing image data that has been subjected to image processing by the image processing unit 20 and digital image data (RAW data) generated by the A/D conversion unit 15. Further, the recording medium 23 reads the image data recorded via the memory I/F 22.

表示部24は、制御部27の制御のもと、バス26を介して記録部21または記録媒体23に記録された画像データに対応する画像を表示する。ここで、画像の表示には、撮影直後に画像データを所定時間(例えば3秒間)だけ表示する確認表示(レックビュー表示)、記録媒体23に記録された画像データに対応する画像を再生する再生表示、および撮像部10が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー表示等が含まれる。表示部24は、液晶または有機EL(Electro Luminescence)等の表示パネル等を用いて構成される。 Under the control of the control unit 27, the display unit 24 displays an image corresponding to the image data recorded in the recording unit 21 or the recording medium 23 via the bus 26. Here, as the image display, a confirmation display (REC view display) for displaying image data for a predetermined time (for example, 3 seconds) immediately after shooting, and a reproduction for reproducing an image corresponding to the image data recorded in the recording medium 23 Display, and live view display for sequentially displaying live view images corresponding to image data continuously generated by the imaging unit 10 in a time series are included. The display unit 24 is configured by using a display panel or the like such as liquid crystal or organic EL (Electro Luminescence).

入力部25は、ボタンやスイッチ類等の物理スイッチや表示部24の表示領域上に重畳して設けられたタッチパネル等を用いて構成される。入力部25は、撮像装置1に関する操作の入力を受け付ける。具体的には、入力部25は、撮像装置1の電源状態をオン状態またはオフ状態に切り替える指示信号、撮像装置1に撮影の指示を与えるレリーズ信号、各種の操作を指定する指定信号の入力を受け付ける。タッチパネルは、外部からの物体のタッチ位置を検出し、この検出したタッチ位置に応じた位置信号を、バス26を介して制御部27へ出力する。 The input unit 25 is configured by using physical switches such as buttons and switches, a touch panel that is provided so as to be superimposed on the display area of the display unit 24, and the like. The input unit 25 receives an input of an operation related to the imaging device 1. Specifically, the input unit 25 inputs an instruction signal for switching the power supply state of the image pickup apparatus 1 to an on state or an off state, a release signal for giving an image pickup instruction to the image pickup apparatus 1, and a designation signal for designating various operations. Accept. The touch panel detects a touch position of an object from the outside and outputs a position signal corresponding to the detected touch position to the control unit 27 via the bus 26.

バス26は、撮像装置1の各構成部を接続する伝送路等を用いて構成される。バス26は、撮像装置1の内部で発生した各種データを撮像装置1の各構成部へ転送する。 The bus 26 is configured by using a transmission line or the like that connects the respective components of the image pickup apparatus 1. The bus 26 transfers various data generated inside the imaging device 1 to each component of the imaging device 1.

制御部27は、CPU(Central Processing Unit)等を用いて構成され、撮像装置1を構成する各部に対する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。 The control unit 27 is configured by using a CPU (Central Processing Unit) or the like, and controls the operation of the image pickup apparatus 1 by giving instructions and data to each unit included in the image pickup apparatus 1 and the like.

〔画像処理部の構成〕
次に、画像処理部20の詳細な構成について説明する。
画像処理部20は、画像合成部30と、画像情報処理部40と、現像処理部50と、を備える。
[Configuration of image processing unit]
Next, a detailed configuration of the image processing unit 20 will be described.
The image processing unit 20 includes an image composition unit 30, an image information processing unit 40, and a development processing unit 50.

画像合成部30は、撮像部10が生成した複数の画像データを合成して合成画像データを生成する。画像合成部30は、合成領域指定部301と、合成方法指定部302と、閾値指定部303と、閾値判定部304と、合成処理部305と、を有する。 The image synthesis unit 30 synthesizes the plurality of image data generated by the imaging unit 10 to generate synthetic image data. The image synthesizing unit 30 includes a synthesizing area designating unit 301, a synthesizing method designating unit 302, a threshold designating unit 303, a threshold determining unit 304, and a synthesizing processing unit 305.

合成領域指定部301は、合成方法指定部302による2つの合成方法を指定可能な所定の領域(以下、「合成領域」という)を、時系列順に並ぶ複数の画像データに対応する複数の画像の各々に1つ以上指定する。具体的には、合成領域指定部301は、入力部25から入力される指示信号に応じて、時系列順に並ぶ複数の画像の各々に合成領域を指定する。 The composition area designating unit 301 defines a predetermined area (hereinafter, referred to as “composite area”) in which two composition methods can be designated by the composition method designating unit 302, from among a plurality of images corresponding to a plurality of image data arranged in chronological order. Specify one or more for each. Specifically, the synthesis area designating unit 301 designates a synthesis area for each of the plurality of images arranged in chronological order according to the instruction signal input from the input unit 25.

合成方法指定部302は、時系列順に並ぶ複数の画像データに対応する複数の画像の各々の所定の領域に、複数の画像の各々を合成するための2つの合成方法を指定する。具体的には、合成方法指定部302は、入力部25から入力される指示信号に応じて、後述する合成処理部305が実行可能な2つの合成方法を、合成領域指定部301によって指定された合成領域に指定する。例えば、合成方法指定部302は、入力部25から入力される指示信号に応じて、合成領域指定部301によって指定された合成領域に、後述する合成処理部305による比較明合成処理と比較暗合成処理とを指定する。 The synthesizing method designation unit 302 designates two synthesizing methods for synthesizing each of the plurality of images in a predetermined area of each of the plurality of images corresponding to the plurality of image data arranged in time series. Specifically, the synthesis method designating unit 302 designates, by the synthesis region designating unit 301, two synthesis methods that can be executed by the synthesis processing unit 305, which will be described later, according to an instruction signal input from the input unit 25. Specify in the composition area. For example, the synthesizing method designating unit 302, in accordance with the instruction signal input from the input unit 25, adds a comparative bright synthesizing process and a comparative dark synthesizing process to the synthesizing region designated by the synthesizing region designating unit 301 by the synthesizing processing unit 305 described later. Specify the process.

閾値指定部303は、合成方法指定部302が合成領域に指定した2つの合成方法を切り替えるための閾値を指定する。具体的には、入力部25から入力される指示信号に応じて、閾値を指定する。 The threshold value specifying unit 303 specifies a threshold value for switching between the two combining methods specified in the combining area by the combining method specifying unit 302. Specifically, the threshold value is designated according to the instruction signal input from the input unit 25.

閾値判定部304は、後述する画像情報処理部40の画像情報抽出部402によって抽出された画像情報に応じて定まる値が閾値以上であるか否かを判定する。例えば、閾値判定部304は、画像情報に含まれる輝度成分が閾値以上であるか否かを判定する。 The threshold value determination unit 304 determines whether or not the value determined according to the image information extracted by the image information extraction unit 402 of the image information processing unit 40, which will be described later, is a threshold value or more. For example, the threshold determination unit 304 determines whether or not the brightness component included in the image information is equal to or greater than the threshold.

合成処理部305は、合成領域指定部301によって指定された合成領域および合成方法指定部302によって指定された合成方法に基づいて、少なくとも2つ以上の画像データを合成して合成画像データを生成する。具体的には、合成処理部305は、合成方法指定部302によって合成領域に指定された2つの合成方法を順次切り替えながら時系列順に並ぶ複数の画像を順次合成して1つの合成データを生成する。合成処理部305は、比較明合成処理部305aと、比較暗合成処理部305bと、加算合成処理部305cと、平均合成処理部305dと、置換合成処理部305eと、を有する。 The combining processing unit 305 combines at least two pieces of image data based on the combining area specified by the combining area specifying unit 301 and the combining method specified by the combining method specifying unit 302 to generate combined image data. .. Specifically, the synthesis processing unit 305 sequentially synthesizes a plurality of images arranged in chronological order while sequentially switching the two synthesis methods designated in the synthesis area by the synthesis method designation unit 302 to generate one synthesized data. .. The composition processing unit 305 includes a comparative light composition processing unit 305a, a comparative dark composition processing unit 305b, an addition composition processing unit 305c, an average composition processing unit 305d, and a replacement composition processing unit 305e.

比較明合成処理部305aは、少なくとも2コマ以上の画像データを合成する際に、同じ画素アドレス(座標位置)の画素値を比較し、一番大きい画素値を合成画像の画素値(出力値)として合成画像データを生成する。 When synthesizing the image data of at least two frames or more, the comparative light composition processing unit 305a compares the pixel values of the same pixel address (coordinate position), and the largest pixel value is the pixel value (output value) of the composite image. To generate composite image data.

比較暗合成処理部305bは、少なくとも2コマ以上の画像データを合成する際に、同じ画素アドレスの画素値を比較し、一番小さい画素値を合成画像の画素値として合成画像データを生成する。 The comparative dark composition processing unit 305b compares the pixel values of the same pixel address when combining the image data of at least two frames or more, and generates the composite image data with the smallest pixel value as the pixel value of the composite image.

加算合成処理部305cは、少なくとも2コマ以上の画像データを合成する際に、同じ画素アドレスの画素の画素値を加算し、この加算した加算値を合成画像の画素値として合成画像データを生成する。 When synthesizing image data of at least two frames or more, the addition synthesizing processing unit 305c adds pixel values of pixels having the same pixel address, and generates synthetic image data by using the added value obtained as a pixel value of the synthetic image. ..

平均合成処理部305dは、少なくとも2コマ以上の画像データを合成する際に、同じ画素アドレスの画素値を平均し、この平均した平均値を合成画像の画素値として合成画像データを生成する。 When synthesizing image data of at least two frames, the average synthesizing processing unit 305d averages pixel values of the same pixel address, and generates synthetic image data by using the averaged average value as a pixel value of the synthetic image.

置換合成処理部305eは、2コマの画像データに対応する2コマの画像を合成する際に、同じ画素アドレスの画素値のいずれか一方の画素値を合成画像の画素値として合成画像データを生成する。 The replacement composition processing unit 305e generates composite image data by using one of the pixel values of the same pixel address as the pixel value of the composite image when combining the images of the two frames corresponding to the image data of the two frames. To do.

画像情報処理部40は、撮像部10が生成した画像データに対して、所定の領域に含まれる画像情報を抽出し、この抽出した情報を表示部24に表示させる。画像情報処理部40は、情報領域指定部401と、画像情報抽出部402と、表示制御部403と、を有する。 The image information processing unit 40 extracts image information included in a predetermined area from the image data generated by the imaging unit 10, and causes the display unit 24 to display the extracted information. The image information processing unit 40 includes an information area designation unit 401, an image information extraction unit 402, and a display control unit 403.

情報領域指定部401は、画像情報抽出部402が画像情報を抽出するための情報領域を指定する。具体的には、入力部25から入力される指示信号に応じて、画像情報抽出部402が画像情報を抽出するための情報領域を指定する。 The information area designation unit 401 designates an information area for the image information extraction unit 402 to extract image information. Specifically, according to the instruction signal input from the input unit 25, the image information extraction unit 402 specifies the information area for extracting the image information.

画像情報抽出部402は、情報領域指定部401が指定した情報領域に含まれる画像情報を抽出する。ここで、画像情報とは、輝度、色成分、画像データ間の画素値の変化量および被写体の移動量のいずれか1つ以上である。 The image information extraction unit 402 extracts the image information included in the information area designated by the information area designation unit 401. Here, the image information is any one or more of the luminance, the color component, the change amount of the pixel value between the image data, and the movement amount of the subject.

表示制御部403は、画像情報抽出部402が抽出した画像情報を表示部24に表示させる。 The display control unit 403 causes the display unit 24 to display the image information extracted by the image information extraction unit 402.

現像処理部50は、撮像部10から出力された画像データまたは画像合成部30によって生成された合成画像データに対して、所定の画像処理を行って画像データまたは合成画像データを現像して表示部24または記録媒体23へ出力する。ここで、所定の画像処理とは、デモザイキング処理、ノイズリダクション処理、ホワイトバランス処理、リサイズ処理および圧縮処理等である。 The development processing unit 50 performs predetermined image processing on the image data output from the imaging unit 10 or the combined image data generated by the image combining unit 30 to develop the image data or the combined image data and display the image data. 24 or the recording medium 23. Here, the predetermined image processing includes demosaicing processing, noise reduction processing, white balance processing, resizing processing, compression processing, and the like.

〔撮像装置の処理〕
次に、撮像装置1が実行する処理について説明する。図2は、撮像装置1が実行する処理の概要を示すフローチャートである。
[Processing of imaging device]
Next, the processing executed by the imaging device 1 will be described. FIG. 2 is a flowchart showing an outline of processing executed by the image pickup apparatus 1.

図2に示すように、まず、制御部27は、撮像部10に撮像させ、画像処理部20が画像データに画像処理を施した画像データに対応するライブビュー画像を表示部24に表示させる(ステップS101)。具体的には、図3に示すように、表示部24は、撮像部10によって生成されたライブビュー画像LV1を表示する。 As shown in FIG. 2, the control unit 27 first causes the image capturing unit 10 to capture an image, and causes the display unit 24 to display a live view image corresponding to image data obtained by performing image processing on the image data by the image processing unit 20 ( Step S101). Specifically, as shown in FIG. 3, the display unit 24 displays the live view image LV1 generated by the imaging unit 10.

続いて、画像情報処理部40は、撮像部10が生成した画像データに対応する画像から輝度およびRGB成分等の情報を抽出して表示する画像情報抽出処理を実行する(ステップS102)。 Subsequently, the image information processing unit 40 executes an image information extraction process of extracting and displaying information such as brightness and RGB components from the image corresponding to the image data generated by the imaging unit 10 (step S102).

〔画像情報抽出処理〕
図4は、図2のステップS102における画像情報抽出処理の概要を示すフローチャートである。
[Image information extraction processing]
FIG. 4 is a flowchart showing an outline of the image information extraction processing in step S102 of FIG.

図4に示すように、表示制御部403は、画像情報を抽出する抽出領域を表示部24が表示するライブビュー画像LV1に重畳して表示させる(ステップS201)。具体的には、図5に示すように、表示制御部403は、ライブビュー画像LV1上に抽出領域Z1を重畳して表示部24に表示させる。これにより、ユーザは、現在の抽出領域Z1を直感的に把握することができる。 As illustrated in FIG. 4, the display control unit 403 causes the live view image LV1 displayed by the display unit 24 to be superimposed and displayed with an extraction region for extracting image information (step S201). Specifically, as shown in FIG. 5, the display control unit 403 causes the display unit 24 to display the extraction region Z1 superimposed on the live view image LV1. This allows the user to intuitively understand the current extraction area Z1.

続いて、情報領域指定部401は、入力部25からの指示信号に応じて、画像情報を抽出する抽出領域を指定する(ステップS202)。 Subsequently, the information area designating unit 401 designates an extraction area from which image information is extracted according to the instruction signal from the input unit 25 (step S202).

その後、画像情報抽出部402は、情報領域指定部401によって指定された抽出領域の画像情報を抽出する(ステップS203)。 After that, the image information extraction unit 402 extracts the image information of the extraction area designated by the information area designation unit 401 (step S203).

続いて、表示制御部403は、画像情報抽出部402が抽出した画像情報をライブビュー画像LV1上に重畳して表示部24に表示させる(ステップS204)。具体的には、図6に示すように、表示制御部403は、画像情報A1をライブビュー画像LV1上に重畳して表示部24に表示させる。これにより、ユーザは、入力部25を介して指定した領域の画像情報を直感的に把握することができる。なお、図6において、画像情報として、抽出領域における各成分の平均値の輝度成分(Y:22)、R成分(R:22)、G成分(G:35)およびB成分(B:15)の各々を表示させているが、これ以外にも、例えば彩度やヒストグラム等を表示させてもよい。もちろん、所定の成分、例えば、輝度成分のみを表示させてもよい。また、画像情報抽出部402は、複数のライブビュー画像について、各コマの平均値の輝度成分(R成分、G成分、B成分)を計算し、その値の平均値や、最大値、最小値を表示させても良い。また、画像情報抽出部402は、ライブビュー画像LV1から画像情報を抽出していたが、後述する合成途中の画像から画像情報を抽出してもよい。 Subsequently, the display control unit 403 superimposes the image information extracted by the image information extraction unit 402 on the live view image LV1 and displays it on the display unit 24 (step S204). Specifically, as shown in FIG. 6, the display control unit 403 causes the display unit 24 to display the image information A1 superimposed on the live view image LV1. This allows the user to intuitively understand the image information of the area designated via the input unit 25. In FIG. 6, as image information, the luminance component (Y:22), the R component (R:22), the G component (G:35), and the B component (B:15) of the average value of each component in the extraction region are included. However, in addition to this, for example, saturation, histogram, etc. may be displayed. Of course, only a predetermined component, for example, the luminance component may be displayed. Further, the image information extraction unit 402 calculates the brightness component (R component, G component, B component) of the average value of each frame for a plurality of live view images, and the average value, maximum value, and minimum value of the values. May be displayed. Further, although the image information extraction unit 402 extracts the image information from the live view image LV1, the image information may be extracted from an image in the process of combining, which will be described later.

その後、入力部25から画像情報を抽出する抽出領域を追加指定する指示信号が入力された場合(ステップS205:Yes)、撮像装置1は、上述したステップS202へ戻る。これに対して、入力部25から画像情報を抽出する抽出領域を追加する指示信号が入力されていない場合(ステップS205:No)、撮像装置1は、図2のメインルーチンへ戻る。 After that, when the instruction signal for additionally designating the extraction region for extracting the image information is input from the input unit 25 (step S205: Yes), the imaging device 1 returns to step S202 described above. On the other hand, when the instruction signal for adding the extraction region for extracting the image information is not input from the input unit 25 (step S205: No), the imaging device 1 returns to the main routine of FIG.

図2へ戻り、ステップS103以降の説明を続ける。
ステップS103において、画像合成部30は、ユーザによって指定された領域毎に指定された合成方法を設定する合成設定処理を実行する。
Returning to FIG. 2, the description of step S103 and subsequent steps will be continued.
In step S103, the image composition unit 30 executes composition setting processing for setting the composition method specified for each area specified by the user.

〔合成設定処理〕
図7は、図2のステップS103の合成設定処理の概要を示すフローチャートである。図8は、合成設定処理を模式的に説明する図である。
[Composition setting process]
FIG. 7 is a flowchart showing an outline of the synthesis setting process of step S103 of FIG. FIG. 8 is a diagram schematically illustrating the combination setting process.

図7に示すように、合成領域指定部301は、入力部25からの指示信号に応じて、2コマ以上の画像を合成する際に、互いに異なる合成方法を行うための合成領域を指定する(ステップS301)。具体的には、図8に示すように、合成領域指定部301は、入力部25からの指示信号に応じて、2コマ以上の画像を合成する際に、互いに異なる合成方法を行うための合成領域R1を指定する。これにより、表示制御部403は、合成領域指定部301が指定した合成領域R1をライブビュー画像LV1上に重畳して表示部24に表示させる。この場合、表示制御部403は、指定された合成領域R1以外の領域に対する合成モードによる合成方法に関するアイコンA12および合成方法の情報A121を表示部24に表示させる。さらに、表示制御部403は、後述する合成領域R1に対して指定する合成方法の閾値に関する情報A10および合成領域R1に対する合成方法に関するアイコンA11を表示部24に表示させる。さらにまた、表示制御部403は、後述する閾値に応じて設定する合成方法に関する情報A111および情報A112を表示部24に表示させる。 As shown in FIG. 7, the synthesis area designating unit 301 designates a synthesis area for performing different synthesizing methods when synthesizing images of two or more frames according to an instruction signal from the input unit 25 ( Step S301). Specifically, as shown in FIG. 8, the composition area designating unit 301 composes different composition methods when composing images of two or more frames according to an instruction signal from the input unit 25. The region R1 is designated. As a result, the display control unit 403 causes the display unit 24 to display the combined area R1 specified by the combined area specifying unit 301 in a superimposed manner on the live view image LV1. In this case, the display control unit 403 causes the display unit 24 to display the icon A12 related to the combining method in the combining mode for the area other than the specified combining area R1 and the information A121 of the combining method. Further, the display control unit 403 causes the display unit 24 to display the information A10 regarding the threshold value of the combining method specified for the combining area R1 described later and the icon A11 regarding the combining method for the combining area R1. Furthermore, the display control unit 403 causes the display unit 24 to display information A111 and information A112 related to the combining method set according to a threshold value described later.

続いて、合成方法指定部302は、入力部25からの指示信号に応じて、合成領域指定部301が指定した合成領域に対して、合成処理部305が合成処理する合成方法を指定する(ステップS302)。具体的には、図9に示すように、ユーザが入力部25を介してアイコンA11の情報A111を選択した場合、表示制御部403は、合成可能な複数の合成処理を表示部24に表示させる。ユーザは、入力部25を介して、表示された複数の合成処理の中から2つを選択する。これにより、合成方法指定部302は、入力部25からの指示信号に応じて、合成領域指定部301が指定した合成領域に対して、合成処理部305が合成処理する2つの合成方法を指定する。なお、情報A111には、比較明合成処理、比較暗合成処理、加算合成処理、平均合成処理、置換合成処理および非合成が含まれる。 Subsequently, the synthesis method designating unit 302 designates a synthesis method to be synthesized by the synthesis processing unit 305 with respect to the synthesis area designated by the synthesis area designating unit 301 in accordance with the instruction signal from the input unit 25 (step S302). Specifically, as shown in FIG. 9, when the user selects the information A111 of the icon A11 via the input unit 25, the display control unit 403 causes the display unit 24 to display a plurality of synthesizing processes that can be combined. .. The user selects two from the displayed plurality of combining processes via the input unit 25. As a result, the synthesizing method designating unit 302 designates, in accordance with the instruction signal from the input unit 25, two synthesizing methods to be synthesized by the synthesizing processing unit 305 with respect to the synthesizing area designated by the synthesizing area designating unit 301. .. The information A111 includes a comparative light composition process, a comparative dark composition process, an additive composition process, an average composition process, a replacement composition process, and a non-composition.

その後、閾値指定部303は、入力部25からの指示信号に応じて、合成方法指定部302が合成領域に対して指定した2つの合成方法を切り替えるための閾値を指定する(ステップS303)。具体的には、図8に示すように、ユーザは、入力部25を介して表示部24が情報A100において表示する各画像情報を選択し、合成領域R1に対する合成処理を行う際の閾値を入力する。これにより、閾値指定部303は、入力部25からの指示信号に応じて、合成方法指定部302が合成領域に対して指定した2つの合成方法を切り替えるための閾値を指定することができる。 After that, the threshold designation unit 303 designates a threshold for switching between the two synthesis methods designated by the synthesis method designation unit 302 for the synthesis area in response to the instruction signal from the input unit 25 (step S303). Specifically, as shown in FIG. 8, the user selects each image information displayed in the information A100 by the display unit 24 via the input unit 25, and inputs the threshold value when performing the combining process on the combining region R1. To do. Accordingly, the threshold value specifying unit 303 can specify a threshold value for switching between the two combining methods specified by the combining method specifying unit 302 for the combining area in accordance with the instruction signal from the input unit 25.

続いて、入力部25から合成領域を追加指定する指示信号が入力された場合(ステップS304:Yes)、撮像装置1は、上述したステップS301へ戻る。これに対して、入力部25から合成領域を追加指定する指示信号が入力されていない場合(ステップS304:No)、撮像装置1は、図2のメインルーチンへ戻る。 Subsequently, when the instruction signal for additionally designating the composite area is input from the input unit 25 (step S304: Yes), the imaging device 1 returns to step S301 described above. On the other hand, when the instruction signal for additionally designating the composite area is not input from the input unit 25 (step S304: No), the imaging device 1 returns to the main routine of FIG.

図2に戻り、ステップS104以降の説明を続ける。
ステップS104において、入力部25から撮影を指示する指示信号が入力された場合(ステップS104:Yes)、撮像部10は、撮像を実行する(ステップS105)。これに対して、入力部25から撮影を指示する指示信号が入力されていない場合(ステップS104:No)、撮像装置1は、この判断を続ける。
Returning to FIG. 2, the description of step S104 and subsequent steps will be continued.
In step S104, when the instruction signal for instructing the imaging is input from the input unit 25 (step S104: Yes), the imaging unit 10 executes the imaging (step S105). On the other hand, when the instruction signal for instructing the imaging is not input from the input unit 25 (step S104: No), the imaging device 1 continues this determination.

続いて、撮像部10によって撮像されて生成された画像データが1コマ目である場合(ステップS106:Yes)、撮像装置1は、後述するステップS108へ移行する。これに対して、撮像部10によって撮像されて生成された画像データが1コマ目でない場合(ステップS106:No)、画像合成部30は、少なくとも2コマ以上の画像データを合成する合成処理を実行する(ステップS107)。なお、合成処理の詳細は、後述する。ステップS107の後、撮像装置1は、後述するステップS108へ移行する。 Subsequently, when the image data captured and generated by the image capturing unit 10 is the first frame (step S106: Yes), the image capturing apparatus 1 proceeds to step S108 described below. On the other hand, when the image data captured and generated by the image capturing unit 10 is not the first frame (step S106: No), the image synthesizing unit 30 executes a synthesizing process of synthesizing image data of at least two frames or more. Yes (step S107). The details of the combining process will be described later. After step S107, the imaging device 1 moves to step S108 described later.

ステップS108において、制御部27は、撮像部10が生成した画像データを記録部21に一時的に記録させる。 In step S108, the control unit 27 causes the recording unit 21 to temporarily record the image data generated by the imaging unit 10.

続いて、現像処理部50は、記録部21に一時的に記録された画像データに対して現像処理を行う(ステップS109)。具体的には、現像処理部50は、画像データに対して、デモザイキング処理、ノイズリダクション処理、ホワイトバランス処理、リサイズ処理および圧縮処理を行って画像データの現像を行う。 Subsequently, the development processing unit 50 performs the development processing on the image data temporarily recorded in the recording unit 21 (step S109). Specifically, the development processing unit 50 develops image data by performing demosaicing processing, noise reduction processing, white balance processing, resizing processing, and compression processing on the image data.

その後、制御部27は、所定時間、例えば3秒間だけ撮影結果を表示部24に表示させる(ステップS110)。 After that, the control unit 27 causes the display unit 24 to display the shooting result for a predetermined time, for example, 3 seconds (step S110).

続いて、入力部25から合成処理を終了する指示信号が入力された場合(ステップS111:Yes)、撮像装置1は、後述するステップS112へ移行する。これに対して、入力部25から合成処理を終了する指示信号が入力されていない場合(ステップS111:No)、撮像装置1は、上述したステップS105へ戻る。 Then, when the instruction signal for ending the combining process is input from the input unit 25 (step S111: Yes), the imaging device 1 proceeds to step S112 described below. On the other hand, when the instruction signal to end the combining process is not input from the input unit 25 (step S111: No), the imaging device 1 returns to step S105 described above.

ステップS112において、制御部27は、現像処理部50が生成した画像データを、メモリI/F22を介して記録媒体23に記録する(ステップS112)。 In step S112, the control unit 27 records the image data generated by the development processing unit 50 on the recording medium 23 via the memory I/F 22 (step S112).

続いて、制御部27は、現像処理部50が生成した画像データに対応する画像を表示部24に表示させる(ステップS113)。ステップS113の後、撮像装置1は、本処理を終了する。 Subsequently, the control unit 27 causes the display unit 24 to display an image corresponding to the image data generated by the development processing unit 50 (step S113). After step S113, the imaging device 1 ends this process.

〔合成処理〕
次に、上述した図2のステップS107において説明した合成処理の詳細について説明する。図10は、画像合成部30が実行する合成処理の概要を示すフローチャートである。
[Synthesis processing]
Next, details of the combining process described in step S107 of FIG. 2 described above will be described. FIG. 10 is a flowchart showing an outline of the combining process executed by the image combining unit 30.

図10に示すように、合成領域指定部301は、撮像部10が生成した画像データに対応する画像に対して、上述した図7のステップS301において指定した合成領域を選択する(ステップS401)。 As shown in FIG. 10, the synthesis area designating unit 301 selects the synthesis area designated in step S301 of FIG. 7 described above for the image corresponding to the image data generated by the imaging unit 10 (step S401).

続いて、画像情報抽出部402は、合成領域指定部301によって指定された合成領域の画像情報を抽出する(ステップS402)。 Subsequently, the image information extraction unit 402 extracts the image information of the combined area specified by the combined area specifying unit 301 (step S402).

その後、閾値判定部304は、画像情報抽出部402が抽出した画像情報が閾値指定部303によって指定された閾値以上であるか否かを判定する(ステップS403)。閾値判定部304によって画像情報抽出部402が抽出した画像情報が閾値以上であると判定された場合(ステップS403:Yes)、撮像装置1は、後述するステップS404へ移行する。これに対して、閾値判定部304によって画像情報抽出部402が抽出した画像情報が閾値以上でないと判定された場合(ステップS403:No)、撮像装置1は、後述するステップS405へ移行する。 Then, the threshold determination unit 304 determines whether the image information extracted by the image information extraction unit 402 is equal to or more than the threshold specified by the threshold specification unit 303 (step S403). When the threshold value determination unit 304 determines that the image information extracted by the image information extraction unit 402 is equal to or greater than the threshold value (step S403: Yes), the imaging device 1 proceeds to step S404 described below. On the other hand, when the threshold determination unit 304 determines that the image information extracted by the image information extraction unit 402 is not greater than or equal to the threshold (step S403: No), the imaging device 1 proceeds to step S405 described below.

ステップS404において、合成処理部305は、合成領域指定部301によって指定された合成領域に、合成方法指定部302によって画像情報が閾値以上のときに指定された合成方法(閾値以上で指定された第1合成方法)によって新たな画像データを合成する。ステップS404の後、撮像装置1は、後述するステップS406へ移行する。 In step S404, the combining processing unit 305, in the combining area specified by the combining area specifying unit 301, the combining method specified by the combining method specifying unit 302 when the image information is equal to or larger than the threshold (the first specified by the threshold or more). New image data is combined by the (1 combining method). After step S404, the imaging device 1 moves to step S406 described later.

ステップS405において、合成処理部305は、合成領域指定部301によって指定された合成領域に、合成方法指定部302によって画像情報が閾値以上でないとき(閾値未満)に指定された合成方法(閾値未満で指定された第2合成方法)によって新たな画像データを合成する。ステップS405の後、撮像装置1は、後述するステップS406へ移行する。 In step S405, the combining processing unit 305 determines that the combining method specified by the combining area specifying unit 301 when the image information is not greater than or equal to the threshold value (less than the threshold value) by the combining method specifying unit 302 (less than the threshold value). New image data is synthesized by the designated second synthesis method). After step S405, the imaging device 1 moves to step S406 described later.

図11は、合成処理部305が合成する時系列に並ぶ画像群の一例を模式的に示す図である。図12は、図11の画像群を従来の比較明合成処理によって合成した場合における合成画像の遷移を模式的に示す図である。図13は、合成処理部305が合成処理によって生成した合成画像の遷移を模式的に示す図である。また、図13では、合成領域指定部301によって指定された合成領域に、合成方法指定部302によって指定された合成方法によって合成された合成画像の遷移を模式的に示す。さらに、図13では、合成領域指定部301によって指定された合成領域以外の領域に比較明合成処理が指定され、かつ、合成領域については閾値以上の場合に合成なし(非合成)が指定され、閾値未満の場合に比較明合成処理が指定されているときについて説明する。なお、図12および図13では、合成方法指定部302によって比較明合成が指定された場合について説明するが、もちろん他の合成方法であっても同様である。 FIG. 11 is a diagram schematically illustrating an example of a time-series image group that is synthesized by the synthesis processing unit 305. FIG. 12 is a diagram schematically showing transition of a combined image when the images in FIG. 11 are combined by the conventional comparative bright combination processing. FIG. 13 is a diagram schematically showing the transition of the combined image generated by the combining processing unit 305 by the combining process. In addition, FIG. 13 schematically illustrates transitions of a combined image that is combined by the combining method specified by the combining method specifying unit 302 in the combining area specified by the combining area specifying unit 301. Further, in FIG. 13, the comparative bright combination process is specified for an area other than the combination area specified by the combination area specification unit 301, and no combination (non-combination) is specified for the combination area when the comparison area is equal to or more than the threshold value. A case where the comparative bright combination process is designated when the value is less than the threshold will be described. 12 and 13, the case where the comparative bright combination is specified by the combining method specifying unit 302 will be described, but the same applies to other combining methods.

図11に示すように、撮像装置1が星の軌跡を主要被写体として撮影している場合において、撮影の途中で車K1が通過したとき、車K1のヘッドライトの光も撮像する(画像P1→画像P2→画像P3→画像P4)。このため、図12に示すように、従来の比較明合成では、画像P1〜画像P4を時系列に沿って順次合成した場合、車K1のヘッドライトの光も徐々に合成されてしまう(画像P11→画像P12→画像P13→画像P14)。この結果、従来の比較明合成では、車K1のヘッドライトの軌跡が邪魔となり、撮影者の創作意図にそぐわない画像P14(合成画像)を生成してしまうという問題点があった。 As shown in FIG. 11, in the case where the image capturing apparatus 1 is capturing a star trajectory as a main subject, when the vehicle K1 passes through during capturing, the light of the headlight of the vehicle K1 is also captured (image P1→ Image P2→image P3→image P4). For this reason, as shown in FIG. 12, in the conventional comparative bright combination, when the images P1 to P4 are sequentially combined in a time series, the light of the headlight of the vehicle K1 is also gradually combined (image P11). → image P12 → image P13 → image P14). As a result, in the conventional comparative bright combination, there is a problem that the locus of the headlight of the car K1 becomes an obstacle and an image P14 (composite image) that does not meet the photographer's intention of creation is generated.

これに対して、図13に示すように、合成処理部305は、上述した図7において合成領域指定部301によって指定された合成領域R1に、閾値指定部303によって指定された閾値および合成方法指定部302によって指定された合成方法で画像P1に画像P2〜画像P4を時系列に沿って順次合成する合成処理を行う場合において、画像P2〜画像P4の合成領域R1における画像情報(例えば輝度)が閾値以上のとき、合成方法が合成なし(非合成)のため、画像P1の合成領域R1に画像P2〜P4を合成せず、画像P2〜画像P4の合成領域R1における画像情報(例えば輝度)が閾値未満のとき、画像P1の合成領域R1に画像P2〜P4を順次比較明合成する。さらに、合成処理部305は、合成領域R1以外の領域に対して、比較明合成を行う。これにより、本実施の形態1では、画像P1〜画像P4を時系列に沿って順次合成した場合、車K1のヘッドライトの軌跡がないうえ、星の軌跡が写る撮影者の創作意図に沿った合成画像(画像P21→画像P22→画像P23→画像P24)を生成することができる。 On the other hand, as shown in FIG. 13, the combining processing unit 305 specifies the threshold value and the combining method specified by the threshold value specifying unit 303 in the combining area R1 specified by the combining area specifying unit 301 in FIG. 7 described above. When performing a combining process of sequentially combining the images P2 to P4 with the image P1 in a time series by the combining method specified by the unit 302, image information (for example, brightness) in the combining region R1 of the images P2 to P4 is When the threshold value is equal to or more than the threshold value, the combination method is not combined (non-combined), and thus the images P2 to P4 are not combined in the combined area R1 of the image P1 and the image information (for example, brightness) in the combined area R1 of the images P2 to P4 is set. When it is less than the threshold value, the images P2 to P4 are sequentially compared and brightly combined in the combination area R1 of the image P1. Further, the combination processing unit 305 performs comparative bright combination on the area other than the combination area R1. As a result, in the first embodiment, when the images P1 to P4 are sequentially combined in a time series, there is no headlight trajectory of the car K1 and the photographer's original intention that the trajectory of the star appears is in line. A composite image (image P21→image P22→image P23→image P24) can be generated.

図10に戻り、ステップS406以降の説明を続ける。
ステップS406において、画像を合成する追加領域がある場合(ステップS406:Yes)、撮像装置1は、上述したステップS401へ戻る。これに対して、画像を合成する追加領域がない場合(ステップS406:No)、撮像装置1は、図2のメインルーチンへ戻る。
Returning to FIG. 10, the description of step S406 and subsequent steps will be continued.
In step S406, when there is an additional area where the images are combined (step S406: Yes), the imaging device 1 returns to step S401 described above. On the other hand, when there is no additional area for combining images (step S406: No), the imaging device 1 returns to the main routine of FIG.

以上説明した本発明の実施の形態1によれば、合成方法指定部302が複数の画像の各々の合成領域域に、複数の画像の各々を合成するための2つの合成方法を指定し、画像情報抽出部402が複数の画像の各々の所定の領域に含まれる画像情報を順次抽出し、合成処理部305が画像情報抽出部402によって順次抽出された画像情報に基づいて、合成領域に指定された2つの合成方法を切り替えながら複数の画像を順次合成して1つの合成データを生成するので、ユーザの創作意図を反映した合成画像を生成することができる。 According to the first embodiment of the present invention described above, the synthesizing method designating unit 302 designates two synthesizing methods for synthesizing each of a plurality of images in each synthesizing region area of the plurality of images, and The information extraction unit 402 sequentially extracts the image information included in a predetermined area of each of the plurality of images, and the synthesis processing unit 305 specifies the synthesis area based on the image information sequentially extracted by the image information extraction unit 402. Since a plurality of images are sequentially combined while one of the two combining methods is switched to generate one combined data, it is possible to generate a combined image that reflects the user's original intention.

また、本発明の実施の形態1によれば、閾値指定部303が合成方法指定部302によって合成領域に指定された2つの合成方法を切り替えるための閾値を指定し、閾値判定部304が画像情報抽出部402によって抽出された画像情報に応じて定まる値が閾値以上であるか否かを判定し、合成処理部305が閾値判定部304の判定結果に基づいて、合成データを生成するので、ユーザは、創作意図をより反映した合成画像を生成することができる。 Further, according to the first embodiment of the present invention, the threshold designating unit 303 designates a threshold for switching between the two synthesis methods designated in the synthesis area by the synthesis method designating unit 302, and the threshold determining unit 304 sets the image information. Since the value determined according to the image information extracted by the extraction unit 402 is greater than or equal to a threshold value, and the combination processing unit 305 generates combined data based on the determination result of the threshold value determination unit 304, the user Can generate a composite image that better reflects the original intention.

(実施の形態1の変形例1)
次に、本発明の実施の形態1の変形例1について説明する。本実施の形態1に係る変形例1は、上述した実施の形態1に係る撮像装置1と同様の構成を有し、画像合成部が実行する合成設定処理が異なる。具体的には、上述した実施の形態1では、入力部25から入力された指示信号に応じて、合成領域に指定された合成処理の内容を切り替える閾値を手動によって指定していたが、本実施の形態1の変形例1では、画像情報抽出部402によって抽出された画像情報に基づいて、合成領域に指定された合成処理の内容を切り替える閾値を自動的に指定する。以下においては、本実施の形態1の変形例1に係る画像合成部が実行する合成設定処理について説明する。なお、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して説明を省略する。
(Modification 1 of Embodiment 1)
Next, a first modification of the first embodiment of the present invention will be described. The first modification according to the first embodiment has the same configuration as that of the image pickup apparatus 1 according to the above-described first embodiment, and the composition setting process executed by the image composition unit is different. Specifically, in the above-described first embodiment, the threshold for switching the content of the composition process specified in the composition area is manually specified according to the instruction signal input from the input unit 25. In the first modification of the first embodiment, the threshold for switching the content of the composition process specified in the composition area is automatically specified based on the image information extracted by the image information extraction unit 402. In the following, a combination setting process executed by the image combining unit according to the first modification of the first embodiment will be described. The same components as those of the image pickup apparatus 1 according to the first embodiment described above are designated by the same reference numerals, and description thereof will be omitted.

〔合成設定処理〕
図14は、本発明の実施の形態1の変形例1に係る撮像装置1が実行する合成設定処理の概要を示すフローチャートである。図14において、ステップS501およびステップS503は、上述した図7のステップS302およびステップS304それぞれに対応する。
[Composition setting process]
FIG. 14 is a flowchart showing an outline of the combination setting process executed by the image pickup apparatus 1 according to the first modification of the first embodiment of the present invention. 14, steps S501 and S503 correspond to steps S302 and S304 of FIG. 7 described above, respectively.

ステップS502において、画像合成部30は、画像情報処理部40によって画像情報が抽出された抽出領域を合成領域に指定するとともに、画像情報を閾値に設定する。具体的には、図15に示すように、合成領域指定部301は、情報領域指定部401によって指定された抽出領域を合成領域R1に指定する。さらに、閾値指定部303は、画像情報抽出部402によって抽出された画像情報を合成領域に指定された合成方法の内容を切り替える閾値に指定する。この場合において、閾値指定部303は、画像情報抽出部402によって抽出された画像情報に所定の値を加算、減算、乗算および除算のいずれか1つを行った値を閾値に指定してもよい。例えば、図15に示す場合、閾値指定部303は、画像情報抽出部402によって抽出された画像情報に含まれる各値に対して、所定の値として+10を加算することによって閾値を指定する。なお、閾値指定部303は、画像情報抽出部402によって抽出された画像情報に、合成方法指定部302によって指定された合成処理の内容に応じて、所定の値を加算、減算、乗算および除算のいずれか1つを行った値を閾値に指定してもよい。また、閾値指定部303は、画像情報抽出部402によって抽出された複数の画像において最も古い画像の画像情報に応じて定まる値(抽出領域の輝度または色成分の平均値)を合成領域に指定された合成方法の内容を切り替える閾値に設定する。ステップS502の後、撮像装置1は、ステップS503へ移行する。 In step S502, the image composition unit 30 specifies the extraction region in which the image information is extracted by the image information processing unit 40 as the composition region, and sets the image information as the threshold value. Specifically, as shown in FIG. 15, the synthesis area designating unit 301 designates the extraction area designated by the information area designating unit 401 as the synthesis area R1. Further, the threshold value specifying unit 303 specifies the image information extracted by the image information extracting unit 402 as a threshold value for switching the content of the combining method specified in the combining area. In this case, the threshold value specifying unit 303 may specify a value obtained by adding any one of predetermined values to the image information extracted by the image information extracting unit 402, subtraction, multiplication, and division as the threshold value. .. For example, in the case shown in FIG. 15, the threshold designation unit 303 designates the threshold by adding +10 as a predetermined value to each value included in the image information extracted by the image information extraction unit 402. The threshold value specifying unit 303 adds, subtracts, multiplies, or divides the image information extracted by the image information extracting unit 402 by a predetermined value according to the content of the combining process specified by the combining method specifying unit 302. A value obtained by performing either one may be designated as the threshold value. Further, the threshold value designation unit 303 designates a value (luminance of the extraction region or an average value of color components) determined in accordance with the image information of the oldest image among the plurality of images extracted by the image information extraction unit 402, as the synthesis region. The threshold value for switching the contents of the combined method is set. After step S502, the imaging device 1 moves to step S503.

以上説明した本発明の実施の形態1の変形例1によれば、閾値指定部303が画像情報抽出部402によって複数の画像において最も古い画像に対して抽出した画像情報に応じて定まる値を閾値に指定するので、複雑な設定を行うことなく、抽出領域のみ指定することで、ユーザの創作意図を反映した合成画像を生成することができる。 According to the first modification of the first embodiment of the present invention described above, the threshold value specifying unit 303 sets a threshold value that is determined according to the image information extracted by the image information extracting unit 402 for the oldest image among the plurality of images. Therefore, by specifying only the extraction area without performing complicated settings, it is possible to generate a composite image that reflects the user's original intention.

(実施の形態1の変形例2)
次に、本発明の実施の形態1の変形例2について説明する。上述した実施の形態1では、画像情報としてYRGB(輝度成分、R成分、G成分およびB成分)を用いていたが、本実施の形態1の変形例2は、画像情報として時間的に並ぶ画像群において移動する被写体の移動量を用いる。また、本実施の形態1の変形例2に係る撮像装置は、上述した実施の形態1に係る撮像装置1と同様の処理を行うため、本実施の形態1の変形例2に係る撮像装置が実行する処理の詳細については説明を省略し、本実施の形態1の変形例2に係る撮像装置が実行する処理の概要について説明する。以下においては、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して説明を省略する。
(Modification 2 of Embodiment 1)
Next, a second modification of the first embodiment of the present invention will be described. In the above-described first embodiment, YRGB (luminance component, R component, G component, and B component) is used as the image information, but in the second modification of the first embodiment, images arranged temporally as image information. The movement amount of the moving subject in the group is used. Further, since the image pickup apparatus according to the second modification of the first embodiment performs the same processing as the image pickup apparatus 1 according to the above-described first embodiment, the image pickup apparatus according to the second modification of the first embodiment is The details of the processing to be executed are omitted, and the outline of the processing executed by the imaging device according to the second modification of the first embodiment will be described. In the following, the same components as those of the image pickup apparatus 1 according to the first embodiment described above are designated by the same reference numerals, and description thereof will be omitted.

〔画像情報抽出の概要〕
図16は、撮像装置1が時刻Tで生成した画像の一例を示す図である。図17は、撮像装置1が時刻Tから所定時間t経過後に生成した画像の一例を示す図である。図18は、画像情報処理部40による処理を模式的に説明する図である。なお、図17は、撮像装置1が画像Pを生成した同じ位置で所定時間t経過後に生成した画像であるため、画像PT+tに写る被写体の星が画像Pから移動している。
[Outline of image information extraction]
FIG. 16 is a diagram showing an example of an image generated by the imaging device 1 at time T. FIG. 17 is a diagram illustrating an example of an image generated by the imaging device 1 after a predetermined time t has elapsed from the time T. FIG. 18 is a diagram schematically illustrating the process performed by the image information processing unit 40. Since FIG. 17 is an image generated at the same position where the image pickup device 1 generated the image P T after a predetermined time t has elapsed, the star of the subject shown in the image P T+t has moved from the image P T.

図16〜図18に示すように、入力部25からの指示信号に応じて、画像情報を抽出する抽出領域R10が指定された場合、画像情報抽出部402は、画像Pおよび画像PT+tに基づいて、抽出領域R10において移動した被写体(星)の移動量を抽出する。具体的には、画像情報抽出部402は、抽出領域R10において移動した被写体(星)の移動量を画素数(ピクセル数)によって数値化し、この数値化した値を画像情報として抽出する。例えば、図16〜図18に示すように、画像情報抽出部402は、時刻Tから所定時間t経過後の時刻T+tにおいて、抽出領域R10を移動する複数の被写体の各々の移動量の平均が100ピクセルである場合、抽出領域R10における画像情報として100ピクセルを抽出する。この場合、画像情報抽出部402は、画像Pおよび画像PT+tに基づいて、抽出領域R10における所定値以上の輝度を有する画素または領域の移動量を算出することによって画像情報を抽出する。そして、表示制御部403は、画像情報抽出部402によって抽出された画像情報A20を画像PT+tに重畳して表示部24に表示する。これにより、ユーザは、直感的に被写体の移動量を把握することができる。 As shown in FIGS. 16 to 18, when the extraction region R10 for extracting the image information is specified according to the instruction signal from the input unit 25, the image information extraction unit 402 determines that the image P T and the image P T+t are included. Based on this, the movement amount of the subject (star) that has moved in the extraction region R10 is extracted. Specifically, the image information extraction unit 402 digitizes the movement amount of the subject (star) that has moved in the extraction region R10 by the number of pixels (number of pixels), and extracts the digitized value as image information. For example, as shown in FIG. 16 to FIG. 18, the image information extraction unit 402 determines that the average of the movement amounts of the plurality of subjects moving in the extraction region R10 is 100 at time T+t after a predetermined time t has elapsed from time T. If it is a pixel, 100 pixels are extracted as the image information in the extraction region R10. In this case, the image information extraction unit 402 extracts the image information by calculating the movement amount of the pixel or the region having the brightness equal to or higher than the predetermined value in the extraction region R10 based on the image P T and the image P T+t . Then, the display control unit 403 superimposes the image information A20 extracted by the image information extraction unit 402 on the image P T+t and displays it on the display unit 24. As a result, the user can intuitively grasp the amount of movement of the subject.

〔合成設定処理の概要〕
次に、合成設定処理の概要について説明する。図19は、合成設定処理の概要を模式的に説明する図である。
[Outline of synthesis setting processing]
Next, an outline of the combination setting process will be described. FIG. 19 is a diagram schematically illustrating the outline of the synthesis setting process.

図19に示すように、ユーザは、入力部25を介して、合成領域R1に対する合成方法、合成方法の内容を切り替える閾値および合成領域R1以外の合成方法の各々を指定する。より具体的には、ユーザは、入力部25を介して、合成領域R1以外の非選択領域に比較明合成処理を指定し、かつ、合成領域R1を指定する。この場合、合成領域指定部301は、入力部25から入力される指示信号に応じて、合成領域R1を指定する。 As shown in FIG. 19, the user specifies, via the input unit 25, each of the synthesizing method for the synthesizing area R1, the threshold for switching the content of the synthesizing method, and the synthesizing method other than the synthesizing area R1. More specifically, the user specifies the comparative bright combination process in the non-selected area other than the combination area R1 and also specifies the combination area R1 via the input unit 25. In this case, the synthesis area designating unit 301 designates the synthesis area R1 according to the instruction signal input from the input unit 25.

続いて、ユーザは、入力部25を介して、合成領域R1における合成方法を指定する。この場合、合成方法指定部302は、入力部25から入力される指示信号に応じて、合成領域R1における合成方法を指定する。例えば、合成方法指定部302は、合成領域R1に対して、比較明合成および比較暗合成を指定する。 Subsequently, the user specifies the composition method in the composition area R1 via the input unit 25. In this case, the synthesizing method designating unit 302 designates the synthesizing method in the synthesizing region R1 according to the instruction signal input from the input unit 25. For example, the composition method designation unit 302 designates the comparative light composition and the comparative dark composition for the composition region R1.

その後、ユーザは、入力部25を介して、合成領域R1に指定した合成方法の内容を切り替える閾値を指定する。例えば、ユーザは、図18において表示された画像情報に基づいて、合成領域R1に指定した合成方法の内容を切り替える閾値を指定する。例えば、図18において被写体が100ピクセル移動する場合、200ピクセルを閾値に指定する。この場合、閾値指定部303は、入力部25から入力される指示信号に応じて、合成方法指定部302によって合成領域R1に指定された合成方法の内容を切り替える閾値を指定する。これにより、合成領域R1において200ピクセル以上で大きく移動する被写体(例えば星よりも速く移動する被写体)は、合成処理部305によって比較暗合成が行われる一方、合成領域R1において200ピクセル未満で小さく移動する被写体(例えば星を含めてゆっくり移動する被写体)は、合成処理部305によって比較明合成が行われる。 After that, the user specifies, via the input unit 25, a threshold for switching the contents of the combining method specified in the combining area R1. For example, the user specifies a threshold for switching the content of the composition method specified in the composition area R1 based on the image information displayed in FIG. For example, when the subject moves 100 pixels in FIG. 18, 200 pixels are designated as the threshold value. In this case, the threshold value specifying unit 303 specifies a threshold value for switching the content of the combining method specified in the combining area R1 by the combining method specifying unit 302 according to the instruction signal input from the input unit 25. As a result, an object that moves significantly by 200 pixels or more in the composition area R1 (for example, an object that moves faster than a star) is subjected to comparative dark composition by the composition processing unit 305, while it moves small by less than 200 pixels in the composition area R1. The subject (for example, a subject that moves slowly including a star) is subjected to comparative bright combination by the combination processing unit 305.

〔合成処理の概要〕
次に、合成処理部305による合成処理の概要について説明する。図20は、従来の比較明合成処理によって合成した場合における合成画像の遷移を模式的に示す図である。図21は、合成処理部305が合成処理によって生成した合成画像の遷移を模式的に示す図である。
[Outline of synthesis processing]
Next, an outline of the combining process performed by the combining processing unit 305 will be described. FIG. 20 is a diagram schematically showing a transition of a combined image when combined by the conventional comparative light combination processing. FIG. 21 is a diagram schematically showing the transition of the combined image generated by the combining processing unit 305 by the combining process.

図20に示すように、従来の比較明合成処理では、撮像装置1の撮影途中に飛行機K10が映りこんだ場合、飛行機K10のライトL1が順次合成されている(画像P31→画像P32→画像P33→画像P34)。ユーザは、星を主要被写体として撮影しているため、飛行機K10のライトL1の軌跡が創作意図にそぐわない画像P34(合成画像)となり、撮影が失敗となる。 As shown in FIG. 20, in the conventional comparative bright combination processing, when the airplane K10 is reflected in the middle of shooting by the imaging device 1, the lights L1 of the airplane K10 are sequentially combined (image P31→image P32→image P33). →Image P34). Since the user photographs the star as the main subject, the trajectory of the light L1 of the airplane K10 becomes an image P34 (composite image) that does not match the original intention, and the photographing fails.

これに対して、図21に示すように、合成処理部305は、上述した図19において合成領域指定部301によって指定された合成領域R1に、閾値指定部303によって指定された閾値および合成方法指定部302によって指定された合成方法によって順次合成する(画像P41→画像P42→画像P43→画像P44)。図21に示すように、飛行機K10は、星よりも移動速度が速いため、コマ毎の移動量が200ピクセル以上となる。このため、合成処理部305は、飛行機K10のライトL1の軌跡に対して比較暗合成を行う。この場合、合成処理部305は、合成領域R1の背景の星空が飛行機K10のライトL1よりも暗いので(輝度が小さい)、飛行機K10のライトL1を合成しない。これにより、合成処理部305は、星の光の軌跡が映るとともに、不要な飛行機K10のライトL1の軌跡が映らない画像P44(合成画像)を生成する。この結果、撮影者の創作意図に沿った画像P44を生成することができる。 On the other hand, as shown in FIG. 21, the combination processing unit 305 specifies the threshold value and the combination method specified by the threshold value specifying unit 303 in the combination area R1 specified by the combination area specifying unit 301 in FIG. The images are sequentially combined by the combining method designated by the unit 302 (image P41→image P42→image P43→image P44). As shown in FIG. 21, the moving speed of the airplane K10 is faster than that of a star, so that the moving amount of each frame is 200 pixels or more. Therefore, the synthesis processing unit 305 performs comparative dark synthesis on the trajectory of the light L1 of the airplane K10. In this case, the synthesizing unit 305 does not synthesize the light L1 of the airplane K10, because the background starry sky of the synthesis region R1 is darker than the light L1 of the airplane K10 (the brightness is low). As a result, the synthesis processing unit 305 generates an image P44 (synthetic image) in which the trajectory of the light of the star is reflected and the trajectory of the light L1 of the unnecessary airplane K10 is not reflected. As a result, it is possible to generate the image P44 that is in line with the photographer's original intention.

以上説明した本発明の実施の形態1の変形例2によれば、ユーザの創作意図を反映した合成画像を生成することができる。 According to the second modification of the first embodiment of the present invention described above, it is possible to generate a composite image that reflects the user's creative intention.

なお、本発明の実施の形態1の変形例2では、閾値指定部303が指定する移動量に、YRGB成分を合わせて追加してもよい。例えば、飛行機K10のライトは、様々な色のものがある一方、星の色は、限られているので、色(RGB成分)に対して閾値を指定することで、遠方を飛行しており移動量が星と同じか小さい飛行機の場合であっても、飛行機のライトの軌跡を除外して合成した合成画像を生成することができる。 In the second modification of the first embodiment of the present invention, the YRGB components may be added together with the movement amount designated by the threshold designation unit 303. For example, the lights of the airplane K10 have various colors, but the colors of stars are limited. Therefore, by specifying a threshold value for the colors (RGB components), the airplane K10 flies in the distance and moves. Even in the case of an airplane whose amount is the same as or smaller than that of a star, it is possible to generate a composite image in which the trajectory of the light of the airplane is excluded.

(実施の形態1の変形例3)
次に、本発明の実施の形態1の変形例3について説明する。本実施の形態1の変形例3は、撮像装置が実行する処理が異なる。具体的には、本実施の形態1の変形例3は、表示部が合成処理部によって合成処理が終了した合成画像を表示している際に、入力部から合成方法の変更を指示する指示信号が入力された場合、指定された合成領域、合成方法および閾値を変更して再度、合成画像を生成する。以下においては、本実施の形態1の変形例3に係る撮像装置が実行する処理について説明する。なお、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して説明を省略する。
(Modification 3 of Embodiment 1)
Next, a third modification of the first embodiment of the present invention will be described. The modified example 3 of the first embodiment is different in the process executed by the imaging device. Specifically, in the third modification of the first embodiment, when the display unit is displaying the combined image for which the combining processing has been completed by the combining processing unit, an instruction signal for instructing to change the combining method is input from the input unit. When is input, the specified combined area, combining method, and threshold value are changed to generate a combined image again. In the following, a process executed by the imaging device according to the third modification of the first embodiment will be described. The same components as those of the image pickup apparatus 1 according to the first embodiment described above are designated by the same reference numerals, and description thereof will be omitted.

〔撮像装置の処理〕
図22は、本実施の形態1の変形例3に係る撮像装置1が実行する処理の概要を示すフローチャートである。図22において、ステップS601〜ステップS610は、上述した図2のステップS101〜ステップS110それぞれに対応する。
[Processing of imaging device]
FIG. 22 is a flowchart showing an outline of processing executed by the image pickup apparatus 1 according to the third modification of the first embodiment. 22, steps S601 to S610 correspond to steps S101 to S110 of FIG. 2 described above, respectively.

ステップS611において、入力部25から合成方法を変更する指示信号が入力された場合(ステップS611:Yes)、撮像装置1は、後述するステップS612へ移行する。これに対して、入力部25から合成方法を変更する指示信号が入力されていない場合(ステップS611:No)、撮像装置1は、後述するステップS614へ移行する。 In step S611, when the instruction signal for changing the combining method is input from the input unit 25 (step S611: Yes), the imaging device 1 proceeds to step S612 described below. On the other hand, when the instruction signal for changing the composition method is not input from the input unit 25 (step S611: No), the imaging device 1 proceeds to step S614 described below.

ステップS612およびステップS613は、上述した図2のステップS102およびステップS103それぞれに対応する。この場合、ユーザは、撮影結果である合成画像を見ながら合成画像の設定および合成方法を変更することができる。ステップS613の後、撮像装置1は、後述するステップS614へ移行する。ステップS614〜ステップS616は、上述した図2のステップS111〜ステップS113それぞれに対応する。 Steps S612 and S613 correspond to steps S102 and S103 of FIG. 2 described above, respectively. In this case, the user can change the setting of the combined image and the combining method while viewing the combined image that is the shooting result. After step S613, the imaging device 1 moves to step S614 described later. Steps S614 to S616 correspond to steps S111 to S113 of FIG. 2 described above, respectively.

ステップS617において、入力部25を介して合成方法を変更する指示信号が入力された場合(ステップS617:Yes)、撮像装置1は、後述するステップS618へ移行する。これに対して、入力部25を介して合成方法を変更する指示信号が入力されていない場合(ステップS617:No)、撮像装置1は、本処理を終了する。 In step S617, when the instruction signal for changing the composition method is input via the input unit 25 (step S617: Yes), the imaging device 1 proceeds to step S618 described below. On the other hand, when the instruction signal for changing the combining method is not input via the input unit 25 (step S617: No), the imaging device 1 ends this processing.

ステップS618およびステップS619は、上述した図2のステップS102およびステップS103それぞれに対応する。ステップS620は、上述した図2のステップS107に対応する。ステップS621およびステップS622は、上述した図2のステップS112およびステップS113それぞれに対応する。 Steps S618 and S619 correspond to steps S102 and S103 of FIG. 2 described above, respectively. Step S620 corresponds to step S107 of FIG. 2 described above. Steps S621 and S622 correspond to steps S112 and S113 of FIG. 2 described above, respectively.

ステップS623において、入力部25を介して合成方法を変更する指示信号が入力された場合(ステップS623:Yes)、撮像装置1は、上述したステップS618へ移行する。これに対して、入力部25を介して合成方法を変更する指示信号が入力されていない場合(ステップS623:No)、撮像装置1は、本処理を終了する。 In step S623, when the instruction signal for changing the combining method is input via the input unit 25 (step S623: Yes), the imaging device 1 proceeds to step S618 described above. On the other hand, when the instruction signal for changing the synthesizing method is not input via the input unit 25 (step S623: No), the imaging device 1 ends this processing.

以上説明した本発明の実施の形態1の変形例3によれば、撮影途中であっても、入力部25を介して合成方法および閾値を変更することができるので、ユーザの創作意図を反映した合成画像を生成することができる。 According to the modified example 3 of the first embodiment of the present invention described above, the combining method and the threshold value can be changed via the input unit 25 even during shooting, so that the user's original intention is reflected. A synthetic image can be generated.

また、本発明の実施の形態1の変形例3によれば、撮影後であっても、入力部25を介して合成方法および閾値を変更することができるので、ユーザの創作意図を反映した合成画像を生成することができる。 Further, according to the third modification of the first embodiment of the present invention, the composition method and the threshold value can be changed via the input unit 25 even after photographing, so that the composition reflecting the user's creative intention is performed. Images can be generated.

(実施の形態2)
次に、本発明の実施の形態2について説明する。本実施の形態2に係る撮像装置は、上述した実施の形態1に係る撮像装置1と構成が異なるうえ、実行する合成設定処理が異なる。具体的には、本実施の形態2に係る撮像装置は、ユーザによって指定された合成領域が複数指定された場合において、指定された複数の合成領域が重なるとき、合成領域に指定された優先度に応じた合成方法によって合成画像を生成する。以下においては、本実施の形態2に係る撮像装置の構成を説明後、本実施の形態2に係る撮像装置が実行する合成設定処理について説明する。なお、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して説明を省略する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The image pickup apparatus according to the second embodiment has a different configuration from the image pickup apparatus 1 according to the above-described first embodiment, and also has different composition setting processing to be executed. Specifically, in the imaging apparatus according to the second embodiment, when a plurality of composite areas designated by the user are designated, when the plurality of designated composite areas overlap, the priority assigned to the composite area is set. A synthetic image is generated by a synthesizing method according to. In the following, the configuration of the imaging device according to the second embodiment will be described, and then the synthesis setting process executed by the imaging device according to the second embodiment will be described. The same components as those of the image pickup apparatus 1 according to the first embodiment described above are designated by the same reference numerals, and description thereof will be omitted.

〔撮像装置の構成〕
図23は、本発明の実施の形態2に係る撮像装置の機能構成を示すブロック図である。図23に示す撮像装置1aは、上述した実施の形態1に係る撮像装置1の画像処理部20に換えて、画像処理部20aを備える。画像処理部20aは、上述した実施の形態1に係る画像処理部20の構成に加えて、優先度指定部306を有する。
[Structure of imaging device]
FIG. 23 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 2 of the present invention. The image pickup apparatus 1a illustrated in FIG. 23 includes an image processing unit 20a instead of the image processing unit 20 of the image pickup apparatus 1 according to the first embodiment described above. The image processing unit 20a has a priority designation unit 306 in addition to the configuration of the image processing unit 20 according to the first embodiment described above.

優先度指定部306は、合成領域指定部301によって指定された複数の合成領域の各々の優先度を指定する。具体的には優先度指定部306は、合成領域指定部301によって指定された複数の合成領域の少なくとも一部が重複している場合において、この重複している重複領域についての優先度を指定する。 The priority designating section 306 designates the priority of each of the plurality of composite areas designated by the composite area designating section 301. Specifically, when at least a part of the plurality of combined areas specified by the combined area specifying unit 301 overlap, the priority specifying unit 306 specifies the priority of the overlapping overlapping areas. ..

〔合成設定処理〕
次に、撮像装置1aが実行する合成設定処理について説明する。図24は、撮像装置1aが実行する合成設定処理の概要を示すフローチャートである。図24において、ステップS701〜ステップS704は、上述した図7のステップS301〜ステップS304それぞれに対応する。
[Composition setting process]
Next, the combination setting process executed by the image pickup apparatus 1a will be described. FIG. 24 is a flowchart showing an outline of the combination setting process executed by the image pickup apparatus 1a. 24, steps S701 to S704 correspond to steps S301 to S304 of FIG. 7 described above.

ステップS705において、合成領域指定部301によって指定された合成領域の重複がある場合(ステップS705:Yes)、撮像装置1aは、後述するステップS706へ移行する。これに対して、合成領域指定部301によって指定された合成領域の重複がない場合(ステップS705:No)、撮像装置1aは、図2のメインルーチンへ戻る。 In step S705, when there is an overlap in the combined area specified by the combined area specifying unit 301 (step S705: Yes), the imaging device 1a moves to step S706 described below. On the other hand, when there is no overlap of the combined areas specified by the combined area specifying unit 301 (step S705: No), the imaging device 1a returns to the main routine of FIG.

ステップS706において、優先度指定部306は、合成領域指定部301によって指定された複数の合成領域の各々の優先度を指定する。具体的には、図25に示すように、優先度指定部306は、合成領域指定部301によって指定された合成領域R1と合成領域R2とが重複している場合において、この重複している重複領域R3についての優先度を指定する。例えば、ユーザが入力部25を介して合成領域R1の優先度を「1」に指定し、合成領域R2の優先度を「2」に指定した場合、優先度指定部306は、入力部25からの指示信号に応じて、合成領域R1の優先度a1を「1」に指定するとともに、合成領域R2の優先度a2を「2」に指定する。表示制御部403は、合成領域R1および合成領域R2の各々に設定された閾値、合成方法および優先度に関する情報A40をライブビュー画像LV1上に重畳して表示部24に表示させる。その後、画像合成部30aは、重複領域R3に対して、合成領域R1に設定された閾値および合成方法によって合成が行われる。 In step S<b>706, the priority designation unit 306 designates the priority of each of the plurality of synthesis areas designated by the synthesis area designation unit 301. Specifically, as shown in FIG. 25, in the case where the combination area R1 and the combination area R2 specified by the combination area specification section 301 overlap, the priority specifying section 306 overlaps this overlap. The priority for the region R3 is designated. For example, when the user specifies the priority of the combined area R1 as “1” and the priority of the combined area R2 as “2” via the input unit 25, the priority specifying unit 306 receives the input from the input unit 25. In response to the instruction signal of 1, the priority a1 of the synthesis area R1 is designated as "1" and the priority a2 of the synthesis area R2 is designated as "2". The display control unit 403 causes the display unit 24 to display the information A40 regarding the threshold value, the combination method, and the priority set in each of the combination area R1 and the combination area R2 on the live view image LV1 in a superimposed manner. After that, the image composition unit 30a performs composition on the overlapping area R3 with the threshold value and the composition method set in the composition area R1.

以上説明した本発明の実施の形態2によれば、合成領域が2以上指定された場合において、互いの少なくとも一部の領域が重なる重複領域が発生したときであっても、優先度指定部306の優先度に応じて、合成処理部305が合成するので、ユーザの創作意図を反映した合成画像を生成することができる。 According to the second embodiment of the present invention described above, in the case where two or more synthesis areas are designated, even when overlapping areas in which at least some areas of the synthesis areas overlap with each other are generated, the priority designation section 306. Since the synthesizing unit 305 performs synthesizing according to the priority of, the synthetic image that reflects the user's original intention can be generated.

(実施の形態3)
次に、本発明の実施の形態3について説明する。本実施の形態3は、上述した実施の形態2に係る撮像装置1aの構成と異なるうえ、合成設定処理が異なる。具体的には、本実施の形態3では、移動する被写体を追尾しながら合成画像を生成する。以下においては、本実施の形態3に係る撮像装置の構成を説明後、本実施の形態3に係る撮像装置が実行する合成設定処理について説明する。なお、上述した実施の形態2に係る撮像装置1aと同一の構成には同一の符号を付して説明を省略する。
(Embodiment 3)
Next, a third embodiment of the invention will be described. The third embodiment is different from the configuration of the image pickup apparatus 1a according to the second embodiment described above, and is different in the combination setting process. Specifically, in the third embodiment, a synthetic image is generated while tracking a moving subject. In the following, the configuration of the image pickup apparatus according to the third embodiment will be described, and then the combination setting process executed by the image pickup apparatus according to the third embodiment will be described. The same components as those of the image pickup apparatus 1a according to the second embodiment described above are designated by the same reference numerals, and description thereof will be omitted.

〔撮像装置の構成〕
図26は、本発明の実施の形態3に係る撮像装置の機能構成を示すブロック図である。図26に示す撮像装置1bは、上述した実施の形態2に係る撮像装置1aの画像処理部20aに換えて、画像処理部20bを備える。画像処理部20bは、上述した実施の形態2に係る画像処理部20aの構成に加えて、被写体指定部60と、被写体追尾部70と、を備える。
[Structure of imaging device]
FIG. 26 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 3 of the present invention. The imaging device 1b shown in FIG. 26 includes an image processing unit 20b instead of the image processing unit 20a of the imaging device 1a according to the second embodiment described above. The image processing unit 20b includes a subject specifying unit 60 and a subject tracking unit 70 in addition to the configuration of the image processing unit 20a according to the second embodiment described above.

被写体指定部60は、入力部25から入力される指示信号に応じた画像内の被写体を含む被写体を追尾被写体として指定する。 The subject designation unit 60 designates a subject including a subject in the image according to the instruction signal input from the input unit 25 as a tracking subject.

被写体追尾部70は、被写体指定部60によって指定された被写体の特徴量を抽出し、この特徴量に基づいて、撮像部10が連続的に生成する複数の画像データに対応する複数の画像の各々に写る被写体が写る位置を含む被写体領域を順次追尾する。ここで、特徴量とは、輝度、色、エッジおよびコントラスト等である。また、表示制御部403は、被写体追尾部70による追尾結果を画像に重畳して表示部24に表示させてもよい。 The subject tracking unit 70 extracts the feature amount of the subject designated by the subject designation unit 60, and based on the feature amount, each of the plurality of images corresponding to the plurality of image data continuously generated by the imaging unit 10 The subject area including the position where the subject is captured is sequentially tracked. Here, the feature amount is brightness, color, edge, contrast, or the like. Further, the display control unit 403 may superimpose the tracking result by the subject tracking unit 70 on the image and display it on the display unit 24.

〔合成設定処理〕
次に、撮像装置1bが実行する合成設定処理について説明する。図27は、撮像装置1bが実行する合成設定処理の概要を示すフローチャートである。図27において、ステップS801〜ステップS804は、上述した図7のステップS301〜ステップS304それぞれに対応する。
[Composition setting process]
Next, the combination setting process executed by the image pickup apparatus 1b will be described. FIG. 27 is a flowchart showing an outline of the combination setting process executed by the image pickup apparatus 1b. 27, steps S801 to S804 correspond to steps S301 to S304 of FIG. 7 described above.

ステップS805において、入力部25から合成領域指定部301によって指定された合成領域の追尾指定を指示する指示信号があった場合(ステップS805:Yes)、撮像装置1bは、後述するステップS806へ移行する。これに対して、入力部25から合成領域指定部301によって指定された合成領域の追尾指定を指示する指示信号がなかった場合(ステップS805:No)、撮像装置1bは、図2のメインルーチンへ戻る。 In step S805, when there is an instruction signal instructing the tracking designation of the combined area designated by the combined area designation section 301 from the input section 25 (step S805: Yes), the imaging device 1b proceeds to step S806 described later. .. On the other hand, when there is no instruction signal from the input unit 25 to instruct the tracking designation of the synthesis area designated by the synthesis area designation unit 301 (step S805: No), the imaging device 1b proceeds to the main routine of FIG. Return.

ステップS806において、被写体指定部60は、入力部25から入力される指示信号に応じて撮像部10によって連続的に生成される画像群において追尾する被写体を指定する。具体的には、図28に示すように、合成領域指定部301によって被写体K200に合成領域R100が指定されている場合において、入力部25から被写体K200を追尾被写体として指定する指示信号が入力されたとき、被写体指定部60は、被写体K200を追尾被写体として指定する。この場合において、合成領域指定部301は、被写体追尾部70によって追尾された追尾結果に基づいて、撮像部10によって連続的に生成される画像毎に、被写体K200を含む合成領域R100およびを移動させながら合成領域R100(被写体K200)の位置を追尾しながら指定する。さらに、表示制御部403は、被写体指定部60によって指定された被写体を含む合成領域を画像P100上に重畳して表示部24に表示させる。さらにまた、表示制御部403は、合成領域以外の合成方法に係る情報をA200、合成領域R100に対する閾値、合成方法および追尾の有無に関する情報A200を画像P100に重畳して表示部24に表示させる。 In step S806, the subject designation unit 60 designates a subject to be tracked in the image group continuously generated by the imaging unit 10 according to the instruction signal input from the input unit 25. Specifically, as shown in FIG. 28, when the synthesis area designating unit 301 designates the synthesis area R100 for the subject K200, an instruction signal for designating the subject K200 as the tracking subject is input from the input unit 25. At this time, the subject specifying unit 60 specifies the subject K200 as a tracking subject. In this case, the synthesis area designating unit 301 moves the synthesis area R100 including the subject K200 for each image continuously generated by the imaging unit 10 based on the tracking result tracked by the subject tracking unit 70. However, the position of the composite area R100 (subject K200) is tracked and designated. Further, the display control unit 403 causes the display unit 24 to display the composite area including the subject designated by the subject designation unit 60 on the image P100. Furthermore, the display control unit 403 causes the display unit 24 to display the information related to the combining method other than the combining area A200, the threshold value for the combining area R100, the combining method, and the information A200 regarding the presence or absence of tracking on the image P100.

続いて、入力部25から合成領域指定部301によって指定された合成領域の追尾指定を指示する指示信号があった場合(ステップS807:Yes)、撮像装置1bは、後述するステップS808へ移行する。これに対して、入力部25から合成領域指定部301によって指定された合成領域の追尾指定を指示する指示信号がなかった場合(ステップS807:No)、撮像装置1bは、図2のメインルーチンへ戻る。 Then, when there is an instruction signal from the input unit 25 to instruct the tracking designation of the synthesis area designated by the synthesis area designation unit 301 (step S807: Yes), the imaging device 1b proceeds to step S808 described later. On the other hand, when there is no instruction signal from the input unit 25 to instruct the tracking designation of the synthesis area designated by the synthesis area designation unit 301 (step S807: No), the imaging apparatus 1b proceeds to the main routine of FIG. Return.

ステップS808において、被写体指定部60は、入力部25から入力される指示信号に応じて撮像部10によって連続的に生成される画像群において追尾する被写体を指定する。具体的には、図28に示すように、合成領域指定部301によって被写体K200および被写体K201の各々に合成領域R100および合成領域R101が指定されている場合において、入力部25から被写体K201を追尾被写体としてさらに指定する指示信号が入力されたとき、被写体指定部60は、被写体K201を追尾被写体としてさらに指定する。この場合において、合成領域指定部301は、被写体追尾部70によって追尾された追尾結果に基づいて、撮像部10によって連続的に生成される画像毎に、被写体K200および被写体K201の各々を含む合成領域R100および合成領域R101を移動させながら合成領域R100(被写体K200)および合成領域R101(被写体K201)の位置を追尾しながら指定する。さらに、表示制御部403は、被写体指定部60によって指定された被写体を含む合成領域を画像P100上に重畳して表示部24に表示させる。さらにまた、表示制御部403は、合成領域以外の合成方法に係る情報をA100、合成領域R100に対する閾値、合成方法および追尾の有無に関する情報A200および合成領域R101に対する閾値、合成方法および追尾の有無に関する情報A201を画像P100に重畳して表示部24に表示させる。 In step S808, the subject designation unit 60 designates a subject to be tracked in the image group continuously generated by the imaging unit 10 according to the instruction signal input from the input unit 25. Specifically, as shown in FIG. 28, when the combined area R100 and the combined area R101 are specified by the combined area specifying unit 301 for each of the object K200 and the object K201, the object K201 is tracked from the input unit 25. When an instruction signal for further specifying is input, the subject specifying unit 60 further specifies the subject K201 as a tracking subject. In this case, the combination area designating unit 301 includes the combination area including the subject K200 and the subject K201 for each image continuously generated by the imaging unit 10 based on the tracking result tracked by the object tracking unit 70. The positions of the combination area R100 (subject K200) and the combination area R101 (subject K201) are tracked and designated while moving R100 and the combination area R101. Further, the display control unit 403 causes the display unit 24 to display the composite area including the subject designated by the subject designation unit 60 on the image P100. Furthermore, the display control unit 403 provides information regarding a synthesizing method other than the synthesizing area as A100, a threshold for the synthesizing area R100, synthesizing method, and information regarding presence/absence of tracking A200 and a threshold for synthesizing area R101, regarding a synthesizing method, and presence/absence of tracking. The information A201 is superimposed on the image P100 and displayed on the display unit 24.

続いて、入力部25から合成領域指定部301によって指定された合成領域の追尾指定を指示する指示信号があった場合(ステップS809:Yes)、撮像装置1bは、上述したステップS808へ戻る。これに対して、入力部25から合成領域指定部301によって指定された合成領域の追尾指定を指示する指示信号がなかった場合(ステップS809:No)、撮像装置1bは、後述するステップS810へ移行する。 Then, if there is an instruction signal from the input unit 25 to instruct tracking designation of the synthesis area designated by the synthesis area designation unit 301 (step S809: Yes), the imaging device 1b returns to step S808 described above. On the other hand, if there is no instruction signal from the input unit 25 to instruct the tracking designation of the synthesis area designated by the synthesis area designation unit 301 (step S809: No), the imaging device 1b proceeds to step S810 described below. To do.

ステップS810において、優先度指定部306は、合成領域指定部301によって指定された複数の合成領域の各々の優先度を指定する。ステップS807の後、撮像装置1bは、図2のメインルーチンへ戻る。 In step S810, the priority designating unit 306 designates the priority of each of the plurality of composite areas designated by the composite area designating unit 301. After step S807, the imaging device 1b returns to the main routine of FIG.

〔合成処理の概要〕
次に、上述した合成設定処理によって設定された画像合成部30aによる合成処理の概要について説明する。図29は、撮像装置1bが連続的に生成した画像群の一例を示す図である。図30は、画像合成部30aによって生成された合成画像の遷移を模式的に示す図である。なお、図30において、合成方法指定部302によって合成領域R100,R101に置換合成処理が指定され、合成領域R100,R101以外の領域に平均合成処理が指定されている。
[Outline of synthesis processing]
Next, an outline of the combining process performed by the image combining unit 30a set by the above-described combining setting process will be described. FIG. 29 is a diagram showing an example of an image group continuously generated by the imaging device 1b. FIG. 30 is a diagram schematically showing the transition of the composite image generated by the image composition unit 30a. Note that, in FIG. 30, the replacement method is specified by the combining method designating unit 302 in the combining areas R100 and R101, and the average combining process is specified in areas other than the combining areas R100 and R101.

図29に示すように、合成領域指定部301は、被写体追尾部70の追尾結果に基づいて、コマ毎に合成領域を移動する(画像P100→画像P101→画像P102)。そして、図30に示すように、合成処理部305は、合成領域R100,R101に対して、置換合成処理を行い、合成領域R100,R101以外の領域に対して、平均合成処理を行う。これにより、合成処理部305は、合成領域R100,R101の画像が背景に換えて、観覧車の画像に置き換えられ、合成領域R100,R101以外を平均合成処理によって合成する。例えば、画像間で移動する飛行機K100や観覧車の支柱が薄く写る(画像P200→画像P201)。この場合において、合成処理部305は、飛行機K100と合成領域R101とが重複した場合、合成領域R101を優先する。このため、合成処理部305は、合成領域R101の画像が観覧車の画像に置き換えられる。 As shown in FIG. 29, the composite area designation unit 301 moves the composite area for each frame based on the tracking result of the subject tracking unit 70 (image P100→image P101→image P102). Then, as shown in FIG. 30, the combining processing unit 305 performs the replacement combining process on the combining regions R100 and R101, and performs the average combining process on the regions other than the combining regions R100 and R101. As a result, the composition processing unit 305 replaces the images of the composition areas R100 and R101 with the images of the Ferris wheel, and composes the areas other than the composition areas R100 and R101 by the average composition processing. For example, a pillar of an airplane K100 or a ferris wheel that moves between images appears thin (image P200→image P201). In this case, when the airplane K100 and the combination area R101 overlap, the combination processing unit 305 gives priority to the combination area R101. Therefore, the synthesizing unit 305 replaces the image of the synthesizing region R101 with the image of the Ferris wheel.

その後、合成処理部305は、合成領域R100と合成領域R101とが発生した場合、合成領域R100と合成領域R101とが重複した重複領域に対する合成処理の内容を、優先度指定部306によって指定された優先度が高い合成領域R100の合成処理によって合成処理を行う。具体的には、図30に示すように、合成処理部305は、合成領域R100に指定された合成処理の内容を優先して合成処理を行う。これにより、被写体K200(観覧車)が合成され、被写体K201(観覧車)が合成されない合成画像P202となる。 After that, when the combining area R100 and the combining area R101 occur, the combining processing unit 305 specifies the content of the combining processing for the overlapping area where the combining area R100 and the combining area R101 overlap each other by the priority specifying unit 306. The synthesizing process is performed by the synthesizing process of the synthesizing region R100 having high priority. Specifically, as shown in FIG. 30, the combining processing unit 305 performs the combining processing by giving priority to the contents of the combining processing specified in the combining area R100. As a result, the subject K200 (ferris wheel) is combined, and the subject K201 (ferris wheel) is not combined into a combined image P202.

以上説明した本発明の実施の形態3によれば、被写体追尾部70が被写体指定部60によって指定された被写体が合成領域に含まれている場合に、複数の画像の各々において被写体が写る位置を含む被写体領域を順次追尾し、合成領域指定部301が被写体追尾部70によって順次追尾された被写体領域を合成領域に指定し、合成処理部305が合成領域に指定された2つの合成方法を切り替えながら複数の画像を順次合成して1つの合成データを生成するので、ユーザの創作意図を反映した合成画像を生成することができる。 According to the third embodiment of the present invention described above, when the subject tracking unit 70 includes the subject designated by the subject designation unit 60 in the composite area, the position where the subject is captured in each of the plurality of images is determined. While sequentially tracking the included subject regions, the combining region designating unit 301 designates the subject regions sequentially tracked by the subject tracking unit 70 as the combining region, and the combining processing unit 305 switches between the two combining methods specified in the combining region. Since a plurality of images are sequentially combined to generate one combined data, it is possible to generate a combined image that reflects the user's original intention.

(実施の形態4)
次に、本発明の実施の形態4について説明する。本実施の形態4は、上述した実施の形態1に係る撮像装置と構成が異なるうえ、撮像装置が実行する合成設定処理が異なる。具体的には、本実施の形態4では、自動で合成領域、合成方法および閾値の各々を指定する。以下においては、本実施の形態4に係る撮像装置の構成を説明後、本実施の形態4に係る撮像装置が実行する合成設定処理について説明する。なお、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して説明を省略する。
(Embodiment 4)
Next, a fourth embodiment of the invention will be described. The fourth embodiment has a different configuration from the above-described image pickup apparatus according to the first embodiment, and also has a different combination setting process executed by the image pickup apparatus. Specifically, in the fourth embodiment, each of the combination area, the combination method, and the threshold value is automatically designated. In the following, the configuration of the image pickup apparatus according to the fourth embodiment will be described, and then the combination setting process executed by the image pickup apparatus according to the fourth embodiment will be described. The same components as those of the image pickup apparatus 1 according to the first embodiment described above are designated by the same reference numerals, and description thereof will be omitted.

〔撮像装置の構成〕
図31は、本発明の実施の形態4に係る撮像装置の機能構成を示すブロック図である。図31に係る撮像装置1dは、上述した実施の形態1に係る撮像装置1の記録部21に換えて、記録部21dを備える。記録部21dは、上述した実施の形態1に係る記録部21の構成に加えて、合成情報記録部21bを有する。
[Structure of imaging device]
FIG. 31 is a block diagram showing a functional configuration of the image pickup apparatus according to Embodiment 4 of the present invention. The imaging device 1d according to FIG. 31 includes a recording unit 21d in place of the recording unit 21 of the imaging device 1 according to the first embodiment described above. The recording unit 21d has a combined information recording unit 21b in addition to the configuration of the recording unit 21 according to the first embodiment described above.

合成情報記録部21bは、画像情報抽出部402によって抽出された画像情報に基づいて設定される合成モードと、画像合成部30が合成する合成領域、合成方法および閾値の各々を指定するための合成情報を記録する。 The combination information recording unit 21b specifies a combination mode set based on the image information extracted by the image information extraction unit 402, a combination area to be combined by the image combination unit 30, a combination method, and a combination value. Record the information.

図32は、合成情報記録部21bが記録する合成情報の一例を模式的に示す図である。図32に示すように、合成情報T1には、各合成モードと、合成範囲と、画像情報(移動量)と、合成方法とが対応付けられて記録されている。具体的には、合成モードが星空モードの場合、合成範囲に暗部、移動量が小、合成方法に比較明合成の各々が記載される。星空モードは、図33の画像P300のような場合、合成範囲が暗部(黒塗りの領域)に設定され、被写体が星であり、移動量が小さいため、閾値としての移動量が小(例えば200ピクセル)に設定され、合成合法が比較明合成に設定される。また、花火モードは、図33の画像P300のような場合、合成範囲が全体(全領域)に設定され、被写体が花火であり、移動量が大きいため、閾値としての移動量が大(例えば50ピクセル)に設定され、合成方法が比較明合成に設定される。さらに、夜景モードは、図33の画像P300のような場合、合成範囲を明部(白い領域)に設定され、被写体がビルであり、移動しないため、閾値としての移動量を0に設定され、合成方法を比較明合成に設定される。なお、図32では、星空モード、花火モードおよび夜景モードを一例として記載したが、これに限定されることなく、例えば夜景観覧車モードや夜景電車モードがあってもよい。 FIG. 32 is a diagram schematically showing an example of the composite information recorded by the composite information recording unit 21b. As shown in FIG. 32, each combination mode, combination range, image information (movement amount), and combination method are recorded in the combination information T1 in association with each other. Specifically, when the synthesis mode is the starry sky mode, each of the dark area, the small movement amount, and the comparative bright synthesis is described in the synthesis range. In the starry sky mode, in the case of the image P300 in FIG. 33, the composition range is set to the dark part (black-painted area), the subject is a star, and the amount of movement is small, so the amount of movement as a threshold is small (for example, 200 Pixel) and the composition legal is set to comparative light composition. Further, in the firework mode, in the case of the image P300 in FIG. 33, the synthesis range is set to the entire area (entire area), the subject is fireworks, and the movement amount is large, so the movement amount as the threshold value is large (for example, 50). Pixel) and the compositing method is set to comparative bright compositing. Further, in the night view mode, in the case of the image P300 of FIG. 33, the composition range is set to the bright part (white area), and the subject is a building and does not move, so the movement amount as a threshold value is set to 0, The composition method is set to comparative light composition. Note that, in FIG. 32, the starry sky mode, the fireworks mode, and the night view mode are described as an example, but the present invention is not limited to this, and for example, a night landscape ferris wheel mode or a night view train mode may be provided.

〔合成設定処理〕
次に、撮像装置1dが実行する合成設定処理について説明する。図34は、撮像装置1dが実行する合成設定処理の概要を示すフローチャートである。
[Composition setting process]
Next, the combination setting process executed by the image pickup apparatus 1d will be described. FIG. 34 is a flowchart showing an outline of the combination setting process executed by the image pickup apparatus 1d.

図34に示すように、表示制御部403は、上述した図4の画像情報抽出処理と合成情報記録部21bが記録する合成情報とに基づいて、現在の撮影シーンにおける推奨モードを表示部24に表示させる(ステップS901)。具体的には、図35に示すように、表示制御部403は、推奨モードの一覧を示すメニュー画像G1を表示部24に表示させる。メニュー画像G1には、星空モードM11、花火モードM12および夜景モードM13が含まれる。 As shown in FIG. 34, the display control unit 403 displays the recommended mode in the current shooting scene on the display unit 24 based on the image information extraction processing of FIG. 4 described above and the composition information recorded by the composition information recording unit 21b. It is displayed (step S901). Specifically, as shown in FIG. 35, the display control unit 403 causes the display unit 24 to display a menu image G1 showing a list of recommended modes. The menu image G1 includes a starry sky mode M11, a fireworks mode M12, and a night view mode M13.

続いて、入力部25を介して表示部24が表示するメニュー画像G1のいずれかのモードが選択された場合(ステップS902:Yes)、撮像装置1dは、ステップS903へ移行する。これに対して、入力部25を介して表示部24が表示するメニュー画像G1のいずれかのモードが選択されていない場合(ステップS902:No)、撮像装置1dは、ステップS901へ戻る。 Subsequently, when any mode of the menu image G1 displayed on the display unit 24 is selected via the input unit 25 (step S902: Yes), the imaging device 1d proceeds to step S903. On the other hand, when any mode of the menu image G1 displayed on the display unit 24 is not selected via the input unit 25 (step S902: No), the imaging device 1d returns to step S901.

ステップS903において、合成領域指定部301は、入力部25を介して選択されたモードに応じた領域を合成領域に指定する(ステップS903)。 In step S903, the synthesis area designating unit 301 designates an area corresponding to the mode selected via the input unit 25 as a synthesis area (step S903).

続いて、閾値指定部303は、入力部25を介して選択されたモードに応じた閾値を合成領域に指定する(ステップS904)。 Subsequently, the threshold value specifying unit 303 specifies a threshold value corresponding to the mode selected via the input unit 25 in the synthesis area (step S904).

その後、合成方法指定部302は、入力部25を介して選択されたモードに応じた合成方法を合成領域に指定する(ステップS905)。ステップS905の後、撮像装置1dは、図2のメインルーチンへ戻る。 After that, the synthesis method designating unit 302 designates a synthesis method according to the mode selected via the input unit 25 in the synthesis area (step S905). After step S905, the imaging device 1d returns to the main routine of FIG.

以上説明した本発明の実施の形態4によれば、ユーザの創作意図を反映した合成画像を生成することができる。 According to the fourth embodiment of the present invention described above, it is possible to generate a composite image that reflects the user's original intention.

(その他の実施の形態)
また、本発明に係る撮像装置や画像処理装置は、デジタルスチルカメラ以外にも、デジタルビデオカメラ、監視カメラ、撮像機能を有するタブレット型携帯機器等の電子機器および内視鏡や顕微鏡で撮像された医療用、産業用分野の画像データに対応する画像を表示する表示装置等にも適用することができる。
(Other embodiments)
In addition to the digital still camera, the image pickup apparatus and the image processing apparatus according to the present invention are picked up by an electronic device such as a digital video camera, a surveillance camera, a tablet type portable device having an image pickup function, an endoscope or a microscope. It can also be applied to a display device or the like that displays an image corresponding to image data in the medical and industrial fields.

また、本発明に係る撮像装置および画像処理装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 Further, a program to be executed by the image pickup apparatus and the image processing apparatus according to the present invention is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk) in the form of installable or executable file data. ), a USB medium, a flash memory, or other computer-readable recording medium.

また、本発明に係る撮像装置および画像処理装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。さらに、本発明に係る撮像装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 The program executed by the image pickup apparatus and the image processing apparatus according to the present invention may be stored in a computer connected to a network such as the Internet and may be provided by being downloaded via the network. Further, the program to be executed by the image pickup apparatus according to the present invention may be provided or distributed via a network such as the Internet.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。 In the description of the flow charts in this specification, expressions such as “first”, “after”, and “continue” are used to clearly indicate the context of processing between steps. However, in order to implement the present invention, The order of processing required is not uniquely defined by their representation. That is, the order of the processes in the flow charts described in this specification can be changed within a range without contradiction.

本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are merely examples, and various modifications and improvements are made based on the knowledge of those skilled in the art, including the modes described in the section of the disclosure of the invention. It is possible to carry out the present invention in other forms.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。 As described above, the present invention can include various embodiments not described here, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is.

1,1a,1b,1d・・・撮像装置;10・・・撮像部;11・・・レンズ部;12・・・絞り;13・・・シャッタ;14・・・撮像素子;15・・・A/D変換部;16・・・駆動制御部;20,20a,20b・・・画像処理部;21,21d・・・記録部;21a・・・プログラム記録部;21b・・・合成情報記録部;22・・・メモリI/F;23・・・記録媒体;24・・・表示部;25・・・入力部;26・・・バス;27・・・制御部;30,30a・・・画像合成部;40・・・画像情報処理部;50・・・現像処理部;60・・・被写体指定部;70・・・被写体追尾部;301・・・合成領域指定部;302・・・合成方法指定部;303・・・閾値指定部;304・・・閾値判定部;305・・・合成処理部;305a・・・比較明合成処理部;305b・・・比較暗合成処理部;305c・・・加算合成処理部;305d・・・平均合成処理部;305e・・・置換合成処理部;306・・・優先度指定部;401・・・情報領域指定部;402・・・画像情報抽出部;403・・・表示制御部 1, 1a, 1b, 1d... Imaging device; 10... Imaging unit; 11... Lens unit; 12... Aperture; 13... Shutter; 14... Imaging device; 15... A/D conversion unit; 16... Drive control unit; 20, 20a, 20b... Image processing unit; 21, 21d... Recording unit; 21a... Program recording unit; 21b... Composite information recording Part: 22... Memory I/F; 23... Recording medium; 24... Display unit; 25... Input unit; 26... Bus; 27... Control unit; 30, 30a... Image synthesis unit; 40... Image information processing unit; 50... Development processing unit; 60... Subject designation unit; 70... Subject tracking unit; 301... Synthesis region designation unit; 302...・Composition method designation unit; 303... Threshold designation unit; 304... Threshold determination unit; 305... Synthesis processing unit; 305a... Comparative bright synthesis processing unit; 305b... Comparative dark synthesis processing unit 305c... Addition synthesis processing unit; 305d... Average synthesis processing unit; 305e... Replacement synthesis processing unit; 306... Priority designation unit; 401... Information area designation unit; 402... Image Information extraction unit; 403... Display control unit

Claims (11)

複数の画像データに対応する複数の画像の各々の所定の領域に、該複数の画像の各々を合成するための少なくとも2つの合成方法を指定する合成方法指定部と、
前記複数の画像の各々の前記所定の領域に含まれる画像情報を順次抽出する画像情報抽出部と、
前記画像情報抽出部が順次抽出した前記画像情報に基づいて、前記所定の領域に指定された前記少なくとも2つの合成方法を切り替えながら前記複数の画像を順次合成して1つの合成データを生成する合成処理部と、
前記所定の領域を、前記複数の画像の各々に1つ以上指定する合成領域指定部と、
前記合成領域指定部によって前記所定の領域が2つ以上指定された場合において、互いの少なくとも一部の領域が重なる重複領域が発生したとき、該重複領域に対する前記合成方法の優先度を指定する優先度指定部と、
を備え
前記合成処理部は、前記優先度指定部によって指定された前記優先度の高い前記合成方法によって前記合成データを生成することを特徴とする画像処理装置。
A synthesizing method designating unit that designates at least two synthesizing methods for synthesizing each of the plurality of images in a predetermined area of each of the plurality of images corresponding to the plurality of image data;
An image information extraction unit that sequentially extracts image information included in the predetermined area of each of the plurality of images,
Based on the image information sequentially extracted by the image information extraction unit, the plurality of images are sequentially combined while switching the at least two combining methods specified in the predetermined area, and one combined data is generated. A processing unit,
A composite area designating unit that designates one or more of the predetermined area for each of the plurality of images;
When two or more of the predetermined areas are designated by the synthesis area designating unit and an overlapping area in which at least some of the areas overlap with each other is generated, priority for designating the priority of the combining method for the overlapping area. Degree specification section,
Equipped with
The image processing apparatus , wherein the synthesizing processing unit generates the synthetic data by the synthesizing method having the high priority designated by the priority designating unit .
前記合成方法指定部が前記所定の領域に指定した前記少なくとも2つの合成方法を切り替えるための閾値を指定する閾値指定部と、
前記画像情報抽出部によって抽出された前記画像情報に応じて定まる値が前記閾値以上であるか否かを判定する閾値判定部と、
をさらに備え、
前記合成処理部は、前記閾値判定部の判定結果に基づいて、前記合成データを生成することを特徴とする請求項に記載の画像処理装置。
A threshold value specifying section for specifying a threshold value for switching the at least two combining methods specified by the combining method specifying section in the predetermined area;
A threshold determination unit that determines whether or not a value determined according to the image information extracted by the image information extraction unit is equal to or greater than the threshold,
Further equipped with,
The image processing apparatus according to claim 1 , wherein the composition processing unit generates the composition data based on a determination result of the threshold value determination unit.
前記閾値指定部は、前記画像情報抽出部が前記複数の画像において最も古い前記画像に対して抽出した前記画像情報に応じて定まる値を前記閾値に指定することを特徴とする請求項に記載の画像処理装置。 The threshold specifying unit, according to claim 2, wherein the specifying the value determined in accordance with the image information by the image information extracting unit has extracted for oldest the image in the plurality of images to the threshold Image processing device. 前記複数の画像の各々に写る特定の被写体を指定する被写体指定部と、
前記被写体指定部によって指定された前記被写体が前記所定の領域に含まれている場合に、前記複数の画像の各々において前記被写体が写る位置を含む被写体領域を順次追尾する被写体追尾部と、
をさらに備え、
前記合成領域指定部は、前記被写体追尾部が順次追尾した前記被写体領域を前記所定の領域に指定することを特徴とする請求項1〜3のいずれか1つに記載の画像処理装置。
A subject designation unit that designates a specific subject that appears in each of the plurality of images,
When the subject designated by the subject designation unit is included in the predetermined region, a subject tracking unit that sequentially tracks a subject region including a position where the subject is captured in each of the plurality of images,
Further equipped with,
The synthetic region specifying unit, an image processing apparatus according to any one of claims 1 to 3, characterized in that specifying the subject region in which the subject tracking unit has successively tracking the predetermined region.
前記合成方法は、比較明合成処理、比較暗合成処理、加算合成処理、平均合成処理、置換合成処理および非合成処理のいずれかであることを特徴とする請求項1〜のいずれか1つに記載の画像処理装置。 The method of synthesis, lighten compositing process, relatively dark combination treatment, additive synthesis process, the average composition processing, any one of claims 1-4, characterized in that either the displacement synthesis processing and non-synthetic process The image processing device according to 1. 前記画像情報は、輝度、色成分、画像データ間における画素値の変化量および画像データ間における被写体の移動量のいずれかであることを特徴とする請求項1〜のいずれか1つに記載の画像処理装置。 The image information, luminance, color components, according to any one of claims 1-5, characterized in that either the moving amount of the subject between the change amount and the image data of the pixel values between the image data Image processing device. 前記複数の画像の各々を表示可能な表示部と、
前記画像情報抽出部が抽出した前記画像情報を前記表示部に表示させる表示制御部と、
をさらに備えたことを特徴とする請求項1〜のいずれか1つに記載の画像処理装置。
A display unit capable of displaying each of the plurality of images,
A display control unit for displaying the image information extracted by the image information extraction unit on the display unit;
The image processing apparatus according to any one of claims 1-6, characterized in further comprising a.
前記複数の画像の各々を表示可能な表示部と、
前記合成方法と前記閾値を前記表示部に表示させる表示制御部と、
をさらに備えることを特徴とする請求項またはに記載の画像処理装置。
A display unit capable of displaying each of the plurality of images,
A display control unit for displaying the combination method and the threshold value on the display unit;
The image processing apparatus according to claim 2 or 3, further comprising a.
請求項1〜のいずれか1つに記載の画像処理装置と、
被写体を連続的に撮像して画像データを順次生成可能な撮像部と、
前記合成処理部が生成した前記合成データを順次記録する記録部と、
を備え、
前記合成処理部は、前記撮像部が前記画像データを生成する毎に、前記記録部が記録する直前の前記合成データと合成して、新たな前記合成データを生成して前記記録部が記録する前記合成データを更新することを特徴とする撮像装置。
An image processing apparatus according to any one of claims 1-7,
An image pickup unit capable of continuously picking up an image of a subject and sequentially generating image data,
A recording unit that sequentially records the combined data generated by the combining processing unit;
Equipped with
Each time the imaging unit generates the image data, the composition processing unit combines the composition data with the composition data immediately before being recorded by the recording unit to generate new composition data and records it by the recording unit. An image pickup apparatus characterized by updating the composite data.
画像処理装置が実行する画像処理方法であって、
複数の画像データに対応する複数の画像の各々の所定の領域に、該複数の画像の各々を合成するための少なくとも2つの合成方法を指定する合成方法指定ステップと、
前記複数の画像の各々の前記所定の領域に含まれる画像情報を順次抽出する画像情報抽出ステップと、
前記画像情報抽出ステップにおいて順次抽出した前記画像情報に基づいて、前記所定の領域に指定された前記少なくとも2つの合成方法を切り替えながら前記複数の画像を順次合成して1つの合成データを生成する合成処理ステップと、
前記所定の領域を、前記複数の画像の各々に1つ以上指定する合成領域指定ステップと、
前記合成領域指定ステップによって前記所定の領域が2つ以上指定された場合において、互いの少なくとも一部の領域が重なる重複領域が発生したとき、該重複領域に対する前記合成方法の優先度を指定する優先度指定ステップと、
を含み、
前記合成処理ステップは、前記優先度指定ステップによって指定された前記優先度の高い前記合成方法によって前記合成データを生成することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus, comprising:
A synthesizing method designating step of designating at least two synthesizing methods for synthesizing each of the plurality of images in a predetermined area of each of the plurality of images corresponding to the plurality of image data;
An image information extracting step of sequentially extracting image information included in the predetermined area of each of the plurality of images;
A synthesis for sequentially synthesizing the plurality of images while switching the at least two synthesizing methods designated in the predetermined area based on the image information sequentially extracted in the image information extracting step to generate one synthetic data. Processing steps,
A composite area designating step of designating one or more of the predetermined area for each of the plurality of images;
When two or more of the predetermined areas are designated by the synthesizing area designating step, and when an overlapping area in which at least a part of the areas overlap with each other occurs, priority of designating the priority of the synthesizing method for the overlapping area is given. Degree specification step,
Only including,
The image processing method , wherein in the combining processing step, the combined data is generated by the combining method having the high priority specified by the priority specifying step .
画像処理装置に、
複数の画像データに対応する複数の画像の各々の所定の領域に、該複数の画像の各々を合成するための少なくとも2つの合成方法を指定する合成方法指定ステップと、
前記複数の画像の各々の前記所定の領域に含まれる画像情報を順次抽出する画像情報抽出ステップと、
前記画像情報抽出ステップにおいて順次抽出した前記画像情報に基づいて、前記所定の領域に指定された前記少なくとも2つの合成方法を切り替えながら前記複数の画像を順次合成して1つの合成データを生成する合成処理ステップと、
前記所定の領域を、前記複数の画像の各々に1つ以上指定する合成領域指定ステップと、
前記合成領域指定ステップによって前記所定の領域が2つ以上指定された場合において、互いの少なくとも一部の領域が重なる重複領域が発生したとき、該重複領域に対する前記合成方法の優先度を指定する優先度指定ステップと、
を実行させ
前記合成処理ステップは、前記優先度指定ステップによって指定された前記優先度の高い前記合成方法によって前記合成データを生成することを特徴とするプログラム。
Image processing device,
A synthesizing method designating step of designating at least two synthesizing methods for synthesizing each of the plurality of images in a predetermined area of each of the plurality of images corresponding to the plurality of image data;
An image information extracting step of sequentially extracting image information included in the predetermined area of each of the plurality of images;
A synthesis for sequentially synthesizing the plurality of images while switching the at least two synthesizing methods designated in the predetermined area based on the image information sequentially extracted in the image information extracting step to generate one synthetic data. Processing steps,
A composite area designating step of designating one or more of the predetermined area for each of the plurality of images;
When two or more of the predetermined areas are designated by the synthesizing area designating step, and when an overlapping area in which at least a part of the areas overlap with each other occurs, priority of designating the priority of the synthesizing method for the overlapping area is given. Degree specification step,
Was executed,
The synthesizing step generates the synthesized data by the synthesizing method having the high priority designated by the priority designating step .
JP2016143771A 2016-07-21 2016-07-21 Image processing device, imaging device, image processing method, and program Active JP6718762B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016143771A JP6718762B2 (en) 2016-07-21 2016-07-21 Image processing device, imaging device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016143771A JP6718762B2 (en) 2016-07-21 2016-07-21 Image processing device, imaging device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2018014651A JP2018014651A (en) 2018-01-25
JP6718762B2 true JP6718762B2 (en) 2020-07-08

Family

ID=61020460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016143771A Active JP6718762B2 (en) 2016-07-21 2016-07-21 Image processing device, imaging device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6718762B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189510A1 (en) * 2019-03-15 2020-09-24 キヤノン株式会社 Image processing device, image processing method, computer program, and storage medium
JP2020202452A (en) * 2019-06-07 2020-12-17 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2018014651A (en) 2018-01-25

Similar Documents

Publication Publication Date Title
KR101566081B1 (en) Image processing apparatus, image processing method, and storage medium
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP2014120844A (en) Image processing apparatus and imaging apparatus
JP2009017078A (en) Digital still camera and its operation controlling method
JP5806623B2 (en) Imaging apparatus, imaging method, and program
CN108156365B (en) Image pickup apparatus, image pickup method, and recording medium
JP2008085531A (en) Image processor, image processing method, image processing program, and imaging apparatus
US10530986B2 (en) Image capturing apparatus, image capturing method, and storage medium
JP2016076869A (en) Imaging apparatus, imaging method and program
JP5499853B2 (en) Electronic camera
JP6718762B2 (en) Image processing device, imaging device, image processing method, and program
JP2016213775A (en) Imaging apparatus, imaging method, and program
US10931869B2 (en) Imaging apparatus and control method therefor
JP5098949B2 (en) Electronic camera and image processing program
JP2016149631A (en) Imaging apparatus and imaging method
CN106101495B (en) The control method of photographic device and photographic device
JP2007020045A (en) Electronic camera
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP2011155692A (en) Imaging apparatus and its program
JP5441656B2 (en) Image processing apparatus, image processing method, and program
JP5878063B2 (en) Imaging apparatus, imaging method, and imaging program
JP2007251997A (en) Imaging unit
US20230239564A1 (en) Image processing device, imaging device, method for controlling image processing device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6718762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250