JP2015216604A - Image processing system, method of the same, and program - Google Patents

Image processing system, method of the same, and program Download PDF

Info

Publication number
JP2015216604A
JP2015216604A JP2014099844A JP2014099844A JP2015216604A JP 2015216604 A JP2015216604 A JP 2015216604A JP 2014099844 A JP2014099844 A JP 2014099844A JP 2014099844 A JP2014099844 A JP 2014099844A JP 2015216604 A JP2015216604 A JP 2015216604A
Authority
JP
Japan
Prior art keywords
region
image data
area
divided
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014099844A
Other languages
Japanese (ja)
Inventor
山崎 浩
Hiroshi Yamazaki
浩 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014099844A priority Critical patent/JP2015216604A/en
Publication of JP2015216604A publication Critical patent/JP2015216604A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of effectively excluding only image data not intended by a photographer.SOLUTION: A digital camera 100 as the image processing system comprises a region splitter 116 and an image composition unit 117. The region splitter 116 splits image data into plural regions and the image composition unit 117 composes a region other than a night sky and a region of the night sky split from the image data by the region splitter 116 by comparatively bright composition or comparatively dark composition.

Description

本発明は、画像処理装置及びその方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method, and a program.

夜空を移動する星の光跡を撮影するために、一定の時間間隔で撮影された複数の画像データを比較明合成する撮像装置が知られている(例えば、特許文献1参照)。   There is known an imaging apparatus that performs comparatively bright combination of a plurality of image data photographed at a constant time interval in order to photograph a light trail of a star moving in the night sky (see, for example, Patent Document 1).

ところで、比較明合成に使用される画像データには、撮影者が意図しない高輝度の画像データ、例えば、車のヘッドライトの光に照らされた建物の画像データが含まれるときがある。このような高輝度の画像データを含む画像データを使用して比較明合成を行うときは、比較明合成後の画像データに撮影者が意図しない高輝度の画像データが含まれて比較明合成後の画像データの一部の輝度が上昇するため、比較明合成後の画像データ全体において比較的輝度の低い星の光跡の画像データの鮮明さが失われる場合がある。   By the way, the image data used for comparatively bright combination sometimes includes high-intensity image data not intended by the photographer, for example, image data of a building illuminated by the light of a headlight of a car. When performing comparatively bright combination using image data including such high-brightness image data, the image data after comparatively bright combination includes high-intensity image data not intended by the photographer. As a result, the brightness of a part of the image data increases, so that the clearness of the image data of the light trail of the star having relatively low brightness may be lost in the entire image data after the comparative bright combination.

これに対応して、特許文献1の撮像装置では、比較明合成する2つの画像データの夫々が複数の領域に分割され、分割された領域毎の輝度平均値が算出されると共に2つの画像データにおいて対応する領域の輝度平均値の差が算出され、当該算出された輝度平均値の差がユーザによって予め設定された閾値を超えた領域は2つの画像データを比較明合成するときに使用されない。車のヘッドライトの光に照らされた建物の画像データは一時的に高輝度となるのみであり、異なるタイミングで撮影された第1の画像データと第2の画像データとのいずれにおいても当該建物の画像データが高輝度であることがないため、特許文献1の撮像装置は高輝度の建物の画像データを合成後の画像データから除外することができる。   Correspondingly, in the imaging apparatus of Patent Document 1, each of two pieces of image data to be subjected to comparatively bright combination is divided into a plurality of regions, a luminance average value for each divided region is calculated, and two pieces of image data are calculated. The difference between the average brightness values of the corresponding areas is calculated in step S1, and the area where the calculated difference between the average brightness values exceeds a threshold preset by the user is not used when the two image data are relatively brightly combined. The image data of the building illuminated by the light of the headlight of the car is only temporarily bright, and the building is the first image data and the second image data taken at different timings. Therefore, the image pickup apparatus of Patent Document 1 can exclude the high-luminance building image data from the combined image data.

特開2013−172372号公報JP 2013-172372 A

しかしながら、特許文献1の撮像装置では、算出された輝度平均値の差がユーザによって予め設定された閾値を超えた領域は2つの画像データを比較明合成するときに使用されないため、閾値次第、例えば、閾値を比較的小さい値に設定した場合、比較明合成の際に撮影者が意図しないような高輝度の建物の画像データだけでなく比較的高輝度な星の画像データも合成後の画像データから除外される可能性があり、撮影者が意図しない画像データだけを効果的に除外できないおそれがある。   However, in the imaging apparatus of Patent Document 1, a region in which the difference between the calculated average luminance values exceeds a threshold value set in advance by the user is not used when two image data are relatively brightly synthesized. When the threshold value is set to a relatively small value, not only high brightness building image data not intended by the photographer at the time of comparative bright combination, but also high brightness star image data is combined. There is a possibility that only image data not intended by the photographer can be effectively excluded.

本発明の目的は、撮影者が意図しない画像データだけを効果的に除外できる画像処理装置及びその方法、並びにプログラムを提供することにある。   An object of the present invention is to provide an image processing apparatus and method, and a program that can effectively exclude only image data not intended by a photographer.

上記目的を達成するために、本発明の画像処理装置は、異なるタイミングで撮影された第1の画像データ及び第2の画像データを比較明合成又は比較暗合成によって合成する合成手段と、前記第1の画像データを第1の領域及び第2の領域に分割すると共に、前記第2の画像データを前記第1の領域及び前記第2の領域の夫々に対応するように第3の領域及び第4の領域に分割する分割手段とを備え、前記合成手段は、前記第1の領域及び前記第3の領域、並びに前記第2の領域及び前記第4の領域を夫々前記比較明合成又は前記比較暗合成によって合成することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention includes a combining unit configured to combine the first image data and the second image data captured at different timings by comparative bright combination or comparative dark combination, One image data is divided into a first area and a second area, and the second image data is divided into a third area and a second area so as to correspond to the first area and the second area, respectively. Dividing means for dividing the area into four areas, wherein the combining means combines the first area and the third area, and the second area and the fourth area with the comparatively bright combination or the comparison, respectively. It is characterized by being synthesized by dark synthesis.

本発明によれば、撮影者が意図しない画像データだけを効果的に除外できる。   According to the present invention, it is possible to effectively exclude only image data not intended by the photographer.

本発明の実施の形態に係る画像処理装置としてのデジタルカメラの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the digital camera as an image processing apparatus which concerns on embodiment of this invention. 図1のデジタルカメラによって露光開始時間がt0のときに撮影された画像データを説明するために用いられる図である。It is a figure used in order to demonstrate the image data image | photographed when the exposure start time was t0 with the digital camera of FIG. 図1のデジタルカメラによって露光開始時間がt1のときに撮影された画像データを説明するために用いられる図である。It is a figure used in order to demonstrate the image data image | photographed when the exposure start time was t1 with the digital camera of FIG. 図2A及び図2Bの各画像データを比較暗合成した画像データを説明するために用いられる図である。It is a figure used in order to explain the image data which carried out comparative dark composition of each image data of Drawing 2A and Drawing 2B. 図2Cの画像データから領域分割部によってエッジを検出したエッジ検出画像データを説明するために用いられる図である。It is a figure used for demonstrating the edge detection image data which detected the edge by the area division part from the image data of FIG. 2C. 図1のデジタルカメラによって露光開始時間がt0のときに撮影された画像データを説明するために用いられる図である。It is a figure used in order to demonstrate the image data image | photographed when the exposure start time was t0 with the digital camera of FIG. 図1のデジタルカメラによって露光開始時間がt1のときに撮影された画像データを説明するために用いられる図である。It is a figure used in order to demonstrate the image data image | photographed when the exposure start time was t1 with the digital camera of FIG. 図3A及び図3Bの各画像データを比較明合成又は比較暗合成した画像データを説明するために用いられる図である。It is a figure used in order to explain the image data which carried out comparative bright composition or comparative dark composition of each image data of Drawing 3A and Drawing 3B. 図1のデジタルカメラによって露光開始時間がt2のときに撮影された画像データを説明するために用いられる図である。It is a figure used in order to demonstrate the image data image | photographed when the exposure start time is t2 with the digital camera of FIG. 図3C及び図3Dの各画像データを比較明合成又は比較暗合成した画像データを説明するために用いられる図である。It is a figure used in order to explain the image data which carried out comparative bright combination or comparative dark combination of each image data of Drawing 3C and Drawing 3D. 図1におけるCPUによって実行されるインターバル撮影処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the interval imaging | photography process performed by CPU in FIG. 図4のステップS406で実行される分割処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the division | segmentation process performed by FIG.4 S406. 図4のステップS408で実行される領域別合成処理の手順を示すフローチャートである。FIG. 5 is a flowchart showing a procedure of region-by-region combining processing executed in step S408 of FIG. 4. FIG. 図6のステップS603で実行される領域判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area | region determination process performed by step S603 of FIG.

以下、本発明の実施の形態について図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る画像処理装置としてのデジタルカメラ100の内部構成を示すブロック図である。   FIG. 1 is a block diagram showing an internal configuration of a digital camera 100 as an image processing apparatus according to an embodiment of the present invention.

デジタルカメラ100は、撮影レンズ101、絞り102,103、撮像部104、A/D変換部105、タイミングジェネレータ(以下、「TG」という)106、メモリ107、画像処理部108、記録I/F109、表示I/F110、モニタ111、操作部112、CPU113、システムバス114、記録媒体115、領域分割部116、及び画像合成部117を備える。   The digital camera 100 includes a photographing lens 101, apertures 102 and 103, an imaging unit 104, an A / D conversion unit 105, a timing generator (hereinafter referred to as “TG”) 106, a memory 107, an image processing unit 108, a recording I / F 109, A display I / F 110, a monitor 111, an operation unit 112, a CPU 113, a system bus 114, a recording medium 115, an area division unit 116, and an image composition unit 117 are provided.

A/D変換部105、メモリ107、画像処理部108、記録I/F109、表示I/F110、CPU113、領域分割部116、及び画像合成部117は、システムバス114を介して互いに接続され、記録I/F109及び表示I/F110には記録媒体115及びモニタ111が夫々接続されている。また、CPU113には絞り102,103、TG106、及び操作部112が接続され、TG106には撮像部104及びA/D変換部105が接続され、A/D変換部105には撮像部104が接続されている。   The A / D conversion unit 105, the memory 107, the image processing unit 108, the recording I / F 109, the display I / F 110, the CPU 113, the area dividing unit 116, and the image composition unit 117 are connected to each other via the system bus 114 and recorded. A recording medium 115 and a monitor 111 are connected to the I / F 109 and the display I / F 110, respectively. In addition, the diaphragms 102 and 103, the TG 106, and the operation unit 112 are connected to the CPU 113, the imaging unit 104 and the A / D conversion unit 105 are connected to the TG 106, and the imaging unit 104 is connected to the A / D conversion unit 105. Has been.

撮影レンズ101は、例えば、ズームレンズ及びフォーカスレンズを含む複数のレンズから構成され、レンズ駆動部(不図示)によって光軸方向に移動される。絞り102,103は撮影レンズ101を介して入射される光量を調節する。撮像部104は光学像を電気信号に変換するCCDやCMOS素子で構成される。A/D変換部105はアナログ信号をデジタル信号に変換する。TG106は撮像部104及びA/D変換部105に対してタイミングパルスを供給し、撮像部104及びA/D変換部105の駆動タイミングを制御する。メモリ107は撮影された画像データや複数の画像データが合成された画像データを格納すると共にA/D変換部105によって変換されたデジタル信号を記録する。   The photographing lens 101 is composed of a plurality of lenses including, for example, a zoom lens and a focus lens, and is moved in the optical axis direction by a lens driving unit (not shown). The diaphragms 102 and 103 adjust the amount of light incident through the photographing lens 101. The imaging unit 104 includes a CCD or a CMOS element that converts an optical image into an electrical signal. The A / D converter 105 converts an analog signal into a digital signal. The TG 106 supplies a timing pulse to the imaging unit 104 and the A / D conversion unit 105 and controls the driving timing of the imaging unit 104 and the A / D conversion unit 105. The memory 107 stores captured image data and image data obtained by combining a plurality of image data, and records a digital signal converted by the A / D conversion unit 105.

画像処理部108は画像データに対する処理、例えば、画像データの諧調輝度の変更を実行する。モニタ111は、例えば、液晶モニタであり、撮影された画像データ、並びに明るさ及びコントラストの調整を行うための画面が表示される。CPU113は、ROM(不図示)に格納されたシーケンスプログラムを実行して、デジタルカメラ100を制御する。記録媒体115はハードディスクや半導体メモリを内蔵したメモリカードであり、例えば、画像データを格納する。操作部112はレリーズボタンや操作ボタンを有する。   The image processing unit 108 performs processing on the image data, for example, changes the gradation brightness of the image data. The monitor 111 is, for example, a liquid crystal monitor, and displays captured image data and a screen for adjusting brightness and contrast. The CPU 113 controls the digital camera 100 by executing a sequence program stored in a ROM (not shown). The recording medium 115 is a memory card with a built-in hard disk or semiconductor memory and stores, for example, image data. The operation unit 112 has a release button and an operation button.

領域分割部116はメモリ107に格納された画像データを分割する。また、領域分割部116は画像データにおける明暗の境界部であるエッジを検出する。画像合成部117はメモリ107に格納された、例えば、2つの画像データを合成する。画像合成部117は、領域分割部116によって分割された領域毎に画像データを合成してもよく、2つの画像データは、例えば、比較明合成又は比較暗合成によって合成される。   The area dividing unit 116 divides the image data stored in the memory 107. The area dividing unit 116 detects an edge that is a boundary between light and dark in the image data. The image synthesis unit 117 synthesizes, for example, two image data stored in the memory 107. The image synthesis unit 117 may synthesize image data for each region divided by the region division unit 116, and the two image data are synthesized by, for example, comparative bright synthesis or comparative dark synthesis.

なお、比較明合成とは、異なるタイミングで撮影された2つの画像データを合成する際に、同じアドレスの一方の画像データを構成する画素の各々と他方の画像データを構成する画素の各々とを比較し、より輝度の高い画素の輝度を採用して画像データを合成する方法である。また、比較暗合成とは、異なるタイミングで撮影された2つの画像データを合成する際に、同じアドレスの一方の画像データを構成する画素の各々と他方の画像データを構成する画素の各々とを比較し、より輝度の低い画素の輝度を採用して画像データを合成する方法である。   Note that comparatively bright combination means that when two image data shot at different timings are combined, each of the pixels constituting one image data of the same address and each of the pixels constituting the other image data are combined. This is a method of synthesizing image data by adopting the brightness of pixels with higher brightness. Further, comparative dark combining is the process of combining two image data shot at different timings, each of the pixels constituting one image data of the same address and each of the pixels constituting the other image data. This is a method of synthesizing image data by using the luminance of a pixel having a lower luminance.

図2A乃至図2Dは、図1の領域分割部116によって画像データを複数の領域に分割する方法を説明するために用いられる図である。   2A to 2D are diagrams used to explain a method of dividing image data into a plurality of regions by the region dividing unit 116 of FIG.

図2A及び図2Bは、図1のデジタルカメラ100によって撮影された画像データを説明するために用いられる図である。図2Aの画像データは撮影時にデジタルカメラ100が露光を開始する時間(以下、「露光開始時間」という)がt0のときに撮影されており、図2Bの画像データは露光開始時間t0から一定の時間が経過した露光開始時間t1のときに撮影されている。図2Aの画像データには星201,202及び建物203が存在し、図2Bの画像データには星201,202と夫々同一である星204,205及び建物203が存在する。なお、星201,202は地球の自転に起因して時間の経過とともに星204,205の位置に移動する。   2A and 2B are diagrams used to explain image data captured by the digital camera 100 of FIG. The image data of FIG. 2A is taken when the time when the digital camera 100 starts exposure (hereinafter referred to as “exposure start time”) at the time of shooting is t0, and the image data of FIG. 2B is constant from the exposure start time t0. The image is taken at the exposure start time t1 when the time has passed. The image data in FIG. 2A includes stars 201 and 202 and a building 203, and the image data in FIG. 2B includes stars 204 and 205 and a building 203 which are the same as the stars 201 and 202, respectively. The stars 201 and 202 move to the positions of the stars 204 and 205 with the passage of time due to the rotation of the earth.

図2Cは、図2A及び図2Bの各画像データを比較暗合成した画像データを説明するために用いられる図である。露光開始時間t0から露光開始時間t1までの間に星201,202は星204,205の位置に移動しているので、図2Bにおいて星201,202の位置に対応する位置には星201,202は存在せず、当該位置の輝度は極めて低い。同様に、図2Aにおいて星204,205の位置に対応する位置には星204,205は存在せず、当該位置の輝度は極めて低い。そのため、図2A及び図2Bの画像データが比較暗合成された場合、合成された画像データにおいて、星201,202に対応する位置及び星204,205に対応する位置には、星201,202及び星204,205は存在せず、合成された画像データには建物203のみが存在する(図2C)。   FIG. 2C is a diagram used for explaining image data obtained by comparatively dark-combining the image data in FIGS. 2A and 2B. Since the stars 201 and 202 have moved to the positions of the stars 204 and 205 between the exposure start time t0 and the exposure start time t1, the stars 201 and 202 are located at positions corresponding to the positions of the stars 201 and 202 in FIG. 2B. Does not exist, and the brightness at this position is extremely low. Similarly, in FIG. 2A, the stars 204 and 205 do not exist at positions corresponding to the positions of the stars 204 and 205, and the luminance at the positions is extremely low. Therefore, when the image data of FIGS. 2A and 2B are comparatively dark-synthesized, the positions of the synthesized image data corresponding to the stars 201 and 202 and the positions corresponding to the stars 204 and 205 are The stars 204 and 205 do not exist, and only the building 203 exists in the synthesized image data (FIG. 2C).

図2Dは、図2Cの画像データから領域分割部116によってエッジを検出したエッジ検出画像データを説明するために用いられる図である。図2Cの画像データには建物203のみが存在しており、エッジを検出したときは画像データの明暗の境界部として建物203の輪郭のみが検出される(図2D)。   FIG. 2D is a diagram used for explaining edge detection image data in which an edge is detected by the region dividing unit 116 from the image data of FIG. 2C. Only the building 203 exists in the image data of FIG. 2C, and when an edge is detected, only the outline of the building 203 is detected as a light / dark boundary portion of the image data (FIG. 2D).

上述したように、図2A及び図2Bの画像データを比較暗合成することによって合成された画像データには星201,202及び星204,205が存在しないので、図2A及び図2Bの画像データを星が存在する領域(以下、「夜空の領域」という)及び星が存在しない領域(以下、「夜空以外の領域」という)に分割する場合、エッジが検出された領域は夜空以外の領域であると特定できる。すなわち、エッジを境界として画像データを夜空以外の領域及び夜空の領域に分割できる。   As described above, since the stars 201 and 202 and the stars 204 and 205 do not exist in the image data synthesized by the comparative dark synthesis of the image data of FIGS. 2A and 2B, the image data of FIGS. When the image is divided into an area where stars exist (hereinafter referred to as “night sky area”) and an area where no stars exist (hereinafter referred to as “non-night sky area”), the area where the edge is detected is an area other than the night sky. Can be specified. In other words, the image data can be divided into an area other than the night sky and an area of the night sky with the edge as a boundary.

図2A乃至図2Dの画像データを複数の領域に分割する方法によれば、図2Aの画像データ及び図2Bの画像データが比較暗合成によって合成され、合成された画像データ(図2C)からエッジが検出され(図2D)、エッジを境界として画像データを夜空以外の領域及び夜空の領域に分割できるので、後述する図3A乃至図3Eにおいて画像データを合成する際に、比較暗合成を適用すべき夜空以外の領域(高輝度の領域)及び比較明合成を適用すべき夜空の領域(低輝度の領域)を正確に区分することができ、これにより、画像データに依存しない所定の法則、例えば、画像データを所定のブロックに区分けする方法に従って画像データを複数の領域に分割し、分割された各領域に比較暗合成又は比較明合成を適用する場合に比べて、比較暗合成及び比較明合成の適用の正確性を向上することができる。   According to the method of dividing the image data of FIGS. 2A to 2D into a plurality of regions, the image data of FIG. 2A and the image data of FIG. 2B are synthesized by comparative dark synthesis, and edges are synthesized from the synthesized image data (FIG. 2C). (FIG. 2D), and the image data can be divided into a region other than the night sky and a night sky region with the edge as a boundary. Therefore, when combining image data in FIGS. 3A to 3E described later, comparative dark combining is applied. Areas other than the power night sky (high brightness areas) and night sky areas (low brightness areas) to which the comparatively bright composition should be applied can be accurately discriminated, so that a predetermined law independent of image data, for example, Compared to the case where image data is divided into a plurality of areas according to a method of dividing image data into predetermined blocks, and comparative dark synthesis or comparatively bright synthesis is applied to each divided area. It is possible to improve the accuracy of the application of the dark synthesis and lighten compositing.

なお、画像データは、デジタルカメラ100から被写体までの距離に基づいて分割されてもよい。例えば、図2Aの画像データにおいて、被写体として星201,202及び建物203が検出され、デジタルカメラ100から星201,202及び建物203までの夫々の距離が三角測距や位相差方式等によって測定される。デジタルカメラ100から星201,202までの距離はデジタルカメラ100から建物203までの距離に比べて極めて長いので、画像データは星201,202を含む領域及び建物203を含む領域に分割される。このとき、星201,202を含む領域が夜空の領域に該当し、建物203を含む領域が夜空以外の領域に該当する。   Note that the image data may be divided based on the distance from the digital camera 100 to the subject. For example, in the image data of FIG. 2A, stars 201 and 202 and a building 203 are detected as subjects, and the distances from the digital camera 100 to the stars 201, 202 and the building 203 are measured by a triangulation, a phase difference method, or the like. The Since the distance from the digital camera 100 to the stars 201 and 202 is extremely longer than the distance from the digital camera 100 to the building 203, the image data is divided into an area including the stars 201 and 202 and an area including the building 203. At this time, a region including the stars 201 and 202 corresponds to a night sky region, and a region including the building 203 corresponds to a region other than the night sky.

図3A乃至図3Eは、画像合成部117が複数の画像データを合成する際に、領域分割部116によって画像データから分割された領域の各々について合成する方法を説明するために用いられる図である。   3A to 3E are diagrams used to describe a method of combining each of the regions divided from the image data by the region dividing unit 116 when the image combining unit 117 combines a plurality of image data. .

図3A、図3B、及び図3Dは図1のデジタルカメラ100によって撮影された画像データを説明するために用いられる図である。図3Aの画像データは露光開始時間がt0のときに撮影されており、図2Bの画像データは露光開始時間t0から一定の時間が経過した露光開始時間t1のときに撮影されており、図3Dの画像データは露光開始時間t1から更に一定の時間が経過した露光開始時間t2のときに撮影されている。   3A, 3B, and 3D are diagrams used for explaining image data captured by the digital camera 100 of FIG. The image data of FIG. 3A is taken when the exposure start time is t0, and the image data of FIG. 2B is taken when the exposure start time t1 when a certain time has elapsed from the exposure start time t0. The image data is taken at the exposure start time t2 when a certain time has elapsed from the exposure start time t1.

図3Aの画像データには星301,302及び建物203が存在し、図3Bの画像データには星303,304と建物203が存在し、図3Dの画像データには星305,306、建物203、及び偶然通りがかった車(不図示)によって照射された高輝度光307が存在する。   3A includes stars 301 and 302 and a building 203, the image data illustrated in FIG. 3B includes stars 303 and 304 and a building 203, and the image data illustrated in FIG. 3D includes stars 305 and 306 and a building 203. And high-intensity light 307 irradiated by a car (not shown) that passes by chance.

図3A乃至図3Eの複数の画像データを合成する方法では、前提として上述の図2A乃至図2Dの画像データを複数の領域に分割する方法により、画像データが夜空以外の領域及び夜空の領域に分割されており、分割された夜空以外の領域及び夜空の領域の各々について図3A、図3B、及び図3Dの画像データを合成する。具体的には、図3Aの夜空の領域及び図3Bの夜空の領域を比較明合成し、図3Aの夜空以外の領域及び図3Bの夜空以外の領域を比較暗合成する。これにより、星301〜304及び建物203が存在する画像データが得られる(図3C)。   In the method of combining a plurality of image data of FIGS. 3A to 3E, the image data of FIG. 2A to FIG. 2D is divided into a plurality of regions as a premise, so that the image data is divided into regions other than the night sky and night sky regions. The image data of FIG. 3A, FIG. 3B, and FIG. 3D is synthesized for each of the divided areas other than the night sky and the night sky area. Specifically, the area of the night sky in FIG. 3A and the area of the night sky in FIG. 3B are relatively brightly synthesized, and the area other than the night sky in FIG. 3A and the area other than the night sky in FIG. Thereby, image data in which the stars 301 to 304 and the building 203 exist is obtained (FIG. 3C).

次に、夜空以外の領域及び夜空の領域の各々について図3C及び図3Dの画像データを合成する。具体的には、図3Cの夜空の領域及び図3Dの夜空の領域を比較明合成し、図3Cの夜空以外の領域及び図3Dの夜空以外の領域を比較暗合成する。このとき、高輝度光307によって一時的に図3C又は図3Dの夜空以外の領域が高輝度の領域となった場合であっても、図3Cの夜空以外の領域及び図3Dの夜空以外の領域は比較暗合成によって合成されるので、合成後の画像データから高輝度光307が除外され、星301〜306及び建物203のみが存在する画像データが得られる(図3E)。   Next, the image data of FIGS. 3C and 3D is synthesized for each of the area other than the night sky and the night sky area. Specifically, the night sky region of FIG. 3C and the night sky region of FIG. 3D are comparatively brightly combined, and the region other than the night sky of FIG. 3C and the region other than the night sky of FIG. At this time, even when the area other than the night sky in FIG. 3C or FIG. 3D temporarily becomes a high-brightness area by the high-intensity light 307, the area other than the night sky in FIG. 3C and the area other than the night sky in FIG. Are synthesized by comparative dark synthesis, the high-intensity light 307 is excluded from the synthesized image data, and image data including only the stars 301 to 306 and the building 203 is obtained (FIG. 3E).

図3A乃至図3Eの複数の画像データを合成する方法によれば、図3A、図3B、図3Dの夜空以外の領域は比較明合成によって合成され、図3A、図3B、図3Dの夜空の領域は比較暗合成によって合成される。このように、分割された領域毎に比較明合成又は比較暗合成を使い分けすることができるので、撮影者が意図しない高輝度光307が発生した場合、当該高輝度光307を含む分割された領域(夜空以外の領域)の合成に比較暗合成を用いることによって合成された画像データから高輝度光307だけを効果的に除外できる。   According to the method for synthesizing a plurality of image data in FIGS. 3A to 3E, the areas other than the night sky in FIGS. 3A, 3B, and 3D are synthesized by comparative bright synthesis, and the night sky in FIGS. 3A, 3B, and 3D is synthesized. Regions are synthesized by comparative dark synthesis. Thus, since the comparative bright combination or the comparative dark combination can be used properly for each divided region, when the high luminance light 307 not intended by the photographer is generated, the divided region including the high luminance light 307 is generated. By using comparative dark combining for combining (regions other than the night sky), only the high-intensity light 307 can be effectively excluded from the combined image data.

図4は、図1におけるCPU113によって実行されるインターバル撮影処理の手順を示すフローチャートである。インターバル撮影とは、例えば、夜空を移動する星の光跡を撮影する際に、予め設定された時間間隔で露光動作が開始される撮影である。   FIG. 4 is a flowchart showing the procedure of interval shooting processing executed by the CPU 113 in FIG. The interval shooting is, for example, shooting in which an exposure operation is started at a preset time interval when shooting a light trail of a star moving in the night sky.

図4において、インターバル撮影を実行するために、露光動作が開始される時間間隔がユーザによって設定され(ステップS401)、露光動作を開始する時間が経過したか否かを判別する(ステップS402)。ステップS402の判別の結果、露光動作を開始する時間が経過していないときはステップS402に戻り、露光動作を開始する時間が経過したときは後述する分割処理が実行されているか否かを判別する(ステップS403)。   In FIG. 4, in order to execute interval shooting, the time interval at which the exposure operation is started is set by the user (step S401), and it is determined whether or not the time for starting the exposure operation has passed (step S402). As a result of the determination in step S402, when the time for starting the exposure operation has not elapsed, the process returns to step S402, and when the time for starting the exposure operation has elapsed, it is determined whether or not a division process described later is being performed. (Step S403).

ステップS403の判別の結果、既に分割処理が実行されているときは、露光動作を開始し(ステップS404)、分割処理が実行されていないときは、分割処理を実行できるか否かを判別する(ステップS405)。ステップS405の判別の結果、分割処理を実行できるときは分割処理を実行して画像データを複数の領域に分割し(ステップS406)、ステップS404に進む。一方、分割処理を実行できないとき(ステップS405でNO)は露光動作を開始して(ステップS407)、ステップS402に戻る。   If the result of determination in step S403 is that division processing has already been performed, the exposure operation is started (step S404). If division processing has not been performed, it is determined whether or not the division processing can be performed (step S404). Step S405). If the result of determination in step S405 is that division processing can be executed, the division processing is executed to divide the image data into a plurality of regions (step S406), and the process proceeds to step S404. On the other hand, when the division process cannot be executed (NO in step S405), the exposure operation is started (step S407), and the process returns to step S402.

次に、後述する領域別合成処理を実行して画像データから分割された領域毎に画像データを合成し(ステップS408)、インターバル撮影の終了が指示されたか否かを判別する(ステップS409)。インターバル撮影の終了が指示されていないときはステップS402に戻り、インターバル撮影の終了が指示されたときは本処理を終了する。   Next, a region-by-region combining process described later is executed to combine the image data for each region divided from the image data (step S408), and it is determined whether or not the end of interval shooting has been instructed (step S409). When the end of interval shooting is not instructed, the process returns to step S402, and when the end of interval shooting is instructed, the process ends.

図5は、図4のステップS406で実行される分割処理の手順を示すフローチャートである。   FIG. 5 is a flowchart showing the procedure of the division process executed in step S406 of FIG.

図5において、まず、図2A乃至図2Dの画像データを複数の領域に分割する方法に従い、分割処理に使用する2つの画像データを取得し(ステップS501)、取得された2つの画像データを比較暗合成によって合成し(ステップS502)、合成した画像データのエッジを検出し(ステップS503)、検出されたエッジを境界として画像データを複数の領域、例えば、夜空以外の領域及び夜空の領域に分割して(ステップS504)、本処理を終了する。   In FIG. 5, first, according to the method of dividing the image data of FIGS. 2A to 2D into a plurality of regions, two image data used for the division processing are acquired (step S501), and the two acquired image data are compared. The synthesized image data is synthesized by dark synthesis (step S502), the edge of the synthesized image data is detected (step S503), and the image data is divided into a plurality of regions, for example, a region other than the night sky and a night sky region, using the detected edge as a boundary. (Step S504), and this process is terminated.

図6は、図4のステップS408で実行される領域別合成処理の手順を示すフローチャートである。領域別合成処理では、原則として図3A乃至図3Eの複数の画像データを合成する方法に従い、図5の分割処理によって画像データから分割された領域毎に画像データを合成する。   FIG. 6 is a flowchart showing the procedure of the region-by-region combining process executed in step S408 of FIG. In the region-by-region combination processing, image data is combined for each region divided from the image data by the division processing in FIG. 5 according to the method of combining a plurality of image data in FIGS. 3A to 3E in principle.

図6において、分割された複数の領域のうち合成する2つの領域を特定し(ステップS601)、特定された領域に対して後述する領域判定処理を実行して当該領域に比較明合成又は比較暗合成のいずれを適用するかを決定し(ステップS602)、特定された画像データの領域に対して比較明合成又は比較暗合成を行い(ステップS603)、合成後の画像データをメモリ107に格納し(ステップS604)、画像データから分割された全ての領域の合成が完了したか否かを判別する(ステップS605)。   In FIG. 6, two regions to be combined among the plurality of divided regions are specified (step S601), and a region determination process described later is executed on the specified regions to perform comparative bright combination or comparative darkness on the regions. It is determined which combination is to be applied (step S602), comparative bright combination or comparative dark combination is performed on the specified image data area (step S603), and the combined image data is stored in the memory 107. (Step S604), it is determined whether or not the synthesis of all the regions divided from the image data has been completed (Step S605).

ステップS605の判別の結果、画像データから分割された全ての領域の合成が完了していないときは、未だ合成が完了していない別の領域について合成を実行するためにステップS601に戻り、画像データから分割された全ての領域の合成が完了したときは本処理を終了する。   If the result of determination in step S605 is that the synthesis of all areas divided from the image data has not been completed, the process returns to step S601 to perform the synthesis for another area that has not yet been synthesized, and the image data When the synthesis of all the areas divided from is completed, this processing is terminated.

図7は、図6のステップS603で実行される領域判定処理の手順を示すフローチャートである。   FIG. 7 is a flowchart showing the procedure of the area determination process executed in step S603 of FIG.

図7において、ステップS601で特定された2つの領域の夫々の輝度値を算出すると共に、算出された輝度値に基づいて2つの領域の輝度差を算出し(ステップS701)、算出された輝度差がユーザによって予め設定された閾値(Yth)よりも大きいか否かを判別する(ステップS702)。算出された輝度差が閾値よりも大きいときは比較暗合成によって2つの領域を合成し(ステップS703)、算出された輝度差が閾値よりも小さいときは比較明合成によって2つの領域を合成する(ステップS704)。 In FIG. 7, the luminance value of each of the two areas specified in step S601 is calculated, and the luminance difference between the two areas is calculated based on the calculated luminance value (step S701). Is greater than a threshold value (Y th ) preset by the user (step S702). When the calculated luminance difference is larger than the threshold value, the two regions are synthesized by comparative dark synthesis (step S703), and when the calculated luminance difference is smaller than the threshold value, the two regions are synthesized by comparative bright synthesis (step S703). Step S704).

次いで、分割された全ての領域が合成されたか否かを判別する(ステップS705)。分割された全ての領域が合成されていないときはステップS701に戻り、分割された全ての領域が合成されているときは本処理を終了する。   Next, it is determined whether or not all divided areas have been combined (step S705). When all the divided areas have not been combined, the process returns to step S701, and when all the divided areas have been combined, this process ends.

図4乃至図7の処理によれば、画像データが複数の領域に分割され(ステップS406,S504)、画像データから分割された領域毎に比較明合成又は比較暗合成のいずれかを適用して2つの画像データが合成される(ステップS408,S601〜603,S703,S704)ので、分割された領域毎に比較明合成又は比較暗合成を使い分けすることができる。なお、図4乃至図7の処理はデジタルカメラ100が有するCPU113によって実行されるので、デジタルカメラ100によって撮影された画像データを直ちに比較明合成又は比較暗合成に使用できる。   4 to 7, the image data is divided into a plurality of regions (steps S406 and S504), and either the comparative bright combination or the comparative dark combination is applied to each of the regions divided from the image data. Since the two image data are synthesized (steps S408, S601 to 603, S703, and S704), it is possible to selectively use comparatively bright synthesis or comparatively dark synthesis for each divided area. 4 to 7 are executed by the CPU 113 of the digital camera 100, the image data photographed by the digital camera 100 can be used immediately for comparative bright synthesis or comparative dark synthesis.

また、図7の処理によれば、合成する2つの領域の夫々の輝度値を算出し、算出された輝度値に基づいて当該2つの領域の輝度差を算出し(ステップS701)、算出された輝度差がユーザによって予め設定された閾値よりも大きいときは比較暗合成によって画像データを合成する(ステップS703)。設定された閾値よりも或る領域の輝度差が大きいときは撮影者の意図しない画像データ、例えば、高輝度光307が当該画像データに含まれていると推定されるが、これにより、高輝度光307が含まれていると推定される領域を比較暗合成によって合成でき、もって、合成後の画像データから撮影者が意図しない画像データだけを効果的に除外できる。   Further, according to the processing of FIG. 7, the brightness value of each of the two areas to be combined is calculated, and the brightness difference between the two areas is calculated based on the calculated brightness value (step S701). If the luminance difference is larger than a threshold value set in advance by the user, the image data is synthesized by comparative dark synthesis (step S703). When the brightness difference in a certain area is larger than the set threshold value, it is estimated that image data not intended by the photographer, for example, high brightness light 307 is included in the image data. The region estimated to contain the light 307 can be synthesized by comparative dark synthesis, so that only image data not intended by the photographer can be effectively excluded from the synthesized image data.

なお、図7の処理において、各領域で合成される2つの画像データの輝度差が予め設定された閾値を超えるか否かに基づいて各領域に適用される合成方法(比較暗合成、若しくは比較明合成)が決定されるが、分割された各領域の面積に基づいて合成方法が決定されてもよい。例えば、画像データが夜空の領域及び夜空以外の領域に分割された場合、2つの領域の面積を比較し、より面積の大きい領域が比較明合成によって合成される。夜空を移動する星の光跡を撮影する際、画像において夜空が大きい面積を占めるため、大きい面積の領域が夜空であると推定することができ、さらに、夜空であると推定された領域が比較明合成によって画像データが合成されるので、合成後の画像データから星の画像データが除外される可能性を回避できる。   In the process of FIG. 7, a synthesis method (comparative dark synthesis or comparison) applied to each area based on whether or not the luminance difference between the two image data synthesized in each area exceeds a preset threshold value. Bright combination) is determined, but the combination method may be determined based on the area of each divided region. For example, when the image data is divided into a night sky region and a region other than the night sky, the areas of the two regions are compared, and a region with a larger area is synthesized by comparative bright synthesis. When shooting light trails of stars moving in the night sky, the night sky occupies a large area in the image, so it is possible to estimate that the area of the large area is the night sky, and also compare the areas estimated to be the night sky Since the image data is synthesized by the bright synthesis, the possibility that the star image data is excluded from the synthesized image data can be avoided.

上述した実施の形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理において、そのプログラム、及び該プログラムを格納するコンピュータ読み取り可能な記憶媒体は本発明を構成する。   Software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. In the processing, the program and a computer-readable storage medium storing the program constitute the present invention.

100 デジタルカメラ
113 CPU
116 領域分割部
117 画像合成部
201〜202,204〜205,301〜306 星
203 建物
307 高輝度光
100 Digital camera 113 CPU
116 Region segmentation unit 117 Image composition unit 201-202, 204-205, 301-306 Star 203 Building 307 High brightness light

Claims (9)

異なるタイミングで撮影された第1の画像データ及び第2の画像データを明るさに基づいて合成する合成手段と、
前記第1の画像データを第1の領域及び第2の領域に分割すると共に、前記第2の画像データを前記第1の領域及び前記第2の領域の夫々に対応するように第3の領域及び第4の領域に分割する分割手段とを備え、
前記合成手段は、前記第1の領域及び前記第3の領域、並びに前記第2の領域及び前記第4の領域を夫々明るさに基づいて合成することを特徴とする画像処理装置。
Combining means for combining the first image data and the second image data captured at different timings based on brightness;
The first image data is divided into a first area and a second area, and the second image data is divided into a third area so as to correspond to each of the first area and the second area. And a dividing means for dividing into a fourth region,
The image synthesizing unit synthesizes the first area, the third area, the second area, and the fourth area based on brightness.
前記合成手段は、前記第1の画像データ及び前記第2の画像データを比較明合成又は比較暗合成によって合成することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the synthesizing unit synthesizes the first image data and the second image data by comparative bright synthesis or comparative dark synthesis. 前記第1の領域及び前記第2の領域の面積を比較し、前記第1の領域の面積が前記第2の領域の面積よりも大きいときは前記第1の領域及び前記第3の領域を前記比較明合成によって合成し、前記第2の領域の面積が前記第1の領域の面積よりも大きいときは前記第2の領域と前記第4の領域を前記比較明合成によって合成することを特徴とする請求項2記載の画像処理装置。   The areas of the first region and the second region are compared, and when the area of the first region is larger than the area of the second region, the first region and the third region are Synthesized by comparative bright synthesis, and when the area of the second region is larger than the area of the first region, the second region and the fourth region are synthesized by the comparative bright synthesis. The image processing apparatus according to claim 2. 前記第1の領域、前記第2の領域、前記第3の領域、及び前記第4の領域の輝度値を算出する算出手段と、
前記算出された前記第1の領域の輝度値及び前記第3の領域の輝度値の輝度差、又は前記算出された前記第2の領域の輝度値及び前記第4の領域の輝度値の輝度差を算出する輝度差算出手段とを更に備え、
前記第1の領域の輝度値及び前記第3の領域の輝度値の輝度差、又は前記第2の領域の輝度値及び前記第4の領域の輝度値の輝度差が予め設定された閾値よりも大きいときは、前記比較暗合成によって前記第1の領域及び前記第3の領域を合成し、又は前記第2の領域及び前記第4の領域を合成することを特徴とする請求項2又は3記載の画像処理装置。
Calculating means for calculating luminance values of the first region, the second region, the third region, and the fourth region;
The luminance difference between the calculated luminance value of the first region and the luminance value of the third region, or the luminance difference between the calculated luminance value of the second region and the luminance value of the fourth region. Brightness difference calculating means for calculating
The luminance difference between the luminance value of the first region and the luminance value of the third region, or the luminance difference of the luminance value of the second region and the luminance value of the fourth region is greater than a preset threshold value. 4. If larger, the first area and the third area are synthesized by the comparative dark synthesis, or the second area and the fourth area are synthesized. Image processing apparatus.
前記分割手段は、前記第1の画像データ及び前記第2の画像データを前記比較暗合成によって合成し、前記合成した画像データから明暗の境界部を検出し、前記境界部を境界として前記第1の画像データを高輝度の領域及び低輝度の領域に分割することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。   The dividing unit combines the first image data and the second image data by the comparative dark combination, detects a light / dark boundary portion from the combined image data, and uses the boundary portion as a boundary. The image processing apparatus according to claim 2, wherein the image data is divided into a high luminance area and a low luminance area. 前記合成手段は、前記高輝度の領域を前記比較暗合成によって合成し、前記低輝度の領域を前記比較明合成によって合成することを特徴とする請求項5記載の画像処理装置。   6. The image processing apparatus according to claim 5, wherein the synthesizing unit synthesizes the high luminance area by the comparative dark synthesis and synthesizes the low luminance area by the comparative bright synthesis. 前記画像処理装置が撮像装置であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing apparatus is an imaging apparatus. 異なるタイミングで撮影された第1の画像データ及び第2の画像データを明るさに基づいて合成する合成ステップと、
前記第1の画像データを第1の領域及び第2の領域に分割すると共に、前記第2の画像データを前記第1の領域及び前記第2の領域の夫々に対応するように第3の領域及び第4の領域に分割する分割ステップとを有し、
前記合成ステップでは、前記第1の領域及び前記第3の領域、並びに前記第2の領域及び前記第4の領域が夫々明るさに基づいて合成されることを特徴とする画像処理方法。
A combining step of combining the first image data and the second image data captured at different timings based on brightness;
The first image data is divided into a first area and a second area, and the second image data is divided into a third area so as to correspond to each of the first area and the second area. And a dividing step of dividing into a fourth region,
In the composition step, the first region and the third region, and the second region and the fourth region are composed based on brightness, respectively.
画像処理方法をコンピュータに実行させるプログラムであって、
前記画像処理方法は、異なるタイミングで撮影された第1の画像データ及び第2の画像データを明るさに基づいて合成する合成ステップと、
前記第1の画像データを第1の領域及び第2の領域に分割すると共に、前記第2の画像データを前記第1の領域及び前記第2の領域の夫々に対応するように第3の領域及び第4の領域に分割する分割ステップとを有し、
前記合成ステップでは、前記第1の領域及び前記第3の領域、並びに前記第2の領域及び前記第4の領域が夫々明るさに基づいて合成されることを特徴とするプログラム。
A program for causing a computer to execute an image processing method,
The image processing method includes combining a first image data and a second image data captured at different timings based on brightness;
The first image data is divided into a first area and a second area, and the second image data is divided into a third area so as to correspond to each of the first area and the second area. And a dividing step of dividing into a fourth region,
In the composition step, the first region and the third region, and the second region and the fourth region are respectively composed based on brightness.
JP2014099844A 2014-05-13 2014-05-13 Image processing system, method of the same, and program Pending JP2015216604A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014099844A JP2015216604A (en) 2014-05-13 2014-05-13 Image processing system, method of the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014099844A JP2015216604A (en) 2014-05-13 2014-05-13 Image processing system, method of the same, and program

Publications (1)

Publication Number Publication Date
JP2015216604A true JP2015216604A (en) 2015-12-03

Family

ID=54753086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014099844A Pending JP2015216604A (en) 2014-05-13 2014-05-13 Image processing system, method of the same, and program

Country Status (1)

Country Link
JP (1) JP2015216604A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153630A1 (en) * 2019-01-24 2020-07-30 삼성전자 주식회사 Image processing method and electronic device for supporting same
JP2020129753A (en) * 2019-02-08 2020-08-27 オリンパス株式会社 Imaging apparatus and imaging method
CN112672070A (en) * 2020-12-30 2021-04-16 惠州华阳通用电子有限公司 Camera shooting parameter adjusting method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153630A1 (en) * 2019-01-24 2020-07-30 삼성전자 주식회사 Image processing method and electronic device for supporting same
JP2020129753A (en) * 2019-02-08 2020-08-27 オリンパス株式会社 Imaging apparatus and imaging method
JP7148428B2 (en) 2019-02-08 2022-10-05 オリンパス株式会社 Imaging device and imaging method
CN112672070A (en) * 2020-12-30 2021-04-16 惠州华阳通用电子有限公司 Camera shooting parameter adjusting method
CN112672070B (en) * 2020-12-30 2022-07-26 惠州华阳通用电子有限公司 Camera shooting parameter adjusting method

Similar Documents

Publication Publication Date Title
KR101783196B1 (en) Method and apparatus for obtaining an image with motion blur
JP6512810B2 (en) Image pickup apparatus, control method and program
JP6218377B2 (en) Image processing apparatus and image processing method
KR101566081B1 (en) Image processing apparatus, image processing method, and storage medium
JP5950678B2 (en) Imaging apparatus, control method, and program
IL301734A (en) System and method for creating background blur in camera panning or motion
JP2007274213A (en) Image processor, method and imaging apparatus
JP2015231118A (en) Image composition device, image composition system and image composition method
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
JP2015216604A (en) Image processing system, method of the same, and program
JP6700818B2 (en) Image processing device, imaging device, and image processing method
JP2015204470A (en) Imaging apparatus, control method thereof, and program
JP2018074361A (en) Imaging apparatus, imaging method, and program
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP2015041865A (en) Image processing apparatus and image processing method
JP2015039150A (en) Exposure determination device, imaging apparatus, control method, and program
JP6226536B2 (en) Imaging apparatus and control method thereof
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP6975144B2 (en) Imaging processing device, electronic device, imaging processing method, imaging processing device control program
JP2008283477A (en) Image processor, and image processing method
JPWO2019188933A1 (en) Imaging device, imaging method, and camera system
JP6360409B2 (en) Imaging apparatus and imaging method