JP6080503B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6080503B2
JP6080503B2 JP2012244601A JP2012244601A JP6080503B2 JP 6080503 B2 JP6080503 B2 JP 6080503B2 JP 2012244601 A JP2012244601 A JP 2012244601A JP 2012244601 A JP2012244601 A JP 2012244601A JP 6080503 B2 JP6080503 B2 JP 6080503B2
Authority
JP
Japan
Prior art keywords
image
positional deviation
ratio
images
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012244601A
Other languages
Japanese (ja)
Other versions
JP2014093037A (en
Inventor
彰太 山口
彰太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012244601A priority Critical patent/JP6080503B2/en
Publication of JP2014093037A publication Critical patent/JP2014093037A/en
Application granted granted Critical
Publication of JP6080503B2 publication Critical patent/JP6080503B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の画像データを合成して、画像データのダイナミックレンジを拡大する画像処理装置に関する。   The present invention relates to an image processing apparatus that combines a plurality of image data to expand the dynamic range of the image data.

従来より、露出の異なる複数の画像を合成することにより、ダイナミックレンジが拡大された合成画像を得る処理が提案されている。前記処理は、低輝度領域に対しては高露出画像を主に使用し、高輝度領域に対しては低露出画像を主に使用することで、白とび、黒潰れの影響を低減し、画像のダイナミックレンジを拡大するものである。   Conventionally, a process for obtaining a composite image with an expanded dynamic range by combining a plurality of images with different exposures has been proposed. The processing mainly uses high-exposure images for low-brightness areas, and mainly uses low-exposure images for high-brightness areas, thereby reducing the effects of overexposure and blackout, It expands the dynamic range.

前記処理において、複数撮影されたそれぞれの画像データは、手ぶれ等により相対的な位置ズレが発生しているため、合成の前に位置ズレを補正する処理が必須となる。合成の際に、画像データ間に位置ズレが発生している場合、合成画像において像が多重に写り、合成画像の画質が低下する。従って、複数撮影された画像データの位置合わせは重要な技術となる。   In the above-described processing, each of a plurality of captured image data has a relative positional shift due to camera shake or the like, and therefore a process for correcting the positional shift before combining is essential. If a positional shift occurs between the image data at the time of combining, the images are duplicated in the combined image, and the image quality of the combined image is deteriorated. Therefore, alignment of a plurality of captured image data is an important technique.

上述した画像データの位置合わせ技術に関しては、例えば特許文献1においては、画像間の位置ズレ量を求める際に、それぞれの画像の共通輝度領域のみを使用して位置ズレ検出を行い、位置合わせを行う技術が提案されている。   With regard to the above-described image data alignment technique, for example, in Patent Document 1, when determining the amount of positional deviation between images, the positional deviation detection is performed by using only the common luminance region of each image. Techniques to do are proposed.

また、特許文献2においては、動きベクトルの誤検出の要因となる低コントラスト領域の除外を行う。さらに前記除外処理において動き検出に適当と判断された小領域毎の動きベクトルの分布を見て、画像全体の動きを的確に表していると判断された動きベクトルのみを採用して位置合わせを行う技術が提案されている。   In Patent Document 2, a low-contrast region that causes erroneous detection of motion vectors is excluded. Further, by looking at the distribution of motion vectors for each small area determined to be appropriate for motion detection in the exclusion process, only the motion vectors determined to accurately represent the motion of the entire image are used for alignment. Technology has been proposed.

特開2003−319240号公報JP 2003-319240 A 特開2008−118555号公報JP 2008-118555 A

しかしながら、特許文献1、および特許文献2においては、被写体の微小な動きや、被写体の距離差による動きの違いにより、位置合わせで補正しきれず位置ズレが残留することが予想される。   However, in Patent Literature 1 and Patent Literature 2, it is expected that the positional deviation cannot be corrected due to the minute movement of the subject and the difference in the movement due to the difference in the distance of the subject, and the positional deviation remains.

また、見かけ上のダイナミックレンジ拡大を目的とした画像合成では、低輝度領域においては高露出画像の合成比率を高く設定し、高輝度領域においては低露出画像の合成比率を高く設定する。さらに、合成画像に生じる急な切り替わりを防ぐために、中間輝度領域では高露出画像と低露出画像を加重加算するように合成比率を設定する。   Also, in image synthesis for the purpose of apparent dynamic range expansion, a high exposure image synthesis ratio is set high in the low luminance region, and a low exposure image synthesis ratio is set high in the high luminance region. Further, in order to prevent a sudden change occurring in the composite image, the composite ratio is set so that the high-exposure image and the low-exposure image are weighted and added in the intermediate luminance region.

従って、高露出画像と低露出画像を加重加算する領域において位置ズレが残留している場合には、合成の際に前記位置ズレが目立って見えてしまい、合成画像の画質が劣化するという課題がある。   Therefore, when a positional deviation remains in an area where the high-exposure image and the low-exposure image are weighted and added, the positional deviation becomes noticeable at the time of synthesis, and the image quality of the synthesized image deteriorates. is there.

本発明は、上記の問題点に鑑み、画像データを加重加算する領域に発生する位置ズレの低減を目的とする。   In view of the above problems, an object of the present invention is to reduce a positional shift that occurs in an area where image data is weighted and added.

前記目的を達成するために、本発明の画像処理装置は以下の構成を備える。   In order to achieve the above object, an image processing apparatus of the present invention comprises the following arrangement.

少なくとも2枚以上の画像を入力する画像入力手段と、
前記入力画像間の位置ズレ量を検出する位置ズレ量検出手段と、
検出された前記位置ズレ量から、前記位置ズレを補正するための座標変換係数を算出し、前記入力画像に前記座標変換係数を用いて座標変換を施すことで、前記入力画像間の位置ズレを補正する位置ズレ補正手段と、
前記位置ズレが補正された入力画像から、位置ズレが残留している領域を検出する位置ズレ残留領域検出手段と、
前記入力画像の合成比率を所定の領域毎に設定する合成比率設定手段と、
前記位置ズレが補正された入力画像を前記設定された合成比率に基づいて合成する画像合成手段を備える。
Image input means for inputting at least two or more images;
A positional deviation amount detecting means for detecting a positional deviation amount between the input images;
A coordinate transformation coefficient for correcting the positional deviation is calculated from the detected positional deviation amount, and coordinate transformation is performed on the input image using the coordinate transformation coefficient, thereby correcting the positional deviation between the input images. Position misalignment correcting means for correcting;
A positional deviation residual area detecting means for detecting an area where the positional deviation remains from an input image in which the positional deviation is corrected;
A composition ratio setting means for setting a composition ratio of the input image for each predetermined region;
Image compositing means for compositing the input image in which the positional deviation is corrected based on the set compositing ratio.

本発明によれば、複数の画像データを合成する場合において、画像データを加重加算する領域で発生する位置ズレを低減することが出来る。   According to the present invention, when combining a plurality of image data, it is possible to reduce a positional shift that occurs in an area where the image data is weighted and added.

第1の実施形態の撮像装置における構成を表すブロック図である。It is a block diagram showing the structure in the imaging device of 1st Embodiment. 第1の実施形態における、階調補正特性を表すグラフである。It is a graph showing the gradation correction characteristic in 1st Embodiment. 第1の実施形態における、位置ズレ検出部106の処理の流れを示すフローチャートである。6 is a flowchart illustrating a processing flow of a positional deviation detection unit according to the first embodiment. 第1の実施形態における、位置ズレ検出ブロック分割を示す図である。It is a figure which shows position shift detection block division | segmentation in 1st Embodiment. 第1の実施形態における、位置ズレ補正部107の処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing of a positional deviation correction unit 107 in the first embodiment. 第1の実施形態における、位置ズレ残留領域の検出方法を示す図である。It is a figure which shows the detection method of a misalignment residual area | region in 1st Embodiment. 第1の実施形態における、合成比率設定部109の処理の流れを示すフローチャートである。6 is a flowchart illustrating a processing flow of a composition ratio setting unit 109 according to the first embodiment. 図7における、合成比率テーブルを示す図である。It is a figure which shows the synthetic | combination ratio table in FIG. 第2の実施形態で課題としている切り替わり領域を示す図である。It is a figure which shows the switching area | region made into the subject in 2nd Embodiment. 第2の実施形態における、合成比率設定部109の処理の流れを示すフローチャートである。10 is a flowchart showing a flow of processing of a composition ratio setting unit 109 in the second embodiment. 第2の実施形態における、位置ズレ顕在化領域の合成比率の決定方法を示す図である。It is a figure which shows the determination method of the synthetic | combination ratio of a position shift | offset | difference revealing area | region in 2nd Embodiment.

[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について詳細に説明する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の第1の実施形態の画像処理装置に適用可能な構成を示したブロック図である。なお、本実施例は、画像データのダイナミックレンジを拡大する撮像装置である。   FIG. 1 is a block diagram showing a configuration applicable to the image processing apparatus according to the first embodiment of the present invention. The present embodiment is an imaging apparatus that expands the dynamic range of image data.

撮像部101は、撮像レンズ群とCMOSやCCD等の半導体撮像素子からなる。撮像部101(画像取得手段)において、同一被写体に対して露出条件を変化させながら少なくとも2枚以上の入力画像を取得するために複数回の撮影が行われ、撮影された映像信号はA/D変換部102に出力される。露出条件としては、露光時間(シャッター速度)、絞り値(F値)、ISO感度などで制御することができ、不図示の測光センサや撮像部101より前回取得された画像から得られる明るさの情報に基づいて各パラメータが制御される。A/D変換部102は、入力された映像信号をデジタル画像データに変換し、画像処理部103に出力する。画像処理部103は、入力された複数の画像データの位置ズレを補正し、前記位置ズレが補正された画像データの合成処理を行う。画像表示部111は、画像処理部103で生成された画像データを、例えば、撮像装置本体が備える液晶モニタに表示する。さらに、画像記憶部112は、画像処理部103で生成された画像データを、記録媒体へ記録する。   The imaging unit 101 includes an imaging lens group and a semiconductor imaging element such as a CMOS or CCD. In the imaging unit 101 (image acquisition unit), a plurality of shootings are performed in order to acquire at least two input images while changing the exposure condition for the same subject, and the captured video signal is A / D. The data is output to the conversion unit 102. The exposure conditions can be controlled by exposure time (shutter speed), aperture value (F value), ISO sensitivity, etc., and the brightness obtained from an image previously acquired from a photometric sensor (not shown) or the imaging unit 101 can be controlled. Each parameter is controlled based on the information. The A / D conversion unit 102 converts the input video signal into digital image data and outputs the digital image data to the image processing unit 103. The image processing unit 103 corrects the positional deviation of the plurality of input image data, and performs a composition process of the image data in which the positional deviation is corrected. The image display unit 111 displays the image data generated by the image processing unit 103 on, for example, a liquid crystal monitor included in the imaging apparatus main body. Further, the image storage unit 112 records the image data generated by the image processing unit 103 on a recording medium.

次に、画像処理部103について、詳細な説明を行う。画像処理部103は、階調補正部104、メモリ部105、位置ズレ検出部106(位置ズレ量検出手段)、位置ズレ補正部107、位置ズレ残留領域検出部108、合成比率設定部109、画像合成部110により構成されている。   Next, the image processing unit 103 will be described in detail. The image processing unit 103 includes a gradation correction unit 104, a memory unit 105, a position shift detection unit 106 (position shift amount detection means), a position shift correction unit 107, a position shift residual area detection unit 108, a composition ratio setting unit 109, an image. The composition unit 110 is configured.

階調補正部104は、入力された複数の画像データに対して、輝度レベルを合わせる処理を行う。ここでは、入力画像データの枚数を2枚と仮定し、露出条件の異なる入力画像データに対して、相対的に露出の大きい画像をオーバー画像、オーバー画像に対して露出の小さい画像をアンダー画像とする。階調補正部104において、オーバー画像とアンダー画像のそれぞれに対し、図2に示すような、異なる階調変換特性を持った階調変換を施すことで、オーバー画像とアンダー画像の輝度レベルを合わせる。ただし、本実施例では、アンダー画像の輝度レベルをオーバー画像に合わせている。階調補正部104で処理された画像データは、メモリ部105に蓄えられる。   The gradation correction unit 104 performs a process for adjusting the luminance level for a plurality of input image data. Here, assuming that the number of input image data is two, an image with a relatively large exposure is an over image, and an image with a small exposure with respect to an over image is an under image with respect to input image data having different exposure conditions. To do. The gradation correction unit 104 performs gradation conversion having different gradation conversion characteristics as shown in FIG. 2 on each of the over image and the under image, thereby matching the luminance levels of the over image and the under image. . However, in this embodiment, the luminance level of the under image is matched to that of the over image. The image data processed by the gradation correction unit 104 is stored in the memory unit 105.

メモリ部105に蓄えられた画像データは、手ぶれ等に因る相対的な位置のずれを伴っている。そのため、位置ズレ検出部106、および位置ズレ補正部107によって、画像データ間の位置ズレを補正する。各部の詳細な処理は後述する。   The image data stored in the memory unit 105 is accompanied by a relative positional shift due to camera shake or the like. Therefore, the positional deviation between the image data is corrected by the positional deviation detection unit 106 and the positional deviation correction unit 107. Detailed processing of each part will be described later.

<位置ズレ検出部106>
図3は、位置ズレ検出部106における入力画像間の位置ズレ量を検出する処理の流れを示すフローチャートである。図3に示すように、ステップS301において入力された画像データに対し、ステップS302において、位置ズレを求める基準となる、基準画像を設定する。ここでは、アンダー画像を基準画像に設定する。すなわち、本実施例における位置ズレとは、アンダー画像に対する、オーバー画像の位置ズレを意味する。
<Position shift detection unit 106>
FIG. 3 is a flowchart showing a flow of processing for detecting a positional shift amount between input images in the positional shift detection unit 106. As shown in FIG. 3, a reference image serving as a reference for obtaining a positional deviation is set in step S302 for the image data input in step S301. Here, the under image is set as the reference image. That is, the positional shift in the present embodiment means a positional shift of the over image with respect to the under image.

次に、ステップS303において、図4に示すように、画像データを水平方向にN分割、垂直方向にM分割した複数のブロックに分割する。ここで、今後の処理の説明のために、各分割ブロックをblk[0]〜blk[M*N−1]と呼ぶ。続いて、ステップS304においてカウンターiの値にi=0を設定し、ステップS305において、i番目の分割ブロックblk[i]について、アンダー画像とオーバー画像間の相対的な位置ズレ量を表す動きベクトルを検出する。動きベクトルの検出方法としては、例えば、差分絶対値和を評価値としたパターンマッチング処理が提案されている。さらに、ステップS306およびS307において、iをインクリメントしながら全分割ブロックにおける動きベクトルを算出する。   Next, in step S303, as shown in FIG. 4, the image data is divided into a plurality of blocks that are divided into N parts in the horizontal direction and M parts in the vertical direction. Here, for description of future processing, each divided block is referred to as blk [0] to blk [M * N-1]. Subsequently, in step S304, i = 0 is set as the value of the counter i, and in step S305, a motion vector representing a relative positional shift amount between the under image and the over image for the i-th divided block blk [i]. Is detected. As a motion vector detection method, for example, a pattern matching process using a sum of absolute differences as an evaluation value has been proposed. Further, in steps S306 and S307, motion vectors in all the divided blocks are calculated while i is incremented.

<位置ズレ補正部107>
図5は、位置ズレ補正部107における処理の流れを示すフローチャートである。図5に示すように、ステップS501において入力された各分割ブロックにおける動きベクトル全体に対し、ステップS502において信頼度の高い動きベクトルのみを抽出する。ここで述べる信頼度とは、手振れによる主要被写体の動きを表す度合いを意味する。
<Position shift correction unit 107>
FIG. 5 is a flowchart showing the flow of processing in the positional deviation correction unit 107. As shown in FIG. 5, only the motion vector with high reliability is extracted in step S502 for all the motion vectors in each divided block input in step S501. The reliability described here means a degree representing the movement of the main subject due to camera shake.

前記抽出の方法としては、例えば、各分割ブロック内の白とび、黒潰れ画素の割合や、エッジ積分値を評価値として抽出を行う方法が挙げられる。これは、パターンマッチングによる動きベクトル誤検出の影響を低減することが目的である(特開2008−118555号公報)。また、その他の抽出方法としては、動きベクトルの分布をとり、主要被写体の動きベクトルと近い値を持つ動きベクトルのみを抽出する方法が挙げられる。これは、同じ手振れに対する動きでも、主要被写体と背景で距離が大きく異なる場合に、動き量に差異が出るため、主要被写体の動きベクトルを正確に抽出すること、および誤検出による異端な動きベクトルを排除することを目的としている。   Examples of the extraction method include a method of performing extraction using the ratio of overexposed and black-out pixels in each divided block and the edge integral value as an evaluation value. The purpose of this is to reduce the influence of erroneous detection of motion vectors by pattern matching (Japanese Patent Laid-Open No. 2008-118555). As another extraction method, there is a method of taking a motion vector distribution and extracting only a motion vector having a value close to the motion vector of the main subject. This is because even if the movement is the same for the same camera shake, if the distance between the main subject and the background is significantly different, the amount of movement will be different. The purpose is to eliminate.

前述した信頼度の高い動きベクトルの抽出方法に関しては、あくまで一例であって、ここでは特に限定されないものとする。   The above-described highly reliable motion vector extraction method is merely an example, and is not particularly limited here.

次に、ステップS503において、前述のステップS502から出力された高信頼度の動きベクトルを入力として、位置ズレ補正パラメータの推定を行う。位置ズレ補正パラメータとは、一方の画像をもう一方の画像に合わせて変形するための座標変換係数のことで、例えば、アフィン変換係数、射影変換係数などが挙げられる。また、画像変換係数を算出する手法としては、複数の動きベクトルを入力し、入力された動きベクトルから、最小二乗法により画像変換係数の推定を行うという手法が提案されている。   Next, in step S503, the positional deviation correction parameter is estimated using the highly reliable motion vector output from step S502 described above as an input. The misregistration correction parameter is a coordinate conversion coefficient for deforming one image in accordance with the other image, and includes, for example, an affine conversion coefficient and a projective conversion coefficient. As a method for calculating an image conversion coefficient, a method has been proposed in which a plurality of motion vectors are input, and the image conversion coefficient is estimated from the input motion vectors by a least square method.

次に、ステップS504によって、ステップS503で推定した画像変換係数を用いて、オーバー画像の変形を行う。   Next, in step S504, the over image is deformed using the image conversion coefficient estimated in step S503.

上記一連の処理により、アンダー画像(基準画像)に位置が合った、オーバー画像が生成される。   Through the series of processes, an over image is generated that is aligned with the under image (reference image).

<位置ズレ残留領域検出部108>
位置ズレ残留領域検出部108では、位置ズレ補正部107で位置ズレの補正を行ったアンダー画像とオーバー画像を入力とし、前記2画像において位置ズレが残留している領域を検出する。ここで、位置ズレが残留する原因としては、前述のように被写体と背景の距離差による動き量の差異や、被写体自身の微小な動きが補正しきれずに残留することが挙げられる。
<Position displacement residual area detection unit 108>
The misregistration residual area detection unit 108 receives an under image and an over image that have been corrected for misregistration by the misregistration correction unit 107, and detects an area in which the misregistration remains in the two images. Here, the reason why the positional deviation remains is that, as described above, the difference in the amount of movement due to the difference in distance between the subject and the background, or the minute movement of the subject itself remains uncorrected.

位置ズレ残留領域の検出方法の模式図を図6に示す。図6に示すように、位置ズレ補正を行ったアンダー画像とオーバー画像の差分をとり、差分画像を生成する。ここでの差分は、輝度差分の絶対値を想定しているが、背景と主要被写体の輝度が等しい場合には検出精度が低下するので、併せて色差信号の差分を使用してもよい。前記差分画像において差分が生じた領域が位置ズレ残留領域となる。また、白とび、黒潰れを起こしている領域については、位置ズレの残留を起因としない差分が検出されるため、予め検出対象領域から除外しておくなどの工夫が必要である。また位置ズレ残留領域検出の手法としては、上記に限らず、2画像の相関を取り、その相関の高さを領域毎に評価できる演算方法であればいずれを用いても良い。   FIG. 6 shows a schematic diagram of a method for detecting a misregistration residual area. As shown in FIG. 6, a difference image is generated by taking the difference between the under image and the over image that have been subjected to positional deviation correction. The difference here is assumed to be the absolute value of the luminance difference. However, if the luminance of the background and the main subject are equal, the detection accuracy decreases, and therefore the difference of the color difference signal may be used together. A region where a difference occurs in the difference image is a misalignment remaining region. Further, since a difference that is not caused by a residual positional deviation is detected in a region where overexposure or blackout occurs, it is necessary to devise a method such as excluding from the detection target region in advance. The method for detecting the misaligned residual region is not limited to the above, and any calculation method can be used as long as it can correlate two images and evaluate the height of the correlation for each region.

<合成比率設定部109>
図7は、合成比率設定部109における処理の流れを示すフローチャートである。図7に示すように、まずステップS701において、基準輝度画像の設定を行う。基準輝度画像とは、入力画像データの合成比率を設定するために参照する輝度画像である。ここでは、基準輝度画像としてアンダー画像の輝度成分を使用するが、基準輝度画像として、オーバー画像を使用してもよい。
<Composition ratio setting unit 109>
FIG. 7 is a flowchart showing the flow of processing in the composition ratio setting unit 109. As shown in FIG. 7, first, in step S701, a reference luminance image is set. The reference luminance image is a luminance image that is referred to in order to set a composition ratio of input image data. Here, the luminance component of the under image is used as the reference luminance image, but an over image may be used as the reference luminance image.

次に、ステップS702に示すように、基準輝度画像の画素値から、合成比率テーブルに基づいて、各画素におけるアンダー画像とオーバー画像の合成比率を設定する。合成比率テーブルとは、基準となる輝度値に対して、アンダー画像とオーバー画像の合成比率を設定するテーブルである。図8に、本実施例における合成比率テーブルを示した。ここでは、図8に示すように、基準輝度の値をYとした時、Y≦Y1の領域では、オーバー画像を100%使用し、Y2≦Yの領域では、アンダー画像を100%使用する。さらにY1<Y<Y2の領域では、アンダー画像とオーバー画像を加重加算するように、合成比率テーブルを設定している。ここで、Y1,Y2は、予め設定された輝度値である。   Next, as shown in step S702, based on the pixel value of the reference luminance image, the composition ratio of the under image and the over image in each pixel is set based on the composition ratio table. The composition ratio table is a table for setting the composition ratio of the under image and the over image with respect to the reference luminance value. FIG. 8 shows a synthesis ratio table in the present embodiment. Here, as shown in FIG. 8, when the reference luminance value is Y, 100% of the over image is used in the region of Y ≦ Y1, and 100% of the under image is used in the region of Y2 ≦ Y. Further, in the region of Y1 <Y <Y2, the composition ratio table is set so that the under image and the over image are weighted and added. Here, Y1 and Y2 are preset brightness values.

ここで、本件で課題としている、残留した位置ズレが顕在化する(多重に分裂して写る)領域は、オーバー画像とアンダー画像を加重加算する輝度を持つ領域において、位置ズレが残留していた場合に発生する。従って、前記位置ズレが顕在化する領域を検出し、該当領域においてはアンダー画像が100%出力されるように合成比率を制御することで、残留した位置ズレの顕在化を低減することができる。ここで、アンダー画像を100%出力するように制御を行う理由としては、本実施例ではアンダー画像が位置合わせの基準画像であることと、100%出力される領域の白とびを避けるためである。   Here, in the area where the residual positional deviation that appears as a problem in this case becomes apparent (divided in multiple divisions), the positional deviation remains in the area that has the luminance for weighted addition of the over image and the under image. Occurs when. Therefore, by detecting a region where the positional deviation becomes apparent and controlling the composition ratio so that an under image is output 100% in the corresponding region, the residual positional deviation can be reduced. Here, the reason for performing control to output 100% of the under image is that the under image is a reference image for alignment in the present embodiment and to avoid overexposure of the 100% output area. .

上記背景を踏まえ、次に、ステップS703に示すように、加重加算領域かつ位置ズレ残留領域の検出を行う。ここで、加重加算領域とは、前述のステップS702において、アンダー画像とオーバー画像がどちらか一方の画像のみを使用するような合成比率(100:0あるいは0:100[%])でない、少なくとも2枚の画像が合成される加重加算を示す領域であるとする。ただし、加重加算領域の定義はこれに限定されるものではなく、例えば、加重加算係数の範囲で決定してもよい。   Based on the above background, next, as shown in step S703, a weighted addition region and a misaligned residual region are detected. Here, the weighted addition area is at least 2 which is not a composition ratio (100: 0 or 0: 100 [%]) in which only one of the under image and the over image is used in step S702 described above. It is assumed that this is an area indicating weighted addition in which a single image is synthesized. However, the definition of the weighted addition region is not limited to this, and may be determined within the range of the weighted addition coefficient, for example.

次に、ステップS704に示すように、検出した加重加算領域かつ位置ズレ残留領域の合成比率を、アンダー画像が100%出力されるように変更する。また、目立たなくするという目的においては、アンダー画像の比率が所定比率以上、例えば90%以上になっていれば目的は達成されるので、そのように制御されても良い。   Next, as shown in step S <b> 704, the composition ratio of the detected weighted addition area and misaligned residual area is changed so that an under image is output 100%. Further, for the purpose of making it inconspicuous, the object is achieved if the ratio of the under image is equal to or higher than a predetermined ratio, for example, 90% or higher.

以上が、合成比率設定部109の処理となり、加重加算領域において顕在化する位置ズレの影響を低減するような合成比率が出力となる。   The above is the processing of the composition ratio setting unit 109, and a composition ratio that reduces the influence of the positional deviation that becomes apparent in the weighted addition region is output.

画像合成部110では、位置合わせが完了したアンダー画像とオーバー画像を、予め算出した合成比率に従って、画素毎に合成を行う。   In the image composition unit 110, the under image and the over image whose alignment has been completed are composed for each pixel in accordance with a pre-computed composition ratio.

以上の処理により、画像処理部103において、アンダー画像とオーバー画像間の位置ズレが補正され、位置ズレ補正されたアンダー画像とオーバー画像を合成することで、ダイナミックレンジが拡大された合成画像データが生成される。   As a result of the above processing, the image processing unit 103 corrects the positional deviation between the under image and the over image, and synthesizes the under image corrected for the positional deviation and the over image, so that the composite image data having an expanded dynamic range is obtained. Generated.

以上説明したように、第1の実施形態によれば、加重加算領域かつ位置ズレが残留している領域を判定し、前記領域においてアンダー画像を100%出力するよう合成比率を制御することで、合成画像において位置ズレが見える問題を低減することが出来る。   As described above, according to the first embodiment, the weighted addition region and the region where the positional deviation remains are determined, and the composition ratio is controlled so as to output 100% of the under image in the region. It is possible to reduce the problem of misalignment in the composite image.

[第2の実施形態]
第1の実施形態においては、位置ズレ顕在化領域(加重加算領域かつ位置ズレ残留領域)を検出し、前記領域ではアンダー画像を100%出力するように合成比率を制御していた。ところが、図9に示すように、位置ズレ顕在化領域の周辺で、オーバー画像が100%出力される場合、第1の実施形態に従ってアンダー画像を100%出力すると、位置ズレ顕在化領域と周辺の領域の境界でアンダー画像とオーバー画像が切り替わってしまう。これでは境界で位置ズレが見えてしまう恐れがある。このような場合には、画像のつながりを優先してオーバー画像を100%出力する方が好ましいと考えられる。前述の背景を踏まえ。第2の実施形態では、第1の実施形態に加え、位置ズレ顕在化領域の周辺でオーバー画像が100%出力される場合を検出し、前記の場合には、位置ズレ検出領域においてオーバー画像を100%出力するように合成比率を制御する処理を考える。なお、同様の処理として、位置ズレ顕在化領域の周辺でアンダー画像が100%出力される場合において、該当領域はアンダー画像を100%出力するような制御も考えられる。
[Second Embodiment]
In the first embodiment, a misalignment manifestation area (weighted addition area and misalignment remaining area) is detected, and the composition ratio is controlled so that 100% of the under image is output in the area. However, as shown in FIG. 9, when 100% of the over image is output around the misalignment revealing area, if 100% of the under image is output according to the first embodiment, the misalignment revealing area and the surrounding area are output. The under image and the over image are switched at the boundary of the region. This may cause misalignment at the boundary. In such a case, it is considered preferable to output 100% of the over image giving priority to the connection of images. Based on the above background. In the second embodiment, in addition to the first embodiment, a case where an over image is output 100% around the position deviation manifestation area is detected. In the above case, an over image is detected in the position deviation detection area. Consider a process of controlling the composition ratio so that 100% is output. As a similar process, when 100% of the under image is output in the vicinity of the misalignment manifestation region, it is possible to control such that the corresponding region outputs 100% of the under image.

図1に示すブロック図において、第1の実施形態と比較して、第2の実施形態で処理の内容が変更されるのは合成比率設定部109のみである。以下、合成比率設定部109の処理について詳細な説明を行う。   In the block diagram shown in FIG. 1, only the composition ratio setting unit 109 changes the processing contents in the second embodiment as compared with the first embodiment. Hereinafter, the process of the synthesis ratio setting unit 109 will be described in detail.

図10は、第2の実施形態における合成比率設定部109の処理の流れを示すフローチャートである。図10に示すように、ステップS1001〜S1002は第1の実施形態と同じ処理(図7のS701〜S702)を行う。本実施例では、以降の処理であるステップS1003、S1004が第1の実施形態と異なる。   FIG. 10 is a flowchart illustrating a processing flow of the composition ratio setting unit 109 according to the second embodiment. As shown in FIG. 10, steps S1001 to S1002 perform the same processing (S701 to S702 in FIG. 7) as in the first embodiment. In the present embodiment, steps S1003 and S1004, which are subsequent processes, are different from those of the first embodiment.

ステップS1003、S1004では、以前の処理で設定した合成比率に対して、位置ズレ顕在化領域を検出し、検出された位置ズレ顕在化領域の各々に対して、アンダー画像を100%出力するか、オーバー画像を100%出力するかを選択する。図11に、位置ズレ顕在化領域における、出力画像の決定方法の例を示す。   In steps S1003 and S1004, a positional deviation manifestation area is detected with respect to the composition ratio set in the previous process, and an under image is output 100% for each detected positional deviation manifestation area. Select whether to output 100% over image. FIG. 11 shows an example of a method for determining an output image in the positional deviation manifesting region.

図11に示すように、まず画像を小ブロックに分割し、ブロック毎に位置ズレ顕在化ブロックかどうかの判定を行う。判定方法の一例としては、ブロックに含まれる画素数に対して、位置ズレが顕在化する加重加算領域でかつ位置ズレ残留領域である画素の割合を算出する。そして、その割合が所定の閾値を超えた場合に、当該ブロックを位置ズレ顕在化ブロックとする。   As shown in FIG. 11, first, an image is divided into small blocks, and it is determined whether or not each block is a positional deviation revealing block. As an example of the determination method, the ratio of the pixels that are the weighted addition area where the positional deviation becomes obvious and the positional deviation residual area is calculated with respect to the number of pixels included in the block. And when the ratio exceeds a predetermined threshold value, the block is determined to be a positional deviation obvious block.

次に、位置ズレ顕在化ブロックが複数ブロックにわたって隣接していた場合に、前記隣接したブロックの集合を位置ズレ顕在化領域とする。   Next, when the positional deviation revealing blocks are adjacent to each other over a plurality of blocks, the set of the adjacent blocks is set as a positional deviation actualizing area.

次に、前記処理で判定した各位置ズレ顕在化領域の周囲のブロックに着目し、前記ブロックを下記のいずれかのブロックに分ける。
・Xブロック:位置ズレの残留がないブロック
・Oブロック:位置ズレが残留しているが、オーバー画像が100%出力されるブロック
・Uブロック:位置ズレが残留しているが、アンダー画像が100%出力されるブロック
各ブロックの判定方法の一例としては、ブロックに含まれる画素数に対して、位置ズレ残留領域に含まれる位置ズレが残留している画素の割合を算出し、前記割合が所定の閾値以下の場合は当該ブロックをXブロックとする。さらに、Xブロックと判定されなかったブロックについては、ブロック内の位置ズレ残留領域に含まれる画素に対して、オーバー画像が100%出力される画素の割合を算出し、前記割合が所定の閾値以上の場合はOブロック、それ以外の場合はUブロックとする。
Next, paying attention to the blocks around each positional deviation manifestation area determined in the processing, the blocks are divided into any of the following blocks.
-X block: block with no residual displacement-O block: block where positional displacement remains but over image is output 100%-U block: positional displacement remains but under image is 100 % Output block As an example of the determination method of each block, the ratio of pixels in which the positional deviation included in the positional deviation remaining area remains is calculated with respect to the number of pixels included in the block, and the ratio is predetermined. If the value is equal to or less than the threshold value, the block is designated as an X block. Further, for a block that is not determined to be an X block, a ratio of pixels in which an over image is output 100% is calculated with respect to the pixels included in the misaligned residual area in the block, and the ratio is equal to or greater than a predetermined threshold In this case, it is O block, and in other cases, it is U block.

次に、上記処理で判定を行った周囲のブロックに対して、Oブロックの割合を求める。○ブロックの割合が所定の閾値以上となる場合は、着目している位置ズレ顕在化領域においては、オーバー画像(特定の入力画像)を100%出力するように合成比率を制御する(図11、(1))。また、(1)以外の場合には、着目している位置ズレ顕在化領域においては、アンダー画像を100%出力するように合成比率を制御する(図11、(2)−1,2)。前記(1)以外の場合とは、周囲がほとんどXブロック、もしくはUブロックである場合である。周囲がXブロックの場合、そもそも位置ズレが起きていないため、オーバー画像、アンダー画像のいずれを100%出力しても課題としている切り替わりは発生しない。しかし、オーバー画像は白飛び画素を含む恐れがあるため、本実施形態ではアンダー画像を100%出力することとした。   Next, the ratio of O blocks is obtained for the surrounding blocks determined in the above process. When the block ratio is equal to or greater than a predetermined threshold value, the composition ratio is controlled so that an over image (specific input image) is output 100% in the focused positional deviation manifesting region (FIG. 11, (1)). In cases other than (1), the composition ratio is controlled so as to output 100% of the under image in the positional deviation manifesting region of interest (FIGS. 11, (2) -1, 2). The case other than the above (1) is a case where the periphery is almost an X block or a U block. When the surrounding area is an X block, there is no positional deviation in the first place, so that the switching that is the problem does not occur even if 100% of either the over image or the under image is output. However, since there is a possibility that the over image includes whiteout pixels, in this embodiment, the under image is output 100%.

以上説明したように、第2の実施形態によれば、加重加算領域かつ位置ズレが残留している位置ズレ顕在化領域を判定し、さらに前記位置ズレ顕在化領域の周囲の近傍領域における合成比率を参照して合成比率を制御する。具体的には、周囲で支配的な合成比率である特定の入力画像が所定比率以上で合成されるように当該領域の合成比率を設定する。これにより、合成画像において位置ズレが見える問題を低減することが出来るとともに、位置ズレ顕在化領域の境界部分に発生する位置ズレの影響を低減することが出来る。   As described above, according to the second embodiment, the weighted addition region and the positional deviation revealing region where the positional deviation remains are determined, and the composite ratio in the vicinity region around the positional deviation manifesting region is further determined. To control the composition ratio. Specifically, the composition ratio of the region is set so that a specific input image that is a composition ratio dominant in the surroundings is synthesized at a predetermined ratio or more. As a result, it is possible to reduce the problem that the positional deviation is visible in the composite image, and it is possible to reduce the influence of the positional deviation that occurs at the boundary portion of the positional deviation manifesting region.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。   In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device. Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.

101 撮像部
102 A/D変換部
103 画像処理部
104 階調補正部
105 メモリ部
106 位置ズレ検出部
107 位置ズレ補正部
108 位置ズレ残留領域検出部
109 合成比率設定部
110 画像合成部
111 画像表示部
112 画像記録部
DESCRIPTION OF SYMBOLS 101 Image pick-up part 102 A / D conversion part 103 Image processing part 104 Gradation correction | amendment part 105 Memory part 106 Position shift detection part 107 Position shift correction part 108 Position shift residual area detection part 109 Composition ratio setting part 110 Image composition part 111 Image display Part 112 Image recording part

Claims (6)

少なくとも2つの入力画像を取得する画像取得手段と、
前記入力画像間の位置ズレ量を検出する位置ズレ量検出手段と、
検出された前記位置ズレ量から、前記位置ズレを補正するための座標変換係数を算出し、前記入力画像に前記座標変換係数を用いて座標変換を施すことで、前記入力画像間の位置ズレを補正する位置ズレ補正手段と、
前記位置ズレが補正された入力画像から、位置ズレが残留している領域を検出する位置ズレ残留領域検出手段と、
前記入力画像の合成比率を所定の領域毎に設定する設定手段と、
前記位置ズレが補正された入力画像を前記設定された合成比率に基づいて合成する画像合成手段を有し、
前記設定手段は、前記位置ズレ残留領域に属する画素の合成比率が、少なくとも2枚の画像が合成される加重加算を示す場合に、前記位置ズレ残留領域では、いずれか1つの画像の合成比率が所定比率以上となるように変更するものであり、前記位置ズレ残留領域の近傍領域において特定の入力画像の合成比率が所定比率以上である画素の割合が支配的である場合には、前記位置ズレ残留領域に属する画素について、前記特定の入力画像の合成比率が所定比率以上となるように変更することを特徴とした画像処理装置。
Image acquisition means for acquiring at least two input images;
A positional deviation amount detecting means for detecting a positional deviation amount between the input images;
A coordinate transformation coefficient for correcting the positional deviation is calculated from the detected positional deviation amount, and coordinate transformation is performed on the input image using the coordinate transformation coefficient, thereby correcting the positional deviation between the input images. Position misalignment correcting means for correcting;
A positional deviation residual area detecting means for detecting an area where the positional deviation remains from an input image in which the positional deviation is corrected;
Setting means for setting the composition ratio of the input image for each predetermined area;
Image synthesis means for synthesizing the input image in which the positional deviation is corrected based on the set synthesis ratio;
The setting means, mixing ratio of the pixels belonging to the positional deviation remaining regions, to indicate the weighted addition at least two images are synthesized, the front Symbol position location offset remaining regions, the synthesis of one of the images The ratio is changed so as to be equal to or greater than a predetermined ratio , and when the ratio of pixels in which the composite ratio of the specific input image is equal to or greater than the predetermined ratio in the vicinity of the misalignment residual area is dominant, An image processing apparatus , wherein a pixel belonging to a misregistration residual region is changed so that a composition ratio of the specific input image is a predetermined ratio or more .
前記設定手段は、前記入力画像の合成比率を所定の領域毎に各領域の明るさに基づいて設定することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the setting unit sets a composition ratio of the input image for each predetermined region based on brightness of each region. 前記複数の入力画像とは、互いに異なる露出条件で撮像された画像であることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the plurality of input images are images captured under different exposure conditions. 前記設定手段は、基準となる輝度画像の輝度値を参照し、前記輝度値が低い領域には、前記複数の入力画像の中から露出の大きい画像を使用し、前記輝度値が大きい領域には、露出の小さい画像を使用するように制御されることを特徴とし、さらに前記輝度画像は、前記複数の入力画像の中で露出の最も低い画像から生成されることを特徴とする請求項3に記載の画像処理装置。 The setting means refers to a luminance value of a reference luminance image, uses an image with a large exposure from the plurality of input images for the region with the low luminance value, and applies to the region with the large luminance value. 4. The method according to claim 3, wherein the image is controlled to use an image having a low exposure, and the luminance image is generated from an image having the lowest exposure among the plurality of input images. The image processing apparatus described. 前記位置ズレ残留領域検出手段は、前記入力画像間の相関をとることで前記位置ズレ残留領域を検出することを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the misregistration residual area detection unit detects the misregistration residual area by taking a correlation between the input images. 6. 少なくとも2つの入力画像を取得する画像取得ステップと、
前記入力画像間の位置ズレ量を検出する位置ズレ量検出ステップと、
検出された前記位置ズレ量から、前記位置ズレを補正するための座標変換係数を算出し、前記入力画像に前記座標変換係数を用いて座標変換を施すことで、前記入力画像間の位置ズレを補正する位置ズレ補正ステップと、
前記位置ズレが補正された入力画像から、位置ズレが残留している領域を検出する位置ズレ残留領域検出ステップと、
前記入力画像の合成比率を所定の領域毎に設定する設定ステップと、
前記位置ズレが補正された入力画像を前記設定された合成比率に基づいて合成する画像合成ステップを有し、
前記設定ステップでは、前記位置ズレ残留領域に属する画素の合成比率が、少なくとも2枚の画像が合成される加重加算を示す場合に、前記位置ズレ残留領域では、いずれか1つの画像の合成比率が所定比率以上となるように変更するものであり、前記位置ズレ残留領域の近傍領域において特定の入力画像の合成比率が所定比率以上である画素の割合が支配的である場合には、前記位置ズレ残留領域に属する画素について、前記特定の入力画像の合成比率が所定比率以上となるように変更することを特徴とした画像処理方法。
An image acquisition step of acquiring at least two input images;
A positional shift amount detecting step for detecting a positional shift amount between the input images;
A coordinate transformation coefficient for correcting the positional deviation is calculated from the detected positional deviation amount, and coordinate transformation is performed on the input image using the coordinate transformation coefficient, thereby correcting the positional deviation between the input images. A position misalignment correction step to be corrected;
A position misalignment region detection step for detecting a region in which the position misalignment remains from an input image in which the position misalignment is corrected;
A setting step of setting a composition ratio of the input image for each predetermined region;
An image synthesis step of synthesizing the input image in which the positional deviation is corrected based on the set synthesis ratio;
In the setting step, mixing ratio of the pixels belonging to the positional deviation remaining regions, to indicate the weighted addition at least two images are synthesized, the front Symbol position location offset remaining regions, the synthesis of one of the images The ratio is changed so as to be equal to or greater than a predetermined ratio , and when the ratio of pixels in which the composite ratio of the specific input image is equal to or greater than the predetermined ratio in the vicinity of the misalignment residual area is dominant, An image processing method , comprising: changing a composition ratio of the specific input image to a predetermined ratio or more for pixels belonging to a misregistration remaining area .
JP2012244601A 2012-11-06 2012-11-06 Image processing device Active JP6080503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244601A JP6080503B2 (en) 2012-11-06 2012-11-06 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244601A JP6080503B2 (en) 2012-11-06 2012-11-06 Image processing device

Publications (2)

Publication Number Publication Date
JP2014093037A JP2014093037A (en) 2014-05-19
JP6080503B2 true JP6080503B2 (en) 2017-02-15

Family

ID=50937042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244601A Active JP6080503B2 (en) 2012-11-06 2012-11-06 Image processing device

Country Status (1)

Country Link
JP (1) JP6080503B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6762714B2 (en) 2015-12-28 2020-09-30 ブリルニクス インク Solid-state image sensor and its driving method, electronic equipment
JPWO2020044628A1 (en) * 2018-08-29 2021-09-24 コニカミノルタ株式会社 Field photography system and field photography method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2472847A4 (en) * 2009-08-24 2013-10-23 Nec Corp Image dynamic range compression system, method and program
JP5548023B2 (en) * 2010-05-07 2014-07-16 オリンパスイメージング株式会社 Imaging apparatus and imaging method
JP2012019337A (en) * 2010-07-07 2012-01-26 Olympus Corp Image processing device and method, and program
JP5126344B2 (en) * 2010-11-18 2013-01-23 カシオ計算機株式会社 Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2014093037A (en) 2014-05-19

Similar Documents

Publication Publication Date Title
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
US7646891B2 (en) Image processor
US9451172B2 (en) Method and apparatus for correcting multi-exposure motion image
JP6157242B2 (en) Image processing apparatus and image processing method
US10359498B2 (en) Image pickup apparatus having function of generating simulation image,control method therefor, and storage medium
JP4781233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
US10306210B2 (en) Image processing apparatus and image capturing apparatus
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
JP6172935B2 (en) Image processing apparatus, image processing method, and image processing program
US20140286593A1 (en) Image processing device, image procesisng method, program, and imaging device
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
US10832386B2 (en) Image processing apparatus, image processing method, and storage medium
JP6080503B2 (en) Image processing device
JP4613710B2 (en) Image processing apparatus and program
WO2019021412A1 (en) Location estimation device, location estimation method, and program recording medium
JP4936222B2 (en) Motion vector collation device, image composition device, and program
JP2009302960A (en) Video signal processing apparatus, program and method
JP4052348B2 (en) Image processing apparatus and image processing method
JP2013255121A (en) Image processing device and image processing device control method
JP5645704B2 (en) Image processing apparatus and control method thereof
JP2009065283A (en) Image shake correction apparatus
JP6025555B2 (en) Image processing apparatus, image processing method, and program
JP4919165B2 (en) Image composition apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R151 Written notification of patent or utility model registration

Ref document number: 6080503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151