JP2010181951A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2010181951A
JP2010181951A JP2009022677A JP2009022677A JP2010181951A JP 2010181951 A JP2010181951 A JP 2010181951A JP 2009022677 A JP2009022677 A JP 2009022677A JP 2009022677 A JP2009022677 A JP 2009022677A JP 2010181951 A JP2010181951 A JP 2010181951A
Authority
JP
Japan
Prior art keywords
image
correlation
images
reference image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009022677A
Other languages
Japanese (ja)
Inventor
Toshiaki Shimada
敏明 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009022677A priority Critical patent/JP2010181951A/en
Publication of JP2010181951A publication Critical patent/JP2010181951A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce or remove random noise without deteriorating resolution from a photographic image. <P>SOLUTION: The image processor is provided with: an image storage part 20 for receiving and storing a plurality of images in a frame unit which are captured at a different time; an image correlation calculation part 30 for defining one of a plurality of images 2<SB>1</SB>and 2<SB>2</SB>captured at neighboring different times read from the image storage part 20 as a reference image, and for calculating image correlation data 3<SB>1</SB>by performing correlation processing between the reference image 2<SB>1</SB>and the image 2<SB>2</SB>other than the reference image; and an image composition part 40 for comparing the calculated image correlation data 3<SB>1</SB>with a correlation threshold specified in advance, and for combining the reference image 2<SB>1</SB>with the image 2<SB>2</SB>other than the reference image only when the image correlation data 3<SB>1</SB>are equal to or less than the correlation threshold. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、撮影されたデジタル画像上に現れるランダムノイズの抑制を行う画像処理装置および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for suppressing random noise appearing on a photographed digital image.

周知のように、近年、イメージセンサの高画素化が進み、デジタルカメラはフィルムカメラに近づくほどの高精細な画像を取得できるようになった。しかし、イメージセンサを用いて撮影したデジタル画像の場合、画像上にランダムな粒状のざらつきとなって現れるノイズ(以下、ランダムノイズと呼ぶ)が発生し、画像の品質に大きな影響を及ぼしている。ランダムノイズには、輝度ノイズ(または照度ノイズ)とカラーノイズ(またはクロミナンスノイズ)があり、カラーノイズは、シャドー部分およびカラーが均一な部分に特に発生し、人の目には、輝度ノイズよりも不快に映る。ランダムノイズの原因としては、様々あるが、光とイメージセンサの物理的性質がもっとも大きな要因と言われている。センサノイズにも読み出しノイズ、受光素子ノイズ、光子ノイズ、暗電流など、色々な原因が考えられる。ノイズ除去の簡単な方法としては、画像上のそれぞれのピクセル値を隣接ピクセルとの平均値で置き換えるという方法があるが、ランダムノイズによるばらつきを減少させることはできるが、同時に画像のディテールを平滑化してしまうため、画像の先鋭度を著しく失ってしまうという問題がある。   As is well known, in recent years, the number of pixels of an image sensor has increased, and a digital camera can acquire a high-definition image as close as a film camera. However, in the case of a digital image taken using an image sensor, noise that appears as a random graininess on the image (hereinafter referred to as random noise) is generated, which greatly affects the quality of the image. Random noise includes luminance noise (or illuminance noise) and color noise (or chrominance noise) .Color noise occurs particularly in shadow areas and areas where the color is uniform. It looks uncomfortable. There are various causes of random noise, but the physical properties of light and the image sensor are said to be the biggest factors. There are various causes of sensor noise such as readout noise, light receiving element noise, photon noise, and dark current. One simple method of denoising is to replace each pixel value on the image with the average value of the neighboring pixels, but this can reduce the variation caused by random noise, but at the same time smooth the image details. Therefore, there is a problem that the sharpness of the image is remarkably lost.

また、上記ランダムノイズを除去するための技術として、フィルムスキャナによって取得された撮影画像データにおけるランダムノイズを加重平均フィルタリング処理によって抑制する画像処理方法が提案されている(例えば特許文献1参照)。この方法では、撮影画像データを構成する画素群から注目画素を順次設定し、注目画素を中心とした加重平均フィルタリング処理のための演算領域内に位置する各周辺画素と注目画素との間の画素値の差分値を算定し、算出した差分値に応じて加重平均フィルタリング処理に用いられる重み係数を決定し、決定した重み係数を用いて加重平均フィルタリング処理を実行して注目画素の補正画素値を求めるというものである。また、この方法では、上記差分値に応じて、0〜1を定義範囲とする重み係数を決定する際に、差分値が0の場合重み係数を1とし、差分値の絶対値が設定された閾値以上の場合重み係数を0とし、差分値が0より大きくて閾値より小さい場合差分値の絶対値の増加に伴い1から単調減少すると共にその後1に単調増加していく数値群から決められる数値を重み係数としている。この方法によれば、撮影画像データにおいて、平坦領域はもとより、輪郭及びその付近においても十分にランダムノイズを抑制できると共に、写真が持つ細かいディテールと質感が維持されるとしている。   In addition, as a technique for removing the random noise, an image processing method has been proposed in which random noise in captured image data acquired by a film scanner is suppressed by a weighted average filtering process (see, for example, Patent Document 1). In this method, a target pixel is sequentially set from a group of pixels constituting captured image data, and a pixel between each peripheral pixel and the target pixel located in a calculation area for weighted average filtering processing centered on the target pixel. The difference value of the value is calculated, the weighting factor used for the weighted average filtering process is determined according to the calculated difference value, the weighted average filtering process is executed using the determined weighting factor, and the corrected pixel value of the target pixel is determined. It is what you want. Further, in this method, when the weighting coefficient having the definition range of 0 to 1 is determined according to the difference value, the weighting coefficient is set to 1 when the difference value is 0, and the absolute value of the difference value is set. A numerical value determined from a numerical value group in which the weighting factor is 0 when the threshold value is greater than or equal to the threshold value, and when the difference value is greater than 0 and smaller than the threshold value, monotonically decreases from 1 and increases monotonically to 1 as the absolute value of the difference value increases. Is a weighting factor. According to this method, in the captured image data, random noise can be sufficiently suppressed not only in a flat region but also in the contour and its vicinity, and the fine details and texture of the photograph are maintained.

特開2006−302023号公報JP 2006-302023 A

上記特許文献1に記載の画像処理方法では、ランダムノイズを低減させるためにぼかし(平滑化)処理として加重平均フィルタリング処理を施している。その際、注目画素と各周辺画素との間の画素値の差分値を算定し、その差分値に応じて加重平均フィルタリング処理を施すことで、輪郭部分の質感が維持されるランダムノイズ抑制が可能とされている。また、上記特許文献1の方法は、対象となる1フレームの画像内で注目画素とその周辺画素とを用いてフィルタリング処理する、いわゆる空間フィルタリング処理を施している。そのため、差分値に応じて加重平均フィルタリング処理を施すことにより、輪郭部分の質感が維持されるとしているが、輪郭部分以外の領域については、ランダムノイズ低減と共にぼやけてしまう。すなわち、解像度感が低下してしまうという問題がある。
なお、この発明では、後述するように時間的に異なる複数の画像を用いた画像処理により解像度感を損なわずにランダムノイズを低減しているが、上記特許文献1には、対象となる画像以外に他の画像を用いた、いわゆる時間方向の画像処理について示唆する記載は見られない。
In the image processing method described in Patent Document 1, a weighted average filtering process is performed as a blurring (smoothing) process in order to reduce random noise. At that time, by calculating the difference value of the pixel value between the target pixel and each peripheral pixel, and applying the weighted average filtering process according to the difference value, random noise suppression that maintains the texture of the contour part is possible It is said that. In addition, the method of Patent Document 1 performs so-called spatial filtering processing, in which filtering processing is performed using a target pixel and its surrounding pixels in a target frame image. For this reason, the texture of the contour portion is maintained by performing the weighted average filtering process according to the difference value. However, the region other than the contour portion is blurred together with the random noise reduction. That is, there is a problem that the sense of resolution is lowered.
In the present invention, as described later, random noise is reduced without impairing the sense of resolution by image processing using a plurality of temporally different images. There is no description suggesting so-called time-direction image processing using other images.

この発明は、上記問題点を解決するためになされたもので、撮影画像から解像度感を損なわずにランダムノイズを低減あるいは除去することができる画像処理装置および画像処理プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to obtain an image processing apparatus and an image processing program capable of reducing or removing random noise from a captured image without losing a sense of resolution. .

この発明に係る画像処理装置は、異なる時間に撮影されたフレーム単位の複数画像を入力し記憶する画像記憶部と、画像記憶部から読み出した近傍の異なる時間の複数画像の一つを基準画像とし、当該基準画像と基準画像以外の画像との相関処理を行って画像相関データを算出する画像相関算出部と、算出された画像相関データと予め指定された相関閾値とを比較し、画像相関データが相関閾値以下の場合にのみ基準画像と基準画像以外の画像とを合成する画像合成部とを備えたものである。   The image processing apparatus according to the present invention uses, as a reference image, an image storage unit that inputs and stores a plurality of frames taken at different times, and a plurality of neighboring images read from the image storage unit at different times. An image correlation calculation unit that calculates correlation data between the reference image and an image other than the reference image to calculate image correlation data, compares the calculated image correlation data with a pre-specified correlation threshold value, and calculates image correlation data And an image composition unit that composes the reference image and an image other than the reference image only when is equal to or less than the correlation threshold.

この発明によれば、時間的に異なる複数の画像を用い、相関関係が高い部分の画像を合成することで一枚の画像を得るようにしているので、従来のようなぼかし(平滑化)処理を用いないため、解像度を損なうことなくランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることが可能となる。   According to the present invention, since a single image is obtained by using a plurality of images that are temporally different from each other and synthesizing images having a high correlation, conventional blurring (smoothing) processing is performed. Therefore, random noise can be suppressed without impairing resolution, or resolution can be improved by noise suppression.

この発明の実施の形態1による画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus by Embodiment 1 of this invention. 同実施の形態1に係る画像合成部における合成処理方法を示す説明図である。It is explanatory drawing which shows the synthetic | combination processing method in the image synthetic | combination part which concerns on the same Embodiment 1. FIG. 同実施の形態2による画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus by the same Embodiment 2. 同実施の形態2に係る画像合成部における合成処理方法を示す説明図である。It is explanatory drawing which shows the synthetic | combination processing method in the image synthetic | combination part which concerns on the same Embodiment 2. FIG. 同実施の形態3による画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus by the same Embodiment 3. 同実施の形態3による画像処理装置の機能構成の他の例を示すブロック図である。It is a block diagram which shows the other example of a function structure of the image processing apparatus by the same Embodiment 3. FIG. 同実施の形態3に係る画像合成部における合成処理方法を示す説明図である。It is explanatory drawing which shows the synthetic | combination processing method in the image synthetic | combination part which concerns on the same Embodiment 3. FIG. 同実施の形態3に係るアフィン変換の方法について示す説明図である。It is explanatory drawing shown about the method of the affine transformation which concerns on the same Embodiment 3. FIG. 同実施の形態3に係るアフィン変換後の画像と他の入力画像の比較について示す説明図である。It is explanatory drawing shown about the comparison of the image after the affine transformation which concerns on the same Embodiment 3, and another input image. 同実施の形態5に係る画像合成部の画像合成方法を示す説明図である。It is explanatory drawing which shows the image composition method of the image composition part which concerns on the same Embodiment 5. FIG. 同実施の形態6に係る画像合成部の画像合成方法を示す説明図である。It is explanatory drawing which shows the image composition method of the image composition part which concerns on the same Embodiment 6. 同実施の形態7に係る画像合成部の画像合成方法を示す説明図である。It is explanatory drawing which shows the image composition method of the image composition part which concerns on the same Embodiment 7. 同実施の形態7に係る画像合成部の画像合成方法を示す説明図である。It is explanatory drawing which shows the image composition method of the image composition part which concerns on the same Embodiment 7.

実施の形態1.
図1は、この発明の実施の形態1による画像処理装置の機能構成を示すブロック図である。
図1において、実施の形態1の画像処理装置は、画像記憶部20、画像相関算出部30および画像合成部40を備えている。また、11は入力画像、21は画像記憶部20より読み出された画像、22は画像記憶部20より読み出された画像であるが、画像21とは撮影された時間が異なる画像、31は画像相関算出部30により演算された画像相関データ、41は画像合成部40より出力された合成画像である。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus according to Embodiment 1 of the present invention.
In FIG. 1, the image processing apparatus according to the first embodiment includes an image storage unit 20, an image correlation calculation unit 30, and an image composition unit 40. Further, 1 1 is an input image, 2 1 is an image read from the image storage unit 20, and 2 2 is an image read from the image storage unit 20, but the time taken is different from the image 2 1. image, 3 1 image correlation data calculated by the image correlation calculation section 30, 4 1 is a composite image output from the image synthesizing unit 40.

画像記憶部20には、例えばある所定の画角で、かつ異なる時間(例えば毎秒2コマ、3コマというように)に撮影したフレーム単位の複数の画像11を順次入力し記憶する。画像相関算出部30では、画像記憶部20から、時間的に異なる、例えば2枚の画像21および画像22を読み出して、両画像間で相関処理を行って画像相関データ31を算出する。ここでは、例えば画像21を基準画像とする。また、画像21と画像22とのフレーム間差分絶対値和を画像相関データ31として算出する。画像合成部40では、画像相関算出部30で算出された画像相関データ31と予め指定された閾値(これを「相関閾値」とする)J1とを比較し、この比較結果に基づいて画像の合成処理を実施する。ここでは、画像相関データ31が相関閾値J1以下の場合、画像21と画像22とは相関関係が高いとみなし、その2つの画像の合成処理を行う。一方、画像相関データ31が相関閾値J1より大きい場合は、画像21と画像22とは相関関係は低いとみなして、画像合成部40はその2つの画像の合成処理は行わない。画像合成部40における画像の合成処理としては、画像の加算平均処理を行う。すなわち、画像21と画像22は相関関係が高い場合は、図2に示すように、画像21と画像22の同一画素位置の画素同士で加算平均処理を施す。これにより、画像21と画像22それぞれに混在しているランダムノイズが平均化されて抑制される。また、相関関係が高い画像21と画像22で、同一画素位置の画素を用いて加算平均処理を行っているため、空間的に近傍の画素の影響を受けることがなく、解像度を維持することが可能となる。 The image storage unit 20, for example, at a certain predetermined field angle, and to a different time (e.g., per two frames, and so three frames) are sequentially input to store a plurality of images 1 1 in units of frames taken in. The image correlation calculation unit 30 reads out, for example, two images 2 1 and 2 2 that are temporally different from the image storage unit 20, performs correlation processing between the two images, and calculates image correlation data 3 1 . . Here, for example, the image 2 1 as a reference image. Further, the sum of absolute differences between frames between the image 2 1 and the image 2 2 is calculated as the image correlation data 3 1 . The image synthesizing unit 40, image correlation data calculated by the image correlation calculation unit 30 3 1 pre-specified threshold (This is referred to as "correlation threshold") is compared with J1, images based on the comparison result Perform the synthesis process. Here, when the image correlation data 3 1 is equal to or less than the correlation threshold value J1, the images 2 1 and 2 2 are regarded as having a high correlation, and the two images are combined. On the other hand, when the image correlation data 3 1 is larger than the correlation threshold value J1, the image 2 1 and the image 2 2 are regarded as having a low correlation, and the image composition unit 40 does not perform the composition processing of the two images. As an image composition process in the image composition unit 40, an image averaging process is performed. That is, when the correlation between the image 2 1 and the image 2 2 is high, the addition averaging process is performed between the pixels at the same pixel position in the image 2 1 and the image 2 2 as shown in FIG. Thereby, random noise mixed in each of the image 2 1 and the image 2 2 is averaged and suppressed. Further, in the correlation image with a high 2 1 and the image 2 2, because a averaging process using the pixels at the same pixel position, spatially without being affected by the pixels in the neighborhood, to maintain the resolution It becomes possible.

なお、上記例では、図1において、画像記憶部20と画像相関算出部30の間を画像21と画像22のパラレル伝送の2本としたが、1本のデータバスにより画像21、画像22を時系列で順次伝送するようにしてもよい。また、画像記憶部20と画像相関算出部30との間のデータバスの本数によらず、取り扱う画像データを画像21と画像22の2つの画像だけでなく、3つ以上の時間的に異なる画像を扱うようにしてもよい。この場合、例えば、画像記憶部20と画像相関算出部30との間のデータバスを1本とし、時間的に異なる5つの画像21〜画像25を扱った場合、基準画像を例えば画像21として、その他の画像22〜画像25との相関としてそれぞれ画像相関データ31(基準画像21と画像22との相関を指標化したデータ、以下同様)、画像相関データ32、画像相関データ33、画像相関データ34を算出し、各画像相関データと相関閾値J1とをそれぞれ比較する。そして、何れの画像相関データも相関閾値J1以下の場合は、画像21〜画像25全ての画像の加算平均処理を行って合成画像を算出する。もし、画像相関データ33だけが相関閾値J1より大きい場合は、画像24を除いた残りの4枚の画像21,22,23,25の加算平均処理を行って合成画像を算出すればよい。 In the above example, in FIG. 1, the parallel transmission of the image 2 1 and the image 2 2 is performed between the image storage unit 20 and the image correlation calculation unit 30, but the image 2 1 , image 2 2 may be sequentially transmitted in time series. Further, regardless of the number of data bus between the image storage unit 20 and the image correlation calculation section 30, the image data handled image 2 1 and the image 2 not only 2 of the two images, three or more temporally Different images may be handled. In this case, for example, if the data bus between the image storage unit 20 and the image correlation calculation unit 30 as a single, dealing with five image 2 1 - image 2 5 temporally different, the reference image example image 2 1 , image correlation data 3 1 (data obtained by indexing the correlation between reference image 2 1 and image 2 2 , the same applies hereinafter), image correlation data 3 2 , and the like as correlations with other images 2 2 to 2 5 . Image correlation data 3 3 and image correlation data 3 4 are calculated, and each image correlation data is compared with the correlation threshold value J1. Then, in the case of any image correlation data also below the correlation threshold J1, by performing averaging processing of the image 2 1 - image 2 5 all images to calculate a composite image. If only the image correlation data 33 is larger than the correlation threshold value J1, the composite image is calculated by performing the averaging process of the remaining four images 2 1 , 2 2 , 2 3 , 2 5 excluding the image 2 4. do it.

上記例では、画像相関データを算出する場合、対象となる画像のフレーム間差分絶対値和を算出しているが、この場合、対象となる画像のそれぞれの平均値を合わせてからフレーム間差分絶対値和を算出してもよい。また、対象となる画像のそれぞれの最大値を合わせるようにそれぞれの画像にオフセットを加算してからフレーム間差分絶対値和を算出してもよいし、逆に対象となる画像のそれぞれの最小値を合わせるようにそれぞれの画像にオフセットを加算してからフレーム間差分絶対値和を算出してもよい。また、対象となる画像のそれぞれの中央値を合わせるようにそれぞれの画像にオフセットを加算してからフレーム間差分絶対値和を算出してもよい。さらに、対象となる画像を基準画像のダイナミックレンジに合わせるようにそれぞれの画像にオフセットを加算したり、重み付け係数を乗じてダイナミックレンジを合わせてからフレーム間差分絶対値和を算出してもよい。さらに、同一画素位置の画素を用いて画像21、画像22等の画像をそのまま加算平均しているが、上記等の処理を対象となる画像に対して施してから加算平均処理を行うようにしてもよい。すなわち、画像相関データを算出する際、対象となる画像を基準画像の特性になるべく合わせるようにしてから画像相関データを算出してもよく、これにより画像の単なる信号レベルの差異だけではなく、信号レベルをなるべく抑制することで画像の絵柄の同一性を評価することができる。 In the above example, when calculating the image correlation data, the sum of absolute differences between frames of the target image is calculated. In this case, the absolute value of the inter-frame difference is calculated after combining the average values of the target images. A sum of values may be calculated. Also, the sum of absolute differences between frames may be calculated after adding an offset to each image so that the maximum values of the target images are matched, or conversely, the minimum value of each of the target images. The sum of absolute differences between frames may be calculated after adding an offset to each image so as to match. Alternatively, the sum of absolute differences between frames may be calculated after adding an offset to each image so that the median values of the target images are matched. Furthermore, the sum of absolute differences between frames may be calculated after adding an offset to each image so that the target image matches the dynamic range of the reference image, or by multiplying the dynamic range by multiplying the weighting coefficient. Further, the images of the image 2 1 , the image 2 2, etc. are added and averaged as they are using the pixels at the same pixel position, but the above averaging processing is performed after the above processing is performed on the target image. It may be. That is, when calculating the image correlation data, the image correlation data may be calculated after matching the target image as much as possible with the characteristics of the reference image. By suppressing the level as much as possible, the identity of the image pattern can be evaluated.

また、上記例では、画像相関データとしてフレーム間差分絶対値和を算出するとしたが、これに代る算出値とし、フレーム間差分2乗和、フレーム間差分絶対値最大値、フレーム間差分絶対値最大値の度数、もしくは対象となる画像の相関を定量的に表した値、またはこれらを組合せた値を用いてもよい。
また、画像相関データの相関閾値J1の値は任意としてよい。例えば、ノイズが強く画像相関データが大きい場合、相関閾値J1を大きくすることで対象画像を除外せずに画像合成処理を行うことができる。合成する画像が多いほど画像に混入しているランダムノイズが抑制され、合成画像の画素値が真値に近づく傾向があるが、これはランダムノイズが真値を中心とした正規分布あるいは正規分布に準じる分布傾向があるとみなしているためである。
上記例では、画像21を基準画像としたが、その他の画像を基準画像としてもよい。例えば、時系列の最初の画像を基準画像にする、あるいは時系列の最後の画像を基準画像にする等、いろいろ考えられるが、この基準画像の決め方は制限されるものではない。このことは、以下の他の実施の形態においても同様である。
In the above example, the interframe difference absolute value sum is calculated as the image correlation data. However, as an alternative calculation value, the interframe difference square sum, the interframe difference absolute maximum value, and the interframe difference absolute value are calculated. You may use the frequency | count of the maximum value, the value which expressed the correlation of the image used as object quantitatively, or the value which combined these.
Further, the value of the correlation threshold value J1 of the image correlation data may be arbitrary. For example, when the noise is strong and the image correlation data is large, the image synthesis process can be performed without excluding the target image by increasing the correlation threshold J1. The more images to be combined, the more random noise mixed in the image is suppressed, and the pixel value of the combined image tends to approach the true value, but this is a normal distribution or a normal distribution centered on the true value. This is because it is considered that there is a distribution tendency that conforms.
In the above example, the image 2 1 as a reference image, other images may be used as the reference image. For example, various methods such as setting the first image in the time series as the reference image, or setting the last image in the time series as the reference image are possible, but the method of determining the reference image is not limited. The same applies to the other embodiments described below.

以上のように、この実施の形態1によれば、異なる時間に撮影されたフレーム単位の複数の画像を画像記憶部に記憶し、画像記憶部から読み出した近傍の異なる時間の複数の画像の一つを基準画像とし、当該基準画像とその他の画像との相関処理を行って画像相関データを算出し、算出された画像相関データと予め指定された相関閾値とを比較し、この比較結果において画像相関データが相関閾値以下の場合にのみ、基準画像と基準画像以外の画像とを合成するようにしている。したがって、従来技術のようなぼかし(平滑化)処理を用いないため解像度を損なうことなくランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the first embodiment, a plurality of frames-by-frame images taken at different times are stored in the image storage unit, and one of a plurality of neighboring images at different times read from the image storage unit is stored. One image is used as a reference image, correlation processing between the reference image and other images is performed to calculate image correlation data, and the calculated image correlation data is compared with a predetermined correlation threshold value. Only when the correlation data is equal to or less than the correlation threshold, the reference image and the image other than the reference image are combined. Therefore, since the blurring (smoothing) processing as in the prior art is not used, random noise can be suppressed without impairing the resolution, or the resolution can be improved by noise suppression.

実施の形態2.
上記実施の形態1では、画像の相関および画像の合成処理をフレーム単位で行っているが、これは入力画像が時系列で入力された静止画であって、画像の画素位置が画面内で変わらない場合に有効である。一方、入力画像が常時静止画とは限らず、画面内の一部に移動物体が映っている場合がある。このような場合には、移動物体の映像は、時系列で入力されたそれぞれの画面内で異なる位置に現れることになる。この発明の実施の形態2では、このように一部に移動物体が映っているような複数の画像を合成することで、ランダムノイズを抑制する方法について説明する。
図3は、この発明の実施の形態2による画像処理装置の機能構成を示すブロック図である。
図3において、実施の形態2の画像処理装置は、画像記憶部20、領域探索部50および画像合成部60を備えている。また、51は領域情報データ、52は画像相関データ、61は画像合成部60より出力された合成画像を表わす。なお、図1と同一符号は同じものを意味する。領域探索部50は、図1の画像相関算出部30相当の機能を含んでいるものとする。また、この実施の形態2の画像合成部60では、画像合成処理は対象画像の加算平均処理を行うものとする。
Embodiment 2. FIG.
In Embodiment 1 described above, image correlation and image composition processing are performed in units of frames, but this is a still image in which the input image is input in time series, and the pixel position of the image changes within the screen. It is effective when there is not. On the other hand, the input image is not always a still image, and a moving object may appear in a part of the screen. In such a case, the video of the moving object appears at different positions in each screen input in time series. In the second embodiment of the present invention, a method for suppressing random noise by combining a plurality of images in which a moving object is partially reflected in this way will be described.
FIG. 3 is a block diagram showing a functional configuration of an image processing apparatus according to Embodiment 2 of the present invention.
In FIG. 3, the image processing apparatus according to the second embodiment includes an image storage unit 20, a region search unit 50, and an image composition unit 60. Further, 5 1 region information data, 5 2 image correlation data, 61 represents a composite image output from the image synthesizing unit 60. Note that the same reference numerals as those in FIG. The area search unit 50 includes a function corresponding to the image correlation calculation unit 30 in FIG. Further, in the image composition unit 60 of the second embodiment, the image composition processing is performed by adding and averaging the target images.

領域探索部50では、まず、画像記憶部20から読み出した時系列の画像21と画像22から、基準画像とする画像21上の移動物体が映る対象領域と最も相関が高い領域を画像22より探索し、最も相関が高い領域を示す領域情報データ51を生成する。
対象領域の探索は、基準画像(画像21)を複数の画像ブロック(矩形ブロック)に分割し、ブロック単位で最も評価値(本例では差分絶対値和とする)の小さい画像ブロックを画像22より探索する。画像ブロック毎に順次探索を行っていき、画面内の各ブロックの動きベクトルの分布をグルーピングする。同一ベクトル値あるいは指定した範囲内のベクトル値をグルーピングし、ベクトル値範囲が条件に合うグルーピングを画像合成対象とする。この時、領域情報データ51はグルーピングの範囲を表し、[x1,y1]〜[x2,y2]という矩形範囲や[x11,y11]〜[x12,y12]、[x21,y21]〜[x22,y22]、[x31,y31]〜[x32,y32]という矩形範囲の合成範囲等で表す。
The area searching unit 50, first, the image 2 1 and the image 2 2 series when read from the image storage unit 20, the highest correlation region and target region moving object reflected in the image 2 1, reference picture 2 2 searched from, generates the area information data 5 1 indicating the highest correlation area.
For the search of the target area, the reference image (image 2 1 ) is divided into a plurality of image blocks (rectangular blocks), and the image block having the smallest evaluation value (in this example, the sum of absolute differences) is selected as the image 2. Search from 2 . The search is sequentially performed for each image block, and the motion vector distribution of each block in the screen is grouped. The same vector value or vector values within a specified range are grouped, and a grouping that satisfies the condition of the vector value range is set as an image synthesis target. At this time, the area information data 5 1 represent the grouping, [x1, y1] ~ rectangular area and that [x2, y2] [x11, y11] ~ [x12, y12], [x21, y21] ~ [x22 , Y22], [x31, y31] to [x32, y32].

領域探索部50は、次に、画像21と画像22で画像間の相関処理を行って画像相関データ52を算出する。上記グルーピングされた対象領域の相関データは、対象領域内の各ブロックの評価値(差分絶対値和)の総和とする。例えば、[x11,y11]〜[x12,y12]、[x21,y21]〜[x22,y22]、[x31,y31]〜[x32,y32]という矩形範囲の合成範囲が条件に合う対象領域である場合は、3つのブロック評価値の総和を画像相関データ52とする。
画像合成部60では、画像相関データ52が予め指定された相関閾値J2以下の場合、領域情報データ51に基づいて画像22から対象領域を抽出し、基準画像である画像21の対応する領域と加算平均処理を行う。
Region searching unit 50, then the image 2 1 and the image 2 2 by performing correlation processing between images to calculate the image correlation data 5 2. The grouped target area correlation data is the sum of the evaluation values (sum of absolute differences) of each block in the target area. For example, in a target region where the combined range of rectangular ranges [x11, y11] to [x12, y12], [x21, y21] to [x22, y22], [x31, y31] to [x32, y32] meets the conditions. some cases, the sum of the three blocks evaluation value image correlation data 5 2.
The image synthesizing unit 60, when image correlation data 5 2 correlation threshold J2 hereinafter designated in advance, extracts the target area from the image 2 2 on the basis of the area information data 5 1, corresponding image 2 1 is a reference image Perform the averaging process with the area to be processed.

この実施の形態2の上記例では、グルーピングされた対象領域の相関データとしては、領域探索の各ブロックの評価値(ブロック間差分絶対値和)の総和としたが、上記評価値の他に、対象領域の差分2乗和、対象領域内の差分絶対値最大値、対象領域内の差分絶対値最大値の度数あるいは対象領域画像の相関を定量的に表した値、その他2つの画像の相違を定量的に表した値、またはこれらの組合せた値を適用してもよい。
また、上記例では、グルーピングされた対象領域のみ画像合成処理を施したが、グルーピングされた対象領域以外にも画像合成処理を施してもよい。例えば、図4に示すように、合成対象の画像が画像21、画像22、画像23であり、画像21を基準画像とし、画像21、画像22、画像23の画面内に同じ移動物体の映像である対象領域A1,A2,A3がそれぞれあったとする。この場合、画像21内の対象領域A1と画像22内の対象領域A2と画像23内の対象領域A3とを合成(加算平均処理)すると共に、画像21内の対象領域A1以外の領域と、画像22内の「対象領域A2と画像21内の対象領域A1の領域」以外の領域と、画像23内の「対象領域A3と画像21内の対象領域A1の領域」以外の領域との画像合成を行ってもよい。さらにこの場合、画像21、画像22、画像23で除外しない同一位置の画素が3画素ある場合(3枚の画像なので、3画素が最大)、同一位置の3画素の合成(加算平均処理)を施し、画像21、画像22、画像23で、各画像内の対象領域A1,A2,A3および画像21内の対象領域A1に相当する領域を除外した同一画素が2画素の場合(図4では移動する対象領域は移動量が少なくて、画像21、画像22、画像23で何れも対象領域A1,A2,A3である画素位置がないので、少なくとも2画素は対象領域以外の背景画像になる)、同一位置の2画素の合成を施す。
In the above example of the second embodiment, the correlation data of the grouped target regions is the sum of the evaluation values (inter-block difference absolute value sum) of each block in the region search. The difference sum of squares in the target area, the maximum difference absolute value in the target area, the frequency of the maximum difference absolute value in the target area or the value that quantitatively represents the correlation between the target area images, and the difference between the other two images Values expressed quantitatively or a combination of these may be applied.
In the above example, only the grouped target area is subjected to the image composition process. However, the image composition process may be performed in addition to the grouped target area. For example, as shown in FIG. 4, the image of the compositing target images 2 1, image 2 2, an image 2 3, the image 2 1 as a reference image, image 2 1, image 2 2, image 2 3 screen Assume that there are target areas A1, A2, and A3 that are images of the same moving object. In this case, the image 2 in 1 and target area A1 and the target area A2 of the image 2 in the 2 and the target region A3 of the image 2 3 with the synthesis (averaging process), the image 2 1 in other than the target area A1 and the region, the image 2 in the second and the region other than the "target area A2 and the area of the target area A1 of the image 2 in 1", the image 2 in the 3 'region of the target area A1 of the object area A3 and the image 2 in 1 " Image composition with other regions may be performed. Furthermore, in this case, if there are 3 pixels at the same position that are not excluded in the images 2 1 , 2 2 , and 2 3 (there are 3 images, 3 pixels is the maximum), the 3 pixels at the same position are combined (added average) 2), the image 2 1 , the image 2 2 , and the image 2 3 are two identical pixels excluding the target areas A1, A2, and A3 in each image and the area corresponding to the target area A1 in the image 2 1 . (In FIG. 4, since the moving target area has a small amount of movement, and none of the image 2 1 , the image 2 2 , and the image 2 3 has pixel positions corresponding to the target areas A1, A2, and A3, at least two pixels A background image other than the target region is obtained), and two pixels at the same position are synthesized.

以上のように、この実施の形態2によれば、基準画像上の移動物体が映る対象領域と最も相関が高い領域を基準画像以外の画像より探索して領域情報データとして出力すると共に、基準画像と当該基準画像以外の画像間で相関処理を行って画像相関データを算出し、算出された画像相関データが予め指定された相関閾値よりも低い場合には、基準画像の対象領域に、領域情報データが示す基準画像以外の画像上の相関が最も高い領域を合成し、一方、算出された画像相関データが指定された相関閾値よりも高い場合には、基準画像から対象領域を除いた画像に、基準画像以外の画像から相関が最も高い領域を除いた画像を合成するようにしている。したがって、画面内に移動する対象がある場合でも、基準画像内の移動対象と基準画像以外の画像内の移動対象の画素位置合わせを行えるため、移動対象以外の領域については勿論のこと、移動対象のある領域についても、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the second embodiment, the region having the highest correlation with the target region in which the moving object is reflected on the reference image is searched from the image other than the reference image and output as region information data. Image correlation data is calculated by performing correlation processing between images other than the reference image and the calculated image correlation data is lower than a correlation threshold specified in advance. If the region with the highest correlation on the image other than the reference image indicated by the data is combined, and the calculated image correlation data is higher than the specified correlation threshold, the image is obtained by removing the target region from the reference image. Then, an image obtained by excluding a region having the highest correlation from images other than the reference image is synthesized. Therefore, even when there is an object to be moved in the screen, the pixel position of the object to be moved in the reference image and the object to be moved in the image other than the reference image can be aligned. Even in a certain region, the resolution can be maintained to suppress random noise, or the resolution can be improved by suppressing noise.

実施の形態3.
図5は、この発明の実施の形態3による画像処理装置の機能構成を示すブロック図である。
図5において、この実施の形態3の画像処理装置は、画像記憶部20、画像相関算出部70、画像変換部80、領域探索部90および画像合成部100を備えている。また、71は画像相関データ、81は画像変換パラメータ情報、82は変換ブロック画像(アフィン変換ブロック画像)、91は領域情報データ、92は画像相関データ、93は変換画像データ、101は合成画像データ、211は変換後の画像(アフィン変換フレーム画像)アフィン変換フレーム画像を表わす。なお、図1および図3と同じ符号を付した部分は同じものを意味する。領域探索部90は、図3の領域探索部50と同様、図1の画像相関算出部30相当の機能を含んでいるものとする。
ここでは、画像21より時間的に古い画像22を基準画像とした例について説明するが、時間的に新しい画像を基準画像にしてもよいことは勿論である。
Embodiment 3 FIG.
FIG. 5 is a block diagram showing a functional configuration of an image processing apparatus according to Embodiment 3 of the present invention.
5, the image processing apparatus according to the third embodiment includes an image storage unit 20, an image correlation calculation unit 70, an image conversion unit 80, a region search unit 90, and an image composition unit 100. 7 1 is image correlation data, 8 1 is image transformation parameter information, 8 2 is a transformed block image (affine transformation block image), 9 1 is area information data, 9 2 is image correlation data, and 9 3 is transformed image data. , 10 1 synthetic image data, 2 11 represents an image (affine transformation frame image) affine transformation frame image after the conversion. In addition, the part which attached | subjected the same code | symbol as FIG. 1 and FIG. 3 means the same thing. Similar to the area search unit 50 in FIG. 3, the area search unit 90 includes a function corresponding to the image correlation calculation unit 30 in FIG. 1.
Here is a description of image 2 1 temporally old image 2 2 for example of the reference image, it may be a new image in time to the reference image is a matter of course.

入力される連続的な画像として、画面全体が前方から手前に移動して来る場合や、図7に示すように移動対象が紙面前方から手前に向かって迫って来るように時系列で映っている画像がある。この発明の実施の形態3では、このような複数の画像を合成することで、ランダムノイズを抑制する方法について説明する。
画像相関算出部70は、画像記憶部20から読み出した異なる時間の画像21と画像22について、画面内を複数領域に分割してそれぞれの領域毎に画像の相関処理を行い、画像相関データ71を算出して画像変換部80に与える。
ここで、画面全体が前方から手前に移動する場合や、図7に示すように移動対象Bのみ移動する場合があるが、いずれにしても移動領域については、基準画像(画像22)と比較対象画像(画像21)とで同一位置の領域の相関は低い傾向を持つ。これは移動により被写体の映像が変化するためである。また、図7が前進する車等の乗り物から前方を撮影した画像を表わしているとした場合、画像21や画像22において画面中央の無限遠方周辺と画面端付近とでは見た目の移動量は異なる。すなわち、移動対象Bは画面中央近くにあるほどゆっくり移動しており、また画面端に近づくほど速く移動する傾向を持つ。そのため、注目対象が移動している場合は、その画面内での位置が異なるために、図7に示すように、ある時刻で画像21の位置にある移動対象Bは、別の時刻には画像22の位置に移動しており、移動対象Bの形状が変わり大きく映ることになる。この時、乗り物内から見た移動対象Bは画像21と画像22とで見る位置(角度)が異なるために、画像21における移動対象Bと画像22における移動対象Bとは相似形にはならない。
As a continuous image to be input, the entire screen is displayed in time series so that the entire screen moves from the front to the front, or the moving object approaches from the front to the front as shown in FIG. There is an image. In Embodiment 3 of the present invention, a method of suppressing random noise by combining a plurality of such images will be described.
Image correlation calculating unit 70, the image storage unit image 2 1 read different time from 20 and the image 2 2, performs correlation processing of the image for each region by dividing the screen into a plurality of regions, the image correlation data 7 1 is calculated and given to the image conversion unit 80.
Here, there are cases where the entire screen moves from the front to the front or only the movement target B as shown in FIG. 7, but in any case, the movement area is compared with the reference image (image 2 2 ). The correlation between the target image (image 2 1 ) and the region at the same position tends to be low. This is because the image of the subject changes due to movement. Also, when a represents an image obtained by photographing the front from the vehicle of the car or the like 7 is advanced, the amount of movement of the appearance in the image 2 1 and image 2 2 and near infinity near the screen edge of the center of the screen Different. That is, the moving object B moves slowly as it is closer to the center of the screen, and tends to move faster as it approaches the screen edge. Therefore, if the object of interest is moving, because the position in the screen different, as shown in FIG. 7, the mobile object B at the position of the image 2 1 at a certain time, another time It has moved to the position of the image 2 2, so that the shape of the moving object B changes reflected increased. At this time, the mobile object B as viewed from a vehicle in order seen in the image 2 1 and the image 2 2 position (angle) are different, similar in shape to the moving object B in the mobile in the image 2 1 target B and the image 2 2 It will not be.

また、図7で、画像21と画像22において画面全体が動いている(例えば、乗り物に乗って撮影している場合、実際には移動しているのは乗り物自身であるが、乗り物内から撮影した外の映像は相対的に動いて見える)場合、画像21と画像22を画面全体の相関、あるいは画面を複数の領域に分割してそれぞれの領域に対する上記2つの画像21と画像22の相関はいずれも低くなる傾向にある。これは、乗り物から見える外の画像である画像21と画像22自身が移動しているため、のっぺりした単調な画像でない限り、同一位置の画素は一般的に同じ対象の画素でないか、あるいは同じ対象であっても絵柄の異なる位置の画素になっているためである。 Further, in FIG. 7, the entire screen in the image 2 1 and the image 2 2 is moving (e.g., if taken Aboard, actually to have moved is a vehicle itself, a vehicle The images outside the video taken from the image appear to move relatively), and the image 2 1 and the image 2 2 are correlated with the entire screen, or the screen is divided into a plurality of areas and the two images 2 1 and 2 correlation of the image 2 2 tends to decrease both. This is because the images 2 1 and 2 2, which are outside images seen from the vehicle, are moving, so that the pixels at the same position are generally not the same target pixel unless they are flat and monotonous images, or This is because even the same object is a pixel at a different position in the pattern.

画像変換部80では、画像相関データから判定して基準画像とする画像22内の指定領域(画像22の画面そのものに相当する)と当該指定領域に対応する画像21の画像領域との相関が画面内の位置により異なる場合に、画像変換パラメータ81に基づいて、画像21の画像領域を画像(基準画像)22に合わせるように画像変換(アフィン変換)し、変換後の画像(アフィン変換フレーム画像)211と変換ブロック画像(アフィン変換ブロック画像)82を領域探索部90に出力する。
図7で説明したように、画像21、画像22は乗り物から前方を撮影した画像であり、画像21を画像(基準画像)22と同じように手前に近づいた画像にするために、図8に示すように画像21の一点破線内の画像(基準画像の指定領域に対応する画像領域)をアフィン変換する。アフィン変換後の画像(アフィン変換フレーム画像)211上の破線部は、画像22に写されている移動後の対象領域Bを仮想的に記載したもので、実際には変換後の画像211上には存在していないものである。
ここで用いる画像変換パラメータ81は、例えば、画面内の位置に応じた水平用および垂直用アフィン変換係数である。なお、設定係数は任意でよく、画面中心(無限遠方点)から画面内の距離(実空間上の距離でなく画面上の見かけの距離)に応じて係数を設定したり、画面内の距離をカテゴリ分けして同一カテゴリには同一係数を設定したり、画面内の領域をカテゴリ分けして同一カテゴリには同一係数を設定したり、図7の対角線のように点線で分割された4つの領域それぞれに係数を設定したりしてもよい。
In the image conversion unit 80, a designated area (corresponding to the screen of the image 2 2 itself) in the image 2 2 determined from the image correlation data and used as a reference image, and an image area of the image 2 1 corresponding to the designated area. If the correlation varies depending on the position of the screen, based on the image transformation parameters 81, image conversion so as to match the image area of the image 2 1 image (reference image) to 2 2 (affine transformation), the converted image and it outputs the (affine transformation frame image) 211 and the transform block image (affine transformation block image) 8 2 area searching unit 90.
As described in FIG. 7, the image 2 1, image 2 2 is an image obtained by photographing the front from the vehicle, the image 2 1 image (reference image) to the image close to the front like the 2 2 the image of the image 2 1 single point in the broken line (image area corresponding to the designated area of the reference image) to affine transformation as shown in FIG. Dashed portions of the image (affine transformation frame image) 2 11 after the affine transformation by the target area B after the movement, which is photographed in the image 2 2 those described virtually actually the converted image 2 11 is not what exists.
Here the image transformation parameters 81 for use in, for example, a horizontal and for the affine transformation coefficients for the vertical corresponding to the position of the screen. Note that the setting coefficient may be arbitrary. Set the coefficient according to the distance from the screen center (infinitely far point) within the screen (the apparent distance on the screen, not the distance in the real space), or the distance within the screen Four areas divided into dotted lines as shown in the diagonal lines of FIG. 7 by categorizing and setting the same coefficient for the same category, categorizing areas in the screen and setting the same coefficient for the same category A coefficient may be set for each.

次に、図9は、変換後の画像211と基準画像である画像22を比較する図である。画像22の中央付近にある実線の矩形領域内は、画像22で見えてきた領域で、変換後の画像211では小さすぎて見えなかった領域である。図9(右図)は変換後の画像211と画像22を比較した結果を示すものであるが、相対的に相違が大きいのは、破線領域部分である。すなわち、移動に伴う移動対象Bの部分(破線領域で重なっている部分であっても、領域内の相対的な位置が異なるため、この重なり領域についても相対的に相違が大きくなる)と画像22で新たに見えてきた中央付近の矩形領域である。 Next, FIG. 9 is a diagram comparing the image 2 2 is an image 2 11 and the reference image after conversion. The solid line in the rectangular area in the central area of the image 2 2 is an area that has seen an image 2 2, a region did not appear too small in the image 2 11 after conversion. Although FIG. 9 (right) shows a result of comparing the images 2 11 and the image 2 2 after conversion, relatively differences greater is the dashed region portion. That is, the part of the movement target B accompanying the movement (even if the part overlaps in the broken line area, the relative position in the area is different, so the difference is also relatively large in the overlapping area) and the image 2 This is a rectangular area near the center that was newly seen in 2 .

領域探索部90では、画像変換部80で画像変換された変換後の画像211から、画像合成対象となる領域を探索する。この場合、基準画像である画像22を複数の画像ブロック領域に分割し、ブロック単位で最も評価値(本例では差分絶対値和とする)の小さい画像ブロックを画像変換後の画像211より探索する。図9において、画像変換後の画像211内の対象Bが画像(基準画像)22において移動している場合、画像22内の対象Bと同一画素位置の画像211の画像ブロックとで評価値を算出すると、対象Bが移動しているため差分が大きくなり評価値が大きくなる。よって、画像22内の対象Bに対応する対象を画像211から求めるため、画像211内のブロックの画素位置を順次変えて画像22内の対象Bとでブロック単位に評価値(差分絶対値和)を算出する。画像22内の対象B自身が特定できない場合は、画像22をブロック領域に分割して、画像22の各ブロックに対し評価値が最小となるブロックを画像変換後の画像211より探索して求める。その際、画像22の各ブロックの画面内の座標(画素位置)と画像211の探索されたブロックの画面内の座標が一致した場合は、対象ブロックは移動していないブロック(以下、静止ブロックとする)とみなすことができる。 The area searching unit 90, the image 2 11 after conversion to image converted by the image converting unit 80, searches for a region to be image compositing target. In this case, the image 2 2 which is the reference image is divided into a plurality of image blocks area, from the image 2 11 after the image conversion a small image blocks of (a sum of absolute differences in the present example) the most evaluation value in blocks Explore. In 9, when the target B within the image 2 11 after the image conversion is moved in the image (reference image) 2 2, an image block of the image 2 11 identical pixel position and the target B of the image 2 in the 2 When the evaluation value is calculated, since the target B is moving, the difference increases and the evaluation value increases. Therefore, the image 2 for determining the object corresponding to the target B within 2 from the image 2 11, image 2 sequentially changing the pixel position of the block in 11 image 2 in block evaluation value at a target B in 2 (difference (Absolute value sum) is calculated. If the target B own image 2 in 2 can not be specified, by dividing the image 2 2 block area, the search from the image 2 11 after the image conversion block which has the smallest evaluation value for each block of the image 2 2 And ask. At this time, the coordinates in the screen of each block of the image 2 2 (pixel position) and when the coordinates in the screen of the search block of the image 211 matches, the target block is not moved block (hereinafter, a still Block).

一方、もし画像22内の対象Bを含むブロックに対応する画像211内のブロックが画像22の該当ブロックと画面内の座標が一致しない場合は、対象Bは移動していることがわかる。よって、ブロック毎に静止ブロックか、移動ブロックかの情報を領域情報データ91として設定する。また、ブロック探索で求めた各ブロックの最小評価値を画像相関データ92に設定する。さらに、ブロック単位の画像を変換画像データ93として設定する。後段に接続された部位(画像合成部100)では、変換画像データ93は領域情報データ91により移動ブロックか、静止ブロックかがわかる。領域情報データ91、画像相関データ92、変換画像データ93はブロック数分用意する(H/Wではレジスタやメモリイメージ、S/Wでは配列やポインタイメージになる)。
なお、分割するブロックの形状は任意でよい。また、上記例では、画像22をブロック領域に分割してそのブロック単位に画像変換後の画像211に対し評価値が最小となるブロックを探索したが、逆に画像211をブロック領域に分割してそのブロック単位に画像22に対し評価値が最小となるブロックを探索してもよく、どちらの画像をブロック分割して探索するかは制限されない。
On the other hand, if the coordinates of the image 2 blocks images 2 2 of the corresponding block and the screen in the image 2 11 that corresponds to the block including the subject B in 2 do not match, the object B is seen to move . Therefore, whether stationary block for each block, sets a moving block of information as the area information data 9 1. Also, setting the minimum evaluation value of each block determined by the block search the image correlation data 9 2. Further, to set the image of the block unit as the converted image data 9 3. At location connected downstream (the image combining unit 100), the converted image data 9 3 or the moving block by the area information data 9 1, or a still block is found. Area information data 9 1 , image correlation data 9 2 , and converted image data 9 3 are prepared for the number of blocks (in H / W, registers and memory images, and in S / W, arrays and pointer images).
In addition, the shape of the block to be divided may be arbitrary. Further, in the above example, the image 2 2 but evaluation values for image 2 11 after the image converted into the block is divided into block areas is searched block having the smallest image 2 11 to the block area in the opposite divided and may be searching for a block which has the smallest evaluation value to the image 2 2 to the block, is not limited which image should be searched in block division.

図9において、移動対象Bは台形であるので画面分割されたブロックとは形状が異なることもありうるが、移動対象Bと画面分割されたブロックの形状の関係に依存せずに相関度の評価(評価値算出)が行えるので、この発明を制限するものではない。ブロック形状が矩形で移動対象Bが台形の場合、例えば複数の矩形ブロックにより構成された移動対象Bを含むアフィン変換ブロック画像82で構成されたブロック領域と画像(基準画像)22で移動対象Bを含む上記ブロック領域に相当するブロック領域とで差分をとると、移動対象B以外のはみ出し領域については差分が大きくなる傾向がある。これは移動対象Bが移動しているためで、ブロック領域に切出した際に別の絵柄の画像も合わせて切出されるためである。 In FIG. 9, since the moving target B is trapezoidal, the shape may be different from the screen-divided block. However, the correlation degree is evaluated without depending on the relationship between the moving target B and the shape of the screen-divided block. Since (evaluation value calculation) can be performed, this invention is not limited. When the block shape is rectangular and the moving object B is trapezoidal, for example, the moving object is composed of a block area composed of an affine transformation block image 8 2 including the moving object B composed of a plurality of rectangular blocks and an image (reference image) 2 2. When a difference is taken with a block area corresponding to the block area including B, the difference tends to increase for the protruding area other than the movement target B. This is because the moving object B is moving, and when the image is cut into the block area, an image with another pattern is also cut out.

画像合成部100では、領域探索部90で得られた、領域情報データ91に対応して移動ブロック領域または静止ブロック領域に対し、変換画像データ93と基準画像である画像22を、画像相関データ92の値に基づいて画像合成(加算平均処理)する。画像相関データ92が移動ブロック領域または静止ブロック領域それぞれに対し予め指定した相関閾値J3より小さい場合は、変換画像データ93と画像22内の対応ブロックとは相関度が高いとみなし(たとえば、領域探索部90で探索された対象Bや背景は相関度が高い)、変換画像データ93と画像22とを合成する。一方、画像相関データ92が移動ブロック領域または静止ブロック領域それぞれに対し予め指定した相関閾値J3より大きい領域については、画像合成を行なわない。これは、相関閾値J3より大きい領域は変換画像データ93と画像22内の対応ブロックとで相関が低く、画像合成処理により異なる画像が合成される可能性が高く、ノイズ低減や解像度低下抑制の本来の目的を果たしえないためである。 The image combining unit 100, obtained by the area searching unit 90 to the mobile block area or a still block area corresponding to the area information data 9 1, the image 2 2 is converted image data 9 3 and the reference image, the image based on the value of the correlation data 9 2 Compose (averaging process). When the image correlation data 9 2 is smaller than the correlation threshold value J3 designated in advance for each of the moving block region and the still block region, the converted image data 9 3 and the corresponding block in the image 2 2 are regarded as having a high degree of correlation (for example, The object B and background searched by the area search unit 90 have a high degree of correlation), and the converted image data 9 3 and the image 2 2 are synthesized. On the other hand, image correlation data 9 2 for moving the block area or a still block area correlation threshold J3 larger area previously specified for each does not perform image synthesis. This larger area correlation threshold J3 is converted image data 9 3 and image 2 low correlation with the corresponding block in the 2, likely to be different images are synthesized by the image synthesis processing, noise reduction and resolution reduction suppression This is because it cannot fulfill its original purpose.

なお、上記例では、画像21と基準画像である画像22の2フレームを用いてアフィン変換処理および画像合成処理を行ったが、3フレーム以上の画像を用いてもよい。
また、画像変換パラメータ情報81は、アフィン変換係数、アフィン変換係数セット、移動対象領域に対応するアフィン変換係数候補以外に、移動対象領域の位置情報、移動対象領域の相対移動量や対応するアフィン変換係数等を含んでもよい。
また、画像変換部80、領域探索部90では画像を複数のブロックに分割したブロックを扱ったが、ブロックの分割数は任意でよく、またブロックの形状は矩形に限らず、三角形等その他の形状であってもよい。
また、アフィン変換は画面全体ではなく、必要領域のみ限定して変換を行ってもよく、アフィン変換の種類、順序、領域については制限されない。
また、上記例では、相関閾値J3は移動ブロック領域または静止ブロック領域それぞれに対し予め指定した値であるが、図6の他の構成例に示すように、領域情報データ91を画像合成部100では用いず移動ブロック領域または静止ブロック領域に依存せず予め指定した値に基づいて画像合成を行なってもよい。
In the above example, the image 2 1 and has two frames of the image 2 2 subjected to affine transformation processing and image synthesizing processing using the reference image, may be used an image of three or more frames.
The image transformation parameter information 8 1, affine transform coefficients, affine transform coefficients set, in addition to the affine transformation coefficient candidates corresponding to the moving target region, the position information of the moving object area, the relative amount of movement of the moving object area and the corresponding affine A conversion coefficient or the like may be included.
In addition, the image conversion unit 80 and the area search unit 90 dealt with blocks obtained by dividing an image into a plurality of blocks, but the number of divisions of blocks may be arbitrary, and the shape of the blocks is not limited to a rectangle, and other shapes such as a triangle It may be.
In addition, the affine transformation may be performed by limiting only the necessary area, not the entire screen, and the type, order, and area of the affine transformation are not limited.
In the above example, the correlation threshold J3 is a value specified in advance for each moving block area or a still block area, as shown in another example of FIG. 6, the image synthesizing unit area information data 9 1 100 In this case, the image composition may be performed based on a predesignated value without depending on the moving block area or the still block area.

また、上記例では、図7、図8、図9に示すように移動対象は一つであったが、移動対象が複数あっても同様に行えるものである。
さらにまた、上記例では、移動対象領域の相関データとして領域探索の各ブロックの評価値(ブロック間差分絶対値和)の総和を算出したが、上記評価値の他に、移動対象領域の差分2乗和、移動対象領域内の差分絶対値最大値、移動対象領域内の差分絶対値最大値の度数あるいは移動対象領域画像の相関を定量的に表した値、その他2つの画像の相違を定量的に表した値、またはこれらを組合せた値でもよい。
Further, in the above example, there is one moving object as shown in FIGS. 7, 8, and 9, but the same can be performed even when there are a plurality of moving objects.
Furthermore, in the above example, the sum of the evaluation values (inter-block difference absolute value sum) of each block in the area search is calculated as the correlation data of the movement target area. Quantitative sum, maximum difference absolute value within the movement target area, frequency of maximum difference absolute value within the movement target area or a value that quantitatively represents the correlation between the movement target area images, and the difference between the other two images Or a combination of these values.

以上のように、この実施の形態3によれば、時間的に近傍の複数画像において、基準画像と基準画像以外の画像との相関処理により第1の画像相関データを算出し、第1の画像相関データから判定して基準画像内の指定領域と当該指定領域に対応する基準画像以外の画像の画像領域との相関が画面内の位置により異なる場合、基準画像以外の画像の対象領域を基準画像内の指定領域に合うように画像変換し、この変換後の画像から基準画像にある移動対象領域と最も相関が高い画像領域を探索し、探索単位毎に、変換画像データ、移動対象領域であるか否かを表す領域情報データ、および変換後の画像と基準画像間の相関処理による第2の画像相関データを算出し、第2の画像相関データが予め指定した相関閾値より小さい場合にのみ、前記変換画像データを前記基準画像の対応する領域と合成するようにしている。したがって、画面全体が変化し、かつ画面内に移動する対象がある場合でも、移動対象について、および移動対象以外の背景領域について、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the third embodiment, the first image correlation data is calculated by the correlation process between the reference image and an image other than the reference image in a plurality of temporally adjacent images, and the first image When the correlation between the designated area in the reference image and the image area of the image other than the reference image corresponding to the designated area is different depending on the position in the screen as judged from the correlation data, the target area of the image other than the reference image is determined as the reference image. The image is converted so as to match the designated area, and the image area having the highest correlation with the movement target area in the reference image is searched from the converted image, and the converted image data and the movement target area are searched for each search unit. Only when the region information data indicating whether or not and the second image correlation data by the correlation process between the converted image and the reference image is calculated and the second image correlation data is smaller than the correlation threshold specified in advance, Above The conversion image data are to be combined with the corresponding regions of the reference image. Therefore, even when the entire screen changes and there are targets that move within the screen, random noise can be suppressed while maintaining the resolution for the moving target and the background area other than the moving target, or noise suppression The resolution can be improved.

実施の形態4.
上記実施の形態1から実施の形態3では、画像合成処理として加算平均処理を行っているが、これに代って、加算処理、加重加算処理、加重平均処理またはフィルタ処理を行ってもよい。
加算処理は、低照度の画像を合成する時に行うとよい。低照度のため画素レベルが低い範囲で画素値が分布しているが、加算処理を行うことでランダムノイズが抑制されると共に輝度レベルの範囲を広げることができる。
上記実施の形態2、実施の形態3で説明したように、対象領域が移動することにより部分的に合成する画素数が異なる場合は、加重加算処理を行うことで対応することができる。すなわち、3枚の画像に対し、同一位置の画素の加算を3画素で行う場合はそのまま加算し、1画素除外して2画素で加算する場合は、加算結果を3/2倍する。これにより、周辺との画素レベルのレンジが合うことになる。また、加算するそれぞれの画素に対し重み付けを図って加算してもよい。さらに、単純加算平均でなく、平均処理するそれぞれの画素に対し重み付けを図って平均処理する加重平均処理を行ってもよい。
また、実施の形態3では、画像変換部80での画像変換はアフィン変換を行っているが、拡大、縮小、回転、上下左右斜めの移動、反転の何れか、またはこれらの組合せでもよい。
Embodiment 4 FIG.
In the first to third embodiments, the averaging process is performed as the image synthesis process. However, instead of this, an adding process, a weighted addition process, a weighted average process, or a filter process may be performed.
The addition process may be performed when a low-illuminance image is synthesized. Although pixel values are distributed in a low pixel level range due to low illuminance, random noise can be suppressed and the luminance level range can be expanded by performing addition processing.
As described in the second embodiment and the third embodiment, when the number of pixels to be partially combined due to the movement of the target region is different, it can be dealt with by performing a weighted addition process. That is, when adding the pixels at the same position with three pixels to three images, the addition is performed as it is, and when adding one pixel excluding one pixel, the addition result is multiplied by 3/2. Thereby, the range of the pixel level with the periphery matches. In addition, each pixel to be added may be weighted for addition. Further, instead of simple averaging, weighted average processing may be performed in which each pixel to be averaged is weighted and averaged.
In the third embodiment, the image conversion performed by the image conversion unit 80 is affine transformation. However, enlargement, reduction, rotation, vertical and horizontal movement, inversion, or a combination thereof may be used.

以上のように、この実施の形態4によれば、画像合成処理として加算平均処理、加算処理、加重加算処理、加重平均処理またはフィルタ処理を行うようにし、また画像変換として拡大、縮小、回転、上下左右斜めの移動、反転の何れか、またはこれらの組合せのアフィン変換を行うようにしたので、画面全体が変化し、かつ画面内に移動する対象がある場合でも、移動対象についておよび移動対象以外の背景領域について、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the fourth embodiment, the addition averaging process, the addition process, the weighted addition process, the weighted average process or the filter process is performed as the image synthesis process, and the enlargement, reduction, rotation, Since the affine transformation of either up / down / left / right diagonal movement, inversion, or a combination of these is performed, even if the entire screen changes and there is an object to move within the screen, the object to be moved and other than the object to be moved In the background area, random noise can be suppressed while maintaining the resolution, or the resolution can be improved by noise suppression.

実施の形態5.
図10は、この発明の実施の形態5に係る画像合成部の画像合成方法を示す説明図である。
図10(a)において、画像21、画像22、…、画像2Nは、それぞれが時間的に異なる入力画像で、画像合成の対象となるN枚の画像を表わす。ここでは、画像21を基準画像とする。また、図10(b)において、合成画像[N]は、上記実施の形態1から実施の形態4で述べた何れかの処理により図10(a)の合成の対象となるN枚の画像を用いて合成された画像を表わす。
Embodiment 5 FIG.
FIG. 10 is an explanatory diagram showing an image composition method of the image composition unit according to Embodiment 5 of the present invention.
In FIG. 10A, an image 2 1 , an image 2 2 ,..., An image 2 N are input images that are temporally different and represent N images to be subjected to image synthesis. Here, the image 2 1 the reference image. In FIG. 10B, the composite image [N] is obtained by converting N images to be composited in FIG. 10A by any of the processes described in the first to fourth embodiments. An image synthesized by using the image is represented.

画像合成部(図1の画像合成部40、図3の画像合成部60または図5の画像合成部100)では、基準画像(画像21)と算出した合成画像[N]との差分絶対値和を評価値として算出し、この算出した評価値を予め指定した閾値(これを「画素ずれ閾値」とする)J4と比較し、画素ずれ閾値J4以下であった場合にのみ合成画像[N]を出力する。これは、合成画像Nにランダムノイズ以上の画素レベルのずれがないかを調べるためのものである。合成画像[N]のランダムノイズが低減または除去された場合は、基準画像(画像21)と合成画像Nによる評価値はランダムノイズの評価値とみなすことができ低い値を示すが、対象領域等で画素ずれが起こり、ランダムノイズ以上のずれが生じている場合は、上記評価値は大きくなる。したがって、上記評価値を画素ずれ閾値J4と比較することにより、合成画像Nが適切か否かを判定することができる。なお、画素ずれ閾値J4は、ランダムノイズおよびランダムノイズ以外の画素ずれとして許容できる範囲の値であれば任意の値でよい。 In the image composition unit (the image composition unit 40 in FIG. 1, the image composition unit 60 in FIG. 3, or the image composition unit 100 in FIG. 5), the absolute difference between the reference image (image 2 1 ) and the calculated composite image [N]. The sum is calculated as an evaluation value, and the calculated evaluation value is compared with a predetermined threshold value (this is referred to as a “pixel shift threshold value”) J4, and only when the pixel shift threshold value J4 is less than or equal to the composite image [N] Is output. This is for examining whether the composite image N has a pixel level shift equal to or greater than random noise. When the random noise of the composite image [N] is reduced or removed, the evaluation value based on the reference image (image 2 1 ) and the composite image N can be regarded as an evaluation value of random noise and shows a low value. When the pixel shift occurs due to the above, and the shift more than the random noise occurs, the evaluation value becomes large. Therefore, it is possible to determine whether or not the composite image N is appropriate by comparing the evaluation value with the pixel shift threshold J4. The pixel shift threshold J4 may be any value as long as it is within a range that can be tolerated as pixel shift other than random noise and random noise.

以上のように、実施の形態5によれば、画像合成部において、N枚の画像を用いて生成した合成画像と基準画像の評価値を算出し、当該評価値が予め指定した画素ずれ閾値J4以下である場合にのみ合成画像を出力するようにしたので、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the fifth embodiment, the image composition unit calculates the evaluation value of the composite image generated using N images and the reference image, and the evaluation value specifies the pixel shift threshold value J4 designated in advance. Since the composite image is output only in the following cases, the resolution can be maintained to suppress random noise, or the resolution can be improved by suppressing noise.

実施の形態6.
図11は、この発明の実施の形態6に係る画像合成部の画像合成方法を示す説明図である。
図11(a)において、画像21、画像22、…、画像2N+1は、それぞれが時間的に異なる入力画像で、画像合成の対象となるN+1枚の画像を表わす。ここでは、画像21を基準画像とする。また、図11(b)において、合成画像(第2の画像)[N+1]は、上記実施の形態1から実施の形態4で述べた何れかの処理により図11(a)の合成の対象となるN+1枚の画像を用いて合成された画像を表わす。なお、この実施の形態6では、上記実施の形態5と同じようにN枚の画像を用いて生成された合成画像(第1の画像)[N]も用いる。
Embodiment 6 FIG.
FIG. 11 is an explanatory diagram showing an image composition method of an image composition unit according to Embodiment 6 of the present invention.
In FIG. 11A, an image 2 1 , an image 2 2 ,..., An image 2 N + 1 are input images that are temporally different and represent N + 1 images to be subjected to image composition. Here, the image 2 1 the reference image. In FIG. 11B, the composite image (second image) [N + 1] is the target of the composite of FIG. 11A by any of the processes described in the first to fourth embodiments. An image synthesized using N + 1 images is represented. In the sixth embodiment, similarly to the fifth embodiment, a composite image (first image) [N] generated using N images is also used.

画像合成部(図1の画像合成部40、図3の画像合成部60または図5の画像合成部100)では、まず、基準画像(画像21)と第1の合成画像[N]の差分絶対値和を評価値[N]として算出すると共に、基準画像(画像21)と第2の合成画像[N+1]の差分絶対値和を評価値[N+1]evとして算出する。次に、算出した評価値[N]evと評価値[N+1]evの差分絶対値を算出する。そして、この算出された評価値の差分絶対値を予め指定した閾値(これを「収束閾値」とする)J5と比較し、収束閾値J5以下である場合に合成画像[N]または[N+1]を出力する。これは、評価値[N]evと評価値[N+1]evの値が近く、合成画像の評価値が収束しつつある(飽和しつつある)ことを調べるためのものである。装置として実現するためには、性能を維持しつつ、処理時間の短縮、構成するH/Wの小型化を図るために理論限界に収束するのが必ずしも効率的でない場合は、上記のように打切基準を設けて処理を中断させる方が効率がよい。 In the image composition unit (the image composition unit 40 in FIG. 1, the image composition unit 60 in FIG. 3, or the image composition unit 100 in FIG. 5), first, the difference between the reference image (image 2 1 ) and the first composite image [N]. The absolute value sum is calculated as the evaluation value [N], and the difference absolute value sum between the reference image (image 2 1 ) and the second composite image [N + 1] is calculated as the evaluation value [N + 1] ev . Next, an absolute difference value between the calculated evaluation value [N] ev and the evaluation value [N + 1] ev is calculated. Then, the absolute value of the difference between the calculated evaluation values is compared with a predetermined threshold value (this is referred to as “convergence threshold value”) J5, and when it is equal to or less than the convergence threshold value J5, the composite image [N] or [N + 1] is determined. Output. This is for checking that the evaluation value [N] ev and the evaluation value [N + 1] ev are close to each other and the evaluation value of the composite image is converging (saturating). If it is not always efficient to converge to the theoretical limit in order to reduce the processing time and reduce the size of the H / W to be configured while maintaining the performance, it is terminated as described above. It is more efficient to set a reference and interrupt the process.

上記例では、差分処理は差分絶対値により算出しているが、符号付の差分処理でもよく、特に制限されるものではない。この場合、差分結果が正値で収束閾値J5より小さい場合には第1の合成画像[N]または第2の合成画像[N+1]を出力し、一方、差分結果が負値の場合には評価値[N+1]evが評価値[N]evより大きくなってしまったことを意味するので、最小評価値[N]evに対応する第1の合成画像[N]の方を出力する。 In the above example, the difference process is calculated by the absolute difference value, but it may be a difference process with a sign and is not particularly limited. In this case, if the difference result is a positive value and smaller than the convergence threshold J5, the first composite image [N] or the second composite image [N + 1] is output, while if the difference result is a negative value, the evaluation is performed. since the value [N + 1] ev means that has become larger than the evaluation value [N] ev, outputs towards the minimum evaluation value [N] first composite image corresponding to ev [N].

以上のように、実施の形態6によれば、画像合成部において、N枚の画像を用いて第1の合成画像[N]を生成すると共に、N+1枚の画像を用いて第2の合成画像[N+1]を生成し、第1の合成画像[N]と第2の合成画像[N+1]について、それぞれ基準画像との間で合成画像の評価値を算出し、第1の合成画像の評価値と第2の合成画像の評価値との差を求め、当該評価値の差が予め指定した収束閾値J5以下である場合に第1の合成画像[N]または第2合成画像[N+1]を出力とするようにしたので、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the sixth embodiment, the image composition unit generates the first composite image [N] using N images and the second composite image using N + 1 images. [N + 1] is generated, and for the first composite image [N] and the second composite image [N + 1], an evaluation value of the composite image is calculated between each of the reference image and the evaluation value of the first composite image. And the evaluation value of the second composite image is obtained, and if the difference between the evaluation values is equal to or less than the convergence threshold value J5 specified in advance, the first composite image [N] or the second composite image [N + 1] is output. Thus, the resolution can be maintained to suppress random noise, or the resolution can be improved by suppressing noise.

実施の形態7.
図12および図13は、この発明の実施の形態6に係る画像合成部の画像合成方法を示す説明図である。
図12(a)において、画像21、画像22、・・・、画像2N+iは、それぞれが時間的に異なる入力画像で、画像合成の対象となるN+i枚の画像を表わす。また、図12(b)において、合成画像[N+i]は、上記実施の形態1から実施の形態4で述べた何れかの処理により図12(a)のN+i枚の画像を用いて合成された画像を表わす。一方、図13(a)において、画像21、画像22、・・・、画像2N+i+1は、それぞれが時間的に異なる入力画像で、画像合成の対象となるN+i+1枚の画像を表わす。また、図13(b)において、合成画像[N+i+1]は、上記実施の形態1から実施の形態4で述べた何れかの処理により図13(a)のN+i+1枚の画像を用いて合成された画像を表わす。
なお、この実施の形態7では、上記実施の形態6で合成画像[N]と合成画像[N+1]のそれぞれの評価値の差が予め指定した収束閾値J5以上となった場合においても、出力できるように合成画像を再生成する方法について述べる。
Embodiment 7 FIG.
12 and 13 are explanatory diagrams showing an image composition method of the image composition unit according to the sixth embodiment of the present invention.
In FIG. 12A, an image 2 1 , an image 2 2 ,..., An image 2 N + i are input images that are temporally different, and represent N + i images that are targets of image composition. In FIG. 12B, the composite image [N + i] is synthesized using the N + i images in FIG. 12A by any of the processes described in the first to fourth embodiments. Represents an image. On the other hand, in FIG. 13A, an image 2 1 , an image 2 2 ,..., An image 2 N + i + 1 are input images that are temporally different, and N + i + 1 images to be subjected to image composition. Represents. In FIG. 13B, the composite image [N + i + 1] is synthesized using the N + i + 1 images in FIG. 13A by any of the processes described in the first to fourth embodiments. Represents an image.
In the seventh embodiment, even when the difference between the evaluation values of the composite image [N] and the composite image [N + 1] in the sixth embodiment is equal to or greater than the convergence threshold value J5 specified in advance, the output can be performed. A method for regenerating a composite image will be described.

画像合成部(図1の画像合成部40、図3の画像合成部60または図5の画像合成部100)では、図10に示される基準画像(画像21)と第1の合成画像[N]の差分絶対値和を評価値[N]evとして算出すると共に、図11に示される基準画像(画像21)と第2の合成画像[N+1]の差分絶対値和を評価値[N+1]evを算出する。次に、算出した評価値[N]evと評価値[N+1]evの差分絶対値を算出する。そして、これら評価値の差分絶対値を指定した収束閾値J5と比較し、当該収束閾値J5以上である場合には、画像を1枚増やして、図12に示される合成画像[N+i]を生成し、基準画像(画像21)と合成画像[N+i]の差分絶対値和を評価値[N+i]evとして算出する。この時i=2である。次に、前回算出した評価値[N+1]evと今回算出した評価値[N+i]evの差分絶対値を算出し、この評価値の差分絶対値が指定した収束閾値J5以下となった場合、合成画像[N+1]または[N+i]を出力する。 In the image composition unit (the image composition unit 40 in FIG. 1, the image composition unit 60 in FIG. 3, or the image composition unit 100 in FIG. 5), the reference image (image 2 1 ) and the first composite image [N ] Is calculated as an evaluation value [N] ev , and the difference absolute value sum of the reference image (image 2 1 ) and the second composite image [N + 1] shown in FIG. 11 is evaluated as an evaluation value [N + 1]. Calculate ev . Next, an absolute difference value between the calculated evaluation value [N] ev and the evaluation value [N + 1] ev is calculated. Then, the absolute difference value of these evaluation values is compared with the specified convergence threshold value J5, and if it is equal to or greater than the convergence threshold value J5, the image is increased by one to generate the composite image [N + i] shown in FIG. Then, the sum of absolute differences between the reference image (image 21) and the composite image [N + i] is calculated as an evaluation value [N + i] ev . At this time, i = 2. Next, the absolute value of the difference between the previously calculated evaluation value [N + 1] ev and the currently calculated evaluation value [N + i] ev is calculated, and if the absolute value of the difference between the evaluation values is equal to or less than the specified convergence threshold value J5, The image [N + 1] or [N + i] is output.

一方、上記評価値[N+1]evと評価値[N+i]evの差分絶対値が指定した収束閾値J5以上であった場合には、さらに合成する画像を1枚増やし、図13に示される合成画像[N+i+1]を生成し、基準画像(画像21)と合成画像[N+i+1]の差分絶対値和を評価値[N+i+1]evとして算出した後、評価値[N+i]evと評価値[N+i+1]evの差分絶対値を算出する。そして、この算出された評価値の差分絶対値が指定した収束閾値J5以上の場合は、順次「i」を1ずつ増やして合成枚数が1枚異なる2つの評価値を算出し、この2つの評価値の差分絶対値と収束閾値J5とを比較して合成画像を出力するかの判定を行う。すなわち、NとN+1、あるいはN+1とN+2の2つの組合せのみで合成画像の出力判定をするのではなく、合成画像数N枚は任意の枚数でよく、合成枚数が1枚異なる2つの評価値を算出し、その2つの評価値の差分絶対値と収束閾値J5とを比較して合成画像を出力するかの判定を行えればよい。 On the other hand, if the difference absolute value between the evaluation value [N + 1] ev and the evaluation value [N + i] ev is equal to or greater than the specified convergence threshold J5, the number of images to be combined is further increased by one, and the combined image shown in FIG. [N + i + 1] is generated and the sum of absolute differences between the reference image (image 2 1 ) and the composite image [N + i + 1] is calculated as the evaluation value [N + i + 1] ev , and then the evaluation value [N + i] ev and the evaluation value [N + i + 1] ev The absolute difference value of is calculated. If the absolute value of the difference between the calculated evaluation values is equal to or greater than the specified convergence threshold value J5, “i” is sequentially incremented by 1 to calculate two evaluation values that are different from each other by one, and the two evaluation values are calculated. The absolute value difference and the convergence threshold J5 are compared to determine whether to output a composite image. In other words, the composite image output determination is not performed by only two combinations of N and N + 1, or N + 1 and N + 2, but the composite image number N may be an arbitrary number, and two evaluation values that are different from each other are obtained. It is only necessary to calculate and compare the absolute difference between the two evaluation values and the convergence threshold J5 to determine whether to output a composite image.

上記例では、差分処理は差分絶対値により算出したが、符号付の差分処理でもよく、特に制限されるものではない。この場合、差分結果が正値で閾値より小さい場合は合成画像[N+i]または合成画像[N+i+1]を画像合成部より出力し、差分結果が負値の場合は評価値[N+i+1]evが評価値[N+i]evより大きくなってしまったことを意味するので最小評価値[N+i]evに対応する合成画像[N+i]を画像合成部より出力する。
また、上記例は、装置として実現するための例であり、性能を維持しつつ、処理時間の短縮、構成するH/Wの小型化を図るために理論限界に収束するのが必ずしも効率的でない場合は、上記のように打切基準を設けて処理を中断させる方が効率がよい。
In the above example, the difference process is calculated based on the absolute difference value, but it may be a difference process with a sign and is not particularly limited. In this case, when the difference result is positive and smaller than the threshold value, the composite image [N + i] or the composite image [N + i + 1] is output from the image composition unit, and when the difference result is a negative value, the evaluation value [N + i + 1] ev is the evaluation value. [N + i] minimum evaluation value it means that has become larger than ev the [N + i] corresponding composite image ev [N + i] is output from the image synthesizing unit.
Moreover, the above example is an example for realizing as an apparatus, and it is not always efficient to converge to the theoretical limit in order to shorten the processing time and reduce the size of the H / W to be configured while maintaining the performance. In such a case, it is more efficient to set the discontinuation reference as described above to interrupt the processing.

以上のように、この実施の形態7によれば、上記実施の形態6の画像合成部において、N枚の画像を用いた第1の合成画像の評価値とN+1枚の画像を用いた第2の合成画像の評価値との差が指定した収束閾値J5より大きい場合、画像を1枚増やしてN+2枚の画像を用いて第3の合成画像を生成すると共に、基準画像との間で第3の合成画像の評価値を算出し、第2の合成画像と第3の合成画像の評価値との差を求め、この評価値の差が収束閾値J5以下なら第2の合成画像または第3の合成画像を出力し、一方、第2および第3の合成画像の評価値との差が収束閾値J5より大きい場合には、画像を1枚増やして次の合成画像を生成して同様な合成画像を出力するかの判定を行うというように、合成画像の評価値の差が収束閾値J5より大きい場合には順次同じ処理を繰り返すようにしたので、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the seventh embodiment, in the image composition unit of the sixth embodiment, the evaluation value of the first composite image using N images and the second using the N + 1 images. When the difference from the evaluation value of the combined image is larger than the specified convergence threshold J5, the number of images is increased by one and a third combined image is generated using N + 2 images, and the third image is compared with the reference image. The evaluation value of the composite image is calculated, the difference between the evaluation value of the second composite image and the third composite image is obtained, and if the difference between the evaluation values is equal to or less than the convergence threshold J5, the second composite image or the third composite image is obtained. On the other hand, when the difference between the evaluation values of the second and third synthesized images is larger than the convergence threshold J5, the same synthesized image is generated by increasing the number of images by one and generating the next synthesized image. The difference between the evaluation values of the composite image is equal to the convergence threshold value J5. Since the greater was repeated sequentially same process, while maintaining the resolution can be suppressed random noise, or it is possible to improve the resolution by the noise suppression.

実施の形態8.
上記実施の形態1から実施の形態7では、相関データや評価値として差分絶対値和を用いていたが、これらの相関データや評価値は、差分絶対値和の他、差分2乗和、あるいは2つの画像の相違を定量的に表した値であれば任意の算出値でよく、特に限定されるものではない。これは、2つの画像の相違の程度が定量的に表現され、その値の大きさで類似度、相関度が判断できればよいからである。
以上のように、実施の形態8によれば、合成画像の評価値を、差分絶対値和、差分2乗和、あるいは2つの画像の相違を定量的に表した値としたので、2つの画像の相違の程度が定量的に表現でき、その値の大きさで類似度、相関度が判断でき、上記実施の形態1から実施の形態7に適用することで、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。
Embodiment 8 FIG.
In the first to seventh embodiments, the sum of absolute differences is used as correlation data and evaluation values. However, these correlation data and evaluation values are sums of squares of differences, or sums of absolute differences, or Any calculated value may be used as long as it is a value that quantitatively represents the difference between the two images, and is not particularly limited. This is because the degree of difference between two images can be expressed quantitatively, and the degree of similarity and correlation need only be determined based on the magnitude of the value.
As described above, according to the eighth embodiment, the evaluation value of the composite image is the sum of absolute differences, the sum of squared differences, or a value that quantitatively represents the difference between the two images. The degree of difference can be expressed quantitatively, and the degree of similarity can be determined by the magnitude of the value. By applying this to the first to seventh embodiments, the resolution can be maintained and random noise can be maintained. It can be suppressed, or the resolution can be improved by noise suppression.

実施の形態9.
上記実施の形態1から実施の形態8において、N枚の画像を用いて合成する場合は、そのまま同一位置のN個の画素の合成処理を行うか、移動している対象領域については、基準画像以外の対象領域の画素を除き、同一位置相当の画素については画像合成を行っている。低照度等撮影条件が悪い状態で撮影された画像はノイズを多く含んでいる。このノイズを低減または除去するために、上記実施の形態1から実施の形態8の方法により画像合成を行っている。
Embodiment 9 FIG.
In the first to eighth embodiments, when N images are used for synthesis, N pixels at the same position are synthesized as they are, or a moving target area is a reference image. Except for pixels in the target area other than the above, image synthesis is performed for pixels corresponding to the same position. An image taken in a bad shooting condition such as low illuminance contains a lot of noise. In order to reduce or eliminate this noise, image synthesis is performed by the method of the first to eighth embodiments.

この実施の形態9では、画像合成部において、さらに合成する画素の選択を行うようにする。すなわち、3枚以上の画像で同一位置の画素の合成処理を行う際に、各画像の同一位置の画素の最大値、最小値の画素値の何れかを除外して合成処理を行う。この合成処理の場合、画素の真値から極端に離れている画素を除外するため、ノイズの影響を抑制することができる。例えば、低照度で画素レベル値が低い領域に集中している場合、特に最大値の画素を除外することで合成画像の画素値が真値から高い方にシフトするのを抑制することができる。
この例では、各画像の同一位置の画素の最大値、最小値の画素値の何れかを除外して合成処理を行うようにしているが、同一位置の画素の最大値、最小値の両方とも除外して合成処理を行ってもよい。
In the ninth embodiment, the image synthesizing unit further selects pixels to be synthesized. That is, when synthesizing pixels at the same position in three or more images, the synthesizing process is performed excluding either the maximum value or the minimum pixel value of the pixels at the same position in each image. In the case of this combining process, since the pixels that are extremely far from the true value of the pixels are excluded, the influence of noise can be suppressed. For example, when the pixel level value is concentrated at low illuminance, the pixel value of the composite image can be prevented from shifting from the true value to the higher value by excluding the maximum value pixel.
In this example, the composition processing is performed by excluding either the maximum value or the minimum pixel value of the pixel at the same position in each image, but both the maximum value and the minimum value of the pixel at the same position are both performed. You may exclude and perform a synthetic | combination process.

以上のように、この実施の形態9によれば、画像合成部において、3枚以上の画像で同一位置の画素の合成処理を行う際、各画像の同一位置の画素の最大値、最小値の画素値の何れか一方か、または同一位置の画素の最大値、最小値の両方を除外して合成処理を行うようにしたので、合成画像の画素値の真値からのずれ量を抑制し、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the ninth embodiment, the maximum value and the minimum value of the pixels at the same position in each image are combined when the image composition unit performs the composition processing of the pixels at the same position in three or more images. Since one of the pixel values, or both the maximum value and the minimum value of the pixel at the same position are excluded and the combining process is performed, the amount of deviation from the true value of the pixel value of the combined image is suppressed, Random noise can be suppressed while maintaining the resolution, or the resolution can be improved by suppressing noise.

実施の形態10.
上記実施の形態9では、3枚以上の画像で、各画像の同一位置の画素の最大値、最小値の画素値の何れか一方、または同一位置の画素の最大値、最小値の両方を除外して合成処理を行うようにしているが、この実施の形態10では、次のような方法で合成する画素の選択を行う。
画像合成部において、合成対象となるN枚の画像に対し同一位置の画素による第1の加重平均と標準偏差を算出し、同N枚の画像の同一位置の画素のうちから、第1の加重平均が標準偏差に係数を乗じた値より離れた値を持つ画素を除外した残りの画素により合成処理を行うようにする。この方法による処理も、上記実施の形態9と同様、画素の真値から極端に離れている画素を除外するため、ノイズの影響を抑制することができる。
Embodiment 10 FIG.
In the ninth embodiment, in three or more images, either the maximum value or the minimum pixel value of the pixel at the same position of each image or both the maximum value and the minimum value of the pixel at the same position are excluded. In the tenth embodiment, pixels to be combined are selected by the following method.
In the image composition unit, a first weighted average and standard deviation of pixels at the same position are calculated for N images to be synthesized, and a first weight is calculated from the pixels at the same position of the N images. The synthesis process is performed using the remaining pixels excluding pixels whose average is different from the value obtained by multiplying the standard deviation by the coefficient. In the processing by this method, as in the ninth embodiment, since the pixels that are extremely far from the true value of the pixels are excluded, the influence of noise can be suppressed.

N枚の合成対象画像において、ある同一位置の画素をP、第1の加重平均をAVEw、標準偏差をSDとし、標準偏差に乗じる係数をw1、w2としたとき、例えばN枚の画像の同一位置の画素のうちから以下の条件に合う画素を除外する。
1)同一位置の画素P<AVEw−(SD×w1) (画素P<AVEw)
2)画素P>AVEw+(SD×w2) (画素P>AVEw)
ここで、例えば上記「AVEw−(SD×w1)」および「AVEw+(SD×w2)」が何れも画素値レンジ内であれば、w1=w2とすることで、AVEwから上下対象に分布されている画素を扱って合成処理を行うことができるが、低照度で画素レベル値が低い領域に集中している場合、特に「AVEw−(SD×w1)」が画素値レンジの下限を下回る場合、標準偏差に乗ずる係数を平均値より下の場合と上の場合で別の係数にし、平均値より上の場合の係数の方を小さくする(w1>w2)ことで合成画像の画素値が真値から高い方にシフトするのを抑制する。この時w2=(AVEw−画素値レベル下限値)とすると、AVEw上下のレンジがちょうど対象になる。
なお、この例では、係数w1,w2の値をAVEw上下のレンジがちょうど対象になるように設定したが、AVEw上下のレンジがちょうど対象にならない場合でも、ノイズの影響を抑制するために画素の真値から極端に離れている画素を除外できればよく、また、合成画像の画素値が真値からずれるのを抑制できればよい。
In N synthesis target images, when P is a pixel at the same position, AVEw is a first weighted average, SD is a standard deviation, and w 1 and w 2 are coefficients to be multiplied by the standard deviation, for example, N images Pixels that meet the following conditions are excluded from pixels at the same position.
1) Pixel P <AVEw− (SD × w 1 ) (pixel P <AVEw) at the same position
2) Pixel P> AVEw + (SD × w 2 ) (Pixel P> AVEw)
Here, for example, if both “AVEw− (SD × w 1 )” and “AVEw + (SD × w 2 )” are within the pixel value range, w 1 = w 2 can be used to move the object up and down from AVEw. However, when the pixel level value is concentrated in a low illuminance and low pixel level value, particularly, “AVEw− (SD × w 1 )” is the pixel value range. When the value is below the lower limit, the coefficient multiplied by the standard deviation is set to a different coefficient when the value is below the average value and above, and the coefficient when the value is above the average value is made smaller (w 1 > w 2 ). The pixel value of the image is prevented from shifting from the true value to the higher value. At this time, if w 2 = (AVEw−pixel value level lower limit value), the range above and below AVEw is just the target.
In this example, the values of the coefficients w 1 and w 2 are set so that the range above and below the AVEw is exactly the target. However, in order to suppress the influence of noise even when the range above and below the AVEw is not exactly the target. It is only necessary to exclude pixels that are extremely far from the true value of the pixels, and it is only necessary to prevent the pixel value of the composite image from deviating from the true value.

以上のように、この実施の形態10によれば、画像合成部において、対象となるN枚の画像に対し同一位置の画素による第1の加重平均と標準偏差を算出し、N枚の画像の同一位置の画素のうちから第1の加重平均が標準偏差に係数を乗じた値より離れた値を持つ画素を除外して、残りの画素により合成処理を行うようにしたので、合成画像の画素値の真値からのずれ量を抑制し、解像度を維持してランダムノイズを抑制することができ、あるいはノイズ抑制により解像度を向上させることができる。   As described above, according to the tenth embodiment, the image composition unit calculates the first weighted average and standard deviation of pixels at the same position for the N images to be processed, and the N images Since pixels having a value that is different from the value obtained by multiplying the standard deviation by the coefficient of the standard deviation are excluded from the pixels at the same position, the synthesis process is performed using the remaining pixels. The amount of deviation from the true value can be suppressed, the resolution can be maintained and random noise can be suppressed, or the resolution can be improved by noise suppression.

以上、各実施の形態では画像処理装置を対象として説明してきたが、これら画像処理装置で行っている各部の処理機能は、コンピュータ上で実行するプログラム(画像処理プログラム)の処理に置き換えることで構成できるものである。したがって、この発明は、画像処理プログラムとして、上記各実施の形態の画像処理装置と同様の処理を実行することで、解像度を維持してランダムノイズを抑制すること、あるいはノイズ抑制により解像度を向上させることを可能にする。   As described above, each embodiment has been described with the image processing apparatus as a target. However, the processing functions of each unit performed by these image processing apparatuses are configured by replacing the processing of a program (image processing program) executed on a computer. It can be done. Therefore, according to the present invention, by executing the same processing as the image processing apparatus of each of the above embodiments as an image processing program, the resolution is maintained and random noise is suppressed, or the resolution is improved by noise suppression. Make it possible.

20 画像記憶部、30 画像相関算出部、40 画像合成部、50,90 領域探索部、60 画像合成部、70 画像相関算出部、80 画像変換部、100 画像合成部。   20 image storage unit, 30 image correlation calculation unit, 40 image synthesis unit, 50, 90 region search unit, 60 image synthesis unit, 70 image correlation calculation unit, 80 image conversion unit, 100 image synthesis unit.

Claims (14)

異なる時間に撮影されたフレーム単位の複数画像を入力し記憶する画像記憶部と、
前記画像記憶部から読み出した近傍の異なる時間の複数画像の一つを基準画像とし、当該基準画像と基準画像以外の画像との相関処理を行って画像相関データを算出する画像相関算出部と、
前記算出された画像相関データと予め指定された相関閾値とを比較し、前記画像相関データが前記相関閾値以下の場合にのみ前記基準画像と前記基準画像以外の画像とを合成する画像合成部とを備えたことを特徴とする画像処理装置。
An image storage unit for inputting and storing a plurality of images taken in frames at different times;
An image correlation calculation unit that calculates one of a plurality of images at different times in the vicinity read from the image storage unit as a reference image, performs correlation processing between the reference image and an image other than the reference image, and calculates image correlation data;
An image synthesizer that compares the calculated image correlation data with a predetermined correlation threshold and synthesizes the reference image and an image other than the reference image only when the image correlation data is equal to or less than the correlation threshold; An image processing apparatus comprising:
異なる時間に撮影されたフレーム単位の複数画像を入力し記憶する画像記憶部と、
前記画像記憶部から読み出した近傍の異なる時間の複数画像の一つを基準画像とし、当該基準画像上の移動物体が映る対象領域と最も相関が高い領域を前記基準画像以外の画像より探索して領域情報データとして出力すると共に、前記基準画像と前記基準画像以外の画像間の相関処理による画像相関データを算出する領域探索部と、
前記算出された画像相関データが予め指定された相関閾値よりも低い場合には、前記基準画像の前記対象領域に、前記領域情報データが示す前記基準画像以外の画像上の相関が最も高い領域を合成し、一方、前記算出された画像相関データが前記相関閾値よりも高い場合には、前記基準画像から対象領域を除いた画像に、前記基準画像以外の画像から相関が最も高い領域を除いた画像を合成して出力する画像合成部とを備えたことを特徴とする画像処理装置。
An image storage unit for inputting and storing a plurality of images taken in frames at different times;
One of a plurality of images at different times in the vicinity read from the image storage unit is set as a reference image, and an area having the highest correlation with a target area on which the moving object is reflected on the reference image is searched from images other than the reference image. An area search unit that outputs image correlation data by correlation processing between the reference image and an image other than the reference image, and outputs the area information data.
When the calculated image correlation data is lower than a correlation threshold designated in advance, an area having the highest correlation on an image other than the reference image indicated by the area information data is included in the target area of the reference image. On the other hand, when the calculated image correlation data is higher than the correlation threshold value, the region having the highest correlation is excluded from the image other than the reference image in the image obtained by removing the target region from the reference image. An image processing apparatus comprising: an image synthesis unit that synthesizes and outputs an image.
異なる時間に撮影されたフレーム単位の複数画像を入力し記憶する画像記憶部と、
前記画像記憶部から読み出した近傍の異なる時間の複数画像の一つを基準画像とし、当該基準画像と基準画像以外の画像との相関処理を行って第1の画像相関データを算出する画像相関算出部と、
前記第1の画像相関データから判定して前記基準画像内の指定領域と当該指定領域に対応する前記基準画像以外の画像の画像領域との相関が画面内の位置により異なる場合に、所定の画像変換パラメータに基づいて前記基準画像以外の画像の対応する画像領域を前記基準画像内の指定領域に合うように画像変換する画像変換部と、
前記画像変換された変換後の画像から前記基準画像にある移動対象領域と最も相関が高い画像領域を探索し、探索単位毎に、変換画像データ、移動対象領域であるか否かを表す領域情報データ、および前記変換後の画像と前記基準画像間の相関処理による第2の画像相関データを算出する領域探索部と、
前記第2の画像相関データが予め指定した相関閾値より小さい場合にのみ、前記変換画像データを前記基準画像の対応する領域と合成する画像合成部を備えたことを特徴とする画像処理装置。
An image storage unit for inputting and storing a plurality of images taken in frames at different times;
Image correlation calculation for calculating first image correlation data by using one of a plurality of neighboring images read from the image storage unit at different times as a reference image and performing correlation processing between the reference image and an image other than the reference image And
A predetermined image when a correlation between a designated area in the reference image and an image area of an image other than the reference image corresponding to the designated area is different depending on a position in the screen as determined from the first image correlation data An image conversion unit that converts an image area corresponding to an image other than the reference image based on a conversion parameter so as to match a designated area in the reference image;
Area information indicating whether or not the image area having the highest correlation with the movement target area in the reference image is searched from the converted image after the image conversion and converted image data is a movement target area for each search unit. An area search unit for calculating data and second image correlation data by correlation processing between the converted image and the reference image;
An image processing apparatus comprising: an image synthesis unit that synthesizes the converted image data with a corresponding region of the reference image only when the second image correlation data is smaller than a correlation threshold specified in advance.
画像合成部は、加算処理、加重加算処理、加算平均処理、加重平均処理またはフィルタ処理により画像合成を行うことを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像処理装置。   The image processing according to any one of claims 1 to 3, wherein the image composition unit performs image composition by addition processing, weighted addition processing, addition averaging processing, weighted average processing, or filter processing. apparatus. 画像変換部は、拡大、縮小、回転、上下左右斜めの移動の何れか、またはこれらの組合せた画像変換を行うことを特徴とする請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the image conversion unit performs image conversion in any one of enlargement, reduction, rotation, up / down / left / right oblique movement, or a combination thereof. 画像合成部は、N枚の画像を用いて生成した合成画像と基準画像の評価値を算出し、当該評価値が指定した画素ずれ閾値以下の場合にのみ合成画像を出力するようにしたことを特徴とする請求項1から請求項5のうちのいずれか1項記載の画像処理装置。   The image composition unit calculates the evaluation value of the composite image generated using N images and the reference image, and outputs the composite image only when the evaluation value is equal to or less than the specified pixel shift threshold. 6. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that: 画像合成部は、N枚の画像を用いて第1の合成画像を生成すると共に、N+1枚の画像を用いて第2の合成画像を生成し、第1の合成画像と第2の合成画像について、それぞれ基準画像との間で合成画像の評価値を算出し、第1の合成画像の評価値と第2の合成画像の評価値との差を求め、当該評価値の差が指定した収束閾値以下である場合に第1の合成画像または第2合成画像を出力とするようにしたことを特徴とする請求項1から請求項5のうちのいずれか1項記載の画像処理装置。   The image composition unit generates a first composite image using N images, and generates a second composite image using N + 1 images. About the first composite image and the second composite image The evaluation value of the composite image is calculated with respect to each reference image, the difference between the evaluation value of the first composite image and the evaluation value of the second composite image is obtained, and the convergence threshold specified by the difference between the evaluation values 6. The image processing apparatus according to claim 1, wherein the first composite image or the second composite image is output when the following is true. 画像合成部は、第1の合成画像の評価値と第2の合成画像の評価値との差が指定した収束閾値より大きい場合、画像を1枚増やしてN+2枚の画像を用いて第3の合成画像を生成すると共に、基準画像との間で第3の合成画像の評価値を算出し、第2の合成画像と第3の合成画像の評価値との差を求め、この評価値の差が収束閾値以下なら第2の合成画像または第3の合成画像を出力し、一方、第2および第3の合成画像の評価値の差が収束閾値より大きい場合には、画像を1枚増やして次の合成画像を生成して同様な合成画像を出力するかの判定を行うというように、合成画像の評価値の差が収束閾値より大きい場合には順次同じ処理を繰り返すことを特徴とする請求項7記載の画像処理装置。   When the difference between the evaluation value of the first composite image and the evaluation value of the second composite image is larger than the designated convergence threshold, the image composition unit increases the number of images by one and uses the N + 2 images A composite image is generated, an evaluation value of the third composite image is calculated from the reference image, a difference between the evaluation value of the second composite image and the third composite image is obtained, and the difference between the evaluation values If the difference is less than the convergence threshold, the second composite image or the third composite image is output. On the other hand, if the difference between the evaluation values of the second and third composite images is larger than the convergence threshold, the image is increased by one. The same process is sequentially repeated when the difference between the evaluation values of the composite images is larger than the convergence threshold, such as determining whether to generate a next composite image and output a similar composite image. Item 8. The image processing apparatus according to Item 7. 画像相関データおよび評価値は、差分絶対値和、差分2乗和、あるいは2つの画像の相違を定量的に表した値としたことを特徴とする請求項1から請求項8のうちのいずれか1項記載の画像処理装置。   9. The image correlation data and the evaluation value are sums of absolute differences, sums of squares of differences, or values that quantitatively represent a difference between two images. The image processing apparatus according to claim 1. 画像合成部は、3枚以上の画像で同一位置の画素の合成処理を行う際、各画像の同一位置の画素の最大値、最小値の画素値の何れか一方か、または同一位置の画素の最大値、最小値の両方を除外して合成処理を行うことを特徴とする請求項1から請求項9のうちのいずれか1項記載の画像処理装置。   When performing the composition processing of the pixel at the same position in three or more images, the image composition unit is either the maximum value or the minimum value of the pixel at the same position in each image, or the pixel at the same position. The image processing apparatus according to claim 1, wherein the composition processing is performed by excluding both the maximum value and the minimum value. 画像合成部は、合成対象となるN枚の画像に対し同一位置の画素による第1の加重平均と標準偏差を算出し、N枚の画像の同一位置の画素のうちから第1の加重平均が標準偏差に係数を乗じた値より離れた値を持つ画素を除外して、残りの画素により合成処理を行うことを特徴とする請求項1から請求項9のうちのいずれか1項記載の画像処理装置。   The image compositing unit calculates a first weighted average and standard deviation of pixels at the same position for N images to be combined, and the first weighted average is calculated from the pixels at the same position of the N images. The image according to any one of claims 1 to 9, wherein a pixel having a value far from a value obtained by multiplying the standard deviation by a coefficient is excluded, and the synthesis process is performed using the remaining pixels. Processing equipment. 異なる時間に撮影されたフレーム単位の複数画像を画像記憶部に記憶し、
前記画像記憶部から近傍の異なる時間の複数の画像を読み出し、当該複数の画像の一つを基準画像として、当該基準画像と基準画像以外の画像との相関処理を行って画像相関データを算出し、
前記算出された画像相関データと予め指定された相関閾値とを比較し、前記画像相関データが前記相関閾値以下の場合にのみ前記基準画像と前記基準画像以外の画像とを合成する処理をコンピュータ上で実行することを特徴とする画像処理プログラム。
A plurality of frames taken at different times are stored in the image storage unit,
A plurality of neighboring images at different times are read from the image storage unit, one of the plurality of images is used as a reference image, and correlation processing between the reference image and an image other than the reference image is performed to calculate image correlation data. ,
A process of comparing the calculated image correlation data with a pre-specified correlation threshold and synthesizing the reference image and an image other than the reference image only when the image correlation data is equal to or less than the correlation threshold. An image processing program executed by
異なる時間に撮影されたフレーム単位の複数画像を画像記憶部に記憶し、
前記画像記憶部から近傍の異なる時間の複数画像読み出し、当該複数の画像の一つを基準画像として、当該基準画像上の移動物体が映る対象領域と最も相関が高い領域を前記基準画像以外の画像より探索して領域情報データとして出力すると共に、前記基準画像と前記基準画像以外の画像間の相関処理による画像相関データを算出し、
前記算出された画像相関データが予め指定された相関閾値よりも低い場合には、前記基準画像の前記対象領域に、前記領域情報データが示す前記基準画像以外の画像上の相関が最も高い領域を合成し、一方、前記算出された画像相関データが前記相関閾値よりも高い場合には、前記基準画像から対象領域を除いた画像に、前記基準画像以外の画像から相関が最も高い領域を除いた画像を合成する処理をコンピュータ上で実行することを特徴とする画像処理プログラム。
A plurality of frames taken at different times are stored in the image storage unit,
A plurality of images at different times in the vicinity are read from the image storage unit, and one of the plurality of images is used as a reference image, and an area having the highest correlation with a target area on which a moving object is displayed on the reference image is an image other than the reference image. Further searching and outputting as region information data, calculating image correlation data by correlation processing between the reference image and an image other than the reference image,
When the calculated image correlation data is lower than a correlation threshold designated in advance, an area having the highest correlation on an image other than the reference image indicated by the area information data is included in the target area of the reference image. On the other hand, when the calculated image correlation data is higher than the correlation threshold value, the region having the highest correlation is excluded from the image other than the reference image in the image obtained by removing the target region from the reference image. An image processing program for executing processing for synthesizing images on a computer.
異なる時間に撮影されたフレーム単位の複数画像を入力し記憶し、
前記画像記憶部から近傍の異なる時間の複数画像を読み出し、当該複数の画像の一つを基準画像として、当該基準画像と基準画像以外の画像との相関処理を行って第1の画像相関データを算出し、
前記第1の画像相関データから判定して前記基準画像内の指定領域と当該指定領域に対応する前記基準画像以外の画像の画像領域との相関が画面内の位置により異なる場合に、所定の画像変換パラメータに基づいて前記基準画像以外の画像の対応する画像領域を前記基準画像内の指定領域に合うように画像変換し、
前記画像変換された変換後の画像から前記基準画像にある移動対象領域と最も相関が高い画像領域を探索し、探索単位毎に、変換画像データ、移動対象領域であるか否かを表す領域情報データ、および前記変換後の画像と前記基準画像間の相関処理による第2の画像相関データを算出し、
前記第2の画像相関データが予め指定した相関閾値より小さい場合にのみ、前記変換画像データを前記基準画像の対応する領域と合成する処理をコンピュータ上で実行することを特徴とする画像処理プログラム。
Input and memorize multiple frames taken at different times.
A plurality of images at different times in the vicinity are read from the image storage unit, one of the plurality of images is used as a reference image, and correlation processing between the reference image and an image other than the reference image is performed to obtain first image correlation data. Calculate
A predetermined image when a correlation between a designated area in the reference image and an image area of an image other than the reference image corresponding to the designated area is different depending on a position in the screen as determined from the first image correlation data Based on the conversion parameter, the corresponding image area of the image other than the reference image is image-converted so as to fit the designated area in the reference image,
Area information indicating whether or not the image area having the highest correlation with the movement target area in the reference image is searched from the converted image after the image conversion and converted image data is a movement target area for each search unit. Data, and second image correlation data by correlation processing between the converted image and the reference image,
Only when the second image correlation data is smaller than a correlation threshold designated in advance, the image processing program for executing the process of combining the converted image data with the corresponding region of the reference image on a computer.
JP2009022677A 2009-02-03 2009-02-03 Image processor and image processing program Pending JP2010181951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009022677A JP2010181951A (en) 2009-02-03 2009-02-03 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009022677A JP2010181951A (en) 2009-02-03 2009-02-03 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2010181951A true JP2010181951A (en) 2010-08-19

Family

ID=42763516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009022677A Pending JP2010181951A (en) 2009-02-03 2009-02-03 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2010181951A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084960A (en) * 2010-10-07 2012-04-26 Ricoh Co Ltd Image processing device, image processing method, and image processing program
WO2013073627A1 (en) * 2011-11-15 2013-05-23 株式会社 東芝 Image processing device and method
WO2014132830A1 (en) * 2013-02-28 2014-09-04 株式会社 日立メディコ Image processing device, magnetic resonance imaging device, and image processing method
CN111667502A (en) * 2020-05-06 2020-09-15 北京理工大学 Method and device for generating high-speed video according to single motion blurred image
CN112763493A (en) * 2019-11-05 2021-05-07 华硕电脑股份有限公司 Appearance image capturing device and appearance detection device comprising same
JP2021076569A (en) * 2019-11-05 2021-05-20 華碩電腦股▲ふん▼有限公司 Appearance image capturing device and appearance inspection device having the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012084960A (en) * 2010-10-07 2012-04-26 Ricoh Co Ltd Image processing device, image processing method, and image processing program
WO2013073627A1 (en) * 2011-11-15 2013-05-23 株式会社 東芝 Image processing device and method
JP2013126530A (en) * 2011-11-15 2013-06-27 Toshiba Corp Image processing device and method
CN103210638A (en) * 2011-11-15 2013-07-17 株式会社东芝 Image processing device and method
WO2014132830A1 (en) * 2013-02-28 2014-09-04 株式会社 日立メディコ Image processing device, magnetic resonance imaging device, and image processing method
JPWO2014132830A1 (en) * 2013-02-28 2017-02-02 株式会社日立製作所 Image processing apparatus, magnetic resonance imaging apparatus, and image processing method
US9830687B2 (en) 2013-02-28 2017-11-28 Hitachi, Ltd. Image processing device, magnetic resonance imaging apparatus and image processing method
CN112763493A (en) * 2019-11-05 2021-05-07 华硕电脑股份有限公司 Appearance image capturing device and appearance detection device comprising same
JP2021076569A (en) * 2019-11-05 2021-05-20 華碩電腦股▲ふん▼有限公司 Appearance image capturing device and appearance inspection device having the same
US11575814B2 (en) * 2019-11-05 2023-02-07 Asustek Computer Inc. Image capturing device and appearance inspecting device including the same
CN111667502A (en) * 2020-05-06 2020-09-15 北京理工大学 Method and device for generating high-speed video according to single motion blurred image
CN111667502B (en) * 2020-05-06 2023-08-25 北京理工大学 Method and device for generating high-speed video according to single motion blurred image

Similar Documents

Publication Publication Date Title
US20120008005A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon
CA2702165C (en) Image generation method and apparatus, program therefor, and storage medium which stores the program
CN109963048B (en) Noise reduction method, noise reduction device and noise reduction circuit system
JP2012208553A (en) Image processing device, image processing method, and program
JPWO2007032156A1 (en) Image processing method and image processing apparatus
JP2010181951A (en) Image processor and image processing program
JP2020129276A (en) Image processing device, image processing method, and program
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
GB2536429A (en) Image noise reduction
WO2021232965A1 (en) Video noise reduction method and apparatus, mobile terminal and storage medium
CN110866882A (en) Layered joint bilateral filtering depth map restoration algorithm based on depth confidence
JP6931049B2 (en) ISP Bias Compensation Noise Reduction System and Method
Shimano et al. Video temporal super-resolution based on self-similarity
KR101907451B1 (en) Filter based high resolution color image restoration and image quality enhancement apparatus and method
Zhang et al. A ViBe based moving targets edge detection algorithm and its parallel implementation
JP5490117B2 (en) Image processing device
CN105069764B (en) A kind of image de-noising method and system based on Edge track
KR20100097858A (en) Super-resolution using example-based neural networks
JP2009200635A (en) Image processor, and processing method and program
WO2011086594A1 (en) Image processing apparatus and method therefor
JP6294052B2 (en) One-pass video super-resolution processing method and video processing apparatus for performing the video processing
JP5928465B2 (en) Degradation restoration system, degradation restoration method and program
JP6957665B2 (en) Image processing equipment, image processing methods and programs
JP3959547B2 (en) Image processing apparatus, image processing method, and information terminal apparatus
JP2019045981A (en) Image processing apparatus, image processing method, and program