JP4671417B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4671417B2
JP4671417B2 JP2005280372A JP2005280372A JP4671417B2 JP 4671417 B2 JP4671417 B2 JP 4671417B2 JP 2005280372 A JP2005280372 A JP 2005280372A JP 2005280372 A JP2005280372 A JP 2005280372A JP 4671417 B2 JP4671417 B2 JP 4671417B2
Authority
JP
Japan
Prior art keywords
image
frame
unit
frequency band
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005280372A
Other languages
Japanese (ja)
Other versions
JP2007094555A (en
JP2007094555A5 (en
Inventor
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005280372A priority Critical patent/JP4671417B2/en
Publication of JP2007094555A publication Critical patent/JP2007094555A/en
Publication of JP2007094555A5 publication Critical patent/JP2007094555A5/ja
Application granted granted Critical
Publication of JP4671417B2 publication Critical patent/JP4671417B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は複数のフレームから構成される動画像シーケンスを対象とし、対象となる画像を高画質化処理する為の画像処理装置に関する。   The present invention relates to an image processing apparatus that targets a moving image sequence composed of a plurality of frames and performs image quality enhancement processing on a target image.

従来から、複数フレームで構成される動画像シーケンスのS/N比を改善する画像処理装置として、様々な考案がなされている。S/N比を改善する例としてノイズ除去処理を対象とした場合は、例えば特許文献1に開示されるように、リカーシブフィルタを備えたものがある。この文献においては、リカーシブフィルタのフィルタ係数を画像信号の大きさに応じて変化させることにより、X線画像の特性である画像の濃度とノイズ量との関係に基づいたノイズ除去処理を行うことができる。   Conventionally, various devices have been devised as image processing apparatuses for improving the S / N ratio of a moving image sequence composed of a plurality of frames. As an example of improving the S / N ratio, when noise removal processing is a target, there is one provided with a recursive filter as disclosed in Patent Document 1, for example. In this document, by changing the filter coefficient of the recursive filter according to the magnitude of the image signal, it is possible to perform noise removal processing based on the relationship between the image density and the noise amount, which is the characteristic of the X-ray image. it can.

また、画像を鮮鋭化してより見やすくするための処理としては、例えば特許文献2に開示されるように、ボケマスク処理における強調係数を画像に描出された被写体に応じて変化させる。これにより、不必要なノイズの強調を抑制しつつ画像信号の強調を行うことができる。
特開平05−087394号公報 特開平7−21364号公報
Further, as a process for sharpening an image to make it easier to see, for example, as disclosed in Patent Document 2, the enhancement coefficient in the blur mask process is changed according to the subject depicted in the image. Thereby, it is possible to enhance the image signal while suppressing unnecessary noise enhancement.
JP 05-087394 A JP 7-21364 A

前述した従来技術のリカーシブフィルタにおいては、複数のフレームにまたがる画像信号の時間方向加算によりノイズを減少させることができるが、同一フレーム内の情報を有効に活用しているものではない。また、ボケマスク処理においては、画像のエッジ近傍においてオーバーシュートなどのアーチファクトが生ずることが知られている。   In the above-described conventional recursive filter, noise can be reduced by time-direction addition of image signals over a plurality of frames, but information in the same frame is not effectively used. In the blur mask process, it is known that artifacts such as overshoot occur near the edge of the image.

本発明は以上の問題に鑑みて成されたものであり、同一フレーム内の画像信号と時間軸方向の変化を利用しつつ、より高い効果のある画質改善が可能な画像処理技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image processing technique capable of improving image quality with higher effect while utilizing an image signal in the same frame and a change in the time axis direction. With the goal.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、動画像を構成する各フレームの画像を入力する入力手段と、
第1フレーム画像を複数の周波数帯域に分解する分解手段と、
前記第1フレーム画像について前記分解手段が分解した複数の周波数帯域のうち予め定められた周波数帯域に属する係数を、前記第1フレーム画像よりも前のフレームの画像である第2フレーム画像について前記分解手段が分解した複数の周波数帯域のうち当該予め定められた周波数帯域に対応する周波数帯域に属する係数を用いて変更する変更手段と、
前記変更手段により変更した周波数帯域を含む全ての周波数帯域の係数に基づいて前記分解手段が行った処理と逆の処理を行うことにより、画像を再構成する再構成手段と、
前記再構成手段により再構成された画像を、前記第1フレーム画像として出力する出力手段と
を備えることを特徴とする。
That is, an input means for inputting an image of each frame constituting a moving image;
Decomposition means for decomposing the image of the first frame into a plurality of frequency bands;
Wherein the coefficients belonging to a predetermined frequency band among the plurality of frequency bands in which the decomposing means is decomposed for the first frame image, the second frame of the image than the image of the first frame is an image of the previous frame Changing means for changing using a coefficient belonging to a frequency band corresponding to the predetermined frequency band among the plurality of frequency bands decomposed by the decomposition means,
By performing the processing and reverse processing of said decomposing means went based on coefficients of all the frequency band including a frequency band changed by the changing means, and reconstructing means for reconstructing an image,
Output means for outputting the image reconstructed by the reconstructing means as the image of the first frame.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、動画像を構成する各フレームの画像を入力する入力工程と、
第1フレーム画像を複数の周波数帯域に分解する分解工程と、
前記第1フレーム画像について前記分解工程で分解した複数の周波数帯域のうち予め定められた周波数帯域に属する係数を、前記第1フレーム画像よりも前のフレームの画像である第2フレーム画像について前記分解工程で分解した複数の周波数帯域のうち当該予め定められた周波数帯域に対応する周波数帯域に属する係数を用いて変更する変更工程と、
前記変更工程で変更した周波数帯域を含む全ての周波数帯域の係数に基づいて前記分解工程で行った処理と逆の処理を行うことにより、画像を再構成する再構成工程と、
前記再構成工程で再構成された画像を、前記第1フレーム画像として出力する出力工程と
を備えることを特徴とする。
That is, an input process for inputting an image of each frame constituting a moving image;
A decomposing step of decomposing the image of the first frame into a plurality of frequency bands;
Wherein the coefficients belonging to a predetermined frequency band among the plurality of frequency bands decomposed by the decomposition step for a first frame image, the second frame of the image than the image of the first frame is an image of the previous frame A changing step of changing using a coefficient belonging to a frequency band corresponding to the predetermined frequency band among the plurality of frequency bands decomposed in the decomposition step;
A reconstruction process for reconstructing an image by performing a process opposite to the process performed in the decomposition process based on the coefficients of all frequency bands including the frequency band changed in the change process;
And an output step of outputting the image reconstructed in the reconstruction step as the image of the first frame.

本発明の構成により、同一フレーム内の画像信号と時間軸方向の変化を利用しつつ、より高い効果のある画質改善を計ることができる。   According to the configuration of the present invention, it is possible to improve the image quality with higher effect while using the image signal in the same frame and the change in the time axis direction.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
図1は、本実施形態に係る画像処理装置100の機能構成を示すブロック図である。同図に示す如く、画像処理装置100は、画像入力部1、周波数分解部2,係数変更部3、画像再構成部4、係数記憶部5、画像出力部6により構成されている。
[First Embodiment]
FIG. 1 is a block diagram illustrating a functional configuration of the image processing apparatus 100 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 100 includes an image input unit 1, a frequency resolution unit 2, a coefficient change unit 3, an image reconstruction unit 4, a coefficient storage unit 5, and an image output unit 6.

画像入力部1は、動画像を構成する各フレームの画像(画像信号)を入力する。画像の供給源としては例えばディジタルカメラがある。例えば、このディジタルカメラがCCDカメラであり、撮像した画像をアナログ画像信号として出力するものである場合には、この画像入力部1は、このアナログ画像信号に対してA/D変換を施し、ディジタル画像信号として後段の周波数分解部2に送出する。また、画像入力部1は入力された画像信号の形式を変換する以外に、例えば、この画像信号に対して、ディジタルカメラ固有の補正処理を行うようにしても良い。このような補正処理には例えば、ディジタルカメラがCCDカメラである場合にはダーク補正処理などがある。   The image input unit 1 inputs an image (image signal) of each frame constituting a moving image. As an image supply source, for example, there is a digital camera. For example, when the digital camera is a CCD camera and outputs a captured image as an analog image signal, the image input unit 1 performs A / D conversion on the analog image signal, As an image signal, it is sent to the frequency resolution unit 2 in the subsequent stage. In addition to converting the format of the input image signal, the image input unit 1 may perform a correction process specific to the digital camera, for example, on the image signal. Such correction processing includes, for example, dark correction processing when the digital camera is a CCD camera.

また、画像入力部1には、画像信号は、フレーム単位で、且つスキャンライン順に入力される。即ち、プログレッシブスキャンであることを前提とする。しかし、画像信号の供給源によっては、このような順序でもって画像信号が入力されない場合がある。そこでこのような場合には、画像入力部1は、入力した画像信号の出力順序を入れ替えるようにしても良い。例えば、ディジタルカメラから出力された画像信号がインターレーススキャンである場合、画像入力部1はこの画像信号を受け、プログレッシブスキャンに変換して出力する。   The image signal is input to the image input unit 1 in units of frames and in the order of scan lines. That is, it is premised on the progressive scan. However, depending on the supply source of the image signal, the image signal may not be input in this order. In such a case, the image input unit 1 may change the output order of the input image signals. For example, when the image signal output from the digital camera is an interlace scan, the image input unit 1 receives this image signal, converts it into a progressive scan, and outputs it.

本実施形態では、画像入力部1に入力される動画像は、所定のフレームレート(例えば1秒間に30フレーム)で、且つ各フレームの画像の解像度が所定の解像度(例えば縦横1024画素)であるとする。   In the present embodiment, the moving image input to the image input unit 1 has a predetermined frame rate (for example, 30 frames per second), and the image resolution of each frame has a predetermined resolution (for example, vertical and horizontal 1024 pixels). And

また、本実施形態では、各フレームの画像は色成分が1つの画像、即ち、モノクロ画像であるとしているが、これに限定するものではなく、各フレームの画像が複数の色成分を有しても良い。その場合、後述する各処理は各色成分に対して行われることになる。   In this embodiment, the image of each frame is an image having one color component, that is, a monochrome image. However, the present invention is not limited to this, and the image of each frame has a plurality of color components. Also good. In this case, each process described later is performed on each color component.

更に、各フレームの画像が複数の色成分を有する場合、画像入力部1は、色空間変換を行うようにしても良い。例えば、画像入力部1に入力される各フレームの画像がRGBの3つの色成分を有する場合、画像入力部1は、RGBからYUVに色空間を変換し、後続の処理については変換後の各色成分に対して行うようにすればよい。   Furthermore, when the image of each frame has a plurality of color components, the image input unit 1 may perform color space conversion. For example, when the image of each frame input to the image input unit 1 has three color components of RGB, the image input unit 1 converts the color space from RGB to YUV, and for the subsequent processing, the converted colors What is necessary is just to make it with respect to a component.

周波数分解部2には画像入力部1からフレーム単位で画像が入力されるので、周波数分解部2は、フレーム毎に画像を複数の周波数帯域に分解する。そして、それぞれのフレームについて分解した周波数帯域の係数をフレーム毎に係数変更部3に送出する。   Since an image is input to the frequency resolution unit 2 from the image input unit 1 in units of frames, the frequency resolution unit 2 decomposes the image into a plurality of frequency bands for each frame. Then, the frequency band coefficients decomposed for each frame are sent to the coefficient changing unit 3 for each frame.

画像を複数の周波数帯域に分解する手法については図2に示す何れの方法を用いても良い。図2(a)は、あるフレームの画像Fnに対して2次元離散ウェーブレット変換処理を施すことで、10個の周波数帯域(LL〜HH1)を得る様子を説明する図である。同図では、3レベルの分解が行われている。なお離散ウェーブレット変換については、例えばS.Mallat, “A Theory of Multiresolution Signal Decomposition: the Wavelet Representation”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 11, No.7, July 1989, 674-693等の文献に詳述されているため、説明は省略する。   As a method for decomposing an image into a plurality of frequency bands, any method shown in FIG. 2 may be used. FIG. 2A is a diagram for explaining how to obtain 10 frequency bands (LL to HH1) by performing a two-dimensional discrete wavelet transform process on an image Fn of a certain frame. In the figure, three levels of decomposition are performed. Regarding discrete wavelet transform, for example, S. Mallat, “A Theory of Multiresolution Signal Decomposition: the Wavelet Representation”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 11, No. 7, July 1989, 674-693, etc. The description is omitted here.

また、図2(b)は、あるフレームの画像Fnに対してラプラシアンピラミッド分解を行うことで、3つの周波数帯域H1、H2、Lを得る様子を説明する図である。ここでH1およびH2は異なる周波数帯域に係る高周波成分であり、Lは残余分の低周波帯域に係る成分を表す係数群である。H2およびLは、画像Fnに対して解像度が水平および垂直方向の各々について、1/2、1/4となっている。ラプラシアンピラミッド分解については、例えばP.Burt and H.Adelson, “The Laplacian Pyramid as a Compact Image Code”, IEEE Transactions on Communications, Vol.Com-31, No.4, April 1983, 532-540等の文献に詳述されているため説明は省略する。   FIG. 2B is a diagram for explaining how the three frequency bands H1, H2, and L are obtained by performing Laplacian pyramid decomposition on the image Fn of a certain frame. Here, H1 and H2 are high frequency components relating to different frequency bands, and L is a coefficient group representing components relating to the remaining low frequency bands. H2 and L have resolutions of 1/2 and 1/4 with respect to the image Fn in the horizontal and vertical directions, respectively. For Laplacian pyramid decomposition, for example, P. Burt and H. Adelson, “The Laplacian Pyramid as a Compact Image Code”, IEEE Transactions on Communications, Vol.Com-31, No.4, April 1983, 532-540, etc. Will not be described here.

係数変更部3は、周波数分解部2から出力されたフレームtの画像(以下、第tフレーム画像と呼称する)の周波数帯域kに係る係数Cij (k)を、係数C’ij (k)に変更する処理を行う。ここで、kは周波数帯域を示す変数で、周波数分解部2が図2(a)に示す如く、画像を10個の周波数帯域に分解した場合には、k=LL〜HH1となる。また、i,jは、それぞれの周波数帯域における係数固有のインデックスである。従って、Cij (k)は、フレームtにおける画像の周波数帯域kに係る係数群を2次元的に配置した場合に、(i、j)の位置に位置する係数を示すことになる。 The coefficient changing unit 3 uses the coefficient C ij t (k) related to the frequency band k of the image of the frame t (hereinafter referred to as the t-th frame image) output from the frequency resolving unit 2 as the coefficient C ′ ij t ( The process of changing to k) is performed. Here, k is a variable indicating a frequency band. When the frequency decomposition unit 2 decomposes an image into 10 frequency bands as shown in FIG. 2A, k = LL to HH1. Further, i and j are coefficients specific to each frequency band. Therefore, C ij t (k) indicates a coefficient located at the position (i, j) when the coefficient group related to the frequency band k of the image in the frame t is two-dimensionally arranged.

ここで、係数変更部3が行う係数変更処理について説明する。   Here, the coefficient changing process performed by the coefficient changing unit 3 will be described.

上述の通り、係数変更部3は、周波数分解部2から出力されたフレームの画像の各周波数帯域に係る係数群を変更するのであるが、変更後の係数群は画像再構成部4に出力すると共に、係数記憶部5に格納する。従って、係数変更部3が、第tフレーム画像の周波数帯域kに係る係数Cij (k)について変更処理を行う場合、係数記憶部5には既に、第(t−1)フレーム画像の周波数帯域kに係る係数(係数変更部3により変更済み)C’ij (t−1)(k)が格納されている。 As described above, the coefficient changing unit 3 changes the coefficient group related to each frequency band of the image of the frame output from the frequency resolving unit 2, but outputs the changed coefficient group to the image reconstruction unit 4. At the same time, it is stored in the coefficient storage unit 5. Therefore, when the coefficient changing unit 3 performs the changing process for the coefficient C ij t (k) related to the frequency band k of the t-th frame image, the coefficient storage unit 5 already has the frequency of the (t−1) -th frame image. Coefficients related to the band k (changed by the coefficient changing unit 3) C ′ ij (t−1) (k) are stored.

従って、係数変更部3は、Cij (k)、C’ij (t−1)(k)を用いて、Cij (k)を以下のように変更する。 Therefore, the coefficient changing unit 3 changes C ij t (k) as follows using C ij t (k) and C ′ ij (t−1) (k).

C’ij (k)=Ek{αCij (k)+(1−α)C’ij (t−1)(k)} d<T
C’ij (k)=EkCij (k) d≧T
(式1)
但し、α、Tは、ノイズ除去に係るパラメータであり、画像信号に含まれるノイズ量に応じて最適な値が予め決定され、係数変更部3内に予め保持されている。
C ′ ij t (k) = Ek {αC ij t (k) + (1−α) C ′ ij (t−1) (k)} d <T
C ′ ij t (k) = EkC ij t (k) d ≧ T
(Formula 1)
However, α and T are parameters related to noise removal, and optimum values are determined in advance according to the amount of noise included in the image signal, and are stored in the coefficient changing unit 3 in advance.

ここで、αは、変更後の係数を生成するにあたり、現在と過去のフレームに係る係数の混合比率を表している。本実施形態の場合、フレームtにおける係数とフレーム(t−1)における係数とをαで決まる合成比率でもって合成することになる。   Here, α represents the mixing ratio of the coefficients related to the current and past frames in generating the changed coefficient. In the case of this embodiment, the coefficient in the frame t and the coefficient in the frame (t−1) are combined with a combining ratio determined by α.

Tは、係数の差の大きいものを動きのある部分として除外することで、過去のフレームの係数の影響をなくし、不要な残像効果を除くためのパラメータである。従ってdは、以下の式でもって表される。   T is a parameter for eliminating the influence of the coefficient of the past frame and eliminating the unnecessary afterimage effect by excluding the part having a large coefficient difference as a part having motion. Therefore, d is expressed by the following equation.

d=|Cij (k)−C’ij (t−1)(k)|
このdは、係数変更部3により計算される。また、Ekは、周波数帯域kに対する強調係数で、必要な強調の強さに応じて予め設定され、同じく係数変更部3内に予め保持されている。
d = | C ij t (k) −C ′ ij (t−1) (k) |
This d is calculated by the coefficient changing unit 3. Ek is an enhancement coefficient for the frequency band k, which is set in advance according to the required enhancement strength, and is also held in the coefficient changing unit 3 in advance.

係数変更部3は、以上説明した係数変更処理を、全ての周波数帯域について行う。例えば、周波数分解部2が図2(a)に示す如く、画像を10個の周波数帯域に分解した場合には、k=LL〜HH1について以上説明した係数変更処理を行う。   The coefficient changing unit 3 performs the coefficient changing process described above for all frequency bands. For example, when the frequency decomposition unit 2 decomposes the image into 10 frequency bands as shown in FIG. 2A, the coefficient changing process described above for k = LL to HH1 is performed.

以上のようにして、係数変更部3は、現在のフレームにおけるそれぞれの周波数帯域に属する係数群を、1つ前のフレームにおける変更後の係数群でもって変更する処理を行う。なお、上述の通り、本実施形態では現在のフレームにおける係数群を変更する際には1つ前のフレームにおける変更後の係数群を用いているが、2つ以上前のフレームにおける変更後の係数群を用いるようにしても良い。   As described above, the coefficient changing unit 3 performs a process of changing the coefficient group belonging to each frequency band in the current frame with the changed coefficient group in the previous frame. As described above, in the present embodiment, when the coefficient group in the current frame is changed, the changed coefficient group in the previous frame is used, but the changed coefficient in two or more previous frames is used. A group may be used.

そして係数変更部3は、変更した係数群を画像再構成部4に出力すると共に、次のフレームにおける係数群を変更する際に用いるために係数記憶部5に格納する。   The coefficient changing unit 3 outputs the changed coefficient group to the image reconstruction unit 4 and stores it in the coefficient storage unit 5 for use when changing the coefficient group in the next frame.

なお、上記(式1)による計算処理を行う前に、以下の式に従って、係数Cij (k)の縮退処理を行うようにしても良い。 In addition, before performing the calculation process according to the above (formula 1), the degeneration process of the coefficient C ij t (k) may be performed according to the following formula.

ij (k)=Cij (k) Cij (k)≧Ts
ij (k)=0 Cij (k)<Ts
(式3)
また、Cij (k)の値を、閾値Tsに満たないからといっていきなり0にするのではなく、Cij (k)の値が閾値Tsよりも小さい場合に、その値に応じた減衰率でもって減少させるようにしても良い。
C ij t (k) = C ij t (k) C ij t (k) ≧ Ts
C ij t (k) = 0 C ij t (k) <Ts
(Formula 3)
Further, the value of C ij t (k), rather than suddenly than to zero just because less than the threshold value Ts, if the value of C ij t (k) is smaller than the threshold Ts, according to the value Alternatively, it may be reduced by the attenuation rate.

画像再構成部4は、1フレーム分の画像のそれぞれの周波数帯域に属する変更後の係数群を係数変更部3から受けると、これに対して周波数分解部2が行った処理とは逆の処理を行い、画像を再構成する。例えば、周波数分解部2が2次元離散ウェーブレット変換処理を行ったのであれば、画像再構成部4は、2次元離散逆ウェーブレット変換処理を行う。   When the image reconstructing unit 4 receives from the coefficient changing unit 3 the changed coefficient group belonging to each frequency band of the image for one frame, a process opposite to the process performed by the frequency resolving unit 2 To reconstruct the image. For example, if the frequency resolving unit 2 performs a two-dimensional discrete wavelet transform process, the image reconstruction unit 4 performs a two-dimensional discrete inverse wavelet transform process.

画像出力部6は、画像再構成部4により得られた再構成画像を出力する。   The image output unit 6 outputs the reconstructed image obtained by the image reconstruction unit 4.

以上説明した各部により、画像入力部1に入力された各フレームの画像において各周波数帯域における係数群を、1つ前のフレームの画像において対応する周波数帯域の係数群を用いて修正することができる。そして修正した係数群に基づいて再構成された画像を順次、画像出力部6により出力することができる。   By each unit described above, the coefficient group in each frequency band in the image of each frame input to the image input unit 1 can be corrected using the coefficient group in the corresponding frequency band in the image of the previous frame. . Images reconstructed based on the corrected coefficient group can be sequentially output by the image output unit 6.

なお、画像出力部6による出力先については特に限定するものではないが、出力先の装置によっては、出力画像のフォーマットを変更する必要がある。そこで、そのような場合には、画像出力部6は、画像のフォーマットを、出力先の装置に応じたフォーマットに変更してから出力する。   The output destination by the image output unit 6 is not particularly limited, but the format of the output image needs to be changed depending on the output destination device. Therefore, in such a case, the image output unit 6 changes the format of the image to a format according to the output destination apparatus and outputs the image.

ここで、図1に示した各部は専用のハードウェアでもって構成し、その結果、画像処理装置100を1つのチップとして構成するようにしても良い。本実施形態では係数記憶部5以外をソフトウェアでもって構成し、係数記憶部5はRAMなどのメモリでもって構成する。この場合、図1に示した画像処理装置は、一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータでもって構成することができる。   Here, each unit shown in FIG. 1 may be configured with dedicated hardware, and as a result, the image processing apparatus 100 may be configured as one chip. In the present embodiment, the components other than the coefficient storage unit 5 are configured by software, and the coefficient storage unit 5 is configured by a memory such as a RAM. In this case, the image processing apparatus shown in FIG. 1 can be configured by a computer such as a general PC (personal computer) or WS (workstation).

図3は、画像処理装置として適用するコンピュータのハードウェア構成、及びその周辺機器を示すブロック図である。   FIG. 3 is a block diagram illustrating a hardware configuration of a computer applied as an image processing apparatus and its peripheral devices.

同図に示す如く、コンピュータ300は、ネットワーク350を介して撮像装置360やファイルサーバ370に接続されており、互いにデータ通信が可能な構成となっている。   As shown in the figure, a computer 300 is connected to an imaging device 360 and a file server 370 via a network 350, and is configured to be able to perform data communication with each other.

先ず、コンピュータ300について説明する。   First, the computer 300 will be described.

301はCPUで、RAM302やROM303に格納されているプログラムやデータを用いてコンピュータ300全体の制御を行うと共に、コンピュータ300を適用した上記画像処理装置100が行う各処理を実行する。   A CPU 301 controls the entire computer 300 using programs and data stored in the RAM 302 and the ROM 303 and executes each process performed by the image processing apparatus 100 to which the computer 300 is applied.

302はRAMで、光磁気ディスク305やハードディスク304からロードされたプログラムやデータを一時的に記憶するためのエリアを備える。更にRAM302は、ネットワーク350を介して撮像装置360やファイルサーバ370からダウンロードした画像データ等を一時的に記憶するためのエリアを備える。また、RAM302は、CPU301が各種の処理を実行する際に用いるワークエリアも備える。   A RAM 302 has an area for temporarily storing programs and data loaded from the magneto-optical disk 305 and the hard disk 304. Further, the RAM 302 includes an area for temporarily storing image data downloaded from the imaging device 360 or the file server 370 via the network 350. The RAM 302 also includes a work area that is used when the CPU 301 executes various processes.

303はROMで、コンピュータ300の設定データや、ブートプログラムなどを格納する。   A ROM 303 stores setting data of the computer 300, a boot program, and the like.

304はハードディスクで、OS(オペレーティングシステム)や、図1に示した画像入力部1、周波数分解部2,係数変更部3、画像再構成部4、画像出力部6の各部が行う上記各処理をCPU301に実行させるためのプログラムやデータを保持している。そしてこれらはCPU301による制御に従って適宜RAM302にロードされ、CPU301による処理対象となる。また、上記動画像のデータをこのハードディスク304に保存させておくようにしても良い。   A hard disk 304 performs the above-described processes performed by the OS (operating system), the image input unit 1, the frequency decomposition unit 2, the coefficient changing unit 3, the image reconstruction unit 4, and the image output unit 6 shown in FIG. A program and data to be executed by the CPU 301 are held. These are appropriately loaded into the RAM 302 according to the control by the CPU 301 and are processed by the CPU 301. The moving image data may be stored in the hard disk 304.

305は光磁気ディスク305で、情報記憶媒体としての一例であり、ハードディスク304に保存されているプログラムやデータの一部若しくは全部をこの光磁気ディスク305に格納するようにしても良い。   A magneto-optical disk 305 is an example of an information storage medium, and a part or all of programs and data stored in the hard disk 304 may be stored in the magneto-optical disk 305.

306、307はそれぞれマウス、キーボードで、コンピュータ300の操作者が操作することで、各種の指示をCPU301に対して入力することができる。   Reference numerals 306 and 307 are a mouse and a keyboard, respectively, and various instructions can be input to the CPU 301 by an operator of the computer 300.

308はプリンタで、画像出力部6による出力先の一例である。   A printer 308 is an example of an output destination by the image output unit 6.

309は表示装置で、CRTや液晶画面などにより構成されており、CPU301による処理結果を画像や文字などでもって表示する。例えば、図1に示した各部により処理され、最終的に画像出力部6から出力された各フレームの画像を表示する。   Reference numeral 309 denotes a display device, which includes a CRT, a liquid crystal screen, and the like, and displays the processing result by the CPU 301 using images, characters, and the like. For example, the image of each frame processed by each unit shown in FIG. 1 and finally output from the image output unit 6 is displayed.

310は上述の各部を繋ぐバスである。   A bus 310 connects the above-described units.

次に、撮像装置360について説明する。撮像装置360は、例えばディジタルカメラなど、動画像を撮像するものであり、撮像した動画像のデータはネットワーク350を介してコンピュータ300に供給される。なお、動画像のデータは複数フレーム分をまとめてコンピュータ300に供給するようにしても良いし、撮像したフレーム毎に供給するようにしても良い。   Next, the imaging device 360 will be described. The imaging device 360 is a device that captures a moving image, such as a digital camera, and the data of the captured moving image is supplied to the computer 300 via the network 350. Note that the moving image data may be supplied to the computer 300 for a plurality of frames, or may be supplied for each captured frame.

次に、ファイルサーバ370について説明する。ファイルサーバ370には画像データを含む様々な情報が格納可能であり、本実施形態の場合には、図1に示した各部によって行った上記各処理により得られる各フレームの画像を格納することができる。従って、コンピュータ300は、各フレームの画像について図1に示した各部による処理を行うと、処理済みの各フレームの画像をネットワーク350を介してファイルサーバ370に転送する。これにより、ファイルサーバ370には、コンピュータ300による処理済みの動画像データを登録することができる。   Next, the file server 370 will be described. Various information including image data can be stored in the file server 370. In the case of the present embodiment, an image of each frame obtained by each of the processes performed by each unit shown in FIG. 1 can be stored. it can. Therefore, when the computer 300 performs the processing by each unit shown in FIG. 1 on the image of each frame, the computer 300 transfers the processed image of each frame to the file server 370 via the network 350. Thereby, the moving image data processed by the computer 300 can be registered in the file server 370.

次にネットワーク350について説明する。ネットワーク350は、LANやインターネット等のネットワークにより構成されている。なお、このネットワーク350は、無線、有線の何れで構成しても良く、また双方を部分的に組み合わせるようにしても良い。   Next, the network 350 will be described. The network 350 is configured by a network such as a LAN or the Internet. Note that the network 350 may be either wireless or wired, or a combination of both.

図8は、図1に示した各部が行う処理のフローチャートである。なお、同図のフローチャートに従った処理をコンピュータ300のCPU301に実行させるためのプログラムやデータはハードディスク304や光磁気ディスク305に格納されており、適宜CPU301によりRAM302にロードされる。そして、CPU301がこれを用いて処理を実行することで、コンピュータ300は以下説明する各処理を実行する。   FIG. 8 is a flowchart of processing performed by each unit shown in FIG. Note that programs and data for causing the CPU 301 of the computer 300 to execute the processing according to the flowchart of FIG. 3 are stored in the hard disk 304 and the magneto-optical disk 305 and are appropriately loaded into the RAM 302 by the CPU 301. And when CPU301 performs a process using this, the computer 300 performs each process demonstrated below.

なお、同図のフローチャートは、1つのフレーム(第tフレーム)の画像についてのものであるので、複数フレームのそれぞれについて同様の処理を行う場合には、同図のフローチャートに従った処理を各フレームについて行えばよい。   Note that the flowchart of FIG. 5 is for an image of one frame (t-th frame). Therefore, when the same processing is performed for each of a plurality of frames, the processing according to the flowchart of FIG. You can do it.

先ず、CPU301は周波数分解部2として機能し、RAM302に保持されている第tフレーム画像を複数の周波数帯域に分解する処理を行う(ステップS802)。次にステップS803からステップS806までの処理を分解されたそれぞれの周波数帯域について行う。   First, the CPU 301 functions as the frequency decomposing unit 2 and performs a process of decomposing the t-th frame image held in the RAM 302 into a plurality of frequency bands (step S802). Next, the processing from step S803 to step S806 is performed for each decomposed frequency band.

先ず、ハードディスク304内、若しくはRAM302内に保持している第(t−1)フレーム画像の周波数帯域kに係る係数C’ij (t−1)(k)を読み出す(ステップS803)。そして、CPU301は係数変更部3として機能し、読み出したこの係数を用いて、第tフレーム画像の周波数帯域kに係る係数Cij (k)を上記(式1)に従って変更する処理を行う(ステップS804)。なお、上述の通り、本ステップの前段で上記(式3)に従った処理等でもって、係数の縮退処理を行うようにしても良い。 First, the coefficient C ′ ij (t−1) (k) related to the frequency band k of the (t−1) th frame image held in the hard disk 304 or RAM 302 is read (step S803). Then, the CPU 301 functions as the coefficient changing unit 3 and uses this read coefficient to perform processing for changing the coefficient C ij t (k) related to the frequency band k of the t-th frame image according to the above (Equation 1) ( Step S804). As described above, the coefficient degeneration processing may be performed by the processing according to the above (Equation 3) or the like before the present step.

次に、CPU301は、第tフレーム画像の周波数帯域kに属する全ての係数について変更処理を行ったかを判断し(ステップS805)、行っていない場合には、処理をステップS803に戻す。そして、未だ変更を行っていない第tフレーム画像の周波数帯域kに係る係数Cij (k)についてステップS803以降の処理を行う。 Next, the CPU 301 determines whether or not change processing has been performed for all the coefficients belonging to the frequency band k of the t-th frame image (step S805), and if not, returns the processing to step S803. Then, the step S803 and subsequent steps for the coefficients C ij t according to the frequency band k of the t frame image not yet subjected to change (k).

一方、第tフレーム画像の周波数帯域kに属する全ての係数について変更処理を行った場合には処理をステップS806に進める。そして、処理の対象となる全ての周波数帯域(処理対象となる全ての周波数帯域についての変数k)について、ステップS804における変更処理を行ったか否かを判断する(ステップS806)。そして、行っていない場合には処理をステップS803に戻し、第tフレーム画像の複数周波数帯域のうち、未だ処理対象となっていない周波数帯域についてステップS803以降の処理を行う。   On the other hand, if the changing process has been performed for all the coefficients belonging to the frequency band k of the t-th frame image, the process proceeds to step S806. Then, it is determined whether or not the change processing in step S804 has been performed for all frequency bands to be processed (variable k for all frequency bands to be processed) (step S806). If not, the process returns to step S803, and the processes after step S803 are performed on the frequency bands not yet processed among the plurality of frequency bands of the t-th frame image.

ここで、処理の対象となる周波数帯域については予め決定されており、処理対象となる周波数帯域を示す情報は予めRAM302に保持されている。処理対象となる周波数帯域は、ノイズ除去を効果的に行うために、高周波成分を多く含む帯域とすることが望ましい。そのために、例えば図2(a)に示す離散ウェーブレット変換の場合には、LLを除く全ての周波数帯域を処理対象となる周波数帯域とすれば良い。また、図2(b)に示すラプラシアンピラミッドの場合には、Lを除く全ての周波数帯域を処理対象となる周波数帯域とすれば良い。   Here, the frequency band to be processed is determined in advance, and information indicating the frequency band to be processed is held in the RAM 302 in advance. The frequency band to be processed is desirably a band containing a lot of high frequency components in order to effectively remove noise. Therefore, for example, in the case of the discrete wavelet transform shown in FIG. 2A, all frequency bands except LL may be set as frequency bands to be processed. In the case of the Laplacian pyramid shown in FIG. 2B, all frequency bands except L may be set as frequency bands to be processed.

一方、全ての対象となる周波数帯域について、ステップS804における変更処理を行った場合には処理をステップS807に進める。そして、CPU301は画像再構成部4として機能し、第tフレーム画像の複数の変更済みの周波数帯域に対して、ステップS802で行った処理の逆処理を行うことで、画像を再構成する(ステップS807)。そしてCPU301は画像出力部6として機能し、再構成された画像を、第tフレーム画像としてハードディスク304やRAM302、ファイルサーバ370等に出力する(ステップS808)。また、表示装置309に出力するようにしても良い。   On the other hand, when the change process in step S804 has been performed for all target frequency bands, the process proceeds to step S807. Then, the CPU 301 functions as the image reconstruction unit 4, and reconstructs an image by performing reverse processing of the processing performed in step S802 on a plurality of changed frequency bands of the t-th frame image. S807). The CPU 301 functions as the image output unit 6 and outputs the reconstructed image to the hard disk 304, the RAM 302, the file server 370, etc. as the t-th frame image (step S808). Further, it may be output to the display device 309.

以上の説明により、本実施形態によれば、複数フレームから構成される動画像に対して周波数空間上の処理を効果的に行うことでき、より高いノイズ除去効果および鮮鋭化処理を実現することが可能となる。   As described above, according to the present embodiment, it is possible to effectively perform processing in the frequency space on a moving image composed of a plurality of frames, and to realize a higher noise removal effect and sharpening processing. It becomes possible.

[第2の実施形態]
本実施形態では、第1の実施形態に係る処理において、画像入力部1に入力された画像に関する情報を更に入力する。これにより、入力される画像の種別や撮影条件などに応じて動画像を処理することができる。
[Second Embodiment]
In the present embodiment, information related to the image input to the image input unit 1 is further input in the processing according to the first embodiment. Thereby, it is possible to process a moving image according to the type of image to be input, shooting conditions, and the like.

図4は、本実施形態に係る画像処理装置400の機能構成を示すブロック図である。同図において図1と同じ部分については同じ番号を付けており、その説明は省略する。同図に示す如く、本実施形態に係る画像処理装置400は、図1に示した第1の実施形態に係る画像処理装置100に撮影条件入力部7を加えた構成を有する。   FIG. 4 is a block diagram illustrating a functional configuration of the image processing apparatus 400 according to the present embodiment. In this figure, the same parts as those in FIG. As shown in the figure, an image processing apparatus 400 according to the present embodiment has a configuration in which an imaging condition input unit 7 is added to the image processing apparatus 100 according to the first embodiment shown in FIG.

撮影条件入力部7は、画像入力部1に入力される動画像の撮影条件等、動画像に関する情報を入力するものである。「動画像に関する情報」については特に限定するものではないが、本実施形態では、入力画像が医用X線画像である場合について説明する。   The shooting condition input unit 7 inputs information related to a moving image such as a shooting condition of the moving image input to the image input unit 1. “Information relating to the moving image” is not particularly limited, but in the present embodiment, a case where the input image is a medical X-ray image will be described.

処理対象を医用X線動画像とした場合、撮影条件としては撮影部位、X線照射量、あるいは撮影方法などがある。これらの情報は、撮影条件入力部7に対して入力される。   When a processing target is a medical X-ray moving image, imaging conditions include an imaging region, an X-ray irradiation amount, an imaging method, and the like. These pieces of information are input to the imaging condition input unit 7.

そして、例えば、撮影条件入力部7は、以下に列挙する撮影方法に応じて、周波数分解部2、画像再構成部4における周波数分解レベルを決定する。   For example, the imaging condition input unit 7 determines the frequency resolution level in the frequency resolution unit 2 and the image reconstruction unit 4 in accordance with the imaging methods listed below.

(1) 透視
(2) DSA
(3) 静止画撮影
例えば、撮影条件入力部7に「撮影方法が透視である旨を示す情報」が入力された場合には、周波数分解部2、画像再構成部4における周波数分解レベルを3と決定する。また、撮影条件入力部7に「撮影方法がDSAである旨を示す情報」が入力された場合には、周波数分解部2、画像再構成部4における周波数分解レベルを5と決定する。また、撮影条件入力部7に「撮影方法が静止画撮影である旨を示す情報」が入力された場合には、周波数分解部2、画像再構成部4における周波数分解レベルを7と決定する。
(1) Perspective (2) DSA
(3) Still image shooting For example, when “information indicating that the shooting method is fluoroscopic” is input to the shooting condition input unit 7, the frequency resolution level in the frequency resolution unit 2 and the image reconstruction unit 4 is set to 3 And decide. When “information indicating that the imaging method is DSA” is input to the imaging condition input unit 7, the frequency resolution level in the frequency resolution unit 2 and the image reconstruction unit 4 is determined to be 5. When “information indicating that the shooting method is still image shooting” is input to the shooting condition input unit 7, the frequency resolution level in the frequency resolution unit 2 and the image reconstruction unit 4 is determined to be 7.

周波数分解レベルを多く取ることで、より細かい周波数処理が可能となるが、透視撮影においてはその用途が診断ではなく、カテーテルなどの手術デバイスの位置を確認できれば十分である。しかし、表示の遅れを回避するためには、フレームレートは高く取る必要がある。そこで、透視に対しては分解レベルを低く設定することにより計算量を抑え、透視に最適な処理を実現することができる。   By taking a large frequency resolution level, finer frequency processing becomes possible. However, in fluoroscopic imaging, it is sufficient if the use is not diagnosis but the position of a surgical device such as a catheter can be confirmed. However, in order to avoid display delay, the frame rate needs to be high. Therefore, by setting the decomposition level low for fluoroscopy, it is possible to reduce the amount of calculation and realize processing optimal for fluoroscopy.

一方、DSAにおいてフレームレートは例えば毎秒7フレーム程度であるが、微細な血管構造までを描出する必要性から、より高い分解レベルで処理を行うことが望ましい。さらに静止画撮影においては、診断に耐えうる画質とするために計算量が増大したとしても可能な限り高画質を達成する為、高い分解レベルとする必要がある。   On the other hand, in DSA, the frame rate is, for example, about 7 frames per second, but it is desirable to perform processing at a higher decomposition level because of the need to depict even fine blood vessel structures. Furthermore, in still image shooting, it is necessary to set a high resolution level in order to achieve as high a picture quality as possible even if the amount of calculation increases in order to obtain an image quality that can withstand diagnosis.

このように、撮影の方法により周波数分解のレベルを変化させることで、目的に応じた処理を実現することができる。   In this way, by changing the frequency resolution level according to the photographing method, processing according to the purpose can be realized.

また分解レベルのみではなく、係数変更部3における処理のパラメータを変更するようにしても良い。例えば、上記(式1)におけるαの値を透視の場合は小さく、DSAの場合は大きくなるように変更する。また、透視の場合は、被爆量を抑えるためにX線照射量を小さくするが、これにより画像におけるノイズ量は多くなる。このため前フレームの係数に対する重みを大きく取ることによって、よりノイズ除去効果を高めることができるようになる。   Further, not only the decomposition level but also the processing parameters in the coefficient changing unit 3 may be changed. For example, the value of α in (Expression 1) is changed so as to be small in the case of fluoroscopy and to be large in the case of DSA. In the case of fluoroscopy, the amount of X-ray irradiation is reduced in order to reduce the amount of exposure, but this increases the amount of noise in the image. For this reason, the noise removal effect can be further enhanced by increasing the weight for the coefficient of the previous frame.

また、処理対象周波数帯域の選択を、撮影条件入力部7への入力に基づいて、最も高い周波数帯域から所定の数の帯域についてのみ処理を行うようにしてもよい。特に、透視撮影など画像中に映出された被写体に動きがあるような場合においては、低い周波数帯域に対して上述した処理を行うと残像が発生することがある。したがってこのような撮影においては、処理対象となる周波数帯域として所定数の高周波帯域が選択すればよい。   Further, the selection of the processing target frequency band may be performed only for a predetermined number of bands from the highest frequency band based on the input to the imaging condition input unit 7. In particular, in the case where there is a movement in a subject projected in an image such as fluoroscopic photography, an afterimage may occur when the above-described processing is performed on a low frequency band. Accordingly, in such shooting, a predetermined number of high frequency bands may be selected as frequency bands to be processed.

例えば、離散ウェーブレット変換の場合であれば、LLおよびHL3、LH3、HH3を除く帯域を処理対象から除くことによって、残像の影響を抑えながらノイズ除去を行うことができる。   For example, in the case of discrete wavelet transform, noise removal can be performed while suppressing the influence of afterimages by removing bands other than LL and HL3, LH3, and HH3 from the processing target.

[第3の実施形態]
第1の実施形態では、係数変更部3により変更した係数C’ij (k)を係数記憶部5に格納するようにしたが、変更前の係数Cij (k)を格納するようにしても良い。その場合、係数変更部3は、上記(式1)の代わりに、以下の(式4)を用いて、係数を変更する処理を行う。
[Third Embodiment]
In the first embodiment, the coefficient C ′ ij t (k) changed by the coefficient changing unit 3 is stored in the coefficient storage unit 5, but the coefficient C ij t (k) before the change is stored. May be. In that case, the coefficient changing unit 3 performs the process of changing the coefficient using the following (Expression 4) instead of the above (Expression 1).

C’ij (k)=Ek{αCij (k)+(1−α)Cij (t−1)(k)} d<T
C’ij (k)=EkCij (k) d≧T
(式4)
即ち、第1の実施形態において係数C’ij (t−1)(k)の代わりに、係数Cij (t−1)(k)を用いるようにしても良い。
C ′ ij t (k) = Ek {αC ij t (k) + (1−α) C ij (t−1) (k)} d <T
C ′ ij t (k) = EkC ij t (k) d ≧ T
(Formula 4)
That is, instead of the coefficient C 'ij in the first embodiment (t-1) (k) , the coefficient C ij (t-1) ( k) may be used.

更に、係数変更部3において上記(式1)に基づいて係数を変更するのか、それとも上記(式4)を用いて係数を変更するのかを、図4に示した撮影条件入力部7に入力される情報に基づいて決定するようにしても良い。   Further, whether the coefficient changing unit 3 changes the coefficient based on (Equation 1) or whether the coefficient is changed using (Equation 4) is input to the imaging condition input unit 7 shown in FIG. It may be determined based on information.

例えば、画像入力部1に入力される画像中の被写体が微細な構造を持ち、更にある程度の動きがある場合は、(式1)に基づくリカーシブなフィルタリングを用いると残像効果が大きくなるため観察上好ましくない。しかし、(式4)を用いればその影響を抑制することができる。   For example, if the subject in the image input to the image input unit 1 has a fine structure and has a certain amount of movement, the afterimage effect increases when recursive filtering based on (Equation 1) is used. It is not preferable. However, if (Equation 4) is used, the influence can be suppressed.

従って、画像入力部1に入力される画像が医用画像であって、この画像の撮影方式が血管造影などの場合には以下のようにすればよい。即ち、撮影条件入力部7が係数変更部3における処理のパラメータを切り替えると同時に、(式1)を用いる場合には係数記憶部5に対する入力を係数変更部3による出力とし、(式4)を用いる場合には周波数分解部2による出力とする。これにより、被写体および撮影方法に最適な処理を選択することができるようになる。   Accordingly, when the image input to the image input unit 1 is a medical image and the image capturing method is angiography, the following may be performed. That is, at the same time when the imaging condition input unit 7 switches the processing parameters in the coefficient changing unit 3, when using (Equation 1), the input to the coefficient storage unit 5 is used as the output by the coefficient changing unit 3, and (Equation 4) is When used, it is output by the frequency resolving unit 2. Thereby, it becomes possible to select a process most suitable for the subject and the photographing method.

更に、係数記憶部5には、現在係数変更部3によって処理対象となっているフレームの過去複数フレームの係数を保持させるようにしても良く、その場合、(式1)や(式4)において重み付け係数αは、過去のフレーム毎に変化させるようにしてもよい。   Further, the coefficient storage unit 5 may hold the coefficients of a plurality of past frames of the frame to be processed by the current coefficient changing unit 3, and in that case, in (Expression 1) and (Expression 4) The weighting coefficient α may be changed for each past frame.

[第4の実施形態]
第1の実施形態では、図8に示したフローチャートに従った処理は、1つのフレーム画像全体について行うものとして説明した。しかし、図5に示す如く、1つのフレーム画像を複数の矩形(矩形画像)に分割し、それぞれの矩形毎に図8に示したフローチャートに従った処理を行うようにしても良い。図5は、1つのフレーム画像を16個の矩形画像(T1〜T16)に分割した様子を示す図である。
[Fourth Embodiment]
In the first embodiment, the process according to the flowchart illustrated in FIG. 8 has been described as being performed on one entire frame image. However, as shown in FIG. 5, one frame image may be divided into a plurality of rectangles (rectangular images), and processing according to the flowchart shown in FIG. 8 may be performed for each rectangle. FIG. 5 is a diagram illustrating a state in which one frame image is divided into 16 rectangular images (T1 to T16).

この場合、第1の実施形態で説明に用いた第tフレーム画像は、第tフレームにおけるフレーム画像を分割した1つの矩形画像(第t矩形画像)に相当する。また、第(t−1)フレーム画像は、第(t−1)フレームにおけるフレーム画像において、この第t矩形画像に位置的に対応する矩形画像(第(t−1)矩形画像)に相当する。   In this case, the t-th frame image used in the description in the first embodiment corresponds to one rectangular image (t-th rectangular image) obtained by dividing the frame image in the t-th frame. The (t-1) th frame image corresponds to a rectangular image ((t-1) rectangular image) that corresponds to the tth rectangular image in the frame image in the (t-1) th frame. .

このように構成することで、周波数分解部2において周波数分解を行う際の所要メモリ量を低減することができるようになる。さらに、矩形画像毎に処理条件を変更するようにしてもよい。   With this configuration, it is possible to reduce a required memory amount when performing frequency decomposition in the frequency decomposition unit 2. Furthermore, the processing conditions may be changed for each rectangular image.

図6は、本実施形態に係る画像処理装置600の機能構成を示すブロック図である。なお、図1,4と同じ部分については同じ番号を付けており、その説明を省略する。図6に示す如く、本実施形態に係る画像処理装置600は、図4に示した画像処理装置400に更に、画像解析部8を加えた構成となっている。   FIG. 6 is a block diagram illustrating a functional configuration of the image processing apparatus 600 according to the present embodiment. In addition, the same number is attached | subjected about the same part as FIG.1, 4, The description is abbreviate | omitted. As shown in FIG. 6, the image processing apparatus 600 according to this embodiment has a configuration in which an image analysis unit 8 is further added to the image processing apparatus 400 shown in FIG.

このような構成において、画像入力部1は、外部から入力されたフレーム画像を複数の矩形画像に分割し、矩形画像毎に出力する。画像解析部8は、矩形画像を受けると、この矩形画像を構成する全ての画素の画素値を用いて平均画素値、及び画素値の分散値を求める。そして求めたこれらの統計値に基づいて、この矩形画像中に含まれているノイズの量を判断し(例えば、ノイズの量を多い、普通、少ないの3段階でもって判断し)、判断した結果を係数変更部3に通知する。   In such a configuration, the image input unit 1 divides a frame image input from the outside into a plurality of rectangular images and outputs each rectangular image. When receiving the rectangular image, the image analysis unit 8 obtains an average pixel value and a variance value of the pixel values using the pixel values of all the pixels constituting the rectangular image. Then, based on these obtained statistical values, the amount of noise included in the rectangular image is determined (for example, the amount of noise is determined in three stages of large, normal and small), and the result of the determination Is notified to the coefficient changing unit 3.

フレーム画像が医用X線画像の場合、X線吸収の多い臓器が映出された矩形画像については、平均画素値は低くなり、またノイズ量も多くなる為、より効果的にノイズ除去を行う必要がある。従って、ノイズ量が多いと画像解析部8により判断された矩形画像については、係数変更部3における処理パラメータを第2の実施形態で説明したように変更することで、より効果的な処理を行うことが可能となる。   When the frame image is a medical X-ray image, the average pixel value is low and the amount of noise is increased for a rectangular image in which an organ with high X-ray absorption is projected. There is. Therefore, for the rectangular image determined by the image analysis unit 8 that the amount of noise is large, more effective processing is performed by changing the processing parameter in the coefficient changing unit 3 as described in the second embodiment. It becomes possible.

[第5の実施形態]
図2に示すような撮像装置360が複数のユニットでもって構成されている場合には、上述の実施形態で説明したような画像処理装置をそれぞれのユニットに接続するようにしても良い。この場合、画像処理装置は1つのチップでもって構成することが好ましい。そして、それぞれのユニットに接続された画像処理装置の出力を最後に合成し、最終的な出力を得る。
[Fifth Embodiment]
When the imaging device 360 as shown in FIG. 2 is configured by a plurality of units, an image processing device as described in the above embodiment may be connected to each unit. In this case, the image processing apparatus is preferably configured with a single chip. Then, the output of the image processing apparatus connected to each unit is finally combined to obtain a final output.

図7(a)は、上述の実施形態で説明したような画像処理装置を、撮像装置を構成している各ユニットに接続した場合の、この撮像装置の概略構成を示す図である。同図において701,702は平面センサを構成しているユニット(それぞれU1,2)である。即ち、この平面センサは、2つのユニット701,702を張り合わせた構成を有する。   FIG. 7A is a diagram illustrating a schematic configuration of the imaging apparatus when the image processing apparatus as described in the above embodiment is connected to each unit configuring the imaging apparatus. In the figure, reference numerals 701 and 702 denote units (U1 and U2, respectively) constituting a flat sensor. That is, this flat sensor has a configuration in which two units 701 and 702 are bonded together.

711,712はそれぞれ画像処理装置(それぞれIP1,2)で、例えば図6に示すような構成を有する。それぞれの画像処理装置711,712は、ユニット701、702からの画像信号を受け、上述の如くフレーム画像に対する処理を行う。この構成において各画像処理装置711,712は並列的に処理を行い、処理結果を画像合成部9に出力する。   Reference numerals 711 and 712 denote image processing apparatuses (IP1 and IP2, respectively), and have a configuration as shown in FIG. Each of the image processing devices 711 and 712 receives the image signal from the units 701 and 702 and performs processing on the frame image as described above. In this configuration, the image processing devices 711 and 712 perform processing in parallel and output the processing result to the image composition unit 9.

画像合成部9は、それぞれの画像処理装置711,712からの出力を合成し、最終的に1つのフレーム画像を出力する。   The image synthesizing unit 9 synthesizes the outputs from the respective image processing devices 711 and 712 and finally outputs one frame image.

このようにセンサが複数のユニットから構成されている場合は、処理を並列的に行えるように画像処理装置をそれぞれのユニットに接続することで、より高い処理効率を得ることが可能となる。   When the sensor is composed of a plurality of units in this way, it is possible to obtain higher processing efficiency by connecting the image processing apparatus to each unit so that processing can be performed in parallel.

また、図7(b)に示す如く、画像処理装置711に対して複数個のユニット(U1〜U4)、画像処理装置712に対して複数個のユニット(U5〜U8)を接続するような構成であっても良い。この場合、画像処理装置711,712それぞれに対して1つのユニットが順次選択され、選択されたユニットからの画像信号を受けることになる。図7(b)は、上述の実施形態で説明したような画像処理装置に対して複数個のユニットを接続した場合の、撮像装置の概略構成を示す図である。   Also, as shown in FIG. 7B, a configuration in which a plurality of units (U1 to U4) are connected to the image processing apparatus 711 and a plurality of units (U5 to U8) are connected to the image processing apparatus 712. It may be. In this case, one unit is sequentially selected for each of the image processing apparatuses 711 and 712, and an image signal from the selected unit is received. FIG. 7B is a diagram illustrating a schematic configuration of the imaging apparatus when a plurality of units are connected to the image processing apparatus as described in the above embodiment.

また、上記各実施形態は適宜組み合わせても良い。   Moreover, you may combine said each embodiment suitably.

以上の各実施形態によれば、動画像を処理する場合に、同一フレーム内の画像信号と時間軸方向の変化を利用しつつ、より高い効果のある画質改善を行うことができる。   According to each of the embodiments described above, when processing a moving image, it is possible to improve image quality with a higher effect while using an image signal in the same frame and a change in the time axis direction.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Also, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係る画像処理装置100の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 100 which concerns on the 1st Embodiment of this invention. (a)は、画像Fnに対して2次元離散ウェーブレット変換処理を施すことで10個の周波数帯域を得る様子を説明する図、(b)は、画像Fnに対してラプラシアンピラミッド分解を行うことで3つの周波数帯域を得る様子を説明する図である。(A) is a figure explaining a mode that 10 frequency bands are obtained by performing a two-dimensional discrete wavelet transform process on the image Fn, and (b) is by performing Laplacian pyramid decomposition on the image Fn. It is a figure explaining a mode that three frequency bands are obtained. 画像処理装置として適用するコンピュータのハードウェア構成、及びその周辺機器を示すブロック図である。It is a block diagram which shows the hardware constitutions of the computer applied as an image processing apparatus, and its peripheral device. 本発明の第2の実施形態に係る画像処理装置400の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 400 which concerns on the 2nd Embodiment of this invention. 1つのフレーム画像を16個の矩形画像(T1〜T16)に分割した様子を示す図である。It is a figure which shows a mode that one frame image was divided | segmented into 16 rectangular images (T1-T16). 本発明の第1の実施形態に係る画像処理装置600の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 600 which concerns on the 1st Embodiment of this invention. (a)は、画像処理装置を、撮像装置を構成している各ユニットに接続した場合の、この撮像装置の概略構成を示す図で、(b)は、画像処理装置に対して複数個のユニットを接続した場合の、撮像装置の概略構成を示す図である。(A) is a figure which shows schematic structure of this imaging device at the time of connecting an image processing device to each unit which comprises an imaging device, (b) is a plurality with respect to an image processing device. It is a figure which shows schematic structure of an imaging device at the time of connecting a unit. 図1に示した各部が行う処理のフローチャートである。It is a flowchart of the process which each part shown in FIG. 1 performs.

Claims (16)

動画像を構成する各フレームの画像を入力する入力手段と、
第1フレーム画像を複数の周波数帯域に分解する分解手段と、
前記第1フレーム画像について前記分解手段が分解した複数の周波数帯域のうち予め定められた周波数帯域に属する係数を、前記第1フレーム画像よりも前のフレームの画像である第2フレーム画像について前記分解手段が分解した複数の周波数帯域のうち当該予め定められた周波数帯域に対応する周波数帯域に属する係数を用いて変更する変更手段と、
前記変更手段により変更した周波数帯域を含む全ての周波数帯域の係数に基づいて前記分解手段が行った処理と逆の処理を行うことにより、画像を再構成する再構成手段と、
前記再構成手段により再構成された画像を、前記第1フレーム画像として出力する出力手段と
を備えることを特徴とする画像処理装置。
An input means for inputting an image of each frame constituting the moving image;
Decomposition means for decomposing the image of the first frame into a plurality of frequency bands;
Wherein the coefficients belonging to a predetermined frequency band among the plurality of frequency bands in which the decomposing means is decomposed for the first frame image, the second frame of the image than the image of the first frame is an image of the previous frame Changing means for changing using a coefficient belonging to a frequency band corresponding to the predetermined frequency band among the plurality of frequency bands decomposed by the decomposition means,
By performing the processing and reverse processing of said decomposing means went based on coefficients of all the frequency band including a frequency band changed by the changing means, and reconstructing means for reconstructing an image,
An image processing apparatus comprising: output means for outputting the image reconstructed by the reconstructing means as the image of the first frame.
前記分解手段は、ウェーブレット変換を用いることで、画像を複数の周波数帯域に分解することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the decomposing unit decomposes the image into a plurality of frequency bands by using wavelet transform. 前記予め定められた周波数帯域は、LLを除く全ての周波数帯域であることを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the predetermined frequency band is all frequency bands except LL. 前記分解手段は、ラプラシアンピラミッド分解を行うことで、画像を複数の周波数帯域に分解することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the decomposition unit decomposes the image into a plurality of frequency bands by performing Laplacian pyramid decomposition. 前記予め定められた周波数帯域は、Lを除く全ての周波数帯域であることを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the predetermined frequency band is all frequency bands excluding L. 前記変更手段は、
前記第1フレーム画像における予め定められた周波数帯域の係数を、前記第2フレーム画像において当該予め定められた周波数帯域に対応する周波数帯域の係数を用いて変更する処理を、前記第1フレーム画像におけるそれぞれの周波数帯域について行うことを特徴とする請求項1に記載の画像処理装置。
The changing means is
The process of changing with the coefficients of the coefficients of a predetermined frequency band in the first frame image, the second frame frequency band corresponding to the predetermined frequency band in the image of the first frame The image processing apparatus according to claim 1, wherein the image processing apparatus performs the processing for each frequency band in the image.
前記第2フレーム画像について前記分解手段が分解したそれぞれの周波数帯域に属する係数は、前記第1フレーム画像における前記予め定められた周波数帯域の係数を変更する為に用いる際には既に前記変更手段でもって変更されたものであることを特徴とする請求項1に記載の画像処理装置。 Coefficients belonging to image each frequency band in which the decomposing means is decomposed for the second frame is already the changes when used to modify the coefficients of the predetermined frequency band in the first frame of the image The image processing apparatus according to claim 1, wherein the image processing apparatus is changed by means. 更に、
前記入力手段に入力される画像に係る情報に基づいて、
前記第2フレーム画像について前記分解手段が分解したそれぞれの周波数帯域に属する係数として、前記第1フレーム画像における前記予め定められた周波数帯域の係数を変更する為に用いる際には既に前記変更手段でもって変更されたものを用いるか、当該変更のないものを用いるのかを切り替える手段
を備えることを特徴とする請求項1に記載の画像処理装置。
Furthermore,
Based on information related to the image input to the input means,
As a coefficient belonging to image each frequency band in which the decomposing means is decomposed for the second frame, already the changes when used to modify the coefficients of the predetermined frequency band in the first frame of the image The image processing apparatus according to claim 1, further comprising: a unit that switches between using a unit that has been changed by the unit and a unit that has not been changed.
更に、前記入力手段に入力される画像に係る情報に基づいて、前記分解手段、前記再構成手段による分解レベルを制御する手段を備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising means for controlling a decomposition level by the decomposition means and the reconstruction means based on information relating to an image input to the input means. 更に、前記入力手段に入力される画像に係る情報に基づいて、前記変更手段による変更処理に係るパラメータを制御する手段を備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a unit that controls a parameter related to a change process by the change unit based on information about the image input to the input unit. 前記第2フレーム画像は、前記第1フレーム画像よりも前の複数フレーム画像であることを特徴とする請求項1に記載の画像処理装置。 The second frame image, the image processing apparatus according to claim 1, characterized in that than the image of the first frame is a previous plurality of frame images. 前記第1フレーム画像は第1フレームにおける画像を複数の矩形に分割することで得られる矩形画像であり、前記第2フレーム画像は、当該第1フレームよりも前のフレームにおける画像を複数の矩形に分割した場合に、当該矩形画像に対応する矩形画像であることを特徴とする請求項1に記載の画像処理装置。 The first frame of the image is a rectangular image obtained by dividing the image into a plurality of rectangular in the first frame, the second frame of the image, the image more in the frame before the first frame The image processing apparatus according to claim 1, wherein the image processing apparatus is a rectangular image corresponding to the rectangular image when divided into rectangles. 更に、
前記第1フレーム画像におけるノイズの量を判断する判断手段と、
前記判断手段による判断に応じて、前記変更手段による処理に係るパラメータを制御する手段と
を備えることを特徴とする請求項12に記載の画像処理装置。
Furthermore,
Determining means for determining an amount of noise in the image of the first frame;
The image processing apparatus according to claim 12, further comprising: a unit that controls a parameter related to processing by the changing unit according to a determination by the determining unit.
動画像を構成する各フレームの画像を入力する入力工程と、
第1フレーム画像を複数の周波数帯域に分解する分解工程と、
前記第1フレーム画像について前記分解工程で分解した複数の周波数帯域のうち予め定められた周波数帯域に属する係数を、前記第1フレーム画像よりも前のフレームの画像である第2フレーム画像について前記分解工程で分解した複数の周波数帯域のうち当該予め定められた周波数帯域に対応する周波数帯域に属する係数を用いて変更する変更工程と、
前記変更工程で変更した周波数帯域を含む全ての周波数帯域の係数に基づいて前記分解工程で行った処理と逆の処理を行うことにより、画像を再構成する再構成工程と、
前記再構成工程で再構成された画像を、前記第1フレーム画像として出力する出力工程と
を備えることを特徴とする画像処理方法。
An input step of inputting an image of each frame constituting the moving image;
A decomposing step of decomposing the image of the first frame into a plurality of frequency bands;
Wherein the coefficients belonging to a predetermined frequency band among the plurality of frequency bands decomposed by the decomposition step for a first frame image, the second frame of the image than the image of the first frame is an image of the previous frame A changing step of changing using a coefficient belonging to a frequency band corresponding to the predetermined frequency band among the plurality of frequency bands decomposed in the decomposition step;
A reconstruction process for reconstructing an image by performing a process opposite to the process performed in the decomposition process based on the coefficients of all frequency bands including the frequency band changed in the change process;
An image processing method comprising: an output step of outputting the image reconstructed in the reconstruction step as the image of the first frame.
コンピュータを、請求項1乃至13の何れか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。 A program for a computer to function as each unit included in the image processing apparatus according to any one of claims 1 to 13. 請求項15に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 15.
JP2005280372A 2005-09-27 2005-09-27 Image processing apparatus and image processing method Expired - Fee Related JP4671417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005280372A JP4671417B2 (en) 2005-09-27 2005-09-27 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005280372A JP4671417B2 (en) 2005-09-27 2005-09-27 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2007094555A JP2007094555A (en) 2007-04-12
JP2007094555A5 JP2007094555A5 (en) 2008-10-16
JP4671417B2 true JP4671417B2 (en) 2011-04-20

Family

ID=37980235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005280372A Expired - Fee Related JP4671417B2 (en) 2005-09-27 2005-09-27 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4671417B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5121312B2 (en) * 2007-06-05 2013-01-16 キヤノン株式会社 Image processing device
JP5132198B2 (en) * 2007-06-07 2013-01-30 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5864958B2 (en) * 2011-08-31 2016-02-17 キヤノン株式会社 Image processing apparatus, image processing method, program, and computer recording medium
FR3007871B1 (en) * 2013-06-28 2015-07-10 Thales Sa METHOD OF REDUCING NOISE IN FLUOROSCOPIC IMAGE SEQUENCES

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322240A (en) * 1994-05-27 1995-12-08 Shimadzu Corp Image processor
JPH09161061A (en) * 1995-12-12 1997-06-20 Fuji Photo Film Co Ltd Image processing method and processor therefor
JP2002216126A (en) * 2000-11-09 2002-08-02 Canon Inc Image processor, its method, program and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322240A (en) * 1994-05-27 1995-12-08 Shimadzu Corp Image processor
JPH09161061A (en) * 1995-12-12 1997-06-20 Fuji Photo Film Co Ltd Image processing method and processor therefor
JP2002216126A (en) * 2000-11-09 2002-08-02 Canon Inc Image processor, its method, program and storage medium

Also Published As

Publication number Publication date
JP2007094555A (en) 2007-04-12

Similar Documents

Publication Publication Date Title
JP4854546B2 (en) Image processing apparatus and image processing method
JP3833177B2 (en) Image processing apparatus, image processing method, storage medium, and program
JP5076755B2 (en) Image processing apparatus, image processing method, and computer program
JP4342493B2 (en) Image stabilizer
JP5864958B2 (en) Image processing apparatus, image processing method, program, and computer recording medium
EP2000976B1 (en) Image processing apparatus and image processing method
US6760401B2 (en) Apparatus and method for processing of digital images
JP2002216126A (en) Image processor, its method, program and storage medium
JP2010200179A (en) Image processor, image processing method, image processing program and program storing medium in which image processing program is stored
US9576350B2 (en) Medical image processing apparatus, X-ray diagnostic apparatus, medical image processing method and X-ray diagnostic method
JP5027757B2 (en) Moving image denoising device, method and program thereof
JP4671417B2 (en) Image processing apparatus and image processing method
US8155476B2 (en) Image processing apparatus, image processing method, and program
WO2013073627A1 (en) Image processing device and method
JP6253633B2 (en) Image processing apparatus, image processing method, program, and computer recording medium
JP3738791B2 (en) Image processing method and apparatus
JP2008220414A (en) Apparatus and methdo for processing radiation image
JP6671267B2 (en) Image processing apparatus, method and program
JP2010152518A (en) Image processor and image processing method
JP2010016470A (en) Image restoration method, image restoration program and image restoration apparatus
CN114677268A (en) X-ray image processing device and X-ray image processing method
JPH07322240A (en) Image processor
CN113936068A (en) Artifact correction method, artifact correction device and storage medium
JP2009054013A (en) Image processor
US20220172361A1 (en) Medical image processing apparatus, x-ray diagnosis apparatus, and medical image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4671417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees