JP2011055415A - Device and method for image processing - Google Patents
Device and method for image processing Download PDFInfo
- Publication number
- JP2011055415A JP2011055415A JP2009204635A JP2009204635A JP2011055415A JP 2011055415 A JP2011055415 A JP 2011055415A JP 2009204635 A JP2009204635 A JP 2009204635A JP 2009204635 A JP2009204635 A JP 2009204635A JP 2011055415 A JP2011055415 A JP 2011055415A
- Authority
- JP
- Japan
- Prior art keywords
- image
- divided
- frequency
- moving image
- wavelet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、超音波画像などの各種画像の鮮明化を可能にした画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method capable of sharpening various images such as an ultrasonic image.
現在、医療分野においては、視覚的に非常に理解しやすいという特徴を生かして、超音波画像をはじめとして、レントゲン像,MRI画像,CT画像などの多くの医用画像が診断に用いられている。 Currently, in the medical field, many medical images such as an X-ray image, an MRI image, and a CT image are used for diagnosis taking advantage of the feature that it is very easy to understand visually.
その中でも超音波画像は、レントゲン像とは異なり、撮影時における被曝の危険が少なく、またMRI画像に比べて撮影装置が安価かつ小型であり、リアルタイムの診断が可能なことから、心臓・循環器領域や産婦人科領域をはじめとして、さまざまな領域で診断に利用される。しかし超音波画像は、他の医用画像と比較してノイズによる影響が大きく、組織境界像が鮮明に得られない場合が多く、病巣が小さい場合などに、経験の浅い検査士が判断するのが困難になり、正確な診断を行なうために熟練が必要となる。 Among them, unlike X-ray images, ultrasound images are less exposed to exposure during imaging, and the imaging device is cheaper and smaller than MRI images, enabling real-time diagnosis. It is used for diagnosis in various fields including the field and obstetrics and gynecology. However, ultrasonic images are more affected by noise than other medical images, and tissue boundary images are often not obtained clearly, and inexperienced examiners judge when the lesion is small. It becomes difficult and skill is required to make an accurate diagnosis.
また近年は、例えばメタボリック症候群への対応など、ヘルスケアを目的として、医療従事者に限らず誰でも対応ができる低価格な超音波画像装置の需要が高まっている。その場合、一般の人でも正確に診断できるような判りやすい画像を得ることが重要なため、画像のノイズを軽減し、かつ組織境界部を明確化できる画像処理方法や画像処理装置が求められていた。 In recent years, there has been an increasing demand for a low-priced ultrasonic imaging apparatus that can be used by anyone, not just medical professionals, for the purpose of healthcare, for example, for the treatment of metabolic syndrome. In that case, since it is important to obtain an easy-to-understand image that can be accurately diagnosed by ordinary people, there is a need for an image processing method and an image processing apparatus capable of reducing image noise and clarifying tissue boundaries. It was.
こうした問題に対し、特許文献1では、動画像を構成する各フレームの画像について、第1フレーム画像を複数の周波数領域に分解し、その複数の周波数領域のうち所望の周波数帯域に属する係数を、第1フレーム画像よりも前のフレーム画像である第2フレーム画像の同じ周波数領域に属する係数を用いて変更し、全ての周波数領域について係数の変更処理が終わると、その変更した係数に基づいて画像を再構築し、その画像を第1フレーム画像として出力することで、不必要なノイズの強調を抑制しつつ画像信号の強調を行なうことができる画像処理方法が提案されている。 For such a problem, in Patent Document 1, for each frame image constituting a moving image, the first frame image is decomposed into a plurality of frequency regions, and coefficients belonging to a desired frequency band among the plurality of frequency regions, After changing using the coefficients belonging to the same frequency domain of the second frame image, which is the frame image before the first frame image, and finishing the coefficient changing process for all frequency domains, the image is based on the changed coefficient. An image processing method has been proposed in which image signals can be enhanced while suppressing unnecessary noise enhancement by reconstructing the image and outputting the image as a first frame image.
上記特許文献1では、隣り合うフレーム画像に施される2次元離散ウェーブレット変換の解析結果の差を考慮して、画像の鮮明化を図る提案がなされているが、複数のフレーム画像に存在する比較的周波数の低いノイズ成分をフィルタリングすることが難しく、より一層の画像の鮮明化が求められていた。 In the above-mentioned Patent Document 1, a proposal has been made to clarify an image in consideration of a difference in analysis results of two-dimensional discrete wavelet transform performed on adjacent frame images. It is difficult to filter a noise component having a low target frequency, and further image sharpening has been demanded.
本発明は上記課題に鑑みなされたもので、複数のフレーム画像に存在する特定の周波数のノイズ成分を効果的に除去できる画像処理装置および画像処理方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus and an image processing method capable of effectively removing a noise component having a specific frequency present in a plurality of frame images.
本発明の画像処理装置は、上記目的を達成するために、動画像を構成する各フレーム画像を順次入力する入力手段と、前記動画像を複数の周波数帯域に分割する分解手段と、前記分割した各動画像のなかで、時間に依存する分割した動画像の成分のうち、目的とする周波数成分の展開係数を消去または縮小する変更手段と、前記消去または縮小した成分に基づいて、前記分解手段とは逆の処理を行なうことで、前記分割した全ての動画像を再構成し、その再構成した動画像を時間毎に分割して、復元したフレーム画像を生成する再構成手段と、前記復元したフレーム画像を出力する出力手段と、を備えることを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention includes an input unit that sequentially inputs each frame image constituting a moving image, a decomposing unit that divides the moving image into a plurality of frequency bands, and the divided Among the moving images, among the components of the divided moving images depending on time, changing means for deleting or reducing the expansion coefficient of the target frequency component, and the decomposing means based on the deleted or reduced components Reconstructing means for reconstructing all the divided moving images by dividing the reconstructed moving images every time by performing processing reverse to the processing, and the restoration Output means for outputting the frame image thus obtained.
ここでの変更手段は、前記分割した動画像のなかで、時間に依存しない高周波成分を示す分割した動画像の成分を拡大する構成を有する。 The changing means here has a configuration for enlarging the divided moving image components showing high-frequency components that do not depend on time in the divided moving images.
また前記分解手段は、前記動画像の縦,横,および時間の各方向について、ウェーブレット変換処理を行なうものであり、前記再構成手段は、前記分割した全ての動画像の縦,横,および時間の各方向について、ウェーブレット逆変換処理を行なうものであることを特徴とする。 The decomposition means performs wavelet transform processing in each of the vertical, horizontal, and time directions of the moving image, and the reconstructing means performs the vertical, horizontal, and time of all the divided moving images. A wavelet inverse transform process is performed for each of the directions.
その場合の前記成分は、前記ウェーブレット変換処理を行なうことで得られるウェーブレット展開係数である。 In this case, the component is a wavelet expansion coefficient obtained by performing the wavelet transform process.
また、前記分解手段によるウェーブレット変換処理と、前記再構成手段によるウェーブレット逆変換処理は、好ましくはDaubecheies10のマザーウェーブレットを用いて行われる。 Further, the wavelet transform process by the decomposing means and the wavelet inverse transform process by the reconstructing means are preferably performed using a Daubecheies 10 mother wavelet.
本発明の画像処理方法は、上記目的を達成するために、動画像を構成する各フレーム画像を順次入力する入力工程と、前記動画像を複数の周波数帯域に分割する分解工程と、前記分割した各動画像のなかで、時間に依存する分割した動画像の成分のうち、目的とする周波数成分の展開係数を消去または縮小する変更工程と、前記消去または縮小した成分に基づいて、前記分解手段とは逆の処理を行なうことで、前記分割した全ての動画像を再構成し、その再構成した動画像を時間毎に分割して、復元したフレーム画像を生成する再構成工程と、前記復元したフレーム画像を出力する出力工程と、を備える。 In order to achieve the above object, the image processing method of the present invention includes an input step for sequentially inputting each frame image constituting a moving image, a decomposition step for dividing the moving image into a plurality of frequency bands, and the division. Among the moving images, among the components of the divided moving images depending on time, a changing step of deleting or reducing the expansion coefficient of the target frequency component, and the decomposing means based on the deleted or reduced components Reconstructing all the divided moving images by performing processing reverse to the above, dividing the reconstructed moving images every time, and generating a restored frame image; and the restoration An output step for outputting the frame image.
またこうした画像処理方法を、コンピュータに実行させるプログラムについても、同様の目的を達成できる。 The same object can be achieved for a program that causes a computer to execute such an image processing method.
さらに、当該プログラムを格納したコンピュータが読み取り可能な記憶媒体についても、同様の目的を達成できる。 Further, the same object can be achieved for a computer-readable storage medium storing the program.
上記画像処理装置や画像処理方法では、動画像を構成する各フレーム画像について、複数の周波数帯域に分解するのではなく、3次元の動画像そのものを複数の周波数帯域に分解する。そして、時間に依存する分割した動画像について、適切な周波数の成分を任意に選択し、これを削除あるいは縮小して、分割した全ての動画像を再構成すれば、複数のフレーム画像に存在する特定の周波数のノイズ成分を効果的に除去することが可能になる。 In the image processing apparatus and the image processing method, each frame image constituting the moving image is not decomposed into a plurality of frequency bands, but the three-dimensional moving image itself is decomposed into a plurality of frequency bands. For a divided moving image depending on time, an arbitrary frequency component is arbitrarily selected, deleted or reduced, and all divided moving images are reconstructed, so that they exist in a plurality of frame images. It becomes possible to effectively remove a noise component of a specific frequency.
そしてこれは、上記画像処理方法をコンピュータに実行させるプログラムや、そのプログラムを格納したコンピュータが読み取り可能な記憶媒体についても、実現可能である。 This can also be realized for a program that causes a computer to execute the image processing method and a computer-readable storage medium that stores the program.
また、時間に依存しない高周波成分を示す分割した動画像の成分を拡大した上で、分割した全ての動画像を再構成すれば、復元した個々のフレーム画像について、エッジを強調したより鮮明な画像を得ることができる。 In addition, by enlarging the divided moving image components showing high-frequency components that do not depend on time, and reconstructing all the divided moving images, a sharper image with enhanced edges for each restored frame image Can be obtained.
さらに、分解手段や再構成手段が行なう処理に関し、広く知られているウェーブレット変換やウェーブレット逆変換の各処理を利用することができ、その上でウェーブレット展開係数を変更するだけで、より鮮明なフレーム画像を出力することが可能になる。 Furthermore, with regard to the processing performed by the decomposing means and the reconstruction means, it is possible to use each of the well-known wavelet transform and inverse wavelet transform processes, and then change the wavelet expansion coefficient to make a clearer frame. An image can be output.
また、Daubecheies10のマザーウェーブレットを用いることで、最終的なフレーム画像を得る上で、優れた画像の再構成を実現でき、また良好な分解能を得ることができる。 In addition, by using the Daubecheies 10 mother wavelet, it is possible to realize excellent image reconstruction and obtain good resolution in obtaining a final frame image.
以下、本発明の好ましい実施形態について、添付図面を参照しながら詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は、本実施例における画像処理装置100の機能構成を示している。同図において、画像処理装置100は、画像入力部1と、周波数分解部2と、係数変更部3と、画像再構成部4と、画像出力部5とを備えて構成される。 FIG. 1 shows a functional configuration of an image processing apparatus 100 in the present embodiment. In FIG. 1, an image processing apparatus 100 includes an image input unit 1, a frequency resolving unit 2, a coefficient changing unit 3, an image reconstruction unit 4, and an image output unit 5.
画像入力部1は、動画像を構成する各フレームの画像(画像信号)を入力するもので、画像の供給源としては、例えば図示しないが、医療用の画像診断装置に組み込まれる撮像装置があり、この撮像装置からの超音波画像,レントゲン像,MRI画像,CT画像などが、電気的なアナログ画像信号として画像入力部1に送出される。画像入力部1は、当該アナログ画像信号に対してA/D変換を施し、これを複数の画素を二次元配列してなるディジタル画像信号として後段の周波数分解部2に送出する。 The image input unit 1 inputs an image (image signal) of each frame constituting a moving image. As an image supply source, for example, although not shown, there is an imaging device incorporated in a medical diagnostic imaging apparatus. An ultrasonic image, an X-ray image, an MRI image, a CT image, and the like from this imaging apparatus are sent to the image input unit 1 as an electrical analog image signal. The image input unit 1 performs A / D conversion on the analog image signal, and sends the analog image signal to the subsequent frequency resolution unit 2 as a digital image signal formed by two-dimensionally arranging a plurality of pixels.
本実施形態において、画像入力部1に入力される動画像は、所定のフレームレートで、且つ各フレームの画像が所定の解像度であるとする。 In the present embodiment, it is assumed that the moving image input to the image input unit 1 has a predetermined frame rate and each frame image has a predetermined resolution.
また、それらの各フレームの画像は、単独の色成分からなるモノクロ画像であっても、複数の色成分からなるカラー画像であっても構わない。後者のカラー画像の場合、後述する各処理は各々の色成分に対して行われることになる。 In addition, the image of each frame may be a monochrome image composed of a single color component or a color image composed of a plurality of color components. In the case of the latter color image, each process described later is performed on each color component.
各フレームの画像が複数の色成分を有する場合、画像入力部1は色空間変換部11を備えてもよい。この色空間変換部11は、画像入力部1に入力する各フレームの画像がRGBの3つの色成分を有する場合、RGBからYUVに色空間を変換するもので、後続の処理については、色空間変換部11で変換した後の各色成分に対して行なうようにすればよい。 When the image of each frame has a plurality of color components, the image input unit 1 may include a color space conversion unit 11. The color space conversion unit 11 converts the color space from RGB to YUV when the image of each frame input to the image input unit 1 has three color components of RGB. For the subsequent processing, the color space conversion unit 11 What is necessary is just to make it with respect to each color component after converting in the conversion part 11. FIG.
周波数分解部2には、画像入力部1からフレーム単位で画像が入力されるが、ここでの周波数分解部2は、特に時系列順に並べられた複数のフレーム画像群を一つの動画像データとして、これを複数の周波数帯域に分解し、そのフレーム画像群について分解した周波数帯域の係数を係数変換部3に送出する機能を有している。 An image is input to the frequency resolution unit 2 in units of frames from the image input unit 1, and the frequency resolution unit 2 here particularly uses a plurality of frame image groups arranged in time series as one moving image data. This has a function of decomposing this into a plurality of frequency bands and sending out the decomposed frequency band coefficients of the frame image group to the coefficient converting unit 3.
前記複数のフレーム画像群を複数の周波数帯域に分解する手法として、本実施形態では3次元離散ウェーブレット変換を利用して多重解析度分析(multi resolution analysis,MRA)を行なう機能が、周波数分解部2に設けられる。この周波数分解部2では、前記フレーム画像群を低い周波数成分と高い周波数成分に分解する処理ルーチンを繰り返し複数回行なうことで、その特徴を解析できる。 As a technique for decomposing the plurality of frame image groups into a plurality of frequency bands, in the present embodiment, a function of performing multi resolution analysis (MRA) using a three-dimensional discrete wavelet transform is used. Provided. The frequency decomposing unit 2 can analyze the feature by repeatedly performing a processing routine for decomposing the frame image group into a low frequency component and a high frequency component a plurality of times.
周波数分解部2の機能構成についてさらに詳しく説明すると、当該周波数分解部2は図2に示すように、複数のローパスフィルタ(LPF)61〜63と、複数のハイパスフィルタ(HPF)64〜66と、各々のフィルタ61〜66から出力される信号成分の周波数帯域をN分の1倍(1/N)にするダウンサンプラ67〜72との組み合わせにより構成される。図2の構成は、最も一般的なウェーブレット変換処理であるオクターブ分割を複数レベルに渡って行なう場合の構成例を示している。また、階層の数を表すレベル数は3(レベル1〜レベル3)であり、画像信号を低域と高域に分割し、且つ低域成分のみを階層的に分割する構成を取っているが、レベル数は3以外であっても構わない。 The functional configuration of the frequency resolving unit 2 will be described in more detail. As shown in FIG. 2, the frequency resolving unit 2 includes a plurality of low-pass filters (LPF) 61 to 63, a plurality of high-pass filters (HPF) 64 to 66, Each of the filters 61 to 66 is configured by a combination with down samplers 67 to 72 that reduce the frequency band of the signal component to 1 / N (1 / N). The configuration of FIG. 2 shows a configuration example when octave division, which is the most general wavelet transform process, is performed over a plurality of levels. The number of levels representing the number of layers is 3 (level 1 to level 3), and the image signal is divided into a low frequency and a high frequency, and only the low frequency components are hierarchically divided. The number of levels may be other than 3.
図2において、周波数分解部2に入力する画像信号は、先ずレベル1のローパスフィルタ61とハイパスフィルタ64とにより帯域分割され、得られた低域側の信号と高域側の信号は、それぞれ対応するダウンサンプラ67,68によって、その周波数帯域(解像度)がN分の1倍に間引かれる。 In FIG. 2, the image signal input to the frequency resolving unit 2 is first band-divided by a level 1 low-pass filter 61 and a high-pass filter 64, and the obtained low-frequency signal and high-frequency signal correspond to each other. The downsamplers 67 and 68 reduce the frequency band (resolution) to 1 / N times.
前記ダウンサンプラ67から出力される低域側の信号は、次のレベル2のローパスフィルタ62とハイパスフィルタ65によってさらに帯域分割される。これら帯域分割により得られた低域側の信号と高域側の信号は、それぞれ対応するダウンサンプラ69,70によって、その周波数帯域(解像度)がN分の1倍に間引かれる。 The low-frequency signal output from the down sampler 67 is further band-divided by the next level 2 low-pass filter 62 and high-pass filter 65. The frequency band (resolution) of the low-frequency side signal and the high-frequency side signal obtained by these band divisions is reduced to 1 / N times by the corresponding down samplers 69 and 70, respectively.
前記ダウンサンプラ69から出力される低域側の信号は、次のレベル3のローパスフィルタ63とハイパスフィルタ66によってさらに帯域分割される。これら帯域分割により得られた低域側の信号と高域側の信号は、それぞれ対応するダウンサンプラ71,72によって、その周波数帯域(解像度)がN分の1倍に間引かれる。 The low-frequency signal output from the down sampler 69 is further band-divided by the next level 3 low-pass filter 63 and high-pass filter 66. The frequency band (resolution) of the low-frequency side signal and the high-frequency side signal obtained by these band divisions is reduced to 1 / N times by the corresponding downsamplers 71 and 72, respectively.
このような処理を所定のレベルまで行うことで、低域側の信号を階層的に帯域分割した各周波数帯域の信号が順次生成されていく。図2の例では、レベル3まで帯域分割した結果、LLL信号,LLH信号,LH信号111,H信号が各々生成されていることを示している。なお、ここでの「L」は低域成分であることを表し、「H」は高域成分であることを表している。 By performing such processing up to a predetermined level, signals in each frequency band obtained by hierarchically dividing the low-frequency signal are sequentially generated. In the example of FIG. 2, it is shown that the LLL signal, the LLH signal, the LH signal 111, and the H signal are generated as a result of the band division to level 3. Here, “L” represents a low frequency component, and “H” represents a high frequency component.
図3には、レベル3まで2次元のオリジナル画像を帯域分割した結果得られる帯域成分を図示する。但し、この図3での「L」及び「H」の表記法は、1次元信号を扱った上記の説明とは異なる。左側の記号表記は画像の横方向に関する周波数成分を表し、右側の記号表記は画像の縦方向に関する周波数成分を示し、さらに左端の添え字(下付き数字)はレベルを示す。そのため例えば「HL1」は、レベル1において画像横方向については高周波成分を、画像縦方向については低周波成分を示すことになる。またここでも、各レベルにおいて「LL」領域を対象として繰り返し帯域分割を行なうことで、より低周波数の帯域信号を抽出できる。 FIG. 3 illustrates band components obtained as a result of band division of a two-dimensional original image up to level 3. However, the notation of “L” and “H” in FIG. 3 is different from the above description in which one-dimensional signals are handled. The symbol notation on the left represents the frequency component in the horizontal direction of the image, the symbol notation on the right represents the frequency component in the vertical direction of the image, and the leftmost subscript (subscript) represents the level. Therefore, for example, “HL 1 ” indicates a high frequency component in the horizontal direction of the image at level 1 and a low frequency component in the vertical direction of the image. Also in this case, it is possible to extract a lower frequency band signal by repeatedly performing band division on the “LL” region at each level.
こうした帯域分割の概念を、図4において模式的に示す。ここでは、レベル0の帯域分割の対象となるオリジナルの原画像を「LL0」として表し、そこからレベル1のローパスフィルタ61とハイパスフィルタ64を用いて、画像の横方向と縦方向のそれぞれについて、低周波数と高周波数に分割した「LL1」,「HL1」,「LH1」,「HH1」の各分割画像を得る。 The concept of such band division is schematically shown in FIG. Here, the original original image to be subjected to level 0 band division is expressed as “LL 0 ”, and from there, the level 1 low pass filter 61 and the high pass filter 64 are used for each of the horizontal and vertical directions of the image. Then, the divided images “LL 1 ”, “HL 1 ”, “LH 1 ”, and “HH 1 ” divided into the low frequency and the high frequency are obtained.
これらの各分割画像はダウンサンプラ67,68によって、その周波数帯域がN分の1倍に間引かれた後、「LL1」の分割画像について、そこからレベル2のローパスフィルタ62とハイパスフィルタ65を用いて、画像の横方向と縦方向のそれぞれについて、低周波数と高周波数に分割した「LL2」,「HL2」,「LH2」,「HH2」の各分割画像を得る。 Each of these divided images is thinned out to 1 / N times by the down samplers 67 and 68, and then, for the divided image of “LL 1 ”, a level 2 low-pass filter 62 and a high-pass filter 65 are obtained therefrom. Are used to obtain divided images of “LL 2 ”, “HL 2 ”, “LH 2 ”, and “HH 2 ” divided into a low frequency and a high frequency in each of the horizontal direction and the vertical direction of the image.
これらの各分割画像はダウンサンプラ69,70によって、その周波数帯域がN分の1倍に間引かれた後、「LL2」の分割画像について、そこからレベル3のローパスフィルタ63とハイパスフィルタ66を用いて、画像の横方向と縦方向のそれぞれについて、低周波数と高周波数に分割した「LL3」,「HL3」,「LH3」,「HH3」の各分割画像を得る。 Each of these divided images is thinned out to 1 / N times by the down samplers 69 and 70, and then the level 3 low-pass filter 63 and the high-pass filter 66 are obtained from the divided image “LL 2 ”. Are used to obtain divided images of “LL 3 ”, “HL 3 ”, “LH 3 ”, and “HH 3 ” divided into a low frequency and a high frequency in each of the horizontal direction and the vertical direction of the image.
これらの各分割画像はダウンサンプラ71,72によって、その周波数帯域がN分の1倍に間引かれ、最終的には図3に示すような、「HL1」,「LH1」,「HH1」,「HL2」,「LH2」,「HH2」,「LL3」,「HL3」,「LH3」,「HH3」の各分割画像を得ることができる。 Each of these divided images is thinned out to 1 / N times by the down samplers 71 and 72, and finally, "HL 1 ", "LH 1 ", "HH" as shown in FIG. 1 , “HL 2 ”, “LH 2 ”, “HH 2 ”, “LL 3 ”, “HL 3 ”, “LH 3 ”, and “HH 3 ” can be obtained.
以上、1次元信号と2次元信号に関するウェーブレット変換を利用した多重解析度分析の構成と手法について説明したが、本発明では特に3次元の動画像データについて、周波数分解部2が同様の多重解析度分析を行なう機能を有する。これは図5に示すように、画像入力部1から時間軸Tに沿って順次送り出され、横軸Xと縦軸Yに展開する各フレームの画像110について、周波数分解部2が所定時間内の複数の画像110を一つの動画像データ120として扱い、この動画像データ120を上記手法に従って帯域分割することで達成される。このように本実施形態では、動画像を取り扱う場合に、単一時刻に得られるフレーム画像110毎ではなく、時間軸Tをも考慮したウェーブレット変換処理を行なうことで、横軸Xおよび縦軸Yのみならず時間軸Tに対しても、高周波成分と低周波成分について動画像データ120を分離することが可能になる。 The configuration and method of the multi-resolution analysis using the wavelet transform relating to the one-dimensional signal and the two-dimensional signal have been described above. In the present invention, the frequency resolution unit 2 has the same multi-resolution degree particularly for three-dimensional moving image data. Has the function of performing analysis. As shown in FIG. 5, the frequency resolving unit 2 within the predetermined time for the image 110 of each frame sequentially sent out from the image input unit 1 along the time axis T and developed on the horizontal axis X and the vertical axis Y. This is achieved by handling a plurality of images 110 as a single moving image data 120 and dividing the moving image data 120 according to the above-described method. As described above, in the present embodiment, when handling moving images, the horizontal axis X and the vertical axis Y are obtained by performing the wavelet transform process considering the time axis T instead of every frame image 110 obtained at a single time. In addition to the time axis T, the moving image data 120 can be separated for the high frequency component and the low frequency component.
その具体的な処理手順を説明すると、図5(a)に示すように、前記周波数分解部2は、処理すべきオリジナルの3次元の動画像データ120を、先ずレベル1のローパスフィルタ61とハイパスフィルタ64とにより帯域分割し、動画像データ120の時間軸T,縦軸Yおよび横軸Xの各方向について、低周波数と高周波数に分割した「LLL」,「HLL」,「LHL」,「HHL」,「LLH」,「HLH」,「LHH」,「HHH」の各分割動画像データ120’を得る。得られた分割動画像データ120’は、それぞれ対応するダウンサンプラ67,68によって、その周波数帯域がN分の1倍に間引かれる。 The specific processing procedure will be described. As shown in FIG. 5A, the frequency resolving unit 2 first converts the original three-dimensional moving image data 120 to be processed into a low-pass filter 61 of level 1 and a high-pass. Band division is performed by the filter 64, and “LLL”, “HLL”, “LHL”, “L” divided into a low frequency and a high frequency in each direction of the time axis T, the vertical axis Y, and the horizontal axis X of the moving image data 120. Each divided moving image data 120 ′ of “HHL”, “LLH”, “HLH”, “LHH”, “HHH” is obtained. The obtained divided moving image data 120 ′ is thinned out to 1 / N times by the corresponding downsamplers 67 and 68.
ここで、左側の記号表記は動画像データ120の時間軸T方向に関する周波数成分を表し、中央の記号表記は動画像データ120の縦軸Y方向に関する周波数成分を示し、右側の記号表記は動画像データ120の横軸X方向に関する周波数成分を示す。図5(a)では、便宜的に横軸X方向の周波数成分が「**H」の表記を省略している。 Here, the symbol notation on the left represents the frequency component in the time axis T direction of the moving image data 120, the symbol notation in the center represents the frequency component in the Y axis direction of the moving image data 120, and the symbol notation on the right represents the moving image. The frequency component regarding the horizontal-axis X direction of the data 120 is shown. In FIG. 5A, the notation “** H” is omitted for the frequency component in the horizontal axis X direction for convenience.
図5(b)に示すように、周波数分解部2は、「LLL」の分割動画像データ120’について、そこからレベル2のローパスフィルタ62とハイパスフィルタ65を用いて、当該分割動画像データ120’の時間軸T,縦軸Yおよび横軸Xの各方向について、低周波数と高周波数に分割した「LLL」,「HLL」,「LHL」,「HHL」,「LLH」,「HLH」,「LHH」,「HHH」の各分割動画像データ120’’を得る。 As shown in FIG. 5B, the frequency resolving unit 2 uses the level 2 low-pass filter 62 and the high-pass filter 65 for the “LLL” divided moving image data 120 ′, and uses the divided moving image data 120. “LLL”, “HLL”, “LHL”, “HHL”, “LLH”, “HLH”, divided into a low frequency and a high frequency in each of the time axis T, the vertical axis Y, and the horizontal axis X Each divided moving image data 120 ″ of “LHH” and “HHH” is obtained.
これらの各分割動画像データ120’’はダウンサンプラ69,70によって、その周波数帯域がN分の1倍に間引かれた後、「LLL」の分割画像について、そこからレベル3のローパスフィルタ63とハイパスフィルタ66を用いて、当該分割動画像データ120’の時間軸T,縦軸Yおよび横軸Xの各方向について、低周波数と高周波数に分割した「LLL」,「HLL」,「LHL」,「HHL」,「LLH」,「HLH」,「LHH」,「HHH」の各分割動画像データ120’’’を得る。 Each of the divided moving image data 120 ″ is thinned by a down sampler 69, 70 by a frequency of 1 / N, and then the level 3 low-pass filter 63 is obtained from the LLL divided image. And “LLL”, “HLL”, “LHL” divided into a low frequency and a high frequency for each direction of the time axis T, the vertical axis Y, and the horizontal axis X of the divided moving image data 120 ′ using the high-pass filter 66. ”,“ HHL ”,“ LLH ”,“ HLH ”,“ LHH ”,“ HHH ”divided moving image data 120 ′ ″.
これらの各分割動画像データ120’’’はダウンサンプラ71,72によって、その周波数帯域がN分の1倍に間引かれ、最終的には1つの動画像データ120から、図5(c)に示すような複数の帯域分割された分割動画像データ120’,120’’,120’’’を得ることができる。 Each of these divided moving image data 120 ′ ″ is thinned out to 1 / N times by the down samplers 71 and 72, and finally, from one moving image data 120, FIG. A plurality of divided divided moving image data 120 ′, 120 ″, 120 ′ ″ as shown in FIG.
上述した動画像データ120の帯域分割を行なう上で必要なローパスフィルタ61〜63とハイパスフィルタ64〜66は、ウェーブレット変換におけるスケーリング関数と、ウェーブレット関数(マザーウェーブレット)にそれぞれ対応する。マザーウェーブレットとして用いられる関数は種々知られているが、ここでは次の数1で表されるDaubecheies関数ψ(x)を適用する。 The low-pass filters 61 to 63 and the high-pass filters 64 to 66 necessary for performing the band division of the moving image data 120 correspond to a scaling function in wavelet transform and a wavelet function (mother wavelet), respectively. Various functions used as the mother wavelet are known, but here, the Daubecheies function ψ (x) expressed by the following equation 1 is applied.
なお、上記数1において、kは整数、qkは数列で、φ(x)はスケーリング関数である。このスケーリング関数φ(x)は、数1に示すDaubecheiesのマザーウェーブレットψ(x)との間でトゥースケール関係を満たしており、次の数2で表せる。 In Equation 1, k is an integer, q k is a sequence, and φ (x) is a scaling function. This scaling function φ (x) satisfies the to-scale relationship with Daubecheies' mother wavelet ψ (x) shown in Equation 1, and can be expressed by the following Equation 2.
上記数2において、pkは数列である。これらの数列pk,qkは、マザーウェーブレット毎に値が決まっている。 In Equation 2, pk is a sequence. These numerical sequences p k and q k have values determined for each mother wavelet.
一方、オリジナルの動画像データ120を構成する各画素の輝度信号または色差信号をフーリエ変換することで、次の数3に示す数列c0,kを決定する。 On the other hand, the sequence c 0, k shown in the following Equation 3 is determined by Fourier transforming the luminance signal or color difference signal of each pixel constituting the original moving image data 120.
上記数3において、f(x)はオリジナル信号を示す。このオリジナル信号f(x)ひいては数列c0,kがわかれば、次の数4および数5の各式を考慮して、出発点となる数列c0,kの成分を、漸近的に数列cj−1,kと数列dj−1,kに分解すれば、オリジナルの動画像データ120を周波数成分毎に分解できる。 In the above equation 3, f (x) represents the original signal. If the original signal f (x) and the sequence c 0, k are known , then the components of the sequence c 0, k as a starting point are asymptotically determined in consideration of the following equations 4 and 5. If it is decomposed into j−1, k and a sequence d j−1, k , the original moving image data 120 can be decomposed for each frequency component.
ここで、jは0以下の整数で、j−1の絶対値は分解過程の繰り返し回数を示し、前述のレベルに相当する。また、lは整数である。 Here, j is an integer of 0 or less, and the absolute value of j-1 indicates the number of repetitions of the decomposition process, and corresponds to the above-mentioned level. L is an integer.
上記数4および数5は、オリジナル信号f(x)を表す数列c0,kがあるとき、そこから数列cj−1,kと数列dj−1,kが求まり、すなわち次のレベルの低周波成分と高周波成分の各関数f(x),g(x)が求まることを意味する。ここで、関数f(x),g(x)は直交条件を満たす関係にあり、上記Daubecheiesのマザーウェーブレットψ(x)そのものが、直交ウェーブレットとしての性質を有している。また、数4および数5は、入力cj,kに、ディジタルローパスフィルタakと、ディジタルハイパスフィルタbkを各々畳み込んだ式といえる。これらの数列ak,bkは、マザーウェーブレット毎に値が決まっている。 In the above equations 4 and 5, when there is a sequence c 0, k representing the original signal f (x), the sequence c j−1, k and the sequence d j−1, k are obtained therefrom, that is, the next level This means that the functions f (x) and g (x) of the low frequency component and the high frequency component are obtained. Here, the functions f (x) and g (x) are in a relationship satisfying the orthogonal condition, and the Daubecheies mother wavelet ψ (x) itself has a property as an orthogonal wavelet. Equations (4) and (5) can be said to be equations in which the digital low-pass filter a k and the digital high-pass filter b k are convolved with the inputs c j, k , respectively. These numerical sequences a k and b k have values determined for each mother wavelet.
上記説明中、各数列ak,bk,pk,qkは次の関係式が成立する。 In the above description, the following relational expressions hold for each of the numerical sequences a k , b k , p k , and q k .
さらに本実施形態では、後述する画像再構成において優れており、またフィルタとしての分解能が良いとされるDaubecheies10のマザーウェーブレットψ(x)を用いる関係で、上記数6の数列hkは、次のように値が決まる。 Furthermore, in the present embodiment, the sequence h k of Equation 6 is expressed by the following relationship because it uses the Daubecheies 10 mother wavelet ψ (x), which is excellent in image reconstruction described later and has good resolution as a filter. The value is determined as follows.
周波数分解部2は、上述した動画像データ120の帯域分割を行なう際に、最終的な画像の再構成時に必要なパラメータとなるスケーリング係数sk (j)およびウェーブレット展開係数ωk (j)を算出し、これを後段の係数変更部3に送出する。ここで、スケーリング係数sk (j)は、前記スケーリング関数φ(x)に基づいて、次のように表せる。 The frequency resolving unit 2 performs the scaling coefficient s k (j) and the wavelet expansion coefficient ω k (j), which are parameters necessary for final image reconstruction, when performing the band division of the moving image data 120 described above. This is calculated and sent to the subsequent coefficient changing unit 3. Here, the scaling coefficient s k (j) can be expressed as follows based on the scaling function φ (x).
上記数8は、前述したトゥースケール関係によって次のようになる。 Equation 8 is as follows according to the to-scale relationship described above.
そのため、レベル0のスケーリング係数sk (0)から、逐次レベルの大きいスケーリング係数sk (1),sk (2),sk (3)…を求めることができる。 Therefore, the scaling coefficients s k (1) , s k (2) , s k (3), ..., Which are successively higher in level, can be obtained from the level 0 scaling coefficient s k (0) .
一方、ウェーブレット展開係数ωk (j)は、前記マザーウェーブレットψ(x)に基づいて、次のように表せる。 On the other hand, the wavelet expansion coefficient ω k (j) can be expressed as follows based on the mother wavelet ψ (x).
上記数10は、同じくトゥースケール関係によって次のようになる。 The above formula 10 is as follows according to the two-scale relationship.
そのため、各レベルのウェーブレット展開係数ωk (j)は、それよりも一つ小さいレベルのスケーリング係数sk (j−1)から求めることができる。 Therefore, the wavelet expansion coefficient ω k (j) at each level can be obtained from the scaling coefficient s k (j−1) at a level smaller than that.
こうして、動画像データ120をウェーブレット解析することで得られるスケーリング係数sk (j)やウェーブレット展開係数ωk (j)が、周波数分解部2から係数変更部3に送出されると、次に係数変更部3は、適切な周波数成分を任意に選択し、その周波数成分に関わるウェーブレット展開係数ωk (j)を削除または縮小し、目的とする周波数成分の画像ノイズを除去または軽減する処理を行なう。 Thus, when the scaling coefficient s k (j) and the wavelet expansion coefficient ω k (j) obtained by performing the wavelet analysis on the moving image data 120 are sent from the frequency resolving unit 2 to the coefficient changing unit 3, the coefficient The changing unit 3 arbitrarily selects an appropriate frequency component, deletes or reduces the wavelet expansion coefficient ω k (j) related to the frequency component, and performs processing to remove or reduce image noise of the target frequency component. .
これは図5(c)に示すように、周波数分解部2で得られた各周波数成分の分割動画像データ120’,120’’,120’’’のなかで、特に時間軸Tに依存する分割動画像データ120A(図中、網掛けの部分)について、そのウェーブレット展開係数ωk (j)を消去または縮小することで達成される。 As shown in FIG. 5C, this depends on the time axis T among the divided moving image data 120 ′, 120 ″, 120 ′ ″ of each frequency component obtained by the frequency resolving unit 2. This is achieved by deleting or reducing the wavelet expansion coefficient ω k (j) of the divided moving image data 120A (the shaded portion in the figure).
一方、本実施形態における係数変更部3は、後述の再構成される個々のフレーム画像130について、エッジを強調した画像を得るために、時間軸Tに依存しない動画像データ120’,120’’,120’’’のなかで、高周波成分を示す分割動画像データ120B(図中、斜線の部分)について、そのウェーブレット展開係数ωk (j)を拡大若しくは等倍する機能を備えている。 On the other hand, the coefficient changing unit 3 in the present embodiment obtains an image in which an edge is emphasized for each reconstructed frame image 130 to be described later, moving image data 120 ′, 120 ″ that does not depend on the time axis T. , 120 ″ ′, the function of enlarging or multiplying the wavelet expansion coefficient ω k (j) of the divided moving image data 120B (the hatched portion in the figure) indicating the high frequency component is provided.
こうして、係数変更部3によって適切な周波数成分を示すウェーブレット展開係数ωk (j)の変更が加えられると、変更後のウェーブレット展開係数ωk (j)とスケーリング係数sk (j)とを含めたパラメータ情報が、画像再構成部4に送出される。 Thus, when the change of the wavelet expansion coefficient ω k (j) indicating an appropriate frequency component is added by the coefficient changing unit 3, the changed wavelet expansion coefficient ω k (j) and the scaling coefficient s k (j) are included. The parameter information is sent to the image reconstruction unit 4.
画像再構成部4は、前記周波数分解部2による画像解析の処理とは逆の処理(ウェーブレット逆変換処理)を行なって、図5に示す復号後のフレーム画像130を再構成するもので、これは図6に示すように、複数のローパスフィルタ(LPF)81〜83と、複数のハイパスフィルタ(HPF)84〜86と、各々のフィルタ81〜86に入力する信号成分の周波数帯域をN倍にするアップサンプラ87〜92と、加算器93〜95の組み合わせにより構成される。なお、同図において階層の数を表すレベル数は3であるが、これは前記周波数分解部2のレベル数に一致させて、適宜変更が可能である。 The image reconstruction unit 4 reconstructs the decoded frame image 130 shown in FIG. 5 by performing processing (wavelet inverse transformation processing) reverse to the image analysis processing by the frequency resolution unit 2. As shown in FIG. 6, a plurality of low-pass filters (LPF) 81-83, a plurality of high-pass filters (HPF) 84-86, and the frequency band of signal components input to the filters 81-86 are multiplied by N times. The up-samplers 87 to 92 and adders 93 to 95 are combined. In the figure, the number of levels representing the number of hierarchies is 3, but this can be changed as appropriate in accordance with the number of levels of the frequency resolving unit 2.
図6において、周波数分解部2から出力される各帯域成分のうち、LLL信号とLLH信号は、それぞれアップサンプラ87,88によって、その周波数帯域がN倍にアップサンプルされる。アップサンプラ87でアップサンプルされたLLL信号は、ローパスフィルタ81によってフィルタリングされると共に、アップサンプラ88でアップサンプルされたLLH信号は、ハイパスフィルタ84によってフィルタリングされ、それぞれの信号を加算器93で帯域合成する。ここでの処理により、レベル3の逆変換が完了する。 In FIG. 6, among the band components output from the frequency resolving unit 2, the LLL signal and the LLH signal are up-sampled N times by the up-samplers 87 and 88, respectively. The LLL signal up-sampled by the up-sampler 87 is filtered by the low-pass filter 81, and the LLH signal up-sampled by the up-sampler 88 is filtered by the high-pass filter 84, and each signal is band-synthesized by the adder 93. To do. By this processing, the level 3 inverse transformation is completed.
以下同様に、上述の逆変換処理をレベル1まで繰り返し行なえば、最終的な逆変換後のフレーム画像130が得られる。 Similarly, if the above inverse transformation process is repeated up to level 1, the final frame image 130 after inverse transformation is obtained.
すなわち、加算器93からの出力信号は、アップサンプラ89によりさらにN倍の周波数帯域にアップサンプルされた後、ローパスフィルタ82によってフィルタリングされて加算器94に送られる。また、周波数分解部2からのLH信号は、アップサンプラ90によりさらにN倍の周波数帯域にアップサンプルされた後、ハイパスフィルタ85によってフィルタリングされて加算器94に送られる。当該加算器94が、ローパスフィルタ82およびハイパスフィルタ85からの各信号を帯域合成することにより、レベル2の逆変換が完了する。 That is, the output signal from the adder 93 is further upsampled to an N-fold frequency band by the upsampler 89, filtered by the low-pass filter 82, and sent to the adder 94. Further, the LH signal from the frequency resolving unit 2 is further upsampled to an N-fold frequency band by the upsampler 90, filtered by the high pass filter 85, and sent to the adder 94. The adder 94 band-synthesizes the signals from the low-pass filter 82 and the high-pass filter 85, whereby the level 2 inverse conversion is completed.
加算器94からの出力信号は、アップサンプラ91によりさらにN倍の周波数帯域にアップサンプルされた後、ローパスフィルタ83によってフィルタリングされて加算器95に送られる。また、周波数分解部2からのH信号は、アップサンプラ92によりさらにN倍の周波数帯域にアップサンプルされた後、ハイパスフィルタ86によってフィルタリングされて加算器95に送られる。当該加算器95が、ローパスフィルタ83およびハイパスフィルタ86からの各信号を帯域合成することにより、レベル1の逆変換が完了する。 The output signal from the adder 94 is further upsampled to a frequency band of N times by the upsampler 91, filtered by the low-pass filter 83, and sent to the adder 95. The H signal from the frequency resolving unit 2 is further upsampled to an N-fold frequency band by the upsampler 92, then filtered by the high pass filter 86 and sent to the adder 95. The adder 95 band-synthesizes the signals from the low-pass filter 83 and the high-pass filter 86, whereby the level 1 inverse conversion is completed.
以上が、1次元信号に関するウェーブレット逆変換の構成と手法について説明したが、本発明では特に3次元の動画像データについて、画像再構成部4が同様のウェーブレット逆変換を行なう機能を有する。 Although the configuration and method of wavelet inverse transformation relating to a one-dimensional signal has been described above, in the present invention, the image reconstruction unit 4 has a function of performing similar wavelet inverse transformation particularly for three-dimensional moving image data.
その具体的な処理手順を説明すると、図5(c)において、前記画像再構成部4は、レベル3の各分割動画像データ120’’’に関し、時間軸T,縦軸Yおよび横軸Xの各方向について、何れも低周波の周波数成分を持つ「LLL」の分割動画像データ120’’’を、アップサンプラ87でアップサンプルし、これをローパスフィルタ81でフィルタリングする。一方、それ以外の「HLL」,「LHL」,「HHL」,「LLH」,「HLH」,「LHH」,「HHH」の各分割動画像データ120’’ ’を、別なアップサンプラ88でアップサンプルし、これをハイパスフィルタ84でフィルタリングする。ローパスフィルタ81およびハイパスフィルタ84からの各データを加算器93で帯域合成することで、図5(b)における「LLL」の分割動画像データ120’’が再構成される。 The specific processing procedure will be described. In FIG. 5C, the image reconstructing unit 4 relates to the divided moving image data 120 ″ ′ at level 3 with respect to the time axis T, the vertical axis Y, and the horizontal axis X. The up-sampler 87 up-samples “LLL” divided moving image data 120 ′ ″ each having a low-frequency component in each direction, and filters the low-frequency filter 81. On the other hand, each of the other divided moving image data 120 ″ ′ of “HLL”, “LHL”, “HHL”, “LLH”, “HLH”, “LHH”, “HHH” is separated by another upsampler 88. Up-sample and filter this with a high-pass filter 84. Each data from the low-pass filter 81 and the high-pass filter 84 is band-combined by the adder 93, whereby the “LLL” divided moving image data 120 ″ in FIG. 5B is reconstructed.
同様に、加算器93から出力される「LLL」の分割動画像データ120’’を、アップサンプラ89でアップサンプルし、これをローパスフィルタ82でフィルタリングする。一方、それ以外の「HLL」,「LHL」,「HHL」,「LLH」,「HLH」,「LHH」,「HHH」の各分割動画像データ120’ ’を、別なアップサンプラ90でアップサンプルし、これをハイパスフィルタ85でフィルタリングする。ローパスフィルタ82およびハイパスフィルタ85からの各データを加算器94で帯域合成することで、図5(a)における「LLL」の分割動画像データ120’が再構成される。 Similarly, the “LLL” divided moving image data 120 ″ output from the adder 93 is up-sampled by the up-sampler 89 and filtered by the low-pass filter 82. On the other hand, each of the other moving image data 120 ′ ′ of “HLL”, “LHL”, “HHL”, “LLH”, “HLH”, “LHH”, “HHH” is uploaded by another upsampler 90 This is sampled and filtered with a high-pass filter 85. Each data from the low-pass filter 82 and the high-pass filter 85 is band-synthesized by the adder 94, whereby the “LLL” divided moving image data 120 ′ in FIG.
さらに、加算器94から出力される「LLL」の分割動画像データ120’を、アップサンプラ91でアップサンプルし、これをローパスフィルタ83でフィルタリングする。一方、それ以外の「HLL」,「LHL」,「HHL」,「LLH」,「HLH」,「LHH」,「HHH」の各分割動画像データ120’ を、別なアップサンプラ92でアップサンプルし、これをハイパスフィルタ86でフィルタリングする。ローパスフィルタ83およびハイパスフィルタ86からの各データを加算器95で帯域合成することで、元の動画像データ120を再構成することができる。 Further, the “LLL” divided moving image data 120 ′ output from the adder 94 is upsampled by the upsampler 91, and is filtered by the lowpass filter 83. On the other hand, each of the other divided moving image data 120 ′ of “HLL”, “LHL”, “HHL”, “LLH”, “HLH”, “LHH”, “HHH” is upsampled by another upsampler 92. This is filtered by a high pass filter 86. The original moving image data 120 can be reconstructed by band-combining the data from the low-pass filter 83 and the high-pass filter 86 by the adder 95.
画像再構成部4はさらに、復元した動画像データ120を時間軸Tに沿って2次元のフレーム画像130に分割し、その一つまたは複数を選択して画像出力部5に送出する。画像出力部5は、画像再構成部4により得られた再構成画像すなわちフレーム画像130を出力するもので、これは例えば表示装置や印刷装置などで具現化される。 The image reconstruction unit 4 further divides the restored moving image data 120 into a two-dimensional frame image 130 along the time axis T, selects one or more of them, and sends them to the image output unit 5. The image output unit 5 outputs a reconstructed image obtained by the image reconstructing unit 4, that is, a frame image 130, which is realized by, for example, a display device or a printing device.
こうした一連の処理の過程で、個々のローパスフィルタ81〜83やハイパスフィルタ84〜86の特性は、前記係数変更部3からのウェーブレット展開係数ωk (j)やスケーリング係数sk (j)によって決定される。つまり、周波数分解部2から出力される各分割動画像データ120’,120’’,120’’’は、これらのウェーブレット展開係数ωk (j)やスケーリング係数sk (j)によって、適宜変更が加えられて再構成される。 In the course of such a series of processing, the characteristics of the individual low-pass filters 81 to 83 and the high-pass filters 84 to 86 are determined by the wavelet expansion coefficient ω k (j) and the scaling coefficient s k (j) from the coefficient changing unit 3. Is done. That is, the divided moving image data 120 ′, 120 ″, 120 ′ ″ output from the frequency resolving unit 2 is appropriately changed according to the wavelet expansion coefficient ω k (j) and the scaling coefficient s k (j) . Is added and reconfigured.
そのため、係数変更部3によって時間軸Tに依存するウェーブレット展開係数ωk (j)を消去或いは縮小したことにより、画像再構成部4で逆変換した後の各フレーム画像130は、時間に依存した比較的周波数の低いノイズ成分が消去される。また、時間軸Tに依存しない高周波成分を示すウェーブレット展開係数ωk (j)を拡大したことにより、画像再構成部4で逆変換した後の各フレーム画像130は、エッジを強調した鮮明な画像となる。 For this reason, each of the frame images 130 after the inverse transformation by the image reconstruction unit 4 is time-dependent by deleting or reducing the wavelet expansion coefficient ω k (j) depending on the time axis T by the coefficient changing unit 3. A noise component having a relatively low frequency is eliminated. Further, by enlarging the wavelet expansion coefficient ω k (j) indicating a high-frequency component that does not depend on the time axis T, each frame image 130 after being inversely transformed by the image reconstruction unit 4 is a clear image with emphasized edges. It becomes.
次に、上記構成や手法を実現する実験例とその結果を説明する。図7は、上記画像処理装置100を含む超音波エコー画像システムの概略構成を示すもので、同図において、Sは超音波画像を取得する際の試料となる被対象物で、ここでは新鮮な豚前足を使用して、脂肪,筋肉および骨の境界を解析対象としている。被対象物Sは、容器たる水槽201に投入された水Wに浸されているが、これは後述する超音波プローブ205の測定力により、被対象物Sの軟部組織が変形しないようにする水浸法を適用しているためである。また、202は水Wの温度を検知する水温計、203は水W内に置かれたヒータであり、図示しないヒータ制御装置が水温計202からの温度情報に基づき、水Wの温度を例えば36℃に保持するように、ヒータ203の加熱量を制御している。 Next, experimental examples and results for realizing the above-described configuration and method will be described. FIG. 7 shows a schematic configuration of an ultrasonic echo image system including the image processing apparatus 100. In FIG. 7, S is an object to be used as a sample when acquiring an ultrasonic image. We use pork forelimbs to analyze fat, muscle and bone boundaries. The object S is immersed in the water W introduced into the water tank 201 which is a container. This is water that prevents the soft tissue of the object S from being deformed by the measuring force of the ultrasonic probe 205 described later. This is because the immersion method is applied. Reference numeral 202 denotes a water temperature meter that detects the temperature of the water W, and 203 denotes a heater that is placed in the water W. A heater control device (not shown) sets the temperature of the water W to, for example, 36 based on temperature information from the water temperature meter 202. The heating amount of the heater 203 is controlled so as to maintain the temperature.
205は、被対象物Sに向けて設けられた超音波プローブであり、当該プローブ205は、固定用ジグに相当するプローブ保持装置206を介して、アクチュエータとして利用するNC工作機械のチャック207に取り付けられる。これにより、チャック207の回転に伴い、超音波プローブ205を被対称物Sに向かって、若しくは被対称物Sから離れるように移動させることが可能になり、被測定物Sを捜査するに際して、得られる画像の再現性を考慮している。 Reference numeral 205 denotes an ultrasonic probe provided toward the object S, and the probe 205 is attached to a chuck 207 of an NC machine tool used as an actuator via a probe holding device 206 corresponding to a fixing jig. It is done. As a result, the ultrasonic probe 205 can be moved toward or away from the object S with the rotation of the chuck 207. The reproducibility of the resulting image is taken into consideration.
前記超音波プローブ205は、被対象物Sの超音波画像を生成する超音波画像装置211にケーブル212を介して接続される。この装置211は、主に生体の皮下脂肪層の厚さを計測するヘルスケアを目的として開発された低価格機であり、一例として計測可能な最大深度は105mmである。また、ここで使用する超音波プローブ205は、中心周波数が6MHzの素子を64個配置しており、37mmの有効測定幅を有する。 The ultrasonic probe 205 is connected to an ultrasonic imaging device 211 that generates an ultrasonic image of the object S via a cable 212. This device 211 is a low-priced machine developed mainly for the purpose of health care for measuring the thickness of the subcutaneous fat layer of a living body, and the maximum depth that can be measured is 105 mm as an example. Further, the ultrasonic probe 205 used here has 64 elements having a center frequency of 6 MHz, and has an effective measurement width of 37 mm.
前記超音波画像装置211は、前記画像処理装置100のハードウェア構成を具現化するコンピュータ(PC)221にケーブル213を介して接続される。PC221は周知のように、CPUや記憶装置などを備える制御処理部223と、キー操作が可能な操作部224と、超音波画像装置211からの超音波画像を取り込む入力インターフェース225と、LEDなどの表示部226などにより構成され、前記画像入力部1が入力インターフェース225に相当し、周波数分解部2,係数変更部3および画像再構成部4が制御処理部223に相当し、画像出力部5が表示部226に相当する。なお、画像処理装置100のハードウェア構成は、図7に示すものに限られない。 The ultrasonic imaging apparatus 211 is connected via a cable 213 to a computer (PC) 221 that embodies the hardware configuration of the image processing apparatus 100. As is well known, the PC 221 includes a control processing unit 223 including a CPU and a storage device, an operation unit 224 capable of key operation, an input interface 225 for capturing an ultrasonic image from the ultrasonic image device 211, an LED, and the like. The image input unit 1 corresponds to the input interface 225, the frequency resolution unit 2, the coefficient change unit 3, and the image reconstruction unit 4 correspond to the control processing unit 223, and the image output unit 5 includes the display unit 226. This corresponds to the display unit 226. Note that the hardware configuration of the image processing apparatus 100 is not limited to that shown in FIG.
上記構成において、実験ではNC工作機械のテーブル速度ひいては超音波プローブ205の送り速度を153.692mm/minに設定し、超音波画像装置211によって130mSecのサンプリングタイムで被対象物Sの超音波画像を取得した。これらの超音波画像をPC221に取り込み、上記画像処理装置100を利用して、オリジナルのフレーム画像110から、再構成したフレーム画像130を出力した結果を図8に示す。 In the above configuration, in the experiment, the table speed of the NC machine tool and hence the feed speed of the ultrasonic probe 205 are set to 153.692 mm / min, and an ultrasonic image of the object S is acquired by the ultrasonic imaging device 211 at a sampling time of 130 mSec. did. FIG. 8 shows a result of capturing these ultrasonic images into the PC 221 and outputting a reconstructed frame image 130 from the original frame image 110 using the image processing apparatus 100.
同図において、120はPC221の制御処理部223に取り込まれるオリジナルの動画像データである。これは上述したように、時間軸Tに沿って、サンプリングタイム毎に取得した各フレーム画像110の集合体から構成される。図8(a)は、ウェーブレット変換前の一つのフレーム画像110を示している。 In the figure, reference numeral 120 denotes original moving image data taken into the control processing unit 223 of the PC 221. As described above, this is composed of a collection of frame images 110 acquired at each sampling time along the time axis T. FIG. 8A shows one frame image 110 before wavelet transform.
図8(b)は、周波数分解部2による3次元ウェーブレット解析を行なった一例であり、図中横方向は時間軸T、縦方向は一つのフレーム画像110における縦軸Yについて表示している。係数変更部3は、時間に依存する分割動画像データ120Aの成分を削除すると共に、時間に依存しない高周波成分を示す分割動画像データ120Bの成分を2倍に拡大して、これを画像再構成部4に送出し、解析画像を逆変換する。 FIG. 8B is an example in which the three-dimensional wavelet analysis is performed by the frequency resolving unit 2, and the horizontal direction in the drawing is the time axis T, and the vertical direction is the vertical axis Y in one frame image 110. The coefficient changing unit 3 deletes the component of the time-dependent divided moving image data 120A, doubles the component of the divided moving image data 120B indicating the time-independent high-frequency component, and reconstructs this. The data is sent to the unit 4, and the analysis image is inversely transformed.
図8(c)は、このような手順で得られた再構成後のフレーム画像130である。図8(a)に示すオリジナルのフレーム画像110と比較すると、被対象物Sの組織境界が強調されていること、並びにノイズが消えていることが判る。 FIG. 8C shows a reconstructed frame image 130 obtained by such a procedure. Compared with the original frame image 110 shown in FIG. 8A, it can be seen that the tissue boundary of the object S is emphasized and that the noise disappears.
図9は、図8(a)に示すオリジナルのフレーム画像110の要部150と、図8(c)に示す再変換後のフレーム画像130の要部160を、それぞれ拡大したものである。要部150,160は同じ位置にあって、オリジナルのフレーム画像110に存在したノイズNが、再変換後のフレーム画像130では除去されていることが判る。 FIG. 9 is an enlarged view of the main part 150 of the original frame image 110 shown in FIG. 8A and the main part 160 of the re-converted frame image 130 shown in FIG. 8C. It can be seen that the main parts 150 and 160 are at the same position, and the noise N present in the original frame image 110 is removed in the frame image 130 after the reconversion.
なお、本例の係数変更部3は、時間に依存する分割動画像データ120Aに関し、その全ての展開係数を削除(すなわち、ウェーブレット展開係数ωk (j)を0に置き換える)処理を行なうが、例えば心臓等の常に動く臓器のエコー画像では、同様の処理を行なうと必ずしも適切ではない場合が予想されるため、その場合は時間に依存する分割動画像データ120Aのうち、全ての展開係数ではなく、目的とする特定の周波数成分の展開係数を削除(消去)または縮小するようにしてもよい。これにより、常に動く被対象物Sであっても、複数のフレーム画像110に存在する特定の周波数のノイズ成分を効果的に除去することができる。 The coefficient changing unit 3 of this example performs a process of deleting all the expansion coefficients (that is, replacing the wavelet expansion coefficient ω k (j) with 0 ) for the time-dependent divided moving image data 120A. For example, in an echo image of a constantly moving organ such as the heart, it is expected that the same processing is not necessarily appropriate. In this case, not all the expansion coefficients of the time-dependent divided moving image data 120A are used. The expansion coefficient of the target specific frequency component may be deleted (erased) or reduced. Thereby, even if it is the target object S which always moves, the noise component of the specific frequency which exists in the some frame image 110 can be removed effectively.
以上のように、本実施形態における画像処理装置100は、動画像としての動画像データ120を構成する各々のフレーム画像110を、時間すなわち時間軸Tに沿って順次入力する入力手段としての画像入力部1と、動画像データ120を複数の周波数帯域に分割する分解手段としての周波数分解部2と、分割した各動画像データ120’,120’’,120’’’のなかで、時間軸Tに依存する分割した動画像データ120Aの成分を消去または縮小する変更手段としての係数変更部3と、係数変更部3で消去または縮小した成分に基づいて、周波数分解部2とは逆の処理を行なうことで、周波数分解部2で分割した全ての動画像データ120’,120’’,120’’’を再構成し、その再構成した動画像データ120を時間毎に分割して、復元したフレーム画像130を生成する再構成手段としての画像再構成部4と、画像再構成部4で復元したフレーム画像130を出力する出力手段としての画像出力部5と、を備えている。 As described above, the image processing apparatus 100 according to the present embodiment inputs an image as an input unit that sequentially inputs the frame images 110 constituting the moving image data 120 as a moving image along the time, that is, the time axis T. Section 1, frequency decomposition section 2 as a decomposing means for dividing moving image data 120 into a plurality of frequency bands, and time axis T among divided moving image data 120 ′, 120 ″, 120 ′ ″. The coefficient changing unit 3 as changing means for deleting or reducing the components of the divided moving image data 120A depending on the frequency change unit 2, and the processing opposite to the frequency decomposing unit 2 is performed based on the components deleted or reduced by the coefficient changing unit 3. As a result, all the moving image data 120 ′, 120 ″, 120 ′ ″ divided by the frequency resolving unit 2 are reconstructed, and the reconstructed moving image data 120 is reconstituted every time. The image reconstruction unit 4 as a reconstruction unit that generates a restored frame image 130 and the image output unit 5 as an output unit that outputs the frame image 130 restored by the image reconstruction unit 4 are provided. ing.
ここでは動画像データ120を構成する各フレーム画像110について、複数の周波数帯域に分解するのではなく、3次元の動画像データ120そのものを複数の周波数帯域に分解する。そして、時間軸Tに依存する分割した動画像データ120Aについて、適切な周波数の成分を任意に選択し、これを削除あるいは縮小して、分割した全ての動画像データ120’,120’’,120’’’を再構成すれば、複数のフレーム画像110に存在する特定の周波数のノイズ成分を効果的に除去することが可能になる。 Here, each frame image 110 constituting the moving image data 120 is not decomposed into a plurality of frequency bands, but the three-dimensional moving image data 120 itself is decomposed into a plurality of frequency bands. Then, with respect to the divided moving image data 120A depending on the time axis T, an appropriate frequency component is arbitrarily selected, and the divided moving image data 120 ′, 120 ″, 120 is deleted or reduced. If '' 'is reconstructed, it becomes possible to effectively remove noise components of specific frequencies existing in the plurality of frame images 110.
また、本実施形態における係数変更部3は、前記分割した動画像データ120’,120’’,120’’’のなかで、特に時間軸Tに依存しない高周波成分を示す分割した動画像データ120Bの成分を拡大するものであり、これにより分割した全ての動画像データ120’,120’’,120’’’を再構成すれば、復元した個々のフレーム画像130について、エッジを強調したより鮮明な画像を得ることができる。 Further, the coefficient changing unit 3 according to the present embodiment splits the moving image data 120B indicating a high-frequency component that does not depend on the time axis T among the divided moving image data 120 ′, 120 ″, 120 ′ ″. If all the divided moving image data 120 ′, 120 ″, 120 ′ ″ are reconstructed, the restored individual frame image 130 is more clearly enhanced with the edge emphasized. Can be obtained.
また、本実施形態における周波数分解部2は、動画像データ120の横軸X,縦軸Y,および時間軸Tの各方向について、それぞれ低周波と高周波に帯域を分割するウェーブレット変換処理を行なう構成を有し、画像再構成部4は、分割した全ての動画像データ120’,120’’,120’’’の横軸X,縦軸Y,および時間軸Tの各方向について、周波数分解部2とは逆のウェーブレット逆変換処理を行なう構成を有する。 In addition, the frequency resolving unit 2 in the present embodiment performs a wavelet transform process for dividing a band into a low frequency and a high frequency for each direction of the horizontal axis X, the vertical axis Y, and the time axis T of the moving image data 120. The image reconstruction unit 4 is a frequency resolving unit for each of the horizontal axis X, the vertical axis Y, and the time axis T of all the divided moving image data 120 ′, 120 ″, 120 ′ ″. 2 has a configuration that performs inverse wavelet transform processing.
こうすれば、広く知られているウェーブレット変換やウェーブレット逆変換の各処理を利用することができる。 By doing this, it is possible to use widely known wavelet transform and wavelet inverse transform processes.
また上述した成分とは、ウェーブレット変換処理を行なうことで得られるウェーブレット展開係数ωk (j)であり、そのウェーブレット展開係数ωk (j)を変更するだけで、より鮮明なフレーム画像130を出力することが可能になる。 The above-mentioned component is a wavelet expansion coefficient ω k (j) obtained by performing wavelet transform processing, and a sharper frame image 130 is output simply by changing the wavelet expansion coefficient ω k (j). It becomes possible to do.
さらに、周波数分解部2によるウェーブレット変換処理と、画像再構成部4によるウェーブレット逆変換処理を、本実施形態のようなDaubecheies10のマザーウェーブレットを用いて行えば、最終的なフレーム画像130を得る上で、優れた画像の再構成を実現でき、また良好な分解能を得ることができる。 Furthermore, if the wavelet transform process by the frequency resolving unit 2 and the wavelet inverse transform process by the image reconstruction unit 4 are performed using the Daubecheies 10 mother wavelet as in this embodiment, the final frame image 130 is obtained. Therefore, excellent image reconstruction can be realized and good resolution can be obtained.
本実施形態では、こうした画像処理装置100の構成だけでなく、画像処理装置100が処理実行する方法についても、同様の作用効果が得られる。好ましい画像処理方法は、画像入力部1が行なう工程と、周波数分解部2が行なう工程と、係数変更部3が行なう工程と、画像再構成部4が行なう工程と、画像出力部5が行なう工程を備え、これらの各工程が順に実行されることで、複数のフレーム画像110に存在する特定の周波数のノイズ成分を効果的に除去することができる。 In the present embodiment, not only the configuration of the image processing apparatus 100 but also the method of executing the process by the image processing apparatus 100 can obtain the same effects. A preferred image processing method includes a step performed by the image input unit 1, a step performed by the frequency resolving unit 2, a step performed by the coefficient changing unit 3, a step performed by the image reconstruction unit 4, and a step performed by the image output unit 5. By performing these steps in order, it is possible to effectively remove noise components of specific frequencies existing in the plurality of frame images 110.
また本発明は、それ以外の実施形態によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、任意のシステムや装置に供給する。そして、そのシステムまたは装置に組み込まれたコンピュータ(CPUやMPU)が、その記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が、前述した実施形態の機能を実現することとなり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 The present invention is also achieved by other embodiments. That is, a recording medium (or storage medium) that records a program code of software that realizes the functions of the above-described embodiments is supplied to an arbitrary system or apparatus. Then, a computer (CPU or MPU) incorporated in the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働するオペレーティングシステムなどが実際の処理の一部または全部を行なう。その処理によって前述した実施形態の機能が実現される場合も、本発明に含まれることはいうまでもない。 Further, by executing the program code read by the computer, an operating system or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the present invention also includes the case where the functions of the above-described embodiments are realized by the processing.
さらに、その記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張コードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたとする。その後、そのプログラムコードの指示に基づいて、その機能拡張カードや、機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行なう。その処理によって前述した実施形態の機能が実現される場合も、本発明に含まれることはいうまでもない。 Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion code inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the function expansion card, the CPU provided in the function expansion unit, or the like performs part or all of the actual processing. Needless to say, the present invention also includes the case where the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明した方法に対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the method described above is stored in the recording medium.
なお、本発明は上記実施例に限定されるものではなく、本発明の要旨の範囲において種々の変形実施が可能である。上記実施形態では、超音波画像の鮮明化に関する提案を行なったが、本発明はそれ以外のあらゆる画像に関する鮮明化に寄与する。よって、本発明の該当する産業上の利用分野としては、超音波エコー装置製造業のみならず、動画解析装置製造業などにも波及するものである。 In addition, this invention is not limited to the said Example, A various deformation | transformation implementation is possible in the range of the summary of this invention. In the above-described embodiment, the proposal regarding the sharpening of the ultrasonic image has been made, but the present invention contributes to the sharpening of all other images. Therefore, the industrial application field to which the present invention pertains extends not only to the ultrasonic echo device manufacturing industry but also to the moving image analysis device manufacturing industry.
1 画像入力部(入力手段)
2 周波数分解部(分解手段)
3 係数変更部(変更手段)
4 画像再構成部(再構成手段)
5 画像出力部(出力手段)
100 画像処理装置
1 Image input unit (input means)
2 Frequency resolving part (decomposing means)
3 Coefficient change part (change means)
4 Image reconstruction unit (reconstruction means)
5 Image output unit (output means)
100 Image processing apparatus
Claims (8)
前記動画像を複数の周波数帯域に分割する分解手段と、
前記分割した各動画像のなかで、時間に依存する分割した動画像の成分のうち、目的とする周波数成分の展開係数を消去または縮小する変更手段と、
前記消去または縮小した成分に基づいて、前記分解手段とは逆の処理を行なうことで、前記分割した全ての動画像を再構成し、その再構成した動画像を時間毎に分割して、復元したフレーム画像を生成する再構成手段と、
前記復元したフレーム画像を出力する出力手段と、を備えることを特徴とする画像処理装置。 Input means for sequentially inputting each frame image constituting the moving image;
Decomposition means for dividing the moving image into a plurality of frequency bands;
Change means for erasing or reducing the expansion coefficient of the target frequency component among the divided moving image components depending on time among the divided moving images,
Based on the erased or reduced components, the reverse processing of the disassembling means is performed to reconstruct all the divided moving images, and the reconstructed moving images are divided by time and restored. Reconstructing means for generating a frame image,
An image processing apparatus comprising: output means for outputting the restored frame image.
前記再構成手段は、前記分割した全ての動画像の縦,横,および時間の各方向について、ウェーブレット逆変換処理を行なうものであることを特徴とする請求項1または2記載の画像処理装置。 The decomposing means performs a wavelet transform process for each of the vertical, horizontal, and time directions of the moving image,
The image processing apparatus according to claim 1, wherein the reconstruction unit performs wavelet inverse transformation processing in each of vertical, horizontal, and time directions of all the divided moving images.
前記動画像を複数の周波数帯域に分割する分解工程と、
前記分割した各動画像のなかで、時間に依存する分割した動画像の成分のうち、目的とする周波数成分の展開係数を消去または縮小する変更工程と、
前記消去または縮小した成分に基づいて、前記分解手段とは逆の処理を行なうことで、前記分割した全ての動画像を再構成し、その再構成した動画像を時間毎に分割して、復元したフレーム画像を生成する再構成工程と、
前記復元したフレーム画像を出力する出力工程と、を備えることを特徴とする画像処理方法。 An input step of sequentially inputting each frame image constituting the moving image;
A decomposition step of dividing the moving image into a plurality of frequency bands;
Among the divided moving images, among the divided moving image components depending on time, a changing step of deleting or reducing the expansion coefficient of the target frequency component;
Based on the erased or reduced components, the reverse processing of the disassembling means is performed to reconstruct all the divided moving images, and the reconstructed moving images are divided by time and restored. A reconstruction process for generating a frame image,
And an output step of outputting the restored frame image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009204635A JP2011055415A (en) | 2009-09-04 | 2009-09-04 | Device and method for image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009204635A JP2011055415A (en) | 2009-09-04 | 2009-09-04 | Device and method for image processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011055415A true JP2011055415A (en) | 2011-03-17 |
Family
ID=43943933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009204635A Pending JP2011055415A (en) | 2009-09-04 | 2009-09-04 | Device and method for image processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011055415A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016527935A (en) * | 2013-06-28 | 2016-09-15 | タレス | Method for reducing noise in fluoroscopic image sequences |
US9754361B2 (en) | 2013-10-25 | 2017-09-05 | Toshiba Medical Systems Corporation | Image processing apparatus and ultrasonic diagnosis apparatus |
KR20230095791A (en) * | 2021-12-22 | 2023-06-29 | (주) 픽셀플러스 | Image processing apparatus and image processing method of the same |
-
2009
- 2009-09-04 JP JP2009204635A patent/JP2011055415A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016527935A (en) * | 2013-06-28 | 2016-09-15 | タレス | Method for reducing noise in fluoroscopic image sequences |
US9754361B2 (en) | 2013-10-25 | 2017-09-05 | Toshiba Medical Systems Corporation | Image processing apparatus and ultrasonic diagnosis apparatus |
KR20230095791A (en) * | 2021-12-22 | 2023-06-29 | (주) 픽셀플러스 | Image processing apparatus and image processing method of the same |
KR102688328B1 (en) * | 2021-12-22 | 2024-07-26 | (주) 픽셀플러스 | Image processing apparatus and image processing method of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111081354B (en) | System and method for denoising medical images through deep learning network | |
CN105913398B (en) | The method and device of CT reconstruction images processing | |
JP5711241B2 (en) | Method for artifact reduction in cone-beam CT images | |
CN113436290A (en) | Method and system for selectively removing streak artifacts and noise from images using a deep neural network | |
CN112396560A (en) | System and method for deblurring medical images using a deep neural network | |
JP7023641B2 (en) | Image processing equipment, image processing methods and programs | |
Parmar et al. | A comparative analysis of multimodality medical image fusion methods | |
JP2015129987A (en) | System and method of forming medical high-resolution image | |
KR20060034003A (en) | Method for improving a quality of a 2-d ultrasound image by post-processing | |
CN106530236B (en) | Medical image processing method and system | |
KR20120011694A (en) | Method and apparatus of processing image and medical image system employing the same | |
US9741104B2 (en) | Apparatus, method, and computer-readable medium for quad reconstruction using hybrid filter convolution and high dynamic range tone-mapping | |
CN111815735B (en) | Human tissue self-adaptive CT reconstruction method and reconstruction system | |
KR20150100929A (en) | Image processing digital filter, image processing device, printing medium, recording medium, image processing method and program | |
CN111861930A (en) | Image denoising method and device, electronic equipment and image hyper-resolution denoising method | |
JP4847004B2 (en) | Resolution adaptive image filtering system and method | |
JP2007275595A (en) | View creating method for reproducing tomographic image data | |
JP2011055415A (en) | Device and method for image processing | |
JP2022064389A (en) | Image processor, method for processing image, and program | |
JP2021065707A (en) | Medical image processing device, learned model and medical image processing method | |
JP2002133399A (en) | Image processor and x-ray ct apparatus using it | |
WO2019124076A1 (en) | Medical signal processing device | |
Song et al. | Alias-Free Co-modulated Network for Cross-Modality Synthesis and Super-Resolution of MR Images | |
CN114677268A (en) | X-ray image processing device and X-ray image processing method | |
Tran | 3D image analysis with variational methods and wavelets: applications to medical image processing |