JP2004154567A - Image processing apparatus, method, and program - Google Patents

Image processing apparatus, method, and program Download PDF

Info

Publication number
JP2004154567A
JP2004154567A JP2003353360A JP2003353360A JP2004154567A JP 2004154567 A JP2004154567 A JP 2004154567A JP 2003353360 A JP2003353360 A JP 2003353360A JP 2003353360 A JP2003353360 A JP 2003353360A JP 2004154567 A JP2004154567 A JP 2004154567A
Authority
JP
Japan
Prior art keywords
image
unit
frequency band
value
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003353360A
Other languages
Japanese (ja)
Inventor
Atsushi Omiya
淳 大宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003353360A priority Critical patent/JP2004154567A/en
Publication of JP2004154567A publication Critical patent/JP2004154567A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus that eliminates speckle noise. <P>SOLUTION: The image processing apparatus sends ultrasound from an ultrasonic probe at a number of steering angles (e.g. θ1, θ2, and θ3) and generates images based on reflected signals from an object. The apparatus has an image generating section 104 that generates an image based on signals within a frequency band designated for each steering angle, θ1, θ2, and θ3; an image synthesis section 106 that combines images produced separately for each steering angle to obtain a senthesized image; and a frequency band selection section 105 that designates different frequency bands for at least two steering angles. <P>COPYRIGHT: (C)2004,JPO

Description

本発明は、超音波診断装置等の検査対象物の内部を非破壊的に表示する画像処理装置に関する。   The present invention relates to an image processing apparatus that non-destructively displays the inside of an inspection target such as an ultrasonic diagnostic apparatus.

音信号を被写体に対して照射し、被写体からの反射信号を受信して、この受信信号を基に被写体の内部を画像化する画像処理装置は、産業分野や臨床分野において幅広く用いられている。このような装置の代表例として超音波診断装置がある。
これらの画像処理装置は、近年の計算機の性能向上により、処理速度が向上し、実時間で被写体を計測、画像化を行なうことが可能となってきており、臨床の分野では、循環器をはじめとする高い時間分解能を要する分野においても、リアルタイムに検査対象物の断層像を提供することができ、画像による生体機能診断を可能とした。
2. Description of the Related Art Image processing apparatuses that irradiate a sound signal to a subject, receive a reflected signal from the subject, and image the inside of the subject based on the received signal are widely used in the industrial field and the clinical field. An ultrasonic diagnostic apparatus is a typical example of such an apparatus.
The processing speed of these image processing devices has been improved due to the recent improvements in the performance of computers, and it has become possible to measure and image subjects in real time. In fields requiring high temporal resolution, it is possible to provide a tomographic image of an inspection object in real time, and to make a biological function diagnosis using an image.

超音波診断装置は音信号を被写体に送信し、その反射波を受信して、これをもとに画像を生成する。被写体内に音信号を通しにくい部位が存在する場合や、音信号をほぼすべて反射してしまう部位(境界)が存在する場合には、その部位の後方(超音波を送受信する方向から見て遠くに位置する領域)の情報は得ることができず、シャドウ(影)と呼ばれる低輝度領域が生じることがある。   The ultrasonic diagnostic apparatus transmits a sound signal to a subject, receives a reflected wave of the signal, and generates an image based on the signal. If there is a part in the subject that makes it difficult for the sound signal to pass through, or if there is a part (boundary) that reflects almost all of the sound signal, it is located behind the part (far away from the direction in which ultrasonic waves are transmitted and received). Cannot be obtained, and a low-luminance area called a shadow may occur.

また、音信号は波動であるため干渉が生じる。被写体分布が音信号の発生源から音信号の1波長以下の距離差で分布している場合、この被写体分布によりランダム性が強く現れる場合がある。このような原因で生じる偽情報をスペックルノイズと呼ぶ(ごま塩状ノイズ、斑点状ノイズとも呼ばれる)。
シャドウ、あるいはスペックルノイズの影響を除去するために、複数の角度(ステア角度)方向から取得した画像データから1枚の合成画像を作成することがある。この手法はコンパウンドスキャンと呼ばれる。一般的にコンパウンドスキャンは複数の方向から取得した画像データの加算平均を取ることによって行なわれる。
Further, since the sound signal is a wave, interference occurs. When the object distribution is distributed with a distance difference of one wavelength or less of the sound signal from the source of the sound signal, the randomness may appear strongly due to the object distribution. False information resulting from such a cause is called speckle noise (also called sesame salty noise or spot-like noise).
In order to remove the influence of shadows or speckle noise, one composite image may be created from image data acquired from a plurality of angles (steer angles). This technique is called compound scanning. In general, compound scanning is performed by taking an average of image data obtained from a plurality of directions.

図1(a)〜(c)は、一般的なコンパウンドスキャンの手法を示す図である。図1(a)は、超音波アレイプローブから複数の方向へ超音波ビームを照射する様子を示している。
図1(b)に示すような検査対象物b1がある場合、図1(c)に示すように超音波アレイプローブ13を用いて、電気的ステアにより複数方向c1、c2、c3からスキャンすると、図1(c)のような画像データc4、c5、c6を取得することができる。それぞれの画像データには、(i)検査対象物の輪郭が高輝度で描出されている部分c7、(ii)反射信号が微弱なため低輝度で描出されている部分c8、および(iii)音信号が届かないあるいは反射信号が検出できないシャドウ部c9が存在する。それぞれの画像c4〜c6は異なる角度方から取得されているため、前述の(i)高輝度部、(ii)低輝度部、(iii)シャドウ部の現れ方は異なっている。
1A to 1C are diagrams showing a general compound scanning method. FIG. 1A shows a state in which an ultrasonic beam is irradiated from an ultrasonic array probe in a plurality of directions.
When there is an inspection object b1 as shown in FIG. 1B, when scanning from multiple directions c1, c2, and c3 by electric steering using the ultrasonic array probe 13 as shown in FIG. 1C, Image data c4, c5, and c6 as shown in FIG. 1C can be obtained. Each of the image data includes (i) a portion c7 in which the contour of the inspection object is drawn with high brightness, (ii) a portion c8 in which the reflected signal is drawn with low brightness because the reflected signal is weak, and (iii) a sound. There is a shadow portion c9 where a signal does not reach or a reflected signal cannot be detected. Since the images c4 to c6 are obtained from different angles, the appearances of the (i) high-luminance part, (ii) low-luminance part, and (iii) shadow part are different.

これらの複数の方向から得られる画像を合成することにより、欠落情報の少ない画像を生成することが可能となる。図1(c)に示す合成結果c11の一例のように、前記(ii)、(iii)の改善には従来の手法のみでも十分な効果が得られることがわかる。一般的にコンパウンドスキャンは複数の方向から取得した画像データの加算平均を取ることによって行なわれる。この手法により、シャドウの領域は狭くすることができ、またホワイトノイズの除去も行なえる。   By combining images obtained from these multiple directions, it is possible to generate an image with less missing information. As shown in an example of the synthesis result c11 shown in FIG. 1C, it can be seen that a sufficient effect can be obtained only by the conventional method to improve the above (ii) and (iii). In general, compound scanning is performed by taking an average of image data obtained from a plurality of directions. With this method, the shadow area can be narrowed, and white noise can be removed.

これらの従来技術に関して以下の文献がある。
特開平09−094248 (社)日本電子機械工業会「改訂医用超音波機器ハンドブック」(株)コロナ社発行、1997年1月20日
The following documents relate to these conventional techniques.
JP-A-09-094248 Japan Electronic Machinery Manufacturers Association "Revised Medical Ultrasound Equipment Handbook" Published by Corona Co., Ltd., January 20, 1997

しかしながら、コンパウンドスキャンによってスペックルノイズを十分に除去できないという問題がある。
前述のようにスペックルノイズは、検査対象物に波長以下の散乱体の分布が存在している場合に、反射波同士の干渉によって生じるものである。すなわち超音波アレイプローブと検査対象物との位置関係、および用いられる音信号の波長に依存して出現パターンが決定される。異なった方向から画像データを取得することにより、反射波の干渉の仕方が変わるため、スペックルノイズの出現パターンは変化するが、一般に超音波アレイプローブでステア可能な角度範囲は最大でも30°程度であり、図1(c)で示した3方向からのデータを取得した場合には、各画像データ間の角度差は15°でしかないため、スペックルノイズの出現パターンには大きな変化は見られない。この場合、スペックルノイズの除去は不十分である。
However, there is a problem that speckle noise cannot be sufficiently removed by compound scanning.
As described above, speckle noise is caused by interference between reflected waves when a distribution of scatterers having a wavelength equal to or less than the wavelength exists in the inspection object. That is, the appearance pattern is determined depending on the positional relationship between the ultrasonic array probe and the inspection object and the wavelength of the sound signal used. Acquisition of image data from different directions changes the manner of interference of reflected waves, and thus the appearance pattern of speckle noise changes, but generally the angle range that can be steered by an ultrasonic array probe is at most about 30 ° When the data from the three directions shown in FIG. 1C is acquired, the angle difference between the image data is only 15 °, so that there is no significant change in the appearance pattern of the speckle noise. I can't. In this case, the removal of speckle noise is insufficient.

図2(a)は深度が浅い検査対象物をスキャンする様子を、図2(b)は深度が深い検査対象物をスキャンする様子を示す。図2(a)、(b)に示すように検査対象物の深さ(超音波アレイプローブからの距離)が大きくなると、3つのステア角度におけるスキャン領域が重なる領域に検査対象物を配置しなければならないため、この角度差はさらに小さくなり、スペックルノイズの出現パターンの変化も小さくなる。こうなると、スペックルノイズの除去はできない。   FIG. 2A shows a state of scanning an inspection object having a small depth, and FIG. 2B shows a state of scanning an inspection object having a large depth. As shown in FIGS. 2A and 2B, when the depth of the inspection object (the distance from the ultrasonic array probe) increases, the inspection object must be arranged in an area where the scan areas at three steering angles overlap. Therefore, the angle difference is further reduced, and the change in the appearance pattern of speckle noise is also reduced. In this case, speckle noise cannot be removed.

本発明は、スペックルノイズを除去する画像処理装置、方法及びプログラムを提供することを目的とする。また、本発明は、画像の輪郭部分をはっきりと表示するなど画質を向上させることができる画像処理装置、方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide an image processing apparatus, method, and program for removing speckle noise. Another object of the present invention is to provide an image processing apparatus, method, and program capable of improving image quality such as clearly displaying an outline portion of an image.

本発明の画像処理装置は、超音波プローブから超音波を送信し、対象物からの反射波から生成される反射信号に基づいて画像を生成する画像処理装置であって、反射信号における少なくとも2つの周波数帯域を指定する指定手段と、反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成する生成手段と、生成された周波数帯域毎の画像を合成する合成手段とを備える。この構成によれば、反射信号に含まれる周波数帯域の異なる信号から複数の画像を生成することによって、周波数帯域毎の生成画像のスペックルノイズ出現パターンの違いを大きくし、さらに、それらの生成画像を合成するので、スペックルノイズの影響を小さくして、スペックルノイズを除去又は低減することができる。   An image processing apparatus of the present invention is an image processing apparatus that transmits an ultrasonic wave from an ultrasonic probe and generates an image based on a reflected signal generated from a reflected wave from an object, and includes at least two of the reflected signals. Designating means for designating a frequency band, generating means for generating an image for each frequency band based on a signal of the specified frequency band among the reflected signals, and synthesizing means for synthesizing the generated image for each frequency band. Prepare. According to this configuration, by generating a plurality of images from signals having different frequency bands included in the reflected signal, the difference in the speckle noise appearance pattern of the generated image for each frequency band is increased, and further, the generated images Is synthesized, the influence of speckle noise can be reduced, and speckle noise can be removed or reduced.

ここで、前記超音波プローブは、複数のステア角度で超音波を送信し、前記指定手段は、前記複数のステア角度のうち少なくとも2つのステア角度について、異なる周波数帯域を指定し、前記生成手段は、前記ステア角度毎に、反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成し、前記合成手段は、生成されたステア角度毎の画像を合成する構成であってもよい。この構成によれば、少なくとも2つのステア角度の反射信号に対して、生成元とする反射信号の周波数帯域を異ならせることによって、ステア角度毎の生成画像のスペックルノイズ出現パターンの違いを大きくし、もって合成後の影響を小さくして、スペックルノイズを除去又は低減することができる。   Here, the ultrasonic probe transmits ultrasonic waves at a plurality of steer angles, the specifying unit specifies different frequency bands for at least two steer angles of the plurality of steer angles, and the generating unit A configuration in which an image is generated for each frequency band based on a signal of a designated frequency band among the reflected signals for each of the steering angles, and the combining unit combines the generated images for each of the steering angles. Is also good. According to this configuration, the difference in the speckle noise appearance pattern of the generated image for each steer angle is increased by making the frequency band of the reflected signal as the generation source different for the reflected signals of at least two steer angles. Thus, it is possible to reduce or eliminate the influence of the speckle noise by reducing the influence after the combination.

ここで、前記指定手段は、複数のステア角度のうち特定のステア角度に対しては、他と異なる周波数帯域を指定するように構成してもよい。この構成によれば、特定のステア角度に対しては、他と異なる周波数帯域を指定するという簡単な構成により実現できる。   Here, the designating means may be configured to designate a different frequency band for a specific steer angle among the plurality of steer angles. According to this configuration, a specific steering angle can be realized with a simple configuration in which a different frequency band is specified.

また、前記指定手段は、複数のステア角度を示す角度群とステア角度に対応する周波数帯域を示す帯域群とからなる組であって、少なくとも第1、第2の組を含む複数の組を記憶する対応テーブルを有し、前記画像処理装置は、対応テーブルに記憶された一つの組内の角度群に基づいて超音波プローブのステア角度を制御し、前記指定手段は、当該組内の角度群に対応する帯域群に基づいて各ステア角度に対する周波数帯域を指定し、前記対応テーブルは、前記第1の組における角度群のステア角度差が第2の組における角度群のステア角度差よりも小さい場合、第1の帯域群の帯域差が第2の帯域群の帯域差よりも大きくなるよう設定されているよう構成してもよい。この構成によれば、ステア角度差が比較的小さくても、周波数帯域の差を大きくすることでスペックルノイズの出現パターンの差が大きくなるようにし、スペックルノイズを除去又は低減することができる。   Further, the designation means stores a plurality of sets including at least a first set and a second set, each set including an angle group indicating a plurality of steer angles and a band group indicating a frequency band corresponding to the steer angle. The image processing apparatus controls the steer angle of the ultrasonic probe based on the angle group in one set stored in the correspondence table, and the designating unit controls the angle group in the set. And a frequency band for each steer angle is specified based on the band group corresponding to the first group. The correspondence table indicates that the steer angle difference of the angle group in the first group is smaller than the steer angle difference of the angle group in the second group. In this case, the band difference of the first band group may be set to be larger than the band difference of the second band group. According to this configuration, even if the steering angle difference is relatively small, the difference in the appearance pattern of the speckle noise is increased by increasing the difference in the frequency band, and the speckle noise can be removed or reduced. .

ここで、前記合成手段は、生成手段によってステア角度毎に生成された画像の個数をM、各画像の画素数をN、生成された画像のうちm番目の画像のi番目の画素値をf_m(i)、f_m(i)が取りうる値を超えない値をSとして、合成画像のi番目の画素値f_g(i)を次に示す画素値演算に従って合成する構成としてもよい。
f_g(i)=S−M/((1/(S−f_0(i)))+(1/(S−f_1(i)))+…+(1/(S−f_(M−1)(i))))
この構成によれば、スペックルノイズの除去又は低減に加えて、Sの値を基準として、合成対象の複数の画素のうち大きくかけ離れた値の影響を取り除くとともに、合成結果の画像において基準値付近の画素値をもつ部分を強調表示することができるという効果がある。
Here, the synthesizing unit sets the number of images generated for each steering angle by the generation unit to M, the number of pixels of each image to N, and the i-th pixel value of the m-th image among the generated images to f_m. (I) The value which does not exceed the value that f_m (i) can take may be S, and the i-th pixel value f_g (i) of the synthesized image may be synthesized according to the following pixel value calculation.
f_g (i) = S-M / ((1 / (S-f_0 (i))) + (1 / (S-f_1 (i))) + ... + (1 / (S-f_ (M-1)) (I))))
According to this configuration, in addition to removing or reducing speckle noise, the value of S is used as a reference to remove the influence of a value that is greatly different from a plurality of pixels to be combined, and the vicinity of the reference value is obtained in the image of the combined result. There is an effect that a portion having the pixel value of can be highlighted.

また、前記画像処理装置はさらに、生成手段によって生成されたステア角度毎の画像に基づいて輪郭を含む第1の領域と、それ以外の領域とを判別する領域判別手段を備え、前記合成手段は、生成手段により生成されたステア角度毎の画像に対して第1の領域内の画素については第1の合成演算を、第1の領域以外の領域内の画素については第1の合成演算とは異なる演算を行う構成としてもよい。この構成によれば、第1の領域とそれ以外の領域とで、領域毎に最適な画素演算方法を選択して、輪郭を含む領域や低輝度の領域やその他の領域など領域毎に最適な画素演算により合成することができ、きれいな表示を得ることができる。
また、本発明の画像処理方法及びプログラムについても、上記と同様の構成を有する。
Further, the image processing apparatus further includes a region determining unit that determines a first region including a contour and another region based on an image for each steering angle generated by the generating unit, and the combining unit includes: The first combining operation is performed on the image in the first region with respect to the image for each steering angle generated by the generating unit, and the first combining operation is performed on the pixels in the region other than the first region. A configuration for performing a different operation may be adopted. According to this configuration, an optimal pixel calculation method is selected for each region between the first region and the other regions, and an optimal pixel calculation method is selected for each region such as a region including an outline, a low-luminance region, and other regions. It can be synthesized by pixel calculation, and a clear display can be obtained.
Further, the image processing method and the program of the present invention have the same configuration as described above.

以上説明したように、本発明の画像処理装置によれば、スペックルノイズを除去又は低減することができるという効果がある。
また、スペックルノイズの除去又は低減に加えて、合成対象の複数の画素のうち大きくかけ離れた値の影響を取り除くとともに、合成結果の画像において基準値付近の画素値をもつ部分を強調表示することができるという効果がある。
As described above, according to the image processing apparatus of the present invention, there is an effect that speckle noise can be removed or reduced.
In addition to removing or reducing speckle noise, it is also necessary to remove the influence of values that are far apart from each other among the plurality of pixels to be combined, and to highlight parts having pixel values near the reference value in the combined image. There is an effect that can be.

さらに、領域毎に最適な画素演算方法を選択して、輪郭を含む領域や低輝度の領域やその他の領域など領域毎に最適な画素演算により合成することができ、きれいな表示を得ることができる。
また、輪郭及びその近辺の画像をきれいに表示することができる。
画像の領域毎に、領域の特性に応じた合成をすることができる。
Furthermore, the optimum pixel calculation method can be selected for each region, and synthesis can be performed by optimum pixel calculation for each region such as a region including an outline, a low-luminance region, and other regions, and a clear display can be obtained. .
In addition, it is possible to clearly display an image of the contour and its vicinity.
For each region of the image, synthesis can be performed according to the characteristics of the region.

また、本発明の画像処理方法及びプログラムについても、上記と同様の効果がある。   Further, the image processing method and the program according to the present invention have the same effects as described above.

(実施の形態1)
図3は、本発明の第1の実施の形態における超音波診断装置10の外観図である。この超音波診断装置10は、コンパウンドスキャンによる断層画像を表示する際に、異なる周波数帯域の反射信号に基づいて画像を生成して更にそれらを合成することによってスペックルノイズを除去する超音波診断装置であり、ハードウェア構成として、表示装置11、本体装置12及びプローブ13から構成される。
(Embodiment 1)
FIG. 3 is an external view of the ultrasonic diagnostic apparatus 10 according to the first embodiment of the present invention. When displaying a tomographic image by compound scanning, the ultrasonic diagnostic apparatus 10 generates an image based on reflected signals in different frequency bands, and further synthesizes them to remove speckle noise. The hardware configuration includes a display device 11, a main body device 12, and a probe 13.

表示装置11は、CRT等であり、得られた断層画像、輪郭及び計測結果等をグレースケールやカラー等で表示する。表示画像に対する操作者のタッチペン等による指示を取得するため、CRT前面に透明のタッチパネルを備えてもよい。
プローブ13は、超音波を送受信するための超音波振動子や音響レンズ等からなる探触子である。
The display device 11 is a CRT or the like, and displays the obtained tomographic image, contour, measurement result, and the like in gray scale, color, or the like. A transparent touch panel may be provided on the front surface of the CRT in order to obtain an operator's instruction on a display image using a touch pen or the like.
The probe 13 is a probe including an ultrasonic vibrator and an acoustic lens for transmitting and receiving ultrasonic waves.

本体装置12は、超音波による電子走査のための送受信回路、DSPやCPU等からなる信号・画像処理回路等からなるコンピュータであり、操作者と対話するためのスイッチ群、トラックボール、液晶表示部等を有する操作パネル、マウス等を備える。
図4は、図3に示された超音波診断装置10の主要な機能構成を示すブロック図である。この超音波診断装置10は、超音波アレイプローブ101、送受信制御部102、ステア角度指示部103、画像生成部104、周波数帯域選択部105、画像合成部106、画像格納部107、フレームメモリ108、画像表示部109を備える。
The main body device 12 is a computer including a transmission / reception circuit for electronic scanning by ultrasonic waves, a signal / image processing circuit including a DSP and a CPU, etc., and a switch group for interacting with an operator, a trackball, a liquid crystal display unit. And an operation panel having a mouse and the like.
FIG. 4 is a block diagram showing a main functional configuration of the ultrasonic diagnostic apparatus 10 shown in FIG. The ultrasonic diagnostic apparatus 10 includes an ultrasonic array probe 101, a transmission / reception control unit 102, a steering angle instruction unit 103, an image generation unit 104, a frequency band selection unit 105, an image synthesis unit 106, an image storage unit 107, a frame memory 108, An image display unit 109 is provided.

超音波アレイプローブ101は、図3に示したプローブ13の機能を有し、送受信制御部102からの制御情報を受けて実際に音波の送受信を行なう。その際、超音波アレイプローブ101は、送受信制御部102からの指示により、送受信する際の遅延量を調節することにより、図1(a)に示したように電気的にステアすることが可能である。ここではリニアアレイプローブを示しているが、コンベックス(凸型)アレイプローブを用いてもかまわない。実際のステア角度の設定はステア角度指示部103からの入力によって行なわれる。このステア機能により同一の被写体を異なった角度方向から観測したデータが取得できる。   The ultrasonic array probe 101 has the function of the probe 13 shown in FIG. 3, and actually transmits and receives a sound wave in response to control information from the transmission and reception control unit 102. At that time, the ultrasonic array probe 101 can electrically steer as shown in FIG. 1A by adjusting the delay amount at the time of transmission / reception in accordance with an instruction from the transmission / reception control unit 102. is there. Although a linear array probe is shown here, a convex (convex) array probe may be used. The actual setting of the steer angle is performed by an input from the steer angle instruction unit 103. With this steering function, data obtained by observing the same subject from different angle directions can be obtained.

送受信制御部102は、ステア角度指示部103の指示に従って、超音波アレイプローブ101における音の送受信およびそのステア角度の制御を行なう。
ステア角度指示部103は、コンパウンドスキャンにおける複数のステア角度を送受信制御部102に指示する。
例えば、ステア角度指示部103は、図5に示すステア角度テーブルT1とポインタPとを内部に記憶し、ポインタPが指すエントリーに従って複数のステア角度を順次指定する。このステア角度テーブルT1は、エントリー番号(図中のno.)とステア角度群(複数のステア角度θ1、θ2、θ3)を対応させて格納する。同図のステア角度テーブルT1では、エントリー番号1、2、3の順にステア角度差が大きくなるようにステア角度群が設定されている。ポインタPが保持するエントリー番号は、デフォルト値あるいは操作者により選択的に設定される。
The transmission / reception control unit 102 performs transmission / reception of sound in the ultrasonic array probe 101 and control of the steer angle according to the instruction of the steering angle instruction unit 103.
The steer angle instructing unit 103 instructs the transmission / reception control unit 102 on a plurality of steer angles in the compound scan.
For example, the steer angle instruction unit 103 internally stores the steer angle table T1 and the pointer P shown in FIG. 5, and sequentially designates a plurality of steer angles according to the entry pointed to by the pointer P. The steer angle table T1 stores an entry number (No. in the figure) and a steer angle group (a plurality of steer angles θ1, θ2, θ3) in association with each other. In the steer angle table T1 of FIG. 7, the steer angle groups are set so that the steer angle difference increases in the order of entry numbers 1, 2, and 3. The entry number held by the pointer P is set to a default value or selectively set by an operator.

画像生成部104は、送受信制御部102の制御により受信したステア角度毎の音信号に含まれる信号のうち、周波数帯域選択部105により選択された周波数帯域の信号に対して増幅演算や補間演算等を行なって画像を生成する。
周波数帯域選択部105は、ステア角度指示部103が指示したステア角度毎に、周波数帯域を選択して画像生成部104に指定する。その際、周波数帯域選択部105は、少なくとも2つが異なるよう周波数帯域を選択する。これは、画像生成部104に、反射信号のうち異なる周波数帯域の信号に基づいて画像を生成させるためであり、周波数帯域が異なればスペックルのノイズの出現パターンが異なるからである。
The image generation unit 104 performs an amplification operation, an interpolation operation, and the like on a signal in the frequency band selected by the frequency band selection unit 105 among the signals included in the sound signal for each steering angle received under the control of the transmission / reception control unit 102. To generate an image.
The frequency band selection unit 105 selects a frequency band for each steer angle specified by the steer angle instruction unit 103 and specifies the frequency band to the image generation unit 104. At that time, the frequency band selection unit 105 selects a frequency band such that at least two are different. This is to cause the image generation unit 104 to generate an image based on signals of different frequency bands among the reflected signals, and that the appearance patterns of speckle noise are different in different frequency bands.

具体的な構成例として、周波数帯域選択部105は、図6(a)に示すような周波数帯域テーブルT2とポインタQと、図6(b)に示すようなポインタ対応テーブルT3とを内部に記憶し、ポインタQが指すエントリーに従って周波数帯域を順次指定する。この周波数帯域テーブルT2は、エントリー番号(図中のno.)と周波数帯域群(複数の周波数帯域ω1、ω2、ω3)とを対応させて格納する。ここで、ω1は超音波アレイプローブ101から送信した音信号と同じ周波数の基本波帯域、ω2は基本波の2倍の周波数の二次高調波帯域、ω3は基本波の3倍の周波数の三次高調波帯域である。   As a specific configuration example, the frequency band selection unit 105 stores therein a frequency band table T2 and a pointer Q as shown in FIG. 6A, and a pointer correspondence table T3 as shown in FIG. 6B. Then, the frequency bands are sequentially designated according to the entry indicated by the pointer Q. This frequency band table T2 stores entry numbers (No. in the figure) and frequency band groups (a plurality of frequency bands ω1, ω2, ω3) in association with each other. Here, ω1 is a fundamental band having the same frequency as the sound signal transmitted from the ultrasonic array probe 101, ω2 is a second harmonic band having a frequency twice the fundamental wave, and ω3 is a third harmonic having a frequency three times the fundamental wave. It is a harmonic band.

ポインタ対応テーブルT3はポインタPとポインタQとを対応させたテーブルである。この例では、ステア角度差が小さいステア角度群(図5のno.1のエントリー)には、帯域差が大きい周波数帯域群(図6のno.1のエントリー)を対応させるようにポインタ同士を対応させている。つまり、図5の1エントリーと図6の1エントリーとを、ポインタ対応テーブルT3により結びついた一組とすると、第1の組(図5のno.1と図6のno.1)の角度群のステア角度差(5°)が第2の組(図5のno.3と図6のno.4)における角度群のステア角度差(15°)よりも小さい場合、第1の帯域群(図6のno.1エントリー)の帯域差が第2の帯域群(図6のno.4)の帯域差よりも大きくなるよう設定されている。これは、ステア角度差が小さいほど、スペックルノイズの出現パターンの差が小さいと考えられるので、周波数帯域の差を大きくすることでスペックルノイズの出現パターンの差が大きくなるようにするためである。   The pointer correspondence table T3 is a table in which the pointer P and the pointer Q are associated. In this example, pointers are set so that a steer angle group with a small steer angle difference (entry No. 1 in FIG. 5) corresponds to a frequency band group with a large band difference (entry No. 1 in FIG. 6). I correspond. That is, assuming that one entry in FIG. 5 and one entry in FIG. 6 are a set linked by the pointer correspondence table T3, the angle group of the first set (No. 1 in FIG. 5 and No. 1 in FIG. 6). Is smaller than the steer angle difference (15 °) of the angle group in the second set (No. 3 in FIG. 5 and No. 4 in FIG. 6), the first band group ( The band difference of the second band group (No. 4 in FIG. 6) is set to be larger than the band difference of the second band group (No. 4 in FIG. 6). This is because the smaller the steer angle difference, the smaller the difference in the speckle noise appearance pattern, so the larger the frequency band difference, the larger the speckle noise appearance pattern difference. is there.

画像合成部106は、画像生成部104によってステア角度毎に生成された画像について、同じ位置の画素同士を例えば重み付けして加算平均することにより合成し、合成画像を画像格納部107及びフレームメモリ108に格納する。
画像格納部107は、オフライン時に合成画像を読み出してフレームメモリ108を介して画像表示部109に表示するために備えられている。
The image synthesizing unit 106 synthesizes the image generated for each steering angle by the image generating unit 104 by, for example, weighting and averaging the pixels at the same position, and then combining the synthesized image with the image storage unit 107 and the frame memory 108. To be stored.
The image storage unit 107 is provided for reading out a composite image when offline and displaying the composite image on the image display unit 109 via the frame memory 108.

フレームメモリ108は、リアルタイム処理時の画像合成部106からの合成画像またはオフライン時の画像格納部107からの合成画像を記憶するフレームメモリである。
画像表示部109は、図3に示した表示装置11に相当する。
The frame memory 108 is a frame memory that stores a synthesized image from the image synthesis unit 106 during real-time processing or a synthesized image from the image storage unit 107 during offline processing.
The image display unit 109 corresponds to the display device 11 shown in FIG.

図7は、ステア角度指示部103により指示されたステア角度と、周波数帯域選択部105により選択された周波数帯域と、画像生成部104により生成される画像との関係を説明する図である。   FIG. 7 is a diagram illustrating the relationship between the steer angle specified by the steer angle specifying unit 103, the frequency band selected by the frequency band selection unit 105, and the image generated by the image generation unit 104.

同図の最上段(第一段目)は、超音波アレイプローブ101(プローブ13)から送信されるステア角度を示し、実際には超音波アレイプローブ101は一箇所に固定されて3方向に音波を送信するが便宜上方向に合わせて3つ記してある。
第二段目は、超音波アレイプローブ101からの送信波s1の周波数帯域ω1(基本波)を示している。
The uppermost row (first row) in the figure shows the steer angle transmitted from the ultrasonic array probe 101 (probe 13), and in actuality, the ultrasonic array probe 101 is fixed at one position and the sound wave is transmitted in three directions. Are transmitted, but three are described in the direction for convenience.
The second row shows the frequency band ω1 (fundamental wave) of the transmission wave s1 from the ultrasonic array probe 101.

第三段目は、画像生成部104が、ステア角度θ1の反射信号では周波数帯域ω1の信号r11を用いて、ステア角度θ2の反射信号では周波数帯域ω2の信号r22を用いて、ステア角度θ3の反射信号では周波数帯域ω3の信号r33を用いて、それぞれ画像d11、d22、d33を生成することを示している。これは、図6(a)に示した周波数帯域テーブルT2のエントリー番号no.1の周波数帯域が指定された場合に相当する。   In the third stage, the image generation unit 104 uses the signal r11 of the frequency band ω1 for the reflected signal of the steer angle θ1, and uses the signal r22 of the frequency band ω2 for the reflected signal of the steer angle θ2. In the reflected signal, the images r11, d22, and d33 are generated using the signal r33 in the frequency band ω3. This corresponds to the case where the frequency band of entry number no. 1 in the frequency band table T2 shown in FIG.

第四段目は生成された3つ画像r11、r22、r33を示す。この3つの画像は、互いにステア角度も周波数帯も異なるので、スペックルノイズの発生パターンの差も大きくなる。
第五段目はそれらの画像の合成結果d1を示す。これによりスペックルノイズを十分に除去することができる。すなわち、3個の生成画像のスペックルノイズの発生パターンの差が大きいので、合成された画像に対するスペックルノイズを除去又は低減することができる。また、この合成は、例えば、3つの画像中の同じ位置の対応する画素それぞれについて、重み係数をα1、α2、α3を用いて加重平均を取ることによる。
The fourth row shows the three generated images r11, r22, and r33. Since these three images have different steer angles and different frequency bands, the difference in speckle noise generation patterns is also large.
The fifth row shows the synthesis result d1 of those images. As a result, speckle noise can be sufficiently removed. That is, since there is a large difference between the speckle noise generation patterns of the three generated images, it is possible to remove or reduce the speckle noise in the synthesized image. This combination is performed, for example, by taking weighted averages of the corresponding pixels at the same position in the three images using α1, α2, and α3.

ここで、α1:α2:α3は、例えば1:10:100でよい。反射信号に含まれる基本波、二次高調波、三次高調波の振幅の比は、おおよそ100:10:1程度だからである。
また、α1:α2:α3を1:1:1とすれば、スペックルノイズの除去は不十分ではあるが、基本波の画像の上に高調波成分による輪郭強調成分が付加されることになる。
Here, α1: α2: α3 may be, for example, 1: 10: 100. This is because the ratio of the amplitude of the fundamental wave, the second harmonic, and the third harmonic included in the reflected signal is approximately 100: 10: 1.
If α1: α2: α3 is set to 1: 1: 1, the removal of speckle noise is insufficient, but a contour enhancement component due to a harmonic component is added to the image of the fundamental wave. .

図8は、ステア角度と周波数帯と生成画像との関係を説明する他の一例である。同図は、図7と比べて、ステア角度θ3に対する周波数帯がω3ではなくω1である点が異なる。
同図第四段において、画像生成部104により生成された3つの画像r11、r22、r31のうち、ステア角度θ1とθ3の反射波から生成された2つの画像r11、r31は、ともに周波数帯域ω1が同じであるが、ステア角度の差(θ1とθ3の角度差)が大きいので、スペックルノイズの発生パターンの差も大きくなる。ステア角度θ1とθ2の反射波から生成された2つの画像r11、r22は、ステア角度の差(θ1とθ2の角度差)は大きくないが、周波数帯域がω1とω2と異なるので、スペックルノイズの発生パターンの差が大きくなる。ステア角度θ2とθ3に対する2つの画像r22、r31についても同様である。
FIG. 8 is another example illustrating the relationship between the steering angle, the frequency band, and the generated image. 7 differs from FIG. 7 in that the frequency band for the steering angle θ3 is not ω3 but ω1.
In the fourth row of the figure, of the three images r11, r22, and r31 generated by the image generation unit 104, two images r11 and r31 generated from the reflected waves at the steer angles θ1 and θ3 have the same frequency band ω1. Are the same, but since the difference between the steering angles (the angle difference between θ1 and θ3) is large, the difference between the patterns of occurrence of speckle noise is also large. In the two images r11 and r22 generated from the reflected waves at the steer angles θ1 and θ2, the difference between the steer angles (the angle difference between θ1 and θ2) is not large, but the frequency band is different between ω1 and ω2, so the speckle noise The difference in the pattern of occurrence of is large. The same applies to the two images r22 and r31 corresponding to the steering angles θ2 and θ3.

図9は、1つのステア角度と周波数帯と生成画像との関係を説明するさらに他の一例である。同図は、図7および図8と比べて、送信波のステア角度が3つではなく、1つである点が異なっている。すなわち、送信波s1は、1つのステア角度θ2で送出されている。
同図第四段において、画像生成部104により生成された3つの画像r21、r22、r23のうち、ステア角度θ2の反射波から生成された3つの画像d21、d22、d23は、ともにステア角度は同じであるが、周波数帯域がω1、ω2、ω3と異なっているので、スペックルノイズの発生パターンも異なる。この点、図7、8のように複数の画像のステア角度も周波数帯域も異なっている方が、スペックルノイズを十分に除去しやすいが、図9のように周波数帯が異なるだけでも、スペックルノイズを低減することができる。
FIG. 9 is another example illustrating the relationship between one steering angle, a frequency band, and a generated image. 7 differs from FIGS. 7 and 8 in that the steer angle of the transmission wave is one instead of three. That is, the transmission wave s1 is transmitted at one steering angle θ2.
In the fourth row of the figure, among the three images r21, r22, and r23 generated by the image generation unit 104, the three images d21, d22, and d23 generated from the reflected waves at the steer angle θ2 all have a steer angle. Although the same, the frequency bands are different from ω1, ω2, ω3, so the speckle noise generation pattern is also different. In this regard, if the steer angles and the frequency bands of a plurality of images are different from each other as shown in FIGS. 7 and 8, it is easy to sufficiently remove speckle noise. However, even if the frequency bands are different as shown in FIG. Noise can be reduced.

図10(a)、図10(b)は、周波数帯域が異なる場合にスペックルノイズの出現パターンが異なることを説明する説明図である。図10(a)は基本波帯域の反射波(エコー)の様子を模式的に示す。図中の被写体A、B、Cは、基本波の波長と同程度の間隔で位置している。各波形の縦軸(下向き)は超音波アレイプローブ101からの距離(被写体深さd)を、横軸は輝度を表す。被写体A、B、Cからの各エコーA、B、Cは、当該被写体による反射波のみを超音波アレイプローブ101にて受信できたと仮定した場合の各波形を示す。合成されたエコーは、受信波として画像生成に使用される波形を示す。   FIGS. 10A and 10B are explanatory diagrams illustrating that the appearance pattern of speckle noise is different when the frequency band is different. FIG. 10A schematically shows a state of a reflected wave (echo) in the fundamental wave band. The subjects A, B, and C in the figure are located at the same interval as the wavelength of the fundamental wave. The vertical axis (downward) of each waveform represents the distance (subject depth d) from the ultrasonic array probe 101, and the horizontal axis represents luminance. Each of the echoes A, B, and C from the subjects A, B, and C show respective waveforms when it is assumed that only the reflected wave from the subject can be received by the ultrasonic array probe 101. The synthesized echo indicates a waveform used for image generation as a received wave.

同様に、図10(b)は二次高調波(エコー)の様子を模式的に示す。
図10(a)及び(b)において合成されたエコーは、それぞれ干渉により確率的に発生する高輝度部n1、n2を有し、この高輝度成分がスペックル(斑点)としてスペックルノイズの原因となる。
ところが、図10(a)における基本波帯域の合成されたエコーの被写体深さd1と図10(b)における二次高調波帯域の合成されたエコーの被写体深さd2とは、場所的なずれが生じる。その結果、基本波帯域のエコー生成された画像におけるスペックルの分布パターン(あるいは変動成分の現れ方)と、二次高調波帯域のそれとは大きく異なったものとなる。したがって、生成された画像を合成すれば、変動成分の影響を小さくすることができる(ホワイトノイズとして捉える)。
Similarly, FIG. 10B schematically shows the appearance of the second harmonic (echo).
Each of the echoes synthesized in FIGS. 10A and 10B has high luminance portions n1 and n2 stochastically generated by interference, and the high luminance component causes speckle noise as speckles (speckles). It becomes.
However, the subject depth d1 of the combined echo of the fundamental wave band in FIG. 10A and the subject depth d2 of the combined echo of the second harmonic band in FIG. Occurs. As a result, the speckle distribution pattern (or the manner in which the fluctuation component appears) in the image in which the echo is generated in the fundamental wave band is significantly different from that in the second harmonic band. Therefore, by combining the generated images, the influence of the fluctuation component can be reduced (captured as white noise).

以上のように構成された本発明の実施の形態1における超音波診断装置10について、その動作を説明する。
図11は、超音波診断装置10における合成画像の生成までの処理を示すフローチャートであり、図7、6に示した処理の手順を示す。
同図において、ループ1(ステップ80〜85)は、スキャンするステア角度の数と同数回のループであるので、1回分の処理について説明する。ステア角度指示部103がステア角度テーブルT1(図5)からステア角度θiを読み出して送受信制御部102に当該ステア角度を指示すると(ステップ81)、送受信制御部102は、超音波アレイプローブ101を制御して当該ステア角度で超音波を送信し、反射波を受信し(ステップ82)、受信信号を画像生成部104に出力する。その際、周波数帯域選択部105は周波数帯域テーブルT2(図6(a))からθiに対応する周波数帯域ωを読み出すことにより選択し画像生成部104に指示する(ステップ83)。画像生成部104は、送受信制御部102からの受信信号のうち周波数帯域選択部105に指示された周波数帯域の信号に基づいて画像を生成する(ステップ84)。このループ1の処理により、ステア角度指示部103により指定されたステア角度毎に、反射信号のうち周波数帯域選択部105に選択された周波数帯域の信号に基づいて画像が生成される。
The operation of the ultrasonic diagnostic apparatus 10 according to Embodiment 1 of the present invention configured as described above will be described.
FIG. 11 is a flowchart showing processing up to generation of a composite image in the ultrasonic diagnostic apparatus 10, and shows the procedure of the processing shown in FIGS.
In the figure, a loop 1 (steps 80 to 85) is the same number of times as the number of steer angles to be scanned, and therefore, only one process will be described. When the steer angle instructing unit 103 reads out the steer angle θi from the steer angle table T1 (FIG. 5) and instructs the transmission / reception control unit 102 to the steer angle (step 81), the transmission / reception control unit 102 controls the ultrasonic array probe 101. Then, an ultrasonic wave is transmitted at the steer angle, a reflected wave is received (step 82), and a received signal is output to the image generation unit 104. At this time, the frequency band selection unit 105 reads out and selects the frequency band ω corresponding to θi from the frequency band table T2 (FIG. 6A), and instructs the image generation unit 104 (step 83). The image generation unit 104 generates an image based on the signal of the frequency band specified by the frequency band selection unit 105 among the reception signals from the transmission / reception control unit 102 (step 84). By the processing of this loop 1, an image is generated for each steer angle specified by the steer angle instructing unit 103, based on the signal of the frequency band selected by the frequency band selecting unit 105 among the reflected signals.

以上説明してきたように本実施の形態における超音波診断装置によれば、本発明はスペックルノイズの発生原理を踏まえ、ステア角度毎に、周波数帯域に違いを持たせることによって、ステア角度毎の生成画像のスペックルノイズ出現パターンの違いを大きくし、合成後の影響を小さくし、スペックルノイズを除去又は低減することができる。
なお、ステア角度指示部103は、複数のステア角度のうち特定のステア角度に対しては、他と異なる周波数帯域を指定するように構成してもよいし、操作者入力を受ける構成としてもよい。こうすれば、特定のステア角度に対しては、他と異なる周波数帯域を指定するという簡単な構成により実現できる。周波数帯域選択部105についても同様である。
As described above, according to the ultrasonic diagnostic apparatus in the present embodiment, the present invention takes into account the generation principle of speckle noise, and provides a difference in frequency band for each steer angle, for each steer angle. It is possible to increase the difference in the speckle noise appearance pattern of the generated image, reduce the effect after combination, and remove or reduce speckle noise.
Note that the steer angle instruction unit 103 may be configured to specify a frequency band different from the others for a specific steer angle among a plurality of steer angles, or may be configured to receive an operator input. . In this way, a specific steer angle can be realized by a simple configuration in which a different frequency band is designated. The same applies to the frequency band selection unit 105.

また、スキャン時のステア角度の数を3つとしているが、これに限らない。スキャン時のステア角度の数は、ステア角度テーブルT1のステア角度θ1、θ2、θ3、・・・の数により決まる。このステア角度テーブルT1に所望の個数のステア角度を記しておけばよい。これとともに周波数帯域テーブルT2に同数の周波数帯域を記しておけばよい。
また、図9に示したように1つのステア角度における反射波に含まれる異なる周波数帯域の受信波からそれぞれ画像を生成し、生成した画像を合成するようにしてもよい。
Further, the number of steer angles at the time of scanning is three, but is not limited to this. The number of steering angles at the time of scanning is determined by the number of steering angles θ1, θ2, θ3,... In the steering angle table T1. A desired number of steer angles may be written in the steer angle table T1. At the same time, the same number of frequency bands may be written in the frequency band table T2.
Further, as shown in FIG. 9, images may be generated from received waves in different frequency bands included in reflected waves at one steer angle, and the generated images may be combined.

さらに、上記実施の形態では、画像合成部106は、画像生成部104により生成された画像について、重み係数α1、α2、・・・を用いて画像を合成する構成を説明したが、画像生成部104において、各周波数帯域の信号に対して重み付けを行ってから画像を生成する構成としてもよい。その際、重み係数は、上記α1、α2、・・・と同様に、周波数帯域毎の信号強度に反比例するような値とすればよい。
(実施の形態2)
図12は、本発明の実施の形態2における超音波診断装置の構成を示すブロック図である。同装置は、図4に示した構成と比較して、新たに閾値設定部201、閾値マスク生成部202を追加した点と、画像合成部106の代わりに画像合成部200を備える点とが異なる。
Further, in the above-described embodiment, the configuration has been described in which the image combining unit 106 combines the images generated by the image generating unit 104 using the weighting factors α1, α2,. In 104, an image may be generated after weighting the signal of each frequency band. At this time, the weighting coefficient may be a value that is inversely proportional to the signal strength for each frequency band, similarly to α1, α2,.
(Embodiment 2)
FIG. 12 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 2 of the present invention. This apparatus is different from the configuration shown in FIG. 4 in that a threshold setting unit 201 and a threshold mask generation unit 202 are newly added, and that an image synthesizing unit 200 is provided instead of the image synthesizing unit 106. .

実施の形態1の画像合成部106が加重平均により画像を合成していたのに対して、本実施の形態では、輪郭となる画素値の近辺の画素値を強調するよう合成する演算方法を導入するとともに、複数の合成演算方法のうちから、輪郭を含む領域であるかそれ以外の領域であるかに応じて何れかの演算方法を選択可能にすることによって、画像中の輪郭を含む領域をよりきれいに表示するよう構成している。図12において、図4と同じ符号を付した構成要素は同じ機能を有するので、主に異なる点を説明する。   In contrast to the image combining unit 106 according to the first embodiment that combines images by weighted averaging, the present embodiment introduces a calculation method that combines pixels so as to emphasize pixel values near pixel values that are contours. In addition, an area including an outline in an image can be selected from a plurality of synthesis operation methods according to whether the operation method is selectable depending on whether the area is an area including an outline or another area. It is configured to display more clearly. In FIG. 12, components denoted by the same reference numerals as in FIG. 4 have the same functions, and therefore, different points will be mainly described.

画像合成部200は、実施の形態1の画像合成部106が加重平均により画像を合成していたのに対して、複数の合成演算方法のうちから、輪郭を含む領域であるかそれ以外の領域であるかに応じて何れかの演算方法を選択可能な構成とするため、最大値検出部203、加算平均演算部204、調和平均演算部205、画素値演算部206、合成方法選択部207を備える。   The image synthesizing unit 200 is configured to synthesize the image by the weighted average by the image synthesizing unit 106 according to the first embodiment. , The maximum value detection unit 203, the averaging calculation unit 204, the harmonic averaging calculation unit 205, the pixel value calculation unit 206, and the combining method selection unit 207 are selected. Prepare.

最大値検出部203は、画像生成部104に生成された複数の画像データの、対応する画素について最大値を検出する。つまり、最大値検出部203は、複数の画像データの同じ位置にある画素値に注目し、もっとも大きい画素値を持つものを選択して、合成画像の対応する位置の画素値とするものである。この手法は、その位置には被写体描出する信号が存在することが明らかな場合、より高い輝度で被写体の描出が可能となるという点で有効である。   The maximum value detection unit 203 detects a maximum value for a corresponding pixel of a plurality of pieces of image data generated by the image generation unit 104. That is, the maximum value detection unit 203 focuses on the pixel values at the same position in the plurality of image data, selects the pixel value having the largest pixel value, and sets the pixel value at the corresponding position in the composite image. . This method is effective in that, when it is clear that a signal representing a subject exists at that position, the subject can be depicted with higher luminance.

加算平均演算部204は、画像生成部104に生成された複数の画像データの、対応する画素について加算平均を求め、合成結果の画像における当該画素の画素値とする。加算平均は、コンパウンドスキャンで合成画像を生成する際には最も一般的に用いられる手法である。加算平均による合成画像の画素値f_g(i)は次式で表現される。
f_g(i)=(f_0(i)+f_1(i)+…+f_(M−1)(i))/M
ただし、合成の対象となる画像データ(その画素数をNとする)の個数をM、m(mは0〜(M−1))番目の画像データのi(iは1〜N)番目の画素をf_m(i)、合成画像のi番目の画素値をf_g(i)とする。
The averaging operation unit 204 calculates the averaging of the corresponding pixels of the plurality of pieces of image data generated by the image generation unit 104, and sets the obtained average as the pixel value of the pixel in the combined image. The averaging is the most commonly used technique when generating a composite image by compound scanning. The pixel value f_g (i) of the composite image obtained by the averaging is expressed by the following equation.
f_g (i) = (f_0 (i) + f_1 (i) + ... + f_ (M-1) (i)) / M
Here, the number of image data to be synthesized (the number of pixels thereof is N) is M, and the i-th (i is 1 to N) -th of the m-th (m is 0 to (M-1))-th image data Let the pixel be f_m (i) and the i-th pixel value of the composite image be f_g (i).

加算平均による合成画像は、複数の画像間の画素値が均等に合成画像の画素値に反映され、一見自然な合成結果が得られる。また、重ね合わせ効果により、LPF(Low Pass Filter)効果も得られるため、この処理を行なうことでガウス分布に従う一般のホワイトノイズの影響は弱められる。スペックルノイズも複数の画像データ間で出現パターンが異なる場合は同様の効果が期待できるが、一方で明確に描出したい被写体輪郭にもボケが生じてしまうため、この手法単独での使用は望ましくない。   In a composite image obtained by averaging, pixel values among a plurality of images are uniformly reflected on the pixel values of the composite image, and a seemingly natural composite result is obtained. Further, since an LPF (Low Pass Filter) effect is also obtained by the superposition effect, the effect of general white noise following a Gaussian distribution is reduced by performing this processing. Speckle noise can be expected to have the same effect when the appearance pattern differs between a plurality of image data, but on the other hand, blurring also occurs in the outline of the subject to be clearly drawn, so use of this method alone is not desirable. .

調和平均演算部205は、画像生成部104に生成された複数の画像データの、対応する画素について調和平均を求め、合成結果の画像における当該画素の画素値とする。調和平均による合成画像の画素値f_g(i)は次式で表現される。
f_g(i)=M/((1/f_0(i))+(1/f_0(i))+…+(1/f_(M−1)(i)))
調和平均の算出では画素値として0もしくは負の値が存在する場合は計算できないが、画素値が0の場合は非0の正の値(例えば1)に置き換えるなどの処理を行なう。画素値は負の値は一般には含まれないが、もし存在した場合は非0の正の値に置き換えるなどの処理を行う。調和平均によれば、極端に値の離れた値(大きな値)が存在する場合、この値のf_g(i)への影響を小さくすることができる。
The harmonic average calculation unit 205 calculates a harmonic average for a corresponding pixel of the plurality of image data generated by the image generation unit 104, and sets the average as a pixel value of the pixel in the image of the synthesis result. The pixel value f_g (i) of the composite image based on the harmonic mean is expressed by the following equation.
f_g (i) = M / ((1 / f_0 (i)) + (1 / f_0 (i)) + ... + (1 / f_ (M-1) (i)))
In the calculation of the harmonic mean, the calculation cannot be performed when the pixel value is 0 or a negative value. However, when the pixel value is 0, a process of replacing the pixel value with a non-zero positive value (for example, 1) is performed. The pixel value does not generally include a negative value, but if present, performs processing such as replacing the pixel value with a non-zero positive value. According to the harmonic averaging, when there is a value (large value) that is extremely different from the value, the influence of this value on f_g (i) can be reduced.

画素値演算部206は、画像生成部104に生成された複数の画像データの、対応する画素について、合成画像の画素値を次に示す式f_g(i)に従って画素値を求め、合成結果の画像における当該画素の画素値とする。
f_g(i)=S−M/((1/(S−f_0(i)))+(1/(S−f_1(i)))+…+(1/(S−f_(N−1)(i))))
ここで、Sは、f_m(i)が取りうる値を超えない値を持ち、基準となる値である。つまり、このSに近い画素値はf_g(i)において強調されるように反映される。この画素演算を行なう場合にはf_m(i)はS以外かつ正の値をとる必要があるので、もしf_m(i)がSに等しい場合はその値をS以外のSに近い正の値(例えばS+1など)に置き換える。
The pixel value calculation unit 206 calculates the pixel value of the composite image for the corresponding pixel of the plurality of image data generated by the image generation unit 104 according to the following expression f_g (i), and obtains the image of the composite result. Is the pixel value of the pixel.
f_g (i) = SM / ((1 / (S-f_0 (i))) + (1 / (S-f_1 (i))) + ... + (1 / (S-f_ (N-1)) (I))))
Here, S has a value that does not exceed a value f_m (i) can take and is a reference value. That is, the pixel value close to S is reflected so as to be emphasized in f_g (i). When performing this pixel operation, f_m (i) must be a positive value other than S, and if f_m (i) is equal to S, the value is changed to a positive value close to S other than S ( (For example, S + 1).

合成方法選択部207は、画像生成部104により生成されたステア角度毎の画像に対して、輪郭を含む領域内の画素については、上記4つの演算部203〜206の何れか一つ演算部を、それ以外の領域内の画素については異なる演算部を選択して、実行させる。輪郭を含む領域であるか否かは、閾値設定部201、閾値マスク生成部202により生成されるマスクデータによる。つまり、合成方法選択部207は、前記閾値マスク生成部202が生成したマスクデータに基づき、画素毎に画像合成の方法を上記4つの演算部201〜204から選択する。   The synthesis method selection unit 207 determines whether any one of the four calculation units 203 to 206 is to be used for the pixels in the region including the contour in the image for each steer angle generated by the image generation unit 104. For the pixels in the other area, a different operation unit is selected and executed. Whether or not the area includes an outline depends on the mask data generated by the threshold value setting unit 201 and the threshold value mask generation unit 202. That is, the synthesizing method selecting unit 207 selects an image synthesizing method for each pixel from the four arithmetic units 201 to 204 based on the mask data generated by the threshold mask generating unit 202.

閾値設定部201は、画像生成部104によって生成された各画像について閾値を設定する。閾値の設定方法としては、(ア)ユーザーが超音波診断装置に付属する入力装置(キーボード、トラックボール、各種スイッチなど)を使用して任意の値に設定する場合と、(イ)音信号の周波数、画像生成時の増幅率、使用した帯域、合成方法などのパラメータによってあらかじめ決められた値とする場合、(ウ)合成対象となる画像データの任意領域を指定し、その領域における画素値の平均値や中間値、最大値や最小値などの値を閾値として設定する場合等がある。   The threshold setting unit 201 sets a threshold for each image generated by the image generation unit 104. The threshold can be set in two ways: (a) when the user sets an arbitrary value using an input device (keyboard, trackball, various switches, etc.) attached to the ultrasonic diagnostic apparatus; If the value is determined in advance by parameters such as a frequency, an amplification factor at the time of image generation, a used band, and a combining method, (c) an arbitrary region of image data to be combined is designated, and a pixel value of the region is determined. There are cases where a value such as an average value, an intermediate value, a maximum value, or a minimum value is set as a threshold.

閾値マスク生成部202は、前記閾値設定部201に設定された閾値に従って、画像データの画素値の大小を判定し、その結果を収めたマスクデータを作成する。ここでのマスクデータは、画素が閾値を超えた否かを示すものであり、閾値は画像における輪郭及びその近辺の画素値の限界を示す値として設定される。
図13は、マスクデータの生成方法の一例について説明した図である。
The threshold mask generation unit 202 determines the magnitude of the pixel value of the image data according to the threshold set in the threshold setting unit 201, and creates mask data containing the result. The mask data here indicates whether or not a pixel exceeds a threshold value, and the threshold value is set as a value indicating a limit of a pixel value in an outline of the image and its vicinity.
FIG. 13 is a diagram illustrating an example of a method of generating mask data.

ここでは閾値はある値Thの1つのみが与えられており、閾値マスク生成部202は、N個の画素値を持つ3個の画像データ(f_1、f_2、f_3)より合成画像を生成するものとする。
画像データf_1のある画素f_1(i)(iは1〜N)がThより大きい場合、この画像データに対するマスクデータT_f1(i)=1とする。これは輪郭及びその近辺の領域の画素であること意味する。Th以下の場合はT_f1(i)=0とする。これは、それ以外の領域であることを意味する。閾値マスク生成部202は、この処理をすべての画素値に対して行い、また3個の画像データに対しても同様に処理を行なって、同図上段に示したそれぞれのマスクデータT_f1、T_f2、T_f3を生成する。
Here, only one threshold value Th is given, and the threshold mask generation unit 202 generates a composite image from three pieces of image data (f_1, f_2, f_3) having N pixel values. And
When a certain pixel f_1 (i) (i is 1 to N) of the image data f_1 is larger than Th, the mask data T_f1 (i) for this image data is set to 1. This means that it is a pixel in the contour and the area near the contour. If it is less than Th, T_f1 (i) = 0. This means that it is the other area. The threshold mask generation unit 202 performs this processing for all the pixel values, and also performs the same processing for the three pieces of image data, so that the respective mask data T_f1, T_f2, Generate T_f3.

さらに、同図下段に示すように、閾値マスク生成部202は、3個のマスクデータT_f1、T_f2、T_f3から合成に使用するマスクデータT_g(i)を生成する。同図の3個のマスクデータは、マスク値は1(白の部分)か0(黒の部分)の値をとる。ここでは3個のマスクデータの論理和を取ったものを合成用のマスクデータとしている。
これは一例であり、すべての画像データで閾値以上となっている画像を得たい場合には論理積によって合成用閾値マスクデータとすればよいし、またマスクデータ1画素あたりのビット数を増やしてマスクデータ0と1以外の値を持たせて多値にしてもよい。その場合は、画像における輪郭及びその近辺の領域や、低輝度の領域など、3以上の領域を判別することができる。
Further, as shown in the lower part of the figure, the threshold mask generation unit 202 generates mask data T_g (i) to be used for synthesis from the three mask data T_f1, T_f2, and T_f3. In the three mask data shown in the figure, the mask value takes a value of 1 (white portion) or 0 (black portion). Here, the result of the logical sum of the three mask data is used as the mask data for synthesis.
This is an example, and if it is desired to obtain an image that is equal to or larger than the threshold value in all the image data, the masking data for synthesis may be obtained by logical product and the number of bits per pixel of the mask data may be increased. The mask data may have a value other than 0 and 1 to be multi-valued. In that case, three or more areas such as an outline in the image and an area in the vicinity thereof and a low-luminance area can be determined.

以上のように構成された本実施の形態における超音波診断装置について、その動作を説明する。
図14は、画像合成部200の合成動作を示すフローチャートである。同図において、ループ1(ステップ101〜107)は、画像生成部104に生成された画像の画素数Nと同数回行われるので、以下その1回分について説明する。
The operation of the ultrasonic diagnostic apparatus according to the present embodiment configured as described above will be described.
FIG. 14 is a flowchart illustrating the combining operation of the image combining unit 200. In the figure, the loop 1 (steps 101 to 107) is performed the same number of times as the number N of pixels of the image generated by the image generation unit 104, and therefore, only one of the loops will be described below.

合成方法選択部207は、合成対象の画素に対応するマスクデータT_g(i)=1であるか(輪郭を含む領域1)であるか、T_g(i)=0(それ以外の領域0)であるかを判定し(ステップ102)、判定結果に応じて(ステップ103)領域1用の演算を選択(ステップ105)又は領域0用の演算を選択(ステップ104)し、演算部203〜206のうち選択された演算に対応する演算部により画素の合成演算をさせる(ステップ106)。   The combining method selecting unit 207 determines whether the mask data T_g (i) corresponding to the pixel to be combined is 1 (region 1 including the contour) or T_g (i) = 0 (other region 0). It is determined whether there is any data (step 102), and according to the determination result (step 103), the calculation for area 1 is selected (step 105) or the calculation for area 0 is selected (step 104). An arithmetic unit corresponding to the selected operation performs a pixel synthesis operation (step 106).

このように、合成方法選択部207は、閾値マスク生成部202により生成された閾値マスクデータT_g(i)の値によって合成方法の選択を行なう。すなわちT_g(i)が0と1の2値で構成されている場合、例えばT_g(i)=0の領域はf_1(i)、f_2(i)、f_3(i)の加算平均、T_g(i)=1の領域は最大値検出を行なうなどである。   As described above, the combining method selecting unit 207 selects a combining method based on the value of the threshold mask data T_g (i) generated by the threshold mask generating unit 202. In other words, when T_g (i) is composed of binary values of 0 and 1, for example, in the region of T_g (i) = 0, the average of f_1 (i), f_2 (i), f_3 (i), T_g (i) In the area where) = 1, the maximum value is detected.

また、T_g(i)=1である場合、iという場所には検査対象物の存在を示す高い輝度値があるということであるので、3個の画像データf_1(i)、f_2(i)、f_3(i)のうち最も高い輝度を選択することで、より明瞭に被写体を描出することが可能となる。T_g(i)=0の場合、iという場所が被写体内の輪郭部分に該当せず、したがってその場所の輝度値はノイズを表す可能性が高い。このような信号に対し加算平均処理を行なうと、LPF効果が得られ、合成画像ではノイズ成分は抑えられることとなる。   Further, when T_g (i) = 1, it means that there is a high luminance value indicating the presence of the inspection object at the location i, so that three pieces of image data f_1 (i), f_2 (i), By selecting the highest luminance of f_3 (i), it is possible to more clearly depict the subject. When T_g (i) = 0, the location i does not correspond to the contour portion in the subject, and therefore, the luminance value at that location is likely to represent noise. When the averaging process is performed on such a signal, an LPF effect is obtained, and a noise component is suppressed in the composite image.

また、閾値マスクデータT_g(i)が0、1以外の値を持つ場合(三値以上の場合)にはその値毎に合成方法を選択すればよい。
ここで、各演算部の選択について補足説明する。
調和平均処理の場合、一連のデータ群の中で極端に値の異なる(大きい)データがあったときに、この影響を軽減することができる。
When the threshold mask data T_g (i) has a value other than 0 or 1 (three or more values), a combining method may be selected for each value.
Here, the selection of each operation unit will be supplementarily described.
In the case of the harmonic averaging process, when there is extremely different (large) data in a series of data groups, the influence can be reduced.

第1例として{80,90,100,1000}というデータ組があった場合、加算平均演算部204を選択した場合は317.5、調和平均演算部205を選択した場合は115.6、画素値演算部206を使用した場合はS=75のとき88.0となる。
第2例として{80,90,100,1}というデータ組があった場合は、加算平均演算部204は67.8、調和平均演算部205は3.869、画素値演算部206はS=75のとき88.6となる。
As a first example, when there is a data set of {80, 90, 100, 1000}, 317.5 when the averaging unit 204 is selected, 115.6 when the harmonic averaging unit 205 is selected, and pixels When the value calculation unit 206 is used, the value is 88.0 when S = 75.
As a second example, when there is a data set {80, 90, 100, 1}, the averaging operation unit 204 is 67.8, the harmonic average operation unit 205 is 3.869, and the pixel value operation unit 206 is S = When it is 75, it becomes 88.6.

上記2つ例のデータの組は90近辺に3個の値があり、大きくかけ離れた値として1000あるいは1という値を設定してある。すなわち、90近辺の値が正解に近い値であるという仮定で、上記の算出結果を見ると加算平均演算部204(加算平均演算部)を使用した場合は1000あるいは1という値の影響を受けて90付近から逸脱した値となっている。   In the data set of the above two examples, there are three values around 90, and a value of 1000 or 1 is set as a value far apart. That is, assuming that the value around 90 is a value close to the correct answer, and looking at the above calculation result, when the averaging operation unit 204 (the averaging operation unit) is used, it is affected by the value of 1000 or 1 The value deviates from around 90.

調和平均演算部205によれば第1例{80,90,100,1000}のデータ組に対しては良好な結果を得るが、調和平均は1近辺の値の影響を強く受けるという特性があるため、第2例{80、90,100,1}のデータ組では大きくかけ離れた値となっている。
ただし、実施の形態2に示したように、ある閾値を設定し、処理を行なう画素値の値をある程度選択できるようになっているため、1に近い値の画素値を処理することは避けることが可能である。
According to the harmonic average calculation unit 205, good results are obtained for the data set of the first example {80, 90, 100, 1000}, but the harmonic average is strongly affected by a value near 1. Therefore, in the data set of the second example {80, 90, 100, 1}, the values are far apart.
However, as described in the second embodiment, it is possible to set a certain threshold value and select a value of a pixel value to be processed to some extent. Therefore, avoid processing a pixel value having a value close to 1 Is possible.

画素値演算部206を用いた場合はどちらのデータ組に対しても安定した結果を出力している。これは基準値Sとして75という90に近い値を選択したためである。この数式は、画素値の大小関係を逆転させたものの調和平均をとり、その結果の大小を再び反転させるという処理を行なっている。したがって、調和平均の特性(1(基準値)に近い値が強調される)を基準値Sに近い値を強調するように変形したものが画素値演算部206の式である。   When the pixel value calculation unit 206 is used, a stable result is output for both data sets. This is because a value close to 90 of 75 was selected as the reference value S. In this formula, a process is performed in which a harmonic mean is obtained by reversing the magnitude relationship between pixel values, and the magnitude of the result is again reversed. Accordingly, the equation of the pixel value calculation unit 206 is obtained by modifying the characteristic of the harmonic mean (a value close to 1 (reference value) is emphasized) so as to emphasize a value close to the reference value S.

これらの合成方法の選択はユーザーが任意に選択できる。また、画素値演算部206を用いるときの基準値Sの決定方法は任意であるが、検査対象物を描出している輝度値が定量的に得ることができれば、それを基準値Sとすることにより大きくかけ離れた値の影響を取り除くことができ、画面のざらつきを抑えることができる。   The user can arbitrarily select these synthesis methods. In addition, the method of determining the reference value S when using the pixel value calculation unit 206 is arbitrary. However, if a luminance value depicting the inspection object can be obtained quantitatively, the reference value S is used as the reference value S. Thus, the influence of a value far apart can be removed, and the roughness of the screen can be suppressed.

以上説明してきたように本実施の形態における超音波診断装置によれば、画素値演算部206において基準値Sとして強調すべき画素値と同じ値を設定しておくことにより、合成結果の画像において基準値付近の画素値をもつ部分を強調表示することができる。   As described above, according to the ultrasonic diagnostic apparatus in the present embodiment, by setting the same value as the pixel value to be emphasized as the reference value S in the pixel value calculation unit 206, A portion having a pixel value near the reference value can be highlighted.

本実施の形態では、実施の形態1におけるスペックルノイズの除去又は低減に加えて、画素値演算部206による強調により画像をきれいにする効果を相乗的に奏しているが、画素値演算部206による強調の効果は実施の形態1の効果とは独立して得られることができる。すなわち、基準値Sとして輪郭を表す画素値の値を設定しておけば、合成結果の画像における輪郭を含む領域を強調してきれいに表示することができる。また、基準値Sとして輪郭以外でも特定の強調すべき領域の画素の値を設定しておけば当該領域を強調して画質を向上させて、きれいに表示することができる。   In the present embodiment, in addition to the removal or reduction of the speckle noise in the first embodiment, the effect of clearing the image by the enhancement by the pixel value calculation unit 206 is synergistically achieved. The effect of emphasis can be obtained independently of the effect of the first embodiment. That is, if a value of a pixel value representing an outline is set as the reference value S, a region including the outline in the image of the synthesis result can be emphasized and displayed clearly. In addition, if a value of a pixel in a specific area to be emphasized other than the contour is set as the reference value S, the area can be emphasized to improve the image quality and to display finely.

また、閾値設定部201において閾値の値として、複数の領域の境界となる値を1つ又は2つ以上設定し、閾値マスク生成部202によって輪郭を含む領域や低輝度の領域などを示すマスクデータを生成すなわち領域を判別することができ、さらに、合成方法選択部207においてマスクデータに示される領域毎に演算部203〜206の何れかを選択することにより、領域毎に最適な画素演算方法を選択して、輪郭を含む領域や低輝度の領域やその他の領域など領域毎に最適な画素演算により合成することができ、きれいな表示を得ることができる。本実施の形態では、実施の形態1におけるスペックルノイズの除去又は低減に加えて、閾値設定部201及び閾値マスク生成部202による領域毎に画素演算を選択することによりきれいな画像を得ることを相乗的に奏しているが、領域毎の画素演算の選択による効果も実施の形態1の効果とは独立して得られることができる。   The threshold value setting unit 201 sets one or two or more values as boundaries of a plurality of regions as threshold values, and the threshold mask generation unit 202 sets mask data indicating a region including an outline or a low-luminance region. Can be determined, that is, the region can be determined. Further, by selecting one of the calculation units 203 to 206 for each region indicated by the mask data in the synthesis method selection unit 207, an optimal pixel calculation method can be determined for each region. By selecting and synthesizing by optimal pixel calculation for each area such as an area including an outline, a low-luminance area, and other areas, a clear display can be obtained. In the present embodiment, in addition to the removal or reduction of speckle noise in the first embodiment, synthesizing that a clear image is obtained by selecting a pixel operation for each region by the threshold setting unit 201 and the threshold mask generation unit 202. However, the effect of selecting the pixel operation for each region can be obtained independently of the effect of the first embodiment.

なお、最大値検出部203は、画像生成部104に生成された複数の画像データについて、平均的な画素レベルを平準化させるなどの画像調整を行うことが望ましい。これは、反射信号に含まれる周波数帯域(基本波、第2次高調波、第3次高調波)毎に受信信号の強度(振幅)が異なるからである。つまり、基本波、第二次高調波、第三次高調波の各受信信号の振幅比は100:10:1程度であるので、この振幅比を吸収すべく画像データを平準化すればよい。例えば、最大値検出部203は、各画像データに受信信号の強度に反比例するような重み付けを行って平準化し、平準化後の画像データにおいて最大値検出を行えばよい。   It is desirable that the maximum value detection unit 203 performs image adjustment on the plurality of image data generated by the image generation unit 104, such as leveling the average pixel level. This is because the intensity (amplitude) of the received signal differs for each frequency band (fundamental wave, second harmonic, third harmonic) included in the reflected signal. That is, since the amplitude ratio of each of the received signals of the fundamental wave, the second harmonic, and the third harmonic is about 100: 10: 1, the image data may be leveled to absorb the amplitude ratio. For example, the maximum value detection unit 203 may perform leveling by weighting each image data so as to be inversely proportional to the intensity of the received signal, and perform maximum value detection on the leveled image data.

このような画像データの平準化は加算平均演算部204、調和平均演算部205、画素値演算部206においても同様に行ってもよい。すなわち、加算平均演算部204は、実施の形態1における画像合成部106と同様に、重み付けを伴う加算平均により合成画像の画素値f_g(i)を求める構成としてもよい。その場合、加算平均演算部204は合成画像の画素値f_g(i)を求めればよい。ただし、m(mは0〜(M-1))番目の画像データに対する重み係数をαmとする。
f_g(i)=(α_0・ f_0(i) + α_1・f_1(i) + … + α_(M-1)・f_(M-1)(i))/M
また、調和平均演算部205は、次式に示す重み付けを伴う調和平均により合成画像の画素値f_g(i)を求める構成としてもよい。
f_g(i)=M/((1/(α_0・f_0(i))+1/(α_1・f_1(i))+…+1/(α_(M-1)・f_(M-1)(i)))
さらに、画素値演算部206は、次式に示す重み付けを伴う画素演算により合成画像の画素値f_g(i)を求める構成としてもよい。
f_g(i)=S-M/(p_0(i) + p_1(i) + … + p_(M-1)(i))
p_0(i)=1/(S−α_0・f_0(i))
p_1(i)=1/(S−α_1・f_1(i))
p_(M-1)(i)=1/(S−α_(M-1)・f_(M-1)(i))
なお、画像生成部104において上記重み係数αを用いて重み付けして画像データを生成する場合は、画像合成部200における重み付けは不要である。
Such leveling of the image data may be similarly performed in the averaging operation unit 204, the harmonic averaging operation unit 205, and the pixel value operation unit 206. That is, the averaging operation unit 204 may be configured to obtain the pixel value f_g (i) of the synthesized image by averaging with weighting, similarly to the image synthesis unit 106 in the first embodiment. In that case, the averaging unit 204 may obtain the pixel value f_g (i) of the composite image. Here, the weight coefficient for the m-th (m is 0 to (M-1)) image data is αm.
f_g (i) = (α_0 · f_0 (i) + α_1 · f_1 (i) + ... + α_ (M-1) · f_ (M-1) (i)) / M
In addition, the harmonic average calculation unit 205 may be configured to obtain the pixel value f_g (i) of the composite image by the harmonic average with weighting represented by the following equation.
f_g (i) = M / ((1 / (α_0 · f_0 (i)) + 1 / (α_1 · f_1 (i)) + ... + 1 / (α_ (M-1) · f_ (M-1) (i) ))
Further, the pixel value calculation unit 206 may be configured to obtain the pixel value f_g (i) of the composite image by performing a pixel calculation with weighting represented by the following equation.
f_g (i) = SM / (p_0 (i) + p_1 (i) + ... + p_ (M-1) (i))
p_0 (i) = 1 / (S-α_0 ・ f_0 (i))
p_1 (i) = 1 / (S-α_1 ・ f_1 (i))
p_ (M-1) (i) = 1 / (S-α_ (M-1) ・ f_ (M-1) (i))
When the image generation unit 104 generates image data by weighting using the weighting coefficient α, the weighting in the image synthesis unit 200 is unnecessary.

(実施の形態3)
本実施の形態では、画像データを生成する基となるRF(Radio Frequency)信号を保存しておき、オフラインの状態でより高画質な合成画像を生成する手法について説明する。
(Embodiment 3)
In this embodiment, a method of storing an RF (Radio Frequency) signal as a basis for generating image data and generating a higher-quality composite image in an offline state will be described.

図15は、本発明を適用した一例として実施の形態3における超音波診断装置の概略構成を示している。同装置は、図12の構成と比較して、新たにRF信号格納部301を追加した点と、オフライン時において画像生成部104がステア角度毎の画像について、複数の周波数帯域(例えば前記のω1、ω2、ω3)のそれぞれついて画像を生成する点が異なる。以下異なる点を中心に説明する。   FIG. 15 shows a schematic configuration of an ultrasonic diagnostic apparatus according to Embodiment 3 as an example to which the present invention is applied. The apparatus differs from the configuration in FIG. 12 in that a new RF signal storage unit 301 is added, and that the image generation unit 104 sets a plurality of frequency bands (for example, the aforementioned ω1 , Ω2, ω3). Hereinafter, the different points will be mainly described.

RF信号格納部301は、送受信制御部102で受信したRF信号を格納するためのものであり、オフライン時に少なくとも合成画像1枚を合成するのに必要な量のRF信号を格納するだけの容量を持つ。
図16はオフライン時の処理の流れの一例を示した図である。オフライン時において超音波アレイプローブ101からのRF信号(つまり受信された反射波)はRF信号格納部301に格納される。オフライン時には、画像合成に必要な情報はすべてRF信号格納部301に格納されることになる。
The RF signal storage unit 301 stores an RF signal received by the transmission / reception control unit 102, and has a capacity sufficient to store at least an amount of RF signal necessary for synthesizing one composite image when offline. Have.
FIG. 16 is a diagram showing an example of the flow of processing at the time of offline. At the time of off-line, the RF signal from the ultrasonic array probe 101 (that is, the received reflected wave) is stored in the RF signal storage unit 301. At the time of off-line, all information necessary for image synthesis is stored in the RF signal storage unit 301.

画像生成部104は、RF信号格納部301からRF信号を読み出し、様々にパラメータ(周波数帯域など)を変えて画像データを生成し、画像データメモリ(図外)に格納する。画像データの生成に際して、画像生成部104は、画像データの平均的な画素レベルを平準化するために、周波数帯域に応じた重み付けを行う。
図16では、ステア角度が3方向(θ1、θ2、θ3)のRF信号それぞれに対して、基本波ω1、二次高調波ω2、三次高調波ω3によって画像データを生成した様子を示しており、合計9個の画像データが格納されることになる。
The image generation unit 104 reads the RF signal from the RF signal storage unit 301, generates image data by changing various parameters (such as a frequency band), and stores the image data in an image data memory (not shown). When generating the image data, the image generating unit 104 performs weighting according to the frequency band in order to level the average pixel level of the image data.
FIG. 16 shows a state in which image data is generated by the fundamental wave ω1, the second harmonic ω2, and the third harmonic ω3 for each of the RF signals having the steer angles in three directions (θ1, θ2, θ3). A total of nine pieces of image data are stored.

このようにして生成された9つの画像データは、画像合成部106により合成される。図16では2つの合成方法を示している。
合成例1では、まず最初に周波数コンパウンド(同じステア角度における異なる周波数帯域の画像の合成)を行い、その後、それらの合成結果をさらに合成さして、最終的な合成画像を得る。
The nine pieces of image data thus generated are combined by the image combining unit 106. FIG. 16 shows two combining methods.
In the synthesis example 1, first, a frequency compound (synthesis of images in different frequency bands at the same steering angle) is performed, and then the synthesis results are further synthesized to obtain a final synthesized image.

合成例2は、この順番を入れ替え、最初に異なったステア角度の同じ周波数帯域の画像の合成を行なって、それらの合成結果をさらに合成すること(周波数コンパウンド)により、最終的な合成画像を得る。
どちらの合成例も数学的には等価の処理であり、最終結果は処理順序には依存しないはずであるが、実際の処理においては桁落ちや丸め誤差などの変動成分の混入があり、この影響の後段への伝わり方が異なるため、最終画像への影響が現れてしまう。どのような順番で合成処理を行なうかについては、合成方法としてどの方法を選択するにかによっても異なってくるため、処理方法と処理順序の関係をあらかじめ登録したメモリなどを備えておく、あるいはその都度ユーザーが合成方法と順序を指定するという構成としてもよい。
In synthesis example 2, the order is changed, images of the same frequency band having different steer angles are first synthesized, and the synthesis results are further synthesized (frequency compound) to obtain a final synthesized image. .
Both synthesis examples are mathematically equivalent processing, and the final result should not depend on the processing order.However, in the actual processing, variable components such as digit loss and rounding error are mixed. Since the transmission to the subsequent stage is different, the effect on the final image appears. The order in which the synthesis processing is performed depends on which method is selected as the synthesis method. Therefore, a memory or the like in which the relationship between the processing method and the processing order is registered in advance is provided. A configuration in which the user specifies the combination method and order each time may be adopted.

このオフライン時の画像合成の場合、前述のように処理量は多くなるが、合成画像の生成に使用するデータ数が多くなるため、ノイズ除去効果はさらに大きくすることができるという効果がある。
ただし、合成に用いる画像データの数が多くなると、それに伴って合成後の画像がぼやけてくる場合があるが、その場合には、HPF(High Pass Filter)やエッジ強調フィルタ、あるいはこれと等価な効果をもつような合成方法を利用することで、合成後の画像のボケは回復させるようにしてもよい。
In the case of the image synthesis at the time of off-line, the processing amount increases as described above, but since the number of data used for generating the composite image increases, the effect of removing noise can be further increased.
However, if the number of image data used for the synthesis increases, the synthesized image may be blurred accordingly. In this case, an HPF (High Pass Filter), an edge enhancement filter, or an equivalent By using a synthesizing method having an effect, the blur of the synthesized image may be restored.

なお、各実施の形態の図4、9、13に示した機能ブロック図及び図11のフローチャートは、図3に示した本体装置12におけるDSPやCPUにおいてプログラムとして実現できることは言うまでもない。このプログラムは、CDなどの記録媒体や電気通信回線を通して配信可能であり、パッケージソフトウェアやダウンロード用ソフトウェアとして独立して取引の対象となる。   It is needless to say that the functional block diagrams shown in FIGS. 4, 9 and 13 of each embodiment and the flowchart in FIG. 11 can be realized as a program in the DSP or CPU in the main unit 12 shown in FIG. This program can be distributed through a recording medium such as a CD or a telecommunication line, and is independently traded as package software or download software.

本発明は、超音波プローブから超音波を送信し、対象物からの反射波から生成される反射信号に基づいて画像を生成する画像処理装置、例えば、医療用等の超音波診断装置等に適している。   The present invention is suitable for an image processing apparatus that transmits an ultrasonic wave from an ultrasonic probe and generates an image based on a reflected signal generated from a reflected wave from an object, for example, an ultrasonic diagnostic apparatus for medical use and the like. ing.

(a)超音波アレイプローブから複数の方向へ超音波ビームを照射する様子を示す図である。(b)検査対象物を示す図である。(c)3方向から取得された画像データを示す図である。FIG. 4A is a diagram illustrating a state in which an ultrasonic beam is irradiated from an ultrasonic array probe in a plurality of directions. (B) It is a figure showing an inspection object. (C) is a diagram showing image data acquired from three directions. (a)深度が浅い検査対象物をスキャンする様子を示す図である。(b)深度が深い検査対象物をスキャンする様子を示す図である。(A) is a figure which shows a mode that a test object with a shallow depth is scanned. (B) It is a figure showing signs that an inspection object with a deep depth is scanned. 本発明の実施の形態1における超音波診断装置の外観図である。FIG. 1 is an external view of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention. 超音波診断装置の主要な機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a main functional configuration of the ultrasonic diagnostic apparatus. ステア角度テーブルとポインタPとを示す図である。FIG. 4 is a diagram showing a steering angle table and a pointer P. (a)周波数帯域テーブルとポインタQとを示す図である。(b)ポインタ対応テーブルを示す図である。(A) is a diagram showing a frequency band table and a pointer Q. (B) is a diagram showing a pointer correspondence table. ステア角度と周波数帯域と生成される画像との関係を説明する図である。FIG. 3 is a diagram illustrating a relationship between a steering angle, a frequency band, and a generated image. ステア角度と周波数帯と生成画像との関係を説明する図の他の一例である。FIG. 11 is another example of a diagram for explaining a relationship among a steering angle, a frequency band, and a generated image. 1つのステア角度と周波数帯と生成画像との関係を説明する図のさらに他の一例である。FIG. 11 is still another example of a diagram for explaining a relationship between one steer angle, a frequency band, and a generated image. (a)基本波帯域の反射波(エコー)の様子を模式的に示す。(b)2次高調波帯域の反射波(エコー)の様子を模式的に示す。(A) A state of a reflected wave (echo) in a fundamental wave band is schematically shown. (B) The appearance of the reflected wave (echo) in the second harmonic band is schematically shown. 超音波診断装置における合成画像の生成までの処理を示すフローチャート図である。It is a flowchart figure which shows a process until a generation of a synthetic image in an ultrasonic diagnostic apparatus. 本発明の実施の形態2における超音波診断装置の構成を示すブロック図である。FIG. 9 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 2 of the present invention. マスクデータの生成方法の一例について説明する図である。FIG. 4 is a diagram illustrating an example of a method for generating mask data. 画像合成部の合成動作を示すフローチャートである。6 is a flowchart illustrating a combining operation of an image combining unit. 実施の形態3における超音波診断装置の概略構成を示す図である。FIG. 13 is a diagram illustrating a schematic configuration of an ultrasonic diagnostic apparatus according to Embodiment 3. オフライン時の処理の流れの一例を示した図である。FIG. 7 is a diagram illustrating an example of a flow of processing at an offline time.

符号の説明Explanation of reference numerals

T1 ステア角度テーブル
T2 周波数帯域テーブル
T3 ポインタ対応テーブル
10 超音波診断装置
11 表示装置
12 本体装置
13 超音波アレイプローブ
101 超音波アレイプローブ
102 送受信制御部
103 ステア角度指示部
104 画像生成部
105 周波数帯域選択部
106 画像合成部
107 画像格納部
108 フレームメモリ
109 画像表示部
T1 Steer angle table T2 Frequency band table T3 Pointer correspondence table 10 Ultrasonic diagnostic device 11 Display device 12 Main unit 13 Ultrasonic array probe 101 Ultrasonic array probe 102 Transmission / reception control unit 103 Steer angle instruction unit 104 Image generation unit 105 Frequency band selection Unit 106 Image synthesis unit 107 Image storage unit 108 Frame memory 109 Image display unit

Claims (20)

超音波プローブから超音波を送信し、対象物からの反射波から生成される反射信号に基づいて画像を生成する画像処理装置であって、
反射信号における少なくとも2つの周波数帯域を指定する指定手段と、
反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成する生成手段と、
生成された周波数帯域毎の画像を合成する合成手段と
を備えることを特徴とする画像処理装置。
An image processing apparatus that transmits an ultrasonic wave from an ultrasonic probe and generates an image based on a reflected signal generated from a reflected wave from an object,
Designation means for designating at least two frequency bands in the reflected signal;
Generating means for generating an image for each frequency band based on the signal of the designated frequency band among the reflected signals,
And a synthesizing unit for synthesizing the generated image for each frequency band.
前記合成手段は、生成手段によって周波数帯域毎に生成された画像の個数をM、各画像の画素数をN、生成された画像のうちm番目の画像のi番目の画素値をf_m(i)、f_m(i)が取りうる値を超えない値をSとして、合成画像のi番目の画素値f_g(i)を(式1)に示す画素値演算に従って合成することを特徴とする請求項1記載の画像処理装置。
(式1)f_g(i)=S−M/((1/(S−f_0(i)))+(1/(S−f_1(i)))+…+(1/(S−f_(M−1)(i))))
The combining means is M for the number of images generated for each frequency band by the generating means, N for the number of pixels of each image, and f_m (i) for the i-th pixel value of the m-th image among the generated images. , F_m (i) does not exceed a possible value, and S is used to synthesize the i-th pixel value f_g (i) of the synthesized image according to the pixel value calculation shown in (Equation 1). The image processing apparatus according to claim 1.
(Equation 1) f_g (i) = S−M / ((1 / (S−f — 0 (i))) + (1 / (S−f_1 (i))) +... + (1 / (S−f_ ( M-1) (i))))
前記画像処理装置はさらに
生成手段によって生成された複数の画像に基づいて輪郭を含む第1の領域と、それ以外の領域とを判別する領域判別手段を備え、
前記合成手段は、生成手段により生成された複数の画像に対して第1の領域内の画素については第1の合成演算を、第1の領域以外の領域内の画素については第1の合成演算とは異なる演算を行うことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes an area determination unit configured to determine a first area including an outline and another area based on the plurality of images generated by the generation unit,
The synthesizing unit performs a first synthesizing operation on a plurality of images generated by the generating unit with respect to pixels in a first area, and performs a first synthesizing operation on pixels in an area other than the first area. 2. The image processing apparatus according to claim 1, wherein a different operation is performed.
前記領域判別手段は、
生成手段によって生成された各画像について画素単位に閾値判定を行う閾値判定手段と、
前記画像毎の閾値判定の結果の論理和をとることにより第1の領域とそれ以外の領域の分布を示す領域データを生成する領域データ生成手段と
を備えることを特徴とする請求項3記載の画像処理装置。
The area determination means includes:
Threshold determination means for performing threshold determination on a pixel-by-pixel basis for each image generated by the generation means,
4. The image processing apparatus according to claim 3, further comprising: a region data generating unit configured to generate a region data indicating a distribution of the first region and the other region by taking a logical sum of a result of the threshold determination for each image. Image processing device.
前記閾値判定手段は、輪郭近辺の画素の取りうる値の限界を閾値として閾値判定を行うことを特徴とする請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the threshold value determination unit performs the threshold value determination using a limit of a value that can be taken by a pixel near the contour as a threshold value. 前記合成手段は、
第1〜第4の演算部のうち少なくとも2つの演算部と、
第1の領域内の画素については前記第1の合成演算として一の演算部を、第1の領域以外の領域内の画素については第1の合成演算とは異なる演算として他の演算部を、領域データに従って画素毎に選択して演算させる選択部とを備え、
前記第1の演算部は生成手段により生成された複数の画像について最大値をもって画素を合成し、
前記第2の演算部は加算平均により画素を合成し、
前記第3の演算部は調和平均により画素を合成し、
前記第4の演算部は、生成手段によって複数の画像の個数をM、各画像の画素数をN、生成された画像のうちm番目の画像のi番目の画素値をf_m(i)、f_m(i)が取りうる値を超えない値をSとして、合成画像のi番目の画素値f_g(i)を(式2)に示す画素値演算に従って合成することを特徴とする請求項3記載の画像処理装置。
(式2)f_g(i)=S−M/((1/(S−f_0(i)))+(1/(S−f_1(i)))+…+(1/(S−f_(M−1)(i))))
The combining means includes:
At least two of the first to fourth computing units;
For a pixel in the first area, one operation unit is used as the first synthesis operation, and for pixels in an area other than the first area, another operation unit is used as an operation different from the first synthesis operation. A selecting unit for selecting and calculating for each pixel according to the area data,
The first arithmetic unit combines pixels with a maximum value for a plurality of images generated by the generation unit,
The second arithmetic unit synthesizes pixels by averaging,
The third arithmetic unit synthesizes pixels by harmonic averaging,
The fourth arithmetic unit calculates the number of the plurality of images as M, the number of pixels of each image as N, and the i-th pixel value of the m-th image among the generated images as f_m (i), f_m. The value of the i-th pixel value f_g (i) of the synthesized image is synthesized according to the pixel value calculation shown in (Equation 2), where S is a value not exceeding a value that (i) can take. Image processing device.
(Equation 2) f_g (i) = S−M / ((1 / (S−f — 0 (i))) + (1 / (S−f_1 (i))) +... + (1 / (S−f_ ( M-1) (i))))
前記超音波プローブは、複数のステア角度で超音波を送信し、
前記指定手段は、前記複数のステア角度のうち少なくとも2つのステア角度について、異なる周波数帯域を指定し、
前記生成手段は、前記ステア角度毎に、反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成し、
前記合成手段は、生成されたステア角度毎の画像を合成する
ことを特徴とする請求項1記載の画像処理装置。
The ultrasonic probe transmits ultrasonic waves at a plurality of steering angles,
The specifying means specifies different frequency bands for at least two steer angles of the plurality of steer angles,
The generating means, for each of the steering angles, generates an image for each frequency band based on the signal of the specified frequency band among the reflected signals,
The image processing apparatus according to claim 1, wherein the combining unit combines the generated images for each of the steering angles.
前記指定手段は、複数のステア角度のうち特定のステア角度に対しては、他と異なる周波数帯域を指定する
ことを特徴とする請求項7記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the specifying unit specifies a frequency band different from others for a specific steer angle among the plurality of steer angles.
前記指定手段は、複数のステア角度を示す角度群とステア角度に対応する周波数帯域を示す帯域群とからなる組であって、少なくとも第1、第2の組を含む複数の組を記憶する対応テーブルを有し、
前記画像処理装置は、対応テーブルに記憶された一つの組内の角度群に基づいて超音波プローブのステア角度を制御し、
前記指定手段は、当該組内の角度群に対応する帯域群に基づいて各ステア角度に対する周波数帯域を指定し、
前記対応テーブルは、前記第1の組における角度群のステア角度差が第2の組における角度群のステア角度差よりも小さい場合、第1の帯域群の帯域差が第2の帯域群の帯域差よりも大きくなるよう設定されている
ことを特徴とする請求項7記載の画像処理装置。
The designation means is a set consisting of an angle group indicating a plurality of steer angles and a band group indicating a frequency band corresponding to the steer angle, and stores a plurality of sets including at least the first and second sets. Have a table,
The image processing apparatus controls the steer angle of the ultrasonic probe based on the angle group in one set stored in the correspondence table,
The specifying means specifies a frequency band for each steer angle based on a band group corresponding to the angle group in the set,
The correspondence table indicates that, when the steering angle difference of the angle group in the first group is smaller than the steering angle difference of the angle group in the second group, the band difference of the first band group is equal to the band of the second band group. The image processing apparatus according to claim 7, wherein the setting is set to be larger than the difference.
前記合成手段は、生成手段によってステア角度毎に生成された画像の個数をM、各画像の画素数をN、生成された画像のうちm番目の画像のi番目の画素値をf_m(i)、f_m(i)が取りうる値を超えない値をSとして、合成画像のi番目の画素値f_g(i)を(式3)に示す画素値演算に従って合成する
ことを特徴とする請求項7記載の画像処理装置。
(式3)f_g(i)=S−M/((1/(S−f_0(i)))+(1/(S−f_1(i)))+…+(1/(S−f_(M−1)(i))))
The combining means is M for the number of images generated for each steering angle by the generating means, N for the number of pixels of each image, and f_m (i) for the i-th pixel value of the m-th image among the generated images. , F_m (i) as a value that does not exceed a possible value, as S, synthesize the i-th pixel value f_g (i) of the synthesized image according to the pixel value calculation shown in (Equation 3). The image processing apparatus according to claim 1.
(Equation 3) f_g (i) = S−M / ((1 / (S−f — 0 (i))) + (1 / (S−f_1 (i))) +... + (1 / (S−f_ ( M-1) (i))))
前記画像処理装置はさらに
生成手段によって生成されたステア角度毎の画像に基づいて輪郭を含む第1の領域と、それ以外の領域とを判別する領域判別手段を備え、
前記合成手段は、生成手段により生成されたステア角度毎の画像に対して第1の領域内の画素については第1の合成演算を、第1の領域以外の領域内の画素については第1の合成演算とは異なる演算を行う
ことを特徴とする請求項7記載の画像処理装置。
The image processing apparatus further includes an area determination unit configured to determine a first area including a contour and an area other than the first area based on the image for each steering angle generated by the generation unit,
The synthesizing unit performs a first synthesizing operation on a pixel in a first area with respect to an image for each steering angle generated by the generating unit, and performs a first synthesizing operation on a pixel in an area other than the first area. The image processing apparatus according to claim 7, wherein an operation different from the synthesis operation is performed.
前記領域判別手段は、
生成手段によって生成された各画像について画素単位に閾値判定を行う閾値判定手段と、
前記画像毎の閾値判定の結果の論理和をとることにより第1の領域とそれ以外の領域の分布を示す領域データを生成する領域データ生成手段と
を備えることを特徴とする請求項11記載の画像処理装置。
The area determination means includes:
Threshold determination means for performing threshold determination on a pixel-by-pixel basis for each image generated by the generation means,
12. An area data generating means for generating area data indicating distribution of a first area and other areas by taking a logical sum of a result of the threshold determination for each image. Image processing device.
前記閾値判定手段は、輪郭近辺の画素の取りうる値の限界を閾値として閾値判定を行うことを特徴とする請求項12記載の画像処理装置。   13. The image processing apparatus according to claim 12, wherein the threshold value determination unit performs the threshold value determination using a limit of a value that can be taken by a pixel near the contour as a threshold value. 前記合成手段は、
第1〜第4の演算部のうち少なくとも2つの演算部と、
第1の領域内の画素については前記第1の合成演算として一の演算部を、第1の領域以外の領域内の画素については第1の合成演算とは異なる演算として他の演算部を、領域データに従って画素毎に選択して演算させる選択部とを備え、
前記第1の演算部は生成手段の生成された複数の画像について最大値をもって画素を合成し、
前記第2の演算部は加算平均により画素を合成し、
前記第3の演算部は調和平均により画素を合成し、
前記第4の演算部は、生成手段によってステア角度毎に生成された画像の個数をM、各画像の画素数をN、生成された画像のうちm番目の画像のi番目の画素値をf_m(i)、f_m(i)が取りうる値を超えない値をSとして、合成画像のi番目の画素値f_g(i)を(式4)に示す画素値演算に従って合成する
ことを特徴とする請求項11記載の画像処理装置。
(式4)f_g(i)=S−M/((1/(S−f_0(i)))+(1/(S−f_1(i)))+…+(1/(S−f_(M−1)(i))))
The combining means includes:
At least two of the first to fourth computing units;
For a pixel in the first area, one operation unit is used as the first synthesis operation, and for pixels in an area other than the first area, another operation unit is used as an operation different from the first synthesis operation. A selecting unit for selecting and calculating for each pixel according to the area data,
The first arithmetic unit combines pixels with a maximum value for a plurality of images generated by the generation unit,
The second arithmetic unit synthesizes pixels by averaging,
The third arithmetic unit synthesizes pixels by harmonic averaging,
The fourth calculation unit is configured to determine the number of images generated for each steering angle by the generation unit as M, the number of pixels of each image as N, and the i-th pixel value of the m-th image among the generated images as f_m. (I) A value not exceeding a possible value of f_m (i) is set as S, and the i-th pixel value f_g (i) of the composite image is synthesized according to the pixel value calculation shown in (Equation 4). The image processing device according to claim 11.
(Equation 4) f_g (i) = S−M / ((1 / (S−f — 0 (i))) + (1 / (S−f_1 (i))) +... + (1 / (S−f_ ( M-1) (i))))
前記画像処理装置は、さらに前記超音波プローブで受信された前記反射信号を格納する格納手段を備え、
前記生成手段および合成手段は、超音波プローブで受信された前記反射信号に基づいてリアルタイムに画像を生成および合成するか、格納手段に格納された反射信号に基づいてオフラインで画像を生成および合成するかを選択可能と構成したこと
を特徴とする請求項14記載の画像処理装置。
The image processing apparatus further includes a storage unit that stores the reflection signal received by the ultrasonic probe,
The generating unit and the synthesizing unit generate and synthesize an image in real time based on the reflection signal received by the ultrasonic probe, or generate and synthesize an image off-line based on the reflection signal stored in the storage unit. The image processing apparatus according to claim 14, wherein the image processing apparatus is configured to be able to select one of the following.
前記指定手段は、前記オフラインの場合に、ステア角度毎に複数の周波数帯域を指定し、
前記生成手段は、前記オフラインの場合に、ステア角度毎に複数の周波数帯域毎の画像を生成し、
前記合成手段は、第1の合成画像及び第2の合成画像を生成し、
前記第1の合成画像は、同一ステア角度の周波数帯域が異なる画像を合成した後、ステア角度毎の当該合成結果をさらに合成して得られ、
前記第2の合成画像は、同一周波数帯域のステア角度が異なる画像を合成した後、周波数帯域毎の当該合成結果をさらに合成して得られる
ことを特徴とする請求項15記載の画像処理装置。
The specifying means specifies a plurality of frequency bands for each steering angle in the case of the off-line,
The generating means, in the case of the off-line, generates an image for each of a plurality of frequency bands for each steer angle,
The combining means generates a first combined image and a second combined image,
The first synthesized image is obtained by synthesizing images having different frequency bands of the same steering angle, and further synthesizing the synthesis result for each steering angle,
The image processing apparatus according to claim 15, wherein the second synthesized image is obtained by synthesizing images of the same frequency band having different steer angles, and further synthesizing the synthesis result for each frequency band.
超音波プローブから超音波を送信し、対象物からの反射信号に基づいて画像を生成する画像処理方法であって、
反射信号における少なくとも2つの周波数帯域を指定する指定ステップと、
反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成する生成ステップと、
生成された周波数帯域毎の画像を合成する合成ステップと
を有することを特徴とする画像処理方法。
An image processing method for transmitting an ultrasonic wave from an ultrasonic probe and generating an image based on a reflection signal from an object,
A designating step for designating at least two frequency bands in the reflected signal;
A generation step of generating an image for each frequency band based on a signal of a specified frequency band among the reflected signals,
Combining a generated image for each frequency band.
前記超音波プローブは、複数のステア角度で超音波を送信する
前記指定ステップにおいて、前記複数のステア角度のうち少なくとも2つのステア角度について、異なる周波数帯域を指定し、
前記生成ステップにおいて、前記ステア角度毎に、反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成し、
前記合成ステップにおいて、生成されたステア角度毎の画像を合成する
を有することを特徴とする請求項17記載の画像処理方法。
The ultrasonic probe transmits an ultrasonic wave at a plurality of steer angles, In the specifying step, at least two steer angles of the plurality of steer angles, specify different frequency bands,
In the generating step, for each of the steering angles, generate an image for each frequency band based on the signal of the specified frequency band of the reflected signal,
The image processing method according to claim 17, further comprising: combining the generated images for each of the steering angles in the combining step.
超音波プローブから超音波を送信し、対象物からの反射信号に基づいて画像を生成する画像処理装置内のコンピュータにより実行可能なプログラムであって、
前記プログラムは
反射信号における少なくとも2つの周波数帯域を指定する指定ステップと、
反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成する生成ステップと、
生成された周波数帯域毎の画像を合成する合成ステップと
をコンピュータに実行させることを特徴とするプログラム。
Transmitting ultrasonic waves from an ultrasonic probe, a program executable by a computer in an image processing apparatus that generates an image based on a reflected signal from an object,
A designation step for designating at least two frequency bands in the reflected signal;
A generation step of generating an image for each frequency band based on a signal of a specified frequency band among the reflected signals,
And a synthesizing step of synthesizing the generated image for each frequency band.
前記超音波プローブは、複数のステア角度で超音波を送信する
前記指定ステップにおいて、前記複数のステア角度のうち少なくとも2つのステア角度について、異なる周波数帯域を指定し、
前記生成ステップにおいて、前記ステア角度毎に、反射信号のうち指定された周波数帯域の信号に基づいて周波数帯域毎に画像を生成し、
前記合成ステップにおいて、生成されたステア角度毎の画像を合成する
を有することを特徴とする請求項19記載のプログラム。
The ultrasonic probe transmits an ultrasonic wave at a plurality of steer angles, In the specifying step, at least two steer angles of the plurality of steer angles, specify different frequency bands,
In the generating step, for each of the steering angles, generate an image for each frequency band based on the signal of the specified frequency band of the reflected signal,
20. The non-transitory computer-readable storage medium according to claim 19, further comprising: synthesizing the generated image for each steering angle in the synthesizing step.
JP2003353360A 2002-10-15 2003-10-14 Image processing apparatus, method, and program Pending JP2004154567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003353360A JP2004154567A (en) 2002-10-15 2003-10-14 Image processing apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002300397 2002-10-15
JP2003353360A JP2004154567A (en) 2002-10-15 2003-10-14 Image processing apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2004154567A true JP2004154567A (en) 2004-06-03

Family

ID=32827897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003353360A Pending JP2004154567A (en) 2002-10-15 2003-10-14 Image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2004154567A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006006528A (en) * 2004-06-24 2006-01-12 Terumo Corp Ultrasonic diagnostic apparatus and ultrasonic signal processing method
JP2006095151A (en) * 2004-09-30 2006-04-13 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic apparatus
JP2006311959A (en) * 2005-05-09 2006-11-16 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic equipment
JP2006320378A (en) * 2005-05-17 2006-11-30 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic device, ultrasonic image generation method and ultrasonic image generation program
JP2008264342A (en) * 2007-04-24 2008-11-06 Hitachi Medical Corp Ultrasonic diagnostic apparatus
KR100936454B1 (en) 2006-08-18 2010-01-13 주식회사 메디슨 Ultrasound system and method for controlling scanline
WO2012029287A1 (en) * 2010-08-30 2012-03-08 株式会社 東芝 Ultrasound diagnostic device
JP2012066052A (en) * 2010-09-24 2012-04-05 Samsung Medison Co Ltd Ultrasonograph for combining images of various irradiation angles and method for operating the same
JP2015033569A (en) * 2013-07-12 2015-02-19 株式会社東芝 Ultrasonic diagnostic device, medical image processor and medical image processing method
JP2016514530A (en) * 2013-03-25 2016-05-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasound diagnostic imaging system.
JP2016209173A (en) * 2015-05-01 2016-12-15 コニカミノルタ株式会社 Ultrasonic image diagnostic apparatus
JP2017525491A (en) * 2014-08-28 2017-09-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Parallel acquisition of harmonic and fundamental images for screening applications
US10101450B2 (en) 2014-11-13 2018-10-16 Toshiba Medical Systems Corporation Medical image processing apparatus, a medical image processing method and a medical diagnosis apparatus
JP2018175480A (en) * 2017-04-14 2018-11-15 フクダ電子株式会社 Ultrasonic diagnosis device
JP2022521060A (en) * 2019-02-21 2022-04-05 コーニンクレッカ フィリップス エヌ ヴェ Inverted data segmentation, rendering method and system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006006528A (en) * 2004-06-24 2006-01-12 Terumo Corp Ultrasonic diagnostic apparatus and ultrasonic signal processing method
JP4648652B2 (en) * 2004-06-24 2011-03-09 テルモ株式会社 Ultrasonic diagnostic apparatus and method for operating ultrasonic diagnostic apparatus
JP2006095151A (en) * 2004-09-30 2006-04-13 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic apparatus
JP4615950B2 (en) * 2004-09-30 2011-01-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic diagnostic equipment
JP2006311959A (en) * 2005-05-09 2006-11-16 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic equipment
JP2006320378A (en) * 2005-05-17 2006-11-30 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic device, ultrasonic image generation method and ultrasonic image generation program
KR100936454B1 (en) 2006-08-18 2010-01-13 주식회사 메디슨 Ultrasound system and method for controlling scanline
US7789832B2 (en) 2006-08-18 2010-09-07 Medison Co., Ltd. Ultrasound system and method for controlling steering angles of scan lines
JP2008264342A (en) * 2007-04-24 2008-11-06 Hitachi Medical Corp Ultrasonic diagnostic apparatus
WO2012029287A1 (en) * 2010-08-30 2012-03-08 株式会社 東芝 Ultrasound diagnostic device
JP2012066052A (en) * 2010-09-24 2012-04-05 Samsung Medison Co Ltd Ultrasonograph for combining images of various irradiation angles and method for operating the same
JP2016514530A (en) * 2013-03-25 2016-05-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasound diagnostic imaging system.
US10345444B2 (en) 2013-03-25 2019-07-09 Koninklijke Philips N.V. Ultrasonic diagnostic imaging system with spatial compounding of trapezoidal sector
US11719813B2 (en) 2013-03-25 2023-08-08 Koninklijke Philips N.V. Ultrasonic diagnostic imaging system with spatial compounding of trapezoidal sector
JP2015033569A (en) * 2013-07-12 2015-02-19 株式会社東芝 Ultrasonic diagnostic device, medical image processor and medical image processing method
JP2017525491A (en) * 2014-08-28 2017-09-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Parallel acquisition of harmonic and fundamental images for screening applications
US10101450B2 (en) 2014-11-13 2018-10-16 Toshiba Medical Systems Corporation Medical image processing apparatus, a medical image processing method and a medical diagnosis apparatus
JP2016209173A (en) * 2015-05-01 2016-12-15 コニカミノルタ株式会社 Ultrasonic image diagnostic apparatus
JP2018175480A (en) * 2017-04-14 2018-11-15 フクダ電子株式会社 Ultrasonic diagnosis device
JP7015640B2 (en) 2017-04-14 2022-02-03 フクダ電子株式会社 Ultrasonic diagnostic equipment and its control method
JP2022521060A (en) * 2019-02-21 2022-04-05 コーニンクレッカ フィリップス エヌ ヴェ Inverted data segmentation, rendering method and system

Similar Documents

Publication Publication Date Title
JP4757307B2 (en) Ultrasonic image processing device
EP1411370A1 (en) Image processing apparatus, method and program
US9123139B2 (en) Ultrasonic image processing with directional interpolation in order to increase the resolution of an image
JP2004154567A (en) Image processing apparatus, method, and program
JP6309340B2 (en) Ultrasonic diagnostic apparatus and ultrasonic imaging program
JP2004129773A (en) Ultrasonic imaging device and ultrasonic signal processing method
JP6113592B2 (en) Ultrasonic diagnostic apparatus and ultrasonic imaging program
JP4575737B2 (en) Ultrasonic imaging device
JP2017038837A (en) Ultrasonic image diagnostic device, ultrasonic image processing method and ultrasonic image processing program
JP2018042649A (en) Ultrasonic diagnostic apparatus, and ultrasonic image forming method and program
JP4808373B2 (en) Method and apparatus for applications related to B-mode image banding suppression
US11151697B2 (en) Ultrasonic diagnosis device and program
JPH04297246A (en) Ultrasonic diagnostic system
US11896435B2 (en) Ultrasound diagnostic apparatus and examination method
JP6879039B2 (en) Ultrasound diagnostic equipment, composite image display method and program
JP2020110296A (en) Ultrasound imaging apparatus and image processing method
US20150018681A1 (en) Ultrasound diagnosis apparatus, medical image-processing apparatus, and method of processing medical images
WO2018173384A1 (en) Ultrasound diagnostic device and image processing method
JP5697959B2 (en) Ultrasonic color Doppler video system and clutter signal filtering method of the ultrasonic color Doppler video system
JP2020069304A (en) Ultrasonic diagnostic apparatus, control method for ultrasonic diagnostic apparatus, and control program for ultrasonic diagnostic apparatus
JP7449879B2 (en) Ultrasonic diagnostic device and its control method
CN1496715A (en) Image processing device, method and program
JP4414270B2 (en) Velocity distribution image construction method and ultrasonic diagnostic apparatus
JP7377016B2 (en) Ultrasonic image generation device and its control method
JP2019033899A (en) Ultrasonic diagnostic apparatus and specular reflector image generation method