JP4530834B2 - Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program - Google Patents

Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program Download PDF

Info

Publication number
JP4530834B2
JP4530834B2 JP2004369692A JP2004369692A JP4530834B2 JP 4530834 B2 JP4530834 B2 JP 4530834B2 JP 2004369692 A JP2004369692 A JP 2004369692A JP 2004369692 A JP2004369692 A JP 2004369692A JP 4530834 B2 JP4530834 B2 JP 4530834B2
Authority
JP
Japan
Prior art keywords
group
image processing
mask
ultrasonic
ultrasonic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004369692A
Other languages
Japanese (ja)
Other versions
JP2005205199A (en
Inventor
良彰 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2004369692A priority Critical patent/JP4530834B2/en
Publication of JP2005205199A publication Critical patent/JP2005205199A/en
Application granted granted Critical
Publication of JP4530834B2 publication Critical patent/JP4530834B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and the like scarcely generating artifact when processing to reduce speckles on an ultrasonic image. <P>SOLUTION: This ultrasonic image processing method includes a step (a) of multiplying values of a plurality of pixels in the mask area determined based on structural elements in a morphology processing on a plurality of signals expressing the values of the plurality of pixels constituting an ultrasonic image respectively by a first group weighting factor set according to positions in a mask area; and a step (b) of multiplying the values of the plurality of pigments in the mask area determined based on the structural elements in the morphology processing on the plurality of signals processed in the step (a) by a second group weighting factor set according to the positions in the mask area, and converting the pixel value in the mask center to the minimum value in the plurality of pixel values multiplied by the second group weighting factor, while moving the mask area. <P>COPYRIGHT: (C)2005,JPO&amp;NCIPI

Description

本発明は、超音波を送信し、超音波エコーを受信することによって得られた超音波画像信号を処理する超音波画像処理方法、及び、それを用いた超音波画像処理装置、並びに、そのような超音波画像処理をCPUに実行させるための超音波画像処理プログラムに関する。   The present invention relates to an ultrasonic image processing method for processing an ultrasonic image signal obtained by transmitting ultrasonic waves and receiving ultrasonic echoes, an ultrasonic image processing apparatus using the same, and such The present invention relates to an ultrasonic image processing program for causing a CPU to execute an ultrasonic image process.

医療分野においては、被検体の内部を観察して診断を行うために、様々な撮像技術が開発されている。特に、超音波を送受信することによって被検体の内部情報を取得する超音波撮像は、リアルタイムで画像観察を行うことができる上に、X線写真やRI(radio isotope)シンチレーションカメラ等の他の医用画像技術と異なり、放射線による被曝がない。そのため、超音波撮像は、安全性の高い撮像技術として、産科領域における胎児診断の他、婦人科系、循環器系、消化器系等を含む幅広い領域において利用されている。   In the medical field, various imaging techniques have been developed in order to observe and diagnose the inside of a subject. In particular, ultrasonic imaging that acquires internal information of a subject by transmitting and receiving ultrasonic waves enables real-time image observation, and other medical applications such as X-ray photographs and RI (radio isotope) scintillation cameras. Unlike imaging technology, there is no radiation exposure. Therefore, ultrasonic imaging is used as a highly safe imaging technique in a wide range of areas including gynecological system, circulatory system, digestive system, etc. in addition to fetal diagnosis in the obstetrics field.

超音波撮像は、次のような原理で画像を生成する撮像技術である。超音波は、構造物の境界のように、音響インピーダンスが異なる領域の境界において反射される。そこで、超音波ビームを人体等の被検体内に送信し、被検体内において生じた超音波エコーを受信し、超音波エコーが生じた反射点や反射強度を求めることにより、被検体内に存在する構造物(例えば、内臓や病変組織等)の輪郭を抽出することができる。   Ultrasonic imaging is an imaging technique that generates an image based on the following principle. Ultrasonic waves are reflected at boundaries between regions having different acoustic impedances, such as boundaries between structures. Therefore, by transmitting an ultrasonic beam into a subject such as a human body, receiving an ultrasonic echo generated in the subject, and determining the reflection point and reflection intensity at which the ultrasonic echo was generated, It is possible to extract the contour of the structure (eg, internal organs or lesion tissue).

ところで、このような原理を利用して、生体のように構造的に不均一な被写体が撮像されると、生成された超音波画像に、輝部及び/又は暗部が散在するパターンが現れる。このようなパターンはスペックルパターンと呼ばれており、例えば、内臓等の内部に存在する不均一な組織によって反射された超音波エコーが干渉することにより発生する。このスペックルパターンは、一種の雑音として作用するので、描出された構造物の輪郭等が不鮮明になることが多い。そのため、このような原画像から医療診断に適した画像を生成するためには、取得された原画像データについて、鮮鋭度強調処理(輪郭強調処理)や粒状抑制処理(平滑化処理)を含む画像処理を施すことが必要になる。そのような処理として、具体的には、平均化処理や、メディアンフィルタ処理や、ヒステリシススムージング処理や、モフォロジー(morphology、「モルフォロジー」又は「モーフォロジー」とも呼ばれる)処理等が知られている。   By the way, when a structurally non-uniform subject such as a living body is imaged using such a principle, a pattern in which bright portions and / or dark portions are scattered appears in the generated ultrasonic image. Such a pattern is called a speckle pattern, and is generated, for example, by interference of ultrasonic echoes reflected by a non-uniform tissue existing inside an internal organ or the like. Since the speckle pattern acts as a kind of noise, the contour of the drawn structure is often unclear. Therefore, in order to generate an image suitable for medical diagnosis from such an original image, an image including sharpness enhancement processing (contour enhancement processing) and grain suppression processing (smoothing processing) is performed on the acquired original image data. It is necessary to perform processing. As such processing, specifically, averaging processing, median filter processing, hysteresis smoothing processing, morphology processing (also referred to as “morphology” or “morphology”) processing, and the like are known.

モフォロジー処理とは、構造要素と呼ばれる画像の移動に関する要素と、ミンコフスキー和及びミンコフスキー差と呼ばれる演算とを用いる画像処理である。関数fとgのミンコフスキー和及びミンコフスキー差は、式(1)及び(2)によってそれぞれ定義される。以下の式(1)〜(4)において、F及びGは、それぞれf及びgの定義域である。
Morphological processing is image processing that uses an element related to image movement called a structural element and an operation called Minkowski sum and Minkowski difference. The Minkowski sum and Minkowski difference of the functions f and g are defined by equations (1) and (2), respectively. In the following formulas (1) to (4), F and G are defined regions of f and g, respectively.

モフォロジー処理には、ダイレーション(dilation)、イロージョン(erosion)、オープニング(opening)、及び、クロージング(closing)と呼ばれる4つの基本的な処理が含まれている。構造要素gによる画像関数fについての基本的な処理は、次式(3)〜(6)によって定義される。なお、式(3)〜(6)において、関数gは、原点について対称である。
The morphological process includes four basic processes called dilation, erosion, opening, and closing. The basic processing for the image function f by the structural element g S is defined by the following equations (3) to (6). In Expressions (3) to (6), the function g is symmetric about the origin.

式(3)に示すように、ダイレーションは、構造要素gによって移動された画像関数fのミンコフスキー和を求める処理であり、直感的には、構造要素に基づいて規定されるマスク領域内において最大値を探索して、マスク中心の画素値を最大値に置き換えることにより、原画像を膨張させる働きを持つ。また、式(4)に示すように、イロージョンは、構造要素gによって移動された画像関数fのミンコフスキー差を求める処理であり、直感的には、上記マスク領域内において最小値を探索して、マスク中心の画素値を最小値に置き換えることにより、原画像を収縮させる働きを持つ。さらに、オープニングとは、イロージョンの後でダイレーションを行う処理のことであり、例えば、凸部を除去する働きを持つ。また、クロージングとは、ダイレーションの後でイロージョンを行う処理のことであり、例えば、凹部を穴埋めする働きを持つ。 As shown in the equation (3), dilation is a process for obtaining the Minkowski sum of the image function f moved by the structural element g S , and intuitively, in the mask region defined based on the structural element. The original value is expanded by searching for the maximum value and replacing the pixel value at the center of the mask with the maximum value. Further, as shown in Expression (4), erosion is a process for obtaining the Minkowski difference of the image function f moved by the structural element g S. Intuitively, the minimum value is searched in the mask area. The original image is contracted by replacing the pixel value at the center of the mask with the minimum value. Furthermore, the opening is a process of performing dilation after erosion and has, for example, a function of removing convex portions. Closing is a process of performing erosion after dilation, and has a function of filling a concave portion, for example.

このようなモフォロジー処理を超音波画像処理に適用することにより、超音波画像において構造物を抽出したり、画質を向上させることが検討されている。例えば、特許文献1には、効率良く診断を行うために、時系列データを符号化し、復号化する装置において、前処理としてモフォロジー処理を行うことにより輪郭線を抽出することが開示されている。また、非特許文献1には、モフォロジー処理において構造要素を制御することにより、境界強調とスペックル低減とを同時に行うことが開示されている。
特開平10−84286号公報(第5頁、第18図) 椿井 正義、伊東 正安,「超音波画像の境界強調を目的とした適応的モフォロジーにおける可変構造要素の制御」,電子情報通信学会論文誌,2003年6月,第J86−D−II巻,第6号,p.895−907
It has been studied to extract a structure from an ultrasonic image and improve image quality by applying such morphology processing to ultrasonic image processing. For example, Patent Document 1 discloses that a contour line is extracted by performing morphological processing as preprocessing in an apparatus that encodes and decodes time-series data in order to perform diagnosis efficiently. Non-Patent Document 1 discloses that boundary enhancement and speckle reduction are simultaneously performed by controlling structural elements in morphology processing.
Japanese Patent Laid-Open No. 10-84286 (5th page, FIG. 18) Masayoshi Sakurai, Masayasu Ito, “Control of Variable Structural Elements in Adaptive Morphology for Boundary Enhancement of Ultrasound Images”, IEICE Transactions, June 2003, J86-D-II, Vol. 6 No., p. 895-907

しかしながら、このようなモフォロジー処理には、マスクサイズを基準として、それよりも小さなパターンを平滑化するという機能があるため、マスクサイズ、即ち、構造要素に起因するアーティファクト(虚像)が生じてしまうことがある。   However, such a morphological process has a function of smoothing a smaller pattern on the basis of the mask size, so that an artifact (virtual image) due to the mask size, that is, a structural element is generated. There is.

そこで、上記の点に鑑み、本発明は、超音波を送受信することによって得られた超音波画像についてスペックルを低減する処理を行う際にアーティファクトを生じ難い画像処理方法等を提供することを目的とする。   Therefore, in view of the above points, an object of the present invention is to provide an image processing method and the like that hardly cause artifacts when performing processing for reducing speckles on an ultrasonic image obtained by transmitting and receiving ultrasonic waves. And

以上の課題を解決するため、本発明に係る超音波画像処理方法は、超音波ビームを用いて被検体内を走査することにより得られた信号に基づいて生成され、超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号を処理する方法であって、該複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第1群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第1群の重み付け係数を乗じられた複数の画素値の内の最大値に変換する処理を、マスク領域を移動させながら施すステップ(a)と、ステップ(a)において処理を施された複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第2群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第2群の重み付け係数を乗じられた複数の画素値の内の最小値に変換する処理を、マスク領域を移動させながら施すステップ(b)とを具備する。   In order to solve the above-described problems, an ultrasonic image processing method according to the present invention is generated based on a signal obtained by scanning an inside of a subject using an ultrasonic beam, and forms a plurality of ultrasonic images. A method of processing a plurality of signals each representing a pixel value of a pixel of the pixel, wherein the pixel value of the plurality of pixels in the mask region determined based on a structural element in the morphology processing is processed for the plurality of signals. A process of converting the pixel value at the center of the mask to a maximum value among a plurality of pixel values multiplied by the weighting coefficient of the first group, respectively by multiplying the weighting coefficient of the first group set according to the position within Step (a) applied while moving the mask region, and a mask determined based on the structural elements in the morphology processing for the plurality of signals processed in step (a) The pixel values of a plurality of pixels in the area are respectively multiplied by a second group of weighting factors set in accordance with the position in the mask region, and the pixel values at the mask center are multiplied by a plurality of weighting factors of the second group. And (b) performing a process of converting the pixel value to the minimum value while moving the mask area.

また、本発明に係る超音波画像処理装置は、超音波ビームを用いて被検体内を走査することにより得られた信号に基づいて生成され、超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号を処理する装置であって、該複数の信号を記憶する記憶手段と、該記憶手段によって記憶された複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第1群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第1群の重み付け係数を乗じられた複数の画素値の内の最大値に変換する第1の信号処理を、マスク領域を移動させながら施し、第1の信号処理を施された信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第2群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第2群の重み付け係数を乗じられた複数の画素値の内の最小値に変換する第2の信号処理を、マスク領域を移動させながら施す画像信号処理手段とを具備する。   In addition, the ultrasonic image processing apparatus according to the present invention generates pixel values of a plurality of pixels that are generated based on a signal obtained by scanning the inside of a subject using an ultrasonic beam and constitute an ultrasonic image. An apparatus for processing a plurality of signals respectively representing a storage means for storing the plurality of signals, and a plurality of signals stored by the storage means in a mask region determined based on a structural element in morphological processing A plurality of pixels obtained by multiplying pixel values of a plurality of pixels by a first group of weighting coefficients set according to positions in the mask area, and multiplying a pixel value at the mask center by a weighting coefficient of the first group The first signal processing for converting to the maximum value among the values is performed while moving the mask area, and the signal subjected to the first signal processing is based on the structural elements in the morphology processing. The pixel values of a plurality of pixels in the determined mask area are respectively multiplied by a second group of weighting coefficients set according to the position in the mask area, and the mask center pixel value is multiplied by the second group of weighting coefficients. And image signal processing means for performing second signal processing for converting to a minimum value among the multiplied pixel values while moving the mask area.

さらに、本発明に係る超音波画像処理プログラムは、超音波ビームを用いて被検体内を走査することにより得られた信号に基づいて生成され、超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号を処理するプログラムであって、該複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第1群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第1群の重み付け係数を乗じられた複数の画素値の内の最大値に変換する処理を、マスク領域を移動させながら施す手順(a)と、手順(a)において処理を施された信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第2群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第2群の重み付け係数を乗じられた複数の画素値の内の最小値に変換する処理を、マスク領域を移動させながら施す手順(b)とをCPUに実行させる。   Furthermore, the ultrasonic image processing program according to the present invention generates pixel values of a plurality of pixels that are generated based on a signal obtained by scanning the inside of a subject using an ultrasonic beam and that constitute an ultrasonic image. A program for processing a plurality of signals each representing a pixel value of a plurality of pixels in a mask region determined based on a structural element in morphology processing for the plurality of signals according to a position in the mask region A process of converting the pixel value at the center of the mask to the maximum value among a plurality of pixel values multiplied by the weighting coefficient of the first group is performed by moving the mask area. The procedure (a) to be performed while the signals processed in the procedure (a) are determined for a plurality of pixels in the mask area determined based on the structural elements in the morphology processing. The prime value is multiplied by a second group of weighting coefficients set in accordance with the position in the mask area, the mask center pixel value is multiplied by the second group of weighting coefficients, and the minimum of the plurality of pixel values is multiplied. The CPU executes the procedure (b) of performing the process of converting to a value while moving the mask area.

本発明によれば、マスク領域内の位置に応じて設定された重み付け係数を用いて、取得された超音波画像についてモフォロジー処理を行うので、構造要素に起因するアーティファクトを抑制しつつスペックルを低減することができる。従って、ノイズが低減された画質の良い超音波画像を得ることが可能になる。   According to the present invention, since the morphology processing is performed on the acquired ultrasonic image using the weighting coefficient set according to the position in the mask region, speckle is reduced while suppressing artifacts due to the structural elements. can do. Therefore, it is possible to obtain an ultrasonic image with good image quality with reduced noise.

以下、本発明を実施するための最良の形態について、図面を参照しながら詳しく説明する。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
図1は、本発明の一実施形態に係る超音波画像処理方法を示すフローチャートである。本実施形態に係る超音波画像処理方法は、モフォロジー処理を利用することにより、超音波画像におけるスペックルの影響を低減するものである。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings. The same constituent elements are denoted by the same reference numerals, and the description thereof is omitted.
FIG. 1 is a flowchart showing an ultrasonic image processing method according to an embodiment of the present invention. The ultrasonic image processing method according to the present embodiment reduces the influence of speckle in an ultrasonic image by using morphology processing.

まず、モフォロジー処理を用いた一般的なスペックル低減処理について、図2を参照しながら説明する。図2の(a)〜(c)は、複数の画素10によって構成される超音波画像を模式的に示している。図2の(a)には、低輝度領域12によって分断された高輝度領域11aが示されている。分断された高輝度領域11aを連結するためには、この超音波画像について、次式(7)に示すモフォロジー処理の基本演算であるダイレーションを施す。即ち、注目画素14を中心とするマスク領域13内の画素の中から最大値を抽出し、注目画素14の画素値をその最大値に変換する処理を、複数の画素10の各々について行う。
ここで、gはダイレーションによって得られた画像を表す画素値の集合であり、Yは原画像の画素値であり、Gは構造要素に基づいて決定されるマスクであり、(x,y)はマスク領域内における座標である。これにより、図2の(b)に示すように、高輝度領域が膨張し、それを分断していた低輝度領域が削除される。
First, a general speckle reduction process using a morphology process will be described with reference to FIG. 2A to 2C schematically show an ultrasonic image constituted by a plurality of pixels 10. FIG. 2A shows a high luminance region 11 a divided by the low luminance region 12. In order to connect the divided high-intensity regions 11a, dilation that is a basic operation of the morphology processing shown in the following equation (7) is performed on the ultrasonic image. That is, the process of extracting the maximum value from the pixels in the mask area 13 centered on the target pixel 14 and converting the pixel value of the target pixel 14 to the maximum value is performed for each of the plurality of pixels 10.
Here, g is a set of pixel values representing an image obtained by dilation, Y is a pixel value of the original image, G is a mask determined based on a structural element, and (x, y) Are coordinates in the mask area. As a result, as shown in FIG. 2B, the high luminance area expands, and the low luminance area that has divided it is deleted.

次に、図2の(b)に示す超音波画像について、次式(8)に示すイロージョンを施す。即ち、注目画素14を中心とするマスク領域13内の画素の中から最小値を抽出し、注目画素14の画素値をその最小値に変換する処理を、図2の(b)に示す複数の画素10の各々について行う。
ここで、fは、イロージョンによって得られた画像を表す画素値の集合である。これにより、図2の(c)に示すように、高輝度領域11bが収縮して元のサイズに戻る。このようにして、スペックルの影響によって分断された高輝度領域11aを、高輝度領域11cのように連結することができる。
Next, the erosion shown in the following equation (8) is performed on the ultrasonic image shown in FIG. That is, a process of extracting the minimum value from the pixels in the mask area 13 centered on the target pixel 14 and converting the pixel value of the target pixel 14 to the minimum value is performed by a plurality of processes shown in FIG. This is performed for each of the pixels 10.
Here, f is a set of pixel values representing an image obtained by erosion. As a result, as shown in FIG. 2C, the high brightness region 11b contracts and returns to its original size. In this way, the high luminance region 11a divided by the influence of speckle can be connected like the high luminance region 11c.

次に、このような一般的なモフォロジー処理を、図3の(a)に示す超音波画像(原画像)に施す場合について検討する。まず、図3の(a)に示す原画像について、マスクサイズを7×7(マスク領域15)としてダイレーションを施す。これにより、図3の(b)に示すように、高輝度領域が膨張し、比較的低輝度な領域が中央部に集まる。   Next, a case where such a general morphology process is applied to the ultrasonic image (original image) shown in FIG. First, dilation is performed on the original image shown in FIG. 3A with a mask size of 7 × 7 (mask region 15). As a result, as shown in FIG. 3B, the high brightness area expands and the relatively low brightness areas gather at the center.

さらに、図3の(b)に示す画像について、イロージョンを施す。このとき、マスク領域15の一部が中央の低輝度領域16にかかっている場合、即ち、マスクが領域15a〜15d又はそれよりも内側にある場合に、注目画素の画素値は、低輝度領域16の画素値に変換される。そのため、領域15a〜15dの中心画素又はそれより内側に存在する全ての画素が低輝度の画素値に変換され、図3の(c)に示すように、画像の中央部に矩形の低輝度領域17が生じてしまう。
この低輝度領域17は、マスクサイズやマスク形状に起因して現れるアーティファクトである。このようなアーティファクトの存在は、超音波画像を医療診断に用いる上で望ましくない。そこで、本実施形態においては、注目画素からの距離に応じて設定されている重み付け係数を用いてモフォロジー処理を行っている。
Further, erosion is applied to the image shown in FIG. At this time, when a part of the mask area 15 covers the central low-luminance area 16, that is, when the mask is located in the areas 15a to 15d or inside thereof, the pixel value of the target pixel is the low-luminance area. It is converted to 16 pixel values. Therefore, the central pixel of the areas 15a to 15d or all the pixels existing inside thereof are converted into low-brightness pixel values, and a rectangular low-brightness area is displayed at the center of the image as shown in FIG. 17 will occur.
The low luminance region 17 is an artifact that appears due to the mask size or mask shape. The presence of such artifacts is undesirable when using ultrasound images for medical diagnosis. Therefore, in the present embodiment, the morphology process is performed using a weighting coefficient set according to the distance from the target pixel.

以下、図1、図4、及び、図5を参照しながら本実施形態におけるモフォロジー処理について説明する。図4は、本実施形態におけるモフォロジー処理を説明するための図であり、図5は、本実施形態において用いられる重み付け係数を示す図である。
図1のステップS1において、超音波用探触子から被検体に向けて超音波を送信し、被検体に反射された超音波エコーを受信することによって超音波検出信号を取得し、そのような超音波検出信号について、増幅、A/D変換、検波等の信号処理を施すことにより、超音波画像データを取得する。図4の(a)は、このようにして取得された超音波画像データによって表される超音波画像(原画像)である。
Hereinafter, the morphology processing in the present embodiment will be described with reference to FIG. 1, FIG. 4, and FIG. FIG. 4 is a diagram for explaining the morphology processing in the present embodiment, and FIG. 5 is a diagram showing weighting coefficients used in the present embodiment.
In step S1 of FIG. 1, an ultrasonic detection signal is acquired by transmitting an ultrasonic wave from the ultrasonic probe toward the subject and receiving an ultrasonic echo reflected by the subject. Ultrasonic image data is acquired by performing signal processing such as amplification, A / D conversion, and detection on the ultrasonic detection signal. FIG. 4A is an ultrasonic image (original image) represented by the ultrasonic image data acquired in this way.

次に、ステップS2及びステップS3において、図4の(a)に示す原画像について、重み付け係数を用いたダイレーションを施す。
即ち、ステップS2において、図4の(a)に示す原画像を構成するある注目画素(x,y)=(0,0)を中心として、例えば、マスクサイズ7×7のマスク領域内の画素(x,y)の画素値に、図5の(a)に示すような重み付け係数(以下、「ダイレーション係数」ともいう)dk(x,y)を乗じる。ここで、(x,y)は、マスク領域における座標である。図5の(a)に示すように、ダイレーション係数dk(x,y)は、注目画素における値を1とし(dk(0,0)=1)、注目画素から離れるほど値が小さくなるように設定されている。
Next, in steps S2 and S3, dilation using a weighting coefficient is performed on the original image shown in FIG.
That is, in step S2, for example, pixels in a mask area having a mask size of 7 × 7 with a certain target pixel (x, y) = (0, 0) constituting the original image shown in FIG. The pixel value (x, y) is multiplied by a weighting coefficient (hereinafter also referred to as “dilation coefficient”) dk (x, y) as shown in FIG. Here, (x, y) is a coordinate in the mask area. As shown in FIG. 5A, the dilation coefficient dk (x, y) has a value of 1 at the target pixel (dk (0, 0) = 1), and the value decreases as the distance from the target pixel increases. Is set to

さらに、ステップS3において、次式(9)に示すように、重み付け係数dk(x,y)を乗じられた画素値の中から最大値を抽出し、注目画素の画素値をその最大値に変換する。
ここで、g’はダイレーションによって得られた画像を表す画素値の集合であり、Yは原画像の画素値であり、Gは構造要素に基づいて決定されるマスクである。このような処理を、超音波画像を構成する複数の画素の各々について行うことにより、図4の(b)に示すように、高輝度領域が膨張した画像が得られる。
Further, in step S3, as shown in the following equation (9), the maximum value is extracted from the pixel values multiplied by the weighting coefficient dk (x, y), and the pixel value of the target pixel is converted to the maximum value. To do.
Here, g ′ is a set of pixel values representing an image obtained by dilation, Y is a pixel value of the original image, and G is a mask determined based on a structural element. By performing such processing for each of the plurality of pixels constituting the ultrasonic image, an image in which the high luminance region is expanded is obtained as shown in FIG.

次に、ステップS4及びS5において、ダイレーションが施された超音波画像について、重み付け係数を用いたイロージョンを施す。
即ち、ステップS4において、注目画素(x,y)=(0,0)を中心として、マスクサイズ7×7のマスク領域内の画素(x,y)の画素値に、図5の(b)に示すような重み付け係数(以下、「イロージョン係数」ともいう)ek(x,y)を乗じる。図5の(b)に示すように、イロージョン係数は、注目画素における値を1とし(ek(0,0)=1)、注目画素から離れるほど値が大きくなるように設定されている。
Next, in steps S4 and S5, erosion using a weighting coefficient is performed on the ultrasonic image subjected to dilation.
That is, in step S4, the pixel value of the pixel (x, y) in the mask area of the mask size 7 × 7 with the target pixel (x, y) = (0, 0) as the center is changed to (b) in FIG. And ek (x, y) as shown in FIG. As shown in FIG. 5B, the erosion coefficient is set such that the value at the pixel of interest is 1 (ek (0,0) = 1), and the value increases as the distance from the pixel of interest increases.

さらに、ステップS5において、次式(10)に示すように、重み付け係数ek(x,y)を乗じられた画素値の中から最小値を抽出し、注目画素の画素値をその最小値に変換する。
ここで、f’はイロージョンによって得られた画像を表す画素値の集合である。このような処理を、超音波画像を構成する複数の画素の各々について行うことにより、図4の(c)に示すように、高輝度領域が収縮した画像が得られる。
Further, in step S5, as shown in the following equation (10), the minimum value is extracted from the pixel values multiplied by the weighting coefficient ek (x, y), and the pixel value of the target pixel is converted into the minimum value. To do.
Here, f ′ is a set of pixel values representing an image obtained by erosion. By performing such processing for each of the plurality of pixels constituting the ultrasonic image, an image in which the high luminance region is contracted is obtained as shown in FIG.

図3の(c)と図4の(c)とを比較すれば明らかなように、図4の(c)には、マスクサイズやマスク形状に起因するアーティファクトはほとんど現れていない。これは、図5の(a)及び(b)に示すように、マスク領域内の最大値を取るダイレーションにおいては、マスク中心から離れた画素に乗じられる係数の値を小さくし、マスク領域内の最小値を取るイロージョンにおいては、マスク中心から離れた画素に乗じられる係数の値を大きくすることにより、マスク中心に対するマスク周縁部の影響を小さくすることができるからである。   As apparent from a comparison between FIG. 3C and FIG. 4C, almost no artifacts due to the mask size or mask shape appear in FIG. 4C. As shown in FIGS. 5A and 5B, in the dilation that takes the maximum value in the mask area, the value of the coefficient multiplied by the pixel far from the mask center is reduced to reduce the value in the mask area. This is because in the erosion that takes the minimum value of, the influence of the mask peripheral portion on the mask center can be reduced by increasing the value of the coefficient multiplied to the pixel far from the mask center.

次に、本実施形態において用いられる重み付け係数(ダイレーション係数及びイロージョン係数について詳しく説明する。
マスクサイズやマスク形状に起因するアーティファクトを生じさせることなく、スペックルによる影響を低減する効果を高めるためには、スペックルパターンのサイズや形状を含むスペックルの特徴量に応じて、ダイレーション係数及びイロージョン係数を設定することが望ましい。
Next, weighting coefficients (dilation coefficients and erosion coefficients) used in the present embodiment will be described in detail.
In order to increase the effect of reducing the influence of speckle without causing artifacts due to mask size or mask shape, the dilation coefficient depends on the speckle feature size including the size and shape of the speckle pattern. It is desirable to set the erosion coefficient.

ここで、超音波画像の分解能は、送信される超音波の周波数が高いほど向上し、周波数が低いほど低下する。また、超音波は、周波数が高くなるほど減衰し易くなるので、被検体の深部から反射される超音波エコーにおいては、比較的周波数の低い成分が残る結果となる。そのため、被検体の深さ方向(距離方向)については、深度が大きいほど超音波画像の分解能が低下する。これらのことから、超音波画像に現れるスペックルパターンのサイズは、超音波用探触子から送信される超音波の周波数が高いほど小さくなり、超音波の周波数が低いほど大きくなる傾向にある。また、被検体の浅部を表す超音波画像においてはスペックルパターンが小さく、被検体の深部を表す超音波画像においてはスペックルパターンが大きくなる傾向がある。   Here, the resolution of the ultrasonic image increases as the frequency of the transmitted ultrasonic wave increases, and decreases as the frequency decreases. In addition, since the ultrasonic wave is more easily attenuated as the frequency becomes higher, a component having a relatively low frequency remains in the ultrasonic echo reflected from the deep part of the subject. Therefore, in the depth direction (distance direction) of the subject, the resolution of the ultrasonic image decreases as the depth increases. For these reasons, the size of the speckle pattern appearing in the ultrasonic image tends to decrease as the frequency of the ultrasonic wave transmitted from the ultrasonic probe increases and increase as the frequency of the ultrasonic wave decreases. In addition, the speckle pattern tends to be small in the ultrasonic image representing the shallow part of the subject, and the speckle pattern tends to be large in the ultrasonic image representing the deep part of the subject.

一方、スペックルパターンの形状は、超音波画像に表されている被検体の深度(以下において、「超音波画像の深度」ともいう)や、超音波の走査方式や、画像データに施される画像処理等の影響を受ける。例えば、走査方式に対応する座標変換を施す前の原画像データにおいては、スペックルパターンが距離方向に長く、方位方向に短い楕円形状になっている。また、リニア走査によって得られた原画像データに補間処理を施すと、スペックルパターンは、距離方向に短く、方位方向に長い楕円形状になる。   On the other hand, the shape of the speckle pattern is applied to the depth of the subject represented in the ultrasound image (hereinafter also referred to as “depth of the ultrasound image”), the ultrasound scanning method, and the image data. Influenced by image processing. For example, in the original image data before coordinate conversion corresponding to the scanning method, the speckle pattern has an elliptical shape that is long in the distance direction and short in the azimuth direction. Further, when interpolation processing is performed on original image data obtained by linear scanning, the speckle pattern becomes an elliptical shape that is short in the distance direction and long in the azimuth direction.

そこで、送信超音波の周波数や超音波画像の深度をパラメータとして用いることにより、ダイレーション係数及びイロージョン係数のマスクサイズ、マスク形状、及び、係数値を設定する。或いは、パラメータとして、心臓や肝臓といった、観測対象である臓器の種類や部位を用いても良い。ある臓器を撮像する場合に用いられる送信超音波の周波数や、その臓器が存在する深さの範囲や、走査方式や座標変換等の内容は概ね決まっている。そこで、送信超音波の周波数や、超音波画像の深度や、走査方式等を、予め観測部位に対応付けておき、観測部位ごとにダイレーション係数及びイロージョン係数を設定しても良い。さらに、送信超音波の周波数と超音波画像の深度、観測部位と送信超音波の周波数、観測部位と超音波画像の深度、又は、送信超音波の周波数と超音波画像の深度と観測部位といったパラメータの組み合わせを用いても良い。   Therefore, the mask size, mask shape, and coefficient value of the dilation coefficient and erosion coefficient are set by using the frequency of the transmission ultrasonic wave and the depth of the ultrasonic image as parameters. Alternatively, the type or part of the organ to be observed, such as the heart or liver, may be used as the parameter. The frequency of transmission ultrasonic waves used when imaging a certain organ, the depth range in which the organ exists, the contents of the scanning method, coordinate conversion, and the like are generally determined. Therefore, the frequency of the transmission ultrasonic wave, the depth of the ultrasonic image, the scanning method, and the like may be associated with the observation region in advance, and the dilation coefficient and the erosion coefficient may be set for each observation region. Furthermore, parameters such as the frequency of the transmitted ultrasound and the depth of the ultrasound image, the frequency of the observed region and the transmitted ultrasound, the depth of the observed region and the ultrasound image, or the frequency of the transmitted ultrasound and the depth of the ultrasound image and the observed region A combination of these may be used.

上記のようなパラメータに基づいて設定される重み付け係数のマスクサイズ及びマスク形状の具体例を挙げる。例えば、中心周波数12MHzの超音波を送信する超音波用探触子を用いて頸部のリニア画像を生成する場合を考える。この場合には、送信超音波の周波数が比較的高く、超音波画像の深度が小さいので、スペックルパターンは比較的小さいが、補間処理によりスペックルパターンが方位方向に長くなっている。そのため、例えば、方位方向×距離方向=9×5の非等方性マスクが用いられる。また、中心周波数3.5MHzの超音波を送信する超音波用探触子を用いて腹部の超音波画像を生成する場合を考える。この場合には、送信超音波の周波数が比較的低く、超音波画像の深度が大きいので、スペックルパターンが比較的大きくなる。そのため、マスクサイズを、例えば、方位方向×距離方向=9×13程度に大きくする。   Specific examples of the mask size and mask shape of the weighting coefficient set based on the above parameters will be given. For example, consider a case in which a linear image of the neck is generated using an ultrasonic probe that transmits ultrasonic waves having a center frequency of 12 MHz. In this case, since the frequency of the transmission ultrasonic wave is relatively high and the depth of the ultrasonic image is small, the speckle pattern is relatively small, but the speckle pattern is elongated in the azimuth direction by the interpolation process. Therefore, for example, an anisotropic mask of azimuth direction × distance direction = 9 × 5 is used. Also, consider a case where an abdominal ultrasound image is generated using an ultrasound probe that transmits ultrasound with a center frequency of 3.5 MHz. In this case, the speckle pattern is relatively large because the frequency of the transmitted ultrasound is relatively low and the depth of the ultrasound image is large. Therefore, the mask size is increased to, for example, about azimuth direction × distance direction = 9 × 13.

次に、重み付け係数の値について説明する。ダイレーション及びイロージョンにおいては、マスク中心とマスク周縁部とにおける重み付け係数の差が小さくなるほど、マスク周縁部がマスク中心に与える影響が大きくなるので、スペックル低減効果が高くなる。反対に、重み付け係数の差が大きくなるほど、スペックル低減効果が控えめになる。従って、送信超音波の周波数が低い場合や、被検体の深部を画像化する場合(即ち、スペックルパターンのサイズが大きい場合)には、重み付け係数の差を小さくすることにより、スペックル低減効果を高くすれば良い。具体的には、ダイレーション係数の値を1より小さい範囲で大きくし、イロージョン係数の値を1より大きい範囲で小さくする。反対に、送信超音波の周波数が高い場合や、被検体の浅部を画像化する場合(即ち、スペックルパターンのサイズが小さい場合)には、重み付け係数の差を大きくすれば良い。具体的には、ダイレーション係数の値を小さくし、イロージョン係数の値を大きくする。この場合には、アーティファクトを抑制する効果がより高くなる。   Next, the value of the weighting coefficient will be described. In dilation and erosion, the smaller the difference between the weighting coefficients at the mask center and the mask peripheral edge, the greater the influence of the mask peripheral edge on the mask center, and the higher the speckle reduction effect. On the other hand, the speckle reduction effect becomes more conspicuous as the difference between the weighting factors increases. Therefore, when the frequency of the transmission ultrasonic wave is low, or when imaging the deep part of the subject (that is, when the size of the speckle pattern is large), the speckle reduction effect is reduced by reducing the difference between the weighting coefficients. Can be raised. Specifically, the value of the dilation coefficient is increased in a range smaller than 1, and the value of the erosion coefficient is decreased in a range larger than 1. On the contrary, when the frequency of the transmission ultrasonic wave is high or when a shallow part of the subject is imaged (that is, when the size of the speckle pattern is small), the difference between the weighting coefficients may be increased. Specifically, the value of the dilation coefficient is decreased and the value of the erosion coefficient is increased. In this case, the effect of suppressing artifacts becomes higher.

また、ダイレーション係数及びイロージョン係数を、ユーザが任意に設定しても良い。ユーザが、画面に表示された超音波画像を観察しながら、これらの係数を設定することにより、所望のスペックル低減及びアーティファクト抑制効果を得ることができる。   Further, the dilation coefficient and the erosion coefficient may be arbitrarily set by the user. The user can obtain desired speckle reduction and artifact suppression effects by setting these coefficients while observing the ultrasonic image displayed on the screen.

このようなダイレーション係数とイロージョン係数とは、マスク領域内の対応する位置における係数同士を乗ずると1になる関係、即ち、dk(x,y)×ek(x,y)=1という関係にあることが望ましい。これにより、モフォロジー処理の前後において、超音波画像全体の明るさ、即ち、超音波画像を構成する全画素の画素値の平均レベルの変動を抑制することができる。   Such a dilation coefficient and an erosion coefficient have a relationship of 1 when multiplied by coefficients at corresponding positions in the mask region, that is, a relationship of dk (x, y) × ek (x, y) = 1. It is desirable to be. Thereby, the brightness of the whole ultrasound image, that is, the fluctuation of the average level of the pixel values of all the pixels constituting the ultrasound image can be suppressed before and after the morphology processing.

以上説明したように、本実施形態によれば、超音波画像について平滑化処理をする際に、マスクサイズ及びマスク形状に起因するアーティファクトを抑制しつつ、スペックルを低減することができる。従って、画質の良い超音波画像を得ることができる。   As described above, according to the present embodiment, speckle can be reduced while suppressing artifacts due to the mask size and mask shape when performing the smoothing process on the ultrasonic image. Therefore, an ultrasonic image with good image quality can be obtained.

本実施形態に係る超音波画像処理方法は、公知の線形又は非線形な輝度変換や、アンシャープマスク等の強調処理や、周波数処理等を組み合わせることにより、超音波画像を平滑化すると共に、輪郭強調効果を得ることも可能である。例えば、原画像データについて本実施形態に係る画像処理を施した後で、周波数強調処理を施すことにより、輪郭強調された画像の精度を向上させることができる。   The ultrasonic image processing method according to the present embodiment smoothes an ultrasonic image by combining known linear or non-linear luminance conversion, enhancement processing such as an unsharp mask, frequency processing, etc., and contour enhancement. It is also possible to obtain an effect. For example, it is possible to improve the accuracy of the edge-enhanced image by performing frequency enhancement processing after performing image processing according to the present embodiment on the original image data.

図6は、本発明の第1の実施形態に係る超音波撮像装置を示すブロック図である。この超音波撮像装置においては、本発明の一実施形態に係る超音波画像処理方法が用いられている。図6に示すように、本実施形態に係る超音波撮像装置は、超音波を送受信する超音波用探触子30と、超音波の送受信を制御すると共に、取得された超音波検出信号に基づいて超音波画像を生成する超音波撮像装置本体とを含んでいる。   FIG. 6 is a block diagram showing the ultrasonic imaging apparatus according to the first embodiment of the present invention. In this ultrasonic imaging apparatus, the ultrasonic image processing method according to an embodiment of the present invention is used. As shown in FIG. 6, the ultrasonic imaging apparatus according to the present embodiment controls the ultrasonic probe 30 that transmits and receives ultrasonic waves, and the transmission and reception of ultrasonic waves, and is based on the acquired ultrasonic detection signals. And an ultrasonic imaging apparatus main body for generating an ultrasonic image.

超音波用探触子30は、複数の超音波トランスデューサが配列された超音波トランスデューサアレイを含んでいる。各超音波トランスデューサは、例えば、PZT(チタン酸ジルコン酸鉛:Pb(lead) zirconate titanate)に代表される圧電セラミックや、PVDF(ポリフッ化ビニリデン:polyvinylidene difluoride)に代表される高分子圧電素子等の圧電性を有する材料(圧電素子)の両端に電極を形成することによって作製されている。このような超音波トランスデューサの電極に、パルス状の電気信号或いは連続波電気信号を送って電圧を印加すると、圧電素子が伸縮して超音波を発生する。そこで、複数の超音波トランスデューサを電子的に制御して、それぞれの超音波トランスデューサからパルス状或いは連続的な超音波を発生させる。これにより、それらの超音波の合成によって超音波ビームが形成され、被検体が電子的に走査される。また、複数の超音波トランスデューサは、伝搬する超音波を受信することによって伸縮し、電気信号を発生する。これらの電気信号は、超音波の検出信号として出力される。   The ultrasonic probe 30 includes an ultrasonic transducer array in which a plurality of ultrasonic transducers are arranged. Each ultrasonic transducer is, for example, a piezoelectric ceramic represented by PZT (Pb (lead) zirconate titanate) or a polymer piezoelectric element represented by PVDF (polyvinylidene difluoride). It is manufactured by forming electrodes on both ends of a piezoelectric material (piezoelectric element). When a voltage is applied by sending a pulsed electric signal or a continuous wave electric signal to the electrodes of such an ultrasonic transducer, the piezoelectric element expands and contracts to generate ultrasonic waves. Therefore, a plurality of ultrasonic transducers are electronically controlled to generate pulsed or continuous ultrasonic waves from the respective ultrasonic transducers. Thereby, an ultrasonic beam is formed by synthesizing those ultrasonic waves, and the subject is electronically scanned. The plurality of ultrasonic transducers expand and contract by receiving propagating ultrasonic waves and generate electrical signals. These electric signals are output as ultrasonic detection signals.

このような超音波用探触子30は、ケーブルを介して超音波撮像装置本体と接続されている。
超音波用探触子30としては、複数の超音波トランスデューサが1次元に配列されたリニアアレイプローブや、複数の超音波トランスデューサが凸面上に配列されたコンベックスアレイプローブ等が用いられる。また、複数の超音波トランスデューサが2次元に配列された2次元アレイプローブを用いても良い。この場合には、超音波用探触子を機械的に移動させることなく異なる複数の断面に関する超音波画像を得ることができる。
Such an ultrasonic probe 30 is connected to the ultrasonic imaging apparatus main body via a cable.
As the ultrasonic probe 30, a linear array probe in which a plurality of ultrasonic transducers are arranged one-dimensionally, a convex array probe in which a plurality of ultrasonic transducers are arranged on a convex surface, or the like is used. A two-dimensional array probe in which a plurality of ultrasonic transducers are two-dimensionally arranged may be used. In this case, ultrasonic images relating to a plurality of different cross sections can be obtained without mechanically moving the ultrasonic probe.

或いは、超音波用探触子30として、被検体内に挿入されて超音波撮像を行う体腔内探触子を用いても良い。体腔内探触子としては、内視鏡の処置具挿入孔に挿入されて用いられる超音波プローブや、図7に示すように、内視鏡と一体化された超音波内視鏡が知られている。   Alternatively, an intracavity probe that is inserted into a subject and performs ultrasonic imaging may be used as the ultrasonic probe 30. As the body cavity probe, there are known an ultrasonic probe that is inserted into a treatment instrument insertion hole of an endoscope and an ultrasonic endoscope integrated with an endoscope as shown in FIG. ing.

図7に示す超音波内視鏡は、挿入部31と、操作部32と、接続コード33と、ユニバーサルコード34とを含んでいる。挿入部31は、患者の体内に挿入することができるように、可撓性を有する細長い管状となっている。挿入部31の基端に設けられている操作部32は、接続コード33を介して超音波観測装置に接続されていると共に、ユニバーサルコード34を介して光源装置に接続されている。また、操作部32には、種々の処置具が挿入部31の先端に向けて挿入される処置具挿入口35が設けられている。   The ultrasonic endoscope shown in FIG. 7 includes an insertion portion 31, an operation portion 32, a connection cord 33, and a universal cord 34. The insertion portion 31 has a flexible and long tubular shape so that it can be inserted into the patient's body. The operation unit 32 provided at the proximal end of the insertion unit 31 is connected to the ultrasonic observation device via the connection cord 33 and is connected to the light source device via the universal cord 34. The operation unit 32 is provided with a treatment instrument insertion port 35 through which various treatment instruments are inserted toward the distal end of the insertion section 31.

超音波内視鏡の挿入部31には、照明窓及び観察窓が設けられている。照明窓には、光源装置からライトガイドを介して供給される照明光を出射させるための照明用レンズが装着されている。これらは、照明光学系を構成する。また、観察窓には、対物レンズが装着されており、この対物レンズの結像位置に、イメージガイドの入力端又はCCDカメラ等の固体撮像素子が配置されている。これらは、観察光学系を構成する。さらに、挿入部31の先端には、被検体内に向けて超音波を送信すると共に、被検体内において発生した超音波エコーを受信する超音波トランスデューサが配置されている。   The insertion portion 31 of the ultrasonic endoscope is provided with an illumination window and an observation window. The illumination window is equipped with an illumination lens for emitting illumination light supplied from the light source device via the light guide. These constitute an illumination optical system. In addition, an objective lens is attached to the observation window, and an image guide input end or a solid-state imaging device such as a CCD camera is disposed at the imaging position of the objective lens. These constitute an observation optical system. Furthermore, an ultrasonic transducer that transmits ultrasonic waves into the subject and receives ultrasonic echoes generated in the subject is disposed at the distal end of the insertion portion 31.

このような体腔内探触子においては、ラジアル走査方式によって超音波撮像が行われる。ラジアル走査方式には、探触子を回転させながら超音波を送受信し、その回転に同期して超音波信号を画像化する機械式ラジアル走査方式と、円形に配置された複数の振動子を電気的に制御することにより走査を行う電子式ラジアル走査方式とがある。このような走査方式によれば、探触子の周囲360°を一度に表示することが可能である。或いは、ラジアル走査以外の走査方式を利用する体腔内探触子として、先端部にコンベックスアレイを配置したものも知られている。コンベックスアレイを用いる場合には、広い視野角を得ることができる。   In such a body cavity probe, ultrasonic imaging is performed by a radial scanning method. In the radial scanning method, an ultrasonic wave is transmitted and received while rotating the probe, and an ultrasonic signal is imaged in synchronization with the rotation, and a plurality of transducers arranged in a circle are electrically connected. There is an electronic radial scanning method in which scanning is performed by controlling automatically. According to such a scanning method, 360 ° around the probe can be displayed at a time. Alternatively, an intracavity probe using a scanning method other than radial scanning is known in which a convex array is arranged at the tip. When using a convex array, a wide viewing angle can be obtained.

再び、図6を参照すると、超音波撮像装置本体は、制御部40と、記録部41と、駆動信号発生部42と、送受信切換部43と、信号処理部51と、A/D変換器52と、ディジタル処理部50と、画像メモリ58と、D/A変換器59と、表示部60と、入力部61とを含んでいる。制御部40は、CPUとソフトウェアとによって構成されており、超音波撮像装置の各部を制御している。   Referring to FIG. 6 again, the main body of the ultrasonic imaging apparatus includes a control unit 40, a recording unit 41, a drive signal generation unit 42, a transmission / reception switching unit 43, a signal processing unit 51, and an A / D converter 52. A digital processing unit 50, an image memory 58, a D / A converter 59, a display unit 60, and an input unit 61. The control unit 40 includes a CPU and software, and controls each unit of the ultrasonic imaging apparatus.

記録部41は、超音波撮像装置に含まれるCPUに動作を実行させるための基本プログラム及び種々の処理のために用いられるプログラム(ソフトウェア)や、それらの処理に用いられる情報等を記録するための記録媒体を制御する。例えば、重み付け係数記録部41aには、スペックル低減処理のために用いられる複数種類のダイレーション係数及びイロージョン係数が、送信超音波の周波数や、超音波画像の深度や、観測部位等のパラメータに対応づけて記録されている。なお、記録媒体としては、内蔵のハードディスクの他に、外付けハードディスク、フレキシブルディスク、MO、MT、RAM、CD−ROM、又は、DVD−ROM等を用いても良い。   The recording unit 41 records a basic program for causing a CPU included in the ultrasonic imaging apparatus to execute an operation, a program (software) used for various processes, information used for the processes, and the like. Control the recording medium. For example, in the weighting coefficient recording unit 41a, a plurality of types of dilation coefficients and erosion coefficients used for speckle reduction processing are used as parameters such as transmission ultrasonic frequency, ultrasonic image depth, observation region, and the like. Correspondingly recorded. In addition to the built-in hard disk, an external hard disk, flexible disk, MO, MT, RAM, CD-ROM, or DVD-ROM may be used as the recording medium.

駆動信号発生部42は、超音波用探触子30に含まれる複数の超音波トランスデューサにそれぞれ対応する複数のパルサを含んでいる。各パルサは、制御部40の制御の下で、所定のタイミングで駆動信号を発生する。これにより、複数の超音波トランスデューサから、所定の時間差をもって超音波がそれぞれ発生する。   The drive signal generation unit 42 includes a plurality of pulsers respectively corresponding to the plurality of ultrasonic transducers included in the ultrasonic probe 30. Each pulser generates a drive signal at a predetermined timing under the control of the control unit 40. Thereby, ultrasonic waves are respectively generated from the plural ultrasonic transducers with a predetermined time difference.

送受信切換部43は、駆動信号発生部42において発生した駆動信号の超音波用探触子30への入力と、後述する信号処理部51における検出信号の取り込みとを、制御部40の制御に従って所定のタイミングで切り換える。このように検出信号の読み取り時間帯を限定することにより、被検体の特定の深さから反射された超音波エコー信号が検出される。   The transmission / reception switching unit 43 inputs the drive signal generated by the drive signal generation unit 42 to the ultrasonic probe 30 and captures a detection signal in a signal processing unit 51 described later according to the control of the control unit 40. Switch at the timing. By limiting the reading time zone of the detection signal in this way, an ultrasonic echo signal reflected from a specific depth of the subject is detected.

信号処理部51は、複数の超音波トランスデューサにそれぞれ対応する複数のチャンネルを含んでいる。これらのチャンネルの各々は、対応する超音波トランスデューサから出力された検出信号を所定のタイミングで取り込み、増幅、ナイキストフィルタ処理等の信号処理を行う。
A/D変換器52は、信号処理部51において処理されたアナログ信号をディジタル変換することにより、検出データを生成する。
The signal processing unit 51 includes a plurality of channels respectively corresponding to the plurality of ultrasonic transducers. Each of these channels captures a detection signal output from the corresponding ultrasonic transducer at a predetermined timing, and performs signal processing such as amplification and Nyquist filter processing.
The A / D converter 52 generates detection data by digitally converting the analog signal processed in the signal processing unit 51.

ディジタル処理部50は、メモリ53と、受信フォーカス処理部54と、ディジタル・スキャン・コンバータ(DSC)55と、スペックル低減処理部56と、画像処理部57とを含んでいる。メモリ53は、信号処理部51の複数のチャンネルにそれぞれ対応するラインメモリを含んでおり、生成された検出データを、ラインごとに時系列に記憶する。或いは、メモリ53を、一定時間分の動画データを記憶するシネメモリによって構成しても良い。   The digital processing unit 50 includes a memory 53, a reception focus processing unit 54, a digital scan converter (DSC) 55, a speckle reduction processing unit 56, and an image processing unit 57. The memory 53 includes line memories respectively corresponding to the plurality of channels of the signal processing unit 51, and stores the generated detection data in time series for each line. Or you may comprise the memory 53 by the cine memory which memorize | stores the moving image data for a fixed time.

受信フォーカス処理部54は、メモリ53に記憶されている複数の検出データに遅延をかけ、それらを加算することにより、受信フォーカス処理を行う。これにより、所定の音線方向に焦点が絞り込まれた受信ビームを表す音線データが生成される。さらに、音線データによって表される波形について検波を行うことによって、画像データが得られる。この画像データの値は、超音波画像を構成する複数の画素の画素値を表す。   The reception focus processing unit 54 performs reception focus processing by delaying a plurality of detection data stored in the memory 53 and adding them. As a result, sound ray data representing a reception beam focused in a predetermined sound ray direction is generated. Furthermore, image data is obtained by detecting the waveform represented by the sound ray data. The value of this image data represents the pixel values of a plurality of pixels constituting the ultrasonic image.

DSC55は、超音波ビームの走査空間の画像データから物理空間の画像データに走査フォーマットを変換することにより、表示用の画像データを生成する。即ち、DSC55は、画像表示レンジに対応するリサンプリングと、超音波の走査方式に対応する表示形態への座標変換及び補間を行う。例えば、リニア走査によって得られた画像データには、リニア画像を生成するための補間処理が施される。また、セクタ走査や、コンベックス走査や、ラジアル走査によって得られた画像データには、極座標変換及び補間処理が施される。   The DSC 55 generates image data for display by converting the scanning format from image data in the scanning space of the ultrasonic beam to image data in the physical space. That is, the DSC 55 performs resampling corresponding to the image display range, and coordinate conversion and interpolation to a display form corresponding to the ultrasonic scanning method. For example, image data obtained by linear scanning is subjected to an interpolation process for generating a linear image. Also, polar coordinate conversion and interpolation processing are performed on image data obtained by sector scanning, convex scanning, or radial scanning.

スペックル低減処理部56は、入力された画像データについて、重み付け係数を用いたモフォロジー処理を施すことにより、超音波画像におけるスペックルを低減する処理を行う。なお、スペックル低減処理の詳細については、図1を用いて説明したものと同様である。
画像処理部57は、入力された画像データについて、距離減衰を補正するためのSTC(センシティビティ・タイム・コントロール)や、ゲイン調整及びコントラスト調整を含む線形の階調処理や、γ補正を含む非線形な階調処理等の画像処理を施す。
The speckle reduction processing unit 56 performs a process of reducing speckles in the ultrasonic image by performing a morphology process using a weighting coefficient on the input image data. Note that the details of the speckle reduction processing are the same as those described with reference to FIG.
The image processing unit 57 performs, for input image data, STC (sensitivity time control) for correcting distance attenuation, linear gradation processing including gain adjustment and contrast adjustment, and non-linear including γ correction. Image processing such as gradation processing.

画像メモリ58は、表示用の画像データを、例えば、ラスタスキャンが可能な形式で記憶する。また、D/A変換器59は、画像メモリ58から読み出された画像データをアナログ信号に変換して出力する。   The image memory 58 stores image data for display in a format capable of raster scanning, for example. The D / A converter 59 converts the image data read from the image memory 58 into an analog signal and outputs it.

表示部60は、例えば、ラスタスキャン方式のCRTディスプレイ又はLEDディスプレイであり、D/A変換された画像信号に基づいて超音波画像を表示する。
入力部61は、超音波撮像装置本体に種々の命令や情報を入力する際に用いられる入力デバイスである。入力部61は、調節ツマミや、入力ボタンや、キーボードや、タッチパネル等を含む調整卓によって構成されても良いし、外付けキーボードや、マウス等のポインティングデバイスによって構成されても良い。入力部61には、送信周波数を設定するために用いられる送信周波数入力部61aや、ユーザが観測したい部位を入力するために用いられる観測部位(ボディマーク)入力部61b等が含まれる。
The display unit 60 is, for example, a raster scan CRT display or LED display, and displays an ultrasonic image based on the D / A converted image signal.
The input unit 61 is an input device used when inputting various commands and information to the ultrasonic imaging apparatus main body. The input unit 61 may be configured by an adjustment knob, an input button, a keyboard, an adjustment console including a touch panel, or an external keyboard or a pointing device such as a mouse. The input unit 61 includes a transmission frequency input unit 61a used for setting a transmission frequency, an observation part (body mark) input part 61b used for inputting a part that the user wants to observe, and the like.

本実施形態において、受信フォーカス処理部54、DSC55、スペックル低減処理部56、及び、画像処理部57は、CPUとソフトウェアによって構成されている。しかしながら、これらの各部54〜57をアナログ回路又はディジタル回路を用いて構成しても良い。例えば、画像処理部57において行われるSTC、ゲイン調整、コントラスト調整を、信号処理部にアナログ回路を設けることにより、アナログ信号に対して行っても良い。   In the present embodiment, the reception focus processing unit 54, the DSC 55, the speckle reduction processing unit 56, and the image processing unit 57 are configured by a CPU and software. However, these units 54 to 57 may be configured using an analog circuit or a digital circuit. For example, STC, gain adjustment, and contrast adjustment performed in the image processing unit 57 may be performed on an analog signal by providing an analog circuit in the signal processing unit.

また、メモリ53〜画像処理部57を含むディジタル処理部50を、パーソナルコンピュータ(PC)を用いて構成しても良い。その場合には、ディジタル処理部50において処理されるデータを、超音波用探触子30や、信号処理部51及びA/D変換器52を介して直接入力しても良いし、ネットワークや記録媒体を介して入力しても良い。   The digital processing unit 50 including the memory 53 to the image processing unit 57 may be configured using a personal computer (PC). In that case, data processed by the digital processing unit 50 may be directly input via the ultrasonic probe 30, the signal processing unit 51, and the A / D converter 52, or may be a network or recording. You may input via a medium.

次に、図6に示す超音波撮像装置の動作について説明する。
超音波撮像を開始する前に、ユーザは、所定の設定項目について、入力部61を用いて入力する。例えば、ユーザは、送信超音波の周波数や、観測部位(例えば、心臓や肝臓等の内臓の名称)等の情報を、送信周波数入力部61aや観測部位入力部61bを用いて入力する。或いは、ユーザが超音波撮像装置本体に超音波用探触子30を接続することにより、制御部40が超音波用探触子30の種類や送信超音波の周波数を認識するようにしても良い。これにより、制御部40は、超音波の送受信を行うための所定の項目を設定すると共に、それらのパラメータに基づいて、重み付け係数記録部41aに記録されている複数の重み付け係数の中から、モフォロジー処理において用いられる重み付け係数を選択する。
Next, the operation of the ultrasonic imaging apparatus shown in FIG. 6 will be described.
Before starting the ultrasonic imaging, the user inputs predetermined setting items using the input unit 61. For example, the user inputs information such as the frequency of the transmission ultrasonic wave and the observation site (for example, the names of internal organs such as the heart and liver) using the transmission frequency input unit 61a and the observation site input unit 61b. Alternatively, when the user connects the ultrasonic probe 30 to the ultrasonic imaging apparatus main body, the control unit 40 may recognize the type of the ultrasonic probe 30 and the frequency of the transmission ultrasonic wave. . As a result, the control unit 40 sets predetermined items for transmitting and receiving ultrasonic waves, and based on these parameters, a morphology is selected from a plurality of weighting factors recorded in the weighting factor recording unit 41a. A weighting factor used in the process is selected.

次に、ユーザが超音波撮像を開始すると、制御部40の制御の下で、設定された周波数を有する超音波ビームが超音波用探触子30から送信され、リニア走査や、セクタ走査や、コンベックス走査や、ラジアル走査等の走査方式によって被検体が走査される。この超音波ビームが被検体内に存在する反射体によって反射され、複数の超音波エコーが超音波用探触子30によって受信される。受信された超音波エコーは、超音波用探触子30において電気信号に変換され、検出信号として超音波撮像装置本体に入力される。   Next, when the user starts ultrasonic imaging, an ultrasonic beam having a set frequency is transmitted from the ultrasonic probe 30 under the control of the control unit 40, and linear scanning, sector scanning, The subject is scanned by a scanning method such as convex scanning or radial scanning. The ultrasonic beam is reflected by a reflector present in the subject, and a plurality of ultrasonic echoes are received by the ultrasonic probe 30. The received ultrasonic echo is converted into an electric signal by the ultrasonic probe 30 and input to the ultrasonic imaging apparatus main body as a detection signal.

超音波撮像装置本体に入力された複数の検出信号は、信号処理部51において所定の信号処理を施される。これにより、広帯域且つ不要な周波数成分が除去された検出信号が得られる。これらの検出信号は、A/D変換され、一旦メモリ53に記憶された後、受信フォーカス処理部54において受信フォーカス処理を施され、音線データが生成される。このようにして生成された音線データに基づいて得られた画像データは、DSC55に入力される。DSC55においては、入力された音線データについて、走査方式に応じた走査フォーマットの変換が行われる。   The plurality of detection signals input to the ultrasonic imaging apparatus main body are subjected to predetermined signal processing in the signal processing unit 51. Thereby, a detection signal from which a wide band and unnecessary frequency components are removed is obtained. These detection signals are A / D converted, temporarily stored in the memory 53, and then subjected to reception focus processing in the reception focus processing unit 54 to generate sound ray data. Image data obtained based on the sound ray data generated in this way is input to the DSC 55. In the DSC 55, scanning format conversion corresponding to the scanning method is performed on the input sound ray data.

このようにして生成された画像データは、スペックル低減処理部56において、予め制御部40によって選択された重み付け係数を用いたモフォロジー処理を施される。或いは、その際に、ユーザによって任意に入力されたダイレーション係数及びイロージョン係数が用いられても良い。
スペックル低減処理を施された画像データは、画像処理部57において、階調処理等の所定の画像処理を受け、一旦画像メモリ58に記憶された後、D/A変換されて出力される。これにより、表示部60の画面に超音波画像が表示される。
The image data generated in this way is subjected to a morphology process using a weighting coefficient selected in advance by the control unit 40 in the speckle reduction processing unit 56. Alternatively, at that time, dilation coefficients and erosion coefficients arbitrarily input by the user may be used.
The image data subjected to the speckle reduction processing is subjected to predetermined image processing such as gradation processing in the image processing unit 57, temporarily stored in the image memory 58, and then subjected to D / A conversion and output. Thereby, an ultrasonic image is displayed on the screen of the display unit 60.

次に、本発明の第2の実施形態に係る超音波撮像装置について、図8及び図9を参照しながら説明する。図8は、本実施形態に係る超音波撮像装置を示すブロック図である。この超音波撮像装置は、図6に示すディジタル処理部50の替わりに、図7に示すディジタル処理部70を含んでいる。その他の構成については、図6に示す超音波撮像装置と同様である。   Next, an ultrasonic imaging apparatus according to the second embodiment of the present invention will be described with reference to FIGS. FIG. 8 is a block diagram showing the ultrasonic imaging apparatus according to this embodiment. This ultrasonic imaging apparatus includes a digital processing unit 70 shown in FIG. 7 instead of the digital processing unit 50 shown in FIG. About another structure, it is the same as that of the ultrasonic imaging device shown in FIG.

図より明らかなように、図6に示すディジタル処理部50と図8に示すディジタル処理部70とは、受信フォーカス処理後のデータ処理の順序が異なっている。即ち、図8に示すディジタル処理部70において、受信フォーカス処理によって生成された音線データに基づいて得られた画像データは、スペックル低減処理部56におけるスペックル低減処理と、画像処理部57における階調処理等の画像処理とを施された後で、DSC55において走査フォーマットを変換される。   As apparent from the figure, the digital processing unit 50 shown in FIG. 6 and the digital processing unit 70 shown in FIG. 8 are different in the order of data processing after the reception focus processing. That is, in the digital processing unit 70 shown in FIG. 8, the image data obtained based on the sound ray data generated by the reception focus processing is the speckle reduction processing in the speckle reduction processing unit 56 and the image processing unit 57. After image processing such as gradation processing is performed, the scanning format is converted in the DSC 55.

図8に示すように、DSC55の前段にスペックル低減処理部56を配置する場合には、次のような利点がある。図9の(a)に示すように、DSC55において走査変換を施される前の画像データにおいては、スペックルパターンの形状は、超音波画像全体に渡ってほぼ均一である。そのような画像データについて、例えば、セクタ画像を得るために極座標変換(走査変換)を施す。ここで、一般的な超音波撮像装置においては、表示角度が60°以上の極座標変換が施される場合が多い。それにより、図9の(b)に示すように、超音波画像は、深度Lが大きいほど横長に延び、方位角θが大きいほど(例えば、θ=θ)円周方向に延びた画像に変換される。そのため、超音波画像に出現しているスペックルパターンも、そのような形状に変形する。即ち、スペックルパターンの形状が、画像処理の影響によって不均一になってしまう。 As shown in FIG. 8, when the speckle reduction processing unit 56 is arranged in the front stage of the DSC 55, there are the following advantages. As shown in FIG. 9A, in the image data before the scan conversion is performed in the DSC 55, the shape of the speckle pattern is almost uniform over the entire ultrasonic image. For such image data, for example, polar coordinate conversion (scan conversion) is performed in order to obtain a sector image. Here, in a general ultrasonic imaging apparatus, polar coordinate conversion with a display angle of 60 ° or more is often performed. As a result, as shown in FIG. 9B, the ultrasonic image becomes an image that extends horizontally as the depth L increases, and extends in the circumferential direction as the azimuth angle θ increases (for example, θ = θ 1 ). Converted. Therefore, the speckle pattern appearing in the ultrasonic image is also deformed into such a shape. That is, the shape of the speckle pattern becomes non-uniform due to the influence of image processing.

そのような超音波画像についてスペックル低減処理を施すと、スペックル低減効果が超音波画像内の位置によって不均一になってしまう。また、スペックル低減効果を均一にするために、超音波画像内の位置に応じてマスク形状を変更することも考えられるが、演算処理が煩雑になってしまう。そこで、スペックルパターンの変形が生じる前、即ち、走査変換前の段階でスペックル低減処理を行うことにより、簡単な演算処理で、超音波画像全体に渡って均一なスペックル低減効果を得ることができる。   When speckle reduction processing is performed on such an ultrasonic image, the speckle reduction effect becomes uneven depending on the position in the ultrasonic image. Moreover, in order to make the speckle reduction effect uniform, it is conceivable to change the mask shape according to the position in the ultrasonic image, but the calculation processing becomes complicated. Therefore, by performing speckle reduction processing before speckle pattern deformation occurs, that is, before scan conversion, it is possible to obtain a uniform speckle reduction effect over the entire ultrasound image by simple arithmetic processing. Can do.

また、リニア画像を得るためには、DSC55において画像データに補間処理が施されるが、それにより、演算対象となるデータ量が増えてしまう。しかしながら、補間処理を施す前のデータ量の少ない段階でスペックル低減処理を行うことにより、高速に処理することが可能になる。特に、超音波内視鏡等において取得されるラジアル画像の場合には、大きな効果を得ることができる。   Further, in order to obtain a linear image, interpolation processing is performed on the image data in the DSC 55, which increases the amount of data to be calculated. However, it is possible to perform high-speed processing by performing speckle reduction processing at a stage where the amount of data before performing interpolation processing is small. In particular, in the case of a radial image acquired by an ultrasonic endoscope or the like, a great effect can be obtained.

本実施形態において用いられる重み付け係数のマスク形状の例について述べる。一般に、走査変換前において、スペックルパターンは、距離方向に長く伸びた形状を有している。そのため、そのようなスペックルを低減するためには、距離方向に長い非等方性マスクを用いることが効果的である。例えば、腹部の超音波画像を生成する場合には、送信超音波の周波数が比較的低く(例えば、中心周波数が約3.5MHz)、超音波画像の深度が大きいので、スペックルパターンが比較的大きくなる。従って、この場合には、例えば、方位方向×距離方向=9×13の非等方性マスクが用いられる。このようなマスクを用いたモフォロジー処理後の画像について走査変換を施すことにより、腹部コンベックス画像が得られる。
なお、本実施形態においては、画像処理部57における画像処理の内、γ補正は、DSC55における走査フォーマットの変換後に行っても良い。
An example of the mask shape of the weighting coefficient used in this embodiment will be described. In general, before scan conversion, the speckle pattern has a shape extending long in the distance direction. Therefore, in order to reduce such speckle, it is effective to use an anisotropic mask that is long in the distance direction. For example, when generating an abdominal ultrasound image, the frequency of the transmitted ultrasound is relatively low (for example, the center frequency is about 3.5 MHz) and the depth of the ultrasound image is large, so the speckle pattern is relatively growing. Therefore, in this case, for example, an anisotropic mask of azimuth direction × distance direction = 9 × 13 is used. An abdominal convex image is obtained by performing scan conversion on the image after the morphology processing using such a mask.
In the present embodiment, among the image processing in the image processing unit 57, the γ correction may be performed after the scan format conversion in the DSC 55.

次に、本発明の第3の実施形態に係る超音波撮像装置について説明する。図10は、本実施形態に係る超音波撮像装置を示すブロック図である。この超音波撮像装置は、図6に示すディジタル処理部50の替わりに、図10に示すディジタル処理部80を含んでいる。その他の構成については、図6に示す超音波撮像装置と同様である。   Next, an ultrasonic imaging apparatus according to the third embodiment of the present invention will be described. FIG. 10 is a block diagram showing the ultrasonic imaging apparatus according to this embodiment. This ultrasonic imaging apparatus includes a digital processing unit 80 shown in FIG. 10 instead of the digital processing unit 50 shown in FIG. About another structure, it is the same as that of the ultrasonic imaging device shown in FIG.

ディジタル処理部80は、図6に示すディジタル処理部50に対して、スペックル低減処理部56の後段に設けられた周波数帯域分割処理部81をさらに有している。周波数帯域分割処理部81は、スペックル低減処理部56においてスペックル低減処理を施された画像データについて、空間周波数成分を複数の周波数帯域に分割することにより、周波数強調処理を行う。   The digital processing unit 80 further includes a frequency band division processing unit 81 provided in the subsequent stage of the speckle reduction processing unit 56 with respect to the digital processing unit 50 shown in FIG. The frequency band division processing unit 81 performs frequency enhancement processing on the image data that has been subjected to the speckle reduction processing by the speckle reduction processing unit 56 by dividing the spatial frequency component into a plurality of frequency bands.

周波数帯域分割処理部81の動作について、図11を参照しながら詳しく説明する。図11は、周波数帯域分割処理を説明するための図である。
図11に示すように、スペックル低減処理部において処理された画像データDT(0)が、周波数帯域分割処理部81に入力されると、ダウンサンプリング部801において、画像データDT(0)が間引きされると共に、間引きされたデータに、ナイキストフィルタ処理等のフィルタ処理が施される。このような処理を繰り返すことにより、空間周波数成分が低いダウンサンプリングデータDT(1)、DT(2)、…、DT(N)が順次生成される。
The operation of the frequency band division processing unit 81 will be described in detail with reference to FIG. FIG. 11 is a diagram for explaining the frequency band division processing.
As shown in FIG. 11, when the image data DT (0) processed in the speckle reduction processing unit is input to the frequency band division processing unit 81, the image data DT (0) is thinned out in the downsampling unit 801. At the same time, the thinned data is subjected to filter processing such as Nyquist filter processing. By repeating such processing, downsampling data DT (1), DT (2),..., DT (N) having low spatial frequency components are sequentially generated.

次に、アップサンプリング部802において、n番目のダウンサンプリングデータDT(n)(n=1〜N)に0値のデータが挿入されると共に、平滑化フィルタ処理等のフィルタ処理が施される。これにより、隣接する(n−1)番目のデータと同じサイズのアップサンプリングデータDT(n)’が得られる。   Next, in the upsampling unit 802, 0-value data is inserted into the nth downsampled data DT (n) (n = 1 to N), and filter processing such as smoothing filter processing is performed. As a result, upsampling data DT (n) ′ having the same size as the adjacent (n−1) th data is obtained.

次に、減算部803において、(n−1)番目のダウンサンプリングデータDT(n−1)と、隣接するn番目のアップサンプリングデータDT(n)’との間で減算処理が行われる。これにより、減算データDS(0)〜DS(N−1)が得られる。これらの減算データDS(0)〜DS(N−1)は、画像データDT(0)に含まれる空間周波数成分f〜fをN個の周波数帯域に分割した周波数成分をそれぞれ含むデータ群である。例えば、減算データDS(n)(n=0〜N−1)には、周波数成分f〜fn+1が含まれている。 Next, the subtraction unit 803 performs a subtraction process between the (n−1) th downsampling data DT (n−1) and the adjacent nth upsampling data DT (n) ′. Thereby, the subtraction data DS (0) to DS (N-1) are obtained. These subtraction data DS (0) ~DS (N- 1) , the data group including image data DT (0) frequency components of the spatial frequency components f 0 ~f N is divided into N frequency bands included in each It is. For example, the subtraction data DS (n) (n = 0 to N−1) includes frequency components f n to f n + 1 .

次に、掛算部804において、減算データDS(0)、DS(1)、…、DS(N−1)に、重み付け係数k、k、…、kN−1がそれぞれ掛算される。さらに、重み付け係数が掛算されたデータDS(n)’(n=1〜N−1)は、アップサンプリング部805において、元の画像データDT(0)とデータサイズが等しくなるようにアップサンプリングされる。 Then, the multiplication section 804, subtraction data DS (0), DS (1 ), ..., the DS (N-1), the weighting coefficients k 0, k 1, ..., k N-1 are multiplied respectively. Further, the data DS (n) ′ (n = 1 to N−1) multiplied by the weighting coefficient is upsampled by the upsampling unit 805 so that the data size is equal to that of the original image data DT (0). The

このようにデータのサイズを揃えられたデータDS(0)、及び、DS(1)’、DS(2)’、…、DS(N−1)’は、加算部806において加算される。これにより、空間周波数帯域ごとに重み付けされたデータDTENが生成される。さらに、この重み付けされたデータDTEN及び元の画像データDT(0)は、掛算部807において、所定の重み付け係数K及び(1−K)をそれぞれ掛算され、加算部808において加算される。このようにして、周波数強調処理された画像データDTOUTが生成されて、出力される。 The data DS (0) and DS (1) ′, DS (2) ′,..., DS (N−1) ′ having the same data size are added in the adding unit 806. Thus, the data DT EN weighted for each spatial frequency band is generated. Furthermore, the weighted data DT EN and the original image data DT (0), in the multiplication section 807, is multiplied predetermined weighting coefficients K and (1-K) respectively, are added in the adding unit 808. In this manner, the frequency-enhanced image data DT OUT is generated and output.

掛算部804において用いられる重み付け係数k〜kN−1は、処理される画像データの特性に応じて設定される。本実施形態におけるように、スペックル低減処理を施された画像データについて周波数強調処理を施す場合には、空間周波数が比較的高い成分を強調することが好ましい。例えば、超音波周波数が約12MHzの超音波ビームを送受信することによって得られた画像データについて、ダウンサンプリングレート1/2で6つの空間周波数帯域に分割した場合に、重み付け係数kを大きく設定すると、良好な結果が得られている。なお、重み付け係数k〜kN−1は、超音波周波数や、被検体の深度や、観察部位等のパラメータに対応付けて、図9に示す記録部41に予め記録しておいても良いし、ユーザが任意の値を入力しても良い。前者の場合には、それらのパラメータに応じて適切な重み付け係数が設定され、後者の場合には、ユーザの所望の周波数強調効果を得ることができる。 The weighting coefficients k 0 to k N−1 used in the multiplication unit 804 are set according to the characteristics of the image data to be processed. As in the present embodiment, when frequency enhancement processing is performed on image data that has been subjected to speckle reduction processing, it is preferable to emphasize components having a relatively high spatial frequency. For example, the image data obtained by the ultrasonic frequency to transmit and receive ultrasonic beams of approximately 12 MHz, the case of dividing into six spatial frequency band by the down-sampling rate 1/2, when setting a large weighting coefficient k 0 Good results have been obtained. The weighting coefficients k 0 to k N−1 may be recorded in advance in the recording unit 41 shown in FIG. 9 in association with parameters such as the ultrasonic frequency, the depth of the subject, and the observation site. The user may input an arbitrary value. In the former case, an appropriate weighting coefficient is set according to those parameters, and in the latter case, a user-desired frequency enhancement effect can be obtained.

以上説明したように、本実施形態によれば、スペックル低減処理部56において処理された画像データについて、周波数帯域分割による周波数強調処理を施すので、アーティファクトを抑制しつつスペックルが低減された画像を輪郭強調することができる。従って、精度の高い超音波画像を得ることが可能になる。   As described above, according to the present embodiment, the image data processed in the speckle reduction processing unit 56 is subjected to frequency enhancement processing by frequency band division, so that an image in which speckle is reduced while suppressing artifacts. The contour can be emphasized. Accordingly, it is possible to obtain a highly accurate ultrasonic image.

次に、本発明の第4の実施形態に係る超音波撮像装置について説明する。図12は、本実施形態に係る超音波撮像装置を示すブロック図である。この超音波撮像装置は、図10に示すディジタル処理部80の替わりに、図12に示すディジタル処理部90を含んでいる。その他の構成については、図10に示す超音波撮像装置と同様である。   Next, an ultrasonic imaging apparatus according to the fourth embodiment of the present invention will be described. FIG. 12 is a block diagram showing the ultrasonic imaging apparatus according to this embodiment. This ultrasonic imaging apparatus includes a digital processing unit 90 shown in FIG. 12 instead of the digital processing unit 80 shown in FIG. About another structure, it is the same as that of the ultrasonic imaging device shown in FIG.

図10に示すディジタル処理部80と図12に示すディジタル処理部90とは、受信フォーカス処理後のデータ処理の順序が異なっている。即ち、図12に示すディジタル処理部において受信フォーカス処理により生成された音線データに基づいて得られた画像データは、スペックル低減処理部56におけるスペックル低減処理と、周波数帯域分割処理部81における周波数帯域分割処理と、画像処理部57における階調処理等の画像処理とを施された後で、DSC55において走査フォーマットを変換される。   The digital processing unit 80 shown in FIG. 10 and the digital processing unit 90 shown in FIG. 12 are different in the order of data processing after the reception focus processing. That is, the image data obtained based on the sound ray data generated by the reception focus processing in the digital processing unit shown in FIG. 12 is processed by the speckle reduction processing in the speckle reduction processing unit 56 and the frequency band division processing unit 81. After performing frequency band division processing and image processing such as gradation processing in the image processing unit 57, the scanning format is converted in the DSC 55.

ここで、周波数帯域分割処理等を走査フォーマットの変換前に行うことの利点について説明する。走査変換等の処理が施される前の画像データには、より広帯域且つ豊富な量の画像情報が含まれている。従って、走査変換前の画像データについて周波数帯域分割処理を施す場合には、周波数帯域幅を狭くして、調整可能な周波数帯域の分割数を増やすことができる。即ち、周波数強調処理をより細かく制御することができるので、精確な輪郭強調処理によって精度の高い超音波画像を得たり、所望の周波数成分を強調することにより、見やすい超音波画像を生成することが可能となる。   Here, an advantage of performing the frequency band division processing and the like before the conversion of the scanning format will be described. The image data before being subjected to processing such as scan conversion includes a wider band and an abundant amount of image information. Therefore, when performing frequency band division processing on image data before scan conversion, the frequency bandwidth can be narrowed and the number of adjustable frequency band divisions can be increased. That is, since the frequency enhancement process can be controlled more finely, an accurate ultrasonic image can be obtained by an accurate contour enhancement process, or an easy-to-see ultrasonic image can be generated by enhancing a desired frequency component. It becomes possible.

本発明は、医療や構造物の非破壊検査に用いられる超音波撮像装置において利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used in an ultrasonic imaging apparatus used for medical treatment and nondestructive inspection of structures.

本発明の一実施形態に係る超音波画像処理方法を示すフローチャートである。It is a flowchart which shows the ultrasonic image processing method which concerns on one Embodiment of this invention. 一般的なモフォロジー処理におけるダイレーション及びイロージョンを説明するための図である。It is a figure for demonstrating the dilation and erosion in a general morphology process. 一般的なモフォロジー処理によるスペックル低減と、マスクサイズに起因して生じるアーティファクトを説明するための図である。It is a figure for demonstrating the speckle reduction by a general morphology process, and the artifact resulting from a mask size. 本発明の一実施形態に係る超音波画像処理方法において行われるモフォロジー処理を説明するための図である。It is a figure for demonstrating the morphology process performed in the ultrasonic image processing method which concerns on one Embodiment of this invention. 本発明の一実施形態において用いられるダイレーション係数及びイロージョン係数の例を示す図である。It is a figure which shows the example of the dilation coefficient and erosion coefficient which are used in one Embodiment of this invention. 本発明の第1の実施形態に係る超音波撮像装置を示すブロック図である。1 is a block diagram illustrating an ultrasonic imaging apparatus according to a first embodiment of the present invention. 超音波内視鏡の構成を示す模式図である。It is a schematic diagram which shows the structure of an ultrasonic endoscope. 本発明の第2の実施形態に係る超音波撮像装置を示すブロック図である。It is a block diagram which shows the ultrasonic imaging apparatus which concerns on the 2nd Embodiment of this invention. 極座標変換によるスペックルパターンへの影響を説明するための図である。It is a figure for demonstrating the influence on the speckle pattern by polar coordinate transformation. 本発明の第3の実施形態に係る超音波撮像装置を示すブロック図である。It is a block diagram which shows the ultrasonic imaging apparatus which concerns on the 3rd Embodiment of this invention. 周波数帯域分割処理を説明するための図である。It is a figure for demonstrating a frequency band division process. 本発明の第4の実施形態に係る超音波撮像装置を示すブロック図である。It is a block diagram which shows the ultrasonic imaging apparatus which concerns on the 4th Embodiment of this invention.

符号の説明Explanation of symbols

10 画素
11a〜11c 高輝度領域
12、16、17 低輝度領域
13、15、15a〜15d マスク領域
14 注目画素
15a〜15d 領域
30 超音波用探触子
31 挿入部
32 操作部
33 接続コード
34 ユニバーサルコード
35 処置具挿入口
40 制御部
41 記録部
41a 重み付け係数記録部
42 駆動信号発生部
43 送受信切換部
50、70、80、90 ディジタル処理部
51 信号処理部
52 A/D変換器
53 メモリ
54 受信フォーカス制御部
55 ディジタル・スキャン・コンバータ(DSC)
56 スペックル低減処理部
57 画像処理部
58 画像メモリ
59 D/A変換器
60 表示部
61 入力部
61a 送信周波数入力部
61b 観測部位入力部
81 周波数帯域分割処理部
801 ダウンサンプリング部
802、805 アップサンプリング部
803 減算部
804、807 掛算部
806、808 加算部
10 pixels 11a to 11c high luminance regions 12, 16, 17 low luminance regions 13, 15, 15a to 15d mask region 14 target pixels 15a to 15d region 30 ultrasonic probe 31 insertion unit 32 operation unit 33 connection code 34 universal Code 35 Treatment instrument insertion port 40 Control unit 41 Recording unit 41a Weighting coefficient recording unit 42 Drive signal generating unit 43 Transmission / reception switching units 50, 70, 80, 90 Digital processing unit 51 Signal processing unit 52 A / D converter 53 Memory 54 Reception Focus control unit 55 Digital scan converter (DSC)
56 speckle reduction processing unit 57 image processing unit 58 image memory 59 D / A converter 60 display unit 61 input unit 61a transmission frequency input unit 61b observation region input unit 81 frequency band division processing unit 801 downsampling units 802 and 805 upsampling Section 803 Subtraction section 804, 807 Multiplication section 806, 808 Addition section

Claims (25)

超音波ビームを用いて被検体内を走査することにより得られた信号に基づいて生成され、超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号を処理する方法であって、
前記複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第1群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第1群の重み付け係数を乗じられた複数の画素値の内の最大値に変換する処理を、マスク領域を移動させながら施すステップ(a)と、
ステップ(a)において処理を施された複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第2群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第2群の重み付け係数を乗じられた複数の画素値の内の最小値に変換する処理を、マスク領域を移動させながら施すステップ(b)と、
を具備する超音波画像処理方法。
A method of processing a plurality of signals generated based on a signal obtained by scanning an inside of a subject using an ultrasonic beam, each representing a pixel value of a plurality of pixels constituting an ultrasonic image,
For the plurality of signals, the pixel values of the plurality of pixels in the mask region determined based on the structural elements in the morphology processing are respectively multiplied by the first group of weighting factors set according to the positions in the mask region, (A) performing a process of converting the pixel value at the center of the mask into a maximum value among a plurality of pixel values multiplied by the weighting coefficient of the first group while moving the mask area;
For the plurality of signals processed in step (a), the pixel values of the plurality of pixels in the mask region determined based on the structural elements in the morphology processing are set according to the positions in the mask region. A step of multiplying the two groups of weighting coefficients and converting the pixel value at the center of the mask into a minimum value among a plurality of pixel values multiplied by the weighting coefficient of the second group while moving the mask area ( b) and
An ultrasonic image processing method comprising:
前記第1群の重み付け係数が、マスク中心から離れるほど減少するように設定されており、
前記第2群の重み付け係数が、マスク中心から離れるほど増加するように設定されている、
請求項1記載の超音波画像処理方法。
The weighting coefficient of the first group is set to decrease as the distance from the mask center increases.
The weighting coefficient of the second group is set to increase as the distance from the mask center increases.
The ultrasonic image processing method according to claim 1.
前記第1群の重み付け係数及び前記第2群の重み付け係数が、前記マスク領域内において対応する係数同士を乗ずると1になるように設定されている、請求項1又は2記載の超音波画像処理方法。   The ultrasonic image processing according to claim 1 or 2, wherein the weighting coefficient of the first group and the weighting coefficient of the second group are set to be 1 when they are multiplied by corresponding coefficients in the mask region. Method. 前記第1群及び第2群の重み付け係数が、送信される超音波の周波数に基づいて設定されている、請求項1〜3のいずれか1項記載の超音波画像処理方法。   The ultrasonic image processing method according to claim 1, wherein the weighting coefficients of the first group and the second group are set based on a frequency of ultrasonic waves to be transmitted. 前記第1群及び第2群の重み付け係数が、超音波画像に表されている被検体の深度に基づいて設定されている、請求項1〜4のいずれか1項記載の超音波画像処理方法。   The ultrasonic image processing method according to any one of claims 1 to 4, wherein the weighting coefficients of the first group and the second group are set based on a depth of the subject represented in the ultrasonic image. . 前記第1群及び第2群の重み付け係数が、観測対象の部位に基づいて設定されている、請求項1〜5のいずれか1項記載の超音波画像処理方法。   The ultrasound image processing method according to claim 1, wherein the weighting coefficients of the first group and the second group are set based on a site to be observed. ステップ(b)において処理を施された複数の信号によって表される超音波画像を複数の周波数成分に分割し、前記複数の周波数成分に所定の重み付け係数をそれぞれ掛け、前記重み付け係数が掛けられた複数の周波数成分を加算する処理を行うステップ(c)をさらに具備する、請求項1〜6のいずれか1項記載の超音波画像処理方法。   The ultrasonic image represented by the plurality of signals processed in step (b) is divided into a plurality of frequency components, each of the plurality of frequency components is multiplied by a predetermined weighting factor, and the weighting factor is multiplied. The ultrasonic image processing method according to claim 1, further comprising a step (c) of performing a process of adding a plurality of frequency components. ステップ(a)に先立って、前記超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号について走査フォーマットの変換を行うステップをさらに具備する、請求項1〜7のいずれか1項記載の超音波画像処理方法。   Prior to step (a), the method further comprises a step of converting a scan format for a plurality of signals respectively representing pixel values of a plurality of pixels constituting the ultrasonic image. The ultrasonic image processing method as described. ステップ(b)又はステップ(c)において処理を施された信号について走査フォーマットの変換を行うステップをさらに具備する、請求項1〜7のいずれか1項記載の超音波画像処理方法。   The ultrasonic image processing method according to claim 1, further comprising a step of converting a scan format for the signal processed in step (b) or step (c). 超音波ビームを用いて被検体内を走査することにより得られた信号に基づいて生成され、超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号を処理する装置であって、
前記複数の信号を記憶する記憶手段と、
前記記憶手段によって記憶された複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第1群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第1群の重み付け係数を乗じられた複数の画素値の内の最大値に変換する第1の信号処理を、マスク領域を移動させながら施し、第1の信号処理を施された信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第2群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第2群の重み付け係数を乗じられた複数の画素値の内の最小値に変換する第2の信号処理を、マスク領域を移動させながら施す画像信号処理手段と、
を具備する超音波画像処理装置。
An apparatus for processing a plurality of signals generated based on a signal obtained by scanning an inside of a subject using an ultrasonic beam, each representing a pixel value of a plurality of pixels constituting an ultrasonic image,
Storage means for storing the plurality of signals;
For the plurality of signals stored by the storage means, the pixel values of the plurality of pixels in the mask region determined based on the structural elements in the morphology processing are set according to the positions in the mask region. Each of the weighting coefficients is multiplied, and the first signal processing for converting the pixel value at the center of the mask to the maximum value among the plurality of pixel values multiplied by the weighting coefficient of the first group is performed while moving the mask area, For the signal subjected to the first signal processing, the pixel values of the plurality of pixels in the mask region determined based on the structural element in the morphology processing are set according to the position in the mask region. The second signal processing for converting the pixel value at the center of the mask to the minimum value among the plurality of pixel values multiplied by the weighting coefficient of the second group is performed by shifting the mask area. An image signal processing means for performing while,
An ultrasonic image processing apparatus comprising:
前記第1群の重み付け係数が、マスク中心から離れるほど減少するように設定されており、
前記第2群の重み付け係数が、マスク中心から離れるほど増加するように設定されている、
請求項10記載の超音波画像処理装置。
The weighting coefficient of the first group is set to decrease as the distance from the mask center increases.
The weighting coefficient of the second group is set to increase as the distance from the mask center increases.
The ultrasonic image processing apparatus according to claim 10.
前記第1群の重み付け係数及び前記第2群の重み付け係数が、前記マスク領域内において対応する係数同士を乗ずると1になるように設定されている、請求項10又は11記載の超音波画像処理装置。   The ultrasonic image processing according to claim 10 or 11, wherein the weighting coefficient of the first group and the weighting coefficient of the second group are set to be 1 when they are multiplied by corresponding coefficients in the mask region. apparatus. 前記第1群及び第2群の重み付け係数が、送信される超音波の周波数に基づいて設定されている、請求項10〜12のいずれか1項記載の超音波画像処理装置。   The ultrasonic image processing apparatus according to claim 10, wherein the weighting coefficients of the first group and the second group are set based on a frequency of ultrasonic waves to be transmitted. 前記第1群及び第2群の重み付け係数が、超音波画像に表されている被検体の深度に基づいて設定されている、請求項10〜13のいずれか1項記載の超音波画像処理装置。   The ultrasound image processing apparatus according to claim 10, wherein the weighting coefficients of the first group and the second group are set based on a depth of the subject represented in the ultrasound image. . 前記第1群及び第2群の重み付け係数が、観測対象の部位に基づいて設定されている、請求項10〜14のいずれか1項記載の超音波画像処理装置。   The ultrasonic image processing apparatus according to claim 10, wherein the weighting coefficients of the first group and the second group are set based on a site to be observed. 前記画像処理手段によって処理された複数の信号によって表される超音波画像を複数の周波数成分に分割し、前記複数の周波数成分に所定の重み付け係数をそれぞれ掛け、前記重み付け係数が掛けられた複数の周波数成分を加算する処理を行う第2の画像処理手段をさらに具備する請求項10〜15のいずれか1項記載の超音波画像処理装置。   An ultrasound image represented by a plurality of signals processed by the image processing means is divided into a plurality of frequency components, each of the plurality of frequency components is multiplied by a predetermined weighting coefficient, and a plurality of weighted coefficients are multiplied. The ultrasonic image processing apparatus according to claim 10, further comprising a second image processing unit that performs a process of adding frequency components. 前記複数の信号が、被検体内に挿入されて用いられる超音波内視鏡で被検体内を走査することによって得られた複数の信号である、請求項10〜16のいずれか1項記載の超音波画像処理装置。   The plurality of signals according to any one of claims 10 to 16, wherein the plurality of signals are a plurality of signals obtained by scanning the inside of the subject with an ultrasonic endoscope that is inserted into the subject and used. Ultrasonic image processing device. ユーザによって入力された情報に基づいて、前記画像処理手段による処理を行うか否かを切り換える切換手段をさらに具備する、請求項10〜17のいずれか1項記載の超音波画像処理装置。   The ultrasonic image processing apparatus according to claim 10, further comprising a switching unit that switches whether to perform processing by the image processing unit based on information input by a user. 超音波ビームを用いて被検体内を走査することにより得られた信号に基づいて生成され、超音波画像を構成する複数の画素の画素値をそれぞれ表す複数の信号を処理するプログラムであって、
前記複数の信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第1群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第1群の重み付け係数を乗じられた複数の画素値の内の最大値に変換する処理を、マスク領域を移動させながら施す手順(a)と、
手順(a)において処理を施された信号について、モフォロジー処理における構造要素に基づいて決定されるマスク領域内の複数の画素の画素値に、マスク領域内の位置に応じて設定される第2群の重み付け係数をそれぞれ乗じ、マスク中心の画素値を、第2群の重み付け係数を乗じられた複数の画素値の内の最小値に変換する処理を、マスク領域を移動させながら施す手順(b)と、
をCPUに実行させる超音波画像処理プログラム。
A program that processes a plurality of signals that are generated based on signals obtained by scanning the inside of a subject using an ultrasonic beam and that respectively represent pixel values of a plurality of pixels that form an ultrasonic image,
For the plurality of signals, the pixel values of the plurality of pixels in the mask region determined based on the structural elements in the morphology processing are respectively multiplied by the first group of weighting factors set according to the positions in the mask region, A step (a) of performing a process of converting the pixel value at the center of the mask into a maximum value among a plurality of pixel values multiplied by the weighting coefficient of the first group while moving the mask area;
For the signal processed in step (a), the second group is set to pixel values of a plurality of pixels in the mask area determined based on the structural element in the morphology process according to the position in the mask area (B) A process of performing the process of converting the pixel value at the center of the mask to the minimum value among the plurality of pixel values multiplied by the weighting coefficient of the second group while moving the mask area. When,
Is an ultrasonic image processing program for causing the CPU to execute.
前記第1群の重み付け係数が、マスク中心から離れるほど減少するように設定されており、
前記第2群の重み付け係数が、マスク中心から離れるほど増加するように設定されている、
請求項19記載の超音波画像処理プログラム。
The weighting coefficient of the first group is set to decrease as the distance from the mask center increases.
The weighting coefficient of the second group is set to increase as the distance from the mask center increases.
The ultrasonic image processing program according to claim 19.
前記第1群の重み付け係数及び前記第2群の重み付け係数が、前記マスク領域内において対応する係数同士を乗ずると1になるように設定されている、請求項19又は20記載の超音波画像処理プログラム。   21. The ultrasonic image processing according to claim 19 or 20, wherein the weighting coefficient of the first group and the weighting coefficient of the second group are set to be 1 when multiplied by corresponding coefficients in the mask region. program. 前記第1群及び第2群の重み付け係数が、送信される超音波の周波数に基づいて設定されている、請求項19〜21のいずれか1項記載の超音波画像処理プログラム。   The ultrasound image processing program according to any one of claims 19 to 21, wherein the weighting coefficients of the first group and the second group are set based on a frequency of transmitted ultrasound. 前記第1群及び第2群の重み付け係数が、超音波画像に表されている被検体の深度に基づいて設定されている、請求項19〜22のいずれか1項記載の超音波画像処理プログラム。   The ultrasound image processing program according to any one of claims 19 to 22, wherein the weighting coefficients of the first group and the second group are set based on a depth of the subject represented in the ultrasound image. . 前記第1群及び第2群の重み付け係数が、観測対象の部位に基づいて設定されている、請求項19〜23のいずれか1項記載の超音波画像処理プログラム。   The ultrasound image processing program according to any one of claims 19 to 23, wherein the weighting coefficients of the first group and the second group are set based on a site to be observed. 手順(b)において処理を施された複数の信号によって表される超音波画像を複数の周波数成分に分割し、前記複数の周波数成分に所定の重み付け係数をそれぞれ掛け、前記重み付け係数が掛けられた複数の周波数成分を加算する処理を行う手順をさらにCPUに実行させる、請求項19〜24のいずれか1項記載の超音波画像処理プログラム。   The ultrasound image represented by the plurality of signals processed in step (b) is divided into a plurality of frequency components, each of the plurality of frequency components is multiplied by a predetermined weighting factor, and the weighting factor is multiplied. The ultrasonic image processing program according to any one of claims 19 to 24, further causing a CPU to execute a procedure for performing a process of adding a plurality of frequency components.
JP2004369692A 2003-12-26 2004-12-21 Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program Active JP4530834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004369692A JP4530834B2 (en) 2003-12-26 2004-12-21 Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003433272 2003-12-26
JP2004369692A JP4530834B2 (en) 2003-12-26 2004-12-21 Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program

Publications (2)

Publication Number Publication Date
JP2005205199A JP2005205199A (en) 2005-08-04
JP4530834B2 true JP4530834B2 (en) 2010-08-25

Family

ID=34914270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004369692A Active JP4530834B2 (en) 2003-12-26 2004-12-21 Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program

Country Status (1)

Country Link
JP (1) JP4530834B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5165858B2 (en) * 2006-05-26 2013-03-21 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
EP1982654B1 (en) 2006-03-31 2018-10-03 Toshiba Medical Systems Corporation Ultrasound diagnostic device and control method for ultrasound diagnostic device
JP5002181B2 (en) * 2006-03-31 2012-08-15 株式会社東芝 Ultrasonic diagnostic apparatus and ultrasonic diagnostic apparatus control method
US8300909B2 (en) 2006-05-19 2012-10-30 Hitachi Medical Corporation Ultrasonographic device and ultrasonographic method
KR100760251B1 (en) 2006-05-23 2007-09-19 주식회사 메디슨 Ultrasound image processing system and method
KR100927458B1 (en) 2007-12-27 2009-11-19 건국대학교 산학협력단 Filtering Method in Spatial Domain by Combining Sort and Average Operations
JP7152958B2 (en) 2019-01-10 2022-10-13 富士フイルムヘルスケア株式会社 Ultrasonic imaging device and image processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950522A (en) * 1995-08-10 1997-02-18 Fuji Photo Film Co Ltd Method and device for processing picture
JPH09269370A (en) * 1996-04-01 1997-10-14 Furuno Electric Co Ltd Detected-image-data processing method, object detection apparatus, ultrasonic diagnostic apparatus and radar
JPH11259651A (en) * 1998-03-06 1999-09-24 Fuji Photo Film Co Ltd Method and device for image processing
JP2000040154A (en) * 1998-07-23 2000-02-08 Fuji Photo Film Co Ltd Method and device for image processing
JP2000279416A (en) * 1998-12-09 2000-10-10 General Electric Co <Ge> Three-dimensional imaging method and system
JP2002157593A (en) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd Method and unit for detecting abnormal shadow

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950522A (en) * 1995-08-10 1997-02-18 Fuji Photo Film Co Ltd Method and device for processing picture
JPH09269370A (en) * 1996-04-01 1997-10-14 Furuno Electric Co Ltd Detected-image-data processing method, object detection apparatus, ultrasonic diagnostic apparatus and radar
JPH11259651A (en) * 1998-03-06 1999-09-24 Fuji Photo Film Co Ltd Method and device for image processing
JP2000040154A (en) * 1998-07-23 2000-02-08 Fuji Photo Film Co Ltd Method and device for image processing
JP2000279416A (en) * 1998-12-09 2000-10-10 General Electric Co <Ge> Three-dimensional imaging method and system
JP2002157593A (en) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd Method and unit for detecting abnormal shadow

Also Published As

Publication number Publication date
JP2005205199A (en) 2005-08-04

Similar Documents

Publication Publication Date Title
US8021301B2 (en) Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
US8206301B2 (en) Ultrasonic imaging apparatus and ultrasonic image processing apparatus, method and program
JP5645628B2 (en) Ultrasonic diagnostic equipment
US20050261583A1 (en) Ultrasonic imaging apparatus, ultrasonic image processing method, and ultrasonic image processing program
US7717851B2 (en) Ultrasonic observation apparatus having multi-beam scan function
JP5719098B2 (en) Ultrasonic diagnostic equipment
US9743910B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus
JP6415937B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, medical image processing method, and medical image processing program
JPWO2007097108A1 (en) Ultrasonic diagnostic equipment
JP4575737B2 (en) Ultrasonic imaging device
JP2009078124A (en) Ultrasonic diagnostic system, as well as image processing method and program
JP2009061086A (en) Ultrasonic diagnostic system, image processing method, and program
JP5259175B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP4530834B2 (en) Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program
JP2017006213A (en) Ultrasonic diagnostic apparatus and control program
JP5996268B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
WO2016098429A1 (en) Ultrasonic observation device
JP4651379B2 (en) Ultrasonic image processing apparatus, ultrasonic image processing method, and ultrasonic image processing program
JP2012050818A (en) Ultrasonic system and method for providing color doppler mode image
JP2006212054A (en) Ultrasonic observation apparatus, and image processing apparatus and program
JP2006280520A (en) Ultrasonic imaging apparatus, ultrasonic image processing method, and ultrasonic image processing program
US20220330920A1 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
JP5823184B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP2009297346A (en) Ultrasonic observation apparatus, ultrasonic endoscopic apparatus, image processing method, and image processing program
JP7308600B2 (en) Ultrasonic diagnostic device, medical image processing device, and ultrasonic image display program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100608

R150 Certificate of patent or registration of utility model

Ref document number: 4530834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250