JP2019030575A - Ultrasound image processing apparatus and volume data processing method - Google Patents

Ultrasound image processing apparatus and volume data processing method Download PDF

Info

Publication number
JP2019030575A
JP2019030575A JP2017154108A JP2017154108A JP2019030575A JP 2019030575 A JP2019030575 A JP 2019030575A JP 2017154108 A JP2017154108 A JP 2017154108A JP 2017154108 A JP2017154108 A JP 2017154108A JP 2019030575 A JP2019030575 A JP 2019030575A
Authority
JP
Japan
Prior art keywords
depth
tissue
data
image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017154108A
Other languages
Japanese (ja)
Inventor
小林 正樹
Masaki Kobayashi
正樹 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017154108A priority Critical patent/JP2019030575A/en
Publication of JP2019030575A publication Critical patent/JP2019030575A/en
Pending legal-status Critical Current

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To allow that when a color tissue image is generated from a tissue image and a depth image generated by volume rendering, a condition of color processing (in particular, a depth parameter) is optimized automatically.SOLUTION: Site-of-interest data is identified by a template matching process on volume data 200 (refer to Code 210). Tissue-of-interest data 202 is extracted using an association relationship with the site-of-interest data. A representative depth is identified as the depth of the deepest voxel in the tissue-of-interest data 202. A condition of color processing for weighted synthesis of two color tissue images based on the tissue image is defined based on the representative depth (refer to Code 222).SELECTED DRAWING: Figure 5

Description

本発明は超音波画像処理装置に関し、特に、ボリュームデータの処理に関する。   The present invention relates to an ultrasonic image processing apparatus, and more particularly to volume data processing.

超音波画像処理装置は、超音波ボリュームデータ(以下、単に「ボリュームデータ」という。)を処理する装置であり、それは、例えば、超音波診断装置、情報処理装置、等によって構成される。超音波画像処理装置においては、ボリュームデータに基づくボリュームレンダリングにより、対象組織を立体的に表現した組織画像(三次元超音波画像)が生成される。   The ultrasonic image processing apparatus is an apparatus that processes ultrasonic volume data (hereinafter, simply referred to as “volume data”), and includes, for example, an ultrasonic diagnostic apparatus, an information processing apparatus, and the like. In the ultrasonic image processing apparatus, a tissue image (three-dimensional ultrasonic image) that three-dimensionally represents a target tissue is generated by volume rendering based on volume data.

ボリュームレンダリングにおいては、通常、ボリュームデータに対して、複数のレイ(視線)が設定される。複数のレイは、組織画像を構成する複数の画素に対応する。個々のレイごとに、レンダリング演算が実行され、その結果として画素値が求められる。より詳しくは、個々のレイ上において、演算開始点から、奥行き方向に沿って、ボクセル単位でオパシティ(不透明度)を利用した出力光量演算(ボクセル演算)が繰り返し実行される。所定の終了条件が満たされた時点での出力光量つまり演算終了点での出力光量が画素値(輝度)とされる。例えば、レイに沿ったレンダリング演算の途中で、オパシティ累積値が1.0又はそれに近い所定値に到達した場合に、レンダリング演算が終了する(第1の終了条件)。また、出力光量演算が最終ボクセルまで到達した場合に、レンダリング演算が終了する(第2の終了条件)。上記のオパシティ累積値は、一般に、出力光量演算ごとにそこで利用されたオパシティを順次加算することによって求められるものである。出力光量演算式としては各種の演算式が知られている。複数のレイについて求められた複数の輝度が組織画像を構成する。   In volume rendering, normally, a plurality of rays (line of sight) are set for volume data. A plurality of rays correspond to a plurality of pixels constituting the tissue image. For each individual ray, a rendering operation is performed, resulting in a pixel value. More specifically, on each ray, output light amount calculation (voxel calculation) using opacity (opacity) in units of voxels is repeatedly executed from the calculation start point along the depth direction. The output light amount when a predetermined end condition is satisfied, that is, the output light amount at the calculation end point is set as a pixel value (luminance). For example, when the opacity accumulation value reaches 1.0 or a predetermined value close to it in the middle of the rendering operation along the ray, the rendering operation ends (first end condition). Further, when the output light amount calculation reaches the last voxel, the rendering calculation ends (second end condition). The above-mentioned accumulated opacity value is generally obtained by sequentially adding the opacity used there for each output light amount calculation. Various calculation formulas are known as output light quantity calculation formulas. A plurality of luminances obtained for a plurality of rays constitute a tissue image.

上記のような一般的なボリュームレンダリング法を発展させた特別なボリュームレンダリング法として、組織画像(輝度マップ)と共に深さ画像(深さマップ)を生成し、それらの画像に基づいてカラー組織画像(カラー三次元超音波画像)を生成するボリュームレンダリング法が知られている。その具体例を説明すると、レイ単位でのレンダリング演算の結果として、演算終了点での出力光量つまり輝度と、演算終了点の深さ(演算開始点から演算終了点までの距離)と、が特定される。これによって、複数のレイに対応する複数の輝度からなる組織画像と、複数のレイに対応する複数の深さからなる深さ画像と、が生成される。深さ画像は、典型的には、対象組織の表面(それに相当する面(例えば表面に沿った内面)を含む)の三次元形態を表す。組織画像のカラー処理に際して、画素ごとの深さに応じて画素ごとのカラー(例えばRGB値の組み合わせ)を変化させることにより、奥行き表現に優れたカラー組織画像が生成される。例えば、カラー組織画像上において、子宮内の胎児が暖色系の色で表現され、胎児の奥側に存在する子宮壁(胎盤を含む)が寒色系の色で表現される。このような表現により、カラー組織画像上において、胎児を子宮壁から区別することが容易となる。   As a special volume rendering method developed from the general volume rendering method as described above, a depth image (depth map) is generated together with a tissue image (luminance map), and a color tissue image ( A volume rendering method for generating a color three-dimensional ultrasound image) is known. A specific example will be explained. As a result of the rendering calculation in units of rays, the output light amount at the calculation end point, that is, the luminance, and the depth of the calculation end point (distance from the calculation start point to the calculation end point) are specified. Is done. As a result, a tissue image composed of a plurality of luminances corresponding to a plurality of rays and a depth image composed of a plurality of depths corresponding to the plurality of rays are generated. The depth image typically represents a three-dimensional morphology of the surface of the target tissue (including a corresponding surface (eg, an inner surface along the surface)). In color processing of a tissue image, a color tissue image excellent in depth expression is generated by changing the color for each pixel (for example, a combination of RGB values) according to the depth for each pixel. For example, on the color tissue image, the fetus in the uterus is expressed in a warm color, and the uterine wall (including the placenta) existing behind the fetus is expressed in a cold color. Such an expression makes it easy to distinguish the fetus from the uterine wall on the color tissue image.

特許文献1、2は、超音波画像処理において、演算終了点の深さに応じた色付けを提案するものである。なお、本願に関連する特許出願であって本願出願時点で未公開の特許出願として、特願2016−135188号、特願2017−47085号、特願2017−54751号、及び、特願2017−92853号がある。   Patent Documents 1 and 2 propose coloring according to the depth of the calculation end point in ultrasonic image processing. In addition, as patent applications related to the present application and unpublished patent applications at the time of this application, Japanese Patent Application No. 2016-135188, Japanese Patent Application No. 2017-47085, Japanese Patent Application No. 2017-54751, and Japanese Patent Application No. 2017-92853. There is a number.

特許第5117490号公報Japanese Patent No. 5117490 特許第5525930号公報Japanese Patent No. 5525930

ボリュームレンダリングにより生成される組織画像及び深さ画像に基づいてカラー組織画像を生成する場合において、カラー処理条件をマニュアルで設定するのは面倒である。例えば、胎児を暖色系の色で表現し、且つ、胎児の奥側にある子宮壁を寒色系の色で表現したい場合、色分け基準をなす深さパラメータとして、胎児における最も深い位置にあるボクセルの深さ(あるいはそれに代わる特定の深さ)を指定することが望まれる。しかしながら、一般に、ユーザーにおいて深さパラメータの最適値を即座に指定することは困難であり、それ故、試行錯誤等を行って最適値を見出す必要がある。これはユーザーにとっての大きな負担となる。深さパラメータが適切に指定されない場合、胎児の一部が寒色系の色で表示されてしまい、観察者に不自然な印象を与えてしまう不都合が生じ、あるいは、胎児の奥側にある子宮壁の一部が胎児と同様に暖色系の色で表示されてしまい、胎児を子宮壁から視覚的に識別し難くなるという不都合が生じる。   When generating a color tissue image based on a tissue image and a depth image generated by volume rendering, it is troublesome to manually set the color processing conditions. For example, if you want to express the fetus in a warm color and want to express the uterine wall on the back side of the fetus in a cold color, the depth parameter that makes the color coding criterion is the depth of the voxel at the deepest position in the fetus. It is desirable to specify a depth (or a specific depth instead). However, in general, it is difficult for the user to immediately specify the optimum value of the depth parameter, and therefore it is necessary to find the optimum value through trial and error. This is a heavy burden on the user. If the depth parameter is not properly specified, a part of the fetus will be displayed in a cool color, giving the viewer an unnatural impression, or the uterine wall behind the fetus A part of the image is displayed in a warm color similar to that of the fetus, which makes it difficult to visually distinguish the fetus from the uterine wall.

本発明の目的は、カラー処理条件の設定に際し、ユーザーの負担を軽減し、あるいは、カラー処理条件を規定する深さパラメータを最適化できるようにすることにある。   An object of the present invention is to reduce the burden on the user when setting color processing conditions, or to enable optimization of a depth parameter that defines color processing conditions.

実施形態に係る超音波画像処理装置は、三次元空間に対する超音波の送受波により得られたボリュームデータの解析により、前記三次元空間に含まれる組織中の注目組織について代表深さを求める解析手段と、前記ボリュームデータに基づいて、前記組織を立体的に表現した組織画像、及び、前記組織の表面の深さを表した深さ画像を生成する画像生成手段と、前記深さ画像に基づいて前記組織画像をカラー処理することによりカラー組織画像を生成する手段であって、前記代表深さに基づいて前記カラー処理の条件を定めるカラー処理手段と、を含む。   The ultrasonic image processing apparatus according to the embodiment includes an analysis unit that obtains a representative depth of a target tissue in a tissue included in the three-dimensional space by analyzing volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space. And, based on the volume data, an image generation means for generating a tissue image representing the tissue in three dimensions, and a depth image representing the depth of the surface of the tissue, and based on the depth image. Means for generating a color tissue image by performing color processing on the tissue image, and color processing means for determining a condition for the color processing based on the representative depth.

上記構成によれば、ボリュームデータに基づいて組織画像及び深さ画像が生成され、それらに基づいてカラー組織画像が生成される。カラー組織画像を生成する際のカラー処理の条件が注目組織についての代表深さに基づいて定められる。このように、注目組織についての深さに関する情報に基づいて、カラー処理の条件を適応的に設定できるから、ユーザーの負担を軽減でき、あるいは、注目組織に適合したカラー処理条件を設定し得る。   According to the above configuration, the tissue image and the depth image are generated based on the volume data, and the color tissue image is generated based on them. Color processing conditions for generating a color tissue image are determined based on the representative depth of the target tissue. As described above, since the color processing condition can be set adaptively based on the information about the depth of the target tissue, the user's burden can be reduced, or the color processing condition suitable for the target tissue can be set.

実施形態において、画像生成手段は、ボリュームデータに対するボリュームレンダリングにより組織画像及び深さ画像を生成する。例えば、ボリュームデータに対して複数のレイが設定され、個々のレイごとに、レイに沿って深さ方向にレンダリング演算が実行される。複数のレイに対応する複数のレンダリング演算結果から、組織画像及び深さ画像が構成される。深さ画像は、組織の表面を表した画像であり、ここで、組織の表面の概念には、表面に相当する面又は層が含まれ得る。   In the embodiment, the image generation unit generates a tissue image and a depth image by volume rendering for volume data. For example, a plurality of rays are set for the volume data, and a rendering operation is executed in the depth direction along each ray for each ray. A tissue image and a depth image are formed from a plurality of rendering calculation results corresponding to a plurality of rays. A depth image is an image representing the surface of a tissue, and the concept of the surface of a tissue may include a surface or a layer corresponding to the surface.

実施形態において、前記カラー処理手段は、前記深さ画像に基づいて、前記組織画像に基づく第1のカラー組織画像及び第2のカラー組織画像を重み付け合成することにより、前記カラー組織画像を生成し、前記カラー処理の条件は、前記重み付け合成の条件である。第1のカラー組織画像は、例えば暖色系の色によって表現された組織画像であり、第2のカラー組織画像は、例えば寒色系の色によって表現された組織画像である。それらの重み付け合成の条件が注目組織について求められた代表深さに従って設定される。例えば、代表深さが注目組織における最も深い位置を示す場合、注目組織の全体が第1のカラーによって表現され、注目組織の奥側に存在している非注目組織が第2のカラーによって表現される。そのような場合、注目組織と非注目組織とを視覚的に弁別し易くなる。   In the embodiment, the color processing unit generates the color tissue image by weighting and combining the first color tissue image and the second color tissue image based on the tissue image based on the depth image. The color processing conditions are the weighted synthesis conditions. The first color tissue image is, for example, a tissue image expressed by a warm color, and the second color tissue image is a tissue image expressed by, for example, a cool color. These weighted synthesis conditions are set according to the representative depth obtained for the target tissue. For example, when the representative depth indicates the deepest position in the target tissue, the entire target tissue is expressed by the first color, and the non-target tissue existing behind the target tissue is expressed by the second color. The In such a case, it becomes easy to visually distinguish the target tissue and the non-target tissue.

実施形態において、前記重み付け合成の条件は重み付け関数に従って定められ、前記重み付け関数は深さパラメータを含み、前記深さパラメータが前記代表深さに基づいて設定される。深さパラメータは、例えば、第1のカラーによる表現が優先される第1の深さ範囲と第2のカラーによる表現が優先される第2の深さ範囲との境界を指定するパラメータである。もっとも、深さパラメータは、重み付け関数における深さ方向に沿って変化する作用を規定する他のパラメータであってもよい。   In the embodiment, the weighting synthesis condition is determined according to a weighting function, the weighting function includes a depth parameter, and the depth parameter is set based on the representative depth. The depth parameter is, for example, a parameter that designates a boundary between a first depth range in which the first color expression is prioritized and a second depth range in which the second color expression is prioritized. However, the depth parameter may be another parameter that defines an action that varies along the depth direction in the weighting function.

実施形態において、前記解析手段は、前記ボリュームデータに含まれる注目部位データを探索する手段と、前記注目部位データと繋がり関係を有するデータとして注目組織データを抽出する手段と、前記注目組織データに基づいて前記代表深さを決定する手段と、を含む。この構成によれば、ボリュームデータから注目組織データを直接的に抽出することが困難であっても、注目組織データに含まれる注目部位データを探索し、その注目部位データに基づいて注目組織データを抽出することができる。その注目組織データに基づいて代表深さが決定される。   In the embodiment, the analysis means is based on means for searching for attention site data included in the volume data, means for extracting attention tissue data as data having a connection relation with the attention portion data, and the attention tissue data. And means for determining the representative depth. According to this configuration, even if it is difficult to extract the target tissue data directly from the volume data, the target region data included in the target tissue data is searched, and the target tissue data is obtained based on the target region data. Can be extracted. The representative depth is determined based on the target tissue data.

実施形態において、前記注目部位データを探索する手段は、2次元又は3次元のテンプレートを利用したテンプレートマッチング処理により前記注目部位データを探索する。テンプレートマッチング処理によれば、注目部位及びその周囲が有する構造的又は形態的な特徴を利用して注目部位データを探索することが可能である。   In the embodiment, the means for searching the attention site data searches the attention site data by a template matching process using a two-dimensional or three-dimensional template. According to the template matching process, it is possible to search attention site data using structural or morphological features of the attention site and its surroundings.

実施形態において、前記注目組織データは胎児の頭部に相当するデータであり、前記注目部位データは前記胎児の頭部に含まれる注目部位に相当するデータである。注目部位は頭部に含まれる顔パーツであって、例えば、目、鼻、口等である。   In an embodiment, the target tissue data is data corresponding to a fetal head, and the target site data is data corresponding to a target site included in the fetal head. The site of interest is a facial part included in the head, such as eyes, nose, mouth, and the like.

実施形態において、前記代表深さは、前記胎児の頭部に相当するデータに含まれる代表ボクセルの深さである。実施形態において、前記代表ボクセルは、前記胎児の頭部に相当するデータに含まれ且つ最も深い位置にあるボクセルである。この構成によれば、胎児の頭部の全体が特定のカラーによって表現され易くなる。   In the embodiment, the representative depth is a depth of a representative voxel included in data corresponding to the head of the fetus. In the embodiment, the representative voxel is a voxel included in data corresponding to the head of the fetus and located at the deepest position. According to this configuration, the entire fetal head is easily expressed by a specific color.

実施形態に係る画像処理方法は、三次元空間に対する超音波の送受波により得られたボリュームデータの解析により、前記三次元空間に含まれる組織中の注目組織について代表深さを求める工程と、前記ボリュームデータに対するボリュームレンダリングにより、前記組織を立体的に表現した組織画像、及び、前記組織の表面の深さを表した深さ画像を生成する工程と、前記深さ画像に基づいて前記組織画像をカラー処理することによりカラー組織画像を生成する工程であって、前記代表深さに基づいて前記カラー処理の条件を定める工程と、を含む。   The image processing method according to the embodiment obtains a representative depth for a target tissue in a tissue included in the three-dimensional space by analyzing volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space; and Generating a tissue image representing the tissue three-dimensionally and a depth image representing the depth of the surface of the tissue by volume rendering with respect to the volume data; and the tissue image based on the depth image. A step of generating a color tissue image by performing color processing, and a step of determining a condition of the color processing based on the representative depth.

上記画像処理方法は、ソフトウエアの機能として、又は、ハードウエアの機能として、実現され得る。前者の場合には、画像処理方法を実行するプログラムが、ネットワークを介して又は可搬型記憶媒体を介して、超音波診断装置、情報処理装置等の超音波画像処理装置へインストールされる。   The image processing method can be realized as a software function or a hardware function. In the former case, a program for executing the image processing method is installed in an ultrasonic image processing apparatus such as an ultrasonic diagnostic apparatus or an information processing apparatus via a network or a portable storage medium.

本発明によれば、カラー処理条件の設定に際し、ユーザーの負担を軽減できる。あるいは、カラー処理条件を規定する深さパラメータを自動的に最適化できる。   According to the present invention, it is possible to reduce the burden on the user when setting color processing conditions. Alternatively, the depth parameter that defines the color processing conditions can be automatically optimized.

実施形態に係る超音波画像処理装置を示すブロック図である。1 is a block diagram illustrating an ultrasonic image processing apparatus according to an embodiment. ボリュームレンダリングにより生成される組織画像及び深さ画像を示す図である。It is a figure which shows the structure | tissue image and depth image which are produced | generated by volume rendering. 図1に示したカラー処理部の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a color processing unit illustrated in FIG. 1. 重み付け関数の一例を示す図である。It is a figure which shows an example of a weighting function. カラー組織画像の生成を説明するための概念図である。It is a conceptual diagram for demonstrating the production | generation of a color organization image. 図1に示した解析部の構成例を示す図である。It is a figure which shows the structural example of the analysis part shown in FIG. テンプレートの第1例を示す図である。It is a figure which shows the 1st example of a template. パーツ探索時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of parts search. ボリュームデータからの面データの切り出しを示す図である。It is a figure which shows extraction of the surface data from volume data. テンプレートの第2例を示す図である。It is a figure which shows the 2nd example of a template. テンプレートの第3例を示す図である。It is a figure which shows the 3rd example of a template. 一連の画像処理を示すフローチャートである。It is a flowchart which shows a series of image processing.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1には、超音波画像処理装置としての超音波診断装置がブロック図として示されている。超音波診断装置は、病院等の医療機関に設置され、生体に対する超音波の送受波により得られた受信信号に基づいて超音波画像を形成及び表示する装置である。本実施形態においては、被検者は妊婦であり、胎児の頭部(特に顔)を立体的にしかもカラーで表現したカラー組織画像(カラー三次元超音波画像)が生成される。なお、組織画像は、物理的には、二次元の画像である。   FIG. 1 is a block diagram showing an ultrasonic diagnostic apparatus as an ultrasonic image processing apparatus. The ultrasonic diagnostic apparatus is an apparatus that is installed in a medical institution such as a hospital and forms and displays an ultrasonic image based on a reception signal obtained by transmitting / receiving ultrasonic waves to / from a living body. In the present embodiment, the subject is a pregnant woman, and a color tissue image (color three-dimensional ultrasound image) is generated in which the head (particularly the face) of the fetus is three-dimensionally and expressed in color. Note that the tissue image is physically a two-dimensional image.

図1において、超音波診断装置は、3Dプローブ10を有する。3Dプローブ10は、プローブヘッド、ケーブル及びコネクタによって構成される。コネクタが超音波診断装置本体に対して着脱可能に装着される。プローブヘッドが妊婦の腹部表面上に当接される。プローブヘッドは、二次元配列された複数の振動素子からなる2Dアレイ振動子を有している。2Dアレイ振動子によって超音波ビームが形成され、それが二次元的に電子走査される。これにより、子宮内の胎児(特にその顔面)を包含する三次元データ取込空間(三次元空間)が形成される。その三次元空間からボリュームデータが取得される。   In FIG. 1, the ultrasonic diagnostic apparatus has a 3D probe 10. The 3D probe 10 includes a probe head, a cable, and a connector. The connector is detachably attached to the ultrasonic diagnostic apparatus main body. A probe head is abutted on the abdominal surface of the pregnant woman. The probe head has a 2D array transducer composed of a plurality of vibration elements arranged two-dimensionally. An ultrasonic beam is formed by the 2D array transducer and electronically scanned in a two-dimensional manner. As a result, a three-dimensional data capturing space (three-dimensional space) including the fetus in the uterus (particularly its face) is formed. Volume data is acquired from the three-dimensional space.

2Dアレイ振動子に代えて、1Dアレイ振動子及びそれを機械走査する機構を設けてもよい。そのような構成を採用する場合、1Dアレイ振動子によりビーム走査面が形成され、1Dアレイ振動子の機械走査によりビーム走査面が走査され、その結果として、上記の三次元空間が形成される。   Instead of the 2D array transducer, a 1D array transducer and a mechanism for mechanically scanning the 1D array transducer may be provided. When such a configuration is adopted, the beam scanning surface is formed by the 1D array transducer, and the beam scanning surface is scanned by the mechanical scanning of the 1D array transducer. As a result, the above-described three-dimensional space is formed.

送受信部12は、送信ビームフォーマー及び受信ビームフォーマーとして機能する電子回路である。送信時において、送受信部12から2Dアレイ振動子へ複数の送信信号が供給される。これにより送信ビームが形成される。受信時において、生体内からの反射波が2Dアレイ振動子で受波される。これにより2Dアレイ振動子から送受信部12へ複数の受信信号が並列的に出力される。送受信部12は、複数のアンプ、複数のA/D変換器、複数の遅延回路、加算回路等を有する。送受信部12において、複数の受信信号が整相加算(遅延加算)されて、受信ビームに相当するビームデータが形成される。   The transmission / reception unit 12 is an electronic circuit that functions as a transmission beam former and a reception beam former. At the time of transmission, a plurality of transmission signals are supplied from the transmission / reception unit 12 to the 2D array transducer. As a result, a transmission beam is formed. At the time of reception, the reflected wave from the living body is received by the 2D array transducer. Thereby, a plurality of reception signals are output in parallel from the 2D array transducer to the transmission / reception unit 12. The transmission / reception unit 12 includes a plurality of amplifiers, a plurality of A / D converters, a plurality of delay circuits, an addition circuit, and the like. In the transmission / reception unit 12, a plurality of reception signals are subjected to phasing addition (delay addition) to form beam data corresponding to the reception beam.

一般に、ボリュームデータは、複数の受信フレームデータにより構成され、各受信フレームデータは複数のビームデータにより構成される。各ビームデータは深さ方向に並ぶ複数のエコーデータにより構成される。   In general, the volume data is composed of a plurality of received frame data, and each received frame data is composed of a plurality of beam data. Each beam data is composed of a plurality of echo data arranged in the depth direction.

ビームデータ処理部14は、各ビームデータに対して各種の処理を適用する手段であって、それは電子回路により構成される。各種の処理には、検波、対数変換、相関処理、フィルタ処理等が含まれる。ビームデータ処理部14から出力されたビームデータを構成する個々のエコーデータが3Dメモリ16に格納される。3Dメモリ16は、生体内の三次元空間に対応したデータ記憶空間を有している。個々のエコーデータは、それが取得された三次元座標に対応するメモリ座標にマッピングされる。図示の構成例では、3Dメモリ16への各エコーデータの書き込み時に、座標変換が実行されている。その座標変換が二段階で実行されてもよい。例えば、個々の受信フレームデータに対して二次元座標変換を実行して個々の断面データを生成し、それらをデータ記憶空間内に配置することにより、ボリュームデータを構成してもよい。   The beam data processing unit 14 is means for applying various kinds of processing to each beam data, and is constituted by an electronic circuit. Various processing includes detection, logarithmic conversion, correlation processing, filter processing, and the like. Individual echo data constituting the beam data output from the beam data processing unit 14 is stored in the 3D memory 16. The 3D memory 16 has a data storage space corresponding to the three-dimensional space in the living body. Individual echo data is mapped to memory coordinates corresponding to the three-dimensional coordinates from which it was obtained. In the illustrated configuration example, coordinate conversion is performed when each echo data is written to the 3D memory 16. The coordinate transformation may be performed in two stages. For example, volume data may be configured by executing two-dimensional coordinate transformation on individual received frame data to generate individual cross-sectional data and placing them in the data storage space.

図示の構成例では、制御部34が座標変換機能を発揮している。もちろん、座標変換用の専用プロセッサを設けてもよい。いずれにしても、3Dメモリ16には、生体内の三次元空間から取得されたボリュームデータが格納される。   In the illustrated configuration example, the control unit 34 exhibits a coordinate conversion function. Of course, a dedicated processor for coordinate conversion may be provided. In any case, the 3D memory 16 stores volume data acquired from the three-dimensional space in the living body.

断層画像を表示する場合、3Dメモリ16内のボリュームデータから切り出された断面データが表示処理部18へ送られる。断面データはスライスデータであり、それは二次元配列された複数のエコーデータ(複数のボクセル値又は複数の画素値)からなるものである。複数の断層画像が同時に表示されてもよい。三次元画像を形成するために、3Dメモリ16から読み出されたボリュームデータが画像処理部20へ送られている。   When displaying a tomographic image, the cross-section data cut out from the volume data in the 3D memory 16 is sent to the display processing unit 18. The cross-sectional data is slice data, which consists of a plurality of two-dimensionally arranged echo data (a plurality of voxel values or a plurality of pixel values). A plurality of tomographic images may be displayed simultaneously. In order to form a three-dimensional image, the volume data read from the 3D memory 16 is sent to the image processing unit 20.

画像処理部20は、ボリュームデータを処理する処理手段である。画像処理部20は、画像処理用プロセッサを含む電子回路である。画像処理部20は、組織画像生成手段として機能する組織画像生成部22、深さ画像生成手段として機能する深さ画像生成部24、及び、解析手段として機能する解析部26を有している。それらがそれぞれ専用プロセッサによって構成されてもよい。また、それらがそれぞれCPUにおいて実行される動作プログラムの機能として実現されてもよい。組織画像生成部22及び深さ画像生成部24は、画像生成手段又はボリュームレンダリング手段を構成する。   The image processing unit 20 is processing means for processing volume data. The image processing unit 20 is an electronic circuit including an image processing processor. The image processing unit 20 includes a tissue image generation unit 22 that functions as a tissue image generation unit, a depth image generation unit 24 that functions as a depth image generation unit, and an analysis unit 26 that functions as an analysis unit. Each of them may be constituted by a dedicated processor. In addition, they may be realized as functions of an operation program executed in each CPU. The tissue image generation unit 22 and the depth image generation unit 24 constitute an image generation unit or a volume rendering unit.

具体的には、組織画像生成部22は、ボリュームデータ又はボリュームデータに対して設定された三次元関心領域内の部分データ(それもボリュームデータと言い得る)に対して、仮想的な視点から出る複数のレイを設定し、レイ単位でレンダリング演算を実行する。具体的には、レイに沿って、演算開始点から奥行き方向に、ボクセル単位で、出力光量演算を繰り返し実行する。   Specifically, the tissue image generation unit 22 comes out of a virtual viewpoint with respect to volume data or partial data in a three-dimensional region of interest set for the volume data (which can also be called volume data). Set multiple rays and perform rendering operation in units of rays. Specifically, the output light amount calculation is repeatedly executed in units of voxels from the calculation start point to the depth direction along the ray.

出力光量演算においては、例えば、以下の式(1)が用いられる。以下の(2)式は、i番目のボクセルについての入力光量CINiを定義する式である。(1)式及び(2)式はいずれも例示である。出力光量演算式として、多様な式が知られている。 In the output light quantity calculation, for example, the following equation (1) is used. The following expression (2) is an expression that defines the input light amount C INi for the i-th voxel. Expressions (1) and (2) are both examples. Various expressions are known as output light quantity calculation expressions.

上記の(1)式において、COUTiはi番目のボクセルについての光量演算結果つまり出力光量を表している。CINiは、上記のように、i番目のボクセルについての入力光量を表しており、実際には、それはi−1番目のボクセルの出力光量である。Oiはi番目のボクセルについて定められたオパシティ(不透明度)である。eiはi番目のボクセルについてのエコー値(ボクセル値)である。オパシティ関数(又はオパシティカーブ)に従って、eiからOiが定められる。 In the above equation (1), C OUTi represents the light amount calculation result for the i-th voxel, that is, the output light amount. As described above, C INi represents the input light amount for the i-th voxel, and actually it is the output light amount of the (i−1) -th voxel. O i is an opacity defined for the i-th voxel. e i is an echo value (voxel value) for the i-th voxel. Oi is determined from ei according to the opacity function (or opacity curve).

レンダリング演算においては2つの終了条件が定められている。あるレイに沿ってレンダリング演算を行っている過程において、第1に、オパシティ累積値が1.0又はそれに近い所定値に到達した場合に当該レイについてのボクセル演算が終了となる(第1の終了条件)。第2に、当該レイ上の最終ボクセルについてボクセル演算が完了した場合に当該レイについてのボクセル演算が終了となる(第2の終了条件)。複数のレイに対応する複数の画素値によって組織画像(輝度マップ)が構成される。輝度画像が平滑化処理されてもよい。上記2つの終了条件に代えて他の1又は複数の終了条件が定められてもよい。また、上記2つの終了条件に加えて他の1又は複数の終了条件が定められてもよい。   In the rendering operation, two end conditions are defined. In the process of performing a rendering operation along a certain ray, first, when the accumulated opacity value reaches 1.0 or a predetermined value close thereto, the voxel operation for that ray is terminated (first termination). conditions). Secondly, when the voxel calculation is completed for the last voxel on the ray, the voxel calculation for the ray ends (second end condition). A tissue image (luminance map) is composed of a plurality of pixel values corresponding to a plurality of rays. The luminance image may be smoothed. Instead of the above two end conditions, one or more other end conditions may be defined. In addition to the above two end conditions, one or more other end conditions may be defined.

深さ画像生成部24は、レイごとに、終了条件が満たされた時点で、ボクセルの深さ(つまり演算開始点から演算終了点までの距離)を特定する。複数のレイに対応する複数の深さによって深さ画像が構成される。深さ画像は、概ね、組織(胎児の顔)の表面又はそれに相当する面(例えば表層内の面)の三次元形状を表すものである。オパシティ関数の形態及びオパシティ累積値と比較される閾値の大きさによって、深さ画像の具体的な内容は変化する。例外的には、三次元関心領域又はボリュームデータの底面の一部が深さ画像に現れ得る。   The depth image generation unit 24 specifies the depth of the voxel (that is, the distance from the calculation start point to the calculation end point) for each ray when the end condition is satisfied. A depth image is composed of a plurality of depths corresponding to a plurality of rays. The depth image generally represents a three-dimensional shape of the surface of a tissue (fetal face) or a surface corresponding to the surface (for example, a surface in the surface layer). The specific content of the depth image varies depending on the form of the opacity function and the size of the threshold compared with the accumulated opacity value. Exceptionally, a three-dimensional region of interest or part of the bottom of the volume data can appear in the depth image.

解析部26は、パーツ探索手段、顔データ抽出手段及び代表深さ決定手段として機能する。ここで、画像化対象と注目組織として定義した場合、パーツは注目組織に属する注目部位(探索対象部位)と言い得る。具体的には、解析部26は、ボリュームデータ内において、胎児の顔に含まれる特定のパーツ(目、鼻、口等)及びその周囲を模擬したテンプレートを利用して、顔データに含まれる特定のパーツデータを探索する。例えば、目及びその周囲に相当するデータを探索する。続いて、解析部26は、ボリュームデータ内において、目データとの繋がり関係を利用して顔データを抽出する。その際には、三次元ラベリング処理、三次元ペイント処理、等が利用される。更に、解析部26は、顔データにおいて、視点から見て最も深い位置にあるボクセル、つまりもっとも大きな距離を有するボクセルを特定し、その注目ボクセルの深さを代表深さとして決定する。この代表深さは、後述する深さパラメータの自動設定において利用されるものである。   The analysis unit 26 functions as part search means, face data extraction means, and representative depth determination means. Here, when the imaging target and the target tissue are defined, the part can be said to be a target part (search target part) belonging to the target tissue. Specifically, the analysis unit 26 uses a specific part (eyes, nose, mouth, etc.) included in the fetal face and a template simulating the surroundings in the volume data to identify the face data. Search for part data. For example, data corresponding to the eyes and the surroundings are searched. Subsequently, the analysis unit 26 extracts face data using the connection relationship with the eye data in the volume data. In that case, a three-dimensional labeling process, a three-dimensional paint process, etc. are utilized. Further, the analysis unit 26 identifies the voxel at the deepest position from the viewpoint, that is, the voxel having the largest distance in the face data, and determines the depth of the target voxel as the representative depth. This representative depth is used in automatic setting of a depth parameter to be described later.

メモリ28には、複数のパーツに対応した複数のテンプレートが格納されている。個々のテンプレートは、探索対象となるパーツを模擬した二次元データ又は三次元データである。テンプレートを利用して胎児のサイズ(例えば顔のサイズ)や胎児の位置(例えば顔の位置)が特定されてもよい。更には、胎児の向き(例えば顔の向き)が特定されてもよい。テンプレートを利用したマッチング処理(テンプレートマッチング処理)においては、テンプレートの位置及びサイズがそれぞれ段階的に変更される。場合によっては、テンプレートの向きも段階的に変更される。   The memory 28 stores a plurality of templates corresponding to a plurality of parts. Each template is two-dimensional data or three-dimensional data simulating a part to be searched. The size of the fetus (for example, the size of the face) and the position of the fetus (for example, the position of the face) may be specified using the template. Further, the orientation of the fetus (for example, the orientation of the face) may be specified. In the matching process using the template (template matching process), the position and size of the template are changed in stages. In some cases, the orientation of the template is also changed in stages.

なお、顔データ中の最も深い位置にあるボクセルの深さではなく、探索したパーツに含まれる特定のボクセルの深さ、探索したパーツについての平均深さ、顔データの平均深さ、その平均深さから一定距離離れた深さ、等を代表深さとして定めるようにしてもよい。いずれにしても、顔データ又はパーツデータに応じて深さパラメータが定められれば、ユーザーの負担を軽減できる。   The depth of the specific voxel included in the searched part, the average depth of the searched part, the average depth of the face data, and the average depth, not the depth of the voxel at the deepest position in the face data Alternatively, a depth that is a certain distance away may be determined as the representative depth. In any case, if the depth parameter is determined according to the face data or the part data, the burden on the user can be reduced.

表示処理部18は、断層画像形成手段、グラフィック画像生成手段、画像合成手段、カラー処理手段、等として機能する。表示処理部18は、専用のプロセッサで実現され、あるいは、CPU上で実行される動作プログラムが発揮する機能として実現される。表示処理部18は、カラー処理手段として機能するカラー処理部30を有する。   The display processing unit 18 functions as a tomographic image forming unit, a graphic image generating unit, an image synthesizing unit, a color processing unit, and the like. The display processing unit 18 is realized by a dedicated processor or a function exhibited by an operation program executed on the CPU. The display processing unit 18 includes a color processing unit 30 that functions as a color processing unit.

カラー処理部30は、組織画像に基づいてフロントカラー組織画像及びバックカラー組織画像を生成する機能と、深さ画像に従ってフロントカラー組織画像及びバックカラー組織画像を重み付け合成してカラー組織画像を生成する機能と、を有する。フロントカラー組織画像は第1の仮のカラー組織画像であり、本実施形態において、フロントカラーは胎児を表現するためのカラーであって例えば暖色系のカラーである。バックカラー組織画像は第2の仮のカラー組織画像であり、本実施形態において、バックカラーは胎児の奥側に存在する子宮壁を表現するためのカラーであって例えば寒色系のカラーである。フロントカラー組織画像は複数の画素に対応した複数のフロントカラー画素値からなるものであり、バックカラー組織画像は複数の画素に対応した複数のバックカラー画素値からなるものである。なお、フロントカラー組織画像及びバックカラー組織画像を実際に生成することなく、組織画像及び深さ画像から直接的にカラー組織画像が生成されてもよい。   The color processing unit 30 generates a color tissue image by weighting and combining the front color tissue image and the back color tissue image according to the depth image and the function of generating the front color tissue image and the back color tissue image based on the tissue image. And having a function. The front color tissue image is a first provisional color tissue image. In the present embodiment, the front color is a color for expressing the fetus and is, for example, a warm color. The back color tissue image is a second provisional color tissue image. In this embodiment, the back color is a color for expressing the uterine wall existing on the back side of the fetus, for example, a cold color. The front color tissue image is composed of a plurality of front color pixel values corresponding to a plurality of pixels, and the back color tissue image is composed of a plurality of back color pixel values corresponding to a plurality of pixels. Note that the color tissue image may be generated directly from the tissue image and the depth image without actually generating the front color tissue image and the back color tissue image.

フロントカラー組織画像及びバックカラー組織画像の重み付け合成は、重み付け関数(色付け関数)に従って実行される。重み付け関数は、本実施形態において、深さパラメータを有する。深さパラメータは、本実施形態において、フロントカラーによる表現が優先される手前側の深さ範囲とバックカラーによる表現が優先される奥側の深さ範囲との間の境界を規定するパラメータである。もっとも、これは例示であり、他の条件を既定する深さパラメータを採用してもよい。本実施形態では、深さパラメータが注目組織についての代表深さに従って自動的に適応的に設定される。具体的には、代表深さが深さパラメータに代入される。これにより、ユーザーの負担が軽減され、また注目組織に応じて深さパラメータを最適化することが可能となる。   The weighted synthesis of the front color tissue image and the back color tissue image is performed according to a weighting function (coloring function). The weighting function has a depth parameter in this embodiment. In this embodiment, the depth parameter is a parameter that defines a boundary between a depth range on the near side where the expression by the front color is prioritized and a depth range on the back side where the expression by the back color is prioritized. . However, this is merely an example, and a depth parameter that defines other conditions may be adopted. In this embodiment, the depth parameter is automatically and adaptively set according to the representative depth for the tissue of interest. Specifically, the representative depth is substituted into the depth parameter. Thereby, the burden on the user is reduced, and the depth parameter can be optimized according to the target tissue.

上記重み付け合成により生じたカラー組織画像が表示器32に表示される。表示器32は、LCD又は有機ELデバイス等によって構成される。ちなみに、カラー組織画像において、個々の画素の輝度値は演算終了時点での出力光量によって定められる。視点に近い組織は明るく表現され、視点から遠い組織は暗く表現される。   A color tissue image generated by the weighted synthesis is displayed on the display 32. The display 32 is configured by an LCD or an organic EL device. Incidentally, in the color tissue image, the luminance value of each pixel is determined by the output light quantity at the end of the calculation. An organization close to the viewpoint is expressed brightly, and an organization far from the viewpoint is expressed darkly.

制御部34は、図1に示されている各構成を制御する制御手段として機能し、CPU及び動作プログラムにより構成される。制御部34には操作パネル36が接続されている。操作パネル36は、トラックボール、スイッチ、キーボード等の多様な入力デバイスを有する。   The control unit 34 functions as a control unit that controls each component illustrated in FIG. 1 and includes a CPU and an operation program. An operation panel 36 is connected to the control unit 34. The operation panel 36 has various input devices such as a trackball, a switch, and a keyboard.

図2には、組織画像及び深さ画像の生成方法が模式的に示されている。図示の例では、三次元関心領域(ボリュームデータ)40に対して、互いに並行に複数のレイ42が設定される。X−Y−Zは直交座標系を表している。Z方向が深さ方向である。符号44で示す矢印は視点から出る投影方向を示している。その方向に対して複数のレイ42が平行に設定されている。なお、ボリュームデータに対してその周囲における任意の位置に視点を設定することが可能である。   FIG. 2 schematically shows a method for generating a tissue image and a depth image. In the illustrated example, a plurality of rays 42 are set in parallel to each other for the three-dimensional region of interest (volume data) 40. XYZ represents an orthogonal coordinate system. The Z direction is the depth direction. An arrow denoted by reference numeral 44 indicates the projection direction from the viewpoint. A plurality of rays 42 are set in parallel to the direction. Note that the viewpoint can be set at an arbitrary position around the volume data.

符号40Aは演算開始面を示している。それは平面として描かれている。実際には演算開始面40Aの形状等を自在に変更することが可能である。演算開始面40Aとは別に、深さ(距離)を定義するための基準面を定めるようにしてもよい。個々のレイ42上において、演算開始面40A上の演算開始点から奥行き方向(図示の例ではZ方向)へレンダリング演算が実行される。具体的には、レイ42上に存在するボクセルごとに(又は補間演算で生成されたボクセルごとに)、上記(1)式に示した出力光量演算が繰り返し実行される。出力光量演算の都度、オパシティが累積加算される。上述したいずれかの終了条件が満たされた時点で、出力光量演算が終了し、つまり、レンダリング演算が終了する。これによって、レイ42ごとに演算終了点48が特定される。その演算終了点48は例えば胎児の表面(又は表層内のある深さ)に相当する。レンダリング演算終了時点での出力光量が輝度としてメモリ上にマッピングされる。複数のレイ42に対応する複数の輝度のマッピング結果として組織画像52が構成される。それは白黒のボリュームレンダリング画像である。   Reference numeral 40A denotes a calculation start surface. It is drawn as a plane. Actually, it is possible to freely change the shape or the like of the calculation start surface 40A. In addition to the calculation start surface 40A, a reference surface for defining the depth (distance) may be determined. On each ray 42, the rendering calculation is executed in the depth direction (Z direction in the illustrated example) from the calculation start point on the calculation start surface 40A. Specifically, the output light amount calculation shown in the above equation (1) is repeatedly executed for each voxel existing on the ray 42 (or for each voxel generated by the interpolation calculation). Each time the output light quantity is calculated, the opacity is cumulatively added. When any of the above-described termination conditions is satisfied, the output light amount calculation ends, that is, the rendering calculation ends. As a result, the calculation end point 48 is specified for each ray 42. The calculation end point 48 corresponds to, for example, the fetal surface (or a certain depth in the surface layer). The output light amount at the end of the rendering operation is mapped on the memory as the luminance. A tissue image 52 is formed as a mapping result of a plurality of luminances corresponding to the plurality of rays 42. It is a black and white volume rendering image.

一方、レイ単位で、演算終了点48の深さ(演算開始点から演算終了点までの距離)がメモリ上にマッピングされる。複数のレイ42に対応する複数の距離のマッピング結果として深さ画像50が構成される。グレースケール54として示されているように、図2においては、最小深さから最大深さまでが輝度の変化として表現されている。もちろん、これは例示に過ぎないものである。組織画像52及び深さ画像50は、互いに同じ二次元画素配列を有する。組織画像52及び深さ画像50に基づいて、カラー組織画像が生成される。 On the other hand, the depth of the calculation end point 48 (distance from the calculation start point to the calculation end point) is mapped on the memory in units of rays. A depth image 50 is formed as a mapping result of a plurality of distances corresponding to the plurality of rays 42. As shown as the gray scale 54, in FIG. 2, the minimum depth to the maximum depth is expressed as a change in luminance. Of course, this is only an example. The tissue image 52 and the depth image 50 have the same two-dimensional pixel array. Based on the tissue image 52 and the depth image 50, a color tissue image is generated.

図3には、図1に示したカラー処理部30の構成例が示されている。カラー処理部30は、2つの変換テーブル70,72と、重み付け合成器74と、を有している。第1変換テーブル70は、フロントカラー変換テーブルであり、輝度Iに応じて、胎児表現用カラーとしてのフロントカラー(RGB値)Cfを決定するルックアップテーブルである。例えば、フロントカラーとして、温かみを感じられるオレンジ系のカラーが採用される。視点に近い側に存在する組織がそのようなカラーによって表現される。第2変換テーブル72は、バックカラー変換テーブルであり、輝度Iに応じて、子宮壁表現用カラーとしてのバックカラー(RGB値)Cbを決定するルックアップテーブルである。例えば、子宮壁表現用カラーとして、胎児表現用カラーへの混色によって遠近感を増大できる、あるいは、胎児から子宮壁を視覚的に識別するための、ブルー系のカラーが採用される。第1変換テーブル70及び第2変換テーブル72はそれぞれ画素単位で動作するものである。第1変換テーブル70から順次出力される複数のカラー画素値がフロントカラー組織画像を構成し、第2変換テーブル72から順次出力される複数のカラー画素値がバックカラー組織画像を構成する。   FIG. 3 shows a configuration example of the color processing unit 30 shown in FIG. The color processing unit 30 includes two conversion tables 70 and 72 and a weighting synthesizer 74. The first conversion table 70 is a front color conversion table, and is a lookup table that determines a front color (RGB value) Cf as a fetal expression color according to the luminance I. For example, an orange color that can feel warmth is used as the front color. An organization existing on the side close to the viewpoint is represented by such a color. The second conversion table 72 is a back color conversion table, and is a lookup table that determines a back color (RGB value) Cb as a color for expressing the uterine wall according to the luminance I. For example, as the color for expressing the uterine wall, a blue color can be used to increase the perspective by mixing with the color for expressing the fetus, or to visually distinguish the uterine wall from the fetus. The first conversion table 70 and the second conversion table 72 each operate on a pixel basis. A plurality of color pixel values sequentially output from the first conversion table 70 constitute a front color tissue image, and a plurality of color pixel values sequentially output from the second conversion table 72 constitute a back color tissue image.

重み付け合成器74は、重み付け関数(色付け関数)76を有する。重み付け関数76は、深さZから規定される2つの重みをカラーCf、Cbに与えた上で、それらを加算することにより、合成後のカラーCを求めるものである。重み付け関数76は、深さパラメータZsと範囲パラメータΔZとを有し、それらに代入される値を操作することにより、重み付け関数76の作用が変更される。   The weighting synthesizer 74 has a weighting function (coloring function) 76. The weighting function 76 obtains the combined color C by giving two weights defined from the depth Z to the colors Cf and Cb and adding them together. The weighting function 76 has a depth parameter Zs and a range parameter ΔZ, and the operation of the weighting function 76 is changed by manipulating the values substituted for them.

パラメータ設定部78は、代表深さZrに基づいて、深さパラメータZsを自動的に設定する。具体的には、代表深さZrを深さパラメータZsに代入する。上記のように、深さパラメータZsの変更により、フロントカラーにより優先的に表現する深さ範囲とバックカラーにより優先的に表現する深さ範囲との境界を深さ方向に変更し得る。範囲パラメータΔZは、必要に応じて、マニュアルで調整される。なお、代表深さZr等に基づいて、範囲パラメータΔZが自動的に設定されてもよい。重み付け合成の結果、複数のカラー画素値からなるカラー組織画像が生成される。なお、輝度I及び深さZの組み合わせから、直ちにカラーCが特定されてもよい。もっとも、そのような態様をルックアップテーブルで実現する場合、その構成がかなり複雑になる。これに対し、図3に示した構成によれば、構成を簡易化できる。   The parameter setting unit 78 automatically sets the depth parameter Zs based on the representative depth Zr. Specifically, the representative depth Zr is substituted for the depth parameter Zs. As described above, the boundary between the depth range preferentially expressed by the front color and the depth range preferentially expressed by the back color can be changed in the depth direction by changing the depth parameter Zs. The range parameter ΔZ is manually adjusted as necessary. Note that the range parameter ΔZ may be automatically set based on the representative depth Zr and the like. As a result of the weighted synthesis, a color tissue image composed of a plurality of color pixel values is generated. Note that the color C may be identified immediately from the combination of the luminance I and the depth Z. However, when such an aspect is realized by a look-up table, the configuration becomes considerably complicated. On the other hand, according to the configuration shown in FIG. 3, the configuration can be simplified.

図4には、重み付け関数の一例が示されている。重み付け関数は、Cfに対する重みを規定する関数80と、Cbに対する重みを規定する関数82と、からなる。横軸は深さZを示している。縦軸は重みを示している。   FIG. 4 shows an example of the weighting function. The weighting function includes a function 80 that defines a weight for Cf and a function 82 that defines a weight for Cb. The horizontal axis indicates the depth Z. The vertical axis represents the weight.

0からZ1までの範囲においては、Cfに対する重みが1.0とされており、Cbに対する重みが0とされている。Z1からZ2までの範囲においては、Cfに対する重みが1.0から0まで変化しており、Cbに対する重みが0から1.0まで変化している。Z2からMaxZの範囲においては、Cfに対する重みが0とされており、Cbに対する重みが1.0とされている。ここで、Zsは、Z1とZ2との間の中点であり、図示の例では、2つの関数80,82のクロス点に相当している。ΔZはZ1とZ2の間の範囲である。0からZsまでの範囲がフロントカラーによるカラー表現が優先される深さ範囲であり、ZsからMaxZまでの範囲がバックカラーによるカラー表現が優先される深さ範囲である。   In the range from 0 to Z1, the weight for Cf is 1.0, and the weight for Cb is 0. In the range from Z1 to Z2, the weight for Cf changes from 1.0 to 0, and the weight for Cb changes from 0 to 1.0. In the range from Z2 to MaxZ, the weight for Cf is 0, and the weight for Cb is 1.0. Here, Zs is a midpoint between Z1 and Z2, and corresponds to the cross point of the two functions 80 and 82 in the illustrated example. ΔZ is a range between Z1 and Z2. A range from 0 to Zs is a depth range where priority is given to color expression by the front color, and a range from Zs to MaxZ is a depth range where priority is given to color expression by the back color.

深さパラメータZsを増減すると、関数80,82が横方向にシフトすることから、深さパラメータZsをシフトパラメータと称することもできる。範囲パラメータΔZを増減すると、カラー組織画像において重み1.0が与えられた2つのカラーの存在割合が変化することから、範囲パラメータΔZをコントラストパラメータと称することもできる。   When the depth parameter Zs is increased or decreased, the functions 80 and 82 are shifted in the horizontal direction. Therefore, the depth parameter Zs can also be referred to as a shift parameter. When the range parameter ΔZ is increased or decreased, the existence ratio of two colors having a weight of 1.0 in the color tissue image changes. Therefore, the range parameter ΔZ can also be referred to as a contrast parameter.

深さパラメータZsとして、顔データに含まれる最も深い位置にあるボクセルの深さが設定された場合、そこから手前側(視点側)に存在する組織については専らフロントカラーによって表現され、そこから奥側(非視点側)に存在する組織については専らバックカラーによって表現される。よって、胎児の顔が不自然なカラーで表現されてしまう問題を回避でき、かつ、奥側にある子宮壁が胎児同様の色で表現されてしまう問題を回避できる。つまり、深さ方向における胎児の顔の存在範囲に応じて、深さパラメータZsを最適化できる。なお、例えば、深さパラメータとしてZ2を指定するパラメータを採用してもよい。   When the depth of the voxel at the deepest position included in the face data is set as the depth parameter Zs, the tissue existing on the front side (viewpoint side) from there is represented exclusively by the front color, and from there The organization existing on the side (non-viewpoint side) is represented exclusively by the back color. Therefore, the problem that the face of the fetus is expressed in an unnatural color can be avoided, and the problem that the uterine wall on the back side is expressed in the same color as the fetus can be avoided. That is, the depth parameter Zs can be optimized according to the existence range of the fetal face in the depth direction. For example, a parameter that designates Z2 as the depth parameter may be employed.

図5には、本実施形態に係るボリュームデータ処理の全体が模式的に描かれている。ボリュームデータ200には、胎児データ(顔データ)202と子宮壁データ204とが含まれる。ボリュームデータ200に対して複数のレイ206が設定され、レイ単位でレンダリング演算が実行される。その結果、組織画像214及び深さ画像216が生成される。一方、後に詳述するように、ボリュームデータ200に対して、テンプレート210を利用したパーツ探索が実行される。これにより、顔データに含まれる注目データ(例えば、目及びその周囲に相当するデータ、口及びその周囲に相当するデータ)が特定される。続いて、ボリュームデータ内において、注目部位データとの繋がり関係を利用して、注目部位データを含む注目組織データとしての顔データが抽出される。更に、その顔データに含まれる最も深いボクセル212が特定される。そのボクセル212が存在する深さが代表深さZrとされる。その代表深さZrが深さパラメータZsに代入される。次に、組織画像214からフロントカラー組織画像218及びバックカラー組織画像220が生成される。符号222で示すように、それらの画像218、220が深さ画像216に従って重み付け合成され、これによりカラー組織画像224が生成される。重み付け合成222においては、深さパラメータZsを有する重み付け関数が利用される。   FIG. 5 schematically illustrates the entire volume data processing according to the present embodiment. The volume data 200 includes fetal data (face data) 202 and uterine wall data 204. A plurality of rays 206 are set for the volume data 200, and a rendering operation is executed for each ray. As a result, a tissue image 214 and a depth image 216 are generated. On the other hand, as will be described in detail later, a part search using the template 210 is performed on the volume data 200. Thereby, attention data (for example, data corresponding to the eyes and the surroundings, data corresponding to the mouth and the surroundings) included in the face data is specified. Subsequently, face data as target tissue data including target region data is extracted from the volume data using a connection relationship with the target region data. Further, the deepest voxel 212 included in the face data is specified. The depth at which the voxel 212 exists is set as the representative depth Zr. The representative depth Zr is substituted into the depth parameter Zs. Next, a front color tissue image 218 and a back color tissue image 220 are generated from the tissue image 214. As indicated by reference numeral 222, the images 218 and 220 are weighted and synthesized according to the depth image 216, thereby generating a color tissue image 224. In the weighting synthesis 222, a weighting function having a depth parameter Zs is used.

図6には、図1に示した解析部26の構成例が示されている。解析部26は、テンプレートマッチング部94、顔データ抽出部96、及び、代表深さ決定部98を有している。テンプレートマッチング部94は、テンプレート92を利用してボリュームデータ90に含まれる注目部位データ(特定のパーツデータ)を探索するモジュールである。顔データ抽出部96は、ボリュームデータの中において、注目部位データとの繋がり関係を利用して、それを包含する顔データを抽出する。代表深さ決定部98は、抽出された顔データにおける最も深いボクセルを特定し、その深さを代表深さZrとして定義する。なお、顔データが子宮壁データに接触している場合には顔データを抽出することが困難となる。その場合には、注目部位データの深さから、注目組織データについての代表深さを定めてもよい。   FIG. 6 shows a configuration example of the analysis unit 26 shown in FIG. The analysis unit 26 includes a template matching unit 94, a face data extraction unit 96, and a representative depth determination unit 98. The template matching unit 94 is a module for searching attention site data (specific part data) included in the volume data 90 using the template 92. The face data extraction unit 96 extracts the face data including the data using the connection relation with the attention site data in the volume data. The representative depth determination unit 98 identifies the deepest voxel in the extracted face data and defines the depth as the representative depth Zr. Note that it is difficult to extract face data when the face data is in contact with the uterine wall data. In that case, the representative depth of the target tissue data may be determined from the depth of the target region data.

次に、図7及び図8に基づいてテンプレートマッチング処理について説明する。図7において、母体内の三次元空間から、ボリュームデータ100が取得される。ボリュームデータ100には、胎児データ、羊水データ、子宮壁データ等が含まれる。ボリュームデータ100から順次切り出された面データ(スライスデータ)102Aが順次、処理対象となる。符号103で示すように、面データ102に対して縮小処理が施されてもよい。   Next, template matching processing will be described with reference to FIGS. In FIG. 7, volume data 100 is acquired from a three-dimensional space in the mother body. The volume data 100 includes fetal data, amniotic fluid data, uterine wall data, and the like. Surface data (slice data) 102A sequentially cut out from the volume data 100 is sequentially processed. As indicated by reference numeral 103, the surface data 102 may be reduced.

処理対象となった面データ102Aは、図示の例において、概ね高い輝度をもった子宮壁データ106、概ね低い輝度をもった羊水データ108、及び、概ね高い輝度をもった頭部データ(顔データ)104を含んでいる。頭部データ104の中には、周囲よりも輝度が落ち込んだ円形の眼球部分116が含まれる。階調数は例えば256であり、その場合、輝度は0から255の間で変化する。   In the illustrated example, the surface data 102A to be processed is the uterine wall data 106 having a generally high luminance, the amniotic fluid data 108 having a generally low luminance, and the head data (face data) having a generally high luminance. ) 104. The head data 104 includes a circular eyeball portion 116 whose luminance is lower than that of the surrounding area. The number of gradations is, for example, 256. In this case, the luminance changes between 0 and 255.

テンプレート110は、図示の例において、二次元テンプレートであり、それは矩形の形態を有している。具体的には、テンプレート110は円形領域112と周囲領域114とからなる。円形領域112は眼球を模擬した領域であり、周囲領域114は眼球周囲組織を模擬した領域である。円形領域112が有する輝度は低く、例えば0である。周囲領域114が有する輝度は高く、例えば100である。本願明細書上に記載する各数値はいずれも例示である。   The template 110 is a two-dimensional template in the illustrated example, and has a rectangular shape. Specifically, the template 110 includes a circular area 112 and a surrounding area 114. The circular region 112 is a region that simulates an eyeball, and the surrounding region 114 is a region that simulates a tissue around the eyeball. The brightness of the circular area 112 is low, for example, 0. The brightness of the surrounding area 114 is high, for example 100. Each numerical value described in this specification is an example.

個々の面データ102Aにおける各位置において、テンプレートを利用したパターンマッチングが実行される。具体的には、面データ102Aに対してテンプレート110をラスター走査させながら、各走査位置において面データ102Aとテンプレート110との間での類似度合い(評価値)が計算される。面データ102Aごとに最も良い評価値が特定され、その評価値及びそれが求められた時点でのテンプレート110の三次元座標情報が一時的に記憶される。すべての面データ102Aに対して上記処理が適用された後、記憶されていた複数の評価値の中から、最良評価値が判定される。最良評価値は、右目又は左目に対応する。最良評価値に対応する三次元座標情報(例えば、最良マッチング状態でのテンプレート110の周囲領域114)が顔データ抽出に際しての出発点とされる。   Pattern matching using a template is executed at each position in the individual surface data 102A. Specifically, the degree of similarity (evaluation value) between the surface data 102A and the template 110 is calculated at each scanning position while raster scanning the template 110 with respect to the surface data 102A. The best evaluation value is specified for each surface data 102A, and the evaluation value and the three-dimensional coordinate information of the template 110 at the time when it is obtained are temporarily stored. After the above processing is applied to all the surface data 102A, the best evaluation value is determined from the plurality of stored evaluation values. The best evaluation value corresponds to the right eye or the left eye. The three-dimensional coordinate information corresponding to the best evaluation value (for example, the surrounding area 114 of the template 110 in the best matching state) is used as a starting point when extracting face data.

パターンマッチング処理においては、注目する部位(又は部位種別)ごとに専用のテンプレートが用意される。後述するように、複数の部位を同時に特定するテンプレートを利用することも可能である。必要に応じて、テンプレートのサイズ、輝度、回転角度、等を変化させながら、パターンマッチングが遂行される。二値化テンプレートを利用することも可能である。パターンマッチングに先立って面データに対して間引き処理を施すようにしてもよい。図7に示したテンプレート110は基本的に角度依存性を有していないので、その回転は不要である。上記パターンマッチングでは二次元画像に対して二次元テンプレートが適用されるので、処理時間を短縮化できる。もちろん、後に示すように、ボリュームデータに対して三次元テンプレートを適用するようにしてもよい。   In the pattern matching process, a dedicated template is prepared for each region (or region type) of interest. As will be described later, it is also possible to use a template that simultaneously specifies a plurality of parts. Pattern matching is performed while changing the size, brightness, rotation angle, etc. of the template as necessary. It is also possible to use a binarized template. Prior to pattern matching, thinning processing may be performed on the surface data. Since the template 110 shown in FIG. 7 basically has no angle dependency, its rotation is unnecessary. In the above pattern matching, since a two-dimensional template is applied to a two-dimensional image, the processing time can be shortened. Of course, as shown later, a three-dimensional template may be applied to the volume data.

図8には、テンプレートマッチング処理が流れ図として示されている。S30では、テンプレートサイズを規定する変数Sに初期値S0が代入される。S32では、変数Sに従って、テンプレートサイズが設定される。S34では、Z方向(面データ並び方向)の位置を規定する変数Zに初期値Z0が代入され、S36で位置Zにおいて面データの切り出しが行われる。S38及びS40では、Y方向の位置及びX方向の位置を規定する変数Y,Xにそれぞれ初期値Y0,X0が代入される。S42では、切り出されたZの位置にある面データにおける座標(X,Y)の位置に、上記サイズをもったテンプレートが設定される。S44ではパターンマッチングが実行され、つまり評価値が演算される。その評価値が三次元座標情報と共に記録される。   FIG. 8 shows a template matching process as a flowchart. In S30, the initial value S0 is substituted for the variable S that defines the template size. In S32, the template size is set according to the variable S. In S34, the initial value Z0 is assigned to the variable Z that defines the position in the Z direction (surface data arrangement direction), and the surface data is cut out in the position Z in S36. In S38 and S40, initial values Y0 and X0 are substituted for variables Y and X that define the position in the Y direction and the position in the X direction, respectively. In S42, a template having the above size is set at the position of the coordinates (X, Y) in the surface data at the position of the cut-out Z. In S44, pattern matching is executed, that is, an evaluation value is calculated. The evaluation value is recorded together with the three-dimensional coordinate information.

S46において、XがXmaxに到達していないと判断された場合、S48においてXが1つインクリメントされた上で、S42以降の工程が繰り返し実行される。S46において、XがXmaxに到達していると判断された場合、S50が実行される。S50において、YがYmaxに到達していないと判断された場合、S52においてYが1つインクリメントされた上で、S40以降の工程が繰り返し実行される。S50において、YがYmaxに到達していると判断された場合、S54が実行される。S54において、ZがZmaxに到達していないと判断された場合、S56においてZが1つインクリメントされた上で、S36以降の工程が繰り返し実行される。S54において、ZがZmaxに到達していると判断された場合、S58が実行される。S58において、SがSmaxに到達していないと判断された場合、S60においてSが1つインクリメントされた上で、S32以降の工程が繰り返し実行される。S58において、SがSmaxに到達していると判断された場合、S62が実行される。S62では、最良評価値となった時点でのテンプレートの三次元座標情報が特定される。図示の例ではS62が最終工程である。   If it is determined in S46 that X has not reached Xmax, X is incremented by 1 in S48, and the processes after S42 are repeatedly executed. If it is determined in S46 that X has reached Xmax, S50 is executed. If it is determined in S50 that Y has not reached Ymax, Y is incremented by one in S52, and the processes after S40 are repeatedly executed. If it is determined in S50 that Y has reached Ymax, S54 is executed. If it is determined in S54 that Z has not reached Zmax, Z is incremented by 1 in S56, and the steps after S36 are repeatedly executed. If it is determined in S54 that Z has reached Zmax, S58 is executed. When it is determined in S58 that S has not reached Smax, S is incremented by 1 in S60, and the processes after S32 are repeatedly executed. If it is determined in S58 that S has reached Smax, S62 is executed. In S62, the three-dimensional coordinate information of the template when the best evaluation value is reached is specified. In the illustrated example, S62 is the final process.

図8に示した流れ図には示されていないが、更に、テンプレートの輝度を段階的に可変してもよい。あるいは、テンプレートの向き又は姿勢を段階的に可変してもよい。テンプレートの運動にn個の自由度がある場合、n個のパラメータを個別的に段階的に可変させてもよい。   Although not shown in the flowchart shown in FIG. 8, the brightness of the template may be changed stepwise. Or you may change the direction or attitude | position of a template in steps. If there are n degrees of freedom in the movement of the template, the n parameters may be individually varied in stages.

次に、図9及び図10に基づいてテンプレートマッチング処理の第2例について説明する。図9に示すボリュームデータ120において、位置及び角度を変化させながら、断面122が繰り返し設定される。これにより、断面122ごとに断面データ128が切り出される(符号124参照)。演算量を削減するため、断面データ128の切り出しに先立ってボリュームデータ120が縮小処理され、あるいは、切り出された断面データ128が縮小処理される(符号126参照)。   Next, a second example of template matching processing will be described based on FIGS. In the volume data 120 shown in FIG. 9, the cross section 122 is repeatedly set while changing the position and angle. Thereby, the cross-section data 128 is cut out for each cross-section 122 (see reference numeral 124). In order to reduce the amount of calculation, the volume data 120 is reduced before the section data 128 is cut out, or the cut out section data 128 is reduced (see reference numeral 126).

図10には1つの断面データが示されている。その断面データには胎児頭部像130が含まれる。胎児頭部像130は、図示の例において、胎児頭部の水平断面(頭部中心軸に平行な断面であって正面を向く断面)に相当するものである。胎児頭部像130には、3つの低輝度部分が含まれ、具体的には、左目部分(低輝度部分)142、右目部分(低輝度部分)144及び鼻腔部分(低輝度部分)146が含まれる。それらの部分142,144,146はそれぞれ、ほぼ円形の領域である。左目部分142及び右目部分144のサイズよりも、鼻腔部分146のサイズの方がやや小さい。鼻腔部分146は、左目部分142及び右目部分144を結ぶラインよりも、口の側にシフトした位置にある。   FIG. 10 shows one cross-sectional data. The cross-sectional data includes a fetal head image 130. In the illustrated example, the fetal head image 130 corresponds to a horizontal section of the fetal head (a section parallel to the central axis of the head and facing the front). The fetal head image 130 includes three low-luminance portions, specifically, a left-eye portion (low-luminance portion) 142, a right-eye portion (low-luminance portion) 144, and a nasal cavity portion (low-luminance portion) 146. It is. Each of these portions 142, 144, 146 is a substantially circular region. The size of the nasal cavity portion 146 is slightly smaller than the size of the left eye portion 142 and the right eye portion 144. The nasal cavity portion 146 is at a position shifted to the mouth side with respect to the line connecting the left eye portion 142 and the right eye portion 144.

それら3つの部位を同時に探索するためのツールがテンプレート132である。テンプレート132は、3つの円形領域134,136,138とそれらの周囲の領域とからなるイメージである。断面の位置、断面の角度、テンプレート132の位置、テンプレート132のサイズ、及び、テンプレート132の傾斜角度をそれぞれ独立して可変させながら、パターンマッチングが繰り返し実行される。最良相関値を得た時点でのテンプレート132の三次元座標、傾斜角度、及び、サイズ(倍率)が特定される。図10においては、2つの目に相当する低輝度部分及び鼻腔に相当する低輝度部分に対して適合した(つまり最良相関値を生じさせた)テンプレートが符号140で示されている。その時点でのテンプレート140のサイズは胎児の顔の大きさを表し、それが必要に応じてサイズ情報として利用される。具体的には、2つの目の間の距離をサイズ情報として利用してもよい。   A tool for simultaneously searching these three parts is a template 132. The template 132 is an image composed of three circular areas 134, 136, 138 and their surrounding areas. Pattern matching is repeatedly executed while the position of the cross section, the angle of the cross section, the position of the template 132, the size of the template 132, and the inclination angle of the template 132 are varied independently. The three-dimensional coordinates, the tilt angle, and the size (magnification) of the template 132 at the time when the best correlation value is obtained are specified. In FIG. 10, a template 140 is shown which is adapted to the low-intensity part corresponding to the two eyes and the low-intensity part corresponding to the nasal cavity (that is, which produced the best correlation value). The size of the template 140 at that time represents the size of the face of the fetus, which is used as size information as necessary. Specifically, the distance between two eyes may be used as size information.

図11に示すように、三次元テンプレート150を利用して、ボリュームデータ148に含まれる注目部位データを探索するようにしてもよい。注目部位データが検出された場合、その注目部位データに基づいて三次元ラベリング処理その他の手法により顔データが抽出される。顔データに基づいて代表深さが特定される。その代表深さに基づいて深さパラメータが自動的に設定される。   As illustrated in FIG. 11, the attention site data included in the volume data 148 may be searched using the three-dimensional template 150. When attention site data is detected, face data is extracted by a three-dimensional labeling process or other methods based on the attention site data. The representative depth is specified based on the face data. A depth parameter is automatically set based on the representative depth.

図12には、図1に示した装置の動作例が示されている。   FIG. 12 shows an operation example of the apparatus shown in FIG.

S76では、超音波ビームが二次元走査され、ボリュームデータが取得される。S78では、複数の注目部位に対応した複数のテンプレートが利用されつつ、ボリュームデータに含まれる複数の注目部位データが探索される。それらの全部又は一部に基づいて、繋がり関係を利用して顔データ(頭部データ)が抽出される。S80では、ボリュームデータに対して複数のレイが設定され、レイごとにレンダリング演算を実行することにより、組織画像及び深さ画像が生成される。その過程では、注目部位に応じてレンダリング条件が最適化される。例えば、注目部位に応じて、オパシティカーブが選択され、また、平滑化条件が変更される。これにより組織画像等の画質を高められる。   In S76, the ultrasonic beam is two-dimensionally scanned and volume data is acquired. In S78, a plurality of attention site data included in the volume data are searched while a plurality of templates corresponding to a plurality of attention regions are used. Based on all or part of them, face data (head data) is extracted using the connection relationship. In S80, a plurality of rays are set for the volume data, and a tissue image and a depth image are generated by executing a rendering operation for each ray. In the process, rendering conditions are optimized according to the region of interest. For example, an opacity curve is selected according to the region of interest, and the smoothing condition is changed. As a result, the image quality of tissue images and the like can be improved.

S82においては、S78で抽出された顔データに基づいて代表深さが特定される。S84では、代表深さに基づいて重み付け関数が定義される。つまり、代表深さに基づいて重み付け関数に含まれる深さパラメータが設定される。S86では、組織画像からフロントカラー組織画像及びバックカラー組織画像が生成され、それらを重み付け合成することにより、カラー組織画像が生成される。   In S82, the representative depth is specified based on the face data extracted in S78. In S84, a weighting function is defined based on the representative depth. That is, the depth parameter included in the weighting function is set based on the representative depth. In S86, a front color tissue image and a back color tissue image are generated from the tissue image, and a color tissue image is generated by weighting and synthesizing them.

S88では、サイズ情報に基づいてカラー組織画像の拡大率が定められ、また、目の位置等に基づいてズーム範囲の中心が特定される。ズーム範囲に対して、拡大率に基づくズーム処理を適用することにより、表示画像が生成される。S90ではその表示画像が画面上に表示される。   In S88, the enlargement ratio of the color tissue image is determined based on the size information, and the center of the zoom range is specified based on the eye position and the like. A display image is generated by applying zoom processing based on the enlargement ratio to the zoom range. In S90, the display image is displayed on the screen.

以上のように、テンプレートマッチング処理を様々な目的に利用することができる。顔データを直接的に特定することは一般に困難であるが、顔データに含まれる(比較的に特定容易な)パーツデータに注目し、まずそれを抽出することにより、そのパーツデータから顔データを抽出することは比較的に容易である。顔データが子宮壁データに繋がっている場合には、顔データを代表するデータとしてパーツデータを利用することも可能である。上記実施形態によれば、カラー処理条件を規定する深さパラメータの設定に際し、ユーザーの負担を軽減でき、また、その深さパラメータを最適化できる。   As described above, the template matching process can be used for various purposes. Although it is generally difficult to specify face data directly, focus on the part data contained in the face data (relatively easy to specify) and extract it first to extract the face data from the part data. It is relatively easy to extract. When the face data is connected to the uterine wall data, the part data can be used as data representing the face data. According to the above-described embodiment, it is possible to reduce the burden on the user when setting the depth parameter that defines the color processing condition, and it is possible to optimize the depth parameter.

上記の実施形態では、注目組織データから1つの代表深さが特定され、それが利用されていたが、注目組織データから複数の代表深さが特定され、それらが利用されるようにしてもよい。   In the above-described embodiment, one representative depth is specified from the target tissue data and used, but a plurality of representative depths may be specified from the target tissue data and used. .

20 画像処理部、22 組織画像生成部、24 深さ画像生成部、26 解析部、30 カラー処理部、50 組織画像、52 深さ画像、70 第1変換テーブル、72 第2変換テーブル、74 重み付け合成器、76 関数(重み付け関数)、78 パラメータ設定部、94 テンプレートマッチング部、96 顔データ抽出部、98 代表深さ決定部。
20 image processing unit, 22 tissue image generation unit, 24 depth image generation unit, 26 analysis unit, 30 color processing unit, 50 tissue image, 52 depth image, 70 first conversion table, 72 second conversion table, 74 weighting Synthesizer, 76 function (weighting function), 78 parameter setting unit, 94 template matching unit, 96 face data extraction unit, 98 representative depth determination unit.

Claims (9)

三次元空間に対する超音波の送受波により得られたボリュームデータの解析により、前記三次元空間に含まれる組織中の注目組織について代表深さを求める解析手段と、
前記ボリュームデータに基づいて、前記組織を立体的に表現した組織画像、及び、前記組織の表面の深さを表した深さ画像を生成する画像生成手段と、
前記深さ画像に基づいて前記組織画像をカラー処理することによりカラー組織画像を生成する手段であって、前記代表深さに基づいて前記カラー処理の条件を定めるカラー処理手段と、
を含むことを特徴とする超音波画像処理装置。
By analyzing volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space, an analysis means for obtaining a representative depth for a target tissue in the tissue included in the three-dimensional space;
Based on the volume data, a tissue image that three-dimensionally represents the tissue, and an image generation unit that generates a depth image that represents the depth of the surface of the tissue;
Means for generating a color tissue image by color processing the tissue image based on the depth image, and color processing means for determining the color processing conditions based on the representative depth;
An ultrasonic image processing apparatus comprising:
請求項1記載の装置において、
前記カラー処理手段は、前記深さ画像に基づいて、前記組織画像に基づく第1のカラー組織画像及び第2のカラー組織画像を重み付け合成することにより、前記カラー組織画像を生成し、
前記カラー処理の条件は前記重み付け合成の条件である、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
The color processing unit generates the color tissue image by weighting and combining the first color tissue image and the second color tissue image based on the tissue image based on the depth image,
The color processing condition is the weighting composition condition.
An ultrasonic image processing apparatus.
請求項2記載の装置において、
前記重み付け合成の条件は重み付け関数に従って定められ、
前記重み付け関数は深さパラメータを含み、
前記深さパラメータが前記代表深さに基づいて設定される、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 2.
The weighting synthesis condition is determined according to a weighting function,
The weighting function includes a depth parameter;
The depth parameter is set based on the representative depth;
An ultrasonic image processing apparatus.
請求項1記載の装置において、
前記解析手段は、
前記ボリュームデータに含まれる注目部位データを探索する手段と、
前記注目部位データと繋がり関係を有するデータとして注目組織データを抽出する手段と、
前記注目組織データに基づいて前記代表深さを決定する手段と、
を含むことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
The analysis means includes
Means for searching attention site data included in the volume data;
Means for extracting target tissue data as data having a connection relationship with the target region data;
Means for determining the representative depth based on the tissue of interest data;
An ultrasonic image processing apparatus comprising:
請求項4記載の装置において、
前記注目部位データを探索する手段は、2次元又は3次元のテンプレートを利用したテンプレートマッチング処理により前記注目部位データを探索する、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 4.
The means for searching the attention site data searches the attention site data by template matching processing using a two-dimensional or three-dimensional template.
An ultrasonic image processing apparatus.
請求項4記載の装置において、
前記注目組織データは胎児の頭部に相当するデータであり、
前記注目部位データは前記胎児の頭部に含まれる注目部位に相当するデータである、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 4.
The noted tissue data is data corresponding to the fetal head,
The attention area data is data corresponding to an attention area included in the fetal head.
An ultrasonic image processing apparatus.
請求項6記載の装置において、
前記代表深さは、前記胎児の頭部に相当するデータに含まれる代表ボクセルの深さである、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 6.
The representative depth is a depth of a representative voxel included in data corresponding to the fetal head.
An ultrasonic image processing apparatus.
請求項7記載の装置において、
前記代表ボクセルは、前記胎児の頭部に相当するデータに含まれ且つ最も深い位置にあるボクセルである、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 7.
The representative voxel is a voxel that is included in data corresponding to the fetal head and is in the deepest position.
An ultrasonic image processing apparatus.
超音波画像処理装置において超音波画像処理方法を実行するためのプログラムであって、
前記超音波画像処理方法が、
三次元空間に対する超音波の送受波により得られたボリュームデータの解析により、前記三次元空間に含まれる組織中の注目組織について代表深さを求める工程と、
前記ボリュームデータに対するボリュームレンダリングにより、前記組織を立体的に表現した組織画像、及び、前記組織の表面の深さを表した深さ画像を生成する工程と、
前記深さ画像に基づいて前記組織画像をカラー処理することによりカラー組織画像を生成する工程であって、前記代表深さに基づいて前記カラー処理の条件を定める工程と、
を含むことを特徴とするプログラム。
A program for executing an ultrasonic image processing method in an ultrasonic image processing apparatus,
The ultrasonic image processing method includes:
A step of obtaining a representative depth for a target tissue in a tissue included in the three-dimensional space by analyzing volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space;
Generating a tissue image representing the tissue three-dimensionally and a depth image representing the depth of the surface of the tissue by volume rendering on the volume data;
Generating a color tissue image by color processing the tissue image based on the depth image, the step of determining the color processing conditions based on the representative depth;
The program characterized by including.
JP2017154108A 2017-08-09 2017-08-09 Ultrasound image processing apparatus and volume data processing method Pending JP2019030575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017154108A JP2019030575A (en) 2017-08-09 2017-08-09 Ultrasound image processing apparatus and volume data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154108A JP2019030575A (en) 2017-08-09 2017-08-09 Ultrasound image processing apparatus and volume data processing method

Publications (1)

Publication Number Publication Date
JP2019030575A true JP2019030575A (en) 2019-02-28

Family

ID=65522604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154108A Pending JP2019030575A (en) 2017-08-09 2017-08-09 Ultrasound image processing apparatus and volume data processing method

Country Status (1)

Country Link
JP (1) JP2019030575A (en)

Similar Documents

Publication Publication Date Title
JP6629094B2 (en) Ultrasound diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP6147489B2 (en) Ultrasonic imaging system
JP5462598B2 (en) Ultrasound diagnostic system
JP5632680B2 (en) Ultrasonic image processing device
JP7077118B2 (en) Methods and systems for shading 2D ultrasound images
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
CN110087555B (en) Ultrasonic equipment and display transformation method and system of three-dimensional ultrasonic image thereof
KR102111626B1 (en) Image processing apparatus and image processing method
JP5525930B2 (en) Ultrasound diagnostic device for generating and displaying 3D ultrasound images
JP2009011468A (en) Ultrasound diagnosis apparatus
US20110060223A1 (en) Providing a three-dimensional ultrasound image based on an ellipsoidal region of interest in an ultrasound system
JP2005095278A (en) Ultrasonograph
JP2003325514A (en) Ultrasonic diagnostic apparatus
JP2003325513A (en) Ultrasonic diagnostic apparatus
JP6890677B2 (en) A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram
JP2825358B2 (en) Ultrasonic 3D image display
JP7078457B2 (en) Blood flow image processing device and method
JP5622374B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image generation program
JP2018149055A (en) Ultrasonic image processing device
JP2019030575A (en) Ultrasound image processing apparatus and volume data processing method
JP4199625B2 (en) Ultrasonic image processing device
JP2003325512A (en) Ultrasonic diagnostic apparatus
JP2018000779A (en) Ultrasonic image processing device
JP2018153561A (en) Ultrasound image processing apparatus
JP2007275150A (en) Ultrasonic diagnosing system