JP6546107B2 - Ultrasonic imaging system - Google Patents

Ultrasonic imaging system Download PDF

Info

Publication number
JP6546107B2
JP6546107B2 JP2016040053A JP2016040053A JP6546107B2 JP 6546107 B2 JP6546107 B2 JP 6546107B2 JP 2016040053 A JP2016040053 A JP 2016040053A JP 2016040053 A JP2016040053 A JP 2016040053A JP 6546107 B2 JP6546107 B2 JP 6546107B2
Authority
JP
Japan
Prior art keywords
distance
rays
plane
dimensional
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016040053A
Other languages
Japanese (ja)
Other versions
JP2017153726A (en
Inventor
俊徳 前田
俊徳 前田
裕哉 宍戸
裕哉 宍戸
悠加 大川
悠加 大川
信康 井上
信康 井上
小林 正樹
正樹 小林
優子 永瀬
優子 永瀬
由紀 三谷
由紀 三谷
みか 佐藤
みか 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016040053A priority Critical patent/JP6546107B2/en
Publication of JP2017153726A publication Critical patent/JP2017153726A/en
Application granted granted Critical
Publication of JP6546107B2 publication Critical patent/JP6546107B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は超音波画像処理装置に関し、特に、超音波ボリュームデータに基づいてカラーの三次元超音波画像を形成する装置に関する。   The present invention relates to an ultrasound imaging apparatus, and more particularly to an apparatus for forming a color three-dimensional ultrasound image based on ultrasound volume data.

超音波画像処理装置として、超音波診断装置の他、超音波診断装置で取得されたボリュームデータを処理する情報処理装置があげられる。超音波画像処理装置においては、超音波ボリュームデータ(以下、単に「ボリュームデータ」という。)に基づくレンダリング演算により三次元超音波画像(対象組織を立体的に表現した画像)が形成される。その手法としてボリュームレンダリング法が周知である。   As an ultrasonic image processing apparatus, other than an ultrasonic diagnostic apparatus, an information processing apparatus that processes volume data acquired by the ultrasonic diagnostic apparatus can be mentioned. In the ultrasound image processing apparatus, a three-dimensional ultrasound image (an image representing a target tissue in a three-dimensional manner) is formed by a rendering operation based on ultrasound volume data (hereinafter simply referred to as "volume data"). The volume rendering method is known as the method.

ボリュームレンダリング法においては、ボリュームデータに対して、視点から出る複数のレイ(視線)が設定され、個々のレイごとにレンダリング演算が実行されて画素値(輝度)が求められる。より詳しくは、レイ上の開始点から奥行き方向に沿ってオパシティ(不透明度)を利用した出力光量演算(ボクセル演算)が繰り返し実行され、所定の終了条件が満たされた時点での出力光量つまり演算終了点での出力光量をもって画素値が決定される。所定の終了条件としては、オパシティ累積加算値が1又はそれに近い値に到達したことを内容とする第1の終了条件、レイ上の最後のサンプル点まで出力光量演算が到達したことを内容とする第2の終了条件、等が知られている。オパシティ累積加算値は、一般に、出力光量演算ごとにそこで利用したオパシティを累積加算することによって求められるものである。出力光量演算式としては各種の式が知られている。複数のレイについて求められる複数の輝度は輝度マップとして観念され、それが三次元超音波画像を構成する。   In the volume rendering method, a plurality of rays (gaze lines) coming out of a viewpoint are set for volume data, and a rendering operation is performed for each ray to obtain a pixel value (luminance). More specifically, the output light quantity calculation (voxel calculation) using opacity (opacity) is repeatedly performed along the depth direction from the start point on the ray, and the output light quantity at the time when the predetermined termination condition is satisfied, that is, calculation The pixel value is determined by the output light quantity at the end point. The predetermined ending condition is a first ending condition whose content is that the opacity cumulative added value has reached 1 or a value close thereto, and that the output light quantity calculation has reached the last sample point on the ray. The second termination condition, etc. are known. The opacity cumulative added value is generally obtained by cumulatively adding the opacity used there for each output light amount calculation. Various formulas are known as output light quantity computing formulas. The plurality of luminances determined for the plurality of rays is conceptualized as a luminance map, which constitutes a three-dimensional ultrasound image.

上記のような一般的なボリュームレンダリング法とは異なる特別なボリュームレンダリング法として、輝度アップと共に距離マップを生成し、それらに基づいてカラー三次元画像を形成するボリュームレンダリング法が知られている。その方法では、レイ単位でのレンダリング演算に際し、終了点での出力光量(輝度)の他、終了点の深さ等が距離として特定され、これによって複数のレイに対応する複数の距離からなる距離マップが生成される。例えば、距離に応じて色相を変化させることにより、カラー三次元超音波画像における奥行き感を増大させることが可能である。   As a special volume rendering method different from the general volume rendering method as described above, there is known a volume rendering method which generates a distance map with luminance increase and forms a color three-dimensional image based on them. In this method, in rendering operation in units of rays, in addition to the output light quantity (brightness) at the end point, the depth of the end point etc. is specified as the distance, and thereby a distance consisting of a plurality of distances corresponding to a plurality of rays. A map is generated. For example, by changing the hue according to the distance, it is possible to increase the sense of depth in a color three-dimensional ultrasound image.

特許文献1、2は、三次元超音波画像の形成に際して距離に応じた色付けを提案するものである。具体的には、特許文献1に開示されたボリュームレンダリング法では、距離マップとして、平均深さマップが生成されている。特許文献2に開示されたボリュームレンダリング法では、距離マップとして、投影面からの距離を示す距離マップが生成されている。   Patent documents 1 and 2 propose coloring according to distance in formation of a three-dimensional ultrasound image. Specifically, in the volume rendering method disclosed in Patent Document 1, an average depth map is generated as a distance map. In the volume rendering method disclosed in Patent Document 2, a distance map indicating the distance from the projection plane is generated as the distance map.

特許文献3には、ボリュームデータに対して設定される三次元関心領域が示されている。その関心領域はクリッピング面としてのレンダリング開始面(以下「開始面」と称する。)を有する。その開始面は変形可能な面である(更に高さ方向への並行移動や傾斜運動も可能である)。例えば、胎児と胎盤との間の隙間の形状に合わせて開始面を変形させれば、胎盤を画像化対象から除外しつつ、胎児をレンダリング対象とすることが可能である。   Patent Document 3 shows a three-dimensional region of interest set for volume data. The region of interest has a rendering start plane (hereinafter referred to as "start plane") as a clipping plane. The starting surface is a deformable surface (in addition, parallel movement in the height direction and tilting movement are also possible). For example, if the starting surface is deformed in accordance with the shape of the gap between the fetus and the placenta, it is possible to render the fetus as a rendering target while excluding the placenta from the imaging target.

特許第5117490号公報Patent No. 5117490 gazette 特許第5525930号公報Patent No. 5525930 gazette 特開2011−83439号公報JP, 2011-83439, A

上記の距離マップを構成する距離を、レンダリング開始点からレンダリング終了点までの区間の長さと定義した場合、その距離が開始面の形状に依存することになる。開始面を湾曲させた場合、仮に対象物の表面形状が平坦であっても、距離マップの内容が上記湾曲の度合いに依存して変化する。これに起因して、カラー処理の段階では無用な色相変化が生じてしまう。特に、開始面を複雑に変形させた場合、その変形に応じて複雑な色相変化が生じてしまう。   When the distance constituting the above distance map is defined as the length of the section from the rendering start point to the rendering end point, the distance depends on the shape of the start surface. When the starting surface is curved, even if the surface shape of the object is flat, the content of the distance map changes depending on the degree of the above-mentioned curvature. Due to this, an unnecessary hue change occurs at the color processing stage. In particular, when the starting surface is deformed in a complicated manner, complex hue changes occur in response to the deformation.

本発明の目的は、輝度マップ及び距離マップに基づいて三次元超音波画像を形成する場合に、レンダリング開始面の変形による影響が距離マップに直接的に及ばないようにすることにある。あるいは、本発明の目的は、三次元超音波画像の画質を向上させることにある。   An object of the present invention is to prevent the influence of the deformation of the rendering start surface from directly affecting the distance map when forming a three-dimensional ultrasound image based on the brightness map and the distance map. Alternatively, an object of the present invention is to improve the quality of a three-dimensional ultrasound image.

本発明に係る超音波画像処理装置は、生体内の三次元空間から取得されたボリュームデータに対して、レンダリング対象となる対象データを画定する三次元関心領域を設定する設定手段と、前記対象データに対して複数のレイを設定し、レイ単位でレイに沿ってレンダリング演算を実行する手段であって、前記複数のレイに対応した複数の輝度からなる輝度マップと前記複数のレイに対応した複数の距離からなる距離マップとを生成するレンダリング手段と、前記輝度マップ及び前記距離マップに基づいて、カラー三次元画像を形成する画像形成手段と、を含み、前記設定手段は、前記三次元関心領域が有するクリッピング面としての変形可能な開始面とは別に、前記複数のレイに対して交差する関係を有する基準面を設定し、前記レンダリング手段は、前記レイ単位で前記開始面から前記レンダリング演算を実行することにより輝度を演算する輝度マップ生成手段と、前記レイ単位で前記基準面からレンダリング演算終了点までの距離を演算する距離マップ生成手段と、を含むことを特徴とする。   An ultrasonic image processing apparatus according to the present invention comprises: setting means for setting a three-dimensional region of interest defining target data to be rendered for volume data acquired from three-dimensional space in a living body; Means for setting a plurality of rays for each of the plurality of rays, and performing a rendering operation along the rays in units of rays, wherein a plurality of luminance maps corresponding to the plurality of rays and a plurality of rays corresponding to the plurality of rays And image forming means for forming a color three-dimensional image based on the brightness map and the distance map, wherein the setting means includes the three-dimensional region of interest. Setting a reference plane having an intersecting relation to the plurality of rays, separately from the deformable start plane as a clipping plane possessed by Means for calculating the luminance by executing the rendering operation from the start plane in units of rays, and a distance map for calculating the distance from the reference plane to the end point of rendering operations in units of rays. And generating means.

上記構成において、開始面は、画像化の対象とそれ以外とを分けるクリッピング面として機能するものであり、それは変形可能な面である。望ましくは、開始面は、傾斜可能で且つ視点に対して前後動可能な面である。本発明によれば、そのような開始面とは別に、距離演算の基準となる特別な面つまり基準面が設定される。望ましくは、基準面は複数のレイに対して直交する関係を有する平面であるが、それが若干傾斜可能なものであってもよい。基準面が三次元関心領域よりも視点に近い側に設定されるのが望ましい。基準面が距離演算の基準となることで、開始面の変形等の影響が各距離に直接的に及ぶことが回避される。よって、カラー三次元画像上での無用な色相変化を防止して、その品質を高められる。   In the above configuration, the start plane functions as a clipping plane that separates the imaging object from the others, which is a deformable plane. Preferably, the starting surface is a surface that is tiltable and can move back and forth relative to the viewpoint. According to the invention, in addition to such a starting surface, a special or reference surface is established which is the basis for the distance calculation. Desirably, the reference surface is a plane having an orthogonal relationship to the plurality of rays, but it may be slightly tiltable. It is desirable that the reference plane be set closer to the viewpoint than the three-dimensional region of interest. The fact that the reference surface serves as a reference for distance calculation prevents the influence of deformation of the starting surface and the like from directly affecting each distance. Therefore, it is possible to prevent unnecessary hue change on a color three-dimensional image and to improve its quality.

上記の三次元関心領域は、画像化対象(例えば胎児)を包含し、且つ、画像化対象でない組織(例えば胎盤)が除外されるように、自動的に又はマニュアルで設定される。その際に、上記のようにクリッピング面である開始面の変形等がなされる。開始面は個々のレイにおけるレンダリング開始点を規定するものであり、具体的には、開始面上に複数のレイに対応する複数のレンダリング開始点がセットされる。輝度マップを構成する輝度は、一般に、レンダリング終了条件が満たされた時点での出力光量、つまり、レンダリング終了点での出力光量、として定められる。ボリュームレンダリング法に従ってレイに沿って出力光量演算(ボクセル演算)を繰り返し実行していく過程で、オパシティが累積加算され、その累積加算値が1又はその手前の所定値に到達したならば、レンダリング終了が判断され、その次の出力光量演算は行われない。つまり、その時点をもって当該レイについてのレンダリング演算が終了し、輝度が定義されることになる。それと共に、開始点(レンダリング開始点)からレンダリング終了点までの距離が演算される。例えば、もっぱら胎児表面上又は表層内でレンダリング演算が終了するように、オパシティその他のパラメータを設定するなら、距離マップが胎児形状を表すことになる。そのような距離マップに従ってカラー演算が実行されれば、三次元画像上において胎児の三次元形態が輝度変化に加えて色相変化によって表現される。そのような場合に上記構成によれば距離マップの内容を優良化できるから、三次元画像のカラー表現も優良化される。ボリュームレンダリングのための計算式としては各種の数式が知られている。   The three-dimensional region of interest described above is set automatically or manually so as to include an imaging target (for example, a fetus) and exclude a non-imaging target tissue (for example, a placenta). At that time, as described above, deformation or the like of the starting surface which is a clipping surface is performed. The start plane defines a rendering start point in each ray, and specifically, a plurality of rendering start points corresponding to a plurality of rays are set on the start plane. The luminance constituting the luminance map is generally defined as the output light quantity at the time when the rendering end condition is satisfied, that is, the output light quantity at the rendering end point. In the process of repeatedly executing the output light quantity calculation (voxel calculation) along the ray according to the volume rendering method, the opacity is cumulatively added, and if the accumulated sum reaches a predetermined value of 1 or before, the rendering ends And the next output light quantity calculation is not performed. That is, the rendering operation for the ray is completed at that time, and the luminance is defined. At the same time, the distance from the start point (rendering start point) to the rendering end point is calculated. For example, if the opacity and other parameters are set such that the rendering operation is completed exclusively on the fetal surface or in the surface, the distance map will represent the fetal shape. If a color operation is performed according to such a distance map, the three-dimensional form of the fetus is represented by the hue change in addition to the luminance change on the three-dimensional image. In such a case, according to the above configuration, the contents of the distance map can be refined, so that the color representation of the three-dimensional image is also refined. Various formulas are known as formulas for volume rendering.

三次元関心領域のクリップ面(変形前の開始面)の初期形状として基準面を定義してもよい。もっとも開始面が対象物側に膨らんだ凹面となる場合の他、開始面が視点側に膨らんだ凸面となる場合もある。開始面よりも常に視点側に基準面が設定されるようにしてもよい。なお、レンダリング終了点が基準面よりも視点側になる事態が生じた場合、例外的に距離を強制的にゼロにし、距離が異常値(マイナス値)になることを防止してもよい。すなわち、望ましくは、前記距離マップ生成手段は、前記レンダリング演算終了点が前記基準面よりも視点に近くなる場合には前記距離をゼロにする。   The reference plane may be defined as the initial shape of the clip plane (the starting plane before deformation) of the three-dimensional region of interest. In addition to the case where the starting surface is a concave surface bulging toward the object, the starting surface may be a convex surface bulging toward the viewpoint. The reference plane may be always set on the viewpoint side of the start plane. In the case where the rendering end point is on the viewpoint side of the reference plane, the distance may be exceptionally forced to be zero to prevent the distance from becoming an abnormal value (minus value). That is, desirably, the distance map generation unit sets the distance to zero when the rendering operation end point is closer to the viewpoint than the reference plane.

望ましくは、前記距離マップ生成手段は、前記レイ単位で前記開始面から前記レンダリング演算終了点までの第1の距離を演算する手段と、前記レイ単位で前記基準面から前記開始面までの第2の距離を演算する手段と、前記レイ単位で前記第1の距離と前記第2の距離とを加算して前記距離を演算する手段と、を含む。基準面からレンダリング終了点までの距離を直接的に演算するよりも上記構成の方が既存の構成を生かして簡便に距離を演算することができる。なお、レイ上の個々の演算点(サンプル点)でのエコー値は、通常、その点周囲の複数のエコー値から補間演算により求められる。   Preferably, the distance map generation unit calculates a first distance from the start surface to the rendering operation end point in the ray unit, and a second distance from the reference surface to the start surface in the ray unit. And means for calculating the distance by adding the first distance and the second distance in units of rays. The above configuration can easily calculate the distance by utilizing the existing configuration rather than directly calculating the distance from the reference surface to the rendering end point. The echo value at each operation point (sample point) on a ray is usually determined by interpolation from a plurality of echo values around that point.

望ましくは、前記画像形成手段は、少なくとも輝度に基づいて第1のカラー値を決定する第1の変換テーブルと、少なくとも輝度に基づいて第2のカラー値を決定する第2の変換テーブルと、前記距離に応じて、前記第1の変換テーブルによって決定された第1のカラー値と前記第2の変換テーブルによって決定された第2のカラー値とを重み付け合成する手段と、を含み、前記重み付け合成後の複数のカラー値によって前記カラー三次元画像が構成される。重み付け合成条件をユーザーによって自在に可変できるように構成するのが望ましい。望ましくは、前記カラー三次元画像の形成に先立って前記距離マップを平滑化する平滑化手段を含む。距離マップにおいては特に辺縁において滑らかさに欠ける傾向が認められ、それは色相の無用な変化を生じさせる。上記構成によれば距離マップの平滑化によりそのような色相の不自然な変化が生じることを防止又は軽減できる。   Desirably, the image forming means comprises: a first conversion table for determining a first color value based at least on luminance; a second conversion table for determining a second color value based on at least luminance; Means for weighting and combining the first color value determined by the first conversion table and the second color value determined by the second conversion table according to the distance; A plurality of subsequent color values constitute the color three-dimensional image. It is desirable to configure the weighting and combining conditions to be freely variable by the user. Preferably, smoothing means is provided for smoothing the distance map prior to formation of the color three-dimensional image. In the distance map there is a tendency to lack smoothness, especially at the edges, which results in unwanted changes in hue. According to the above configuration, it is possible to prevent or reduce the occurrence of such an unnatural change in hue due to the smoothing of the distance map.

本発明によれば、輝度マップ及び距離マップに基づいて三次元超音波画像を形成する場合に、レンダリング開始面の変形による影響が距離マップに直接的に及ばないようにできる。あるいは、本発明によれば、三次元超音波画像の画質を向上できる。   According to the present invention, when forming a three-dimensional ultrasound image based on the brightness map and the distance map, it is possible to make the distance map not directly affected by the deformation of the rendering start surface. Alternatively, according to the present invention, the image quality of a three-dimensional ultrasound image can be improved.

本発明に係る超音波画像処理装置の実施形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of an ultrasound image processing apparatus according to the present invention. 輝度マップ及び距離マップを示す図であるIt is a figure which shows a brightness | luminance map and a distance map. 比較例を示す図である。It is a figure which shows a comparative example. 基準面の第1例を示す図である。It is a figure which shows the 1st example of a reference plane. 基準面の第2例を示す図である。It is a figure which shows the 2nd example of a reference plane. 基準面の第3例を示す図である。It is a figure which shows the 3rd example of a reference plane. 図1に示した装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the apparatus shown in FIG. 図7に示した動作例についての変形例を説明するための図である。It is a figure for demonstrating the modification about the operation example shown in FIG. 距離マップに対する平滑化を説明するための図である。It is a figure for demonstrating the smoothing with respect to a distance map. カラー処理部の第1構成例を示す図である。It is a figure which shows the 1st structural example of a color processing part. カラー処理部の第2構成例を示す図である。It is a figure which shows the 2nd structural example of a color processing part. カラー処理部の第3構成例を示す図である。It is a figure which shows the 3rd structural example of a color processing part. 重み付け合成処理を説明するための図である。It is a figure for demonstrating weighting composition processing.

以下、本発明の好適な実施形態を図面に基づいて説明する。   Hereinafter, preferred embodiments of the present invention will be described based on the drawings.

図1には本発明に係る超音波画像処理装置の好適な実施形態が示されている。この超音波画像処理装置は、本実施形態において、超音波診断装置である。超音波画像処理装置が画像処理を実行する情報処理装置によって構成されてもよい。その場合、超音波診断装置で取得されたボリュームデータが情報処理装置へ渡される。   FIG. 1 shows a preferred embodiment of an ultrasonic image processing apparatus according to the present invention. The ultrasonic image processing apparatus is an ultrasonic diagnostic apparatus in the present embodiment. The ultrasound image processing apparatus may be configured by an information processing apparatus that executes image processing. In that case, the volume data acquired by the ultrasound diagnostic apparatus is passed to the information processing apparatus.

図1に示す超音波診断装置は医療機関において設置され、生体に対する超音波の送受波により超音波画像を形成する装置である。本実施形態においては、以下に詳述するように、超音波画像としてカラー三次元画像が生成されている。それは例えば、子宮内の胎児の三次元形態を輝度及び色相の変化によって立体的に表現した画像である。   The ultrasonic diagnostic apparatus shown in FIG. 1 is an apparatus installed in a medical institution to form an ultrasonic image by transmitting and receiving ultrasonic waves to a living body. In the present embodiment, a color three-dimensional image is generated as an ultrasonic image, as described in detail below. For example, it is an image in which the three-dimensional form of the fetus in the uterus is three-dimensionally represented by changes in luminance and hue.

図1において、3Dプローブ10は生体内の三次元空間に対して超音波の送受波を行うことによりボリュームデータを取得するための送受波器である。3Dプローブ10は例えば2Dアレイ振動子を有し、それは二次元配列された複数の振動素子からなるものである。2Dアレイ振動子によれば、超音波ビームを電子的に二次元走査することが可能である。電子走査方式としては電子セクタ走査方式等が知られている。1Dアレイ振動子を機械的に走査することによってもボリュームデータを取得可能である。一般に、ボリュームデータは複数の走査面データにより構成され、各走査面データは複数のビームデータにより構成される。各ビームデータは深さ方向に並ぶ複数のエコーデータにより構成される。   In FIG. 1, a 3D probe 10 is a transducer for acquiring volume data by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body. The 3D probe 10 has, for example, a 2D array transducer, which comprises a plurality of transducer elements arranged in a two-dimensional manner. According to the 2D array transducer, it is possible to electronically scan an ultrasonic beam two-dimensionally. As an electronic scanning method, an electronic sector scanning method or the like is known. Volume data can also be acquired by mechanically scanning the 1D array transducer. In general, volume data is composed of a plurality of scan plane data, and each scan plane data is composed of a plurality of beam data. Each beam data is composed of a plurality of echo data arranged in the depth direction.

送受信部12は電子回路であり、それは送信ビームフォーマー及び受信ビームフォーマーとして機能する。すなわち、送信時において、送受信部12から3Dプローブ10へ複数の送信信号が供給され、これにより送信ビームが形成される。受信時において、生体内からの反射波が3Dプローブ10によって受波されると、3Dプローブ10から複数の受信信号が送受信部12へ出力される。送受信部12では複数の受信信号を整相加算処理し、これにより受信ビームに相当するビームデータを出力する。   The transceiver unit 12 is an electronic circuit, which functions as a transmit beamformer and a receive beamformer. That is, at the time of transmission, a plurality of transmission signals are supplied from the transmission / reception unit 12 to the 3D probe 10, whereby a transmission beam is formed. At the time of reception, when the reflected wave from inside the living body is received by the 3D probe 10, a plurality of received signals are output from the 3D probe 10 to the transmitting / receiving unit 12. The transmission / reception unit 12 performs phase adjustment addition processing on a plurality of reception signals, and thereby outputs beam data corresponding to reception beams.

送受信部12からビームデータ処理部14へ複数のビームデータが順次出力される。ビームデータ処理部14は、検波器、対数変換器等を備える電子回路である。そこで処理された各ビームデータが座標変換部16へ送られる。   A plurality of beam data are sequentially output from the transmission / reception unit 12 to the beam data processing unit 14. The beam data processing unit 14 is an electronic circuit provided with a detector, a logarithmic converter, and the like. Each beam data processed there is sent to the coordinate conversion unit 16.

座標変換部16は、座標変換機能、補間機能、等を有する電子回路である。座標変換部16は、各ビームデータを構成する個々のエコーデータを三次元記憶空間内にマッピングする処理を実行する。実際には補間データのマッピングを実行している。走査面に対応するフレームデータ単位で座標変換を実行してもよい。それを繰り返すことによりボリュームデータを生成するようにしてもよい。その場合には二次元スキャンコンバータが利用される。いずれにしても、本実施形態においては、座標変換部16が有するメモリ18内にボリュームデータが格納される。なお、そのようなボリュームデータから切り出される面データに基づいて二次元断層画像(Bモード画像)が形成される。   The coordinate conversion unit 16 is an electronic circuit having a coordinate conversion function, an interpolation function, and the like. The coordinate conversion unit 16 executes a process of mapping individual echo data constituting each beam data into a three-dimensional storage space. In practice, mapping of interpolation data is performed. Coordinate conversion may be performed in units of frame data corresponding to the scan plane. Volume data may be generated by repeating this. In that case, a two-dimensional scan converter is used. In any case, in the present embodiment, volume data is stored in the memory 18 of the coordinate conversion unit 16. A two-dimensional tomographic image (B-mode image) is formed based on surface data cut out from such volume data.

ボリュームレンダリング部20は、三次元関心領域設定手段、レンダリング手段、等として機能する。それは電子回路又はソフトウエア機能として実現される。三次元関心領域は、ボリュームデータの中で画像化したい部分を切り出すための領域であり、逆に言えば、画像化したくない部分を除外した領域であり、その領域の形態や位置は自動的に又はユーザー入力により定められる。例えば、子宮内の胎児の三次元画像を形成したい場合、胎児と胎盤との間の隙間(羊水)に、クリッピング面としての開始面が設定されるように、三次元関心領域が設定される。その場合において、視点に対してボリュームデータを相対的に回転させれば、それに伴って三次元関心領域に対してボリュームデータが相対的に回転する。クリッピング面つまり開始面は、デフォルト状態では平面であるが、上記特許文献3に記載されているように、それは凸面又は凹面に変形可能な面である。更に、その高さ、傾きを変更することも可能である。   The volume rendering unit 20 functions as a three-dimensional region of interest setting unit, a rendering unit, and the like. It is implemented as an electronic circuit or software function. The three-dimensional region of interest is a region for cutting out a portion to be imaged in the volume data, and conversely, it is a region excluding a portion not to be imaged, and the form and position of the region are automatically Or determined by user input. For example, when it is desired to form a three-dimensional image of the fetus in the uterus, a three-dimensional region of interest is set such that the start plane as the clipping plane is set in the gap between the fetus and the placenta (amniotic fluid). In that case, if the volume data is rotated relative to the viewpoint, the volume data rotates relative to the three-dimensional region of interest accordingly. The clipping or starting plane is a plane in the default state, but it is a plane that can be deformed into a convex or concave surface, as described in US Pat. Furthermore, it is also possible to change its height and inclination.

本実施形態においては、ボリュームレンダリング部20が、後述する基準面の設定手段としても機能する。基準面は、通常、開始面よりも視点側に設けられる平面であり、後述するレイ群に対して直交する平面である。   In the present embodiment, the volume rendering unit 20 also functions as a setting unit of a reference surface to be described later. The reference plane is usually a plane provided on the viewpoint side of the start plane, and is a plane orthogonal to ray groups described later.

ボリュームレンダリング部20は、ボリュームレンダリング法に基づいて、三次元関心領域つまり対象データに対してレイ群を設定した上で、個々のレイごとにレンダリング演算を実行する。複数のレイは本実施形態において互いに並行であり、それらは視点(又はそれに相当する面)から奥行き方向に延びる。複数のレイは三次元画像を構成する複数の画素に対応している。ボリュームレンダリング部20は、レイ単位で、開始点(レンダリング開始点)から終了点(レンダリング終了点)までにわたって、一定のピッチで、出力光量演算(ボクセル演算)を繰り返し実行する。より正確に言えば、所定の終了条件が満たされるまで、演算点を順次シフトさせながら、オパシティ(不透明度)を利用した出力光量演算が繰り返し実行される。所定の終了条件には、第1の終了条件と第2の終了条件とがある。出力光量演算で利用するオパシティの累積加算値が1又は所定値(例えば0.98)を超える場合に、第1の終了条件が満たされたと判断される。一方、出力光量演算が終了面まで到達した場合に第2の終了条件が満たされたと判断される。オパシティ関数を適宜設定しておけば、例えば、胎児表面又はその近傍で第1の終了条件が満たされる。その結果、胎児表面が表された三次元画像を形成することが可能である。所定の終了条件が満たされた時点での出力光量、つまり終了点での出力光量がそのレイに対応する輝度とされる。その輝度がメモリ22上にマッピングされる。複数のレイに対応する複数の輝度のマッピング結果としてメモリ22上に輝度マップが構成される。   The volume rendering unit 20 sets rays for the three-dimensional region of interest, that is, target data, based on the volume rendering method, and then performs rendering operations for each ray. The plurality of rays are parallel to one another in the present embodiment, and they extend in the depth direction from the viewpoint (or the plane corresponding thereto). The plurality of rays correspond to the plurality of pixels constituting the three-dimensional image. The volume rendering unit 20 repeatedly executes output light quantity calculation (voxel calculation) at a constant pitch from the start point (rendering start point) to the end point (rendering end point) in ray units. More precisely, the output light quantity calculation using the opacity (opacity) is repeatedly executed while sequentially shifting the calculation points until a predetermined end condition is satisfied. The predetermined termination conditions include a first termination condition and a second termination condition. When the cumulative addition value of the opacity used in the output light amount calculation exceeds 1 or a predetermined value (for example, 0.98), it is determined that the first end condition is satisfied. On the other hand, when the output light amount calculation reaches the end surface, it is determined that the second end condition is satisfied. If the opacity function is set appropriately, for example, the first termination condition is satisfied at or near the surface of the fetus. As a result, it is possible to form a three-dimensional image in which the fetal surface is represented. The output light quantity at the time when the predetermined end condition is satisfied, that is, the output light quantity at the end point is taken as the luminance corresponding to that ray. The luminance is mapped on the memory 22. A luminance map is constructed on the memory 22 as a mapping result of a plurality of luminances corresponding to a plurality of rays.

一方、出力光量演算に際しては、オパシティの累積加算が実行されており、上記の所定の終了条件が満たされた時点で、終了点の深さを表す“距離”が特定される。本実施形態では、その距離として、基準面から終了点までの長さが演算される。具体的には、終了条件が満たされるまでの出力光量演算回数に対してレイ上でのサンプル点ピッチを乗算することにより、開始面から終了点までの第1の距離が求められる。一方、当該レイ上において又はその延長線上において、基準面から開始面までの長さが第2の距離として求められる。第1の距離と第2の距離とを加算することにより、距離(基準面を基準として規格化された距離)が求められる。その距離がメモリ24上にマッピングされる。複数のレイに対応する複数の距離によりメモリ24上に距離マップが構成される。それは、輝度マップと同様、三次元画像を構成する画素配列と同じ配列を有するものである。   On the other hand, when computing the output light quantity, cumulative addition of opacity is executed, and when the above-mentioned predetermined ending condition is satisfied, a "distance" representing the depth of the ending point is specified. In this embodiment, the length from the reference plane to the end point is calculated as the distance. Specifically, the first distance from the start plane to the end point is determined by multiplying the number of output light quantity operations until the end condition is satisfied by the sample point pitch on the ray. On the other hand, the length from the reference surface to the start surface is determined as a second distance on the ray or on the extension thereof. By adding the first distance and the second distance, a distance (a normalized distance with reference to the reference surface) can be obtained. The distance is mapped on the memory 24. A distance map is configured on the memory 24 by a plurality of distances corresponding to a plurality of rays. Like the luminance map, it has the same arrangement as the pixel arrangement that constitutes the three-dimensional image.

輝度マップ及び距離マップの生成それ自体は公知であるが、本実施形態においては、距離マップを構成する個々の距離が基準面からの距離つまり規格化された距離である。これに関しては後に更に詳述する。   Although the generation of the intensity map and the distance map is known per se, in the present embodiment, the individual distances constituting the distance map are the distances from the reference plane, ie the normalized distances. This will be described in more detail later.

回路26は必要に応じて設けられる。それは例えば画像フィルタであり、例えばエッジ強調フィルタである。平滑化フィルタ28は平滑化手段として機能し、それは電子回路又はソフトウエアによって構成される。距離マップにおいては組織の輪郭において不自然な段差等が生じ易く、それは最終的な三次元画像の画質低下要因となるものである。そこで、本実施形態では、平滑化フィルタ28が距離マップの平滑化処理を実行しており、そのような処理を経た距離マップが表示処理部30内のカラー処理部32へ送られている。   The circuit 26 is provided as needed. It is, for example, an image filter, for example an edge enhancement filter. The smoothing filter 28 functions as a smoothing means, which is constituted by electronic circuits or software. In the distance map, unnatural steps or the like are likely to occur in the contour of the tissue, which is a factor that degrades the image quality of the final three-dimensional image. Therefore, in the present embodiment, the smoothing filter 28 executes smoothing processing of the distance map, and the distance map that has undergone such processing is sent to the color processing unit 32 in the display processing unit 30.

表示処理部30は、色付け機能、画像合成機能、等の各種の表示処理機能を備えている。その内でカラー三次元画像を生成する部分がカラー処理部32として示されている。カラー処理部32は、画素ごとに、輝度と距離とから画素値(カラー値)を決定するものであり、例えば、輝度マップとしての白黒の三次元画像に対して、個々の座標での距離に応じた色付けを施している。本実施形態では、診断目的やユーザー希望に応じて色表現を変えられるようにするため、カラー処理部32が2つの変換テーブル(変換関数)を有しており、それらによって特定される2つのカラー値が距離に応じて重み付け合成される。その重み付け合成条件をユーザーにおいて任意に変更することが可能である。生成されたカラー三次元画像が表示器34で表示される。それは静止画像又は動画像である。   The display processing unit 30 includes various display processing functions such as a coloring function and an image combining function. Among them, a portion that generates a color three-dimensional image is shown as a color processing unit 32. The color processing unit 32 determines a pixel value (color value) from the luminance and the distance for each pixel. For example, for the three-dimensional black and white image as a luminance map, It is colored according to it. In the present embodiment, the color processing unit 32 has two conversion tables (conversion functions) in order to be able to change the color expression according to the diagnostic purpose and the user's request, and the two colors specified by them The values are weighted and combined according to the distance. The weighting composition condition can be arbitrarily changed by the user. The generated color three-dimensional image is displayed on the display 34. It is a still image or a moving image.

制御部36はCPU及び動作プログラムによって構成され、制御部36により、図1に示されている個々の構成の動作が制御される。操作パネル38は入力装置を構成し、それを利用して三次元関心領域をマニュアル設定したり重み付け合成条件を変更したりすることが可能である。特にクリッピング面としての開始面をマニュアルで設定する場合に操作パネルが利用される。本実施形態では、三次元関心領域よりも視点側に基準面が自動的に設定されているが、基準面をマニュアルで設定できるように構成してもよい。表示器34には、カラー三次元画像の他、必要に応じて、任意断面画像やいわゆるトリプレーン画像が表示される。それらの画像を参照しながら三次元関心領域が設定される。   The control unit 36 is constituted by a CPU and an operation program, and the control unit 36 controls the operation of each configuration shown in FIG. 1. The operation panel 38 constitutes an input device, which can be used to manually set a three-dimensional region of interest or change a weighting composition condition. In particular, when the start plane as the clipping plane is set manually, the operation panel is used. In the present embodiment, the reference plane is automatically set on the viewpoint side of the three-dimensional region of interest, but the reference plane may be set manually. In addition to the color three-dimensional image, an arbitrary cross-sectional image or a so-called triplane image is displayed on the display 34 as needed. Three-dimensional regions of interest are set with reference to those images.

図2には輝度マップ及び距離マップの生成法が模式的に示されている。但し、図2においては一般的な生成法が示されており、そこには基準面は示されていない。   FIG. 2 schematically shows how to generate the luminance map and the distance map. However, FIG. 2 shows a general production method, in which no reference plane is shown.

三次元関心領域40に対して互いに並行に複数のレイ42が設定される。X−Y−Zは直交座標系を表している。Z方向が深さ方向である。符号41で示す矢印は視点から出る投影方向を示している。その方向に対して複数のレイ42が並行に設定される。なお、ボリュームデータに対して任意の位置に視点を設定することが可能である。   A plurality of rays 42 are set parallel to each other with respect to the three-dimensional region of interest 40. X-Y-Z represents an orthogonal coordinate system. The Z direction is the depth direction. An arrow 41 indicates a projection direction coming out of the viewpoint. A plurality of rays 42 are set in parallel to the direction. Note that it is possible to set a viewpoint at an arbitrary position for volume data.

図示の例では、符号40Aがクリッピング面としての開始面を示している。それは平面として描かれている。実際には開始面の形状等を自在に変更することが可能である。個々のレイにおいて、開始面40A上の開始点から奥行き方向(図示の例ではZ方向)へ出力光量演算が繰り返し実行される。その演算の都度、オパシティが累積加算される。上述した終了条件が満たされた時点で、出力光量演算が止まり、つまり、レンダリング演算が終了する。これによって、レイ42ごとに終了点44が特定される。レンダリング演算終了時点での出力光量が輝度としてメモリ上にマッピングされる。複数のレイ42に対応する複数の輝度のマッピング結果として輝度マップ46が構成される。それは白黒のボリュームレンダリング画像に相当する。一方、レイ単位での終了点44の深さが距離としてメモリ上にマッピングされる。複数のレイ42に対応する複数の距離のマッピング結果として距離マップ48が構成される。グレースケール50に示されているように、図示の例では、最小距離から最大距離までの間が輝度変化として表現されている。もっとも、距離が他の数値として表現されてもよい。   In the illustrated example, reference numeral 40A indicates a start plane as a clipping plane. It is drawn as a plane. In practice, it is possible to freely change the shape of the starting surface and the like. In each ray, the output light amount calculation is repeatedly executed in the depth direction (the Z direction in the illustrated example) from the start point on the start surface 40A. Opacity is cumulatively added each time the operation is performed. When the above-mentioned end condition is satisfied, the output light amount calculation is stopped, that is, the rendering operation is ended. Thus, the end point 44 is identified for each ray 42. The output light quantity at the end of the rendering operation is mapped on the memory as luminance. A luminance map 46 is configured as the mapping result of the plurality of luminances corresponding to the plurality of rays 42. It corresponds to a black and white volume rendering image. On the other hand, the depth of the end point 44 in units of rays is mapped on the memory as a distance. A distance map 48 is configured as a mapping result of a plurality of distances corresponding to a plurality of rays 42. As shown in the gray scale 50, in the illustrated example, the distance from the minimum distance to the maximum distance is expressed as a brightness change. However, the distance may be expressed as another numerical value.

輝度マップ46及び距離マップ48は、三次元画像を構成する二次元画素配列と同じ二次元画素配列を有する。輝度マップ46及び距離マップ48に基づいて、カラー三次元画像が形成される。例えば、上記のように、白黒三次元画像に相当する輝度マップが各画素に対応する距離に応じて色付けされる。   The luminance map 46 and the distance map 48 have the same two-dimensional pixel array as the two-dimensional pixel array constituting the three-dimensional image. Based on the intensity map 46 and the distance map 48, a color three-dimensional image is formed. For example, as described above, a luminance map corresponding to a black and white three-dimensional image is colored in accordance with the distance corresponding to each pixel.

図3には比較例が示されている。符号54は胎児を示しており、符号56は胎盤を示している。符号57は羊水を示している。符号52はボリュームデータを示し、符号58は三次元関心領域を示している(図3には三次元関心領域の断面が現れている)。三次元関心領域58は、クリッピング面として機能する開始面60、底面(下面)としての終了面65、及び、4つの側面(図3には2つの側面62,64が現れている)を有するボックス状の形態を有する。開始面60の凹形変形により、開始面60が胎児54と胎盤56との間の隙間に差し込まれている。このように三次元関心領域58の形態が定められた上で、それに対して設定される個々のレイごとにレンダリング演算が実行される。図3において、個々の下向き矢印62はレンダリング演算経路を示しており、矢印62の先端が終了点を示している。なお、図3には、複数の下向き矢印62の中で胎児表層まで到達していないものが含まれているが、それは作図上の都合によるものである。図3に示す比較例では、基準面が採用されていない。つまり、各レイにおいて、開始面から終了点までの長さが距離として演算され、その距離がそのまま色付け処理で参照される。それ故、開始面60が湾曲していることに起因して、距離マップに胎児表面形態とは関係のない距離勾配が生じてしまう。それは無用な色相変化を引き起こすものである。   A comparative example is shown in FIG. Reference numeral 54 denotes a fetus, and reference numeral 56 denotes a placenta. Reference numeral 57 indicates amniotic fluid. Reference numeral 52 denotes volume data, and reference numeral 58 denotes a three-dimensional region of interest (a cross section of the three-dimensional region of interest appears in FIG. 3). The three-dimensional region of interest 58 is a box having a start surface 60 that functions as a clipping surface, an end surface 65 as a bottom (bottom) surface, and four side surfaces (two side surfaces 62 and 64 appear in FIG. 3) It has the form of a letter. The concave deformation of the initiation surface 60 inserts the initiation surface 60 into the gap between the fetus 54 and the placenta 56. Thus, once the three-dimensional region of interest 58 has been defined, rendering operations are performed for each individual ray set against it. In FIG. 3, each downward arrow 62 indicates a rendering operation path, and the tip of the arrow 62 indicates the end point. In addition, although the thing which has not reached to the fetal surface layer is contained in FIG. 3 among the some down arrow 62, it is based on the convenience on drawing. In the comparative example shown in FIG. 3, the reference surface is not employed. That is, in each ray, the length from the start plane to the end point is calculated as the distance, and the distance is referred to as it is in the coloring process. Therefore, the curvature of the starting surface 60 causes a distance gradient in the distance map that is not related to the fetal surface morphology. It causes unnecessary hue change.

図4には実施形態が示されている。なお、図3に示した要素と同様の要素には同一符号を付し、その説明を省略する。このことは後に説明する図5及び図6についても同様である。   An embodiment is shown in FIG. The same components as those shown in FIG. 3 are denoted by the same reference numerals, and the description thereof will be omitted. The same applies to FIGS. 5 and 6 described later.

図4においては、開始面60よりも視点に近い側に基準面66が設定されている。その基準面66は、複数のレイに直交する関係を有する平面である。デフォルト状態の開始面60をもって基準面であると定めてもよい。基準面66は三次元関心領域58の全体を覆っている。具体的には、三次元関心領域58が有する4つの側面の上辺に連接する平面として基準面が定義されている。但し、視点により近い位置に基準面を設定してもよい。基準面66が観察対象組織を横切らないように当該基準面66の位置を定めるのが望ましい。   In FIG. 4, the reference surface 66 is set on the side closer to the viewpoint than the start surface 60. The reference plane 66 is a plane having a relationship orthogonal to the plurality of rays. The start surface 60 in the default state may be defined as the reference surface. The reference plane 66 covers the entire three-dimensional region of interest 58. Specifically, the reference plane is defined as a plane connected to the upper sides of the four side surfaces of the three-dimensional region of interest 58. However, the reference plane may be set at a position closer to the viewpoint. It is desirable to position the reference surface 66 so that the reference surface 66 does not cross the tissue to be observed.

個々のレイにおいては、従来同様にレンダリング演算が実行されるが、距離の演算に限っては、基準面66が演算基準として利用される。すなわち、各レイにおいて、基準面66から終了点までの規格化された長さが距離として演算される。実際には、開始面60上の開始点から終了点までの第1の距離が演算され、一方、基準面66から開始面60までの第2の距離が演算される。そして、第1の距離と第2の距離とを加算することにより、その加算結果としてマッピングされる距離が演算される。もっとも、基準面から終了点までの距離が直接的に求められてもよい。本実施形態では、レンダリング演算範囲とは別に距離が定義されるようにしたので、開始面の形態に依存しない、規格化された距離を演算できる。   In each ray, the rendering operation is performed in the same manner as in the prior art, but the reference surface 66 is used as an operation reference only in the distance operation. That is, in each ray, the normalized length from the reference plane 66 to the end point is calculated as the distance. In practice, a first distance from the start point to the end point on the start surface 60 is calculated, while a second distance from the reference surface 66 to the start surface 60 is calculated. Then, by adding the first distance and the second distance, the distance mapped as the addition result is calculated. However, the distance from the reference plane to the end point may be determined directly. In this embodiment, since the distance is defined separately from the rendering operation range, it is possible to calculate a standardized distance which does not depend on the form of the start surface.

図5には基準面の第2例が示されている。この第2例では、胎盤56Aの形態を考慮して、三次元関心領域58Aの開始面60Aが凸面を構成しており、これにより、開始面60Aから見て視点とは反対側に基準面70が設定されている。但し、基準面70は、胎児54にかかっておらず、各レイにおいて演算される距離はいずれもプラス距離である(符号72を参照)。もっとも、図5に示す第2例では、基準面70が画像化対象組織にかかり易いので、基準面70がより上方に位置するように、例えば、基準面70が開始面60Aの頂点を通過するように、基準面設定条件を変更するのが望ましい。   FIG. 5 shows a second example of the reference surface. In this second example, in consideration of the form of the placenta 56A, the starting surface 60A of the three-dimensional region of interest 58A constitutes a convex surface, whereby the reference surface 70 on the opposite side to the viewpoint when viewed from the starting surface 60A. Is set. However, the reference plane 70 does not cover the fetus 54, and the distances calculated in each ray are all positive (see reference numeral 72). However, in the second example shown in FIG. 5, the reference surface 70 is likely to hit the tissue to be imaged, so that, for example, the reference surface 70 passes the apex of the start surface 60A so that the reference surface 70 is positioned higher. Thus, it is desirable to change the reference surface setting conditions.

図6には基準面の第3例が示されている。この例では、胎盤56Bがかなり複雑な形態を有しており、それに応じて、三次元関心領域58Bの開始面60Bも複雑な形態を有している。開始面60Bの視点側に基準面74が設定されている。それは平面であるが、各レイに対しては傾斜している。その傾斜角度は小さく、傾斜を原因とする距離変化量はかなり小さい。しかも一様に傾斜しているので不自然な距離変化や局所的な距離変化は生じていない。このように、場合によっては、傾斜した基準面74を利用することも可能である。但し、傾斜に起因して見かけ上の距離増減が生じるので、各レイに直交する基準面(上記第1例として示した基準面)を採用するのが望ましい。   FIG. 6 shows a third example of the reference surface. In this example, the placenta 56B has a rather complex form, and correspondingly, the starting surface 60B of the three-dimensional region of interest 58B also has a complex form. A reference surface 74 is set on the viewpoint side of the start surface 60B. It is flat but inclined to each ray. The inclination angle is small, and the amount of distance change due to the inclination is quite small. Moreover, since it is uniformly inclined, unnatural distance changes and local distance changes do not occur. Thus, in some cases, it is also possible to use an inclined reference surface 74. However, since an apparent distance increase or decrease occurs due to the inclination, it is desirable to adopt a reference plane (the reference plane shown as the first example) orthogonal to each ray.

図7には動作例、特に輝度マップ及び距離マップの生成に関する動作の一例が示されている。S10では、レイ番号を示すkが初期化され、S12では、深さを示すdが初期化される。S14では、k番目のレイ上において深さdにある注目点について、エコー値(ボクセル値)が演算される。例えば、注目点の近傍に存在する8個のエコー値に基づいて三次元線形補間演算により注目点のエコー値が算出される。S16では、注目点でのエコー値、それに対応したオパシティ、等に基づく出力光量演算(ボクセル演算)が実行される。これにより注目点での出力光量が求まり、その出力光量が次の注目点での入力光量とされる。S16では、オパシティの累積加算も実行される。   FIG. 7 shows an operation example, in particular, an operation related to generation of a luminance map and a distance map. In S10, k indicating a ray number is initialized, and in S12, d indicating a depth is initialized. In S14, an echo value (voxel value) is calculated for a target point at depth d on the k-th ray. For example, the echo value of the point of interest is calculated by three-dimensional linear interpolation operation based on eight echo values present in the vicinity of the point of interest. In S16, an output light quantity calculation (voxel calculation) based on the echo value at the point of interest, the opacity corresponding to it, and the like is performed. As a result, the output light quantity at the point of interest is determined, and the output light quantity is taken as the input light quantity at the next point of interest. At S16, cumulative addition of opacity is also performed.

S18では、所定の終了条件が満たされたか否かが判断される。満たされていない場合、S28においてdがインクリメントされた上で、S14からの各工程が繰り返し実行される。一方、S18において、終了条件が満たされたと判断された場合、S19において、最終的な出力光量が輝度としてメモリ上にマッピングされる。   In S18, it is determined whether a predetermined termination condition is satisfied. If not satisfied, d is incremented in S28 and then each step from S14 is repeatedly executed. On the other hand, if it is determined in S18 that the termination condition is satisfied, the final output light quantity is mapped on the memory as luminance in S19.

S20では、基準面から開始面までの距離Δdが計算される。距離Δdは開始面の位置及び形態に依存する。S22では、終了点の深さであるdと、基準面と開始面との間の距離Δdと、が加算され、その結果として距離Zが求まる。S24ではZがメモリ上にマッピングされる。S26では、kが最大値に到達したか否かが判断され、noであればS30においてkがインクリメントされた上で、S12以降の各工程が繰り返し実行される。   In S20, the distance Δd from the reference plane to the start plane is calculated. The distance Δd depends on the position and form of the starting surface. In S22, the depth d of the end point and the distance Δd between the reference surface and the start surface are added, and as a result, the distance Z is determined. At S24, Z is mapped on the memory. In S26, it is determined whether or not k has reached the maximum value, and if no, k is incremented in S30, and the steps after S12 are repeatedly executed.

この後、輝度マップ及び距離マップに基づいてカラーの三次元画像が形成される。但し、三次元画像形成に先立って、少なくとも距離マップに対してはS27で平滑化処理が施される。   After this, a color three-dimensional image is formed based on the brightness map and the distance map. However, prior to the three-dimensional image formation, at least the distance map is subjected to smoothing processing in S27.

図8には変形例が示されている。この変形例では図7に示したS22とS24との間にS32及びS34が設けられている。S32では、Zがマイナス値であるか否かが判断され、Zがマイナス値である場合にはS34においてZが強制的にゼロとされている。これにより距離に異常値が与えられることが防止されている。もっとも、開始面よりも常に視点側になるように基準面を定めるようにすればこのような変形例を採用する必要はない。ユーザーが任意に基準面の位置を設定できるように構成する場合、図8に示す変形例を採用するのが望ましい。   A modification is shown in FIG. In this modification, S32 and S34 are provided between S22 and S24 shown in FIG. In S32, it is determined whether or not Z is a negative value. If Z is a negative value, Z is forcibly set to zero in S34. This prevents the distance from being outliers. However, it is not necessary to adopt such a modification if the reference plane is set so as to always be on the viewpoint side of the start plane. If the user can arbitrarily set the position of the reference plane, it is desirable to adopt the modification shown in FIG.

図9には図1に示した平滑化フィルタの作用が示されている。符号78は平滑化前の距離マップを示している。そこに含まれる組織の辺縁78Aにおいてギザギザが生じている。そのような距離マップを基礎として三次元画像を形成した場合に上記ギザギザが三次元画像において不自然な色相変化を生じさせる。一方、符号80には平滑化フィルタによる平滑化を行った後の距離マップが示されている。平滑化後においては上記ギザギザが消失しており、滑らかな辺縁80Aとなっている。平滑化の作用はもちろん辺縁以外にも及ぶ。平滑化後の距離マップを基礎として三次元画像を形成することにより、その画質を向上することが可能である。すなわち、三次元画像上において、観察者に違和感を生じさせない色相変化つまり自然な色相変化を生じさせることが可能である。   FIG. 9 shows the operation of the smoothing filter shown in FIG. Reference numeral 78 indicates the distance map before smoothing. Jaggedness occurs at the edge 78A of the tissue contained therein. When the three-dimensional image is formed on the basis of such a distance map, the above-mentioned jaggedness causes an unnatural hue change in the three-dimensional image. On the other hand, reference numeral 80 denotes a distance map after smoothing by the smoothing filter. After smoothing, the above-mentioned jaggedness disappears and it becomes smooth edge 80A. Of course, the effect of smoothing extends beyond the edges. The image quality can be improved by forming a three-dimensional image on the basis of the distance map after the smoothing. That is, it is possible to cause a hue change, ie, a natural hue change, that does not cause the viewer to feel discomfort on the three-dimensional image.

図10には図1に示したカラー処理部の第1構成例が示されている。それは変換テーブル82を有する。変換テーブル82は例えば輝度Iと距離Zとから画素値としてのカラー値Pを決定するルックアップテーブルとして構成される。それが数学的な関数によって構成されてもよい。図11にはカラー処理部の第2構成例が示されている。変換テーブル84,86はそれぞれ輝度Iからカラー値を決定するものであり、それらから2つのカラー値が出力される。重み付け合成器88は、2つのカラー値を距離Zに基づいて重み付け合成する。図12にはカラー処理部の第3構成例が示されている。2つの変換テーブル90,92はそれぞれ輝度Iと距離Zの組合せに応じてカラー値を決定するものである。重み付け合成器94は、入力される2つのカラー値を距離Zに基づいて重み付け合成するものである。上記第1構成例乃至第3構成例はそれぞれ例示であり、他の構成例を採用し得る。   FIG. 10 shows a first configuration example of the color processing unit shown in FIG. It has a conversion table 82. The conversion table 82 is configured, for example, as a look-up table that determines a color value P as a pixel value from the luminance I and the distance Z. It may be composed of mathematical functions. FIG. 11 shows a second configuration example of the color processing unit. The conversion tables 84 and 86 determine color values from the luminance I, respectively, from which two color values are output. A weighting combiner 88 weight combines the two color values based on the distance Z. FIG. 12 shows a third configuration example of the color processing unit. The two conversion tables 90 and 92 determine color values in accordance with the combination of the luminance I and the distance Z, respectively. The weighting combiner 94 performs weighting combining on the basis of the distance Z based on the two input color values. The first to third configuration examples are merely examples, and other configuration examples may be adopted.

図13には重み付け合成の一例が示されている。横軸は距離Zを示している。縦軸はカラー値、特に、変換テーブル(F)によって決定されたカラー値と、変換テーブル(B)によって決定されたカラー値と、が示されている。重み付け関数が符号104で示されている。縦軸方向に3つの区間106,108,110が設定されている。区間106においては、変換テーブル(F)のカラー値が100%採用されている。区間110において、変換テーブル(B)のカラー値が100%採用されている。それらの間の区間108においては、距離Zに応じて、変換テーブル(F)のカラー値から変換テーブル(B)のカラー値まで、重みが変化している。区間108の中央で、両カラー値の重みがいずれも0.5とされている。ユーザーによって、Depth1及びDepth2の位置を縦軸方向に任意に設定できるように構成されている。両者を一致させれば、ある距離を境として使用テーブルが切り換えられる。胎児の表面が区間108に入るようにすればその表面の奥行き感を色相変化として顕著に表現することが可能である。   An example of weighting composition is shown in FIG. The horizontal axis indicates the distance Z. The vertical axis shows color values, in particular the color values determined by the conversion table (F) and the color values determined by the conversion table (B). The weighting function is shown at 104. Three sections 106, 108 and 110 are set in the vertical axis direction. In the section 106, 100% of the color values of the conversion table (F) are adopted. In the section 110, 100% of the color values of the conversion table (B) are adopted. In the section 108 between them, the weight changes from the color value of the conversion table (F) to the color value of the conversion table (B) according to the distance Z. At the center of the section 108, the weight of both color values is 0.5. The position of Depth1 and Depth2 can be arbitrarily set in the vertical axis direction by the user. If both are matched, the use table can be switched at a certain distance. If the surface of the fetus is in the section 108, the sense of depth of the surface can be remarkably expressed as a hue change.

その場合、本実施形態では、クリッピング面としての開始面の形態によらずに距離が演算されるので、開始面の変形に伴う色相変化という問題を回避できる。   In that case, in the present embodiment, the distance is calculated regardless of the form of the start plane as the clipping plane, so it is possible to avoid the problem of hue change due to the deformation of the start plane.

20 ボリュームレンダリング部、22 メモリ(輝度マップを格納したメモリ)、24 メモリ(距離マップを格納したメモリ)、32 カラー処理部。
20 Volume rendering unit, 22 memory (memory storing luminance map), 24 memory (memory storing distance map), 32 color processing unit.

Claims (7)

生体内の三次元空間から取得されたボリュームデータに対して、レンダリング対象となる対象データを画定する三次元関心領域を設定する設定手段と、
前記対象データに対して複数のレイを設定し、レイ単位でレイに沿ってレンダリング演算を実行する手段であって、前記複数のレイに対応した複数の輝度からなる輝度マップと前記複数のレイに対応した複数の距離からなる距離マップとを生成するレンダリング手段と
前記輝度マップ及び前記距離マップに基づいて、カラー三次元画像を形成する画像形成手段と、
を含み、
前記設定手段は、前記三次元関心領域が有するクリッピング面としての変形可能な開始面とは別に、前記複数のレイに対して交差する関係を有する基準面を設定し、
前記レンダリング手段は、
前記レイ単位で前記開始面から前記レンダリング演算を実行することにより輝度を演算する輝度マップ生成手段と、
前記レイ単位で前記基準面からレンダリング演算終了点までの距離を演算する距離マップ生成手段と、
を含むことを特徴とする超音波画像処理装置。
Setting means for setting a three-dimensional region of interest defining target data to be rendered for volume data acquired from a three-dimensional space in the living body;
It is a means for setting a plurality of rays for the target data and performing rendering operation along rays in units of rays, and a plurality of luminance maps corresponding to the plurality of rays and the plurality of rays. Rendering means for generating a distance map consisting of a plurality of corresponding distances; and image forming means for forming a color three-dimensional image based on the brightness map and the distance map;
Including
The setting means sets a reference plane having an intersecting relationship with the plurality of rays, separately from the deformable start plane as the clipping plane of the three-dimensional region of interest.
The rendering means is
Luminance map generation means for calculating the luminance by performing the rendering operation from the start plane in units of rays;
Distance map generation means for calculating the distance from the reference plane to the rendering operation end point in units of rays;
An ultrasonic image processing apparatus comprising:
請求項1記載の装置において、
前記基準面は前記複数のレイに対して直交する関係を有する平面である、
ことを特徴とする超音波画像処理装置。
In the device according to claim 1,
The reference plane is a plane having an orthogonal relationship with the plurality of rays.
An ultrasonic image processing apparatus characterized in that.
請求項1記載の装置において、
前記基準面は前記三次元関心領域よりも視点に近い側に設定される、
ことを特徴とする超音波画像処理装置。
In the device according to claim 1,
The reference plane is set closer to the viewpoint than the three-dimensional region of interest
An ultrasonic image processing apparatus characterized in that.
請求項1記載の装置において、
前記距離マップ生成手段は、前記レンダリング演算終了点が前記基準面よりも視点に近くなる場合には前記距離をゼロにする、
ことを特徴とする超音波画像処理装置。
In the device according to claim 1,
The distance map generation unit sets the distance to zero when the rendering operation end point is closer to the viewpoint than the reference plane.
An ultrasonic image processing apparatus characterized in that.
請求項1記載の装置において、
前記距離マップ生成手段は、
前記レイ単位で前記開始面から前記レンダリング演算終了点までの第1の距離を演算する手段と、
前記レイ単位で前記基準面から前記開始面までの第2の距離を演算する手段と、
前記レイ単位で前記第1の距離と前記第2の距離とを加算して前記距離を演算する手段と、
を含む、ことを特徴とする超音波画像処理装置。
In the device according to claim 1,
The distance map generation unit
A unit for calculating a first distance from the start surface to the rendering operation end point in units of rays;
Means for calculating a second distance from the reference surface to the start surface in units of rays;
A unit that calculates the distance by adding the first distance and the second distance in units of rays;
An ultrasound imaging apparatus characterized in that.
請求項1記載の装置において、
前記画像形成手段は、
少なくとも輝度に基づいて第1のカラー値を決定する第1の変換テーブルと、
少なくとも輝度に基づいて第2のカラー値を決定する第2の変換テーブルと、
前記距離に応じて、前記第1の変換テーブルによって決定された第1のカラー値と前記第2の変換テーブルによって決定された第2のカラー値とを重み付け合成する手段と、
を含み、
前記重み付け合成後の複数のカラー値によって前記カラー三次元画像が構成される、
ことを特徴とする超音波画像処理装置。
In the device according to claim 1,
The image forming unit is
A first conversion table for determining a first color value based at least on luminance;
A second conversion table for determining a second color value based at least on the luminance;
A means for weighting and combining the first color value determined by the first conversion table and the second color value determined by the second conversion table according to the distance;
Including
The color three-dimensional image is configured by the plurality of color values after the weighting and combining.
An ultrasonic image processing apparatus characterized in that.
請求項1記載の装置において、
前記カラー三次元画像の形成に先立って前記距離マップを平滑化する平滑化手段を含む、
ことを特徴とする超音波画像処理装置。
In the device according to claim 1,
Smoothing means for smoothing the distance map prior to formation of the color three-dimensional image;
An ultrasonic image processing apparatus characterized in that.
JP2016040053A 2016-03-02 2016-03-02 Ultrasonic imaging system Active JP6546107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016040053A JP6546107B2 (en) 2016-03-02 2016-03-02 Ultrasonic imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016040053A JP6546107B2 (en) 2016-03-02 2016-03-02 Ultrasonic imaging system

Publications (2)

Publication Number Publication Date
JP2017153726A JP2017153726A (en) 2017-09-07
JP6546107B2 true JP6546107B2 (en) 2019-07-17

Family

ID=59807477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016040053A Active JP6546107B2 (en) 2016-03-02 2016-03-02 Ultrasonic imaging system

Country Status (1)

Country Link
JP (1) JP6546107B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5437767B2 (en) * 2009-10-15 2014-03-12 日立アロカメディカル株式会社 Ultrasonic volume data processor
JP5525930B2 (en) * 2010-06-23 2014-06-18 株式会社日立メディコ Ultrasound diagnostic device for generating and displaying 3D ultrasound images
KR101329748B1 (en) * 2012-03-07 2013-11-14 삼성메디슨 주식회사 Image processing apparatus and operating method thereof
US9390546B2 (en) * 2013-10-30 2016-07-12 General Electric Company Methods and systems for removing occlusions in 3D ultrasound images

Also Published As

Publication number Publication date
JP2017153726A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP5632680B2 (en) Ultrasonic image processing device
JP4550599B2 (en) Three-dimensional ultrasonic image forming apparatus and method
EP1600891A1 (en) Ultrasonic diagnostic apparatus and image processing method
US10905400B2 (en) Apparatus and method for optimization of ultrasound images
JP2022110089A (en) System and method for adaptively setting dynamic range for displaying ultrasonic image
CN110537936B (en) Blood flow image processing device and method, and computer-readable storage medium
EP2425784A1 (en) Providing a color Doppler mode image in an ultrasound system
JP6546107B2 (en) Ultrasonic imaging system
WO2018173384A1 (en) Ultrasound diagnostic device and image processing method
JP2007222264A (en) Ultrasonograph
JP2017217207A (en) Ultrasonic image processing apparatus
JP4859648B2 (en) Ultrasonic diagnostic apparatus and program
JP4768495B2 (en) Ultrasonic diagnostic equipment
JP5827831B2 (en) Ultrasonic image processing device
JP2018000779A (en) Ultrasonic image processing device
JP2018153561A (en) Ultrasound image processing apparatus
JP2021531860A (en) Ultrasound imaging system with improved dynamic range control
JP2018187131A (en) Ultrasonic image processing device
JP6132665B2 (en) Ultrasonic diagnostic equipment
JP6793075B2 (en) Ultrasonic image processing equipment
JP2019030575A (en) Ultrasound image processing apparatus and volume data processing method
JP2018000780A (en) Ultrasonic image processing device
JP2014217551A (en) Ultrasonic diagnosing device
JP4705064B6 (en) Volume data processing apparatus and program
JP2024004645A (en) Ultrasonic image processing device and ultrasonic image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190620

R150 Certificate of patent or registration of utility model

Ref document number: 6546107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250