JP4297561B2 - Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus - Google Patents

Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus Download PDF

Info

Publication number
JP4297561B2
JP4297561B2 JP19195399A JP19195399A JP4297561B2 JP 4297561 B2 JP4297561 B2 JP 4297561B2 JP 19195399 A JP19195399 A JP 19195399A JP 19195399 A JP19195399 A JP 19195399A JP 4297561 B2 JP4297561 B2 JP 4297561B2
Authority
JP
Japan
Prior art keywords
image
image data
dimensional
opacity
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP19195399A
Other languages
Japanese (ja)
Other versions
JP2001017428A (en
Inventor
浩 橋本
Original Assignee
ジーイー横河メディカルシステム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーイー横河メディカルシステム株式会社 filed Critical ジーイー横河メディカルシステム株式会社
Priority to JP19195399A priority Critical patent/JP4297561B2/en
Publication of JP2001017428A publication Critical patent/JP2001017428A/en
Application granted granted Critical
Publication of JP4297561B2 publication Critical patent/JP4297561B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オパシティ(opacity)設定方法、3次元像形成方法および装置並びに超音波撮像装置に関し、特に、ボリュームレンダリング(volume rendering)により3次元像を形成するためのオパシティを設定する方法、3次元データ(data)空間中の画像データからボリュームレンダリングにより3次元像を形成する方法および装置、並びに、そのような3次元像形成装置を備えた超音波撮像装置に関する。
【0002】
【従来の技術】
超音波撮像装置は、撮像対象の内部を超音波ビーム(beam)で走査してエコー(echo)を受信し、エコーの強度に対応した画像データを求め、それによっていわゆるBモード(mode)画像を形成する。3次元撮像を行う場合は、撮像対象内の3次元領域を超音波で走査し、エコー受信信号から求めた3次元の画像データに基づいて、例えば血管の走行状態や管腔臓器の内壁等を示す3次元像が形成される。
【0003】
血管走行を示す3次元像は、MIP(Minimum Intensity Projection)像を求めることにより形成される。管腔臓器内壁を示す3次元像は、Bモード画像からサーフェースレンダリング(surface rendering)によって形成される。
【0004】
MIP像は、3次元データ空間中に設定した複数の視線に沿って画像データの最小値をそれぞれ求めて投影することによって形成する。サーフェースレンダリングでは、適宜の閾値を設定して該当する画像データの3次元的位置を求め、それら3次元的位置に基づいてサーフェース像を形成する。
【0005】
【発明が解決しようとする課題】
超音波画像はエコーの強度分布を画像化したものであるから、画像データの値はエコー反射点における送波超音波の瞬時音圧やエコー受信のゲイン(gain)等に左右され、同一組織を表す画像データは同一画像内でさえ同一の値を持つとは限らない。このため、3次元像は、事実上、血流のMIP像または液部との境界が明確な管腔臓器内壁等の表面像に限られ、血管走行を体内組織とともに描出した3次元像等を得ることは不可能であるという問題があった。
【0006】
3次元像を形成する他の手法としてボリュームレンダリングがある。ボリュームレンダリングは、例えばX線CT(computed tomography)装置等で撮影した画像データから3次元像を形成するのに用いられる。ボリュームレンダリングでは、予め画像データにその値に対応した規格値すなわちオパシティ(opacity)を割り付け、画像データとオパシティとを用い、3次元データ空間内に設定した複数の視線に沿って3次元像の画素値をそれぞれ計算する。
【0007】
ボリュームレンダリングを行うためには画像データとオパシティの関係を適切に設定する必要があるが、超音波画像データはCT画像データのように組織に固有の値を持たないので、画像データとオパシティとの適切な対応付けが困難である。このため、超音波画像データからはボリュームレンダリングにより良好な3次元像を得ることができないという問題があった。
【0008】
また、超音波画像にはドップラシフト(Doppler shift)を利用して血流等を画像化したドップラ画像もあるが、ドップラ画像の画像データはBモード画像の画像データとは性格が異なり両者を統一的に取り扱うことができない。このため、血管走行を体内組織とともに描出した3次元像等をボリュームレンダリングによって得ることは不可能であるという問題があった。
【0009】
本発明は上記の問題点を解決するためになされたもので、その目的は、超音波画像データからボリュームレンダリングにより良好な3次元像を得るためのオパシティ設定方法、3次元像形成方法および装置、並びに、そのような3次元像形成装置を備えた超音波撮像装置を実現することである。
【0010】
【課題を解決するための手段】
(1)上記の課題を解決するための第1の観点での発明は、ボリュームレンダリングの計算に用いるオパシティを設定するに当たり、データ獲得方式が互いに異なる複数の画像データのレンジを直列に統合し、前記統合したレンジ全体を通じてオパシティを設定することを特徴とするオパシティ設定方法である。
【0011】
(2)上記の課題を解決するための第2の観点での発明は、3次元データ空間中の画像データからボリュームレンダリングにより3次元像を形成するに当たり、データ獲得方式が互いに異なる複数の画像データのレンジを直列に統合し、前記統合したレンジ全体を通じてオパシティを設定し、前記レンジを統合した画像データおよび前記設定したオパシティを用いてボリュームレンダリングを行うことを特徴とする3次元像形成方法である。
【0012】
(3)上記の課題を解決するための第3の観点での発明は、3次元データ空間中の画像データからボリュームレンダリングにより3次元像を形成する3次元像形成装置であって、データ獲得方式が互いに異なる複数の画像データのレンジを直列に統合するレンジ統合手段と、前記統合したレンジ全体を通じてオパシティを設定するオパシティ設定手段と、前記レンジを統合した画像データおよび前記設定したオパシティを用いてボリュームレンダリングを行う計算手段とを具備することを特徴とする3次元像形成装置である。
【0013】
(4)上記の課題を解決するための第4の観点での発明は、超音波エコーに基づいて撮像対象につき3次元データ空間に属する画像データを獲得する画像データ獲得手段と、前記画像データに基づいて3次元像を形成する画像形成手段とを有する超音波撮像装置であって、前記画像形成手段として(3)に記載の3次元像形成装置を用いることを特徴とする超音波撮像装置である。
【0014】
(5)上記の課題を解決するための第5の観点での発明は、前記画像データ獲得手段は少なくともBモード方式およびドップラ方式により画像データをそれぞれ獲得することを特徴とする(4)に記載の超音波撮像装置である。
【0015】
(6)上記の課題を解決するための第6の観点での発明は、前記形成した3次元像を前記画像データを獲得した方式ごとに表示態様を異にして表示する表示手段を具備することを特徴とする(4)または(5)に記載の超音波撮像装置である。
【0016】
(7)上記の課題を解決するための他の観点での発明は、超音波エコーに基づいて撮像対象につき3次元データ空間に属する画像データを獲得し、前記画像データに基づいて3次元像を形成する超音波撮像方法であって、前記3次元像の形成を(2)に記載の3次元像形成方法を用いて行う特徴とする超音波撮像方法である。
【0017】
(8)上記の課題を解決するための他の観点での発明は、前記画像データの獲得を少なくともBモード方式およびドップラ方式により画それぞれ行うことを特徴とする(7)に記載の超音波撮像方法である。
【0018】
(9)上記の課題を解決するための他の観点での発明は、前記形成した3次元像を前記画像データを獲得した方式ごとに表示態様を異にして表示することを特徴とする(7)または(8)に記載の超音波撮像方法である。
【0019】
(作用)
本発明では、データ獲得方式を異にする複数の画像データのレンジを直列に統合し、この統合レンジ全体を通じてオパシティを設定することにより、カテゴリが異なる画像データをオパシティにより統一する。これによって、例えば血管走行等を体内組織とともに描出した3次元像を得る。
【0020】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本発明は実施の形態に限定されるものではない。図1に、超音波撮像装置のブロック(block)図を示す。本装置は本発明の超音波撮像装置の実施の形態の一例である。本装置の構成によって、本発明の装置に関する実施の形態の一例が示される。本装置の動作によって、本発明の方法に関する実施の形態の一例が示される。
【0021】
本装置の構成を説明する。同図に示すように、本装置は超音波プローブ2を有する。超音波プローブ2は、撮像対象100に当接されて超音波の送受波に使用される。超音波プローブ2は、図示しない超音波トランスデューサアレイ(transducer array)を有する。超音波トランスデューサアレイは複数の超音波トランスデューサで構成される。個々の超音波トランスデューサは、例えばPZT(チタン(Ti)酸ジルコン(Zr)酸鉛(Pb))セラミックス(ceramics)等の圧電材料で構成される。
【0022】
超音波プローブ2は送受信部6に接続されている。送受信部6は、超音波プローブ2の超音波トランスデューサアレイを駆動して超音波ビームを送信し、また、超音波トランスデューサアレイが受波したエコー(echo)を受信する。
【0023】
送受信部6のブロック図を図2に示す。同図に示すように、送受信部6は信号発生ユニット602を有する。信号発生ユニット602は、パルス(pulse)信号を所定の周期で繰り返し発生して送波ビームフォーマ604に入力する。送波ビームフォーマ604は入力信号に基づいて送波ビームフォーミング信号を生成する。送波ビームフォーミング信号は、超音波トランスデューサアレイにおいて送信アパーチャ(aperture)を構成する複数の超音波トランスデューサに与える複数のパルス信号であり、個々のパルス信号には超音波ビームの方位および焦点に対応した遅延時間が付与される。以下、送信アパーチャを送波アパーチャという。
【0024】
送波ビームフォーマ604の出力信号は送受切換ユニット608を通じて送波アパーチャを構成する複数の超音波トランスデューサに駆動信号として与えられる。駆動信号が与えられた複数の超音波トランスデューサはそれぞれ超音波を発生し、それら超音波の波面合成により所定の方位への送波超音波ビームが形成される。送波超音波ビームは所定の距離に設定された焦点に収束する。
【0025】
送波超音波のエコーが、超音波プローブ2の受信アパーチャを構成する複数の超音波トランスデューサでそれぞれ受波される。以下、受信アパーチャを受波アパーチャという。複数の超音波トランスデューサが受波した複数のエコー受波信号は、送受切換ユニット608を通じて受波ビームフォーマ610に入力される。受波ビームフォーマ610は、エコー受信音線の方位およびエコー受信の焦点に対応した遅延を個々のエコー受波信号に付与して加算し、所定の音線および焦点に合致したエコー受信信号を形成する。
【0026】
送波ビームフォーマ604は、送波超音波ビームの方位を順次切り換えることにより音線順次の走査を行う。受波ビームフォーマ610は、受波音線の方位を順次切り換えることにより音線順次の受波の走査を行う。これにより、送受信部6は例えば図3に示すような走査を行う。すなわち、放射点200からz方向に延びる超音波ビーム202が扇状の2次元領域206をθ方向に走査し、いわゆるセクタスキャン(sector scan)を行う。
【0027】
送波および受波のアパーチャを超音波トランスデューサアレイの一部を用いて形成するときは、このアパーチャをアレイに沿って順次移動させることにより、例えば図4に示すような走査を行うことができる。すなわち、放射点200からz方向に発する超音波ビーム202が直線的な軌跡204上を移動することにより、矩形状の2次元領域206がx方向に走査され、いわゆるリニアスキャン(linear scan)が行われる。
【0028】
なお、超音波トランスデューサアレイが、超音波送波方向に張り出した円弧に沿って形成されたいわゆるコンベックスアレイ(convex array)である場合は、リニアスキャンと同様な信号操作により、例えば図5に示すように、超音波ビーム202の放射点200が円弧状の軌跡204上を移動して扇面状の2次元領域206がθ方向に走査され、いわゆるコンベックススキャンが行えるのはいうまでもない。
【0029】
超音波プローブ2はアクチュエータ(actuator)8に連結されている。アクチュエータ8は、超音波プローブ2をθ方向(またはx方向、以下、θ方向で代表する)の音線走査方向とは直交する方向に移動させるようになっている。すなわち、アクチュエータ8はφ走査を行うものである。φ走査はθ走査と協調して行われ、例えばθ走査の1スキャンごとにφ走査を1ピッチ(pitch)進めるようになっている。このようなφ走査により、撮像対象100の複数の断面が順次に走査される。
【0030】
φ走査は、例えば図6に示すように、超音波プローブ2をθ走査と直交する方向に平行移動させることによって行われる。なお、同図に示したz方向は音線方向である。これによって撮像対象100の内部の3次元領域302が走査される。φ走査は、この他に、例えば図7に示すように、超音波プローブ2をφ方向に揺動させることによって行うようにしても良い。揺動の中心軸は、中心軸300で示すように、θ走査の音線の発散点208を通るようにするのがθ走査とφ走査の角度の原点を一致させる点で好ましい。なお、φ走査は、必ずしもアクチュエータ8によらず、操作者が手動で行うようにしても良い。
【0031】
送受信部6はBモード(mode)処理部10およびドップラ処理部12に接続されている。送受信部6から出力される音線ごとのエコー受信信号は、Bモード処理部10およびドップラ処理部12に入力される。
【0032】
Bモード処理部10はBモード画像データを形成するものである。Bモード処理部10は、図8に示すように対数増幅ユニット102と包絡線検波ユニット104を備えている。Bモード処理部10は、対数増幅ユニット102でエコー受信信号を対数増幅し、包絡線検波ユニット104で包絡線検波して音線上の個々の反射点でのエコーの強度を表す信号、すなわちAスコープ(scope)信号を得て、このAスコープ信号の各瞬時の振幅をそれぞれ輝度値として、Bモード画像データを形成するようになっている。
【0033】
ドップラ処理部12はドップラ画像データを形成するものである。ドップラ処理部12は、図9に示すように直交検波ユニット120、MTIフィルタ(moving target indication filter)122、自己相関ユニット124、平均流速演算ユニット126、分散演算ユニット128およびパワー(power)演算ユニット130を備えている。
【0034】
ドップラ処理部12は、直交検波ユニット120でエコー受信信号を直交検波し、MTIフィルタ122でMTI処理し、自己相関ユニット124で自己相関演算を行い、平均流速演算ユニット126で自己相関演算結果から平均流速を求め、分散演算ユニット128で自己相関演算結果から流速の分散を求め、パワー演算ユニット130で自己相関演算結果からドプラ信号のパワーを求めるようになっている。
【0035】
これによって、撮像対象100内の血流等の平均流速とその分散およびドプラ信号のパワーを表すデータすなわちドップラ画像データがそれぞれ音線ごとに得られる。なお、流速は音線方向の成分として得られる。流れの方向は近づく方向と遠ざかる方向とが区別される。
【0036】
以上の、超音波プローブ2、送受信部6、アクチュエータ8、Bモード処理部10およびドップラ処理部12は、本発明における画像データ獲得手段の実施の形態の一例である。
【0037】
Bモード処理部10およびドップラ処理部12は画像処理部14に接続されている。画像処理部14は、本発明における画像形成手段の実施の形態の一例である。画像処理部14は、図10に示すように、バス(bus)140によって接続された音線データメモリ(data memory)142、ディジタル・スキャンコンバータ(DSC:digital scan converter)144、画像メモリ146および画像処理プロセッサ(processor)148を備えている。
【0038】
Bモード処理部10およびドップラ処理部12から音線ごとに入力されたBモード画像データおよびドップラ画像データは、音線データメモリ142にそれぞれ記憶される。撮像対象100の走査が複数断面について順次に行われることにより、音線データメモリ142には複数断面の画像データがそれぞれ記憶される。以下、音線データメモリ142に記憶された断面ごとの画像データを音線データフレーム(data frame)という。
【0039】
DSC144は、走査変換により音線データ空間のデータを物理空間のデータに変換するものである。これによって、音線データ空間の画像データが物理空間の画像データに変換される。DSC144によって変換された画像データが画像メモリ146に記憶される。すなわち、画像メモリ146は物理空間の画像データを記憶する。
【0040】
画像処理プロセッサ148は、例えばコンピュータ(computer)等を用いて構成される。画像処理プロセッサ148は、Bモード処理部10およびドップラ処理部12からそれぞれ入力されるデータに基づいて、それぞれBモード画像およびドップラ画像を構成する。また、それらの3次元像を形成する。
【0041】
ドップラ画像としては、流速に分散を加味してカラー(color)画像化したカラードップラ画像と、ドプラ信号のパワーを画像化したパワードップラ画像の2種類が形成される。以下、カラードップラ画像をCFM(coler flow mapping)像と呼ぶ。また、パワードップラ画像をPDI(power Doppler imaging)像と呼ぶ。
【0042】
画像処理部14には表示部16が接続されている。表示部16は画像処理部14から画像信号が与えられ、それに基づいて画像を表示するようになっている。表示部16は、本発明における表示手段の実施の形態の一例である。表示部16は例えばグラフィック・ディスプレー(graphic display)等を用いて構成される。
【0043】
以上の送受信部6、アクチュエータ8、Bモード処理部10、ドップラ処理部12、画像処理部14および表示部16は制御部18に接続されている。制御部18は、それら各部に制御信号を与えてその動作を制御するようになっている。制御部18による制御の下で、Bモード動作およびドップラモード動作が実行される。
【0044】
制御部18には操作部20が接続されている。操作部20は操作者によって操作され、制御部18に所望の指令や情報を入力するようになっている。操作部20は、例えばキーボード(keyboard)やその他の操作具を備えた操作パネル(panel)で構成される。
【0045】
本装置による超音波撮像の動作を説明する。操作者はアクチュエータ8に連結された超音波プローブ2を撮像対象100の所望の個所に位置決めし、操作部20を操作して例えばBモードとドップラモードの併用による撮像動作を行わせる。以下、制御部18による制御の下で撮像動作が遂行される。Bモード動作とドップラモード動作は時分割で交互に行われる。
【0046】
Bモードにおいては、送受信部6は超音波プローブ2を通じて音線順次で撮像対象100の内部をθ走査して逐一そのエコーを受信する。受信したエコーに基づいてBモード処理部10によりBモード画像データが求められる。
【0047】
ドップラモードにおいては、送受信部6は超音波プローブ2を通じて音線順次で撮像対象100の内部をθ走査して逐一そのエコーを受信する。その際、1音線当たり複数回の超音波の送波とエコーの受信が行われる。ドップラ処理部12は、エコー受信信号を直交検波ユニット120で直交検波し、MTIフィルタ122でMTI処理し、自己相関ユニット124で自己相関を求め、自己相関結果から、平均流速演算ユニット126で平均流速を求め、分散演算ユニット128で流速の分散を求め、パワー演算ユニット130でドプラ信号のパワーを求める。この算出値は、それぞれ、平均流速、分散およびドップラパワーを音線ごとに表すドップラ画像データとなる。なお、MTIフィルタ122でのMTI処理は1音線当たりの複数回のエコー受信信号を用いて行われる。
【0048】
画像処理部14は、Bモード処理部およびドップラ処理部12から入力される音線ごとのBモード画像データおよびドップラ画像データを音線データメモリ142にそれぞれ記憶する。
【0049】
音線データメモリ142の各画像データは画像処理プロセッサ148により上記のように処理され、DSC144で物理空間の画像データに変換されて画像メモリ146に記憶される。画像メモリ146には、Bモード画像、CFM画像およびPDI画像がそれぞれ記憶される。Bモード画像は体内組織の断層像を表すものとなる。CFM画像は血流速度分布を表すものとなる。PDI画像は血管走行像を表すものとなる。これら各像が表示部16により可視像として表示される。以下、血管走行像を血管像という。
【0050】
その際、例えばBモード画像とCFM画像の合成画像またはBモード画像とPDI画像の合成画像を表示し、Bモード画像を背景としたCFM画像またはBモード画像を背景としたPDI画像画像、すなわち、体内組織との位置関係が明確な流速分布像または血管走行像を表示する。操作者は表示画像を観察して撮像対象100の内部状態を把握する。
【0051】
φ走査の進行につれて、例えば図11に模式的に示すように、3次元領域302の複数の断面900〜910が順次走査される。3次元領域302には血管920およびその周辺の図示しない組織が含まれる。このような3次元領域302についてBモード画像の音線データおよびドップラ画像の音線データがそれぞれ得られ、それらの音線データを記憶した複数の音線データフレームが順次音線データメモリ142内にそれぞれ形成される。
【0052】
このような音線データについての、画像処理プロセッサ148およびDSC144による前述のような処理により、図12に示すような3次元データ空間304が画像メモリ146内に形成される。3次元データ空間304は、Bモード画像、CFM画像およびPDI画像についてそれぞれ形成されるが、そのうちのPDI画像を代表的に図示する。3次元データ空間304は互いに垂直な3つの座標軸x,y,zを有する。PDI画像の3次元データ空間304には血管画像データ924が含まれる。
【0053】
φ走査を終えた後で、操作者は3次元像の形成と表示を指令する。このような指令に基づいて、画像処理プロセッサ148により、3次元データ空間304の画像データから3次元像が形成される。3次元像の形成はボリュームレンダリングによって行われる。
【0054】
ボリュームレンダリングによる3次元像形成に関わる画像処理プロセッサ148のブロック図を図13に示す。同図に示す画像処理プロセッサ148は、本発明の3次元画像形成装置の実施の形態の一例である。本装置の構成によって、本発明の装置に関する実施の形態の一例が示される。本装置の動作によって、本発明の方法に関する実施の形態の一例が示される。
【0055】
同図に示すように、画像処理プロセッサ148は、画像データ統合ユニット482、オパシティ設定ユニット484、視線設定ユニット486およびボリュームレンダリングユニット488を有する。これら各ユニットは例えばコンピュータプログラム等により実現される。
【0056】
画像データ統合ユニット482は、本発明におけるレンジ(range)結合手段の実施の形態の一例である。画像データ統合ユニット482は、画像メモリ146に記憶されているデータ獲得方式が互いに異なる複数の画像データを統合して、新たな3次元データ空間を構成する。すなわち、例えばBモード画像データとCFM画像データのように、カテゴリ(category)が異なる2種類の画像データを統合して共通の新たな3次元データ空間を構成する。あるいは、Bモード画像データとPDI画像データを統合して共通の新たな3次元データ空間を構成する。
【0057】
その際、カテゴリが異なる画像データのレンジを直列に結合する。レンジの直列結合とは、例えば図14に示すように、Bモード画像データのレンジが0−255であり、PDI画像データのレンジが同じく0−255であるとすると、PDI画像データの値にBモード画像データのレンジの最大値255を加算して、それを新たなPDI画像データとすることである。
【0058】
このようにすることにより、統合画像データは0−511のレンジを持つものとなり、その中でBモード画像データは0−255の範囲の値をとり、PDI画像データは256−511の範囲の値をとるものとなる。統合画像データを例えば16ビット(bit)としたとき、下位の8ビットをBモード画像データを割り当て、上位の8ビットをPDI画像データに割り当てるのが、以後の計算を容易にする点で好ましい。PDI画像データについては適宜の閾値以下のものを切り捨てるのがノイズ等を除去する点で好ましい。また、ダイナミックレンジ(dynamic rage)を圧縮する点で好ましい。
【0059】
PDI画像データの代わりにCFM画像データを用いても良い。その場合も上記と同様にする。以下、PDI画像データの例で説明するが、CFM画像データの場合も同様になる。
【0060】
オパシティ設定ユニット484は、ボリュームレンダリング用のオパシティの関数特性を設定する。オパシティ設定ユニット484は、本発明におけるオパシティ設定手段の実施の形態の一例である。オパシティ設定ユニット484は、例えば図15に示すように、オパシティOpを、0−511のレンジを持つ統合画像データCの関数として設定する。
【0061】
オパシティの値は画像データの信号強度が高くなるほど大きくする。これによって、PDI画像データにはBモード画像データよりも大きなオパシティが与えられる。オパシティが大きいほど不透明度が高い。オパシティ1は完全な不透明である。オパシティ0は完全な透明である。
【0062】
視線設定ユニット486は、統合画像データが存在する3次元データ空間をよぎる複数の視線を設定する。視線設定ユニット486による視線の設定を図16によって説明する。同図に示すように、3次元データ空間306の観察方向32を先ず設定する。これにより、求めるべき3次元像は観察方向32に垂直に設定した投影面34への投影像となる。
【0063】
投影面34は3次元像の画素位置を与える複数の格子点36を有する。なお、複数の格子点への符号付けは1箇所で代表する。視線設定ユニット486は、格子点36から観察方向32に沿って3次元データ空間306をよぎる視線38を設定する。なお、複数の視線への符号付けは1箇所で代表する。
【0064】
ボリュームレンダリングユニット488は、オパシティ設定ユニット484が設定したオパシティと視線設定ユニット486が設定した視線を用い、3次元データ空間306の画像データからボリュームレンダリングにより3次元像を形成する。ボリュームレンダリングユニット488は、本発明における計算手段の実施の形態の一例である。ボリュームレンダリングユニット488は、次式により3次元像の画素値を計算する。
【0065】
【数1】

Figure 0004297561
【0066】
ここで、
C(i):視線上の画像データ
Op(C(i)):オパシティ
添え字inおよびoutはそれぞれ計算入力および計算出力を表す。
【0067】
(1)式に示すように、視線上の位置iにおける画像データC(i)についてそれに対応するオパシティOp(C(i))との積を求め、位置i−1までの計算値に係数を掛けたものと合算する。係数は1に関するオパシティの補数である。なお、視線上の位置iにない画像データについては、近傍の画像データから補間演算等により生成する。
【0068】
画素値の計算は、オパシティOp(C(i))の視線方向での積算値が1に達したところで終了し、そのときの計算値をその視線の画素値とする。これを全ての視線について行って、投影面34上の全ての格子点36の画素値を得る。このような素値によって形成された3次元像が画像メモリ146を経て表示部16に与えられ、可視像として表示される。
【0069】
PDI画像データにBモード画像データよりも大きなオパシティを与えたことにより、3次元像はPDI画像を主としBモード画像を従とした画像となる。すなわち、血管像を主とし周辺組織像を従とする3次元像が得られる。したがって、周辺組織との位置関係が明確な血管の3次元像を得ることができる。これによって、例えば癌組織等の病変部と血管走行状態との関係を把握することが可能になり診断上きわめて有益である。
【0070】
なお、主画像と従画像の関係は、Bモード画像データとPDI画像データのレンジを直列結合するときの順序を変えることによって逆転させることができる。また、画像表示に当たっては、血管像と周辺組織像の表示態を異ならせ、例えば血管像をカラー表示とし周辺組織像をモノクローム(monochrome)表示とするのが、両者の識別を容易にする点で好ましい。
【0071】
以上、ドップラシフトを利用して血管を撮像する例で説明したが、ドップラシフトに限らず、例えば造影剤を用いて血管を撮影した場合についても、同様にして血管走行状態を示す3次元像を得ることができる。
【0072】
さらには、Bモード、ドップラモードおよび造影剤モードを併用して撮像を行い、3種類の画像データのレンジを直列に統合してオパシティを設定し、Bモード画像、ドップラ画像および造影画像の3種類を含む3次元像を形成するようにしても良い。その場合、3種類の画像をそれぞれ色分け等により表示態を異ならせることが識別を容易にする点で好ましい。
【0073】
また、超音波プローブを機械的に変位させて3次元領域をスキャンする例について説明したが、3次元領域のスキャンはそれに限るものではなく、例えば超音波トランスデューサの2次元アレイを備えた超音波プローブにより、電子的に行うようにしても良いのはもちろんである。
【0074】
【発明の効果】
以上詳細に説明したように、本発明によれば、超音波画像データからボリュームレンダリングにより良好な3次元像を得るためのオパシティ設定方法、3次元像形成方法および装置、並びに、そのような3次元像形成装置を備えた超音波撮像装置を実現することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態の一例の装置のブロック図である。
【図2】図1に示した装置の送受信部のブロック図である。
【図3】図2に示した送受信部による音線走査の模式図である。
【図4】図2に示した送受信部による音線走査の模式図である。
【図5】図2に示した送受信部による音線走査の模式図である。
【図6】図1に示した装置によるφ走査の模式図である。
【図7】図1に示した装置によるφ走査の模式図である。
【図8】図1に示した装置のBモード処理部のブロック図である。
【図9】図1に示した装置のドプラ処理部のブロック図である。
【図10】図1に示した装置の画像処理部のブロック図である。
【図11】図1に示した装置による複数断面走査の模式図である。
【図12】図1に示した装置によって得られる3次画像データの模式図である。
【図13】図9に示した画像処理プロセッサのブロック図である。
【図14】図13に示した画像データ統合ユニットの機能説明図である。
【図15】図13に示したオパシティ設定ユニットが設定したオパシティの一例を示すグラフである。
【図16】図13に示した視線設定ユニットの機能説明図である。
【符号の説明】
2 超音波プローブ
6 送受信部
8 アクチュエータ
10 Bモード処理部
12 ドップラ処理部
14 画像処理部
16 表示部
18 制御部
20 操作部
100 撮像対象
140 バス
142 音線データメモリ
144 DSC
146 画像メモリ
148 画像処理プロセッサ
304 3次元データ空間
482 画像データ統合ユニット
484 オパシティ設定ユニット
486 視線設定ユニット
488 ボリュームレンダリングユニット
924 血管画像データ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an opacity setting method, a three-dimensional image forming method and apparatus, and an ultrasonic imaging apparatus, and more particularly, to a method for setting an opacity for forming a three-dimensional image by volume rendering. The present invention relates to a method and apparatus for forming a three-dimensional image from image data in a data space by volume rendering, and an ultrasonic imaging apparatus provided with such a three-dimensional image forming apparatus.
[0002]
[Prior art]
An ultrasonic imaging apparatus scans the inside of an imaging target with an ultrasonic beam (beam), receives an echo, obtains image data corresponding to the intensity of the echo, and thereby obtains a so-called B-mode image. Form. When performing three-dimensional imaging, a three-dimensional region in the imaging target is scanned with ultrasound, and based on the three-dimensional image data obtained from the echo reception signal, for example, the running state of a blood vessel, the inner wall of a luminal organ, and the like. The three-dimensional image shown is formed.
[0003]
A three-dimensional image showing blood vessel running is formed by obtaining a MIP (Minimum Intensity Projection) image. A three-dimensional image showing the inner wall of the luminal organ is formed from the B-mode image by surface rendering.
[0004]
The MIP image is formed by obtaining and projecting the minimum value of the image data along a plurality of lines of sight set in the three-dimensional data space. In surface rendering, an appropriate threshold value is set to obtain a three-dimensional position of the corresponding image data, and a surface image is formed based on the three-dimensional position.
[0005]
[Problems to be solved by the invention]
Since the ultrasound image is an image of the echo intensity distribution, the value of the image data depends on the instantaneous sound pressure of the transmitted ultrasound at the echo reflection point, the gain of the echo reception, etc. The represented image data does not always have the same value even in the same image. For this reason, the three-dimensional image is practically limited to the MIP image of blood flow or the surface image of the inner wall of a luminal organ where the boundary with the liquid part is clear, and the three-dimensional image depicting the blood vessel running together with the internal tissue. There was a problem that it was impossible to get.
[0006]
Another technique for forming a three-dimensional image is volume rendering. Volume rendering is used to form a three-dimensional image from image data taken with an X-ray CT (computed tomography) apparatus, for example. In volume rendering, a standard value corresponding to the value, that is, an opacity is assigned to image data in advance, and the image data and the opacity are used to create a pixel of a three-dimensional image along a plurality of lines of sight set in a three-dimensional data space. Calculate each value.
[0007]
In order to perform volume rendering, it is necessary to appropriately set the relationship between image data and opacity. However, since ultrasound image data does not have a value specific to a tissue like CT image data, the relationship between image data and opacity is determined. Appropriate mapping is difficult. For this reason, there has been a problem that a good three-dimensional image cannot be obtained from ultrasonic image data by volume rendering.
[0008]
Ultrasound images include Doppler images that use Doppler shift to visualize blood flow, etc., but the image data of Doppler images is different from the image data of B-mode images and they are unified. Cannot be handled automatically. For this reason, there is a problem that it is impossible to obtain a three-dimensional image or the like depicting the blood vessel running together with the body tissue by volume rendering.
[0009]
The present invention has been made in order to solve the above-described problems, and an object thereof is an opacity setting method, a three-dimensional image forming method, and an apparatus for obtaining a good three-dimensional image by volume rendering from ultrasonic image data. In addition, an ultrasonic imaging apparatus including such a three-dimensional image forming apparatus is realized.
[0010]
[Means for Solving the Problems]
(1) In the invention according to the first aspect for solving the above problem, in setting an opacity used for calculation of volume rendering, a plurality of image data ranges having different data acquisition methods are integrated in series, The opacity setting method is characterized in that opacity is set throughout the integrated range.
[0011]
(2) A second aspect of the invention for solving the above-described problem is that a plurality of pieces of image data having different data acquisition methods are used to form a three-dimensional image from image data in a three-dimensional data space by volume rendering. A range is integrated in series, an opacity is set throughout the integrated range, and volume rendering is performed using image data obtained by integrating the range and the set opacity. .
[0012]
(3) An invention according to a third aspect for solving the above-mentioned problem is a three-dimensional image forming apparatus for forming a three-dimensional image from image data in a three-dimensional data space by volume rendering, and a data acquisition method A range integration unit that integrates a range of a plurality of image data different from each other in series, an opacity setting unit that sets an opacity throughout the integrated range, a volume using the image data that integrates the range, and the set opacity. A three-dimensional image forming apparatus comprising: a calculation unit that performs rendering.
[0013]
(4) According to a fourth aspect of the invention for solving the above-described problem, image data acquisition means for acquiring image data belonging to a three-dimensional data space for each imaging object based on an ultrasonic echo, and the image data An ultrasonic imaging apparatus having an image forming means for forming a three-dimensional image based on the three-dimensional image forming apparatus described in (3) as the image forming means. is there.
[0014]
(5) The invention according to a fifth aspect for solving the above problem is characterized in that the image data acquisition means acquires image data by at least the B mode method and the Doppler method, respectively. This is an ultrasonic imaging apparatus.
[0015]
(6) The invention according to a sixth aspect for solving the above-described problem comprises display means for displaying the formed three-dimensional image in different display modes for each method of acquiring the image data. The ultrasonic imaging apparatus according to (4) or (5), wherein:
[0016]
(7) According to another aspect of the invention for solving the above-described problem, image data belonging to a three-dimensional data space is acquired for each imaging target based on an ultrasonic echo, and a three-dimensional image is obtained based on the image data. In the ultrasonic imaging method to be formed, the three-dimensional image is formed by using the three-dimensional image forming method described in (2).
[0017]
(8) The ultrasonic imaging according to (7), wherein the image data is acquired by at least the B mode method and the Doppler method, respectively. Is the method.
[0018]
(9) According to another aspect of the invention for solving the above-described problem, the formed three-dimensional image is displayed in a different display mode for each method of acquiring the image data. ) Or the ultrasonic imaging method according to (8).
[0019]
(Function)
In the present invention, a plurality of image data ranges having different data acquisition methods are integrated in series, and an opacity is set throughout the integrated range, thereby unifying image data of different categories by the opacity. As a result, for example, a three-dimensional image in which blood vessel running or the like is depicted together with the body tissue is obtained.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited to the embodiment. FIG. 1 shows a block diagram of the ultrasonic imaging apparatus. This apparatus is an example of an embodiment of an ultrasonic imaging apparatus of the present invention. An example of an embodiment relating to the apparatus of the present invention is shown by the configuration of the apparatus. An example of an embodiment related to the method of the present invention is shown by the operation of the apparatus.
[0021]
The configuration of this apparatus will be described. As shown in the figure, this apparatus has an ultrasonic probe 2. The ultrasonic probe 2 is brought into contact with the imaging target 100 and used for transmitting and receiving ultrasonic waves. The ultrasonic probe 2 has an ultrasonic transducer array (not shown). The ultrasonic transducer array is composed of a plurality of ultrasonic transducers. Each ultrasonic transducer is made of a piezoelectric material such as PZT (titanium (Ti) zirconate (Zr) lead (Pb)) ceramics.
[0022]
The ultrasonic probe 2 is connected to the transmission / reception unit 6. The transmission / reception unit 6 drives the ultrasonic transducer array of the ultrasonic probe 2 to transmit an ultrasonic beam, and receives an echo (echo) received by the ultrasonic transducer array.
[0023]
A block diagram of the transceiver 6 is shown in FIG. As shown in the figure, the transmission / reception unit 6 includes a signal generation unit 602. The signal generation unit 602 repeatedly generates a pulse signal at a predetermined period and inputs the pulse signal to the transmission beamformer 604. The transmission beam former 604 generates a transmission beam forming signal based on the input signal. The transmitted beam forming signal is a plurality of pulse signals given to a plurality of ultrasonic transducers constituting a transmission aperture in the ultrasonic transducer array, and each pulse signal corresponds to the direction and focus of the ultrasonic beam. Delay time is given. Hereinafter, the transmission aperture is referred to as a transmission aperture.
[0024]
An output signal of the transmission beam former 604 is given as a drive signal to a plurality of ultrasonic transducers constituting a transmission aperture through a transmission / reception switching unit 608. Each of the plurality of ultrasonic transducers to which the drive signal is given generates ultrasonic waves, and a transmission ultrasonic beam in a predetermined direction is formed by wavefront synthesis of the ultrasonic waves. The transmitted ultrasonic beam converges to a focal point set at a predetermined distance.
[0025]
The echoes of the transmitted ultrasonic waves are received by a plurality of ultrasonic transducers that constitute the reception aperture of the ultrasonic probe 2. Hereinafter, the reception aperture is referred to as a reception aperture. The plurality of echo reception signals received by the plurality of ultrasonic transducers are input to the reception beam former 610 through the transmission / reception switching unit 608. The reception beamformer 610 adds a delay corresponding to the direction of the echo reception sound ray and the focus of the echo reception to each echo reception signal and adds them to form an echo reception signal that matches the predetermined sound ray and focus. To do.
[0026]
The transmission beam former 604 performs acoustic ray sequential scanning by sequentially switching the direction of the transmission ultrasonic beam. The receiving beamformer 610 scans received rays in a sound ray sequence by sequentially switching the directions of the received sound rays. Thereby, the transmitter / receiver 6 performs scanning as shown in FIG. 3, for example. That is, the ultrasonic beam 202 extending in the z direction from the radiation point 200 scans the fan-shaped two-dimensional region 206 in the θ direction, and performs a so-called sector scan.
[0027]
When the transmission and reception apertures are formed by using a part of the ultrasonic transducer array, the apertures are sequentially moved along the array to perform scanning as shown in FIG. 4, for example. That is, when the ultrasonic beam 202 emitted from the radiation point 200 in the z direction moves on the linear locus 204, the rectangular two-dimensional region 206 is scanned in the x direction, and a so-called linear scan is performed. Is called.
[0028]
In the case where the ultrasonic transducer array is a so-called convex array formed along an arc extending in the ultrasonic transmission direction, for example, as shown in FIG. In addition, it goes without saying that the radiation point 200 of the ultrasonic beam 202 moves on the arc-shaped locus 204 and the fan-shaped two-dimensional region 206 is scanned in the θ direction, and so-called convex scan can be performed.
[0029]
The ultrasonic probe 2 is connected to an actuator 8. The actuator 8 moves the ultrasonic probe 2 in a direction perpendicular to the sound ray scanning direction in the θ direction (or the x direction, hereinafter represented by the θ direction). That is, the actuator 8 performs φ scanning. The φ scan is performed in cooperation with the θ scan. For example, the φ scan is advanced by one pitch for every scan of the θ scan. By such φ scanning, a plurality of cross sections of the imaging target 100 are sequentially scanned.
[0030]
For example, as shown in FIG. 6, the φ scan is performed by translating the ultrasonic probe 2 in a direction orthogonal to the θ scan. The z direction shown in the figure is the sound ray direction. As a result, the three-dimensional region 302 inside the imaging target 100 is scanned. In addition, the φ scan may be performed by swinging the ultrasonic probe 2 in the φ direction, for example, as shown in FIG. As shown by the central axis 300, it is preferable that the center axis of the oscillation should pass through the sound ray divergence point 208 of the θ scan in order to match the origins of the θ scan and φ scan angles. Note that the φ scan is not necessarily performed by the actuator 8 and may be performed manually by the operator.
[0031]
The transmission / reception unit 6 is connected to a B-mode processing unit 10 and a Doppler processing unit 12. The echo reception signal for each sound ray output from the transmission / reception unit 6 is input to the B-mode processing unit 10 and the Doppler processing unit 12.
[0032]
The B-mode processing unit 10 forms B-mode image data. The B mode processing unit 10 includes a logarithmic amplification unit 102 and an envelope detection unit 104 as shown in FIG. The B mode processing unit 10 logarithmically amplifies the echo reception signal by the logarithmic amplification unit 102, envelope detection by the envelope detection unit 104, and a signal representing the echo intensity at each reflection point on the sound ray, that is, an A scope A (scope) signal is obtained, and B-mode image data is formed with each instantaneous amplitude of the A scope signal as a luminance value.
[0033]
The Doppler processing unit 12 forms Doppler image data. As shown in FIG. 9, the Doppler processing unit 12 includes a quadrature detection unit 120, an MTI filter (moving target indication filter) 122, an autocorrelation unit 124, an average flow velocity calculation unit 126, a dispersion calculation unit 128, and a power calculation unit 130. It has.
[0034]
The Doppler processing unit 12 performs quadrature detection of the echo reception signal by the quadrature detection unit 120, performs MTI processing by the MTI filter 122, performs autocorrelation calculation by the autocorrelation unit 124, and averages from the autocorrelation calculation result by the average flow velocity calculation unit 126. The flow velocity is obtained, the dispersion calculation unit 128 obtains the dispersion of the flow velocity from the autocorrelation calculation result, and the power calculation unit 130 obtains the power of the Doppler signal from the autocorrelation calculation result.
[0035]
As a result, data representing the average flow velocity such as blood flow in the imaging target 100, its dispersion, and the power of the Doppler signal, that is, Doppler image data, is obtained for each sound ray. The flow velocity is obtained as a component in the sound ray direction. The direction of the flow is distinguished from the approaching direction and the moving away direction.
[0036]
The ultrasonic probe 2, the transmission / reception unit 6, the actuator 8, the B-mode processing unit 10 and the Doppler processing unit 12 described above are an example of the embodiment of the image data acquisition unit in the present invention.
[0037]
The B mode processing unit 10 and the Doppler processing unit 12 are connected to the image processing unit 14. The image processing unit 14 is an example of an embodiment of an image forming unit in the present invention. As shown in FIG. 10, the image processing unit 14 includes a sound ray data memory 142, a digital scan converter (DSC) 144, an image memory 146, and an image connected by a bus 140. A processing processor 148 is provided.
[0038]
B-mode image data and Doppler image data input for each sound ray from the B-mode processing unit 10 and the Doppler processing unit 12 are stored in the sound ray data memory 142, respectively. By sequentially scanning the imaging object 100 for a plurality of cross sections, the sound ray data memory 142 stores the image data of the plurality of cross sections. Hereinafter, the image data for each cross-section stored in the sound ray data memory 142 is referred to as a sound ray data frame (data frame).
[0039]
The DSC 144 converts sound ray data space data into physical space data by scan conversion. Thereby, the image data in the sound ray data space is converted into image data in the physical space. The image data converted by the DSC 144 is stored in the image memory 146. That is, the image memory 146 stores physical space image data.
[0040]
The image processor 148 is configured using, for example, a computer. The image processor 148 configures a B-mode image and a Doppler image, respectively, based on data input from the B-mode processing unit 10 and the Doppler processing unit 12, respectively. Moreover, those three-dimensional images are formed.
[0041]
Two types of Doppler images are formed: a color Doppler image in which a color image is formed by adding dispersion to the flow velocity, and a power Doppler image in which the power of a Doppler signal is imaged. Hereinafter, the color Doppler image is referred to as a CFM (color flow mapping) image. The power Doppler image is called a PDI (power Doppler imaging) image.
[0042]
A display unit 16 is connected to the image processing unit 14. The display unit 16 receives an image signal from the image processing unit 14 and displays an image based on the image signal. The display unit 16 is an example of an embodiment of display means in the present invention. The display unit 16 is configured using, for example, a graphic display.
[0043]
The transmission / reception unit 6, actuator 8, B-mode processing unit 10, Doppler processing unit 12, image processing unit 14, and display unit 16 are connected to the control unit 18. The control unit 18 gives control signals to these units to control their operations. Under the control of the control unit 18, the B mode operation and the Doppler mode operation are executed.
[0044]
An operation unit 20 is connected to the control unit 18. The operation unit 20 is operated by an operator, and inputs desired commands and information to the control unit 18. The operation unit 20 includes, for example, an operation panel including a keyboard and other operation tools.
[0045]
The operation of ultrasonic imaging by this apparatus will be described. The operator positions the ultrasonic probe 2 connected to the actuator 8 at a desired position of the imaging target 100 and operates the operation unit 20 to perform an imaging operation using a combination of the B mode and the Doppler mode, for example. Thereafter, the imaging operation is performed under the control of the control unit 18. The B mode operation and the Doppler mode operation are alternately performed in a time division manner.
[0046]
In the B mode, the transmission / reception unit 6 scans the inside of the imaging object 100 through the ultrasonic probe 2 in the order of sound rays and receives the echoes one by one. B-mode image data is obtained by the B-mode processing unit 10 based on the received echo.
[0047]
In the Doppler mode, the transmission / reception unit 6 scans the inside of the imaging target 100 through the ultrasonic probe 2 in the order of sound rays and receives the echoes one by one. At that time, ultrasonic waves are transmitted and echoes are received a plurality of times per sound ray. The Doppler processing unit 12 performs quadrature detection on the echo reception signal by the quadrature detection unit 120, performs MTI processing by the MTI filter 122, obtains autocorrelation by the autocorrelation unit 124, and calculates the average flow velocity by the average flow velocity calculation unit 126 from the autocorrelation result. The dispersion calculation unit 128 obtains the dispersion of the flow velocity, and the power computation unit 130 obtains the power of the Doppler signal. The calculated values are Doppler image data representing the average flow velocity, dispersion, and Doppler power for each sound ray. The MTI processing in the MTI filter 122 is performed using a plurality of echo reception signals per sound ray.
[0048]
The image processing unit 14 stores the B-mode image data and Doppler image data for each sound ray input from the B-mode processing unit and the Doppler processing unit 12 in the sound ray data memory 142.
[0049]
Each image data in the sound ray data memory 142 is processed as described above by the image processor 148, converted into image data in the physical space by the DSC 144, and stored in the image memory 146. The image memory 146 stores a B-mode image, a CFM image, and a PDI image. The B-mode image represents a tomographic image of the body tissue. The CFM image represents the blood flow velocity distribution. The PDI image represents a blood vessel running image. Each of these images is displayed as a visible image by the display unit 16. Hereinafter, the blood vessel traveling image is referred to as a blood vessel image.
[0050]
At that time, for example, a composite image of a B-mode image and a CFM image or a composite image of a B-mode image and a PDI image is displayed, and a CFM image with a B-mode image as a background or a PDI image image with a B-mode image as a background, A flow velocity distribution image or blood vessel running image with a clear positional relationship with the body tissue is displayed. The operator observes the display image and grasps the internal state of the imaging target 100.
[0051]
As the φ scan progresses, for example, a plurality of cross sections 900 to 910 of the three-dimensional region 302 are sequentially scanned as schematically shown in FIG. The three-dimensional region 302 includes a blood vessel 920 and surrounding tissue (not shown). B-mode image sound ray data and Doppler image sound ray data are obtained for such a three-dimensional region 302, and a plurality of sound ray data frames storing the sound ray data are sequentially stored in the sound ray data memory 142. Each is formed.
[0052]
A 12-dimensional data space 304 as shown in FIG. 12 is formed in the image memory 146 by such processing by the image processor 148 and DSC 144 for such sound ray data. A three-dimensional data space 304 is formed for each of the B-mode image, the CFM image, and the PDI image, and the PDI image is representatively illustrated. The three-dimensional data space 304 has three coordinate axes x, y, and z that are perpendicular to each other. Blood vessel image data 924 is included in the three-dimensional data space 304 of the PDI image.
[0053]
After completing the φ scan, the operator commands the formation and display of a three-dimensional image. Based on such a command, the image processor 148 forms a three-dimensional image from the image data in the three-dimensional data space 304. The three-dimensional image is formed by volume rendering.
[0054]
FIG. 13 shows a block diagram of the image processor 148 related to three-dimensional image formation by volume rendering. An image processor 148 shown in the figure is an example of an embodiment of a three-dimensional image forming apparatus of the present invention. An example of an embodiment relating to the apparatus of the present invention is shown by the configuration of the apparatus. An example of an embodiment related to the method of the present invention is shown by the operation of the apparatus.
[0055]
As shown in the figure, the image processor 148 includes an image data integration unit 482, an opacity setting unit 484, a line-of-sight setting unit 486, and a volume rendering unit 488. Each of these units is realized by a computer program, for example.
[0056]
The image data integration unit 482 is an example of an embodiment of the range combining means in the present invention. The image data integration unit 482 integrates a plurality of image data having different data acquisition methods stored in the image memory 146 to form a new three-dimensional data space. That is, for example, two types of image data having different categories such as B-mode image data and CFM image data are integrated to form a new common three-dimensional data space. Alternatively, B-mode image data and PDI image data are integrated to form a new common three-dimensional data space.
[0057]
At this time, ranges of image data having different categories are coupled in series. For example, as shown in FIG. 14, when the range of the B-mode image data is 0-255 and the range of the PDI image data is also 0-255, the range of the PDI image data is represented by B. The maximum value 255 of the range of the mode image data is added to obtain new PDI image data.
[0058]
By doing so, the integrated image data has a range of 0-511, among which the B-mode image data has a value in the range of 0-255, and the PDI image data has a value in the range of 256-511. It will take. For example, when the integrated image data is 16 bits (bits), it is preferable to assign the lower 8 bits to the B-mode image data and to assign the upper 8 bits to the PDI image data from the viewpoint of facilitating subsequent calculations. With respect to PDI image data, truncation of data below an appropriate threshold is preferable in terms of removing noise and the like. Moreover, it is preferable at the point which compresses a dynamic range (dynamic range).
[0059]
CFM image data may be used instead of PDI image data. In this case, the same as above. Hereinafter, an example of PDI image data will be described, but the same applies to the case of CFM image data.
[0060]
The opacity setting unit 484 sets opacity function characteristics for volume rendering. The opacity setting unit 484 is an example of an embodiment of the opacity setting means in the present invention. For example, as shown in FIG. 15, the opacity setting unit 484 sets the opacity Op as a function of the integrated image data C having a range of 0 to 511.
[0061]
The opacity value is increased as the signal strength of the image data is increased. As a result, the PDI image data is given a larger opacity than the B-mode image data. The greater the opacity, the higher the opacity. Opacity 1 is completely opaque. The opacity 0 is completely transparent.
[0062]
The line-of-sight setting unit 486 sets a plurality of lines of sight that cross the three-dimensional data space where the integrated image data exists. The line-of-sight setting by the line-of-sight setting unit 486 will be described with reference to FIG. As shown in the figure, the observation direction 32 of the three-dimensional data space 306 is first set. As a result, the three-dimensional image to be obtained is a projection image on the projection plane 34 set perpendicular to the observation direction 32.
[0063]
The projection plane 34 has a plurality of grid points 36 that give the pixel positions of the three-dimensional image. In addition, the encoding to a some lattice point is represented by one place. The line-of-sight setting unit 486 sets a line of sight 38 that crosses the three-dimensional data space 306 along the observation direction 32 from the lattice point 36. In addition, the encoding to several eyes | visual_axis is represented by one place.
[0064]
The volume rendering unit 488 uses the opacity set by the opacity setting unit 484 and the line of sight set by the line-of-sight setting unit 486 to form a three-dimensional image from the image data in the three-dimensional data space 306 by volume rendering. The volume rendering unit 488 is an example of an embodiment of calculation means in the present invention. The volume rendering unit 488 calculates the pixel value of the three-dimensional image according to the following formula.
[0065]
[Expression 1]
Figure 0004297561
[0066]
here,
C (i): Image data on the line of sight
Op (C (i)): Opacity
Subscripts in and out represent calculation input and calculation output, respectively.
[0067]
As shown in the equation (1), the product of the image data C (i) at the position i on the line of sight with the corresponding opacity Op (C (i)) is obtained, and the coefficient is calculated for the calculated values up to the position i-1. Add up to the product. The coefficient is the complement of the opacity with respect to unity. Note that image data not at position i on the line of sight is generated from nearby image data by interpolation or the like.
[0068]
The calculation of the pixel value ends when the integrated value of the opacity Op (C (i)) in the line-of-sight direction reaches 1, and the calculated value at that time is set as the pixel value of the line-of-sight. This is performed for all lines of sight, and pixel values of all grid points 36 on the projection plane 34 are obtained. A three-dimensional image formed by such prime values is given to the display unit 16 via the image memory 146 and displayed as a visible image.
[0069]
By giving the PDI image data a larger opacity than the B-mode image data, the three-dimensional image becomes an image with the PDI image as the main and the B-mode image as the subordinate. That is, a three-dimensional image having a blood vessel image as a main and a peripheral tissue image as a subordinate is obtained. Therefore, it is possible to obtain a three-dimensional image of a blood vessel having a clear positional relationship with the surrounding tissue. This makes it possible to grasp the relationship between a lesioned part such as a cancer tissue and the vascular running state, which is extremely useful for diagnosis.
[0070]
Note that the relationship between the main image and the sub-image can be reversed by changing the order when the ranges of the B-mode image data and the PDI image data are serially coupled. In displaying images, the display state of the blood vessel image and the surrounding tissue image is made different. For example, the blood vessel image is displayed in color and the surrounding tissue image is displayed in monochrome (monochrome display) for easy identification of the two. preferable.
[0071]
As described above, the example of imaging the blood vessel using the Doppler shift has been described. However, the present invention is not limited to the Doppler shift, and for example, when a blood vessel is imaged using a contrast agent, a three-dimensional image showing the blood vessel running state is similarly obtained. Obtainable.
[0072]
Furthermore, the B mode, the Doppler mode, and the contrast agent mode are used in combination for imaging, and three types of image data ranges are integrated in series to set the opacity. The B mode image, the Doppler image, and the contrast image A three-dimensional image including may be formed. In that case, it is preferable in terms of facilitating identification that the three types of images are displayed in different colors by color coding or the like.
[0073]
Further, the example in which the ultrasonic probe is mechanically displaced to scan the three-dimensional region has been described. However, the scanning of the three-dimensional region is not limited thereto, and for example, an ultrasonic probe including a two-dimensional array of ultrasonic transducers Of course, it may be performed electronically.
[0074]
【The invention's effect】
As described above in detail, according to the present invention, an opacity setting method, a three-dimensional image forming method and apparatus for obtaining a good three-dimensional image by volume rendering from ultrasonic image data, and such a three-dimensional image. An ultrasonic imaging apparatus including an image forming apparatus can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram of an exemplary apparatus according to an embodiment of the present invention.
2 is a block diagram of a transmission / reception unit of the apparatus shown in FIG. 1. FIG.
3 is a schematic diagram of sound ray scanning by the transmission / reception unit shown in FIG. 2; FIG.
4 is a schematic diagram of sound ray scanning by the transmission / reception unit shown in FIG. 2; FIG.
5 is a schematic diagram of sound ray scanning by the transmission / reception unit shown in FIG. 2; FIG.
6 is a schematic diagram of φ scan by the apparatus shown in FIG. 1;
FIG. 7 is a schematic diagram of φ scan by the apparatus shown in FIG.
8 is a block diagram of a B-mode processing unit of the apparatus shown in FIG.
9 is a block diagram of a Doppler processing unit of the apparatus shown in FIG. 1. FIG.
10 is a block diagram of an image processing unit of the apparatus shown in FIG. 1. FIG.
11 is a schematic diagram of multi-section scanning by the apparatus shown in FIG. 1. FIG.
12 is a schematic diagram of tertiary image data obtained by the apparatus shown in FIG. 1. FIG.
13 is a block diagram of the image processor shown in FIG. 9. FIG.
14 is a functional explanatory diagram of the image data integration unit shown in FIG. 13; FIG.
15 is a graph showing an example of an opacity set by the opacity setting unit shown in FIG.
16 is a functional explanatory diagram of the line-of-sight setting unit shown in FIG. 13;
[Explanation of symbols]
2 Ultrasonic probe
6 transceiver
8 Actuator
10 B-mode processing section
12 Doppler processing section
14 Image processing unit
16 Display section
18 Control unit
20 Operation unit
100 imaging target
140 Bus
142 Sound ray data memory
144 DSC
146 Image memory
148 image processor
304 3D data space
482 Image data integration unit
484 Opacity setting unit
486 Gaze Setting Unit
488 Volume rendering unit
924 Blood vessel image data

Claims (6)

ボリュームレンダリングの計算に用いるオパシティを設定するに当たり、
データ獲得方式が互いに異なる複数の画像データのレンジを直列に統合し、
前記統合したレンジ全体を通じてオパシティを設定する、
ことを特徴とするオパシティ設定方法。
In setting the opacity used for volume rendering calculations,
A range of image data with different data acquisition methods is integrated in series,
Setting opacity throughout the integrated range;
An opacity setting method characterized by that.
3次元データ空間中の画像データからボリュームレンダリングにより3次元像を形成するに当たり、
データ獲得方式が互いに異なる複数の画像データのレンジを直列に統合し、
前記統合したレンジ全体を通じてオパシティを設定し、
前記レンジを統合した画像データおよび前記設定したオパシティを用いてボリュームレンダリングを行う、
ことを特徴とする3次元像形成方法。
In forming a 3D image by volume rendering from image data in the 3D data space,
A range of image data with different data acquisition methods is integrated in series,
Set the opacity throughout the integrated range,
Volume rendering is performed using the image data integrated with the range and the set opacity.
A three-dimensional image forming method.
3次元データ空間中の画像データからボリュームレンダリングにより3次元像を形成する3次元像形成装置であって、
データ獲得方式が互いに異なる複数の画像データのレンジを直列に統合するレンジ統合手段と、
前記統合したレンジ全体を通じてオパシティを設定するオパシティ設定手段と、
前記レンジを統合した画像データおよび前記設定したオパシティを用いてボリュームレンダリングを行う計算手段と、
を具備することを特徴とする3次元像形成装置。
A three-dimensional image forming apparatus that forms a three-dimensional image from image data in a three-dimensional data space by volume rendering,
A range integration means for integrating a plurality of image data ranges having different data acquisition methods in series;
Opacity setting means for setting opacity throughout the integrated range;
Calculation means for performing volume rendering using the image data integrated with the range and the set opacity;
A three-dimensional image forming apparatus comprising:
超音波エコーに基づいて撮像対象につき3次元データ空間に属する画像データを獲得する画像データ獲得手段と、前記画像データに基づいて3次元像を形成する画像形成手段とを有する超音波撮像装置であって、
前記画像形成手段として請求項3に記載の3次元像形成装置を用いる、
ことを特徴とする超音波撮像装置。
An ultrasonic imaging apparatus having image data acquisition means for acquiring image data belonging to a three-dimensional data space for each imaging target based on ultrasonic echoes, and image forming means for forming a three-dimensional image based on the image data. And
The three-dimensional image forming apparatus according to claim 3 is used as the image forming unit.
An ultrasonic imaging apparatus.
前記画像データ獲得手段は少なくともBモード方式およびドップラ方式により画像データをそれぞれ獲得する、
ことを特徴とする請求項4に記載の超音波撮像装置。
The image data acquisition means acquires image data by at least the B mode method and the Doppler method,
The ultrasonic imaging apparatus according to claim 4.
前記形成した3次元像を前記画像データを獲得した方式ごとに表示態様を異にして表示する表示手段、
を具備することを特徴とする請求項4または請求項5に記載の超音波撮像装置。
Display means for displaying the formed three-dimensional image in a different display mode for each method of acquiring the image data;
The ultrasonic imaging apparatus according to claim 4, further comprising:
JP19195399A 1999-07-06 1999-07-06 Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus Expired - Lifetime JP4297561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19195399A JP4297561B2 (en) 1999-07-06 1999-07-06 Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19195399A JP4297561B2 (en) 1999-07-06 1999-07-06 Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus

Publications (2)

Publication Number Publication Date
JP2001017428A JP2001017428A (en) 2001-01-23
JP4297561B2 true JP4297561B2 (en) 2009-07-15

Family

ID=16283209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19195399A Expired - Lifetime JP4297561B2 (en) 1999-07-06 1999-07-06 Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus

Country Status (1)

Country Link
JP (1) JP4297561B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8728244B2 (en) 2005-03-17 2014-05-20 Sms Siemag Aktiengesellschaft Method and device for descaling a metal strip

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4187499B2 (en) * 2002-10-18 2008-11-26 オリンパス株式会社 Ultrasonic image processing device
JP2004141514A (en) * 2002-10-28 2004-05-20 Toshiba Corp Image processing apparatus and ultrasonic diagnostic apparatus
JP4610011B2 (en) * 2003-07-22 2011-01-12 株式会社日立メディコ Ultrasonic diagnostic apparatus and ultrasonic image display method
JP2005143733A (en) * 2003-11-13 2005-06-09 Toshiba Corp Ultrasonic diagnosis apparatus, three-dimensional image data displaying apparatus and three-dimensional image data displaying method
JP4847334B2 (en) * 2004-09-13 2011-12-28 株式会社日立メディコ Ultrasonic imaging apparatus and projection image generation method
US20070255138A1 (en) * 2006-04-27 2007-11-01 General Electric Company Method and apparatus for 3D visualization of flow jets
JP5226978B2 (en) 2007-07-17 2013-07-03 日立アロカメディカル株式会社 Ultrasonic diagnostic apparatus and image processing program
JP5160825B2 (en) 2007-07-17 2013-03-13 日立アロカメディカル株式会社 Ultrasonic diagnostic apparatus and image processing program
JP2009028366A (en) * 2007-07-27 2009-02-12 Toshiba Corp Ultrasonic diagnostic apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8728244B2 (en) 2005-03-17 2014-05-20 Sms Siemag Aktiengesellschaft Method and device for descaling a metal strip

Also Published As

Publication number Publication date
JP2001017428A (en) 2001-01-23

Similar Documents

Publication Publication Date Title
JP3878343B2 (en) 3D ultrasonic diagnostic equipment
US6951543B2 (en) Automatic setup system and method for ultrasound imaging systems
JP4969985B2 (en) Ultrasonic diagnostic apparatus and control program for ultrasonic diagnostic apparatus
JP5134787B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP6288996B2 (en) Ultrasonic diagnostic apparatus and ultrasonic imaging program
JP5525930B2 (en) Ultrasound diagnostic device for generating and displaying 3D ultrasound images
JP2007020908A (en) Ultrasonic diagnostic equipment and control program of ultrasonic diagnostic equipment
JP2007038016A (en) 3-dimensional ultrasonograph
US20050261583A1 (en) Ultrasonic imaging apparatus, ultrasonic image processing method, and ultrasonic image processing program
JP2010284218A (en) Ultrasonic diagnosis apparatus and medical image processing device
JP2007513672A (en) Stereoscopic ultrasound imaging system using a two-dimensional array transducer
JP4297561B2 (en) Opacity setting method, three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus
JP5683860B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, ultrasonic diagnostic apparatus control program, and ultrasonic image processing program
JP2001128975A (en) Ultrasonographic apparatus
JPH10277030A (en) Ultrasonic diagnostic system
KR20140131808A (en) Ultrasound imaging apparatus and control method for the same
KR102545007B1 (en) Ultrasound imaging apparatus and controlling method for the same
KR20140137037A (en) ultrasonic image processing apparatus and method
JP3712506B2 (en) Ultrasonic imaging device
JP4418052B2 (en) Ultrasonic beam scanning method and apparatus and ultrasonic imaging apparatus
JP5317391B2 (en) Ultrasonic diagnostic equipment
JP3715745B2 (en) Ultrasonic imaging device
JP4310000B2 (en) Three-dimensional image forming method and apparatus, and ultrasonic imaging apparatus
JP4564184B2 (en) Ultrasonic diagnostic apparatus and ultrasonic transmission and reception method related to the apparatus
JP3110001B2 (en) Projection image forming method and ultrasonic imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090414

R150 Certificate of patent or registration of utility model

Ref document number: 4297561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140424

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term