JP2004350791A - Ultrasonic image processor and three-dimensional data processing method - Google Patents

Ultrasonic image processor and three-dimensional data processing method Download PDF

Info

Publication number
JP2004350791A
JP2004350791A JP2003149855A JP2003149855A JP2004350791A JP 2004350791 A JP2004350791 A JP 2004350791A JP 2003149855 A JP2003149855 A JP 2003149855A JP 2003149855 A JP2003149855 A JP 2003149855A JP 2004350791 A JP2004350791 A JP 2004350791A
Authority
JP
Japan
Prior art keywords
search
blood vessel
dimensional
section
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003149855A
Other languages
Japanese (ja)
Other versions
JP4109575B2 (en
Inventor
Noriyoshi Matsushita
典義 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aloka Co Ltd filed Critical Aloka Co Ltd
Priority to JP2003149855A priority Critical patent/JP4109575B2/en
Publication of JP2004350791A publication Critical patent/JP2004350791A/en
Application granted granted Critical
Publication of JP4109575B2 publication Critical patent/JP4109575B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To form the three-dimensional blood vessel image of attentional route inside a vascular plexus and to accurately perform the extraction even for a winding blood vessel route especially in an ultrasonic image processor and a three-dimensional data processing method. <P>SOLUTION: A blood vessel cross section extraction processing is executed at respective positions along a blood vessel route, and a reference plane Q<SB>i</SB>and a search plane R<SB>i</SB>parallel to each other are set in each blood vessel cross section extraction processing. A blood vessel cross section S<SB>i</SB>is extracted as a reference cross section on the reference plane Q<SB>i</SB>and the next search direction (search vector) U<SB>i+1</SB>is decided as a direction connecting the centroid G<SB>i</SB>and a temporary centroid K<SB>i</SB>obtained by a prescribed arithmetic operation on the search plane R<SB>i</SB>. Then, the reference plane Q<SB>i+1</SB>or the like is newly set in the next blood vessel cross section extraction processing on the basis of the search direction U<SB>i+1</SB>. In such a manner, the search direction and the reference plane are successively reset along the traveling form of the blood vessel. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は超音波画像処理装置及び三次元データ処理方法に関し、特に血管の三次元画像処理に関する。
【0002】
【従来の技術】
生体内の三次元領域に対して超音波の送受波を行い、これにより得られた三次元データに基づいて生体内組織を三次元画像として表示する技術が医療の現場において実用化されている。従来の超音波診断装置においては、血流のエコー強度が実組織のエコー強度に比べて小さいことを利用して、三次元データの中から血管(血流)に相当するデータが抽出され、その抽出されたデータに基づいて血管の三次元画像が形成されている。また、血管内を流れる血流からのエコーにはいわゆるドプラシフトが生じているので、それによるドプラ情報を用いて血管(血流)の三次元画像を形成することもできる。
【0003】
【特許文献1】
特開平7−178091号公報
【0004】
【発明が解決しようとする課題】
しかしながら、1本あるいは数本の血管が互いに区別容易な状態で走行しているような部位については、三次元画像上で、注目する血管を識別することは比較的容易であるが、例えば、肝臓内のように太い血管から段階的に枝分かれして空間的に複雑に絡み合った血管系あるいは血管網(血管群の一形態)を形成しているような場合、それを三次元画像として表しても、各血管部分の走行状態を明確に認識することは非常に困難である。血管網の内部に存在するある血管部分について詳細観察しようとしても、その周囲に他の血管部分が存在し、それらが観察の妨げとなるからである。よって、特定の血管経路の途中に異常部位が存在していても、その異常部位を明瞭に画像表示できない場合が生じ得る。
【0005】
特許文献1には、関心血管と他の血管と識別可能に表示する技術が開示されている。その技術によれば、多数フレームの走査面が構成されて三次元空間が構築されている場合に、あるフレームの走査面で血管断面を抽出し、次のフレームの走査面でも血管断面を抽出し、これを繰り返すものである。そして、各フレームの走査面上で抽出された血管断面を繋ぎ合わせてその血管の三次元画像が構成される。
【0006】
しかし、この特許文献1に示された手法では、第1に、曲がりくねったような血管を抽出することは非常に難しい。つまり、断面抽出が並行な各走査面上で行われており、各走査面に血管が直交しない場合には、その抽出が適正に行えなくなる。第2に、血管の分岐に対処して注目する血管を的確に抽出する構成は具備されていない。
【0007】
本発明の目的は、曲がりくねった血管であってもそれを的確に抽出できるようにすることにある。
【0008】
本発明の他の目的は、血管の分岐に対処して血管抽出を行うことにある。
【0009】
本発明の他の目的は、血管診断に有益な画像を提供することにある。
【0010】
【課題を解決するための手段】
(1)本発明は、生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する超音波画像処理装置において、前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点を指定する探索原点指定手段と、前記探索原点から前記血管群における注目経路に沿って、探索ベクトルを逐次的に設定しつつ血管断面の抽出を逐次的に実行する探索処理手段と、を含み、前記探索処理手段は、前記注目経路に沿って逐次的に抽出された複数の血管断面からなる血管断面列を生成することを特徴とする。
【0011】
上記構成によれば、三次元データ空間において、血管群における特定部位に対してユーザーによって又は自動的に探索原点が指定されると、その探索原点を含む注目経路(抽出対象としての血管経路)に沿って血管断面抽出処理が逐次的に実行され、その処理の進行に伴って個々の血管断面が抽出される。その場合に、各血管断面抽出処理ごとに探索ベクトルが再設定され、つまり探索方向が更新されるため、注目経路の走行状態に適応した血管断面の探索が可能となり、すなわち探索精度あるいは探索効率を高めることが可能である。特に、曲がりくねった経路の抽出も可能となる。注目経路の中心軸上に沿ってあるいは中心軸に並行に各探索ベクトルが設定されるのが理想であり、その理想に近づくように探索ベクトルの設定条件を定めるのが望ましい。
【0012】
本発明によれば、血管断面列を構成する複数の血管断面は、各血管断面抽出処理において探索ベクトルの向きが適応的に設定されることに対応して、非並行関係をもって整列するものである(ただし、注目経路が完全に直線的であれば複数の血管断面は互いに並行な関係をもって整列する)。なお、画像処理に際しては、血管断面列に対して補間処理などを適用して空間分解能を向上させてもよい。
【0013】
本発明に係る超音波画像処理装置は、超音波診断装置内に組み込まれてもよいし、超音波診断装置から出力されるデータを処理するコンピュータとして構成されてもよい。また、各機能あるいは各手段はハードウエアとして構成することもできるし、ソフトウエアによって実現することもできる。
【0014】
望ましくは、前記探索処理手段は、前記注目経路の走行形態に応じて前記探索ベクトルを逐次的に設定する。注目経路の走行形態に合わせて各探索ベクトルを設定すれば、血管断面の抽出精度を高められる。
【0015】
望ましくは、前記探索処理手段は、前記逐次的に設定される探索ベクトルを基準として、前記三次元データ空間内に血管断面を抽出するための基準平面を逐次的に設定する。
【0016】
基準平面は注目経路の血管断面を探索するためのサーチ領域に相当する。そのようなサーチ領域が注目経路に対してできる限り直交して設定されるようにするのが望ましい。このため探索ベクトルがその基準として用いられる。ちなみに、分岐部分や複数の血管が併走している部位においては、基準平面上に複数の血管断面が現れる。また、基準平面のサイズを限定せずに血管網全体の切断面として構成される場合、その基準平面上に多数の血管断面が現れる。そのような場合、それ以前の血管断面との繋がり関係から注目経路に相当する血管断面を特定するのが望ましい。
【0017】
望ましくは、前記探索処理手段は、i番目の探索ベクトルと直交するi番目の基準平面を設定する基準平面設定手段と、前記i番目の基準平面上でi番目の血管断面を抽出する血管断面抽出手段と、前記i番目の基準平面と並行で且つ前記i番目の探索方向に単位距離離れた位置にi番目の探索平面を設定する探索平面設定手段と、前記i番目の探索平面上で前記i番目の血管断面と重合関係にあるi番目の血管部分を抽出する血管部分抽出手段と、前記i番目の血管断面と前記i番目の血管部分との相互関係に基づいてi+1番目の探索ベクトルを決定する探索ベクトル決定手段と、を含む。
【0018】
上記において、i=1,2,3,・・・であり、つまりiは血管断面抽出処理の回数あるいは進行度に相当するものである。i番目の基準平面は、i番目の探索ベクトルと直交する平面として設定され、そのi番目の基準平面上でi番目の血管断面が抽出される。一方、i番目の基準平面と平行で且つi番目の探索方向に単位距離離れた位置にi番目の探索平面が設定される。ここで、基準平面及び探索平面はそれぞれ血管断面及び血管部分のサーチ領域に相当する。但し、i番目の探索平面はi+1番目の基準平面を正しい向きで設定するための事前調査用の仮の平面として位置づけられる。
【0019】
すなわち、i番目の探索平面上でi番目の血管断面と重合関係にあるi番目の血管部分が抽出される。このi番目の血管部分はi番目の血管断面の前方にあってそれと繋がり関係にある部分として認識される。そこで、i番目の血管断面とi番目の血管部分との相互関係に基づいてi+1番目の探索ベクトルが決定される。例えば、i番目の血管断面を代表する点(重心、中央点など)からi番目の血管部分を代表する点(重心、中央点)を結んだラインは注目経路の走行方向に近いものと認められ、それをi+1番目の探索ベクトルの向きとするのが望ましい。
【0020】
上記構成においては、基準平面の他に探索平面という前方事前調査のための平面が利用され、そのような探索平面上での探索結果を利用して、次の基準平面の角度を最適化することができる。上記の単位距離は、各断面抽出処理で一定であるのが望ましいが、各種状況に応じて可変設定してもよい。その単位距離を例えば三次元データ空間内の1ボクセルサイズ程度に設定すれば、高分解能で注目する血管を抽出することができる。なお、基準平面及び探索平面は三次元データ空間の全体に及ぶものであってもよいし、一定の有限領域であってもよい。
【0021】
望ましくは、前記血管部分抽出手段は、前記i番目の探索平面上でラベリング処理を行って、1又は複数の閉領域を含むi番目のラベリング画像を得る二次元ラベリング手段と、前記i番目のラベリング画像に前記i番目の血管断面を投影して、前記i番目の血管断面に対して最も重合面積が大きい閉領域を特定し、その特定された閉領域の中で前記投影されたi番目の血管断面と重合する部分を前記i番目の血管部分として抽出する投影処理手段と、を含む。この構成によれば、既に抽出された血管断面の前方に存在する血管部分を容易に認識することができる。
【0022】
最も重合面積が大きい閉領域が選択されるので、前方が二股あるいは多数に分岐している場合において、最も太い主要な血管経路へ探索を自動的に進行させることができる。なお、変形例としては重合関係にある複数の閉領域が確認された時点で、その時点でのラベリング画像などを表示させて、ユーザーに探索方向の選択を委ねるようにしてもよい。
【0023】
望ましくは、前記探索ベクトル決定手段は、前記i番目の血管断面の重心を演算する手段と、前記i番目の血管部分の重心を演算する手段と、前記i番目の血管断面の重心から前記i番目の血管部分の重心を通過する方向をベクトル方向として、前記i+1番目の探索ベクトルを決定する手段と、を含む。この構成によれば、血管断面の重心と仮に抽出された血管部分の重心を結ぶ方向として、血管走行方向を大凡認識でき、つまりその方向へ探索ベクトルを設定することができる。
【0024】
望ましくは、i+1番目の基準平面は、i番目の探索平面をその平面上の所定点を回転中心として回転させた平面に相当する。所定点は、i番目の血管部分の重心あるいは中心点などである。
【0025】
望ましくは、探索開始方向を指定する探索開始方向指定手段を含み、前記探索原点と前記探索開始方向とに基づいて最初の探索ベクトルが決定される。望ましくは、前記三次元データに基づいて二次元又は三次元の参照画像を形成する参照画像形成手段を含み、前記探索原点及び前記探索開始方向は、前記参照画像を用いてユーザー指定される。参照画像は三次元空間を表す三次元画像であってもよいが、三次元空間内部の指定が困難であれば、その三次元空間を任意位置あるいは所定位置で切断した二次元の断層画像上で探索原点などを指定させるのが望ましい。その場合に、注目する血管部分の中心軸を含むように任意切断面を設定し、それによる任意断層画像上で探索原点及び探索方向を指定させてもよい。
【0026】
なお、探索原点から前方向及び後方向の両方向へ探索を開始させるようにしてもよい。その場合に各方向ごとに探索の終了条件を定めておくのが望ましい。
【0027】
(2)また、本発明は、生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する超音波画像処理装置において、前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点を指定する探索原点指定手段と、前記探索原点から前記血管群における注目経路に沿って、探索ベクトルを逐次的に設定しつつ血管断面の抽出を逐次的に実行する探索処理手段と、前記注目経路に沿って逐次的に抽出された複数の血管断面からなる血管断面列が格納される記憶部と、前記血管断面列に基づいて注目経路を含む超音波画像を形成する画像形成手段と、を含むことを特徴とする。
【0028】
上記構成によれば、注目経路は血管断面列として抽出されており、その血管断面列を利用して各種の超音波画像を構成できる。その超音波画像は、注目経路だけの三次元画像であってもよいし、注目経路を背景から高輝度に浮かび上がらせたあるいは着色によって注目経路を白黒背景から浮かび上がらせた三次元画像であってもよい。
【0029】
望ましくは、前記超音波画像は、前記注目経路を一筆書きのように表現した三次元画像である。三次元ラベリング法を適用すると、ある点と繋がり関係にある全領域を抽出できるが、そのような場合、注目する血管に繋がっている全血管が同様に抽出されて、結果として注目する血管の観察を阻害することもある。本発明によれば、例えば、多数枝分かれした血管群において、探索原点から幹方向へ向かう一本経路、探索原点から主要な末端方向へ向かう一本経路を自動的に抽出できる。
【0030】
望ましくは、前記超音波画像は、前記三次元空間を表す画像であって前記注目経路が識別表現された三次元画像である。望ましくは、前記注目経路を識別表現するために、前記血管断面列のデータに対して他のデータよりも大きな重み付け値を与える手段を含む。これにより注目経路を強調処理できる。
【0031】
(3)また、本発明は、生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する超音波画像処理装置において、前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点を指定する探索原点指定手段と、前記探索原点から前記血管群における注目経路に沿って、探索ベクトルを逐次的に設定しつつ血管断面の抽出を逐次的に実行する探索処理手段と、所定条件が満たされた場合に前記血管断面の抽出の終了を判定する終了判定手段と、を含むことを特徴とする。
【0032】
終了判定条件としては、例えば、探索進行数が設定値に到達したこと、探索経路長が設定値に到達したこと、それ以上探索が行えなくなったこと、などをあげることができる。
【0033】
望ましくは、前記探索原点と前記終了判定時点の探索位置とを基準として三次元の画像処理範囲を決定する画像処理範囲決定手段と、前記画像処理範囲内において前記血管群に対する三次元ラベリング処理を行う三次元ラベリング手段と、を含む。
【0034】
望ましくは、前記三次元ラベリング手段は、前記画像処理範囲内において前記探索原点から前方へ三次元ラベリング処理を行って、前記探索原点から繋がり関係を満たす前方血管枝を抽出する前方三次元ラベリング手段と、前記画像処理範囲内において前記探索原点から後方へ三次元ラベリング処理を行って、前記探索原点から繋がり関係を満たす後方血管枝を抽出する後方三次元ラベリング手段と、を含む。
【0035】
望ましくは、前記前方血管枝及び前記後方血管枝の少なくとも一方を表した三次元画像を形成する画像形成手段を含む。
【0036】
望ましくは、前記三次元空間を表す画像であって前記前方血管枝及び前記後方血管枝の少なくとも一方を識別表現した三次元画像を形成する画像形成手段を含む。
【0037】
(4)また、本発明は、生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する方法において、前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点をユーザー指定させる工程と、前記探索原点から前記血管群の幹方向又は末端方向へ、探索方向を逐次的に設定しつつ血管断面抽出処理を逐次的に実行し、これにより複数の血管断面からなる血管断面列を生成する工程と、を含むことを特徴とする。
【0038】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
【0039】
図1及び図2には、本発明に係る探索処理によって形成される画像の例が示されている。ここで、図1には血管網において末端から幹の方向へ探索処理を行う場合が示されており、図2には血管網において幹から末端の方向へ探索処理を行う場合が示されている。
【0040】
具体的に説明すると、図1において、(A)には生体内の三次元領域に対して超音波の送受波を行って得られた三次元データに基づいて形成される三次元画像が示されている。この三次元画像において、血管群としての血管網100は幹から末端にかけて多数枝分かれした血管系を構成し、ここにおいて注目する血管ルートすなわち注目経路が符号102によって表されている。この注目経路102における特定部位にユーザーにより探索原点などとして探索開始位置104が設定され、これと共に、ユーザーにより探索開始位置104からどちらの方向に探索を開始するかを示す最初の探索方向106が設定される。
【0041】
後述する探索処理を繰り返し実行すると、(B)に示すように、注目経路についての限定抽出画像を得られる。すなわち、その経路の限定抽出画像においては、一筆書きのように注目経路102が三次元画像として表現されており、具体的には、探索開始位置104から所定の終了条件を満たした地点までの1本のルートが三次元画像として示されている。このように、末端部分を指定して幹方向へ探索方向を指定すると、途中に枝分かれがあったとしてもその指定された末端部分から太い幹の方向へ1本だけ経路を抜き出して画像化することが可能となる。よって、例えば肝臓内の血管網などのように複数の枝分かれ血管が互いに絡みあって密集しているような場合においても、特定の血管経路のみを抜き出してあるいはそれだけを強調して三次元画像として表示することが可能となる。なお、このような血管の抽出は動脈及び静脈のいずれにも適用することができる。腫瘍組織が成長するためには、血管は必須であると考えられている。従って、腫瘍組織にのびている全ての血管を特定し除去すれば、腫瘍を死滅できる。後述する超音波診断装置においては、腫瘍組織からのびている血管を全て表示することも可能であるので、腫瘍からのびた血管を表示することによって各種の腫瘍治療に用いることができる。
【0042】
後述する本実施形態の超音波診断装置においては、(B)に示した表示モードの他、以下に説明する(C)に示す表示モードも有している。すなわち、(C)には所定条件にしたがって設定された一定範囲内における探索方向前方の全部抽出画像が示されている。すなわち、探索開始位置104を基準として探索方向106へ向けて三次元ラベリング処理を行うことにより(C)で示すような三次元画像を形成することができる。その三次元画像には注目経路102を含む注目経路102と繋がり関係にある全部の血管部分108が画像化されている。本実施形態に係る装置においては、上記の一定範囲は(B)に示した注目経路102の探索処理結果として定義されている。これについては後に詳述する。
【0043】
本実施形態に係る超音波診断装置は、上記のように(B)に示したような表示モード及び(C)に示した表示モードを有しており、更に後述する様々な表示バリエーションを具備している。
【0044】
図2には、上述したように、血管網100における幹から末端方向へ探索を行う場合の一例が示されている。(A)には三次元画像が示され、図1に示した場合と同様に、ユーザーによって探索原点などとしての探索開始位置104及び最初の探索方向106が指定される。すると、注目経路110に沿って探索処理が開始され、その結果、(B)に示すように、注目経路の限定抽出画像を得ることが可能となる。(B)に示されるように注目経路110が三次元画像として一筆書きの態様で示されている。本実施形態においては、後に説明するように、血管が分岐している場合においては太い血管つまり主たる血管をルート選択するようにしており、その結果(B)に示すような画像が形成される。上述したように、このような一筆書きの画像によれば、他の血管によって隠蔽されることなく当該注目経路110を明瞭に観察することが可能となる。
【0045】
(C)には一定範囲内における探索方向前方の全部抽出画像が示されており、この例に示すように注目経路110を含む繋がり関係にある全部の血管部分112が抽出され、それが画像化されている。
【0046】
なお、図1には末端から幹への探索処理を示し、図2には幹から末端への探索処理を示したが、後述する実施形態において、それらは同一の処理プロセスによって達成される。
【0047】
次に、図3〜図8を用いて図1に示した探索処理をより具体的に説明し、図9〜図14を用いて図2に示した探索処理をより具体的に説明する。
【0048】
図3において、血管網における特定部位にユーザーによって探索原点SP0と探索方向を指定するための座標SP1とが設定される。また、ユーザーによりあるいはデフォルトの設定として、探索経路長あるいは進行度の上限LMAXが定められる。ここで、最初の探索方向(探索ベクトル)106は探索原点SP0から座標点SP1を通過する方向として定義される。
【0049】
上記のようなユーザーによる入力が完了すると、図4に示されるように、まず最初に、探索原点SP0を含む最初の血管断面Sが抽出される。この場合における血管断面抽出処理の具体的な内容は後に詳述するが、このような血管断面の抽出に際しては、後に示す基準平面及び探索平面の設定並びに探索ベクトルの設定が繰り返し行われる。
【0050】
図5に示されるように、探索方向として指定された前方へ上記の血管断面抽出処理を繰り返し実行すると、各位置において血管断面が抽出され、すなわち断面列116を得られる。この断面列116は上記のように抽出された複数の血管断面によって構成されるものであり、これは注目経路の限定抽出データに相当する。図5においては、最初に抽出された血管断面がSで示され、終了条件を充たして最後に抽出された血管断面がSで示されている。すなわち、ここではm個の血管断面が注目経路に沿って抽出されたことになる。この場合において、各血管断面の抽出に当たっては血管断面の相互間の繋がり条件が満足されるように処理が実行されており、例えば分岐した部分があったとしてもラベリング処理のように分岐しているそれぞれのルートへ探索処理が進行してしまうということはない。
【0051】
従って、図5に示す断面列116を用いて、図1に示した注目経路の限定抽出画像を三次元画像として構築することができる。
【0052】
図6には、最後に抽出された血管断面を表す座標SPmが示されている。本実施形態においては、探索原点SP0から探索の終了座標SPmまでを直線距離で結んだ長さrが特定され、それが画像処理範囲118の半径とされる。本実施形態においては、画像処理範囲118が球によって定義されているが、もちろんそのような形状には本発明は限定されない。本実施形態では、そのような画像処理範囲118内において以下に説明する三次元ラベリング処理を実行させることができる。ちなみに、画像処理範囲118は三次元の球であるが、画像処理範囲118を球面として特定し、その球面を画像処理の限界として定めるようにしてもよい。
【0053】
図7には、探索原点SP0から探索方向とは逆方向に三次元ラベリング処理を行った場合の様子が示されている。最初の血管断面である基準断面から単位距離だけ離れた血管断面S−1から末端方向にかけて繋がり関係がある全ての血管部分120が抽出されている。すなわち、符号120は後方の全部抽出データを示している。ちなみに、末端部分に行くにしたがって、エコー強度が弱くなるため、三次元ラベリング処理はその限度で終了となる。
【0054】
図8には、探索原点から探索方向前方へ三次元ラベリング処理を行った場合の結果が示されている。符号122は前方の全部抽出データを示しており、この場合において、三次元ラベリング処理は画像処理範囲118の内部においてのみ実行されている。
【0055】
以上のように、本実施形態の方法によれば、注目経路についての抽出が完了すると、その時の終了地点と探索原点との位置関係から画像処理範囲を別途設定し、その範囲内において三次元ラベリング処理を行ってユーザーが注目している部位を中心とした全ての血管の走行状態を別画像として形成することが可能である。ちなみに、三次元ラベリング結果を三次元画像として表す場合には、図7及び図8に示した後方の全部抽出データ120及び前方の全部抽出データ122の少なくとも一方が表示され、望ましくは両者が合体したものとして表示される。
【0056】
次に、図9〜図14について説明する。それらの図9〜図14は基本的には図3〜図8に示した内容に対応するものである。血管網における幹から末端方向へ探索を行わせる場合、図9に示されるように、ユーザーによって探索原点SP0と座標点SP1が指定され、これと共にユーザーによりあるいはデフォルトの条件として探索終了条件を定める経路長LMAXが定められる。そして、探索原点SP0から座標点SP1への方向へ探索が開始される。すなわち図10に示されるように、まず最初に探索原点を含む最初の血管断面Sが抽出され、その後、注目経路に沿った各位置において血管断面抽出処理が繰り返し実行される。すると、図11に示されるように、血管断面列116が得られることになる。
【0057】
そして、終了条件を満たした時点の座標SPmと探索原点SP0との間の距離rが画像処理範囲118を定義する半径として用いられ、その画像処理範囲118内において図13に示されるように探索原点から後方への三次元ラベリング処理が実行され、図14に示されるように探索原点から前方への三次元ラベリング処理が実行される。ここで符号124は後方の全部抽出データを示しており、符号126は前方の全部抽出データを示している。それらの抽出データ124及び126は望ましくは両者統合され、画像処理範囲118内における抽出データとして利用されて三次元画像が構築される。したがって、この図9〜図14に示した場合においても、上記の図3〜図8に示したのと同様に、注目経路の三次元画像とその近傍全体の三次元画像の両者を形成することができ、疾病診断上の必要性などに応じて両者を同時表示あるいは選択的に表示させることができる。
【0058】
ちなみに、三次元ラベリング処理自体は公知の手法であるかもしれないが、本実施形態においては注目経路の探索結果が画像処理範囲として利用され、その画像処理範囲内において三次元ラベリング処理を行える点が従来とは異なる。
【0059】
次に、図15を用いて、本実施形態に係る超音波診断装置の好適な実施形態について説明する。この超音波診断装置は、上述した三次元データ処理を実行するものであり、具体的には、超音波画像処理装置に相当する画像処理ユニット17を備えている。もちろん画像処理ユニット17については超音波診断装置とは別途設けられたコンピュータなどによって構成することもできる。
【0060】
3Dプローブ10は体表面上に当接して用いられ、あるいは体腔内に挿入して用いられる三次元エコーデータ取込用超音波探触子である。3Dプローブ10は図示されていない2Dアレイ振動子を有しており、その2Dアレイ振動子は多数の振動素子をマトリクス状に配列したものである。その2Dアレイ振動子によって超音波ビームを二次元的に電子走査することができる。これによって三次元エコーデータ取込空間(三次元空間)Vが形成される。例えば、肝臓内における血管網の三次元画像を形成する場合には、腹部体表面上に3Dプローブ10が当接され、三次元空間V内に注目する血管あるいは血管網が含まれるように、3Dプローブ10の姿勢や当接位置が調節される。
【0061】
送受信部12は、送信ビームフォーマー及び受信ビームフォーマーとして機能する。すなわち、送受信部12は、複数の振動素子に対して送信信号を供給し、また、複数の振動素子から出力される複数の受信信号を整相加算処理する。
【0062】
信号処理部14は、送受信部12から出力される整相加算後の受信信号に対して検波、対数圧縮などの所定の信号処理を実行する。本実施形態においては、エコーデータが画像処理対象となっているが、もちろん各ボクセルごとにドプラ情報を抽出し、そのドプラ情報を三次元画像処理の対象としてしてもよい。
【0063】
3Dメモリ16には、三次元空間内において取り込まれたエコーデータが格納される。この場合に、必要な座標変換や補間処理などが実行される。したがって、3Dメモリ16には三次元データが格納され、その三次元データは三次元データ空間を構成するものである。このように格納された三次元データは通常の三次元画像処理のために表示処理部18へ出力される他、本実施形態においては上述した本実施形態特有の画像処理を適用するために画像処理ユニット17へ出力されている。
【0064】
表示処理部18は、三次元データに対して公知のレンダリング処理を適用し、これによって三次元超音波画像を構築する。この場合に、そのレンダリング処理の方法としては各種のものをあげることができ、例えばボリュームレンダリング法などを利用してもよい。表示部20には、表示処理部18によって処理された画像が表示される。
【0065】
制御部24は装置内に含まれる各構成の動作制御を行っている。この制御部24には、操作パネルによって構成される入力部22が接続されている。制御部24は画像処理ユニット17内に含まれる各構成の動作制御も行っており、特に後述する二値化データ処理部28に対して座標原点SP0、座標点SP1、探索経路長LAXなどの各種のパラメータを出力している。
【0066】
次に、画像処理ユニット17の具体的な構成について詳述する。二値化処理部26は、3Dメモリ16内に格納された三次元データに対して二値化処理を行う回路である。すなわち血流データを実組織データと区別するために、二値化処理を実行している。血流データは、一般に、実組織データよりも小さな値を有しているために、例えばそのような小さなデータに対して1を割り当て、それ以外のデータに対しては0を割り当てることにより、三次元データ空間内における血流部分のみについて1が与えられたデータ空間を構築することができる。その二値化処理後のデータは二値化データ処理部28へ出力されている。
【0067】
二値化データ処理部28は、本実施形態において探索処理部30及び3Dラベリング部32などを有している。もちろん、このような機能以外にも各種の機能を備えているが、それについては後に図17を用いて説明する。探索処理部30は、注目経路に沿った各位置において血管断面の抽出を行う処理部である。3Dラベリング部32は、画像処理範囲内において三次元ラベリング処理を行う処理部である。
【0068】
この二値化データ処理部28には3つの3Dメモリ34,36,38が接続されている。もちろん、それらの3Dメモリ34,36,38は単一の記憶装置によって構成されてもよい。3Dメモリ34には、探索処理によって抽出された血管断面列に相当するデータ、すなわち注目経路の限定抽出データが格納される。3Dメモリ36には、三次元ラベリング処理を探索原点から前方に行うことによって得られたラベリングデータである前方向の全部抽出データが格納される。3Dメモリ38には、探索原点から後方向にラベリング処理を行って得られたデータすなわち後方向の全部抽出データが格納される。
【0069】
選択/合成処理部40は、以上の各3Dメモリ34,36,38に格納されたそれぞれの抽出データを適宜選択又は合成し、その処理結果を表示処理部18へ出力している。例えば、注目経路の限定抽出画像を形成する場合には、3Dメモリ34から出力される抽出データのみが表示処理部18へ出力される。また、三次元ラベリング処理の結果を三次元画像としてする場合には、3Dメモリ36及び38のそれぞれから出力される抽出データが合成されて表示処理部18へ出力される。この場合において、前方向の全部抽出データ及び後方向の全部抽出データのいずれかを選択するようにしてもよい。
【0070】
図16には、図15に示した表示処理部18の要部構成例が示されている。乗算器44の一方の入力端子には3Dメモリ16から順次読み出されるデータが入力される。一方、乗算器44の他方の入力端子には係数セレクタ42から出力されるいずれかの係数w1又はw2が入力されている。
【0071】
係数セレクタ42には、図15に示した選択/合成処理部40からの出力データすなわち抽出データが入力されている。その抽出データについて説明すると、上記の血管断面抽出処理あるいは三次元ラベリング処理によって抽出されたものについては値として1を有しており、それ以外については値として0を有している。係数セレクタ42は、抽出データとして値1が入力された場合に係数w1を出力し、その一方、抽出データとして値0が入力された場合に係数w2を出力する。ここで、w1は例えば1.0であり、w2は例えば0.5である。それらの係数w1,w2は重み付け値として機能し、すなわち上記の抽出処理によって抽出されたデータについては大きな重み付けを与えることにより、三次元画像において抽出部分を高輝度表現することが可能となる。もちろん、その部分について例えば特定の着色を施して他の実組織あるいは血管から際立たせるようにしてもよい。
【0072】
したがって、乗算器44においては、3Dメモリ16から順次出力されるデータに対して重み付けがなされることになり、その重み付けが完了したデータがレンダリング部46へ入力される。このレンダリング部46は上述したように例えばボリュームレンダリング法など基づく三次元画像処理を行うものである。なお、抽出された血管の表示方式としては各種のものをあげることができ、抽出された血管部分を特定の色で表示し、それ以外の血管部分を他の色で表示する共に、血管内の実組織を白黒画像として表現するようにしてもよい。あるいは二値化処理部26の出力を上記の乗算器44に与えることにより、血管のみを三次元画像として表示する場合に、特定の血管部分を高輝度表現するようにしてもよい。
【0073】
ちなみに、乗算器44において、あるデータに対して対応する係数を正しく割り当てるため、制御部24は、3Dメモリ16,34,36,38の読み出し制御を行っている。
【0074】
次に、図18〜図24を参照しながら、図17に基づいて以上説明した装置の具体的な動作例について説明する。図17は装置の動作例を示すフローチャートである。
【0075】
S101においては、ユーザーによって座標原点SP0及び座標点SP1が指定され、またユーザーにより最大ステップ数としてのパラメータLMAXが指定される。この最大ステップ数は探索終了条件の1つをなすものである。もちろん探索終了条件としては、このような最大ステップ数ではなく探索経路長などとして指定することも可能である。
【0076】
S101において2つの座標を指定する場合においては、例えば図18及び図19に示すような方法を用いることができる。すなわち、図18には表示部に表示される三次元画像130が示されている。この三次元画像130は生体内の三次元領域を画像化したものである。その三次元領域内には血管網132が存在し、ここにおいて特定の経路すなわち注目経路134について限定抽出を行いたい場合には、この例に示すように、三次元空間内にカーソルなどを用いて任意切断面136をユーザーにより設定する。すなわち、この任意切断面136は注目経路134における探索原点などを指定する部位を横切る平面である。
【0077】
図19には、任意切断面136に対応する任意断層画像138が示されている。ここで符号140,142,144は血管網において任意切断面が横切ることによって現れた血管の断面である。ここで、注目経路に相当する血管の断面は符号142で示すものであり、ユーザーはそのような任意断層画像138上においてその血管断面142上に探索原点SP0と座標点SP1とを設定することにより、探索の初期条件を具体的にしかも容易に指定することができる。もちろん、このような任意断層画像によらずに例えばトリプレーンあるいは三次元画像自体を利用して初期条件の設定を行うようにしてもよい。ただし、このような任意断層画像を用いれば、より簡便にしかも正確に注目経路を指定することができるという利点がある。
【0078】
図17に戻って、S102では、以上のように設定されたSP0とSP1から最初の探索方向Uが演算される。すなわち、SP0からSP1へ向かう方向として最初の探索ベクトルとしての探索方向Uが求められる。また、探索原点から最初の探索方向Uとは逆の方向に存在する座標SPAが演算される。
【0079】
これについて図20を用いて説明する。上述したように、探索原点SP0と座標点SP1を結ぶライン146上に最初の探索ベクトルUが演算される。またそのライン146上において探索原点SP0から逆方向に一定距離離れた地点として座標点SPAが自動的に特定される。ここで、その一定距離は任意の距離でよいがここでは単位距離が1とされている。ちなみに、後述する基準平面Qと探索平面Rとの間の一定距離も単位距離としての1である。この1は例えば1つのボクセルデータのサイズに相当する。なお、符号134は注目経路すなわち注目している血管を表している。なお、図20においては各機構の添え字として1が与えられていたが、以下における一般的な説明においては添え字はiを用いることとし、そのiは探索処理の回数に相当するものである。ここでi=1の時が最初の探索処理に相当する。
【0080】
図17に戻って、S103では、パラメータLに0が代入され、基準点を表すパラメータPにSP0の座標が代入され、パラメータiに1が代入される。
【0081】
S104では、基準平面Qが設定される。具体的には、図21に示されるように基準点Pを含んで探索方向すなわち探索ベクトルUに対して垂直な平面が基準平面Qと定義される。この基準平面Q上におけるデータが三次元データ空間から読み込まれ、それが二値化データ処理部28内に存在する記憶領域に格納される。
【0082】
図17において、S105では、探索平面Rが設定される。すなわち、図21に示すように、基準平面Qから探索方向Uの方向に距離1だけ離れた平面であって基準平面Qに平行な平面として探索平面Rが設定される。この探索平面Rは、実際の血管断面の抽出を行う前処理として、血管断面の繋がり関係を大凡把握し、その結果として次の探索ベクトルを適切に設定するためのものである。このS105では、三次元データ空間内から探索平面R上のデータが読み出されて二値化データ処理部28内に存在する記憶領域に格納される。
【0083】
なお、上記の基準平面Q及び探索平面Rのいずれも三次元データ空間の全域にわたる平面として定義するようにしてもよいし、探索ベクトルUなどを中心とした一定の有限な領域として定義してもよい。そのような構成によれば演算時間を短縮化できるという利点がある。
【0084】
図17におけるS106では、以上のように抽出された基準平面Q上のデータと探索平面R上のデータのそれぞれに対してラベリング処理が実行され、その結果として得られたラベリング画像(ラベル画像)が保存される。ここで、ラベリング処理は二次元のラベリング処理であり、図15に示した3Dラベリング部32が行う三次元ラベリング処理とは異なるものである。つまり、各平面上におけるラベリング処理、換言すれば血液部分の抽出処理に相当する。ちなみに、図23には探索平面Rについてのラベリング処理結果が示されており、各領域A1,A2ごとにそれぞれについて識別記号としてのラベルが付与されている。なお、符号150は基準断面Sを投影した領域(後述)を示している。
【0085】
図22には、それぞれの平面上のデータに対して行われたラベリング処理結果が示されている。周知のように、ラベリング処理では各孤立領域すなわち閉領域ごとにそれぞれを識別するためのラベルすなわち番号が付与される。ここで、基準平面Q上においては1つの領域のみが抽出され、一方、探索平面R上においては2つの領域A1,A2が抽出されている。
【0086】
図17において、S107では、基準平面Qのラベリング画像から、基準点Piを含む領域すなわちその基準点Pに連結する領域が基準断面Sとして抽出される。これが図22に示されている。この基準断面Sは基準断面Q上において抽出された注目経路の血管断面である。このように抽出された血管断面すなわち基準断面Sのデータは保存される。そして、図17におけるS108では、基準断面Sについてその重心Giが演算される。それが図22に示されている。
【0087】
そして、図17におけるS109では、基準断面Sを探索済みの血管断面データとして図15に示した3Dメモリ34へ出力する。
【0088】
図17におけるS110では、探索平面Rについてのラベリング画像の内で、基準断面Sとの最大の重なり部分が抽出される。これを図22を用いて説明する。上述したように、探索平面R上にはこの例では2つの抽出領域A1,A2が存在しており、そのいずれが今後探索すべき注目経路に相当するものであるか不明である。そこで、本実施形態においては、その探索平面R上へ基準平面Q上の基準断面Sを投影し、そのような投影によって生じる重なり部分を認識することにより血管断面の繋がり関係つまり血管の走行方向を把握するようにしている。
【0089】
図22における符号150は基準断面Sを投影した領域を示しており、ここで、その領域150は2つの領域A1,A2の両方にまたがっているが、それぞれの領域A1,A2の内で重なり部分が最大すなわち大きい方が符号152で示される重なり部分である。ここで、その重なり部分152については図22においてハッチングが付されている。
【0090】
図17において、S111ではそのような重なり部分が存在するか否かが判断され、存在する場合には、S112においてパラメータLがMAXに到達したか否かが判断され、すなわち終了条件が判断され、LがLMAXに到達していないと判断されると、S113以降の各工程が実行される。すなわちS113では、図22に示した重なり部分152についてその重心が仮重心Kとして演算される。次に、S114では、基準断面Sの重心Gから仮重心Kを結ぶ方向として次の探索方向Ui+1の向きが決定される。
【0091】
上記のS114の工程について図21を用いて詳述すると、既に説明したように、基準平面Qに対してそれと平行に探索平面Rが設定され、その場合における両者の関係は探索ベクトルUによって定められている。その一方において、探索平面Q上において基準断面Sが抽出されると、それの重心Gが演算される。また、探索平面R上においては上述したプロセスによって重なり部分が特定され、それについての重心である仮重心Kが特定される。そして、重心Gから仮重心Kを通過する方向として次の探索方向としての探索ベクトルUi+1が決定される。その場合における探索ベクトルUi+1のベクトル原点は上記の仮重心Kiであり、これは次の断面抽出処理における基準点Pi+1に合致するものである。そして、次の血管断面抽出処理においては今度は探索ベクトルUi+1を基準として新しく基準平面Qi+1が設定されることになり、その基準平面Qi+1上において新しく基準断面Si+1が抽出される。
【0092】
したがって、このような一連の流れから理解できるように、注目経路134の走行状態に応じて、できるだけその中心軸の方向に沿うように探索方向が順次再設定されることになり、それと共に、基準平面の向きについても注目経路134の中心線にできる限り直交するように順次再設定される。
【0093】
以上のような一連のプロセスを行うにあたって、図17に示すS115では、パラメータLが1つインクリメントされ、基準点を表すパラメータPに仮重心Kの座標が与えられ、さらにiが1つインクリメントされる。そして上記のS104以降の各処理が繰り返し実行されることになる。
【0094】
図24には、複数段階にわたる血管断面抽出処理の結果が概念的に示されており、ここにおいては血管部分140から141へ向かう方向が注目経路であり、ただし、血管部分140が141に連結している箇所には他の血管部分142も連結している。図24において、S〜Sはそれぞれの血管断面処理によって抽出された各位置における血管断面を表しており、R〜Rはそれぞれの血管断面抽出処理において設定された探索平面を表している。また、G〜Gはそれぞれの血管断面抽出処理において基準断面について演算された重心を表しており、K〜Kはそれぞれの血管断面抽出処理において探索平面上において演算された仮重心を示している。この図24に示されるように、合流地点において血管断面が突然増大しても(S参照)、その後血管の走行方向に沿って断面抽出の方向は適正化されており、このような合流あるいは分岐の箇所においても探索方向を見失うことなく処理を進行させることができる。図22に示したように、重なり部分152の特定及び仮重心Kの演算によれば、上記のような合流部分及び分岐部分が存在しても、注目経路に沿った血管断面の抽出を行うことが可能であり、特に、幹から末端部分へ探索を行う場合において、枝分かれ箇所があったとしても、探索平面上において最大の重なり部分を特定することにより、最も太い血管部分の方向へ探索を自動進行させることができるという利点がある。
【0095】
図17に戻って、S111において、重なり部分が存在しないと判断された場合、あるいはS112においてパラメータLがLMAXに到達したと判断された場合、S116以降の工程が実行される。このS116では、図6及び図12に示したように、探索終了時点の座標Eとしてその探索終了時点における基準断面の重心Giが特定され、S117においては、図6及び図12に示したように、画像処理範囲118が決定される。この場合において、その画像処理範囲118は、球体の領域として定義してもよいし、球表面の領域として定義してもよい。
【0096】
S118においては、図7及び図8並びに図13及び図14に示したような前方向あるいは後ろ方向の三次元ラベリング処理が実行され、それぞれの抽出データが図15に示した3Dメモリ36,38に格納される。
【0097】
上記の実施形態において、探索ベクトルの決定にあたっては、例えば重心を用いることなく領域の中点あるいは中心を用いるようにしてもよい。また、仮重心の計算にあたっては、図22に示した重なり部分152について重心を求めるのではなく、それを含む領域A1の重心を仮重心とするようにしてもよい。
【0098】
なお、上記実施形態においては、注目経路の断面抽出が完了した後に三次元ラベリング処理が実行可能とされていたが、変形例としては、画像処理範囲を例えばユーザーなどにより独自に設定させてその範囲内において三次元ラベリング処理を行わせることもできる。ただし、上記実施形態によれば、抽出される注目経路と三次元ラベリング処理により抽出される血管全体とが同じ領域内に属しているという関連性から、2つの画像を対比観察する場合において両者の対応関係をより正確に認識できるという利点がある。
【0099】
【発明の効果】
以上説明したように、本発明によれば、様々な形態をもった血管を適切に抽出できるという利点がある。また、本発明によれば血管診断に有益な画像を提供することができる。
【図面の簡単な説明】
【図1】血管網における末端に対して探索開始位置を指定した場合における、注目経路の限定抽出画像と一定範囲内における探索方向前方の全部抽出画像とを示す図である。
【図2】血管網における幹に対して探索開始位置を指定した場合における、注目経路の限定抽出画像と一定範囲内における探索方向前方の全部抽出画像とを示す図である。
【図3】末端側から探索を行う場合における座標点の指定を説明するための図である。
【図4】末端側から探索を行う場合における最初の血管断面を示す図である。
【図5】末端側から探索を行って得られた断面列を示す図である。
【図6】画像処理範囲を示す図である。
【図7】三次元ラベリング処理によって得られた後方の全部抽出データを示す図である。
【図8】三次元ラベリング処理によって得られた前方の全部抽出データを示す図である。
【図9】幹側から探索を行う場合における座標の指定を示す図である。
【図10】幹側から探索を行う場合における最初の血管断面を示す図である。
【図11】幹側から探索を行って得られた断面列を示す図である。
【図12】画像処理範囲を示す図である。
【図13】三次元ラベリング処理によって得られた後方の全部抽出データを示す図である。
【図14】三次元ラベリング処理によって得られた前方の全部抽出データを示す図である。
【図15】本実施形態に係る超音波診断装置の好適な実施形態を示すブロック図である。
【図16】図15に示す表示処理部の具体的な構成例を示すブロック図である。
【図17】図15に示した超音波診断装置の動作例を示すフローチャートである。
【図18】三次元空間を表した三次元画像を示す図である。
【図19】三次元空間に対して設定された任意切断面に相当する任意断層画像を示す図である。
【図20】探索原点と探索方向の指定とを説明するための図である。
【図21】基準平面と探索平面との位置関係を説明するための図である。
【図22】基準平面上の基準断面を探索平面上に投影した状態を示す図である。
【図23】探索断面に対する二次元ラベリング処理結果を示す図である。
【図24】注目経路に沿って実行された各血管断面抽出処理の結果を示す図である。
【符号の説明】
10 3Dプローブ、12 送受信部、14 信号処理部、16 3Dメモリ、17 画像処理ユニット、18 表示処理部、20 表示部、24 制御部、26 二値化処理部、28 二値化データ処理部、30 探索処理部、32 3Dラベリング部、34,36,38 3Dメモリ、40 選択/合成処理部、100 血管網、104 探索開始位置、106 探索方向、118 画像処理範囲。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an ultrasonic image processing apparatus and a three-dimensional data processing method, and particularly to a three-dimensional image processing of a blood vessel.
[0002]
[Prior art]
2. Description of the Related Art A technique for transmitting and receiving ultrasonic waves to and from a three-dimensional region in a living body and displaying a tissue in a living body as a three-dimensional image based on the three-dimensional data obtained thereby has been put to practical use in medical practice. In a conventional ultrasonic diagnostic apparatus, data corresponding to a blood vessel (blood flow) is extracted from three-dimensional data by utilizing the fact that the echo intensity of blood flow is smaller than the echo intensity of real tissue. A three-dimensional image of a blood vessel is formed based on the extracted data. Also, since a so-called Doppler shift occurs in an echo from a blood flow flowing in a blood vessel, a three-dimensional image of a blood vessel (blood flow) can be formed using Doppler information resulting therefrom.
[0003]
[Patent Document 1]
JP-A-7-178091
[0004]
[Problems to be solved by the invention]
However, it is relatively easy to identify a blood vessel of interest on a three-dimensional image for a part where one or several blood vessels are running in a state that is easy to distinguish from each other. When a vascular system or vascular network (one form of vascular group) is formed that is intricately intertwined spatially by branching out gradually from a thick blood vessel as shown in the figure, it can be expressed as a three-dimensional image. It is very difficult to clearly recognize the running state of each blood vessel portion. This is because even if an attempt is made to observe in detail a certain blood vessel portion existing inside the blood vessel network, other blood vessel portions exist around the portion, which hinders the observation. Therefore, even if an abnormal site exists in the middle of a specific blood vessel route, the abnormal site may not be clearly displayed as an image.
[0005]
Patent Literature 1 discloses a technique for displaying a blood vessel of interest and another blood vessel in a distinguishable manner. According to the technique, when a scan plane of many frames is configured to construct a three-dimensional space, a blood vessel cross section is extracted on a scan plane of a certain frame, and a blood vessel cross section is also extracted on a scan plane of the next frame. This is repeated. Then, a three-dimensional image of the blood vessel is formed by joining the blood vessel cross sections extracted on the scanning plane of each frame.
[0006]
However, with the method disclosed in Patent Document 1, first, it is very difficult to extract a meandering blood vessel. In other words, cross-section extraction is performed on each scanning plane in parallel, and if blood vessels are not orthogonal to each scanning plane, the extraction cannot be performed properly. Secondly, there is no configuration for coping with the bifurcation of a blood vessel and accurately extracting a blood vessel of interest.
[0007]
An object of the present invention is to enable accurate extraction of a meandering blood vessel.
[0008]
Another object of the present invention is to perform blood vessel extraction in response to branching of blood vessels.
[0009]
It is another object of the present invention to provide an image useful for blood vessel diagnosis.
[0010]
[Means for Solving the Problems]
(1) The present invention relates to an ultrasonic image processing apparatus for processing three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body. In the data space, search origin designating means for designating a search origin at a specific site in the blood vessel group, and extracting a blood vessel cross-section while sequentially setting a search vector from the search origin along a path of interest in the blood vessel group. And a search processing means for sequentially executing the search processing means, wherein the search processing means generates a blood vessel cross-section row including a plurality of blood vessel cross sections sequentially extracted along the attention path.
[0011]
According to the above configuration, in the three-dimensional data space, when the search origin is specified by the user or automatically for a specific part in the blood vessel group, the target route including the search origin (the blood vessel route as an extraction target) is included in the target route. A blood vessel cross-section extraction process is sequentially performed along the way, and individual blood vessel cross-sections are extracted as the process proceeds. In that case, the search vector is reset for each blood vessel cross-section extraction process, that is, the search direction is updated, so that it is possible to search for a blood vessel cross-section that is adapted to the traveling state of the route of interest. It is possible to increase. In particular, it is also possible to extract a winding path. Ideally, each search vector is set along or parallel to the center axis of the path of interest, and it is desirable to set search vector setting conditions so as to approach the ideal.
[0012]
According to the present invention, a plurality of blood vessel cross-sections constituting a blood vessel cross-section row are arranged in a non-parallel relationship in response to the direction of the search vector being adaptively set in each blood vessel cross-section extraction process. (However, if the path of interest is perfectly straight, the cross sections of a plurality of blood vessels are aligned in parallel with each other.) At the time of the image processing, the spatial resolution may be improved by applying an interpolation process or the like to the blood vessel section row.
[0013]
The ultrasonic image processing device according to the present invention may be incorporated in the ultrasonic diagnostic device, or may be configured as a computer that processes data output from the ultrasonic diagnostic device. Further, each function or each means can be configured as hardware or can be realized by software.
[0014]
Preferably, the search processing means sequentially sets the search vector according to a traveling mode of the attention route. If each search vector is set according to the traveling mode of the attention route, the extraction accuracy of the blood vessel cross section can be improved.
[0015]
Preferably, the search processing means sequentially sets a reference plane for extracting a blood vessel cross section in the three-dimensional data space based on the search vector set sequentially.
[0016]
The reference plane corresponds to a search area for searching for a blood vessel cross section of the path of interest. It is desirable that such a search area be set as orthogonal to the route of interest as possible. Therefore, the search vector is used as the reference. By the way, in a branch portion or a part where a plurality of blood vessels are running in parallel, a plurality of blood vessel cross sections appear on the reference plane. Further, when the reference plane is configured as a cut surface of the entire vascular network without limiting the size, a large number of blood vessel cross sections appear on the reference plane. In such a case, it is desirable to specify a blood vessel cross section corresponding to the attention path from the connection relationship with the previous blood vessel cross section.
[0017]
Preferably, the search processing means includes a reference plane setting means for setting an i-th reference plane orthogonal to the i-th search vector, and a blood vessel cross-section extraction for extracting an i-th blood vessel cross-section on the i-th reference plane. Means, search plane setting means for setting an i-th search plane at a position parallel to the i-th reference plane and at a unit distance from the i-th search direction, and i-th search plane on the i-th search plane. A blood vessel portion extracting means for extracting an i-th blood vessel portion having an overlapping relationship with the i-th blood vessel cross-section, and determining an (i + 1) -th search vector based on a correlation between the i-th blood vessel cross-section and the i-th blood vessel portion Search vector determining means for performing the search.
[0018]
In the above, i = 1, 2, 3,..., That is, i corresponds to the number of times or the degree of progress of the blood vessel cross-section extraction processing. The i-th reference plane is set as a plane orthogonal to the i-th search vector, and the i-th blood vessel cross section is extracted on the i-th reference plane. On the other hand, the i-th search plane is set at a position parallel to the i-th reference plane and separated by a unit distance in the i-th search direction. Here, the reference plane and the search plane correspond to a search region for a blood vessel cross section and a blood vessel portion, respectively. However, the i-th search plane is positioned as a preliminary plane for preliminary investigation for setting the (i + 1) -th reference plane in a correct direction.
[0019]
That is, on the i-th search plane, the i-th blood vessel portion having an overlapping relationship with the i-th blood vessel cross section is extracted. The i-th blood vessel portion is recognized as a portion in front of the i-th blood vessel cross section and connected thereto. Therefore, the (i + 1) th search vector is determined based on the correlation between the i-th blood vessel cross section and the i-th blood vessel portion. For example, a line connecting a point (centroid, center point, etc.) representing the i-th blood vessel cross section to a point (centroid, center point) representing the i-th blood vessel portion is recognized as being close to the traveling direction of the attention route. , It is desirable to set the direction of the (i + 1) th search vector.
[0020]
In the above configuration, in addition to the reference plane, a plane called a search plane for forward preliminary investigation is used, and the angle of the next reference plane is optimized by using a search result on such a search plane. Can be. The unit distance is desirably constant in each section extraction process, but may be variably set according to various situations. If the unit distance is set to, for example, about one voxel size in the three-dimensional data space, a blood vessel of interest can be extracted with high resolution. The reference plane and the search plane may cover the entire three-dimensional data space, or may be a fixed finite area.
[0021]
Preferably, the blood vessel part extracting means performs a labeling process on the i-th search plane to obtain an i-th labeling image including one or a plurality of closed regions, and the i-th labeling. The i-th blood vessel cross-section is projected on an image to specify a closed area having the largest overlap area with respect to the i-th blood vessel cross-section, and the projected i-th blood vessel in the specified closed area. Projection processing means for extracting a portion overlapping with the cross section as the i-th blood vessel portion. According to this configuration, it is possible to easily recognize the blood vessel portion existing in front of the already extracted blood vessel cross section.
[0022]
Since the closed region having the largest overlap area is selected, the search can be automatically advanced to the thickest main blood vessel path when the front is bifurcated or branched into many. As a modified example, when a plurality of closed regions in a superimposed relationship are confirmed, a labeling image or the like at that time may be displayed, and the user may be left to select a search direction.
[0023]
Preferably, the search vector determining means calculates a center of gravity of the i-th blood vessel section, a means of calculating a center of gravity of the i-th blood vessel section, and calculates the i-th blood vessel section from the centroid of the i-th blood vessel section. Means for determining the (i + 1) th search vector, with the direction passing through the center of gravity of the blood vessel portion as the vector direction. According to this configuration, it is possible to roughly recognize the blood vessel running direction as a direction connecting the center of gravity of the blood vessel section and the center of gravity of the temporarily extracted blood vessel portion, that is, it is possible to set a search vector in that direction.
[0024]
Desirably, the (i + 1) th reference plane corresponds to a plane obtained by rotating the i-th search plane about a predetermined point on the plane as a rotation center. The predetermined point is the center of gravity or the center point of the i-th blood vessel portion.
[0025]
Preferably, a search start direction specifying means for specifying a search start direction is included, and a first search vector is determined based on the search origin and the search start direction. Preferably, the image processing apparatus further includes a reference image forming unit that forms a two-dimensional or three-dimensional reference image based on the three-dimensional data, and the search origin and the search start direction are specified by a user using the reference image. The reference image may be a three-dimensional image representing the three-dimensional space. However, if it is difficult to specify the inside of the three-dimensional space, the reference image may be displayed on a two-dimensional tomographic image obtained by cutting the three-dimensional space at an arbitrary position or a predetermined position. It is desirable to specify the search origin. In this case, an arbitrary cut plane may be set so as to include the center axis of the blood vessel part of interest, and a search origin and a search direction may be designated on an arbitrary tomographic image.
[0026]
The search may be started in both the forward and backward directions from the search origin. In that case, it is desirable to set the search termination condition for each direction.
[0027]
(2) Further, the present invention relates to an ultrasonic image processing apparatus for processing three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body, wherein the ultrasonic image processing apparatus is configured by the three-dimensional data. In the three-dimensional data space, search origin designating means for designating a search origin at a specific site in the blood vessel group, and a search vector is sequentially set from the search origin along a path of interest in the blood vessel group while setting a search vector. Search processing means for sequentially executing the extraction; a storage unit for storing a blood vessel cross-sectional row composed of a plurality of blood vessel cross-sections sequentially extracted along the path of interest; and a target path based on the blood vessel cross-sectional row. And an image forming means for forming an ultrasonic image including:
[0028]
According to the above configuration, the path of interest is extracted as a blood vessel cross-section row, and various ultrasonic images can be configured using the blood vessel cross-section row. The ultrasonic image may be a three-dimensional image of only the attention path, or may be a three-dimensional image in which the attention path has emerged from the background with high luminance or the attention path has emerged from the monochrome background by coloring. Good.
[0029]
Preferably, the ultrasonic image is a three-dimensional image expressing the attention path as a single stroke. By applying the three-dimensional labeling method, it is possible to extract all the areas connected to a certain point, but in such a case, all the blood vessels connected to the blood vessel of interest are similarly extracted, and as a result, observation of the blood vessel of interest May be inhibited. According to the present invention, for example, in a multi-branched blood vessel group, a single path from the search origin toward the trunk and a single path from the search origin toward the main terminal direction can be automatically extracted.
[0030]
Preferably, the ultrasound image is an image representing the three-dimensional space, and is a three-dimensional image in which the attention path is identified and represented. Preferably, a means for giving a larger weighting value to the data of the blood vessel cross-sectional row than other data in order to identify and represent the attention path is included. Thereby, the attention route can be emphasized.
[0031]
(3) The present invention also relates to an ultrasonic image processing apparatus for processing three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body, wherein the ultrasonic image processing device is configured by the three-dimensional data. In the three-dimensional data space, search origin designating means for designating a search origin at a specific site in the blood vessel group, and a search vector is sequentially set from the search origin along a path of interest in the blood vessel group while setting a search vector. It is characterized by including search processing means for sequentially executing extraction, and end determination means for judging the end of the blood vessel section extraction when a predetermined condition is satisfied.
[0032]
Examples of the termination determination condition include that the number of search progresses has reached a set value, that the search route length has reached a set value, that no further search can be performed, and the like.
[0033]
Preferably, an image processing range determining unit that determines a three-dimensional image processing range based on the search origin and the search position at the end determination time point, and performs a three-dimensional labeling process on the blood vessel group within the image processing range. Three-dimensional labeling means.
[0034]
Preferably, the three-dimensional labeling means performs a three-dimensional labeling process forward from the search origin within the image processing range, and a front three-dimensional labeling means for extracting a forward blood vessel branch satisfying a connection relationship from the search origin. And a rear three-dimensional labeling means for performing a three-dimensional labeling process backward from the search origin within the image processing range and extracting a rear blood vessel branch satisfying the connection relationship from the search origin.
[0035]
Preferably, the image forming apparatus further includes an image forming unit that forms a three-dimensional image representing at least one of the anterior vessel branch and the posterior vessel branch.
[0036]
Preferably, the image processing apparatus further includes an image forming unit that forms a three-dimensional image that represents the three-dimensional space and that identifies and expresses at least one of the anterior vessel branch and the posterior vessel branch.
[0037]
(4) The present invention also relates to a method for processing three-dimensional data obtained by transmitting and receiving an ultrasonic wave to and from a three-dimensional space in a living body, wherein the three-dimensional data space constituted by the three-dimensional data is provided. Within, a step of user-designating a search origin at a specific site in a blood vessel group, and sequentially performing a blood vessel cross-section extraction process while sequentially setting a search direction from the search origin to a trunk direction or a terminal direction of the blood vessel group. And thereby generating a blood vessel cross-sectional row composed of a plurality of blood vessel cross-sections.
[0038]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0039]
1 and 2 show examples of images formed by the search processing according to the present invention. Here, FIG. 1 shows a case where search processing is performed in the direction from the end to the trunk in the vascular network, and FIG. 2 shows a case where search processing is performed in the direction from the trunk to the end in the vascular network. .
[0040]
More specifically, FIG. 1A shows a three-dimensional image formed based on three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional region in a living body. ing. In this three-dimensional image, the vascular network 100 as a group of blood vessels constitutes a vascular system branched from the trunk to the end, and a vessel route of interest, that is, a route of interest is represented by reference numeral 102. A search start position 104 is set by the user as a search origin or the like at a specific portion of the attention route 102, and at the same time, a first search direction 106 indicating in which direction the search starts from the search start position 104 is set by the user. Is done.
[0041]
By repeatedly executing a search process described later, a limited extraction image of the attention route can be obtained as shown in FIG. That is, in the limited extraction image of the route, the target route 102 is represented as a three-dimensional image like a one-stroke stroke. Specifically, the route from the search start position 104 to the point that satisfies the predetermined end condition is one point. The book root is shown as a three-dimensional image. In this way, when the search direction is specified in the trunk direction by specifying the terminal portion, even if there is a branch in the middle, only one route is extracted from the specified terminal portion in the direction of the thick trunk and imaged. Becomes possible. Therefore, even when a plurality of branched blood vessels are intertwined with each other and dense, such as in a vascular network in the liver, only a specific blood vessel path is extracted or emphasized and displayed as a three-dimensional image. It is possible to do. Note that such blood vessel extraction can be applied to both arteries and veins. Blood vessels are thought to be essential for tumor tissue to grow. Therefore, the tumor can be killed by identifying and removing all blood vessels extending to the tumor tissue. In an ultrasonic diagnostic apparatus to be described later, all blood vessels extending from a tumor tissue can be displayed, and thus, displaying the blood vessels extending from a tumor can be used for various types of tumor treatment.
[0042]
The ultrasonic diagnostic apparatus of the present embodiment described later has a display mode shown in (C) described below in addition to the display mode shown in (B). That is, (C) shows all the extracted images ahead of the search direction within a certain range set according to the predetermined condition. That is, by performing the three-dimensional labeling process in the search direction 106 with the search start position 104 as a reference, a three-dimensional image as shown in (C) can be formed. In the three-dimensional image, all the blood vessel portions 108 connected to the attention path 102 including the attention path 102 are imaged. In the apparatus according to the present embodiment, the certain range is defined as a search processing result of the attention route 102 shown in FIG. This will be described in detail later.
[0043]
The ultrasonic diagnostic apparatus according to the present embodiment has the display mode shown in (B) and the display mode shown in (C) as described above, and further includes various display variations described later. ing.
[0044]
FIG. 2 shows an example of a case where the search is performed from the trunk to the distal end in the vascular network 100 as described above. (A) shows a three-dimensional image, and a user designates a search start position 104 as a search origin and the like and a first search direction 106 as in the case shown in FIG. Then, the search process is started along the attention path 110, and as a result, as shown in FIG. As shown in (B), the attention path 110 is shown in a one-stroke form as a three-dimensional image. In the present embodiment, as described later, when a blood vessel branches, a thick blood vessel, that is, a main blood vessel is route-selected, and as a result, an image as shown in FIG. As described above, according to such a one-stroke image, it is possible to clearly observe the attention path 110 without being obscured by other blood vessels.
[0045]
(C) shows all the extracted images in the predetermined range in the forward direction of the search direction. As shown in this example, all the connected blood vessel portions 112 including the attention path 110 are extracted, and are imaged. Have been.
[0046]
Note that FIG. 1 shows a search process from the end to the trunk, and FIG. 2 shows a search process from the trunk to the end. In an embodiment described later, these are achieved by the same processing process.
[0047]
Next, the search processing illustrated in FIG. 1 will be described more specifically with reference to FIGS. 3 to 8, and the search processing illustrated in FIG. 2 will be described more specifically with reference to FIGS. 9 to 14.
[0048]
In FIG. 3, a search origin SP0 and coordinates SP1 for designating a search direction are set by a user at a specific site in the vascular network. The upper limit LMAX of the search path length or the degree of progress is determined by the user or as a default setting. Here, the first search direction (search vector) 106 is defined as a direction passing through the coordinate point SP1 from the search origin SP0.
[0049]
When the input by the user as described above is completed, first, as shown in FIG. 4, the first blood vessel section S including the search origin SP0 is obtained. 1 Is extracted. The specific contents of the blood vessel cross-section extraction process in this case will be described in detail later. When such a blood vessel cross-section is extracted, setting of a reference plane and a search plane and setting of a search vector, which will be described later, are repeatedly performed.
[0050]
As shown in FIG. 5, when the above-described blood vessel cross-section extraction processing is repeatedly performed in the forward direction designated as the search direction, a blood vessel cross-section is extracted at each position, that is, a cross-section row 116 is obtained. The cross-section row 116 is constituted by a plurality of blood vessel cross-sections extracted as described above, and this corresponds to limited extraction data of the attention path. In FIG. 5, the blood vessel cross section first extracted is S 1 , And the blood vessel section extracted last by satisfying the termination condition is S m Indicated by That is, in this case, m blood vessel cross sections are extracted along the attention path. In this case, in extracting each blood vessel cross-section, processing is performed so that the connection condition between the blood vessel cross-sections is satisfied. For example, even if there is a branched portion, it is branched like a labeling process. The search process does not proceed to each route.
[0051]
Therefore, the limited extraction image of the attention route shown in FIG. 1 can be constructed as a three-dimensional image by using the cross-sectional row 116 shown in FIG.
[0052]
FIG. 6 shows coordinates SPm representing the blood vessel cross section extracted last. In the present embodiment, a length r connecting the search origin SP0 to the search end coordinate SPm by a linear distance is specified, and is defined as the radius of the image processing range 118. In the present embodiment, the image processing range 118 is defined by a sphere, but of course the present invention is not limited to such a shape. In the present embodiment, a three-dimensional labeling process described below can be executed in such an image processing range 118. Incidentally, although the image processing range 118 is a three-dimensional sphere, the image processing range 118 may be specified as a spherical surface, and the spherical surface may be determined as the limit of the image processing.
[0053]
FIG. 7 illustrates a case where the three-dimensional labeling process is performed from the search origin SP0 in a direction opposite to the search direction. Vessel cross section S which is separated by a unit distance from the reference cross section which is the first blood vessel cross section -1 All the blood vessel portions 120 that have a connection relationship from the end to the end direction are extracted. That is, reference numeral 120 indicates the rear whole extracted data. By the way, since the echo intensity becomes weaker toward the end, the three-dimensional labeling process ends at that limit.
[0054]
FIG. 8 shows a result in the case where the three-dimensional labeling process is performed forward from the search origin in the search direction. Reference numeral 122 indicates all the extracted data ahead, and in this case, the three-dimensional labeling process is executed only inside the image processing range 118.
[0055]
As described above, according to the method of the present embodiment, when the extraction of the attention route is completed, the image processing range is separately set from the positional relationship between the end point and the search origin at that time, and three-dimensional labeling is performed within the range. By performing the processing, it is possible to form the running states of all the blood vessels centering on the region of interest of the user as separate images. Incidentally, when the three-dimensional labeling result is represented as a three-dimensional image, at least one of the rear full extraction data 120 and the front full extraction data 122 shown in FIGS. 7 and 8 is displayed, and preferably both are combined. Is displayed as something.
[0056]
Next, FIGS. 9 to 14 will be described. FIGS. 9 to 14 basically correspond to the contents shown in FIGS. 3 to 8. When the search is performed in the direction from the trunk to the distal end in the blood vessel network, as shown in FIG. A long LMAX is defined. Then, the search is started in the direction from the search origin SP0 to the coordinate point SP1. That is, as shown in FIG. 10, first, the first blood vessel section S including the search origin 1 Is extracted, and thereafter, the blood vessel cross-section extraction process is repeatedly executed at each position along the attention path. Then, as shown in FIG. 11, a blood vessel cross-sectional row 116 is obtained.
[0057]
The distance r between the coordinates SPm at the time when the end condition is satisfied and the search origin SP0 is used as a radius defining the image processing range 118, and within the image processing range 118, as shown in FIG. , A three-dimensional labeling process is performed backward from the search origin, and as shown in FIG. 14, a three-dimensional labeling process is performed forward from the search origin. Here, the reference numeral 124 indicates the rear extracted data, and the reference numeral 126 indicates the front extracted data. The extracted data 124 and 126 are desirably integrated, and used as extracted data in the image processing range 118 to construct a three-dimensional image. Therefore, in the case shown in FIGS. 9 to 14, similarly to the case shown in FIGS. 3 to 8, both the three-dimensional image of the attention path and the three-dimensional image of the entire vicinity thereof are formed. Both can be displayed simultaneously or selectively according to the necessity for disease diagnosis or the like.
[0058]
Incidentally, although the three-dimensional labeling process itself may be a known method, in the present embodiment, the search result of the attention route is used as an image processing range, and the three-dimensional labeling process can be performed within the image processing range. It is different from the past.
[0059]
Next, a preferred embodiment of the ultrasonic diagnostic apparatus according to the present embodiment will be described with reference to FIG. This ultrasonic diagnostic apparatus executes the above-described three-dimensional data processing, and specifically includes an image processing unit 17 corresponding to an ultrasonic image processing apparatus. Of course, the image processing unit 17 can be constituted by a computer or the like provided separately from the ultrasonic diagnostic apparatus.
[0060]
The 3D probe 10 is an ultrasonic probe for capturing three-dimensional echo data that is used in contact with a body surface or inserted into a body cavity. The 3D probe 10 has a 2D array vibrator (not shown), and the 2D array vibrator has a large number of vibrating elements arranged in a matrix. The ultrasonic beam can be two-dimensionally electronically scanned by the 2D array transducer. As a result, a three-dimensional echo data acquisition space (three-dimensional space) V is formed. For example, when forming a three-dimensional image of the blood vessel network in the liver, the 3D probe 10 is brought into contact with the surface of the abdominal body, and the three-dimensional space V includes the target blood vessel or the blood vessel network. The posture and contact position of the probe 10 are adjusted.
[0061]
The transmission / reception unit 12 functions as a transmission beam former and a reception beam former. That is, the transmission / reception unit 12 supplies transmission signals to the plurality of vibration elements, and performs phasing addition processing on the plurality of reception signals output from the plurality of vibration elements.
[0062]
The signal processing unit 14 performs predetermined signal processing such as detection and logarithmic compression on the reception signal after the phasing addition output from the transmission / reception unit 12. In the present embodiment, the echo data is a target of image processing. However, it is a matter of course that Doppler information may be extracted for each voxel and the Doppler information may be subjected to three-dimensional image processing.
[0063]
The 3D memory 16 stores echo data captured in a three-dimensional space. In this case, necessary coordinate conversion, interpolation processing, and the like are performed. Therefore, three-dimensional data is stored in the 3D memory 16, and the three-dimensional data forms a three-dimensional data space. The stored three-dimensional data is output to the display processing unit 18 for normal three-dimensional image processing. In the present embodiment, image processing is performed to apply the above-described image processing unique to the present embodiment. It is output to the unit 17.
[0064]
The display processing unit 18 applies a known rendering process to the three-dimensional data, thereby constructing a three-dimensional ultrasound image. In this case, various rendering methods can be used, and for example, a volume rendering method may be used. The display unit 20 displays an image processed by the display processing unit 18.
[0065]
The control unit 24 controls the operation of each component included in the apparatus. The input unit 22 including an operation panel is connected to the control unit 24. The control unit 24 also controls the operation of each component included in the image processing unit 17. Is output.
[0066]
Next, a specific configuration of the image processing unit 17 will be described in detail. The binarization processing unit 26 is a circuit that performs a binarization process on the three-dimensional data stored in the 3D memory 16. That is, a binarization process is performed to distinguish the blood flow data from the real tissue data. Since blood flow data generally has a smaller value than real tissue data, for example, 1 is assigned to such small data, and 0 is assigned to other data. It is possible to construct a data space to which 1 is given only for the blood flow portion in the original data space. The data after the binarization processing is output to the binarization data processing unit 28.
[0067]
The binarized data processing unit 28 includes a search processing unit 30 and a 3D labeling unit 32 in the present embodiment. Of course, in addition to such functions, various functions are provided, which will be described later with reference to FIG. The search processing unit 30 is a processing unit that extracts a blood vessel cross section at each position along the route of interest. The 3D labeling unit 32 is a processing unit that performs a three-dimensional labeling process within an image processing range.
[0068]
To this binarized data processing unit 28, three 3D memories 34, 36, 38 are connected. Of course, the 3D memories 34, 36, 38 may be constituted by a single storage device. The 3D memory 34 stores data corresponding to the blood vessel cross-sectional row extracted by the search processing, that is, limited extraction data of the attention path. The 3D memory 36 stores all extracted data in the forward direction, which is labeling data obtained by performing three-dimensional labeling processing forward from the search origin. The 3D memory 38 stores data obtained by performing the labeling process in the backward direction from the search origin, that is, all the extracted data in the backward direction.
[0069]
The selection / synthesis processing unit 40 appropriately selects or combines the extracted data stored in each of the 3D memories 34, 36, and 38, and outputs the processing result to the display processing unit 18. For example, when forming a limited extraction image of the attention path, only the extraction data output from the 3D memory 34 is output to the display processing unit 18. When the result of the three-dimensional labeling process is used as a three-dimensional image, the extracted data output from each of the 3D memories 36 and 38 is combined and output to the display processing unit 18. In this case, either one of the forwardly extracted data and the backwardly extracted data may be selected.
[0070]
FIG. 16 illustrates an example of a main configuration of the display processing unit 18 illustrated in FIG. Data sequentially read from the 3D memory 16 is input to one input terminal of the multiplier 44. On the other hand, the coefficient w1 or w2 output from the coefficient selector 42 is input to the other input terminal of the multiplier 44.
[0071]
Output data from the selection / synthesis processing unit 40 shown in FIG. 15, that is, extracted data, is input to the coefficient selector 42. Describing the extracted data, values extracted by the above-described blood vessel cross-section extraction processing or three-dimensional labeling processing have a value of 1 and other values have a value of 0. The coefficient selector 42 outputs the coefficient w1 when the value 1 is input as the extraction data, and outputs the coefficient w2 when the value 0 is input as the extraction data. Here, w1 is, for example, 1.0 and w2 is, for example, 0.5. The coefficients w1 and w2 function as weighting values. That is, by giving a large weight to the data extracted by the above-described extraction processing, it becomes possible to express the extracted portion in the three-dimensional image with high brightness. Of course, the portion may be colored, for example, to make it stand out from other real tissues or blood vessels.
[0072]
Therefore, in the multiplier 44, data sequentially output from the 3D memory 16 is weighted, and the weighted data is input to the rendering unit 46. The rendering unit 46 performs three-dimensional image processing based on, for example, the volume rendering method as described above. Various methods can be used to display the extracted blood vessel. The extracted blood vessel part is displayed in a specific color, and the other blood vessel parts are displayed in another color. The real organization may be represented as a black and white image. Alternatively, by providing the output of the binarization processing unit 26 to the multiplier 44, when displaying only a blood vessel as a three-dimensional image, a specific blood vessel part may be expressed with high brightness.
[0073]
By the way, in the multiplier 44, the control unit 24 controls the reading of the 3D memories 16, 34, 36, and 38 in order to correctly assign a corresponding coefficient to certain data.
[0074]
Next, a specific operation example of the device described above with reference to FIG. 17 will be described with reference to FIGS. FIG. 17 is a flowchart showing an operation example of the apparatus.
[0075]
In S101, the coordinate origin SP0 and the coordinate point SP1 are specified by the user, and the parameter LMAX as the maximum number of steps is specified by the user. This maximum number of steps is one of the search termination conditions. Of course, the search end condition can be specified not as the maximum number of steps but as a search path length or the like.
[0076]
When two coordinates are specified in S101, for example, a method as shown in FIGS. 18 and 19 can be used. That is, FIG. 18 shows a three-dimensional image 130 displayed on the display unit. The three-dimensional image 130 is obtained by imaging a three-dimensional region in a living body. A blood vessel network 132 exists in the three-dimensional area, and when it is desired to perform limited extraction on a specific path, that is, a path of interest 134, a cursor or the like is used in the three-dimensional space as shown in this example. An arbitrary cutting plane 136 is set by the user. That is, the arbitrary cut plane 136 is a plane that crosses a part of the attention path 134 that specifies the search origin and the like.
[0077]
FIG. 19 shows an arbitrary tomographic image 138 corresponding to the arbitrary cut plane 136. Here, reference numerals 140, 142, and 144 are cross sections of the blood vessel that appear when an arbitrary cut surface crosses the blood vessel network. Here, the cross section of the blood vessel corresponding to the path of interest is indicated by reference numeral 142, and the user sets the search origin SP0 and the coordinate point SP1 on the blood vessel cross section 142 on such an arbitrary tomographic image 138. , The initial conditions of the search can be specified specifically and easily. Of course, the initial conditions may be set using, for example, a triplane or the three-dimensional image itself without using such an arbitrary tomographic image. However, using such an arbitrary tomographic image has the advantage that the attention route can be specified more easily and accurately.
[0078]
Returning to FIG. 17, in S102, the first search direction U is determined from SP0 and SP1 set as described above. 1 Is calculated. That is, the search direction U as the first search vector as a direction from SP0 to SP1 1 Is required. Also, the first search direction U from the search origin 1 The coordinates SPA existing in the opposite direction are calculated.
[0079]
This will be described with reference to FIG. As described above, the first search vector U is placed on the line 146 connecting the search origin SP0 and the coordinate point SP1. 1 Is calculated. Further, the coordinate point SPA is automatically specified as a point on the line 146 that is away from the search origin SP0 by a certain distance in the reverse direction. Here, the fixed distance may be an arbitrary distance, but the unit distance is set to 1 here. By the way, the reference plane Q 1 And search plane R 1 Is also 1 as a unit distance. This 1 corresponds to, for example, the size of one voxel data. Note that reference numeral 134 represents a path of interest, that is, a blood vessel of interest. In FIG. 20, 1 is given as a subscript of each mechanism. However, in the general description below, the subscript uses i, and i corresponds to the number of search processes. . Here, the time when i = 1 corresponds to the first search processing.
[0080]
Returning to FIG. 17, in S103, 0 is substituted for the parameter L and the parameter P representing the reference point is set. i Is substituted for the coordinates of SP0, and 1 is substituted for the parameter i.
[0081]
In S104, the reference plane Q i Is set. Specifically, as shown in FIG. i And the search direction, ie, the search vector U i Is a reference plane Q i Is defined as This reference plane Q i The above data is read from the three-dimensional data space, and is stored in a storage area existing in the binarized data processing unit 28.
[0082]
In FIG. 17, in S105, the search plane R i Is set. That is, as shown in FIG. i From the search direction U i A plane separated by a distance 1 in the direction of i Search plane R as a plane parallel to i Is set. This search plane R i Is to roughly grasp the connection relationship of the blood vessel cross sections as preprocessing for actually extracting the blood vessel cross sections, and as a result, appropriately set the next search vector. In this S105, the search plane R is searched from within the three-dimensional data space. i The above data is read and stored in a storage area existing in the binarized data processing unit 28.
[0083]
Note that the above-described reference plane Q i And search plane R i May be defined as a plane over the entire area of the three-dimensional data space, or the search vector U i It may be defined as a certain finite area centered on the like. According to such a configuration, there is an advantage that the calculation time can be reduced.
[0084]
In S106 in FIG. 17, the reference plane Q extracted as described above i The above data and search plane R i A labeling process is performed on each of the above data, and the resulting labeling image (label image) is stored. Here, the labeling process is a two-dimensional labeling process, which is different from the three-dimensional labeling process performed by the 3D labeling unit 32 illustrated in FIG. That is, it corresponds to the labeling processing on each plane, in other words, the blood part extraction processing. Incidentally, FIG. 23 shows the search plane R i Are shown, and a label as an identification symbol is given to each of the areas A1 and A2. Note that reference numeral 150 represents the reference cross section S. i Are projected (described later).
[0085]
FIG. 22 shows the result of labeling processing performed on data on each plane. As is well known, in the labeling process, a label, that is, a number for identifying each isolated region, that is, each closed region is assigned. Here, the reference plane Q i Above, only one region is extracted, while the search plane R i In the above, two regions A1 and A2 are extracted.
[0086]
In FIG. 17, in S107, the reference plane Q i From the labeling image of FIG. 5, the region including the reference point Pi, that is, the region connected to the reference point P i Is extracted as This is shown in FIG. This reference section S i Is the reference section Q i It is a blood vessel section of the attention path extracted above. The blood vessel cross section thus extracted, that is, the reference cross section S i Data is saved. Then, in S108 in FIG. 17, the reference section S i Is calculated for the center of gravity Gi. It is shown in FIG.
[0087]
Then, at S109 in FIG. i Is output to the 3D memory 34 shown in FIG. 15 as the searched blood vessel section data.
[0088]
In S110 in FIG. 17, the search plane R i Of the reference section S in the labeling image i The largest overlapping part with is extracted. This will be described with reference to FIG. As described above, the search plane R i At the top of this example, there are two extraction areas A1 and A2, and it is not clear which of them corresponds to the target route to be searched in the future. Therefore, in the present embodiment, the search plane R i Up reference plane Q i Upper reference section S i Is projected, and the connection relationship of the blood vessel cross-section, that is, the running direction of the blood vessel is grasped by recognizing the overlapping portion generated by such projection.
[0089]
Reference numeral 150 in FIG. i Is shown, where the area 150 extends over both of the two areas A1 and A2, and the larger or larger overlapping portion of the respective areas A1 and A2 is denoted by reference numeral 152. The overlap shown. Here, the overlapping portion 152 is hatched in FIG.
[0090]
In FIG. 17, it is determined in S111 whether such an overlapping portion exists, and if so, it is determined in S112 whether the parameter L has reached MAX, that is, the termination condition is determined, If it is determined that L has not reached LMAX, the steps after S113 are executed. That is, in S113, the center of gravity of the overlapping portion 152 shown in FIG. i Is calculated as Next, in S114, the reference section S i Center of gravity G i From the temporary center of gravity K i Search direction U as the direction connecting i + 1 Is determined.
[0091]
The step S114 will be described in detail with reference to FIG. 21. As described above, the reference plane Q i To the search plane R i Is set, and the relationship between the two is determined by the search vector U. i Defined by On the other hand, the search plane Q i Above is the reference section S i Is extracted, its center of gravity G i Is calculated. Also, the search plane R i In the above, the overlapping portion is specified by the above-described process, and the center of gravity K i Is specified. And the center of gravity G i From the temporary center of gravity K i Search vector U as the next search direction as the direction passing through i + 1 Is determined. Search vector U in that case i + 1 Is the temporary center of gravity Ki, which is the reference point P in the next cross-section extraction process. i + 1 Is the same as Then, in the next blood vessel section extraction processing, the search vector U i + 1 New reference plane Q i + 1 Is set, and the reference plane Q i + 1 New reference section S i + 1 Is extracted.
[0092]
Accordingly, as can be understood from such a series of flows, the search direction is sequentially reset as much as possible along the direction of the central axis according to the traveling state of the attention route 134, and at the same time, The direction of the plane is also sequentially reset so as to be as orthogonal to the center line of the attention path 134 as possible.
[0093]
In performing a series of processes as described above, in S115 shown in FIG. 17, the parameter L is incremented by one, and the parameter P representing the reference point is increased. i Temporary center of gravity K i And i is incremented by one. Then, each process after S104 is repeatedly executed.
[0094]
FIG. 24 conceptually shows the result of the blood vessel cross-section extraction processing in a plurality of stages. Here, the direction from the blood vessel portion 140 to 141 is the path of interest, but the blood vessel portion 140 is connected to 141. The other blood vessel portion 142 is also connected to the portion where the blood vessel is located. In FIG. 24, S 1 ~ S 5 Represents a blood vessel cross section at each position extracted by the respective blood vessel cross section processing, and R 1 ~ R 5 Represents a search plane set in each blood vessel cross-section extraction process. G 1 ~ G 5 Represents the center of gravity calculated for the reference section in each blood vessel section extraction process. 1 ~ K 5 Indicates the temporary center of gravity calculated on the search plane in each blood vessel cross-section extraction process. As shown in FIG. 24, even if the blood vessel cross section suddenly increases at the junction, (S 4 Then, the direction of section extraction is optimized along the running direction of the blood vessel, and the processing can proceed without losing sight of the search direction even at such a merging or branching point. As shown in FIG. 22, the identification of the overlapping portion 152 and the provisional center of gravity K i According to the above calculation, it is possible to extract a blood vessel cross-section along the path of interest even when the confluence portion and the branch portion as described above exist, especially when searching from the trunk to the terminal portion. Even if there is a branch, there is an advantage that the search can be automatically advanced in the direction of the thickest blood vessel portion by specifying the largest overlapping portion on the search plane.
[0095]
Returning to FIG. 17, if it is determined in S111 that there is no overlapping portion, or if it is determined in S112 that the parameter L has reached LMAX, the steps after S116 are executed. In this S116, as shown in FIGS. 6 and 12, the center of gravity Gi of the reference section at the end of the search is specified as the coordinate E at the end of the search. In S117, as shown in FIGS. , The image processing range 118 is determined. In this case, the image processing range 118 may be defined as a sphere region or a sphere surface region.
[0096]
In S118, forward or backward three-dimensional labeling processing as shown in FIGS. 7 and 8 and FIGS. 13 and 14 is performed, and the respective extracted data are stored in the 3D memories 36 and 38 shown in FIG. Is stored.
[0097]
In the above embodiment, in determining the search vector, for example, the center or the center of the region may be used without using the center of gravity. In calculating the temporary center of gravity, the center of gravity of the area A1 including the overlapping portion 152 may be used as the temporary center of gravity instead of obtaining the center of gravity of the overlapping portion 152 shown in FIG.
[0098]
In the above-described embodiment, the three-dimensional labeling process can be executed after the extraction of the cross section of the attention path is completed. However, as a modified example, the image processing range is set independently by a user or the like, and the range is set. The three-dimensional labeling process can also be performed within. However, according to the above-described embodiment, when the two images are compared and observed, since the attention path to be extracted and the entire blood vessel extracted by the three-dimensional labeling process belong to the same region. There is an advantage that the correspondence can be recognized more accurately.
[0099]
【The invention's effect】
As described above, according to the present invention, there is an advantage that blood vessels having various forms can be appropriately extracted. Further, according to the present invention, an image useful for blood vessel diagnosis can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing a limited extracted image of a route of interest and an all-extracted image ahead of a search direction within a certain range when a search start position is specified for an end in a blood vessel network.
FIG. 2 is a diagram illustrating a limited extracted image of a target route and an all-extracted image ahead of a search direction within a certain range when a search start position is designated for a trunk in a vascular network.
FIG. 3 is a diagram for describing designation of a coordinate point when a search is performed from a terminal side;
FIG. 4 is a diagram showing a first blood vessel cross section when a search is performed from the distal end side.
FIG. 5 is a diagram showing a cross-sectional row obtained by performing a search from the terminal side.
FIG. 6 is a diagram illustrating an image processing range.
FIG. 7 is a diagram showing all extracted data at the rear obtained by a three-dimensional labeling process.
FIG. 8 is a diagram showing all front extracted data obtained by a three-dimensional labeling process.
FIG. 9 is a diagram showing designation of coordinates when a search is performed from the trunk side.
FIG. 10 is a diagram showing a first blood vessel cross section when a search is performed from the trunk side.
FIG. 11 is a diagram showing a cross-sectional row obtained by performing a search from the trunk side.
FIG. 12 is a diagram illustrating an image processing range.
FIG. 13 is a diagram illustrating all rear extraction data obtained by a three-dimensional labeling process.
FIG. 14 is a diagram showing all front extracted data obtained by a three-dimensional labeling process.
FIG. 15 is a block diagram showing a preferred embodiment of the ultrasonic diagnostic apparatus according to the present embodiment.
16 is a block diagram illustrating a specific configuration example of a display processing unit illustrated in FIG.
17 is a flowchart showing an operation example of the ultrasonic diagnostic apparatus shown in FIG.
FIG. 18 is a diagram showing a three-dimensional image representing a three-dimensional space.
FIG. 19 is a diagram showing an arbitrary tomographic image corresponding to an arbitrary cutting plane set for a three-dimensional space.
FIG. 20 is a diagram for describing search origin and designation of a search direction.
FIG. 21 is a diagram for explaining a positional relationship between a reference plane and a search plane.
FIG. 22 is a diagram showing a state in which a reference section on the reference plane is projected on a search plane.
FIG. 23 is a diagram illustrating a result of a two-dimensional labeling process performed on a search section.
FIG. 24 is a diagram showing a result of each blood vessel cross-section extraction process executed along the attention path.
[Explanation of symbols]
10 3D probe, 12 transmitting / receiving unit, 14 signal processing unit, 16 3D memory, 17 image processing unit, 18 display processing unit, 20 display unit, 24 control unit, 26 binarization processing unit, 28 binarization data processing unit, 30 search processing unit, 32 3D labeling unit, 34, 36, 38 3D memory, 40 selection / synthesis processing unit, 100 vascular network, 104 search start position, 106 search direction, 118 image processing range.

Claims (19)

生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する超音波画像処理装置において、
前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点を指定する探索原点指定手段と、
前記探索原点から前記血管群における注目経路に沿って、探索ベクトルを逐次的に設定しつつ血管断面の抽出を逐次的に実行する探索処理手段と、
を含み、
前記探索処理手段は、前記注目経路に沿って逐次的に抽出された複数の血管断面からなる血管断面列を生成することを特徴とする超音波画像処理装置。
In an ultrasonic image processing device that processes three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body,
In a three-dimensional data space configured by the three-dimensional data, search origin specifying means for specifying a search origin for a specific site in the blood vessel group,
Search processing means for sequentially executing the extraction of a blood vessel cross-section while sequentially setting a search vector from the search origin along the path of interest in the blood vessel group,
Including
The ultrasound image processing apparatus, wherein the search processing means generates a blood vessel cross-section row including a plurality of blood vessel cross sections sequentially extracted along the attention path.
請求項1記載の装置において、
前記探索処理手段は、前記注目経路の走行形態に応じて前記探索ベクトルを逐次的に設定することを特徴とする超音波画像処理装置。
The device of claim 1,
The ultrasonic image processing apparatus, wherein the search processing unit sequentially sets the search vector according to a traveling mode of the attention route.
請求項2記載の装置において、
前記探索処理手段は、前記逐次的に設定される探索ベクトルを基準として、前記三次元データ空間内に血管断面を抽出するための基準平面を逐次的に設定することを特徴とする超音波画像処理装置。
The device according to claim 2,
Ultrasound image processing, wherein the search processing means sequentially sets a reference plane for extracting a blood vessel cross section in the three-dimensional data space based on the sequentially set search vector. apparatus.
請求項1記載の装置において、
前記探索処理手段は、
i番目の探索ベクトルと直交するi番目の基準平面を設定する基準平面設定手段と、
前記i番目の基準平面上でi番目の血管断面を抽出する血管断面抽出手段と、前記i番目の基準平面と平行で且つ前記i番目の探索方向に単位距離離れた位置にi番目の探索平面を設定する探索平面設定手段と、
前記i番目の探索平面上で前記i番目の血管断面と重合関係にあるi番目の血管部分を抽出する血管部分抽出手段と、
前記i番目の血管断面と前記i番目の血管部分との相互関係に基づいてi+1番目の探索ベクトルを決定する探索ベクトル決定手段と、
を含むことを特徴とする超音波画像処理装置。
The device of claim 1,
The search processing means,
reference plane setting means for setting an i-th reference plane orthogonal to the i-th search vector;
A blood vessel section extracting means for extracting an i-th blood vessel cross section on the i-th reference plane; and an i-th search plane at a position parallel to the i-th reference plane and a unit distance away in the i-th search direction. Search plane setting means for setting
A blood vessel portion extracting means for extracting an i-th blood vessel portion having an overlapping relationship with the i-th blood vessel cross section on the i-th search plane;
Search vector determining means for determining an (i + 1) th search vector based on a correlation between the i-th blood vessel cross section and the i-th blood vessel portion;
An ultrasonic image processing apparatus comprising:
請求項4記載の装置において、
前記血管部分抽出手段は、
前記i番目の探索平面上でラベリング処理を行って、1又は複数の閉領域を含むi番目のラベリング画像を得る二次元ラベリング手段と、
前記i番目のラベリング画像に前記i番目の血管断面を投影して、前記i番目の血管断面に対して最も重合面積が大きい閉領域を特定し、その特定された閉領域の中で前記投影されたi番目の血管断面と重合する部分を前記i番目の血管部分として抽出する投影処理手段と、
を含むことを特徴とする超音波画像処理装置。
The device according to claim 4,
The blood vessel portion extraction means,
Two-dimensional labeling means for performing a labeling process on the i-th search plane to obtain an i-th labeling image including one or more closed regions;
Projecting the i-th blood vessel cross-section onto the i-th labeling image to identify a closed region having the largest overlap area with respect to the i-th blood vessel cross-section; Projection processing means for extracting a portion overlapping with the i-th blood vessel cross section as the i-th blood vessel portion;
An ultrasonic image processing apparatus comprising:
請求項4記載の装置において、
前記探索ベクトル決定手段は、
前記i番目の血管断面の重心を演算する手段と、
前記i番目の血管部分の重心を演算する手段と、
前記i番目の血管断面の重心から前記i番目の血管部分の重心を通過する方向をベクトル方向として、前記i+1番目の探索ベクトルを決定する手段と、
を含むことを特徴とする超音波画像処理装置。
The device according to claim 4,
The search vector determining means includes:
Means for calculating the center of gravity of the i-th blood vessel section;
Means for calculating the center of gravity of the i-th blood vessel portion;
Means for determining the (i + 1) -th search vector, with a direction passing from the center of gravity of the i-th blood vessel cross-section to the center of gravity of the i-th blood vessel portion as the vector direction
An ultrasonic image processing apparatus comprising:
請求項4記載の装置において、
i+1番目の基準平面は、i番目の探索平面をその平面上の所定点を回転中心として回転させた平面に相当することを特徴とする超音波画像処理装置。
The device according to claim 4,
An ultrasonic image processing apparatus, wherein the (i + 1) th reference plane corresponds to a plane obtained by rotating the i-th search plane about a predetermined point on the plane as a rotation center.
請求項1記載の装置において、
探索開始方向を指定する探索開始方向指定手段を含み、
前記探索原点と前記探索開始方向とに基づいて最初の探索ベクトルが決定されることを特徴とする超音波画像処理装置。
The device of claim 1,
A search start direction specifying means for specifying a search start direction;
An ultrasonic image processing apparatus, wherein an initial search vector is determined based on the search origin and the search start direction.
請求項8記載の装置において、
前記三次元データに基づいて二次元又は三次元の参照画像を形成する参照画像形成手段を含み、
前記探索原点及び前記探索開始方向は、前記参照画像を用いてユーザー指定されることを特徴とする超音波画像処理装置。
The device according to claim 8,
Including reference image forming means for forming a two-dimensional or three-dimensional reference image based on the three-dimensional data,
The ultrasound image processing apparatus, wherein the search origin and the search start direction are designated by a user using the reference image.
生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する超音波画像処理装置において、
前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点を指定する探索原点指定手段と、
前記探索原点から前記血管群における注目経路に沿って、探索ベクトルを逐次的に設定しつつ血管断面の抽出を逐次的に実行する探索処理手段と、
前記注目経路に沿って逐次的に抽出された複数の血管断面からなる血管断面列が格納される記憶部と、
前記血管断面列に基づいて注目経路を含む超音波画像を形成する画像形成手段と、
を含むことを特徴とする超音波画像処理装置。
In an ultrasonic image processing device that processes three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body,
In a three-dimensional data space configured by the three-dimensional data, search origin specifying means for specifying a search origin for a specific site in the blood vessel group,
Search processing means for sequentially executing the extraction of a blood vessel cross-section while sequentially setting a search vector from the search origin along the path of interest in the blood vessel group,
A storage unit that stores a blood vessel cross-sectional row including a plurality of blood vessel cross-sections sequentially extracted along the noted route,
Image forming means for forming an ultrasonic image including a path of interest based on the blood vessel cross-sectional row,
An ultrasonic image processing apparatus comprising:
請求項10記載の装置において、
前記超音波画像は、前記注目経路を一筆書きのように表現した三次元画像であることを特徴とする超音波画像処理装置。
The device according to claim 10,
The ultrasonic image processing apparatus according to claim 1, wherein the ultrasonic image is a three-dimensional image expressing the attention path as a single stroke.
請求項10記載の装置において、
前記超音波画像は、前記三次元空間を表す画像であって前記注目経路が識別表現された三次元画像であることを特徴とする超音波画像処理装置。
The device according to claim 10,
The ultrasound image processing apparatus, wherein the ultrasound image is an image representing the three-dimensional space, and is a three-dimensional image in which the attention path is identified and represented.
請求項11記載の装置において、
前記注目経路を識別表現するために、前記血管断面列のデータに対して他のデータよりも大きな重み付け値を与える手段を含むことを特徴とする超音波画像処理装置。
The apparatus according to claim 11,
An ultrasonic image processing apparatus, comprising: means for giving a larger weighting value to the data of the blood vessel cross-sectional row than other data in order to identify and express the path of interest.
生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する超音波画像処理装置において、
前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点を指定する探索原点指定手段と、
前記探索原点から前記血管群における注目経路に沿って、探索ベクトルを逐次的に再設定しつつ血管断面の抽出を逐次的に実行する探索処理手段と、
所定条件が満たされた場合に前記血管断面の抽出の終了を判定する終了判定手段と、
を含むことを特徴とする超音波画像処理装置。
In an ultrasonic image processing device that processes three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body,
In a three-dimensional data space configured by the three-dimensional data, search origin specifying means for specifying a search origin for a specific site in the blood vessel group,
Search processing means for sequentially executing the extraction of the blood vessel cross-section while sequentially resetting the search vector from the search origin along the path of interest in the blood vessel group,
End determination means for determining the end of the blood vessel cross-section extraction when a predetermined condition is satisfied,
An ultrasonic image processing apparatus comprising:
請求項14記載の装置において、
前記探索原点と前記終了判定時点の探索位置とを基準として三次元の画像処理範囲を決定する画像処理範囲決定手段と、
前記画像処理範囲内において前記血管群に対する三次元ラベリング処理を行う三次元ラベリング手段と、
を含むことを特徴とする超音波画像処理装置。
The apparatus according to claim 14,
Image processing range determining means for determining a three-dimensional image processing range based on the search origin and the search position at the end determination time,
Three-dimensional labeling means for performing three-dimensional labeling processing on the blood vessel group within the image processing range,
An ultrasonic image processing apparatus comprising:
請求項15記載の装置において、
前記三次元ラベリング手段は、
前記画像処理範囲内において前記探索原点から前方へ三次元ラベリング処理を行って、前記探索原点から繋がり関係を満たす前方血管枝を抽出する前方三次元ラベリング手段と、
前記画像処理範囲内において前記探索原点から後方へ三次元ラベリング処理を行って、前記探索原点から繋がり関係を満たす後方血管枝を抽出する後方三次元ラベリング手段と、
を含むことを特徴とする超音波画像処理装置。
The apparatus of claim 15,
The three-dimensional labeling means,
Forward three-dimensional labeling means for performing three-dimensional labeling processing forward from the search origin within the image processing range, and extracting forward blood vessel branches satisfying the connection relationship from the search origin,
A rear three-dimensional labeling unit that performs three-dimensional labeling processing backward from the search origin within the image processing range, and extracts a rear blood vessel branch satisfying a connection relationship from the search origin,
An ultrasonic image processing apparatus comprising:
請求項16記載の装置において、
前記前方血管枝及び前記後方血管枝の少なくとも一方を表した三次元画像を形成する画像形成手段を含むことを特徴とする超音波画像処理装置。
The apparatus of claim 16,
An ultrasonic image processing apparatus comprising: an image forming unit that forms a three-dimensional image representing at least one of the anterior vessel branch and the posterior vessel branch.
請求項16記載の装置において、
前記三次元空間を表す画像であって前記前方血管枝及び前記後方血管枝の少なくとも一方を識別表現した三次元画像を形成する画像形成手段を含むことを特徴とする超音波画像処理装置。
The apparatus of claim 16,
An ultrasonic image processing apparatus, comprising: an image forming unit that forms an image representing the three-dimensional space and that identifies and represents at least one of the anterior vessel branch and the posterior vessel branch.
生体内の三次元空間に対して超音波を送受波することによって得られた三次元データを処理する方法において、
前記三次元データによって構成される三次元データ空間内において、血管群における特定部位に探索原点をユーザー指定させる工程と、
前記探索原点から前記血管群の幹方向又は末端方向へ、探索方向を逐次的に設定しつつ血管断面抽出処理を逐次的に実行し、これにより複数の血管断面からなる血管断面列を生成する工程と、
を含むことを特徴とする三次元データ処理方法。
In a method of processing three-dimensional data obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body,
In the three-dimensional data space configured by the three-dimensional data, a step of allowing the user to specify a search origin at a specific site in the blood vessel group,
A step of sequentially performing a blood vessel cross-section extraction process while sequentially setting a search direction from the search origin to a trunk direction or a distal direction of the blood vessel group, thereby generating a blood vessel cross-sectional row including a plurality of blood vessel cross-sections. When,
A three-dimensional data processing method comprising:
JP2003149855A 2003-05-27 2003-05-27 Ultrasonic image processing apparatus and three-dimensional data processing method Expired - Fee Related JP4109575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003149855A JP4109575B2 (en) 2003-05-27 2003-05-27 Ultrasonic image processing apparatus and three-dimensional data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003149855A JP4109575B2 (en) 2003-05-27 2003-05-27 Ultrasonic image processing apparatus and three-dimensional data processing method

Publications (2)

Publication Number Publication Date
JP2004350791A true JP2004350791A (en) 2004-12-16
JP4109575B2 JP4109575B2 (en) 2008-07-02

Family

ID=34045840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003149855A Expired - Fee Related JP4109575B2 (en) 2003-05-27 2003-05-27 Ultrasonic image processing apparatus and three-dimensional data processing method

Country Status (1)

Country Link
JP (1) JP4109575B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042969A (en) * 2004-08-02 2006-02-16 Hitachi Medical Corp Medical image displaying device
JP2006212164A (en) * 2005-02-03 2006-08-17 Toshiba Corp Ultrasonic diagnostic apparatus
WO2007129616A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Insertion assist system of endoscope and insertion assist method of endoscope
JP2008229342A (en) * 2007-03-20 2008-10-02 Medison Co Ltd Ultrasound system and method for forming ultrasound image
JP2009056238A (en) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp Endoscope apparatus
JP2012511380A (en) * 2008-12-10 2012-05-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Blood vessel analysis
WO2013105197A1 (en) * 2012-01-10 2013-07-18 パナソニック株式会社 Ultrasonic diagnosis device, and blood vessel detection method
JP2014004149A (en) * 2012-06-25 2014-01-16 Toshiba Corp Ultrasonic diagnostic equipment and ultrasonic diagnostic equipment control program
JP2016057063A (en) * 2014-09-05 2016-04-21 公益財団法人鉄道総合技術研究所 Non-contact detecting method for measurement objects, and apparatus for the same
JP2017532146A (en) * 2014-10-30 2017-11-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasonic visualization of curved structures

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4503389B2 (en) * 2004-08-02 2010-07-14 株式会社日立メディコ Medical image display device
JP2006042969A (en) * 2004-08-02 2006-02-16 Hitachi Medical Corp Medical image displaying device
JP2006212164A (en) * 2005-02-03 2006-08-17 Toshiba Corp Ultrasonic diagnostic apparatus
JP4634814B2 (en) * 2005-02-03 2011-02-16 株式会社東芝 Ultrasonic diagnostic equipment
US8509877B2 (en) 2006-05-02 2013-08-13 Olympus Medical Systems Corp. Endoscope insertion support system and endoscope insertion support method
WO2007129616A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Insertion assist system of endoscope and insertion assist method of endoscope
JP4822142B2 (en) * 2006-05-02 2011-11-24 国立大学法人名古屋大学 Endoscope insertion support system and endoscope insertion support method
JP2008229342A (en) * 2007-03-20 2008-10-02 Medison Co Ltd Ultrasound system and method for forming ultrasound image
JP2009056238A (en) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp Endoscope apparatus
JP2012511380A (en) * 2008-12-10 2012-05-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Blood vessel analysis
WO2013105197A1 (en) * 2012-01-10 2013-07-18 パナソニック株式会社 Ultrasonic diagnosis device, and blood vessel detection method
JPWO2013105197A1 (en) * 2012-01-10 2015-05-11 コニカミノルタ株式会社 Ultrasound diagnostic apparatus and blood vessel identification method
EP2803321A4 (en) * 2012-01-10 2015-11-25 Konica Minolta Inc Ultrasonic diagnosis device, and blood vessel detection method
US9357980B2 (en) 2012-01-10 2016-06-07 Konica Minolta, Inc. Ultrasound diagnostic apparatus and method for identifying blood vessel
JP2014004149A (en) * 2012-06-25 2014-01-16 Toshiba Corp Ultrasonic diagnostic equipment and ultrasonic diagnostic equipment control program
JP2016057063A (en) * 2014-09-05 2016-04-21 公益財団法人鉄道総合技術研究所 Non-contact detecting method for measurement objects, and apparatus for the same
JP2017532146A (en) * 2014-10-30 2017-11-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasonic visualization of curved structures
US10898162B2 (en) 2014-10-30 2021-01-26 Koninklijke Philips N.V. Ultrasound visualization of curved structures

Also Published As

Publication number Publication date
JP4109575B2 (en) 2008-07-02

Similar Documents

Publication Publication Date Title
JP6367425B2 (en) Ultrasonic diagnostic equipment
US8160315B2 (en) Ultrasonic imaging apparatus and projection image generating method
EP2016905B1 (en) Ultrasound diagnostic apparatus
US7774045B2 (en) Medical guiding system, medical guiding program, and medical guiding method
CN105491959A (en) Elastography measurement system and method
JP6532893B2 (en) Imaging system and method for positioning a 3D ultrasound volume in a desired direction
CN107106128B (en) Ultrasound imaging apparatus and method for segmenting an anatomical target
JP7358457B2 (en) Identification of fat layer using ultrasound images
JP5253893B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, and ultrasonic image acquisition program
JP7442548B2 (en) guided ultrasound imaging
JP2009011468A (en) Ultrasound diagnosis apparatus
JP2007125179A (en) Ultrasonic diagnostic apparatus
JP2009153600A (en) Ultrasonic diagnostic equipment, image processor, and program
JP4109575B2 (en) Ultrasonic image processing apparatus and three-dimensional data processing method
EP1419737B9 (en) Ultrasonic diagnostic apparatus
JP7061232B6 (en) Systems and methods for guiding the acquisition of ultrasound images
JP4205957B2 (en) Ultrasonic diagnostic equipment
JP2002177273A (en) Ultrasonic diagnostic device
JP4276595B2 (en) Ultrasonic diagnostic equipment
WO2018195824A1 (en) Ultrasound imaging device, ultrasound image enhancement method and guided puncture display method
JP4129199B2 (en) Ultrasonic diagnostic equipment
EP0934724A1 (en) Ultrasonic diagnostic apparatus
JP5618653B2 (en) Ultrasonic three-dimensional reconstruction method and apparatus, and ultrasonic system
JP2000300555A (en) Ultrasonic image processing device
CN112672696A (en) System and method for tracking tools in ultrasound images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130411

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130411

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140411

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees