JP3654977B2 - 3D image processing device - Google Patents

3D image processing device Download PDF

Info

Publication number
JP3654977B2
JP3654977B2 JP29410095A JP29410095A JP3654977B2 JP 3654977 B2 JP3654977 B2 JP 3654977B2 JP 29410095 A JP29410095 A JP 29410095A JP 29410095 A JP29410095 A JP 29410095A JP 3654977 B2 JP3654977 B2 JP 3654977B2
Authority
JP
Japan
Prior art keywords
viewpoint
organ
dimensional image
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP29410095A
Other languages
Japanese (ja)
Other versions
JPH09131339A (en
Inventor
賢太郎 古旗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP29410095A priority Critical patent/JP3654977B2/en
Publication of JPH09131339A publication Critical patent/JPH09131339A/en
Application granted granted Critical
Publication of JP3654977B2 publication Critical patent/JP3654977B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、医用画像等を画像処理する三次元画像処理装置に係り、特に臓器内腔の三次元画像データを臓器内腔で定めた視点から見たときの立体画像作成と視点の移動位置補正に関する。
【0002】
【従来の技術】
従来、被検者の医用検査で生成されたX線CT画像やMR画像等の二次元スライス画像(断層像)データから三次元画像データを構築し、これを二次元画面上に立体表示することにより、人体内の各臓器の形状や大きさ等をその各臓器の外部から観察できる画像処理装置が知られている。
【0003】
この画像処理装置には、特に近年、内部が空洞である血管や胃等の臓器を対象とし、その臓器の内部に視点を置き、その視点で定めた視線に沿った三次元画像を構築し、これを電子内視鏡装置で観察される内視鏡画像の如く、二次元画面上に立体表示させることにより、臓器内腔を観察できるものも知られている。
【0004】
このように臓器内腔の様子を立体画像として内視鏡的に表示させる画像処理装置の処理方法の一例を説明する。
【0005】
まず、第1のステップで三次元画像データを構築する。即ち、複数枚の二次元スライス画像を用意し、これら二次元スライス画像から対象部位の臓器及びその輪郭部を個別に抽出し、この抽出データと元の二次元スライス画像とから補間データを作成し、三次元画像データ(ボリュームデータ)を構築する。
【0006】
次いで、第2のステップで三次元画像データの立体画像を画面に表示する。即ち、三次元画像データ上の臓器内腔に視点を置き、その視点の視線方向を設定し、設定されている視点を中心として魚眼レンズ方式で放射状方向に臓器表面までの距離を算出し、同様の距離算出を投影対象の二次元投影面の全体で行い、算出した距離値を二次元投影面のデータとして格納する。この距離値と、臓器表面における原画像の濃度勾配値とを用いて、臓器表面の法線ベクトルを算出し、その算出した法線ベクトルに基づいて投影像の陰影づけを行い、これをモニタの画面に表示する。
【0007】
次いで、第3のステップで臓器内腔で視点を移動させたときの立体画像を画面に表示する。即ち、視点の位置を視線方向に沿って平行に前後移動させ、モニタの画面に相当する投影面を視線方向に対し垂直に前後移動させると共に、移動後の視点から見たときの立体画像を作成し、これら視点移動とその移動後の立体画像作成とを交互に繰り返すことで、移動している視点から見た臓器内腔の様子を立体画像として観察できるようになっている。
【0008】
【発明が解決しようとする課題】
しかしながら、従来の三次元画像処理装置にあっては、臓器内腔に視点を置いた立体画像から内腔部分の情報のみを取得する構成であったため、例えば血管内に置いた視点を前方または後方に移動させようとすると、血管の凹凸部、湾曲部、分岐部などの臓器内腔の位置によっては、視点そのものが内壁中に入り込んでしまうことがあった。
【0009】
このように視点が内壁中に入り込んでいるにもかかわらず、三次元画像処理装置にはこれを認識する機構がなかったため、操作者は視点の位置や視点の向いている方向(操作者が見ている方向)の判断が困難となって、特に小さい臓器や細い管状の臓器については内部の立体構造を正確に且つ素早く(操作性がよく)把握できないことがあった。
【0010】
本発明は、上述した従来技術の問題を考慮してなされたもので、臓器内腔における視点移動に関する操作性を改善し、三次元画像データの表示像上で臓器内部の立体構造を正確に且つ迅速に把握できる三次元画像処理装置を提供することを、目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成させるため、請求項1記載の発明に係る三次元画像処理装置は、被検体の対象部位に関する三次元画像データに基づいて、その対象部位の臓器内腔に定めた視点から見た立体画像を表示する三次元画像処理装置であり、前記視点の移動方向を含む移動経路に関するデータを指定する指定手段と、前記視点と前記臓器内腔の表面との距離を求める演算手段と、前記距離が設定値以上になる状態を維持するように上記移動経路に関するデータを補正する補正手段と、前記補正手段により補正された移動経路に沿って視点を移動し、その移動している視点から見た前記臓器内腔の立体画像をリアルタイムでモニタに表示する表示手段とを備えたことを特徴とする。
【0012】
請求項2記載の発明では、前記指定手段は前記移動経路に関するデータを手動又は自動で指定する手段である。
【0013】
請求項3記載の発明では、前記距離は、前記移動方向における距離及び当該移動方向に直交する方向における距離の内の少なくとも1つを含んでいる。
【0014】
請求項4記載の発明では、前記指定手段は前記視点における視線方向の情報を指定する手段を備え、前記補正手段は前記表面形状データに基づいて上記視線方向の情報を補正する手段を備えている。
【0015】
請求項5記載の発明では、前記臓器内腔の立体画像上に前記臓器内腔に隣接する別の臓器をカラー合成する手段を更に備えている。
【0016】
請求項6記載の発明では、前記臓器内腔の立体画像における当該臓器内腔の表面の内の少なくとも一部を削る手段を更に備えている。
【0017】
請求項7記載の発明では、前記臓器内腔の立体画像上に任意形状の三次元物体を配置する手段を更に備えている。
【0018】
請求項8記載の発明では、前記臓器内腔における視点の位置を当該臓器の外部から見た立体画像上にマーキング表示する手段を更に備えている。
【0019】
請求項9記載の発明では、前記臓器内腔における前記視点の移動経路に関する概略位置を臓器外部から見た立体画像上で指定する手段を更に備えている。
【0020】
【発明の実施の形態】
以下、この発明の一実施形態を図1〜図8に基づいて説明する。
【0021】
図1に示す三次元画像処理装置は、X線CTスキャナやMRI等の断層撮影装置(医用画像診断装置)で収集された人体の断層画像データを入力するための断層データ入力装置1と、この断層データ入力装置1に入力された断層画像データに基づいて三次元画像データを構築する三次元画像構築ユニット2と、この三次元画像構築ユニット2で構築された三次元画像データに基づく立体画像を表示するモニタ等の三次元画像観察装置3とを備えている。
【0022】
断層データ入力装置1は、例えば図示しない所定のコントローラの管理の元で動作する、断層画像データを一時保管する画像メモリ、この画像メモリと医用画像診断装置とを所定の通信回線を介してオンラインで接続可能な画像データ用のインタフェース又は記録媒体の画像データを所定のディスク駆動機構等で読取可能な画像読取装置等を一体に搭載して成り、画像メモリに入力された断層画像データを三次元画像構築ユニット2に供給する。
【0023】
三次元画像構築ユニット2は、予め設定した画像処理に関する複数のアルゴリズムを個別に又は同時並列的に実行可能なプロセッサを要部とした構成で、例えば少なくとも1つのCPUを有するプロセッサ(図示しない)、このプロセッサに対しオペレータが三次元画像観察装置3の画面を見ながら操作指令を与えるためのマウスやキーボード等の入力デバイス(図示しない)等を備えている。
【0024】
この三次元画像構築ユニット2は、複数のアルゴリズムがプログラムされるソフトウェア構成上、断層データ補間部4、画像二値化・領域抽出部5、三次元画像作成部6、視点位置指定部7、視線方向指定部8、及び視点位置移動部9を備えている。これら各部4〜9は、ハード構成上、必ずしも別体のプロセッサとして装備する必要はなく、例えば所定のプロセッサに一体に搭載してもよい。
【0025】
断層データ補間部4は、断層データ入力装置1に入力された複数枚の断層画像から三次元空間内におけるボリュームデータ(補間データ)を作成し、そのボリュームデータを画像二値化・領域抽出部5に供給する。
【0026】
画像二値化・領域抽出部5は、例えばCT画像やMR画像などの医用画像の種類に応じた臓器の特徴、例えば臓器の位置、大きさ、しきい値、エッジ、画素値の分布統計量等に基づいて、ボリュームデータから臓器内腔を二値化画像として抽出し、その二値化画像を原画像と共に三次元画像作成部6に供給する。
【0027】
三次元画像作成部6は、画像二値化・領域抽出部5からの臓器の二値化画像及び原画像(臓器の3Dデータ)やオペレータからの指令(視点位置、視線方向)を受け取るインタフェース等の入力部6aと、この入力部6aのデータに投影・陰影処理(「レンダリング」ともいう)を施す投影・陰影処理部6bと、この投影・陰影処理部6bで処理されたデータを一時格納する画像メモリ等の画像格納部6cとを備えている。
【0028】
投影・陰影処理部6aは、入力部6aから入力されるデータに基づいて、臓器内腔で指示された視点位置から魚眼レンズ方式で放射状に見たときの投影像を作成し、この投影像に対し所定の陰影法(ボクセル法など)により陰影づけを行い、その立体画像を画像格納部6cを介して三次元画像観察装置3に供給する。
【0029】
視点位置指定部7は、オペレータによりマニュアルで又は視点位置移動部6により指示された視点位置Pxの座標を設定し、その視点位置Pxの座標を三次元画像作成部6に供給する。
【0030】
視線方向指定部8は、例えば図2に示す処理を実行して、オペレータにより指示された視点位置Pxにおける視線方向ベクトルDを設定し、その視線方向ベクトルDを三次元画像作成部6に供給する。
【0031】
視点位置移動部9は、データ入力部10のほか、視点移動方向指定器11、視点移動量指定器12、最小接近距離指定器13、視点移動方法指定器14、及び視点位置算出器15を備えている。これら各指定器11〜14及び算出器15は、ハード構成上、必ずしも別体のプロセッサとして装備する必要はなく、例えば所定のプロセッサに一体に搭載してもよい。
【0032】
ここで、上記各指定器11〜14及び算出器15の各処理例を中心として、この実施形態の全体の作用を図2〜図8に基づき説明する。
【0033】
最初に、三次元画像処理装置が起動して、断層データ入力部1に入力された複数枚の断層画像データが三次元画像構築システム2(断層データ補間部4、画像二値化・領域抽出部5、三次元画像作成部6)を介して臓器内腔の三次元画像データが構築され、その三次元画像データが予め設定された視点及びその視線に沿った臓器内腔の立体画像として三次元画像観察装置3に表示されたとする。
【0034】
ここで、立体画像の視点位置及びその視線方向は、視点位置指定部7及び視線方向指定部8により予め設定されている。
【0035】
図2は、視線方向指定部9による視線方向設定例を説明するものである。即ち、ステップS1で臓器内腔の三次元画像データ(3Dデータ)と視点位置のデータを入力すると、ステップS2にて臓器内腔の画像上に視点位置を基準とした視線方向を示す矢印パターン(図2中のパターン参照)を設定し、これを三次元画像観察装置3に表示させる。
【0036】
次いで、ステップS3でオペレータによる視線方向の指示を受け取る。例えば、オペレータが三次元画像観察装置3の画面を見ながら、マウス(入力デバイス)を操作して矢印パターン上でカーソル位置を所望の視線方向に合わせ、そのカーソル位置でマウスボタンをクリックすることで視線方向の指示を受け取る。
【0037】
次いで、ステップS4で視点位置とカーソル位置との距離演算値を求めると、ステップS5にてその距離演算値分、カーソル位置の座標値を画面に垂直な方向に移動させ、ステップS6で視点位置Pxから移動後のカーソル位置に向かう視線方向ベクトルDを算出し、その算出した視線方向ベクトルDをステップS7の処理で三次元画像作成部6に供給する。
【0038】
次いで、上記の立体画像が表示されている状態において視点位置を移動させることを考える。この視点位置移動に際して、視点位置移動部6が図3〜図8に示す処理を実行する。
【0039】
図3は、視点移動方向指定器11の処理例を説明するものである。即ち、視点移動方向指定器11は、ステップS11にて臓器内部の立体画像及び視点位置のデータを入力すると、ステップS12で臓器内腔の立体画像上に視点の移動方向を示す矢印パターンを設定し、これを三次元画像観察装置3に表示させる。
【0040】
この状態で、「マニュアル指定」が指示された場合にはステップS13に移行し、「自動指定」が指示された場合にはステップS16に移行する。
【0041】
ここで、「マニュアル指定」の場合には、ステップS13で視点移動方向の指示を受け取る。例えば、オペレータが三次元画像観察装置3の画面を見ながら、マウスを操作して画面上の矢印パターンに沿ってカーソル位置を所望の移動方向に合わせ、そのカーソル位置でマウスボタンをクリックすることで視点移動方向に指示を受け取る。
【0042】
次いで、ステップS14で視点位置とカーソル位置との距離演算値を求めると、ステップS15にて移動方向ベクトルMを算出する。即ち、ステップS151で距離演算値分、カーソル位置の座標を画面に垂直な方向に移動させ、ステップS152にて現在の視点位置からカーソル位置に相当する移動後の視点位置に向けた移動方向ベクトルMを算出する。
【0043】
また、「自動指定」の場合には、ステップS16にて視点の前方又は後方の移動指示を受ける。この前方又は後方の移動指示は、例えばオペレータが三次元画像観察装置3の画面を見ながら、マウスを操作してカーソル位置を画面上に表示された「前方移動」又は「後方移動」の意味を示すソフトウェアキーのいずれか一方に合わせ、そのカーソル位置でマウスボタンをクリックすることで与えられる。
【0044】
次いで、ステップS17で視点位置を画面に垂直な方向に移動し、移動後の視点位置の座標を求めると、ステップS18にて移動前の視点位置の座標と移動後の視点位置の座標とを結ぶ移動方向ベクトルMを算出する。
【0045】
次いで、ステップS19にて上記ステップS15又はS18で算出した移動方向ベクトルMを視点移動方法指定器14に供給する。
【0046】
図4は、視点移動量指定器12による処理例を説明するものである。即ち、ステップS21で1回の操作で移動させる距離の入力モードを選択する。入力モードには、「マニュアル入力」と「自動入力」とがある。
【0047】
「マニュアル入力」の場合は、例えば視点移動量Lの入力モードを更に「mm単位」又は「ピクセル単位」で選択可能となっており、その入力モードが選択されると、ステップS22に移行し、選択された入力モードで指定された視点移動量Lをシステム2内のソフトウェア上に予め設定された数値入力用領域(メモリ)に入力する。
【0048】
また、「自動入力」の場合は、視点の移動方向ベクトルの延長線上に存在する臓器表面SFの手前で最小接近距離Lminだけ離れた位置まで移動可能となっており、ステップS23で視点移動方向の延長線上に存在する臓器表面SFの点を求めると、ステップS24にて視点と臓器表面SFの点を結ぶ直線距離から最小接近距離Lminを減算し、その減算値を視点移動量Lとする。
【0049】
次いで、ステップS25にて上記ステップS22又はS24で設定された視点移動量Lを視点移動方法指定器14に供給する。
【0050】
図5は、最小接近距離指定器13の処理例を説明するものである。即ち、最小接近距離指定器13は、ステップS31で視点Pxと臓器内腔の表面SFとの間の最小接近距離Lmin(距離の設定値)の入力モード、即ち「mm単位」又は「ピクセル単位」を選択する。ステップS32にて指示された最小接近距離Lminをシステム2内のソフトウェア上に予め設定された数値入力用領域(メモリ)に入力し、この最小接近距離LminをステップS33にて出力する。
【0051】
図6は、視点移動方法指定器14の処理例を説明するものである。即ち、視点移動方法指定器14は、ステップS41で臓器の3Dデータ、視点位置Px、視点移動方向M、視点移動量L、最小接近距離Lminの各データを上記各指定器から入力すると、ステップS42にてオペレータからの視点移動モード、即ち 「指定方向移動」又は「内壁追従移動」の選択指示を受ける。このステップS42で「指定方向移動」が選択されるとステップS43に移行し、「内壁追従移動」が選択されるとステップS44に移行し、両ステップS43及びS44で夫々、上記各データを出力する。
【0052】
図7及び図8は、視点位置算出器15の処理例を説明するものである。この視点位置算出器15では、視点移動方法指定器14で指定された視点移動モード、即ち「指定方向移動」及び「内壁追従移動」に応じた処理を実行する。
【0053】
図7は、「指定方向移動」の場合の処理を説明するものである。この場合にはは、指定位置算出器15は、ステップS51にて視点移動方法指定器14から臓器の3Dデータ、視点位置Px、視点移動方向ベクトルM、視点移動量L、最小接近距離Lminの各データを入力すると、ステップS52におけるステップS521及びS522にて視点の移動方向及びその移動方向に直交する方向に対する視点接近距離計測と視点位置移動に関する処理を実行する。
【0054】
まず、ステップS521にてステップS100〜S102の各処理を実行して視点移動方向における視点接近距離を算出する。即ち、ステップS100にて視点の移動方向ベクトルMに沿って現在の視点位置P0を視点移動量L分だけ移動させ、その移動位置における新たな視点位置P1の三次元座標値を算出すると、ステップS101にて新たな視点位置P1と視点移動方向に存在する臓器表面上の点aとの距離Lxを計測する。
【0055】
次いで、ステップS102にて距離Lxと最小接近距離Lminとを比較し、その比較結果に応じて視点位置移動の有無を決定する。即ち、このステップS102の処理で距離演算値Lxが最小接近距離Lminよりも小さい(Lx<Lmin)と判断した場合は、新たな視点位置P1が点aに対して最小接近距離Lminよりも接近した位置に存在しているため、新たな視点位置P1への移動を回避し、現在の視点位置P0の座標値を変更しない。従って、移動方向ベクトルMに沿う視点移動を中止する(最小接近距離Lmin と等しくなる位置まで位置を移動する(補正して移動))。
【0056】
これとは逆に、ステップS102の処理で距離Lxが最小接近距離Lmin以上(Lx≧Lmin)と判断した場合は、新たな視点位置P1が点aに対して最小接近距離Lmin以上となる位置に存在しているため、新たな視点位置P1への移動を許容し、現在の視点位置P0の座標値を新たに求めた視点位置P1の三次元座標値に変更する。従って、移動方向ベクトルMに沿う視点移動を実行する。
【0057】
上記ステップS521の処理(S100〜S102の各処理)が終了すると、ステップS522の処理に移行し、ここでステップS103〜S105の各処理を実行して視点の移動方向に直交する方向における視点接近距離を算出する。
【0058】
即ち、ステップS103にて移動方向ベクトルに直交する面内の視点位置Pxを中心とする放射方向における最小接近距離Lminの範囲内に臓器表面SF上の点bが存在するか否かを判断する。このステップS103で点bが存在すると判断した場合には、ステップS104の処理に移行し、視点位置と臓器表面SF上の点bとを結ぶベクトル上の最小接近距離Lminに相当する位置に視点を移動させ、この移動位置における新たな視点位置の三次元座標値を求め、更新する。
【0059】
ステップS105にて同様に視点を中心とする放射方向の最小接近距離Lminの範囲内に存在する臓器表面SF上の点に対しても最小接近距離Lminとなるように視点位置を移動させ、その移動位置における新たな視点位置の三次元座標値を求める。
【0060】
上記ステップS52(S521及びS522)の処理が終了すると、ステップS53に移行し、視点位置の座標値を視点位置指定部7を介して三次元画像作成部6に出力する。
【0061】
図8は、「内壁追従移動」の場合の処理を説明するものである。この場合には、指定位置算出器15は、ステップS61で視点移動方法指定器14から臓器の3Dデータ、視点位置P、視点移動方向ベクトルM、視点移動量L、最小接近距離Lminの各データを入力すると、ステップS62にてステップS110〜S118の各処理を実行する。
【0062】
即ち、ステップS110にて視点の移動方向ベクトルMに直交する面MP内の視点位置Pxを中心とする放射方向R…Rにおける視点Pxと臓器表面SF上の点bとの間の各距離の演算値を求めると、ステップS111にて求めた各距離の演算値の内の最も小さい演算値Lb(設定値)をもつ点b、即ち視点から最も近い点bを調べる。
【0063】
次いで、ステップS112にて臓器の3Dデータに基づいて、点bの位置における臓器表面SFの法線ベクトルを算出すると、ステップS113にて視点位置を法線ベクトル上の上記ステップS111で求めた距離値Lbに相当する位置に移動させ、その移動位置の三次元座標値を算出する。
【0064】
次いで、ステップS114にて臓器の3Dデータ上で点bの近傍位置を調べ、立体画像の表示されている画面に垂直な方向に存在する臓器表面SF上の点を調べる。ステップS115にて臓器表面SF上の点の中から、視点の移動方向ベクトル上に存在する点で最も近い点を調べる。
【0065】
次いで、ステップS116にて臓器の3Dデータに基づいて、臓器表面SFの法線ベクトルを算出する。ステップS117にて求めた法線ベクトル上に存在し、表面と視点の間の距離が上記ステップS111で求めた距離Lbと等しくなる位置に視点位置を移動する。
【0066】
次いで、ステップS118にて上記ステップS114〜S117までの各処理を移動前と移動後の視点の間の距離(表面距離)が入力された視点移動量Lと等しくなるまで、繰り返し行う。
【0067】
上記ステップS62(S110〜S118)の処理が終了すると、ステップS63の処理に移行し、視点位置の座標値を視点位置指定部7を介して三次元画像作成部6に出力する。
【0068】
このように「指定方向移動」又は「内壁追従移動」のいずれの移動モードにおいても、三次元画像作成部6では、臓器内腔の形状に応じて上記の如く新たに設定された視点位置から見た立体画像を作成し、これを三次元画像観察装置3に供給する。
【0069】
従って、この実施形態に係る三次元画像処理装置にあっては、視点移動時には臓器内腔の表面までの距離を視点の位置からチェックし、視点の進もうとする方向の一定距離内に表面が存在する場合には、視点位置がそれ以上臓器に近づかないよう移動範囲を制御したため、臓器内腔の内壁形状に沿って視点を自動的に移動させることができ、従来のように視点が内壁の内に入り込む事態を殆ど回避できる。
【0070】
これにより、オペレータは、視点移動時に視点位置及びその視線方向の指定に関する比較的難しい操作をわざわざその都度、行わなくても、例えば視点の前後動の指定等の比較的簡単な操作を行うだけで、所望の視点位置から見た立体画像を内視鏡画像を見る如く観察できるため、電子内視鏡と同等の操作感を比較的簡単な操作で実現でき、臓器内腔の形態情報を正確に把握できる。
【0071】
なお、上記実施形態に係る三次元画像処理装置は、視点位置の移動経路を制御する構成としたが、視点位置だけでなく視線方向についても臓器内腔の内壁形状に沿って制御してもよい。
【0072】
この場合には、例えば視点の移動経路に存在する物体表面の法線ベクトルを求め、その物体表面からの法線ベクトルと平行な二次元平面を求め、その二次元平面と直交するベクトルを算出するアルゴリズムを実行する手段を設けることで、視点移動時における視点の視線方向を臓器内腔の内壁形状に沿った所望の角度に補正できる。これにより、上記効果に加え、視点移動時に常に臓器内腔の内壁形状に沿った見やすい方向から臓器内腔の形態情報を観察できる利点がある。
【0073】
次に、この発明の応用例を図9に基づいて説明する。この応用例は、上記構成に加え、治療計画支援用の各種ツールを搭載したものである。
【0074】
図9に示す三次元画像処理装置は、上記と同等の断層データ入力装置20と、治療計画支援用ツール(臓器表面形状加工部及び物体挿入配置部)を更に搭載した三次元画像構築ユニット30と、上記三次元画像観察装置と同等の構成に加え治療計画支援用ツール(カラー合成部)を一体に搭載した三次元画像合成観察装置40とを備えている。
【0075】
三次元画像構築ユニット30は、上記と同等の構成(断層データ補間部31、画像二値化・領域抽出部32、三次元画像作成部33、視点位置指定部(図示しない)、視線方向指定部34、視点位置移動部35)に加え、治療計画支援用ツールとしての臓器表面形状加工部36及び物体挿入配置部37を装備している。
【0076】
この内、臓器表面形状加工部36は、立体画像上で関心部位の臓器表面を削るアルゴリズムを実行可能なプロセッサ等から成り、例えば指示された内壁表面の一部を削り、その削った位置に例えば三次元画像合成観察装置40により病巣部をカラー合成するようになっている。従って、オペレータは臓器内腔における病巣部の位置関係を容易に把握できる。
【0077】
三次元物体挿入配置部38は、臓器内腔に任意形状の三次元物体を配置するアルゴリズムを実行可能なプロセッサ等から成り、例えば動脈瘤などの内腔に対して球状の詰め物を挿入配置するようになっている(この処理を「エンボライゼーション」とも呼ぶ)。
【0078】
三次元画像合成観察装置40は、複数の三次元画像を互いにカラー合成するアルゴリズムを実行可能なプロセッサ等から成るカラー合成部(図示しない)を一体に搭載し、対象臓器の内腔に存在する腫瘍などの他の臓器を不透明又は半透明のカラー画像として合成表示させる。
【0079】
従って、この応用例に係る三次元画像処理装置では、上記の臓器内腔の形態情報を観察する利点に加え、他の臓器との位置関係、カラー合成表示、治療計画等の実際の処置に適した処理などが可能となり、診断・治療の分野における応用範囲をより一層拡大させることができる。
【0080】
なお、治療計画支援用ツールは、上記構成に限定されるものでなく、例えば臓器内腔を移動している視点の位置を臓器外部から見た立体画像、例えば頭蓋骨と脳血管との半透明合成画像上に球等のマーキングとして合成表示(半透明合成表示)するためのツールや、臓器内腔を移動させるための視点の大まかな位置(概略位置)を臓器外部から見た立体画像、例えば血管表面の立体画像上で直接指定するためのツールを加えてもよい。
【0081】
【発明の効果】
以上説明したように、本発明に係る三次元画像処理装置によると、視点の移動方向を含む移動経路に関するデータを指定し、この視点と臓器内腔の表面との距離を求め、この距離が設定値以上になる状態を維持するように上記移動経路に関するデータを補正し、この補正された移動経路に沿って視点を移動し、その移動している視点から見た臓器内腔の立体画像をリアルタイムにモニタに表示するようにしたため、臓器内腔の表面形状に沿って視点を移動させることができ、これにより、従来のように視点が内壁の内に入り込む事態を殆ど回避できると共、臓器内腔における視点移動に関する操作性を大幅に高め、臓器内腔の形態情報を比較的簡単に且つ容易に取得できる。
【図面の簡単な説明】
【図1】この発明の実施形態に係る三次元画像処理装置の全体構成を示す概略ブロック図。
【図2】視線方向指定部の処理概念を示す概略フローチャート。
【図3】視点移動方向指定器の処理概念を示す概略フローチャート。
【図4】視点移動量指定器の処理概念を示す概略フローチャート。
【図5】最小接近距離指定器の処理概念を示す概略フローチャート。
【図6】視点移動方法指定器の処理概念を示す概略フローチャート。
【図7】視点位置算出器の「指定方向移動」の場合の処理概念を示す概略フローチャート。
【図8】視点位置算出器の「内壁追従移動」の場合の処理概念を示す概略フローチャート。
【図9】応用例に係る三次元画像処理装置の全体構成を示す概略ブロック図。
【符号の説明】
1 断層データ入力装置
2 三次元画像構築システム
3 三次元画像観察システム
4 断層データ補間部
5 画像二値化・領域抽出部
6 三次元画像作成部
7 視点位置指定部
8 視線方向指定部
9 視点位置移動部
10 データ入力部
11 視点移動方向指定器
12 視点移動量指定器
13 最小接近距離指定器
14 視点移動方法指定器
15 視点位置算出器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional image processing apparatus that performs image processing of medical images and the like, and in particular, creates a three-dimensional image and corrects a moving position of a viewpoint when viewing three-dimensional image data of an organ lumen from a viewpoint determined by the organ lumen. About.
[0002]
[Prior art]
Conventionally, three-dimensional image data is constructed from two-dimensional slice image (tomographic image) data such as an X-ray CT image and MR image generated by a medical examination of a subject, and this is stereoscopically displayed on a two-dimensional screen. Thus, an image processing apparatus that can observe the shape, size, and the like of each organ in the human body from the outside of the organ is known.
[0003]
In this image processing device, particularly in recent years, targeting internal organs such as blood vessels and stomachs that are hollow inside, placing a viewpoint inside the organ, constructing a three-dimensional image along the line of sight determined by that viewpoint, It is also known that an organ lumen can be observed by stereoscopically displaying it on a two-dimensional screen like an endoscopic image observed with an electronic endoscope apparatus.
[0004]
An example of the processing method of the image processing apparatus for endoscopically displaying the state of the organ lumen as a stereoscopic image will be described.
[0005]
First, three-dimensional image data is constructed in the first step. That is, a plurality of two-dimensional slice images are prepared, and the organ of the target region and its contour are individually extracted from these two-dimensional slice images, and interpolation data is created from the extracted data and the original two-dimensional slice image. 3D image data (volume data) is constructed.
[0006]
Next, in the second step, a stereoscopic image of the three-dimensional image data is displayed on the screen. That is, place a viewpoint on the organ lumen on the 3D image data, set the line-of-sight direction of the viewpoint, calculate the distance to the organ surface in the radial direction with the fish-eye lens system around the set viewpoint, The distance calculation is performed on the entire projection target two-dimensional projection plane, and the calculated distance value is stored as data of the two-dimensional projection plane. Using this distance value and the density gradient value of the original image on the organ surface, the normal vector of the organ surface is calculated, and the projected image is shaded based on the calculated normal vector, Display on the screen.
[0007]
Next, a stereoscopic image when the viewpoint is moved in the organ lumen in the third step is displayed on the screen. That is, the position of the viewpoint is moved back and forth in parallel along the line-of-sight direction, and the projection plane corresponding to the monitor screen is moved back and forth perpendicularly to the line-of-sight direction, and a stereoscopic image when viewed from the moved viewpoint is created. Then, by alternately repeating the viewpoint movement and the creation of the stereoscopic image after the movement, the state of the organ lumen viewed from the moving viewpoint can be observed as a stereoscopic image.
[0008]
[Problems to be solved by the invention]
However, since the conventional three-dimensional image processing apparatus is configured to acquire only the information of the lumen portion from a stereoscopic image with the viewpoint in the organ lumen, the viewpoint set in the blood vessel is forward or backward, for example. In some cases, the viewpoint itself may enter the inner wall depending on the position of the organ lumen such as the uneven portion, curved portion, or branching portion of the blood vessel.
[0009]
Although the viewpoint has entered the inner wall in this manner, the 3D image processing apparatus has no mechanism for recognizing this, so that the operator can change the position of the viewpoint and the direction in which the viewpoint is facing (the operator sees In particular, for small organs and thin tubular organs, the internal three-dimensional structure may not be accurately and quickly grasped (good operability).
[0010]
The present invention has been made in consideration of the above-described problems of the prior art, improves the operability related to viewpoint movement in the organ lumen, and accurately and accurately shows the three-dimensional structure inside the organ on the display image of the three-dimensional image data. It is an object to provide a three-dimensional image processing apparatus that can be quickly grasped.
[0011]
[Means for Solving the Problems]
To achieve the above objective,The three-dimensional image processing apparatus according to the first aspect of the present invention is a three-dimensional image display device for displaying a three-dimensional image viewed from the viewpoint determined in the organ lumen of the target part based on the three-dimensional image data related to the target part of the subject. An image processing apparatus, a designation unit that designates data relating to a movement path including a movement direction of the viewpoint, a calculation unit that obtains a distance between the viewpoint and the surface of the organ lumen, and the distance is equal to or greater than a set value Correction means for correcting data relating to the movement path so as to maintain the state, and a viewpoint moving along the movement path corrected by the correction means, and a three-dimensional view of the organ lumen viewed from the moving viewpoint And display means for displaying an image on a monitor in real time.
[0012]
According to a second aspect of the invention, the designation means is means for manually or automatically designating data relating to the movement route.
[0013]
In invention of Claim 3,The distance is at least one of a distance in the moving direction and a distance in a direction orthogonal to the moving direction.Contains.
[0014]
According to a fourth aspect of the present invention, the specifying means includes means for specifying information on the line-of-sight direction at the viewpoint, and the correcting means includes means for correcting the information on the line-of-sight direction based on the surface shape data. .
[0015]
According to a fifth aspect of the present invention, there is further provided means for color-combining another organ adjacent to the organ lumen on the stereoscopic image of the organ lumen.
[0016]
According to a sixth aspect of the invention, there is further provided means for removing at least a part of the surface of the organ lumen in the stereoscopic image of the organ lumen.
[0017]
The invention according to claim 7 further includes means for arranging a three-dimensional object having an arbitrary shape on the stereoscopic image of the organ lumen.
[0018]
According to an eighth aspect of the present invention, there is further provided means for marking the position of the viewpoint in the organ lumen on a stereoscopic image viewed from the outside of the organ.
[0019]
According to the ninth aspect of the invention, there is further provided means for designating an approximate position of the viewpoint movement path in the organ lumen on a stereoscopic image viewed from the outside of the organ.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
[0021]
A three-dimensional image processing apparatus shown in FIG. 1 includes a tomographic data input apparatus 1 for inputting tomographic image data of a human body collected by a tomographic apparatus (medical image diagnostic apparatus) such as an X-ray CT scanner and an MRI, A 3D image construction unit 2 that constructs 3D image data based on the tomographic image data input to the tomographic data input device 1, and a 3D image based on the 3D image data constructed by the 3D image construction unit 2. And a three-dimensional image observation apparatus 3 such as a monitor for display.
[0022]
The tomographic data input device 1 operates under the control of a predetermined controller (not shown), for example, an image memory for temporarily storing tomographic image data, and the image memory and the medical image diagnostic apparatus online via a predetermined communication line. An interface for image data that can be connected or an image reading device that can read the image data of the recording medium with a predetermined disk drive mechanism, etc. is integrally mounted, and the tomographic image data input to the image memory is a three-dimensional image Supply to construction unit 2.
[0023]
The three-dimensional image construction unit 2 is configured with a processor that can execute a plurality of algorithms relating to preset image processing individually or simultaneously in parallel, for example, a processor (not shown) having at least one CPU, The processor includes an input device (not shown) such as a mouse or a keyboard for an operator to give an operation command while viewing the screen of the three-dimensional image observation apparatus 3.
[0024]
The three-dimensional image construction unit 2 has a software configuration in which a plurality of algorithms are programmed. The tomographic data interpolation unit 4, the image binarization / region extraction unit 5, the three-dimensional image creation unit 6, the viewpoint position designation unit 7, the line of sight A direction specifying unit 8 and a viewpoint position moving unit 9 are provided. These units 4 to 9 do not necessarily have to be provided as separate processors in terms of hardware configuration, and may be integrally mounted on a predetermined processor, for example.
[0025]
The tomographic data interpolation unit 4 creates volume data (interpolation data) in a three-dimensional space from a plurality of tomographic images input to the tomographic data input device 1, and the volume data is converted into an image binarization / region extraction unit 5. To supply.
[0026]
The image binarization / region extraction unit 5 is a distribution statistic of organ characteristics such as the position, size, threshold value, edge, and pixel value of an organ according to the type of medical image such as a CT image or an MR image. Based on the above, the organ lumen is extracted from the volume data as a binarized image, and the binarized image is supplied to the three-dimensional image creating unit 6 together with the original image.
[0027]
The three-dimensional image creation unit 6 is an interface that receives a binarized image of an organ from the image binarization / region extraction unit 5 and an original image (3D data of the organ) and an instruction (viewpoint position, line-of-sight direction) from an operator, etc. An input unit 6a, a projection / shadow processing unit 6b that performs projection / shadow processing (also referred to as "rendering") on the data of the input unit 6a, and data temporarily processed by the projection / shadow processing unit 6b And an image storage unit 6c such as an image memory.
[0028]
Based on the data input from the input unit 6a, the projection / shadow processing unit 6a creates a projection image when viewed radially from the viewpoint position indicated in the organ lumen by the fish-eye lens method, and the projection image Shading is performed by a predetermined shading method (such as a voxel method), and the stereoscopic image is supplied to the three-dimensional image observation apparatus 3 via the image storage unit 6c.
[0029]
The viewpoint position specifying unit 7 sets the coordinates of the viewpoint position Px that is instructed manually by the operator or by the viewpoint position moving unit 6, and supplies the coordinates of the viewpoint position Px to the 3D image creating unit 6.
[0030]
The line-of-sight direction designating unit 8 executes, for example, the processing shown in FIG. 2, sets the line-of-sight direction vector D at the viewpoint position Px instructed by the operator, and supplies the line-of-sight direction vector D to the three-dimensional image creation unit 6. .
[0031]
In addition to the data input unit 10, the viewpoint position moving unit 9 includes a viewpoint movement direction designator 11, a viewpoint movement amount designator 12, a minimum approach distance designator 13, a viewpoint movement method designator 14, and a viewpoint position calculator 15. ing. These designators 11 to 14 and the calculator 15 do not necessarily have to be provided as separate processors in terms of hardware configuration, and may be mounted integrally on a predetermined processor, for example.
[0032]
Here, the overall operation of this embodiment will be described with reference to FIGS. 2 to 8, focusing on the processing examples of the designators 11 to 14 and the calculator 15.
[0033]
First, the 3D image processing apparatus is activated, and a plurality of pieces of tomographic image data input to the tomographic data input unit 1 are converted into a 3D image construction system 2 (tomographic data interpolation unit 4, image binarization / region extraction unit). 5. Three-dimensional image data of the organ lumen is constructed via the three-dimensional image creation unit 6), and the three-dimensional image data is three-dimensionally represented as a stereoscopic image of the organ lumen along the preset viewpoint and the line of sight. It is assumed that the image is displayed on the image observation apparatus 3.
[0034]
Here, the viewpoint position and the line-of-sight direction of the stereoscopic image are set in advance by the viewpoint position specifying unit 7 and the line-of-sight direction specifying unit 8.
[0035]
FIG. 2 illustrates an example of setting the gaze direction by the gaze direction designating unit 9. That is, when three-dimensional image data (3D data) of the organ lumen and viewpoint position data are input in step S1, an arrow pattern (indicated by the arrow direction indicating the line-of-sight direction based on the viewpoint position on the organ lumen image in step S2). 2) is set and displayed on the three-dimensional image observation apparatus 3.
[0036]
Next, in step S3, an instruction of the line-of-sight direction by the operator is received. For example, the operator operates the mouse (input device) while viewing the screen of the 3D image observation apparatus 3 to adjust the cursor position on the arrow pattern to the desired line-of-sight direction and clicks the mouse button at the cursor position. Receive gaze direction indication.
[0037]
Next, when the distance calculation value between the viewpoint position and the cursor position is obtained in step S4, the coordinate value of the cursor position is moved in the direction perpendicular to the screen by the distance calculation value in step S5, and the viewpoint position Px is determined in step S6. The line-of-sight direction vector D toward the cursor position after movement is calculated, and the calculated line-of-sight direction vector D is supplied to the three-dimensional image creation unit 6 in the process of step S7.
[0038]
Next, let us consider moving the viewpoint position in a state where the stereoscopic image is displayed. When the viewpoint position is moved, the viewpoint position moving unit 6 executes the processes shown in FIGS.
[0039]
FIG. 3 illustrates a processing example of the viewpoint movement direction designator 11. That is, when the viewpoint movement direction designator 11 inputs the stereoscopic image inside the organ and the viewpoint position data in step S11, an arrow pattern indicating the movement direction of the viewpoint is set on the stereoscopic image of the organ lumen in step S12. This is displayed on the three-dimensional image observation apparatus 3.
[0040]
In this state, when “manual designation” is instructed, the process proceeds to step S13, and when “automatic designation” is instructed, the process proceeds to step S16.
[0041]
Here, in the case of “manual designation”, an instruction for the viewpoint movement direction is received in step S13. For example, the operator operates the mouse while viewing the screen of the 3D image observation device 3 to adjust the cursor position along the arrow pattern on the screen to a desired movement direction, and clicks the mouse button at the cursor position. An instruction is received in the direction of viewpoint movement.
[0042]
Next, when a distance calculation value between the viewpoint position and the cursor position is obtained in step S14, a moving direction vector M is calculated in step S15. That is, in step S151, the coordinates of the cursor position are moved in the direction perpendicular to the screen by the distance calculation value, and in step S152, the moving direction vector M from the current viewpoint position toward the viewpoint position after movement corresponding to the cursor position is displayed. Is calculated.
[0043]
In the case of “automatic designation”, an instruction to move the viewpoint forward or backward is received in step S16. This forward or backward movement instruction means, for example, “forward movement” or “backward movement” in which the operator operates the mouse while viewing the screen of the 3D image observation apparatus 3 and the cursor position is displayed on the screen. It is given by clicking the mouse button at the cursor position according to one of the software keys shown.
[0044]
Next, when the viewpoint position is moved in the direction perpendicular to the screen in step S17 and the coordinates of the viewpoint position after the movement are obtained, the coordinates of the viewpoint position before the movement and the coordinates of the viewpoint position after the movement are connected in step S18. A moving direction vector M is calculated.
[0045]
Next, in step S19, the movement direction vector M calculated in step S15 or S18 is supplied to the viewpoint movement method designator 14.
[0046]
FIG. 4 illustrates an example of processing performed by the viewpoint movement amount designator 12. That is, the input mode for the distance to be moved by one operation is selected in step S21. Input modes include “manual input” and “automatic input”.
[0047]
In the case of “manual input”, for example, the input mode of the viewpoint movement amount L can be further selected in “mm units” or “pixel units”. When the input mode is selected, the process proceeds to step S22. The viewpoint movement amount L designated in the selected input mode is input to a numerical value input area (memory) preset on the software in the system 2.
[0048]
In the case of “automatic input”, it is possible to move to a position separated by the minimum approach distance Lmin before the organ surface SF existing on the extension line of the viewpoint movement direction vector. When the point of the organ surface SF existing on the extension line is obtained, the minimum approach distance Lmin is subtracted from the linear distance connecting the viewpoint and the point of the organ surface SF in step S24, and the subtraction value is set as the viewpoint movement amount L.
[0049]
Next, in step S25, the viewpoint movement amount L set in step S22 or S24 is supplied to the viewpoint movement method designator 14.
[0050]
FIG. 5 illustrates a processing example of the minimum approach distance designator 13. That is, the minimum approach distance designator 13 inputs an input mode of the minimum approach distance Lmin (set value of distance) between the viewpoint Px and the surface SF of the organ lumen in step S31, that is, “mm unit” or “pixel unit”. Select. The minimum approach distance Lmin instructed in step S32 is input to a numerical value input area (memory) preset on the software in the system 2, and this minimum approach distance Lmin is output in step S33.
[0051]
FIG. 6 illustrates a processing example of the viewpoint movement method designator 14. That is, when the viewpoint movement method designator 14 receives the organ 3D data, viewpoint position Px, viewpoint movement direction M, viewpoint movement amount L, and minimum approach distance Lmin from the above designators in step S41, step S42 is entered. The operator receives an instruction for selecting a viewpoint movement mode, that is, “move in a specified direction” or “move along the inner wall”. If “move in specified direction” is selected in step S42, the process proceeds to step S43. If “inner wall follow-up movement” is selected, the process proceeds to step S44, and each of the above data is output in both steps S43 and S44. .
[0052]
7 and 8 illustrate an example of processing performed by the viewpoint position calculator 15. In this viewpoint position calculator 15, processing corresponding to the viewpoint movement mode designated by the viewpoint movement method designator 14, that is, “designated direction movement” and “inner wall following movement” is executed.
[0053]
FIG. 7 illustrates processing in the case of “designated direction movement”. In this case, the designated position calculator 15 sends each of the organ 3D data, viewpoint position Px, viewpoint movement direction vector M, viewpoint movement amount L, and minimum approach distance Lmin from the viewpoint movement method designator 14 in step S51. When data is input, in steps S521 and S522 in step S52, processing related to viewpoint approach distance measurement and viewpoint position movement in the direction of movement of the viewpoint and the direction orthogonal to the direction of movement is executed.
[0054]
First, in step S521, each process of steps S100 to S102 is executed to calculate the viewpoint approach distance in the viewpoint movement direction. That is, in step S100, the current viewpoint position P0 is moved by the viewpoint movement amount L along the viewpoint movement direction vector M, and the three-dimensional coordinate value of the new viewpoint position P1 at the movement position is calculated. The distance Lx between the new viewpoint position P1 and the point a on the organ surface existing in the viewpoint movement direction is measured.
[0055]
Next, in step S102, the distance Lx is compared with the minimum approach distance Lmin, and the presence or absence of the viewpoint position movement is determined according to the comparison result. That is, if it is determined in the process of step S102 that the distance calculation value Lx is smaller than the minimum approach distance Lmin (Lx <Lmin), the new viewpoint position P1 is closer to the point a than the minimum approach distance Lmin. Since it exists in the position, the movement to the new viewpoint position P1 is avoided, and the coordinate value of the current viewpoint position P0 is not changed. Therefore, the viewpoint movement along the movement direction vector M is stopped (the position is moved (corrected and moved) to a position equal to the minimum approach distance Lmin).
[0056]
On the contrary, if it is determined in step S102 that the distance Lx is equal to or greater than the minimum approach distance Lmin (Lx ≧ Lmin), the new viewpoint position P1 is set to a position where the point a is equal to or greater than the minimum approach distance Lmin. Since it exists, the movement to the new viewpoint position P1 is permitted, and the coordinate value of the current viewpoint position P0 is changed to the newly obtained three-dimensional coordinate value of the viewpoint position P1. Therefore, the viewpoint movement along the movement direction vector M is executed.
[0057]
When the process of step S521 (each process of S100 to S102) ends, the process proceeds to the process of step S522, where each process of steps S103 to S105 is executed, and the viewpoint approach distance in a direction orthogonal to the viewpoint movement direction. Is calculated.
[0058]
That is, in step S103, it is determined whether or not the point b on the organ surface SF exists within the range of the minimum approach distance Lmin in the radial direction centered on the in-plane viewpoint position Px orthogonal to the movement direction vector. If it is determined in step S103 that the point b exists, the process proceeds to step S104, and the viewpoint is set at a position corresponding to the minimum approach distance Lmin on the vector connecting the viewpoint position and the point b on the organ surface SF. The three-dimensional coordinate value of the new viewpoint position at this movement position is obtained and updated.
[0059]
Similarly, in step S105, the viewpoint position is moved so as to be the minimum approach distance Lmin with respect to a point on the organ surface SF existing within the range of the minimum approach distance Lmin in the radial direction centered on the viewpoint, and the movement is performed. A three-dimensional coordinate value of a new viewpoint position at the position is obtained.
[0060]
When the process of step S52 (S521 and S522) is completed, the process proceeds to step S53, and the coordinate value of the viewpoint position is output to the three-dimensional image creation unit 6 via the viewpoint position designation unit 7.
[0061]
FIG. 8 illustrates processing in the case of “inner wall following movement”. In this case, the designated position calculator 15 obtains the organ 3D data, viewpoint position P, viewpoint movement direction vector M, viewpoint movement amount L, and minimum approach distance Lmin from the viewpoint movement method designator 14 in step S61. When input is made, each process of steps S110 to S118 is executed in step S62.
[0062]
That is, in step S110, the radial direction R about the viewpoint position Px in the plane MP orthogonal to the viewpoint movement direction vector M ...Viewpoint in RWhen the calculated value of each distance between Px and the point b on the organ surface SF is obtained, the point b having the smallest calculated value Lb (set value) among the calculated values of each distance obtained in step S111, That is, the closest point b from the viewpoint is examined.
[0063]
Next, when the normal vector of the organ surface SF at the position of the point b is calculated based on the 3D data of the organ in step S112, the distance value obtained in step S111 on the normal vector as the viewpoint position in step S113. The position is moved to a position corresponding to Lb, and the three-dimensional coordinate value of the moved position is calculated.
[0064]
Next, in step S114, the position near the point b is checked on the 3D data of the organ, and the point on the organ surface SF existing in the direction perpendicular to the screen on which the stereoscopic image is displayed is checked. In step S115, the closest point among the points on the movement direction vector of the viewpoint is examined from the points on the organ surface SF.
[0065]
Next, in step S116, a normal vector of the organ surface SF is calculated based on the 3D data of the organ. The viewpoint position is moved to a position that exists on the normal vector obtained in step S117 and the distance between the surface and the viewpoint becomes equal to the distance Lb obtained in step S111.
[0066]
Next, in step S118, the processes in steps S114 to S117 are repeated until the distance between the viewpoint before movement and the viewpoint after movement (surface distance) becomes equal to the input viewpoint movement amount L.
[0067]
When the process of step S62 (S110 to S118) is completed, the process proceeds to step S63, and the coordinate value of the viewpoint position is output to the three-dimensional image creation unit 6 via the viewpoint position designation unit 7.
[0068]
As described above, in any of the movement modes of “specified direction movement” and “inner wall following movement”, the three-dimensional image creation unit 6 looks from the viewpoint position newly set as described above according to the shape of the organ lumen. 3D images are generated and supplied to the three-dimensional image observation apparatus 3.
[0069]
Therefore, in the 3D image processing apparatus according to this embodiment, when the viewpoint is moved, the distance to the surface of the organ lumen is checked from the position of the viewpoint, and the surface is within a certain distance in the direction in which the viewpoint is to advance. If it exists, the movement range is controlled so that the viewpoint position does not approach the organ any more, so the viewpoint can be automatically moved along the inner wall shape of the organ lumen. You can almost avoid the situation of getting inside.
[0070]
This allows the operator to perform relatively simple operations such as designation of the back and forth movement of the viewpoint, for example, without performing a relatively difficult operation regarding the designation of the viewpoint position and the direction of the line of sight when moving the viewpoint. Since a stereoscopic image viewed from a desired viewpoint position can be observed as if viewing an endoscopic image, an operation feeling equivalent to that of an electronic endoscope can be realized with a relatively simple operation, and the shape information of the organ lumen can be accurately obtained. I can grasp.
[0071]
The three-dimensional image processing apparatus according to the above embodiment is configured to control the movement path of the viewpoint position, but not only the viewpoint position but also the gaze direction may be controlled along the inner wall shape of the organ lumen. .
[0072]
In this case, for example, a normal vector of the object surface existing on the moving path of the viewpoint is obtained, a two-dimensional plane parallel to the normal vector from the object surface is obtained, and a vector orthogonal to the two-dimensional plane is calculated. By providing means for executing the algorithm, it is possible to correct the viewing direction of the viewpoint when the viewpoint is moved to a desired angle along the shape of the inner wall of the organ lumen. Thus, in addition to the above effects, there is an advantage that the shape information of the organ lumen can be observed from the easy-to-see direction along the inner wall shape of the organ lumen when the viewpoint is moved.
[0073]
Next, an application example of the present invention will be described with reference to FIG. In this application example, in addition to the above configuration, various tools for treatment plan support are installed.
[0074]
The three-dimensional image processing apparatus shown in FIG. 9 includes a tomographic data input device 20 equivalent to the above, and a three-dimensional image construction unit 30 further equipped with a treatment plan support tool (organ surface shape processing unit and object insertion placement unit). In addition to the same configuration as the above three-dimensional image observation apparatus, a three-dimensional image synthesis observation apparatus 40 integrally equipped with a treatment plan support tool (color synthesis unit) is provided.
[0075]
The three-dimensional image construction unit 30 has the same configuration as described above (tomographic data interpolation unit 31, image binarization / region extraction unit 32, three-dimensional image creation unit 33, viewpoint position designation unit (not shown), line-of-sight direction designation unit. 34, a viewpoint position moving unit 35), and an organ surface shape processing unit 36 and an object insertion placement unit 37 as a treatment plan support tool.
[0076]
Among these, the organ surface shape processing unit 36 is composed of a processor or the like that can execute an algorithm for cutting an organ surface of a region of interest on a stereoscopic image. For example, a part of the designated inner wall surface is cut, The three-dimensional image composition observation apparatus 40 performs color composition on the lesion. Therefore, the operator can easily grasp the positional relationship of the lesion in the organ lumen.
[0077]
The three-dimensional object insertion / arrangement unit 38 includes a processor or the like that can execute an algorithm for arranging a three-dimensional object having an arbitrary shape in an organ lumen, and inserts and inserts a spherical filling into a lumen such as an aneurysm. (This process is also called “embolization”).
[0078]
The three-dimensional image synthesis observation device 40 is integrally mounted with a color synthesis unit (not shown) including a processor or the like that can execute an algorithm for color synthesis of a plurality of three-dimensional images, and a tumor existing in the lumen of the target organ. Other organs are synthesized and displayed as an opaque or translucent color image.
[0079]
Therefore, the 3D image processing apparatus according to this application example is suitable for actual treatment such as positional relationship with other organs, color composite display, and treatment plan in addition to the advantage of observing the shape information of the organ lumen. Can be applied, and the scope of application in the field of diagnosis and treatment can be further expanded.
[0080]
Note that the treatment planning support tool is not limited to the above-described configuration. For example, a stereoscopic image obtained by viewing the position of the viewpoint moving through the organ lumen from the outside of the organ, for example, a translucent synthesis of a skull and a cerebral blood vessel. A tool for composite display (semi-transparent composite display) as a marking of a sphere or the like on an image, or a stereoscopic image in which a rough position (approximate position) of a viewpoint for moving an organ lumen is viewed from outside the organ, for example, a blood vessel A tool for specifying directly on the stereoscopic image of the surface may be added.
[0081]
【The invention's effect】
As described above, according to the three-dimensional image processing apparatus according to the present invention,Specify the data related to the movement path including the movement direction of the viewpoint, determine the distance between this viewpoint and the surface of the organ lumen, and correct the data related to the movement path so as to maintain the distance above the set value. Since the viewpoint is moved along the corrected movement path, and the stereoscopic image of the organ lumen viewed from the moving viewpoint is displayed on the monitor in real time,It is possible to move the viewpoint along the surface shape of the organ lumen, and this can almost avoid the situation where the viewpoint enters the inner wall as in the past.InThe operability related to viewpoint movement in the organ lumen is greatly improved, and the morphology information of the organ lumen can be acquired relatively easily and easily.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing the overall configuration of a three-dimensional image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a schematic flowchart showing a processing concept of a line-of-sight direction designating unit.
FIG. 3 is a schematic flowchart showing a processing concept of a viewpoint movement direction designator.
FIG. 4 is a schematic flowchart showing a processing concept of a viewpoint movement amount designator.
FIG. 5 is a schematic flowchart showing a processing concept of a minimum approach distance designator.
FIG. 6 is a schematic flowchart showing a processing concept of a viewpoint moving method designator.
FIG. 7 is a schematic flowchart showing a processing concept in the case of “designated direction movement” of the viewpoint position calculator.
FIG. 8 is a schematic flowchart showing a processing concept in the case of “inner wall following movement” by the viewpoint position calculator.
FIG. 9 is a schematic block diagram showing the overall configuration of a 3D image processing apparatus according to an application example.
[Explanation of symbols]
1 Fault data input device
2 3D image construction system
3 Three-dimensional image observation system
4 Fault data interpolation unit
5 Image binarization / region extraction unit
6 3D image creation part
7 Viewpoint designation part
8 Gaze direction designation part
9 Viewpoint moving part
10 Data input section
11 Point of view direction indicator
12 Point of view movement specifier
13 Minimum approach distance specifier
14 Viewpoint movement method designator
15 viewpoint position calculator

Claims (9)

被検体の対象部位に関する三次元画像データに基づいて、その対象部位の臓器内腔に定めた視点から見た立体画像を表示する三次元画像処理装置において、In a three-dimensional image processing apparatus that displays a three-dimensional image viewed from a viewpoint determined in the organ lumen of the target part, based on the three-dimensional image data related to the target part of the subject,
前記視点の移動方向を含む移動経路に関するデータを指定する指定手段と、Designating means for designating data relating to a moving route including the moving direction of the viewpoint;
前記視点と前記臓器内腔の表面との距離を求める演算手段と、A calculation means for obtaining a distance between the viewpoint and the surface of the organ lumen;
前記距離が設定値以上になる状態を維持するように上記移動経路に関するデータを補正する補正手段と、Correction means for correcting data relating to the movement route so as to maintain a state where the distance is equal to or greater than a set value;
前記補正手段により補正された移動経路に沿って視点を移動し、その移動している視点から見た前記臓器内腔の立体画像をリアルタイムでモニタに表示する表示手段とを備えたことを特徴とする三次元画像処理装置。A display means for moving a viewpoint along the movement path corrected by the correction means and displaying a stereoscopic image of the organ lumen viewed from the moving viewpoint on a monitor in real time. 3D image processing device.
前記指定手段は、前記移動経路に関するデータを手動又は自動で指定する手段である請求項1記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 1, wherein the designation unit is a unit that manually or automatically designates data relating to the movement route. 前記距離は、前記移動方向における距離及び当該移動方向に直交する方向における距離の内の少なくとも1つを含む請求項2記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 2, wherein the distance includes at least one of a distance in the moving direction and a distance in a direction orthogonal to the moving direction. 前記指定手段は前記視点における視線方向の情報を指定する手段を備え、前記補正手段は前記表面形状データに基づいて上記視線方向の情報を補正する手段を備えた請求項1記載の三次元画像処理装置。2. The three-dimensional image processing according to claim 1, wherein the specifying unit includes a unit that specifies information on a line-of-sight direction at the viewpoint, and the correction unit includes a unit that corrects the information on the line-of-sight direction based on the surface shape data. apparatus. 前記臓器内腔の立体画像上に前記臓器内腔に隣接する別の臓器をカラー合成する手段を更に備えた請求項1記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 1, further comprising means for color-combining another organ adjacent to the organ lumen on the stereoscopic image of the organ lumen. 前記臓器内腔の立体画像における当該臓器内腔の表面の内の少なくとも一部を削る手段を更に備えた請求項1記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 1, further comprising means for removing at least a part of a surface of the organ lumen in the stereoscopic image of the organ lumen. 前記臓器内腔の立体画像上に任意形状の三次元物体を配置する手段を更に備えた請求項1記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 1, further comprising means for arranging a three-dimensional object having an arbitrary shape on the three-dimensional image of the organ lumen. 前記臓器内腔における視点の位置を当該臓器の外部から見た立体画像上にマーキング表示する手段を更に備えた請求項1記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 1, further comprising means for marking the position of the viewpoint in the organ lumen on a stereoscopic image viewed from the outside of the organ. 前記臓器内腔における前記視点の移動経路に関する概略位置を臓器外部から見た立体画像上で指定する手段を更に備えた請求項1記載の三次元画像処理装置。The three-dimensional image processing apparatus according to claim 1, further comprising means for designating an approximate position related to the movement path of the viewpoint in the organ lumen on a stereoscopic image viewed from outside the organ.
JP29410095A 1995-11-13 1995-11-13 3D image processing device Expired - Lifetime JP3654977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29410095A JP3654977B2 (en) 1995-11-13 1995-11-13 3D image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29410095A JP3654977B2 (en) 1995-11-13 1995-11-13 3D image processing device

Publications (2)

Publication Number Publication Date
JPH09131339A JPH09131339A (en) 1997-05-20
JP3654977B2 true JP3654977B2 (en) 2005-06-02

Family

ID=17803293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29410095A Expired - Lifetime JP3654977B2 (en) 1995-11-13 1995-11-13 3D image processing device

Country Status (1)

Country Link
JP (1) JP3654977B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4053117B2 (en) * 1997-10-17 2008-02-27 東芝医用システムエンジニアリング株式会社 Image processing device
JP4664485B2 (en) * 2000-12-11 2011-04-06 株式会社東芝 3D image recording system and 3D image recording method
US20030152897A1 (en) * 2001-12-20 2003-08-14 Bernhard Geiger Automatic navigation for virtual endoscopy
JP2004180715A (en) * 2002-11-29 2004-07-02 Toshiba Corp X-ray computed tomography apparatus
JP4653542B2 (en) * 2005-04-06 2011-03-16 株式会社東芝 Image processing device
US20080088621A1 (en) * 2006-10-11 2008-04-17 Jean-Jacques Grimaud Follower method for three dimensional images
JP5001248B2 (en) * 2008-11-21 2012-08-15 株式会社日立メディコ Diagnostic imaging support device
JP5984262B2 (en) * 2012-11-19 2016-09-06 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP5883378B2 (en) * 2012-12-27 2016-03-15 株式会社東芝 Image processing device
WO2021070226A1 (en) * 2019-10-07 2021-04-15 三菱電機株式会社 Virtual camera control device, virtual camera control method, and virtual camera control program

Also Published As

Publication number Publication date
JPH09131339A (en) 1997-05-20

Similar Documents

Publication Publication Date Title
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
US9099015B2 (en) System, method, apparatus, and computer program for interactive pre-operative assessment involving safety margins and cutting planes in rendered 3D space
JP6972163B2 (en) Virtual shadows that enhance depth perception
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
JP5224451B2 (en) Projection image creation apparatus, method and program
JPH11318884A (en) Image display device
JP4786307B2 (en) Image processing device
US7860282B2 (en) Method for supporting an interventional medical operation
JP4845566B2 (en) Image display device
US9622831B2 (en) Method and apparatus to provide updated patient images during robotic surgery
JP6051158B2 (en) Cutting simulation apparatus and cutting simulation program
CN105956395A (en) Medical image processing method, device and system
JP3654977B2 (en) 3D image processing device
JP4122463B2 (en) Method for generating medical visible image
WO2020205714A1 (en) Surgical planning, surgical navigation and imaging system
JP2010075549A (en) Image processor
EP3629932B1 (en) Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
US9558589B2 (en) Medical image display apparatus, method, and program
JP7172086B2 (en) Surgery simulation device and surgery simulation program
EP4258216A1 (en) Method for displaying a 3d model of a patient
US11967073B2 (en) Method for displaying a 3D model of a patient
US20240112395A1 (en) Image processing device, image processing method, and program
EP3931799B1 (en) Interventional device tracking
JP2023532065A (en) Determining Needle Position
US10376335B2 (en) Method and apparatus to provide updated patient images during robotic surgery

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050302

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

EXPY Cancellation because of completion of term