JP3683977B2 - Medical diagnostic imaging equipment - Google Patents

Medical diagnostic imaging equipment Download PDF

Info

Publication number
JP3683977B2
JP3683977B2 JP06651796A JP6651796A JP3683977B2 JP 3683977 B2 JP3683977 B2 JP 3683977B2 JP 06651796 A JP06651796 A JP 06651796A JP 6651796 A JP6651796 A JP 6651796A JP 3683977 B2 JP3683977 B2 JP 3683977B2
Authority
JP
Japan
Prior art keywords
image
imaging
subject
diagnostic apparatus
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP06651796A
Other languages
Japanese (ja)
Other versions
JPH09253038A (en
Inventor
恭二郎 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP06651796A priority Critical patent/JP3683977B2/en
Publication of JPH09253038A publication Critical patent/JPH09253038A/en
Application granted granted Critical
Publication of JP3683977B2 publication Critical patent/JP3683977B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、被検体内を撮像する光学内視鏡、超音波内視鏡、NMR(各磁気共鳴)内視鏡、ESR(電子スピン共鳴)内視鏡等の被検体内撮像手段により得られる画像に対応させ、X線CT装置、MRI装置、SPECT、PET、3次元超音波診断装置等の三次元画像像取得手段により得られる画像を画像処理して表示する医用画像診断装置に関するものである。
【0002】
【従来の技術】
従来より、被検体内を撮像する撮像部を被検体内に入れてその撮像部近くの性状を画像化する手段として、光学内視鏡、超音波内視鏡、NMR(各磁気共鳴)内視鏡、ESR(電子スピン共鳴)内視鏡等の内視鏡装置が知られている。また、被検体内に撮像部を入れずに撮像部近くの被検体内の性状を画像化する手段として超音波診断装置が知られている。
【0003】
一方、前記内視鏡装置の撮像部が取得するであろう画像と類似する画像を、他の手段から得た3次元画像データに基づいて作成(レンダリング)する画像処理手段として、MPR(multiplanar reconstruction)、表面レンダリング、グラフィックス等が知られている。また、三次元画像データを得る三次元画像取得手段としては、X線CT装置、MRI装置、SPECT(single photon emission computed tomography)、PET(positron emission tomography )、3次元超音波診断装置等が知られている。
【0004】
前記MPRは、前記三次元画像取得手段により得られた3次元画像データを基にボクセルデータを作成し、このボクセルデータから被検体内の任意の断面を描出する。また、前記表面レンダリングは、前記撮像手段により得られた3次元画像データを基に物体中のある部分を透明、他の部分を不透明とし、透明な部分中のある点からある方向を観察した時の不透明な部分の表面形状を画像として描出する。
【0005】
【発明が解決しようとする課題】
しかしながら、内視鏡では、現在被検体内のどの部分を観察しているのか、また、現在画像に捕らえている物体が何であるのかを知ることが容易でないという問題がある。
【0006】
一方、画像処理手段では、内視鏡が取得すると予想される画像と類似の画像しか作成することができない。また、MPRでは、不透明な部分の内部性状は分かるが、内視鏡の一種である超音波内視鏡やNMR内視鏡を用いて得られる断面像に比べると精細さが遥かに劣る。さらに、表面レンダリングでは、不透明な部分の表面形状は分かるが、内視鏡の一種である光学内視鏡を用いて得られる管腔内の壁の画像等に比べると精細さが遥かに劣り、管腔内の壁の色等は全く描出することができない。
【0007】
本発明は、上記課題に鑑みてなされたもので、被検体内撮像手段により得られる画像データがいずれの部分をいずれの方向から観察したものかを容易に知ることができる医用画像診断装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するため本発明は、被検体内を撮像する撮像部を有し、この撮像部を被検体に挿入もしくは接触させて前記被検体内の画像データを取得する被検体内撮像手段と、前記撮像部の先端部の位置と方向を検出する位置・方向検出手段と、画像取得手段により取得されるボクセルデータから、前記位置・方向検出手段で得た前記撮像部の先端部の位置及び方向に応じて当該先端部近傍のレンダリング画像を生成する画像処理手段と、前記被検体内撮像手段により取得される被検体内の画像データと、前記画像処理手段により画像処理されたレンダリング画像を相互に対応させて表示する表示手段と、を有することを要旨とする。
【0011】
【発明の実施の形態】
以下、本発明に係る実施の形態を図面を参照して説明する。図1は本発明に係る医用画像診断装置の一実施形態の概略の構成を示した図である。
図1に示すように、本実施形態の医用画像診断装置1は、被検体内撮像手段としての内視鏡装置10と、三次元画像取得手段としてのX線CT装置20と、画像処理手段としての画像処理装置30とを有し、内視鏡装置10により得られる内視鏡像に対応する画像をX線CT装置20により得られるボクセルデータを基に画像処理装置30でも作成して前記内視鏡像と対比することにより、前記内視鏡像がいずれの部分をいずれの方向から観察したものかを容易に知ることができるようにしたものである。
【0012】
図2は本実施形態を示した機能ブロック図である。
図2に示すように医用画像診断装置1は、被検体内を撮像する内視鏡装置10と、被検体の三次元画像データであるボクセルデータを取得するX線CT装置20と、X線CT装置により得られたボクセルデータを画像処理する画像処理装置30と、位置・方向検出手段としての位置・方向検出部40とを有する。
【0013】
内視鏡装置10は、図1に示すように、モニタ11aを有する内視鏡装置本体11と、被検体に挿入され、被検体内を撮像する撮像部13aを有する内視鏡13とから成り、被検体内の内視鏡像を得る。この内視鏡装置10としては、例えば、光学内視鏡、超音波内視鏡、NMR(各磁気共鳴)内視鏡、ESR(電子スピン共鳴)内視鏡等を用いる。
【0014】
X線CT装置20は、図1に示すように、スキャン条件等が入力される操作部(図示せず)とモニタ21a等を有するX線CT装置本体21と、X線ビームを曝射するX線管、X線管により曝射され被検体を通過したX線ビームを検出する検出器等を被検体軸を中心にして回転させる回転部(いずれも図示せず)を有するガントリ23と、被検体が載置される天板を有する寝台25とから成り、前記検出器により検出されたデータから前記被検体の断面の画像データをスライスデータとして取得する。
【0015】
画像処理装置30は、図2に示すように、操作部31と、演算処理部33と、画像メモリ35と、表示部37とを有し、X線CT装置20により得られたボクセルデータを画像処理してMPR像、表面レンダリング像等を作成する。
【0016】
操作部31は、キーボード、トラックボール等を備え、操作者により画像処理法の指定(MPR、表面レンダリング等の指定)、断面位置の指定等が行われる。
【0017】
演算処理部33は、CPU(図示せず)とこのCPUを動作させるためのプログラムを記憶するメモリ(図示せず)から成り、X線CT装置20から供給されるスライスデータを基にボクセルデータを作成する。また、演算処理部33は、この作成されたボクセルデータを基に、操作部31からの指定に応じてMPR像、表面レンダリング像等を作成する。
【0018】
画像メモリ35は、演算処理部33により作成されたボクセルデータ、MPR像、表面レンダリング像等を記憶する。
【0019】
表示部37は、図1に示すように2つのモニタ37a,37bを有し、内視鏡装置10により得られた内視鏡像と画像処理装置30により作成されたMPR像、表面レンダリング像等をモニタ37a,37b上に表示する。
【0020】
位置・方向検出部40は、周知の磁気式、光学式、機械式等の位置・方向検出手段を用いて撮像部13aの位置と方向を検出する。
【0021】
例えば、磁気式の場合は、図3に示すように、撮像部13aの先端に内蔵もしくはセンサ面を撮像部13aの表面から露出させて配設され、磁場強度を検出する少なくとも2つの磁気センサ51(図3では2つ)と、被検体の周囲部、例えば寝台25に固定され、互いに直交する3つの軸、例えば水平方向の軸と、この軸に対して垂直な軸と、鉛直方向の軸に巻かれた3つの磁気発生用コイル53a,53b,53cと、内視鏡本体11に内蔵される図示しない演算部から成り、この3つの磁気発生用コイル53a,53b,53cから順番に所定の磁場を発生し、磁気発生用コイル53a,53b,53c毎に少なくとも2つの磁気センサ51によりその磁場強度を検出し、前記演算部によりその値の差を求め、この差から撮像部13aの位置と方向を検出する。この磁気式の位置・方向検出部40は、磁気を用いることと、磁気センサ51が撮像部13a先端部に設けられていることから、NMR内視鏡、ESR内視鏡には適さず、光学内視鏡、特に湾曲動作可能な軟性の光学内視鏡に適している。
【0022】
光学式の場合は、図4に示すように、内視鏡13の手元操作側に固定された少なくとも2つの発光体55(図4では3つ)と、これらの発光体55を撮像可能な位置に固定され、これらの発光体55を撮像するカメラ57と、内視鏡本体11に内蔵される図示しない演算部から成り、カメラ57により得られる発光体55の基準位置と、内視鏡13移動後のカメラ57により得られる発光体55の位置の差を前記演算部により求めて撮像部13aの位置と方向を検出する。この光学式の位置・方向検出部40は、発光体55が手元操作側に固定されているので、湾曲動作可能な光学内視鏡には適さず、硬性の光学内視鏡に適している。また、光学式の位置・方向検出部40は、被検体外から被検体内部の性状を画像化する超音波診断装置にも適している。さらに、内視鏡装置10としてNMR内視鏡、ESR内視鏡を用いた場合、被検体外の部分の位置と方向を検出することで撮像部13aの位置と方向が決定できるような場合は光学式の位置・方向検出部40を用いることができる。
【0023】
機械式の場合は、図5に示すように、ベース61に一方の端部が接続されるアーム63と、アーム63の他方の端部に接続されるアーム65と、アーム63をベースにか移動可能に固定する軸67と、アーム65をアーム63に対して回動可能に固定する軸69と、軸67のベース61との固定面と平行な面上の回転Aの回転角度を検出する角度センサ71と、軸67の前記固定面に対して垂直な面上の回転Bの回転角度を検出する角度センサ73と、軸69の前記固定面に対して垂直な面上の回転Cの回転角度を検出する角度センサ75と、内視鏡本体11に内蔵される図示しない演算部から成り、角度センサ71、73、75によって検出される各角度から前記演算部により撮像部13aの位置と方向を演算する。尚、アーム65に伸縮可能なアーム65aを設けると共に、このアーム65aの伸縮量を検出するセンサ77を設け、前記角度センサ71、73、75の検出角度に加えて、センサ77による検出値から撮像部13aの位置と方向を検出するようにしても良い。さらに、アーム65もしくはアーム65aの先端にジャイロスコープ79を設けてこのジャイロスコープ79により撮像部13aの方向を検出するようにしても良い。この機械式の位置・方向検出部40は、いずれの内視鏡装置10にも適用することができる。
【0024】
次に、本実施形態の動作を説明する。
まず、操作者はX線CT装置20のX線CT装置本体21の操作部を用いてスキャン条件等を入力し、X線CT装置20による被検体の所望領域の断層像撮影を開始させる。このとき、X線CT装置20により得られるスライスデータと、内視鏡装置10により得られる内視鏡像を対応させるためスライスデータを得る領域内の体表にX線CT装置20で画像化可能な基準マーカを付けておく。
【0025】
また、スライスデータを取得する範囲は、内視鏡装置10により取得する内視鏡像の範囲より広い範囲とする。そして、X線CT装置20は、前記スキャン条件に対応させて被検体の所定領域のスライスデータを取得して、画像処理装置30に供給する。
【0026】
スライスデータが供給されると画像処理装置30の演算処理部33は、このスライスデータからスキャノ像を作成し、画像メモリ35を介して表示部37のモニタ37bに表示させる。操作者は、このスキャノ像中の表示される前記基準マーカにカーソルをトラックボールにより一致させる。これにより、演算処理部33は、前記基準マーカを座標基準にしたボクセルデータを作成する。この作成されたボクセルデータは画像メモリ35に記憶される。
【0027】
この状態で操作者は、前記体表に付けられた基準マーカに内視鏡装置10の撮像部13aの先端を一致させ、位置・方向検出部40の前記演算部に対してこの部分を座標基準にして、撮像部13aの位置と方向を検出するように指示する。尚、この指示は内視鏡装置本体11に設けられた操作パネルから行うようにする。
【0028】
そして操作者は内視鏡装置10による内視鏡像撮影を開始する。内視鏡装置10は、内視鏡像撮影が開始されると得られる画像データを内視鏡像としてモニタ11aに表示すると共に画像処理装置30に供給する。このとき、位置・方向検出部40は常時、内視鏡装置10の撮像部13aの位置と方向を検出し、その検出結果を画像処理装置30の演算処理部33に供給している。
【0029】
次いで、画像処理装置30の演算処理部33は、内視鏡装置10から供給される画像データを内視鏡像として画像メモリ35を介してモニタ37aに表示する。
【0030】
ここで内視鏡装置10が超音波内視鏡、NMR内視鏡、ESR内視鏡等、撮像部13a先端近くの実質部分(空洞ではない部分)の内部性状を画像化する手段である場合、操作者は操作部31のキーボードの所定キーを押すことにより、MPR像の作成を指示する。
【0031】
このとき、例えば内視鏡装置10が超音波内視鏡であり、図6に示すように臓器の一部の領域Aを内視鏡像に画像化しているものとする。この内視鏡像が臓器全体のいずれの部分のものであるのかはこの内視鏡像のみからでは認識できない場合が多い。このため、操作者はMPR像作成を操作部31を用いて指示し、内視鏡像と合わせてMPR像も表示させるようにする。
【0032】
MPR像作成が指示されると画像処理装置30の演算処理部33は、位置・方向検出部40から供給される撮像部13aの位置と方向に対応させて図7に示すように、撮像部13aの撮像面に対して垂直な面をMPR像の断面としてMPR像を前記ボクセルデータを基に作成する。そして作成されたMPR像は図8(b)に示すようにモニタ37bに表示される。このとき、演算処理部33は、MPR像中に撮像部13bの位置とその大きさに対応させて撮像部マークM1 を書き込む。
【0033】
これにより、臓器全体のいずれの部分を画像化しているのかが、図8(a)に示す内視鏡像より広い範囲の図8(b)に示すMPR像を確認することにより、容易に分かるようになる。
【0034】
また、操作部31の所定キーを押すことにより、図8(b)に示すMPR像と直交する図9(b)に示すようなMPR像を作成させ、そのMPR像上に撮像部13aの位置と大きさに対応させて撮像部マークM2 を表示させるようにしても良い。
【0035】
さらに、操作部31の所定キーを押すことにより、図10(b)に示すように、臓器表面を示す表面レンダリングを行わせ、その表面レンダリング像上に撮像部13aの位置と大きさに対応させて撮像部マークM3 を表示させるようにしても良い。このとき、表面レンダリング像を表示させる深さ方向の範囲は操作部31を用いて指定するようにする。尚、モニタ37aには、図8(a)と同様、図9(a)、図10(a)に示すように超音波内視鏡像が表示されている。
【0036】
また、内視鏡装置10が光学内視鏡等、撮像部13a先端近くの表面の性状を画像化する手段である場合、操作者は操作部31のキーボードの所定キーを押すことにより、表面レンダリング像の作成を指示する。
【0037】
例えば、図11に示すように撮像部13aを被検体の気管支に挿入し、図12に示すように光学内視鏡像が得られたとする。この場合の表面レンダリングでは、ボクセルデータの内、空気を表すボクセルを透明、その他を不透明と見做し、撮像部13aの位置と方向からボクセルデータを見たときの前記不透明なボクセルの成す表面の形状を図像化し、光学内視鏡像と類似の画像として図11(b)に示すようにモニタ37bに表示させる。このとき、表面レンダリング像を表示させる深さ方向の範囲は操作部31を用いて指定するようにする。
【0038】
この場合、光学内視鏡像では図12(a)に示すように瘤Nの形状、斑紋、色等は観察でき、表面レンダリング像では図12(b)に示すように瘤Nの形状のみが分かる。
【0039】
また、各画素に対応するボクセルの最小値を投影する最小値投影法による像を画像処理装置30の演算処理部33により作成させ、この像上に撮像部13aの位置と方向を示す撮像部マークを書き込むようにしても良い。例えば、ボクセルデータを基に、図13に示す気管支部分の最小値投影法による像を作成すると共に、この最小値投影法による像上に、撮像部13aの位置と方向を示す撮像部マークM4 を書き込み、モニタ37b上に表示させる。
【0040】
これにより、撮像部13aが被検体内のいずれの位置にあっていずれの方向に向いているのかを、被写体である気管支の形状を示す像上で示すことができる。
【0041】
また、図12(a)に示す光学内視鏡像および図12(b)に示す表面レンダリング像上に認められる瘤Nのような対象物の気管支外部の性状を調べる場合は、例えば、図14に示すように、撮像部マークM4 に示す位置から、距離dだけ離れた面pを操作部31のトラックボールを用いて指定し、この面pのMPR像を演算処理部33に作成させ、図15に示すようにモニタ37bに表示させる。これにより、瘤Nの中(内部、裏側)の構造を観察することができる。
【0042】
また、図15に示すMPR像において、MPR像の断面上に相当する各点について、その点が表面レンダリング像を作る際に図16に示すように透明と見做されるボクセルである場合、MPR像ではなく、表面レンダリング像を作成して表示するようにしても良い。さらに、この場合、図17(a)に示すように透明と見做されるボクセル部分については表面レンダリング像、他の部分についてはMPR像というように合成表示するようにしても良い。このとき、表面レンダリング像を表示させる深さ方向の範囲は操作部31を用いて指定するようにする。尚、図17(a)中、図17(b)に斜線で示す領域a1 ,a2 に対応する領域が表面レンダリング像、その他の部分がMPR像となっている。
【0043】
これにより、光学内視鏡像では視覚化されない断層面の情報を光学内視鏡像と対応付けて表示することができる。
【0044】
このように、本実施形態の医用画像診断装置1では、内視鏡装置10により得られる内視鏡像に対応する画像をX線CT装置20により得られるボクセルデータを基に画像処理装置30でも作成して前記内視鏡像と対比するようにしているので、臓器全体のいずれの部分を画像化しているのかが、内視鏡像より広い範囲のMPR像を確認することにより容易に分かるようになる。また、撮像部13aが被検体内のいずれの位置にあっていずれの方向に向いているのかを、被写体の形状を示す像上で示すことも可能となる。さらに、内視鏡像では視覚化されない断層面の情報をこの内視鏡像と対応付けて表示することも可能となる。
【0045】
尚、本実施形態では、MPR像、表面レンダリング像、最小値投影法による像を画像処理装置により作成するようにしているが、本発明はこれに限定されること無く、他の像、例えば三次元グラフィックス像等を作成させるようにしても良い。
【0046】
また、本実施形態では、基準マーカを体表に設け、この基準マーカを座標基準にしているが、本発明はこれに限定されること無く、他の位置、例えば、診察室の壁面や床面の所定位置を座標基準にするようにしても良い。
【0047】
さらに、本実施形態では、演算処理部33により得られたMPR像、表面レンダリング像等を画像処理装置30のモニタ37bに表示させるようにしているが、前記MPR像、表面レンダリング像等をモニタ37aに内視鏡像と共に表示させても良いし、内視鏡装置10もしくはX線CT装置20のモニタに表示させるようにしても良い。この場合、モニタ数を減らすことができる。
【0048】
【発明の効果】
以上説明したように本発明によれば、画像取得手段により取得されるボクセルデータから、位置・方向検出手段で得た撮像部の先端部の位置及び方向に応じて当該先端部近傍のレンダリング画像を生成し、生成されたレンダリング画像データを、被検体内撮像手段により得られる画像データと対比できるようにしているので、被検体内撮像手段により得られる画像データがいずれの部分をいずれの方向から観察したものかを容易に知ることができる。
【図面の簡単な説明】
【図1】本発明に係る医用画像診断装置の一実施形態の概略の構成を示した図である。
【図2】本発明に係る医用画像診断装置の一実施形態を示した機能ブロック図である。
【図3】位置・方向検出部(磁気式)の例を示した図である。
【図4】位置・方向検出部(光学式)の例を示した図である。
【図5】位置・方向検出部(機械式)の例を示した図である。
【図6】撮像部の撮像領域とその周囲を示す図である。
【図7】撮像部の撮像領域とその周囲を示す図中にMPR像を断面を示した図である。
【図8】超音波内視鏡像とMPR像を示す図である。
【図9】超音波内視鏡像とMPR像を示す図である。
【図10】超音波内視鏡像と表面レンダリング像を示す図である。
【図11】被検体の気管支とその気管支に挿入される撮像部を示す図である。
【図12】光学内視鏡像と表面レンダリング像を示す図である。
【図13】最小値投影法による像を示す図である。
【図14】最小値投影法による像上で、MPR像の断面を指示する場合を説明するための図である。
【図15】MPR像とそのMPR像上で透明と見做されるボクセル部分を示す図である。
【図16】ボクセルデータ上で透明と見做されるボクセルを示す図である。従来例の〜図である。
【図17】MPR像と表面レンダリング像の合成像を示す図である。
【符号の説明】
1 医用画像診断装置
10 内視鏡装置
20 X線CT装置
30 画像処理装置
31 操作部
33 演算処理部
35 画像メモリ
37 表示部
40 位置・方向検出部
[0001]
BACKGROUND OF THE INVENTION
The present invention is obtained by an in-subject imaging means such as an optical endoscope, an ultrasonic endoscope, an NMR (each magnetic resonance) endoscope, an ESR (electron spin resonance) endoscope, etc. that images the inside of the subject. The present invention relates to a medical image diagnostic apparatus that corresponds to an image and displays an image obtained by processing an image obtained by a three-dimensional image image acquisition unit such as an X-ray CT apparatus, an MRI apparatus, SPECT, PET, or a three-dimensional ultrasonic diagnostic apparatus. .
[0002]
[Prior art]
Conventionally, an optical endoscope, an ultrasonic endoscope, and an NMR (each magnetic resonance) endoscope have been used as means for imaging an inside of a subject and imaging the properties near the imaging portion. Endoscopic devices such as mirrors and ESR (electron spin resonance) endoscopes are known. In addition, an ultrasonic diagnostic apparatus is known as means for imaging the properties in the subject near the imaging unit without putting the imaging unit in the subject.
[0003]
On the other hand, MPR (multiplanar reconstruction) is used as an image processing means for creating (rendering) an image similar to an image that the imaging unit of the endoscope apparatus would acquire based on three-dimensional image data obtained from other means. ), Surface rendering, graphics, etc. are known. As 3D image acquisition means for obtaining 3D image data, an X-ray CT apparatus, an MRI apparatus, a SPECT (single photon emission computed tomography), a PET (positron emission tomography), a 3D ultrasonic diagnostic apparatus, etc. are known. ing.
[0004]
The MPR creates voxel data based on the three-dimensional image data obtained by the three-dimensional image acquisition means, and renders an arbitrary cross section in the subject from the voxel data. Further, the surface rendering is performed when a certain part in the object is made transparent based on the three-dimensional image data obtained by the imaging means, and the other part is made opaque, and a certain direction is observed from a certain point in the transparent part. The surface shape of the opaque part is depicted as an image.
[0005]
[Problems to be solved by the invention]
However, in the endoscope, there is a problem that it is not easy to know which part in the subject is currently observed and what is the object currently captured in the image.
[0006]
On the other hand, the image processing means can create only an image similar to an image expected to be acquired by the endoscope. In MPR, the internal properties of the opaque part can be understood, but the definition is far inferior to that of a cross-sectional image obtained using an ultrasonic endoscope or NMR endoscope which is a kind of endoscope. Furthermore, in surface rendering, the surface shape of the opaque part is known, but the definition is far inferior compared to the image of the wall in the lumen obtained using an optical endoscope that is a kind of endoscope, The color of the wall in the lumen cannot be depicted at all.
[0007]
The present invention has been made in view of the above problems, and provides a medical image diagnostic apparatus that can easily know from which direction the image data obtained by the in-subject imaging means is observed from which direction. The purpose is to do.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention includes an imaging unit for imaging an inside of a subject, and the imaging unit for acquiring image data in the subject by inserting or contacting the imaging unit with the subject. A position / direction detecting means for detecting the position and direction of the tip of the imaging unit; and a position of the tip of the imaging unit obtained by the position / direction detecting means from voxel data acquired by the image acquiring means; An image processing unit that generates a rendering image in the vicinity of the tip according to the direction, image data in the subject acquired by the in-subject imaging unit, and a rendering image that has been subjected to image processing by the image processing unit And a display means for displaying in correspondence with the above.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of an embodiment of a medical image diagnostic apparatus according to the present invention.
As shown in FIG. 1, a medical image diagnostic apparatus 1 according to this embodiment includes an endoscope apparatus 10 as an in-subject imaging means, an X-ray CT apparatus 20 as a three-dimensional image acquisition means, and an image processing means. An image processing apparatus 30, and an image corresponding to the endoscopic image obtained by the endoscope apparatus 10 is also created by the image processing apparatus 30 based on the voxel data obtained by the X-ray CT apparatus 20. By comparing with the mirror image, it is possible to easily know which part of the endoscopic image is observed from which direction.
[0012]
FIG. 2 is a functional block diagram showing this embodiment.
As shown in FIG. 2, the medical image diagnostic apparatus 1 includes an endoscope apparatus 10 that images an inside of a subject, an X-ray CT apparatus 20 that acquires voxel data that is three-dimensional image data of the subject, and an X-ray CT. The image processing apparatus 30 that performs image processing on voxel data obtained by the apparatus, and a position / direction detection unit 40 as position / direction detection means.
[0013]
As shown in FIG. 1, the endoscope apparatus 10 includes an endoscope apparatus main body 11 having a monitor 11a and an endoscope 13 having an imaging unit 13a that is inserted into the subject and images the inside of the subject. An endoscopic image in the subject is obtained. As the endoscope apparatus 10, for example, an optical endoscope, an ultrasonic endoscope, an NMR (each magnetic resonance) endoscope, an ESR (electron spin resonance) endoscope, or the like is used.
[0014]
As shown in FIG. 1, the X-ray CT apparatus 20 includes an operation unit (not shown) to which scan conditions and the like are input, an X-ray CT apparatus main body 21 having a monitor 21a and the like, and an X-ray beam X A gantry 23 having a rotating part (none of which is shown) for rotating an X-ray tube, a detector for detecting an X-ray beam that has been irradiated by the X-ray tube and passed through the subject, It comprises a bed 25 having a top plate on which a specimen is placed, and acquires image data of a cross section of the subject as slice data from data detected by the detector.
[0015]
As shown in FIG. 2, the image processing apparatus 30 includes an operation unit 31, an arithmetic processing unit 33, an image memory 35, and a display unit 37, and displays voxel data obtained by the X-ray CT apparatus 20 as an image. Process to create an MPR image, a surface rendering image, and the like.
[0016]
The operation unit 31 includes a keyboard, a trackball, and the like, and an operator designates an image processing method (designation of MPR, surface rendering, etc.), designates a cross-sectional position, and the like.
[0017]
The arithmetic processing unit 33 includes a CPU (not shown) and a memory (not shown) that stores a program for operating the CPU, and outputs voxel data based on slice data supplied from the X-ray CT apparatus 20. create. Further, the arithmetic processing unit 33 creates an MPR image, a surface rendering image, and the like according to the designation from the operation unit 31 based on the created voxel data.
[0018]
The image memory 35 stores voxel data, an MPR image, a surface rendering image, and the like created by the arithmetic processing unit 33.
[0019]
The display unit 37 includes two monitors 37a and 37b as shown in FIG. 1, and displays an endoscopic image obtained by the endoscope device 10, an MPR image created by the image processing device 30, a surface rendering image, and the like. Displayed on the monitors 37a and 37b.
[0020]
The position / direction detection unit 40 detects the position and direction of the imaging unit 13a by using known magnetic / optical / mechanical position / direction detection means.
[0021]
For example, in the case of the magnetic type, as shown in FIG. 3, at least two magnetic sensors 51 that are built in the tip of the imaging unit 13a or that have a sensor surface exposed from the surface of the imaging unit 13a and detect the magnetic field strength. (Two in FIG. 3), three axes fixed to the periphery of the subject, for example, the bed 25, and orthogonal to each other, for example, a horizontal axis, an axis perpendicular to this axis, and a vertical axis Are composed of three magnetism generating coils 53a, 53b, 53c and a calculation unit (not shown) built in the endoscope body 11, and in order from the three magnetism generating coils 53a, 53b, 53c in order, A magnetic field is generated, the magnetic field strength is detected by at least two magnetic sensors 51 for each of the magnetism generating coils 53a, 53b, and 53c, and the difference between the values is obtained by the calculation unit. To detect the location and direction. The magnetic position / direction detection unit 40 is not suitable for an NMR endoscope or an ESR endoscope because it uses magnetism and the magnetic sensor 51 is provided at the distal end of the imaging unit 13a. It is suitable for an endoscope, particularly a flexible optical endoscope that can be bent.
[0022]
In the case of the optical type, as shown in FIG. 4, at least two light emitters 55 (three in FIG. 4) fixed to the hand operation side of the endoscope 13, and positions where these light emitters 55 can be imaged. The camera 57 for imaging these light emitters 55 and a calculation unit (not shown) built in the endoscope body 11, the reference position of the light emitter 55 obtained by the camera 57, and movement of the endoscope 13 A difference in the position of the light emitter 55 obtained by the later camera 57 is obtained by the calculation unit to detect the position and direction of the imaging unit 13a. The optical position / direction detection unit 40 is not suitable for an optical endoscope capable of bending operation because the light emitter 55 is fixed to the hand operation side, and is suitable for a rigid optical endoscope. The optical position / direction detection unit 40 is also suitable for an ultrasonic diagnostic apparatus that images the inside of the subject from the outside of the subject. Further, when an NMR endoscope or an ESR endoscope is used as the endoscope apparatus 10, the position and direction of the imaging unit 13a can be determined by detecting the position and direction of the portion outside the subject. An optical position / direction detection unit 40 can be used.
[0023]
In the case of the mechanical type, as shown in FIG. 5, the arm 63 connected at one end to the base 61, the arm 65 connected to the other end of the arm 63, and the arm 63 moved to the base An angle for detecting a rotation angle of the rotation A on a plane parallel to a fixing surface of the shaft 67 that can be fixed, a shaft 69 that fixes the arm 65 rotatably with respect to the arm 63, and a base 61 of the shaft 67. Sensor 71, angle sensor 73 for detecting the rotation angle of rotation B on the surface perpendicular to the fixed surface of shaft 67, and rotation angle of rotation C on the surface perpendicular to the fixed surface of shaft 69 Angle sensor 75 and a calculation unit (not shown) built in endoscope body 11, and the position and direction of imaging unit 13 a are determined by the calculation unit based on the angles detected by angle sensors 71, 73, and 75. Calculate. The arm 65 is provided with an extendable arm 65a, and a sensor 77 for detecting the extension / contraction amount of the arm 65a is provided. In addition to the detection angles of the angle sensors 71, 73, 75, an image is picked up from the detection value of the sensor 77. You may make it detect the position and direction of the part 13a. Further, a gyroscope 79 may be provided at the tip of the arm 65 or the arm 65a, and the direction of the imaging unit 13a may be detected by the gyroscope 79. The mechanical position / direction detection unit 40 can be applied to any endoscope apparatus 10.
[0024]
Next, the operation of this embodiment will be described.
First, the operator inputs scan conditions and the like using the operation unit of the X-ray CT apparatus main body 21 of the X-ray CT apparatus 20 and starts tomographic imaging of a desired region of the subject by the X-ray CT apparatus 20. At this time, since the slice data obtained by the X-ray CT apparatus 20 and the endoscopic image obtained by the endoscope apparatus 10 are made to correspond to each other, the X-ray CT apparatus 20 can form an image on a body surface in a region where slice data is obtained. Add a reference marker.
[0025]
Further, the range in which slice data is acquired is wider than the range of the endoscopic image acquired by the endoscope apparatus 10. Then, the X-ray CT apparatus 20 acquires slice data of a predetermined region of the subject corresponding to the scan condition, and supplies it to the image processing apparatus 30.
[0026]
When the slice data is supplied, the arithmetic processing unit 33 of the image processing apparatus 30 creates a scanogram from the slice data and displays it on the monitor 37 b of the display unit 37 via the image memory 35. The operator matches the cursor to the reference marker displayed in the scanogram with a trackball. Thereby, the arithmetic processing unit 33 creates voxel data using the reference marker as a coordinate reference. The created voxel data is stored in the image memory 35.
[0027]
In this state, the operator makes the tip of the imaging unit 13a of the endoscope apparatus 10 coincide with the reference marker attached to the body surface, and this portion is a coordinate reference with respect to the calculation unit of the position / direction detection unit 40. Instructed to detect the position and direction of the imaging unit 13a. This instruction is given from an operation panel provided in the endoscope apparatus main body 11.
[0028]
Then, the operator starts taking an endoscopic image by the endoscope apparatus 10. The endoscope apparatus 10 displays image data obtained when endoscopic image capturing is started as an endoscopic image on the monitor 11 a and supplies the image data to the image processing apparatus 30. At this time, the position / direction detection unit 40 always detects the position and direction of the imaging unit 13 a of the endoscope apparatus 10, and supplies the detection result to the arithmetic processing unit 33 of the image processing apparatus 30.
[0029]
Next, the arithmetic processing unit 33 of the image processing apparatus 30 displays the image data supplied from the endoscope apparatus 10 as an endoscopic image on the monitor 37 a via the image memory 35.
[0030]
Here, when the endoscope apparatus 10 is a means for imaging an internal property of a substantial part (non-cavity part) near the tip of the imaging unit 13a, such as an ultrasonic endoscope, an NMR endoscope, an ESR endoscope, or the like. The operator instructs creation of an MPR image by pressing a predetermined key on the keyboard of the operation unit 31.
[0031]
At this time, for example, it is assumed that the endoscope apparatus 10 is an ultrasonic endoscope and a region A of a part of an organ is imaged into an endoscopic image as shown in FIG. In many cases, this endoscopic image cannot be recognized only from this endoscopic image as to which part of the whole organ. Therefore, the operator instructs the MPR image creation using the operation unit 31 and displays the MPR image together with the endoscopic image.
[0032]
When the MPR image creation is instructed, the arithmetic processing unit 33 of the image processing apparatus 30 corresponds to the position and direction of the imaging unit 13a supplied from the position / direction detection unit 40 as shown in FIG. An MPR image is created based on the voxel data with a plane perpendicular to the imaging surface as a cross section of the MPR image. The created MPR image is displayed on the monitor 37b as shown in FIG. At this time, the arithmetic processing unit 33 writes the imaging unit mark M1 in the MPR image in correspondence with the position and size of the imaging unit 13b.
[0033]
As a result, it can be easily understood which part of the whole organ is imaged by confirming the MPR image shown in FIG. 8 (b) in a wider range than the endoscopic image shown in FIG. 8 (a). become.
[0034]
Further, by pressing a predetermined key on the operation unit 31, an MPR image as shown in FIG. 9B orthogonal to the MPR image shown in FIG. 8B is created, and the position of the imaging unit 13a is formed on the MPR image. The imaging part mark M2 may be displayed in correspondence with the size.
[0035]
Further, by pressing a predetermined key on the operation unit 31, surface rendering showing the organ surface is performed as shown in FIG. 10B, and the surface rendering image is made to correspond to the position and size of the imaging unit 13a. The image pickup unit mark M3 may be displayed. At this time, the range in the depth direction in which the surface rendering image is displayed is specified using the operation unit 31. As shown in FIG. 8A, an ultrasonic endoscopic image is displayed on the monitor 37a as shown in FIGS. 9A and 10A.
[0036]
When the endoscope apparatus 10 is a means for imaging the surface properties near the tip of the imaging unit 13a, such as an optical endoscope, the operator performs surface rendering by pressing a predetermined key on the keyboard of the operation unit 31. Instruct the creation of an image.
[0037]
For example, assume that the imaging unit 13a is inserted into the bronchus of the subject as shown in FIG. 11, and an optical endoscopic image is obtained as shown in FIG. In the surface rendering in this case, the voxel representing the air in the voxel data is regarded as transparent, the other is considered opaque, and the surface formed by the opaque voxel when the voxel data is viewed from the position and direction of the imaging unit 13a. The shape is visualized and displayed on the monitor 37b as an image similar to the optical endoscopic image as shown in FIG. At this time, the range in the depth direction in which the surface rendering image is displayed is specified using the operation unit 31.
[0038]
In this case, in the optical endoscopic image, the shape, mottle, color, and the like of the bump N can be observed as shown in FIG. 12A, and only the shape of the bump N can be seen in the surface rendering image as shown in FIG. .
[0039]
In addition, an image by the minimum value projection method for projecting the minimum value of the voxel corresponding to each pixel is created by the arithmetic processing unit 33 of the image processing device 30, and an image pickup unit mark indicating the position and direction of the image pickup unit 13a on the image May be written. For example, based on the voxel data, an image of the bronchial portion shown in FIG. 13 by the minimum value projection method is created, and an image pickup unit mark M4 indicating the position and direction of the image pickup unit 13a is formed on the image by the minimum value projection method. Write and display on monitor 37b.
[0040]
Thereby, it can be shown on the image which shows the shape of the bronchi which is a to-be-photographed object in which position and the direction which the imaging part 13a is located in the test object.
[0041]
When examining the external bronchial properties of an object such as an aneurysm N observed on the optical endoscopic image shown in FIG. 12 (a) and the surface rendering image shown in FIG. 12 (b), for example, in FIG. As shown in FIG. 15, a surface p separated by a distance d from the position indicated by the image pickup unit mark M4 is designated using the trackball of the operation unit 31, and the MPR image of this surface p is generated by the arithmetic processing unit 33. Is displayed on the monitor 37b. Thereby, the structure in the inside of the lump N (inside, back side) can be observed.
[0042]
Further, in the MPR image shown in FIG. 15, when each point corresponding to the cross section of the MPR image is a voxel that is considered to be transparent as shown in FIG. Instead of an image, a surface rendering image may be created and displayed. Further, in this case, as shown in FIG. 17A, the voxel portion that is regarded as transparent may be combined and displayed as a surface rendering image, and the other portion as an MPR image. At this time, the range in the depth direction in which the surface rendering image is displayed is specified using the operation unit 31. In FIG. 17A, regions corresponding to the regions a1 and a2 indicated by hatching in FIG. 17B are surface rendering images, and other portions are MPR images.
[0043]
Thereby, information on a tomographic plane that is not visualized in the optical endoscopic image can be displayed in association with the optical endoscopic image.
[0044]
As described above, in the medical image diagnostic apparatus 1 of the present embodiment, the image processing apparatus 30 also creates an image corresponding to the endoscopic image obtained by the endoscope apparatus 10 based on the voxel data obtained by the X-ray CT apparatus 20. Since this is contrasted with the endoscopic image, it can be easily understood which part of the whole organ is imaged by confirming an MPR image in a wider range than the endoscopic image. It is also possible to indicate on the image indicating the shape of the subject which position in the subject the imaging unit 13a is in and in which direction. Furthermore, it is also possible to display information on a tomographic plane that is not visualized in an endoscopic image in association with the endoscopic image.
[0045]
In this embodiment, the MPR image, the surface rendering image, and the image by the minimum value projection method are created by the image processing apparatus. However, the present invention is not limited to this, and other images such as a tertiary image are used. An original graphics image or the like may be created.
[0046]
In this embodiment, a reference marker is provided on the body surface, and the reference marker is used as a coordinate reference. However, the present invention is not limited to this, and other positions, for example, a wall surface or a floor surface of an examination room. The predetermined position may be used as a coordinate reference.
[0047]
Furthermore, in this embodiment, the MPR image, the surface rendering image, and the like obtained by the arithmetic processing unit 33 are displayed on the monitor 37b of the image processing apparatus 30, but the MPR image, the surface rendering image, and the like are displayed on the monitor 37a. May be displayed together with the endoscope image, or may be displayed on the monitor of the endoscope apparatus 10 or the X-ray CT apparatus 20. In this case, the number of monitors can be reduced.
[0048]
【The invention's effect】
As described above, according to the present invention, from the voxel data acquired by the image acquisition unit, a rendering image near the tip is obtained according to the position and direction of the tip of the imaging unit obtained by the position / direction detection unit. Since the generated rendering image data can be compared with the image data obtained by the in-subject imaging means, the image data obtained by the in-subject imaging means observes which part from which direction. You can easily know what you did.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an embodiment of a medical image diagnostic apparatus according to the present invention.
FIG. 2 is a functional block diagram showing an embodiment of a medical image diagnostic apparatus according to the present invention.
FIG. 3 is a diagram illustrating an example of a position / direction detection unit (magnetic type).
FIG. 4 is a diagram illustrating an example of a position / direction detection unit (optical type).
FIG. 5 is a diagram illustrating an example of a position / direction detection unit (mechanical type).
FIG. 6 is a diagram illustrating an imaging region of an imaging unit and its surroundings.
FIG. 7 is a diagram showing a cross section of an MPR image in a diagram illustrating an imaging region of an imaging unit and its surroundings.
FIG. 8 is a diagram showing an ultrasonic endoscopic image and an MPR image.
FIG. 9 is a diagram showing an ultrasonic endoscopic image and an MPR image.
FIG. 10 is a diagram showing an ultrasonic endoscopic image and a surface rendering image.
FIG. 11 is a diagram showing a bronchus of a subject and an imaging unit inserted into the bronchus.
FIG. 12 is a diagram showing an optical endoscopic image and a surface rendering image.
FIG. 13 is a diagram illustrating an image obtained by a minimum value projection method.
FIG. 14 is a diagram for explaining a case in which a cross section of an MPR image is designated on an image obtained by a minimum value projection method.
FIG. 15 is a diagram illustrating an MPR image and a voxel portion that is considered transparent on the MPR image.
FIG. 16 shows voxels that are considered transparent on voxel data. It is a ~ figure of a prior art example.
FIG. 17 is a diagram illustrating a composite image of an MPR image and a surface rendering image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Medical diagnostic imaging apparatus 10 Endoscope apparatus 20 X-ray CT apparatus 30 Image processing apparatus 31 Operation part 33 Operation processing part 35 Image memory 37 Display part 40 Position / direction detection part

Claims (9)

被検体内を撮像する撮像部を有し、この撮像部を被検体に挿入もしくは接触させて前記被検体内の画像データを取得する被検体内撮像手段と、
前記撮像部の先端部の位置と方向を検出する位置・方向検出手段と、
画像取得手段により取得されるボクセルデータから、前記位置・方向検出手段で得た前記撮像部の先端部の位置及び方向に応じて当該先端部近傍のレンダリング画像を生成する画像処理手段と、
前記被検体内撮像手段により取得される被検体内の画像データと、前記画像処理手段により画像処理されたレンダリング画像を相互に対応させて表示する表示手段と、
を有することを特徴とする医用画像診断装置。
In-subject imaging means for acquiring an image data in the subject by having an imaging portion for imaging the inside of the subject and inserting or contacting the imaging portion to the subject;
Position / direction detection means for detecting the position and direction of the tip of the imaging unit;
Image processing means for generating a rendering image in the vicinity of the distal end portion according to the position and direction of the distal end portion of the imaging section obtained by the position / direction detection means from voxel data obtained by the image obtaining means;
Display means for displaying the image data in the subject acquired by the in-subject imaging means and the rendering image image-processed by the image processing means in correspondence with each other ;
A medical image diagnostic apparatus comprising:
前記画像処理手段は、前記レンダリング画像として、MPR像を生成することを特徴とする請求項1記載の医用画像診断装置。The medical image diagnostic apparatus according to claim 1, wherein the image processing unit generates an MPR image as the rendering image . 前記画像処理手段は、前記レンダリング画像として、前記撮像部の先端部の位置と方向によって決まる前記撮像部の視軸に対して、直交する面を截面とするMPR像を生成することを特徴とする請求項1記載の医用画像診断装置。The image processing unit generates, as the rendering image, an MPR image with a plane orthogonal to a visual axis of the imaging unit determined by a position and a direction of a tip of the imaging unit. The medical image diagnostic apparatus according to claim 1. 前記画像処理手段は、前記レンダリング画像として、表面レンダリング像を生成することを特徴とする請求項1記載の医用画像診断装置。The medical image diagnostic apparatus according to claim 1, wherein the image processing unit generates a surface rendering image as the rendering image. 前記表面レンダリング像を表示させる深さ方向の範囲を指定する指定手段を更に備えることを特徴とする請求項4記載の医用画像診断装置。  5. The medical image diagnostic apparatus according to claim 4, further comprising designation means for designating a range in a depth direction in which the surface rendering image is displayed. 前記画像処理手段は、前記レンダリング画像として、最小値投影法による像を生成することを特徴とする請求項1記載の医用画像診断装置。The medical image diagnostic apparatus according to claim 1, wherein the image processing unit generates an image by a minimum value projection method as the rendering image. 前記画像処理手段は、前記レンダリング画像として、表面レンダリング像とMPR像の合成画像を作成することを特徴とする請求項1記載の医用画像診断装置。The image processing means, as the rendered image, the medical image diagnostic apparatus according to claim 1, wherein the creating a composite image of the surface rendering image and MPR image. 前記表示手段は、前記被検体内撮像手段により取得された画像データより広い範囲のレンダリング画像データを表示することを特徴とする請求項1記載の医用画像診断装置。The medical image diagnostic apparatus according to claim 1, wherein the display unit displays rendering image data in a wider range than the image data acquired by the intra-subject imaging unit. 前記画像処理手段は、前記位置・方向検出手段により検出される前記撮像部の先端部を示すマークを、前記画像処理したレンダリング画像に埋め込むことを特徴とする請求項1乃至請求項8のいずれか1項記載の医用画像診断装置。9. The image processing unit according to claim 1, wherein the image processing unit embeds a mark indicating the tip of the imaging unit detected by the position / direction detection unit in the rendered image subjected to the image processing. Item 1. A medical image diagnostic apparatus according to item 1.
JP06651796A 1996-03-22 1996-03-22 Medical diagnostic imaging equipment Expired - Lifetime JP3683977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06651796A JP3683977B2 (en) 1996-03-22 1996-03-22 Medical diagnostic imaging equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06651796A JP3683977B2 (en) 1996-03-22 1996-03-22 Medical diagnostic imaging equipment

Publications (2)

Publication Number Publication Date
JPH09253038A JPH09253038A (en) 1997-09-30
JP3683977B2 true JP3683977B2 (en) 2005-08-17

Family

ID=13318139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06651796A Expired - Lifetime JP3683977B2 (en) 1996-03-22 1996-03-22 Medical diagnostic imaging equipment

Country Status (1)

Country Link
JP (1) JP3683977B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6464642B1 (en) 1999-08-20 2002-10-15 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus
JP5030335B2 (en) * 2001-03-06 2012-09-19 オリンパス株式会社 Medical image display device
JP4583658B2 (en) * 2001-05-22 2010-11-17 オリンパス株式会社 Endoscope system
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
JP4334839B2 (en) * 2002-09-12 2009-09-30 オリンパス株式会社 Endoscope observation device
WO2005025635A2 (en) 2003-09-15 2005-03-24 Super Dimension Ltd. System of accessories for use with bronchoscopes
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
JP2006223850A (en) * 2005-01-18 2006-08-31 Pentax Corp Electronic endoscope system
JP2006230906A (en) * 2005-02-28 2006-09-07 Toshiba Corp Medical diagnostic system and apparatus, and endoscope
JP4868959B2 (en) * 2006-06-29 2012-02-01 オリンパスメディカルシステムズ株式会社 Body cavity probe device
US8905920B2 (en) 2007-09-27 2014-12-09 Covidien Lp Bronchoscope adapter and method
JP5379454B2 (en) * 2008-11-21 2013-12-25 オリンパスメディカルシステムズ株式会社 Medical observation apparatus and medical observation system
WO2011159834A1 (en) 2010-06-15 2011-12-22 Superdimension, Ltd. Locatable expandable working channel and method
JP5808004B2 (en) * 2011-08-24 2015-11-10 国立大学法人 奈良先端科学技術大学院大学 Image processing apparatus, image processing method, and program
US10952593B2 (en) 2014-06-10 2021-03-23 Covidien Lp Bronchoscope adapter

Also Published As

Publication number Publication date
JPH09253038A (en) 1997-09-30

Similar Documents

Publication Publication Date Title
JP3683977B2 (en) Medical diagnostic imaging equipment
JP5248474B2 (en) Targeting method, targeting device, computer-readable medium, and program element
JP5400326B2 (en) Method for displaying tomosynthesis images
US8798339B2 (en) Targeting method, targeting device, computer readable medium and program element
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
RU2550542C2 (en) Method and device for shaping computer tomographic images using geometries with offset detector
US8498692B2 (en) Method for displaying a medical implant in an image and a medical imaging system
JP5417609B2 (en) Medical diagnostic imaging equipment
US20070270689A1 (en) Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images
JP2006519631A (en) Execution system and execution method for virtual endoscopy
CN101410060A (en) Determining tissue surrounding an object being inserted into a patient
JP2001218765A (en) Method and system for visualizing object
JP2007007255A (en) X-ray ct apparatus
US10537293B2 (en) X-ray CT system, image display device, and image display method
JP2011125570A (en) Image processor, image processing method and program
JP2007185514A (en) Imaging medical device and method to set working parameter of imaging medical device
US9402590B2 (en) Three-dimensional image processing apparatus and X-ray diagnostic apparatus
TW201919544A (en) Systems and methods for ultra low dose CT fluoroscopy
JP4686279B2 (en) Medical diagnostic apparatus and diagnostic support apparatus
JP2009022411A (en) Medical image processor
JPH05120451A (en) Medical diagnostic picture processor
CN113940691A (en) System and method for patient positioning for image acquisition
JP6487999B2 (en) Information processing apparatus, information processing method, and program
JP3662354B2 (en) X-ray CT system
JP5455290B2 (en) Medical image processing apparatus and medical image diagnostic apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050425

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090603

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100603

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100603

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110603

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120603

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130603

Year of fee payment: 8

EXPY Cancellation because of completion of term