JP2004105734A - 3d対象物のコンピュータ支援表示方法 - Google Patents

3d対象物のコンピュータ支援表示方法 Download PDF

Info

Publication number
JP2004105734A
JP2004105734A JP2003322625A JP2003322625A JP2004105734A JP 2004105734 A JP2004105734 A JP 2004105734A JP 2003322625 A JP2003322625 A JP 2003322625A JP 2003322625 A JP2003322625 A JP 2003322625A JP 2004105734 A JP2004105734 A JP 2004105734A
Authority
JP
Japan
Prior art keywords
image
display
basic
auxiliary
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003322625A
Other languages
English (en)
Other versions
JP4510415B2 (ja
Inventor
Hendrik Ditt
ヘンドリク ディット
Norbert Rahn
ノルベルト ラーン
Siegfried Wach
ジークフリート ヴァッハ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2004105734A publication Critical patent/JP2004105734A/ja
Application granted granted Critical
Publication of JP4510415B2 publication Critical patent/JP4510415B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】操作者(執刀医)のために、表示された状況の把握を簡単にすることを可能にする3D対象物のためのコンピュータ支援表示方法を提供する。
【解決手段】3D対象物(9)のためのコンピュータ支援表示方法において、コンピュータ(2)によって対象物(9)の2D基礎画像(23)および対象物(9)の3Dボリュームデータセット(19)の2D基礎表示(20)が求められ、出力システム(10)を介して画像として一時的に出力される。基礎画像(23)と基礎表示(20)とはコンピュータ(2)によって同時に、しかし場所的には互いに分離して出力される。
【選択図】図3

Description

 本発明は、3Dの対象物のコンピュータ支援表示方法に関する。この種の方法は特に画像支援による医療手術において使用される。
 この方法では、コンピュータによって連続的に対象物の2Dの基礎画像が求められ、出力システムを介して画像として一時的に出力される。その場合、この種の表示方法の使用は、このために必要な装備が手術室にしばしば存在することから、特にそれだからこそ考えられ得る。さらに、この装備は、例えば磁気共鳴撮影法、コンピュータ断層撮影法、3Dアンギオ(血管撮影)法などのような3D画像形成のための装備よりも簡単に取り扱うことができ、低コストである。さらに、対象物を記述するボリュームデータセットをリアルタイムで求めることは今日の技術水準では不可能である。しかしながら、画像形成のリアルタイム能力は身体手術とまさに関連して放棄するわけにはいかない特性である。
 対象物の2D画像は多数の欠点を有する。それゆえ、とくに操作者(執刀医)は対象物の2D画像を使用する場合、表示された2D画像内容を実際の3次元の人体構造関係に頭の中で描いて移すという困難な課題にいつも直面する。しばしば操作者は、ボリュームデータセットおよびボリュームデータセットから求められた2D表示に基づいて術前の手術計画を行なっても、手術時に計画結果は手術中にリアルタイム使用できる2D画像上に直接表示できないという状況が生じる。
 ナビゲーション手順の場合、臨床環境においては、たいてい位置センサーを装備した外科用器具が使用される。それによって、この器具の実際の位置を(場合によっては手術中に1回または複数回行なわれる所謂登録手順の後に)術前に発生させた画像データの中に表示することができる。このやり方の場合、位置センサーの取り扱いが簡単ではないことが問題である。登録手順もたいてい非常に労力がかかる。その他の欠点は、対象物のボリュームデータセットから求められた術前の画像データがしばしば必要な現実性を有しないことにある。
 さらに、整形外科手順の場合において、対象物の複数の2D画像を(たいていは投影の形で)表示し、ナビゲーションを作動させることは公知である。この試みは、術前の3Dボリュームデータの不足する現実性の欠点を取り除く。なぜならば、これらのデータはここではX線像によって埋め合わせられるからである。もちろん、ここでは、真の3D情報を使用できるのではなく、似て非なる3D情報しか得られず、その3D情報から執刀医は頭の中で描いて3Dシナリオを形成しなければならない。さらに、このやり方の場合にも、術前の(本物の)3D画像データに基づいてあらかじめ行なわれた事前の手術計画の結果を術中の2D投影に簡単に転送することはできない。
 さらになお、手術領域の2つの投影を撮像して出力システムを介して画像として表示することが知られている。この場合、手術領域における擬似空間的な情報を得るために、投影は異なる角度で撮像される。この試みの場合にも3D情報が発生するわけではないので、3Dの周辺事情は執刀医によって頭の中で描かれて生み出されなければならない。
 コンピュータによって対象物の3Dボリュームデータセットの2D基礎表示が求められ、出力システムを介して画像として一時的に出力されるような3D対象物のためのコンピュータ支援表示方法が、まだ公開されていない先願に記載されている(特許文献1)。さらに、コンピュータによって、対象物の2D基礎画像が求められて、(少なくとも部分的に)2D基礎表示に重畳されるかもしくは2D基礎表示の中に挿入される。このやり方は既に大きな進歩を遂げたが、しかしあらゆる局面において完全に満足のいくものであるというわけではない。
ドイツ特許出願第10210646.0号明細書(出願日:2002年3月11日、発明の名称:「患者の検査範囲内に導入された医療器具の画像表示方法」(“Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments”)
 本発明の課題は、操作者(執刀医)のために、表示された状況の把握をさらに簡単にすることを可能にする3D対象物のコンピュータ支援表示方法を提供することにある。
 この課題は、コンピュータによって対象物の2D基礎画像が求められて、出力システムを介して画像として一時的に出力され、コンピュータによって対象物の3Dボリュームデータセットの2D基礎表示が求められて、出力システムを介して画像として一時的に出力され、2D基礎画像および2D基礎表示がコンピュータによって同時にしかし場所的には互いに分離して出力されることよって解決される。
 従って、本発明は、特に、一方ではリアルタイムで求められた術中の2D画像データが使用されるが、しかし補助的に術前の3D画像データが存在するので、2D画像データの情報と3D画像データの情報とが相互に補い合うことができる術中の状況を目指している。しかしながら、本発明は、相互に一つにまとまった表示(混入)に限定されるのではなくて、むしろ隣り合わせの画像表示に該当する。
 基礎画像のみならず、基礎表示もコンピュータによってリアルタイムで求められる場合、この方法は特に多方面に適用可能である。特に、この場合、基礎表示を対話式で変化させる可能性が存在する。
 基礎表示が基礎撮影ジオメトリによって定められ、基礎撮影ジオメトリがいつでも可変である場合、基礎画像もいつでも場合によって生じ得る変化の必要性に適合させることができる。
 基礎画像の適合化のために基礎撮影ジオメトリを操作者によって手動で基礎撮影位置へ移動させようとする場合、これは、基礎撮影位置への到達時にコンピュータが音響的または光学的な基礎応答信号を操作者に対して出力するおよび/または基礎撮影ジオメトリが機械的な基礎応答信号を操作者に対して出力することによって、特に正確に確実に行なうことができる。
 基礎表示および基礎画像は透視投影であり、それらの投影パラメータが一致するように定められるならば、両画像は同じ視角のもとで対象物を示す。理想的な場合には画像が一致する。それによって、両画像の頭の中で描かれる相互の調整は操作者にとって特に簡単である。
 基礎表示の投影パラメータを、この投影パラメータが基礎画像の投影パラメータと一致するように定めることは、従来技術では「登録」という概念で知られている。登録方法は、例えば先に挙げた特許文献1に記載されている。登録方法そのものは本発明の対象ではない。
 コンピュータによってボリュームデータセットに関して与えられる少なくとも1つの位置関連情報が、コンピュータによって基礎画像の対応個所において考慮されるならば、表示された状況の理解が操作者にとって更に簡単になる。
 ボリュームデータセットは一般には予め求められている。ボリュームデータセットは例えばカテーテルを案内しようとする血管系を表す。このボリュームデータセットに基づいて、例えばカテーテルを案内すべき行路を確定することができる。このような場合、例えば基礎画像の中に所謂「ロードマップ」を挿入することができる。基礎表示の中におけるカーソルにより範囲をマークあるいは選択し、このようなマークもしくは選択を半自動または全自動で基礎画像に伝送することも可能である。そのうえさらに、場合によっては、基礎表示のためのカーソルを基礎画像のカーソルと直接に連動させることも可能ある。
 逆のやり方も原理的に可能である。つまり、コンピュータによって対象物に関して与えられる少なくとも1つの位置関連情報を、コンピュータによって基礎表示の対応個所において考慮することも可能である。例えばカテーテル先端の実際の瞬時位置を求めて基礎表示の中で表示することができる。
 しかし、対象物に関して与えられる位置関連情報を基礎表示の対応個所において考慮する場合、補助的に、3次元から2次元への画像と違って、基礎画像から基礎表示への画像は一般には一義的ではないことを考慮すべきである。基礎画像の各点はボリュームデータセットにおいては1つの線にて描かれる。この線は、基礎表示および基礎画像が投影パラメータの一致する透視投影である場合にのみ、再び基礎表示の一点に縮小する。
 特に、ボリュームデータセットにおける基礎画像のこの画像一致により、コンピュータによって、対象物の基礎画像とは異なる対象物の2D補助画像が求められ、補助画像はコンピュータによって出力媒体を介して画像として一時的に出力され、対象物の補助画像は、基礎画像および基礎表示に対して同時ではあるが、しかし場所的にはそれらから分離されて出力されるようにすることは有利である。補助画像を求めることはもちろんリアルタイムで行われる。
 なぜならば、2つの2D画像を使用できることによって、ボリュームデータセットにおける両画像内のそれぞれ1つの定められた個所にマークを付けた場合に2つの線が求まるからである。十字記号の方位測定と同じようにしてボリュームデータセットにおける対応位置を求め、基礎表示内にも一義的に(点で)マークを付けることができる。
 基礎画像と同じように、補助画像も補助撮影ジオメトリによって決まる。特に、補助撮影ジオメトリもいつでも変更可能である。その場合、基礎画像と同じように、予め決められた補助撮影位置への手動の移動がコンピュータの音響的または光学的な補助応答信号および/または補助撮影ジオメトリの機械的な補助応答信号によって行われる。
 基礎撮影ジオメトリは基礎画像主軸線を有し、補助撮影ジオメトリは補助画像主軸線を有する。両画像主軸線は共通な交点で交差角を形成して交差する。交差角は、特に、基礎画像および補助画像によって伝えられる対象物の全情報ができるだけ大きくなるように決められている。これは、補助画像が基礎画像に対して交差角が90°になるように決められた場合である。
 交差角が構造的に制約されて90°よりも小さい限界角で最大になる場合、補助画像は基礎画像に対して特に交差角が限界角に等しくなるように決められる。
 特に、コンピュータによって、ボリュームデータセットの基礎表示とは異なるボリュームデータセットの2次元の補助表示が求められ、出力システムを介して画像として一時的に出力される。補助表示は、基礎画像および基礎表示に対して同時ではあるが、しかし場所的にはそれらから分離されて、場合によっては補助画像からも場所的に分離されて出力される。それによって、操作者にとって、表示された状況の更に良好な理解が可能となる。基礎表示におけると同様に、補助表示も特にコンピュータによってリアルタイムで求められる。なぜならば、それによって補助表示も対話式にて変更可能であるからである。
 補助表示および補助画像は透視投影であり、それらの投影パラメータが一致するように決められるならば、補助画像および補助表示の頭の中で描いた調整および対比が操作者にとって特に簡単になる。
 さらに、コンピュータによって、ボリュームデータセットの基礎表示にも補助表示にも関係しないボリュームデータセットの2D補足表示が求められ、出力システムを介して画像として一時的に出力される。その場合、補足表示も、基礎画像、基礎表示および補助表示と同時ではあるが、しかし場所的にはこれらから分離されて、場合によっては補助画像からも場所的に分離されて出力される。というのは、その場合には表示方法がさらに多面的であるからである。とくに、例えば、基礎表示および補助表示を変えなくても、補足表示を変えることができる。
 補足表示も、基礎表示および補助表示と同様に、リアルタイムで求められる。というのは、補足表示はここでも対話式にて変更可能であるからである。
 画像および表示が、出力システムのそれぞれ1つの専用出力装置、例えばモニタを介して出力されるならば、出力は特に一目で分かるように行われる。
 上述のように、基礎表示および補助表示は透視投影であってよい。もちろん、同じことが補足表示にも当てはまる。しかしながら、表示は、個別にまたは一緒に、平行投影またはスライスであってもよい。基礎画像および補助画像も透視投影であってよい。
 基礎画像が、場合によっては補助画像も、X線または超音波によって求められる場合、画像検出は特に簡単に行なわれる。
 以下において、図面に示す実施例の説明から本発明の他の利点および詳細を明らかにする。図1は画像形成装置を概略的に示し、図2は図1の部分詳細を示し、図3および図4は対象物ボリュームデータセットの2D表示と対象物の少なくとも1つの2D画像との組み合わせを示す。
 図1によれば、画像形成装置1は例えばX線装置1として構成されている。X線装置1は制御コンピュータ2と接続されている。
 X線装置1は図2によればCアーム装置として構成されている。Cアーム装置は、共通な円形軌道5上において揺動軸線6を中心に揺動可能であるX線源3およびX線検出器4からなるX線システムを有する。円形軌道5上における各点が撮影ジオメトリを規定する。撮影ジオメトリは、特にX線源3およびX線検出器4の中心点によって定められている画像主軸線7を有する。主軸線7は揺動軸線6と交点8で交差する。
 この撮影ジオメトリにて検出される対象物9(一般には人体9)の透視画像はX線検出器4により検出可能であり、リアルタイムで制御コンピュータ2に伝達可能である。その後コンピュータ2によって対象物9の対応する画像23が求められ、リアルタイムで出力システム10を介して画像として一時的に出力される。透視画像のこの例では、画像23は透視投影23である。
 図2によれば、X線源3およびX線検出器4によって構成されたX線システムに加えて、同様にX線源3’およびX線検出器4’を有する別のX線システムが存在する。両X線システムはほぼ同一に構成されている。これらは同じに駆動される。従って同一構成要素には同一参照符号が付されているが、しかし最初に述べたX線システムと区別するためにアポストロフィ(’)を備えている。
 以下において、X線検出器4によって検出された透視画像(投影23)とX線検出器4’によって検出された透視画像(投影23’)とを区別する場合に限り、前者は基礎画像23もしくは基礎投影23と呼ばれ、後者は補助画像23’もしくは補助投影23’と呼ばれる。
 図3によれば、制御コンピュータ2によって補助画像23’が同様に出力システム10を介して出力される。出力システム10は複数の出力装置11、例えばモニタ11を有する。両投影23,23’はそれぞれ1つの専用の出力装置11を介して出力される。画像23,23’の出力は同時ではあるが互いに別々に行われる。
 基礎画像23および補助画像23’は撮影ジオメトリによって定められ、図2によれば撮影ジオメトリは互いに異なっている。画像主軸線7,7’は交点8で交差角αにて交差している。それゆえ、補助画像23’も基礎画像23とは異なっている。
 補助画像23’は、基礎画像23に対して、交差角αが最小値を下回らないように決められる。特に、交差角αは90°であるとよい。画像主軸線7,7’が交差することのできる最大の限界角が90°よりも小さいために、補助画像23’は基礎画像23に対して交差角αが限界角に等しくなるように決められる。実際においては、交差角αが45°であるならば良好な結果が得られることが判明している。
 原理的には、X線システムの基礎撮影ジオメトリおよび補助撮影ジオメトリは互いに独立に設定可能である。X線システムの基礎撮影ジオメトリおよび補助撮影ジオメトリは、例えば、図1に示されているように、操作者12によって手動で、または制御コンピュータ2によって調節することができる。しかし、いずれの場合にも、撮影ジオメトリはいつでも変更可能である。
 撮影ジオメトリの変更が操作者12によって手動で行われる場合、予め決められた撮影位置への移動は臨界的である。従って、例えば制御装置13のセンサにより連続的にX線システムの瞬時位置が検出され、制御コンピュータ2に通報される。例えば基礎撮影ジオメトリが決められた撮影位置に到達したとき、コンピュータ2はディスプレイまたは模式的に示された信号ランプ14を介して光学的な応答信号を操作者12に出力する。
 代替または追加として、所望の撮影位置への到達時に小形スピーカ15を介して音響的な応答信号で報知することもできる。X線装置1自体は模式的に示された機械的なフィードバック要素16を持っており、撮影ジオメトリ自体が多数の回転位置を持つスイッチのように機械的な応答信号を操作者12に出力するようにすることも可能である。
 撮影位置の決められた到着に関する上述の説明は基礎X線システムおよび補助X線システムのどちらにも同じように当てはまることは勿論のことである。
 対象物9の透視画像(投影23,23’)の撮影および出力装置11を介する投影23,23’の表示は、制御コンピュータ2によってコンピュータプログラム17の働きによって行われる。制御コンピュータ2はコンピュータプログラム17によりプログラミングされている。
 制御コンピュータ2にはメモリ18が付設されている。メモリ18には、特に対象物9のボリュームデータセット19が格納されている。ボリュームデータセット19はすべての3D画像形成装置のデータから求められている。従って、ボリュームデータセット19は、例えばコンピュータ断層撮影法(CT)、磁気共鳴断層撮影法(MRI)、3D血管撮影法(3D−ANGIO)、3DX線法、3D超音波法、そして例えばポジトロン断層撮影法(PET)やシングルフォトンエミッションコンピュータ断層撮影法(SPECT)の如き他の3D法によって求めることができる。
 従って、コンピュータプログラム17によって制御されて、制御コンピュータ2はボリュームデータセット19の少なくとも1つの表示20〜22も求め、それを出力システム10の出力装置11の1つを介して表示する。制御コンピュータ2は表示20〜22のそれぞれを、出力システムのそれぞれ1つの専用出力装置11を介して画像として一時的に出力する。それゆえ、表示20〜22も制御コンピュータ2によって確かに同時ではあるが、しかし場所的には互いに分離されて(画像23,23’からも場所的に分離されて)出力される。
 図3によれば、制御コンピュータ2はボリュームデータセット19の3つの表示20〜22を出力装置11のそれぞれ1つを介して出力する。表示20〜22は、以下において、互いに区別するために、基礎表示20、補助表示21、補足表示22と呼ばれる。
 表示20〜22は制御コンピュータ2によってリアルタイムで求められる。図3によれば、特に基礎表示20および補助表示21は透視投影20,21である。その場合、基礎表示20の投影パラメータは基礎画像23の投影パラメータと一致する。同様に、補助表示21の投影パラメータは補助画像23’の投影パラメータと一致する。それゆえ、特に補助表示21は基礎表示20とは異なる。
 補足表示22は基礎表示20および補助表示21からは独立している。補足表示22は、図3によれば、特に対話式にて変更可能である。例えば、ボリュームデータセット19は、補足表示22を介して可変の視角のもとで表示することができる。
 図3によれば、基礎表示20は基礎画像23に結合され、補助表示21は補助画像23’に結合されている。それゆえ、特に基礎表示20および補助表示21は強制的に透視投影20,21である。この場合においては、そのうえさらに基礎画像23と補助画像23’が相互結合であるので、間接的に基礎表示20と補助表示21が互いに結合されている。それゆえ、基礎画像23または補助画像23’の変化時に対応する表示20,21が間接的に且つ自動的に追従する。従って、間接的に基礎表示20および補助表示21も対話式で変更可能である。
 しかしながら、原理的には、基礎表示20は基礎画像23から結合を外し、同様に補助表示21も補助画像23’から結合を外すことも可能である。この場合において、当然、基礎表示20および補助表示21の直接の対話式変更も可能である。さらに、この場合、基礎表示20および補助表示21は必ずしも透視投影である必要がない。寧ろこの場合は基礎表示20および補助表示21は平行投影またはスライスであってもよい。
 この種の結合外しの例が図4に示されている。図4によれば、出力システム10を介して、(ボリュームデータセット19の)3つの表示20〜22と、(対象物の)投影23とが同時に、しかし場所的には互いに分離されて出力される。3つの表示20〜22は、図4によれば、例えば3つの互いに垂直なスライス20〜22である。投影23は特殊ケースにてスライスの1つに対して平行している。しかし、これは一般なケースではない。
 スライス20〜22および投影23は、図4によれば、出力システム10の唯一の共通な出力装置11を介して出力される。しかし、それらは、それぞれ1つの専用の出力装置11を介して出力することもできる。しかし、いずれの場合においても、それらは同時ではあるが、しかし場所的には互いに分離されて出力される。
 図4によれば、制御コンピュータ2によって、ボリュームデータセット19に関して与えられた少なくとも1つの位置関連情報が投影23の対応個所において考慮されるようにすることが可能である。
 例えば、3つのスライス20〜22は1つの共通点24を有する。この点24は3Dカーソル24に相当する。この3Dカーソル24は、例えば投影23の中にマーク25として挿入されている。例えば、ボリュームデータセット19により求められた器具のための計画された3D行路を投影23内に挿入することも可能である。図3によれば、これは、例えば両画像23,23’について出力システム10の専用の出力装置11を介して行われる。そこでは、画像23,23’に加えてなおも2つの他の画像27,27’についても出力される。
 ボリュームデータセット19のうちスライス20〜22内にマークされたかまたは選択された他の範囲を、同様に自動的に投影23内にマークするかまたは選択することも可能である。そのうえさらに、投影23のカーソル26をスライス20〜22の共通点24と結合することもできる。
 この方法は、とくに登録の正確さを検査するために使用することもできる。例えば、ボリュームデータセット19のはっきりした特徴のある個所をスライス20〜2内にマークすることができる。制御コンピュータ2により対応個所25に同時に自動的にマークをつけることによって、簡単に登録の正確さ、すなわち投影23におけるボリュームデータセット19の画像の正確さを点検することができる。
 逆に、制御コンピュータ2によって、対象物9に関して与えられた少なくとも1つの位置関連情報がスライス20〜22の対応個所において考慮されることも可能である。これは、基礎画像23のみならず補助画像23’も利用することができるならば可能である。なぜならば、その場合には、2つの投影23,23’に基づいてボリュームデータセット19における位置が一義的に決定できるからである。それゆえ、逆画像も一義的に取得することができる。従って、またしても、例えばカーソル26と共通点24との結合が可能であり、投影23(もしくは投影23,23’)における範囲のマーキングおよび選択も可能であり、制御コンピュータ2は自動的にスライス20〜22における対応するマーキングおよび選択を行なう。
 投影23(もしくは投影23,23’)から得られた情報を表示20〜22に挿入するためのこの方法は、とくに外科器具、例えばカテーテルおよびこの場合にはとくにカテーテル先端を投影23(もしくは投影23,23’)内にマークし、その後この先端をスライス20〜22に挿入するのに利用することができる。なぜならば、投影23,23’において、カテーテルはたいてい非常に高い分解能で表示されるのに対して、周辺組織の人体構造情報はしばしば不十分にしか画像化できないからである。従って、スライス20〜22内に(もしくはボリュームデータセット19の表示に共通に)カテーテル先端を挿入することによって、本発明に基づいて、カテーテルを著しく精密に案内することができる。その後、投影23(もしくは投影23,23’)内においてカテーテル先端を見つけ出すことは場合によっては自動的に行なわれる。
 以上に述べた実施例によれば、X線によって投影23,23’である画像23,23’が求められる。これは最も頻繁な適用例でもある。しかしながら、画像23,23’は、とくに超音波、SPECTおよびPETによる他の形式で求めることもできる。これらの場合には、画像23,23’は必ずしも投影23,23’である必要がない。
 さらに、本発明は、医療用途と関連させて説明したが、医療用途に限らず寧ろ一般的に応用できるものである。
画像形成装置を示す概略図 図1の部分詳細図 対象物ボリュームデータセットの2D表示と対象物の少なくとも1つの2D画像との組み合わせの一例を示す概略図 対象物ボリュームデータセットの2D表示と対象物の少なくとも1つの2D画像との組み合わせ他の例を示す概略図
符号の説明
 1      画像形成装置(X線装置)
 2      制御コンピュータ
 3,3’   X線源
 4,4’   X線検出器
 5      円形軌道
 6      揺動軸
 7,7’   画像主軸線
 8      交点
 9      対象物
10      出力システム
11      出力装置
12      操作者(執刀医)
13      制御装置
14      信号ランプ
15      スピーカ
16      フィードバック要素
17      コンピュータプログラム
18      メモリ
19      ボリュームデータセット
20〜22   表示
23,23’  画像
24      共通点
25      マーク
26      カーソル
27,27’  画像
α       交差角

Claims (28)

  1.  コンピュータ(2)によって対象物(9)の2Dの基礎画像(23)が求められて、出力システム(10)を介して画像として一時的に出力され、
     コンピュータ(2)によって対象物(9)の3Dのボリュームデータセット(19)の2Dの基礎表示(20)が求められて、出力システム(10)を介して画像として一時的に出力され、
     基礎画像(23)および基礎表示(20)がコンピュータ(2)によって同時にしかし場所的には互いに分離して出力される
    ことを特徴とする3D対象物のコンピュータ支援表示方法。
  2.  基礎表示(20)をコンピュータ(2)によってリアルタイムで求めることを特徴とする請求項1記載の表示方法。
  3.  基礎表示(20)は対話式で変更可能であることを特徴とする請求項1または2記載の表示方法。
  4.  基礎画像(23)は基礎撮影ジオメトリによって定められ、基礎撮影ジオメトリはいつでも変更可能であることを特徴とする請求項1乃至3の1つに記載の表示方法。
  5.  基礎撮影ジオメトリは操作者(12)によって基礎撮影位置へ移動され、基礎撮影位置への到達時に、操作者(12)に対して、コンピュータ(2)が音響的または光学的な基礎応答信号を出力するおよび/または基礎撮影ジオメトリが機械的な基礎応答信号を出力することを特徴とする請求項4記載の表示方法。
  6.  基礎表示(20)と基礎画像(23)とは透視投影(20,23)であり、それらの投影パラメータが一致するように定められることを特徴とする請求項1乃至5の1つに記載の表示方法。
  7.  ボリュームデータセット(19)に関して与えられる少なくとも1つの情報(24)がコンピュータ(2)によって基礎画像(23)の対応個所(25)において考慮されることを特徴とする請求項1乃至6の1つに記載の表示方法。
  8.  対象物(9)に関して与えられる少なくとも1つの位置関連情報(26)がコンピュータ(2)によって基礎表示(20)の対応個所(24)において考慮されることを特徴とする請求項1乃至7の1つに記載の表示方法。
  9.  コンピュータ(2)によって、対象物(9)の基礎画像(23)とは異なる対象物(9)の2Dの補助画像(23’)が求められ、
     補助画像(23’)はコンピュータ(2)によって出力システム(10)を介して画像として一時的に出力され、
     対象物(9)の補助画像(23’)は、基礎表示(20)および基礎画像(23)に対して同時にしかし場所的にはそれらから分離して出力される
    ことを特徴とする請求項1乃至8の1つに記載の表示方法。
  10.  補助画像(23’)は補助撮影ジオメトリによって決まり、補助撮影ジオメトリはいつでも変更可能であることを特徴とする請求項9記載の表示方法。
  11.  補助撮影ジオメトリは操作者(12)によって手動で補助撮影位置へ移動され、補助撮影位置への到達時に、操作者(12)に対して、コンピュータ(2)が音響的または光学的な補助応答信号を出力するおよび/または補助撮影ジオメトリが機械的な補助応答信号を出力することを特徴とする請求項10記載の表示方法。
  12.  基礎撮影ジオメトリは基礎画像主軸線(7)を有し、
     補助撮影ジオメトリは補助画像主軸線(7’)を有し、
     両画像主軸線(7,7’)は共通な交点(8)で交差角(α)にて交差し、
     補助画像(23’)は基礎画像(23)に対して交差角が90°になるように決められる
    ことを特徴とする請求項4または5記載の表示方法。
  13.  基礎撮影ジオメトリは基礎画像主軸線(7)を有し、
     補助撮影ジオメトリは補助画像主軸線(7’)を有し、
     両画像主軸線(7,7’)は共通な交点(8)で交差角(α)にて交差し、
     交差角(α)は構造的な制約により90°よりも小さい限界角で最大になり、
     補助画像(23’)は基礎画像(23)に対して交差角が限界角(α)に等しくなるように決められる
    ことを特徴とする請求項4または5記載の表示方法。
  14.  コンピュータ(2)によって、ボリュームデータセット(19)の基礎表示(20)とは異なるボリュームデータセット(19)の2次元の補助表示(21)が求められ、
     補助表示(21)は、コンピュータ(2)によって出力システム(10)を介して画像として一時的に出力され、
     補助表示(21)は、基礎画像(23)および基礎表示(20)に対して同時にしかし場所的にはそれらから分離して、場合によっては補助画像(23’)からも場所的に分離して出力される
     ことを特徴とする請求項1乃至13の1つに記載の表示方法。
  15.  補助表示(21)はコンピュータ(2)によってリアルタイムで求められることを特徴とする請求項14記載の表示方法。
  16.  補助表示(21)は対話式にて変更可能であることを特徴とする請求項14または15記載の表示方法。
  17.  補助表示(21)および補助画像(23’)は透視投影(21,23’)であり、それらの投影パラメータが一致するように定められることを特徴とする請求項9乃至13の1つおよび14乃至16の1つに記載の表示方法。
  18.  コンピュータ(2)によって、基礎表示(20)にも補助表示(21)にも関係しないボリュームデータセット(19)の2Dの補足表示(22)が求められ、
     補足表示(22)はコンピュータ(2)によって出力システム(10)を介して画像として一時的に出力され、
     補足表示(22)は、基礎画像(23)、基礎表示(20)および補助表示(21)と同時ではあるが、しかし場所的にはこれらから分離して、場合によっては補助画像(23’)からも場所的に分離して出力される
    ことを特徴とする請求項14乃至17の1つに記載の表示方法。
  19.  補足表示(22)はリアルタイムで求められることを特徴とする請求項18記載の表示方法。
  20.  補足表示(22)は対話式にて変更可能であることを特徴とする請求項18または19記載の表示方法。
  21.  画像(23,23’)および表示(20〜22)は、出力システム(10)のそれぞれ1つの専用の出力装置(11)を介して出力されることを特徴とする請求項1乃至20の1つに記載の表示方法。
  22.  ボリュームデータセット(19)の表示(20〜22)は、スライスまたは透視投影であることを特徴とする請求項1乃至21の1つに記載の表示方法。
  23.  対象物(9)の画像(23,23’)は透視投影(23,23’)であることを特徴とする請求項1乃至22の1つに記載の表示方法。
  24.  基礎画像(23)は、場合によっては補助画像(23’)も、X線または超音波によって求められることを特徴とする請求項1乃至23の1つに記載の表示方法。
  25.  請求項1乃至24の1つに記載の表示方法を実施するためのコンピュータプログラム。
  26.  請求項25によるコンピュータプログラムによりプログラムされたコンピュータ。
  27.  コンピュータは、画像形成装置(1)、特にX線装置(1)のための制御コンピュータとして構成されていることを特徴とする請求項26記載のコンピュータ。
  28.  請求項27記載の制御コンピュータ(2)を備えた画像形成装置、特にX線装置。
JP2003322625A 2002-09-17 2003-09-16 3d対象物のコンピュータ支援表示方法 Expired - Fee Related JP4510415B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10243162A DE10243162B4 (de) 2002-09-17 2002-09-17 Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt

Publications (2)

Publication Number Publication Date
JP2004105734A true JP2004105734A (ja) 2004-04-08
JP4510415B2 JP4510415B2 (ja) 2010-07-21

Family

ID=31896116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003322625A Expired - Fee Related JP4510415B2 (ja) 2002-09-17 2003-09-16 3d対象物のコンピュータ支援表示方法

Country Status (3)

Country Link
US (1) US7129946B2 (ja)
JP (1) JP4510415B2 (ja)
DE (1) DE10243162B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013528422A (ja) * 2010-05-03 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 関心対象の角度付きビューを生成する医用表示システム及び方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005022541A1 (de) * 2005-05-17 2006-12-07 Siemens Ag Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild
EP2353147B1 (en) * 2008-11-28 2021-05-19 Fujifilm Medical Systems U.S.A. Inc. System and method for propagation of spine labeling
US10734116B2 (en) 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9105200B2 (en) 2011-10-04 2015-08-11 Quantant Technology, Inc. Semi-automated or fully automated, network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
EP3694412A4 (en) 2017-10-10 2021-08-18 Covidien LP SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276259A (ja) * 1996-02-16 1997-10-28 Toshiba Corp X線診断装置
JPH10143652A (ja) * 1996-11-14 1998-05-29 Toshiba Iyou Syst Eng Kk 医用画像合成装置
JPH11285492A (ja) * 1998-04-03 1999-10-19 Hitachi Medical Corp X線透視撮影装置および方法
JP2000157496A (ja) * 1998-11-24 2000-06-13 Siemens Ag 表示モニタ―に再現可能な像を表示するための方法およびディジタル像を処理かつ再現するための装置
JP2001061860A (ja) * 1999-08-31 2001-03-13 Hitachi Ltd 治療装置
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
JP2002191593A (ja) * 2000-12-26 2002-07-09 Toshiba Corp コンピュータ断層撮影装置
JP2002219125A (ja) * 1993-11-26 2002-08-06 Toshiba Medical System Co Ltd X線断層撮影装置
JP2004008398A (ja) * 2002-06-05 2004-01-15 Hitachi Medical Corp 医療画像診断装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5125888A (en) * 1990-01-10 1992-06-30 University Of Virginia Alumni Patents Foundation Magnetic stereotactic system for treatment delivery
US5762458A (en) * 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US6031888A (en) * 1997-11-26 2000-02-29 Picker International, Inc. Fluoro-assist feature for a diagnostic imaging device
WO2000063719A1 (en) * 1999-04-20 2000-10-26 Synthes Ag Chur Device for the percutaneous obtainment of 3d-coordinates on the surface of a human or animal organ
US6535756B1 (en) * 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002219125A (ja) * 1993-11-26 2002-08-06 Toshiba Medical System Co Ltd X線断層撮影装置
JPH09276259A (ja) * 1996-02-16 1997-10-28 Toshiba Corp X線診断装置
JPH10143652A (ja) * 1996-11-14 1998-05-29 Toshiba Iyou Syst Eng Kk 医用画像合成装置
JPH11285492A (ja) * 1998-04-03 1999-10-19 Hitachi Medical Corp X線透視撮影装置および方法
JP2000157496A (ja) * 1998-11-24 2000-06-13 Siemens Ag 表示モニタ―に再現可能な像を表示するための方法およびディジタル像を処理かつ再現するための装置
JP2001061860A (ja) * 1999-08-31 2001-03-13 Hitachi Ltd 治療装置
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
JP2002191593A (ja) * 2000-12-26 2002-07-09 Toshiba Corp コンピュータ断層撮影装置
JP2004008398A (ja) * 2002-06-05 2004-01-15 Hitachi Medical Corp 医療画像診断装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013528422A (ja) * 2010-05-03 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 関心対象の角度付きビューを生成する医用表示システム及び方法

Also Published As

Publication number Publication date
US20040071326A1 (en) 2004-04-15
US7129946B2 (en) 2006-10-31
DE10243162B4 (de) 2005-10-06
JP4510415B2 (ja) 2010-07-21
DE10243162A1 (de) 2004-03-25

Similar Documents

Publication Publication Date Title
US11287874B2 (en) Using optical codes with augmented reality displays
JP5121401B2 (ja) 埋植物距離測定のシステム
JP5328137B2 (ja) 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム
US20180125604A1 (en) Automatic Identification Of Tracked Surgical Devices Using An Electromagnetic Localization System
US7302288B1 (en) Tool position indicator
US7477926B2 (en) Methods and apparatuses for providing a reference array input device
US6574493B2 (en) Method of localizing objects in interventional radiology
US8498692B2 (en) Method for displaying a medical implant in an image and a medical imaging system
JP4553551B2 (ja) 画像診断方法
US10506991B2 (en) Displaying position and optical axis of an endoscope in an anatomical image
CN112867427A (zh) 使用方位和方向(p&d)跟踪辅助的光学可视化的计算机化断层摄影(ct)图像校正
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
JP2020526241A (ja) リアルタイム2次元透視データを使用してターゲットを識別、マーキング、およびナビゲートするためのシステムおよび方法
JPH11313837A (ja) 像誘導式の介在的手順のプランニング方法及び装置
JP4510415B2 (ja) 3d対象物のコンピュータ支援表示方法
US6606514B2 (en) Device for reproducing slice images
US9402639B2 (en) Method and apparatus for alignment of a mobile fluoroscopic imaging system
AU2015213326B2 (en) Marking of fluoroscope field-of-view
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
US20080285707A1 (en) System and Method for Medical Navigation
WO2014174069A1 (en) Stand-alone ultrasound unit for image guided surgery
JP6656313B2 (ja) 表示システム
US11132830B2 (en) Static virtual camera positioning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4510415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees