JP5837261B2 - マルチカメラ装置追跡 - Google Patents

マルチカメラ装置追跡 Download PDF

Info

Publication number
JP5837261B2
JP5837261B2 JP2015517880A JP2015517880A JP5837261B2 JP 5837261 B2 JP5837261 B2 JP 5837261B2 JP 2015517880 A JP2015517880 A JP 2015517880A JP 2015517880 A JP2015517880 A JP 2015517880A JP 5837261 B2 JP5837261 B2 JP 5837261B2
Authority
JP
Japan
Prior art keywords
image data
interventional device
model
processing unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015517880A
Other languages
English (en)
Other versions
JP2015519985A (ja
Inventor
ダニエル シモン アンナ ルアイタース
ダニエル シモン アンナ ルアイタース
ラウル フローレント
ラウル フローレント
ロバート ヨハネス フレデリク ホーマン
ロバート ヨハネス フレデリク ホーマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2015519985A publication Critical patent/JP2015519985A/ja
Application granted granted Critical
Publication of JP5837261B2 publication Critical patent/JP5837261B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、介入装置を追跡する医療撮像システム、被検体の内部に部分的に挿入された介入装置を追跡する方法、並びにコンピュータプログラム及びコンピュータ読取可能な媒体に関する。
被検体(object)の検査の間においては、例えば、被検体内に少なくとも部分的に挿入することが可能な介入装置(interventional device)が用いられ、例えば、これら介入装置は被検体内に延びる。例えば患者を検査する場合において、該被検体の内部が人の目では見えない場合、挿入された介入装置の位置、従って範囲(程度)も、対応する画像データを提供する撮像システムなしでは辿ることはできない。例えば、現在の状況をよりよく理解するためにX線画像が取得される。介入装置を用いた検査は、例えば、生検方法である。米国特許出願公開第2011/0125011号公報には、ロードマップとして三次元X線画像を取得することが記載されている。次いで、これら画像は、互いに角度的にオフセットされたリアルタイムの2D X線画像と組み合わされる。しかしながら、ロードマップのための該3D画像の取得は追加の準備ステップを意味することが示されている。
このように、介入装置の容易化され且つ簡素化されたリアルタイム追跡法を提供する必要性が存在し得る。
本発明の目的は、独立請求項の主題により達成され、更なる実施態様は従属請求項に含まれている。
本発明の以下に説明される態様は、介入装置を追跡する医療撮像システム、被検体内に部分的に挿入された介入装置を追跡する方法、コンピュータプログラム要素及びコンピュータ読取可能な媒体にも当てはまることに注意されたい。
本発明の第1態様によれば、介入装置を追跡する医療撮像システムが提供され、該システムは、インターフェースユニットと、処理ユニットとを有する。上記インターフェースユニットは、介入装置における被検体の外側に位置する第1部分の第1画像データを供給するように構成される。該第1画像データは3D画像データを有する。前記インターフェースユニットは、前記介入装置における前記第1部分の続きであって前記被検体の内部に少なくとも部分的に位置する第2部分の第2画像データを供給するよう構成される。該第2画像データは2D画像データを有する。前記処理ユニットは、前記介入装置の第1の3Dモデル部分を前記第1画像データに基づいて計算すると共に、該介入装置の第2の3Dモデル部分を前記第2画像データ及び前記第1モデル部分に基づいて計算するよう構成される。前記インターフェースユニットは、前記介入装置のグラフィック表現のデータを前記第1及び第2の3Dモデル部分に基づいて供給するように構成される。
前記処理ユニットは、前記第1の3D画像データ及び前記第2の2D画像データを位置合わせ(register)するよう構成することができる。
一実施態様によれば、前記第1及び第2の3Dモデル部分に基づく前記介入装置のグラフィック表現を表示するように構成された表示ユニットが設けられる。
一実施態様によれば、当該医療撮像システムは、第1画像取得装置と、第2画像取得装置とを更に有する。上記第1画像取得装置は前記第1画像データを取得するように構成される。上記第2画像取得装置は前記第2画像データを取得するように構成される。
前記第1部分は外側部分とも称され、前記第2部分は挿入部分とも称される。前記介入装置は、挿入方向に位置合わせされる長軸を備えた長尺の装置であり得る。
一実施態様によれば、前記第1画像データは少なくとも2つの光学カメラにより供給される。前記第2画像データは、X線撮像装置により供給することができる。代わりに、又は加えて、超音波撮像装置を設けることもできる。
例えば、前記第1画像取得装置は、光学(即ち、可視)画像を供給する光学撮像システムである。前記第2画像取得装置は、X線画像データを供給するX線撮像システム又は超音波画像データを供給する超音波撮像システムである。
前記第1及び第2画像データは生で、即ちリアルタイムで取得され得る。上記第1画像取得装置は、少なくとも2つのカメラを備えた光学画像取得装置を有することができる。上記第1画像データは、レーザスキャナ、奥行きカメラ(例えば、飛行時間カメラ)、構造化光カメラ、及び空気を介する超音波等により供給することができる。他の可能性はレーダである。前記第2画像取得装置は、一例によれば、X線画像取得装置又は超音波画像取得装置を有する。上記X線画像取得装置は、X線源及びX線検出器を備えたX線画像取得装置とすることができる。
一実施態様によれば、前記処理ユニットは前記第1の3D画像データ及び前記第2の2D画像データを位置合わせするように構成される。前記表示ユニット(ディスプレイ)は、前記第1の3D画像データ及び前記第2の2D画像データを、前記第1及び第2のモデル部分に基づく前記介入装置のモデル表現と一緒に合成画像で表示するように構成される。
一実施態様によれば、前記処理ユニットは、上記第1モデル部分及び第2モデル部分を組み合わせて前記介入装置の3Dモデルを形成するよう構成される。
一実施態様によれば、前記処理ユニットは、前記介入装置が位置する境界空間(bounding space)を決定するように構成される。該処理ユニットは、更に、上記境界空間を前記第1モデル部分及び前記第2モデル部分に基づいて、及び/又は前記介入装置の前記モデルに基づいて決定するように構成される。
一実施態様によれば、前記処理ユニットは、前記介入装置の所定の部分が位置する境界ボックスを決定するように構成される。
一実施態様によれば、前記介入装置は単純な湾曲幾何学形状に曲がるよう構成された可撓性介入装置である。前記処理ユニットは、前記介入装置(針)の2つの可能性のある曲がり姿勢を決定するように構成される。そして、前記ディスプレイは該曲がり姿勢をユーザに提示するよう構成される。
一実施態様によれば、前記処理ユニットは前記第1画像データに関して前記介入装置の曲がりを決定するように構成される。該処理ユニットは、前記被検体内の該介入装置の曲がりを、上記第1画像データにおいて決定された曲がりに基づいて予測するよう構成される。
一実施態様によれば、前記処理ユニットは前記第1の3D画像データ及び前記第2の2D画像データを位置合わせするように構成される。前記表示ユニットは、該位置合わせされた画像を合成画像で表示するよう構成される。
本発明の第2態様によれば、被検体の内部に部分的に挿入された介入装置を追跡する方法が提供され、該方法は、
a)介入装置における被検体の外側に位置する第1部分の第1画像データを取得するステップであって、該第1画像データが3D画像データを有するステップと、
b)前記介入装置における前記第1部分の続きであって前記被検体の内部に位置する第2部分の第2画像データを取得するステップであって、該第2画像データが2D画像データを有するステップと、
c)前記介入装置の第1の3Dモデル部分を前記第1画像データに基づいて計算するステップと、
d)前記介入装置の第2の3Dモデル部分を前記第2画像データ及び前記第1モデル部分に基づいて計算するステップと、
を有する。
一実施態様によれば、上記第1モデル部分及び第2モデル部分が当該介入装置の3Dモデルを形成するために合成されるステップe)が設けられる。
一実施態様によれば、当該介入装置が位置する境界空間が決定されるステップf)が設けられる。該境界空間の決定は、前記第1モデル部分及び前記第2モデル部分に、及び/又は該介入装置のモデルに基づくものである。
“境界空間”なる用語は、当該装置が位置され得る領域、即ち可能性があり且つ合理的な一定の偏差を考慮して決定される位置の可能性のある境界を画定する空間を指す。
一実施態様によれば、当該介入装置の所定の部分が位置する境界ボックスが決定される。
一例において、当該被検体内に位置する装置の部分の位置の範囲(range)に対して信頼ボリューム(confidence volume)が決定される。例えば針(needle)等の当該装置の長さに基づいて、前記3D画像データの代わりに当該身体の外側に位置する部分の長さを決定することができる。更に、当該被検体内の部分の長さを決定することができる。外側部分の方向、即ち向きと共に、挿入点が該信頼ボリュームのための開始点となる。当該装置の剛性に、即ち可撓性に依存して、内側部分は被検体内で曲げられ得る、即ち上記向きにより与えられる直線又は線形方向からずれ得る。このようにして当該装置が位置し得る可能性のある空間を、ユーザに対して上記信頼ボリュームとして視覚化することができる。
例えば、当該介入装置は剛性のものであり、その所定の部分の位置が決定される。他の例において、当該介入装置は可撓性であり、その所定の部分の位置が決定される。
一例において、境界空間領域、即ち前記境界空間は当該被検体の画像データと関連させてユーザに提示される。
他の例においては、計画された針の経路が、決定されたモデルに重ねて示される。
他の例において、単純な湾曲幾何学形状に曲がるよう構成された可撓性介入装置の場合、上記針の2つの可能性のある曲がり姿勢が決定され、ユーザに提示される。
本発明の一態様によれば、例えば複数光学カメラ構成を用いる、例えば患者の身体の内部の3D情報を供給する介入装置追跡法(例えば、針追跡法)が提供される。例えば、ビデオ装置から得られる当該被検体の外側に対応する三次元での介入装置の輪郭が、例えば生のX線画像における針の追跡(観察)から得られる、該被検体の内部に対応する二次元の装置(又は針)のフットプリントと合成される。他のオプションでは、当該装置の先験的に既知の長さ(即ち、該装置を使用する前に分かっている長さ)を、これらの合成ステップにおいて使用することができる。このように、本方法は、当該針装置の全範囲の、即ち外部及び内部のモデル化、及び当該被写体の前端が何処に位置するかの決定を可能にする。この決定は、仮定及び針のタイプに依存して種々の精度で達成することができる。例えば、剛性の針は高い完ぺきさで位置特定することができる。当該装置の外側部分の三次元画像データの提供は、例えば光学カメラにより実現することができ、かくして、3D外部データを供給する高度で容易な方法を提供する。更に、被検体の内部の画像データの提供は、二次元画像データしか供給されないので、少ない努力ですむ。しかしながら、内部の装置の欠けている第3次元を供給するために上記3D外部データが使用される。即ち、当該被検体の内部の3D画像データは、上記3D外側データ及び上記2D内側データの組み合わせにより提供される。例えば、当該介入装置は針である。X線画像内の該針の経路は、当該X線画像面に対して垂直な針の姿勢を明らかにしない。しかしながら、計画された目標に命中し、重要な解剖学的構造は避けられることを保証するためには、この情報が特に必要とされる。本発明は、当該X線ガントリを動かす必要性又は他の追加の測定を要せずに、X線画像に対して垂直な針姿勢、又は少なくとも当該針を見付けることができる限られた領域を決定することを可能にする。光学カメラ画像内で当該針を追跡すると共に、複数のカメラからの情報を組み合わせることにより、当該患者の身体の外側の部分に関する該針の実際の3D経路を正確に決定することができる。更に、該針は2Dの生のX線画像内で追跡され、該針の全範囲(外側+内側)が、3Dビデオの針の輪郭(外側部分)及び2DのX線の針のフットプリント(内側部分)の組み合わせに基づいてモデル化される。更に、オプションとして、このモデル化に、先験的に既知の針の長さを導入することもできる。
本発明の上記及び他の態様は、後に説明する実施態様から明らかとなり、斯かる実施態様を参照して解説される。
図1は、医療撮像システムの一実施態様を第1基本構成で示す。 図2は、一実施態様による医療撮像システムを他の概略構成で示す。 図3は、第2画像取得装置としてX線画像取得ユニットを備えた医療撮像システムの他の例を示す。 図4は、介入装置を追跡する方法の一実施態様の基本ステップを示す。 図5は、他の方法のステップの更なる例を示す。 図6は、他の方法のステップの更なる例を示す。 図7は、一実施態様によるグラフィック表現の一例を示す。 図8は、一実施態様によるグラフィック表現の別の例を示す。 図9aは、本発明に関する一態様の一例を示す。 図9bは、本発明に関する一態様の他の例を示す。 図9cは、本発明に関する一態様の他の例を示す。 図9dは、本発明に関する一態様の他の例を示す。 図9eは、本発明に関する一態様の他の例を示す。 図10は、一実施態様によるグラフィック表現の他の例を示す。 図11は、図7のグレイスケール図を示す。 図12は、図8の説明図を示す。 図13は、図10のグラフィック表現を示す。
以下、本発明の実施態様を、図面を参照して説明する。
図1は、第1例における介入装置を追跡する医療撮像システム10を示し、該システムはインターフェースユニット12及び処理ユニット14を有している。オプションとして、表示ユニット16を設けることができる。インターフェースユニット12は、介入装置における被検体の外部に位置される第1部分の第1画像データ(第1矢印18により示されている)を供給するように構成されている。該第1画像データは3D画像データを有する。インターフェースユニット12は、更に、当該介入装置における上記第1部分の続きであると共に上記被検体内に少なくとも部分的に位置される第2部分の第2画像データ(第2矢印20により示されている)を供給するように構成されている。該第2画像データは2D画像データを有する。処理ユニット14は、当該介入装置の第1の3Dモデル部分を上記第1画像データに基づいて計算すると共に、該介入装置の第2の3Dモデル部分を上記第2画像データ及び上記第1のモデル部分に基づいて計算するように構成されている。上記インターフェースユニットは、当該介入装置のグラフィック表現22のデータを上記第1及び第2の3Dモデル部分に基づいて供給するように構成される。
表示ユニット16は、当該介入装置のグラフィック表現22(図1には詳細には示されていない)を表示するように構成されている。
図2は、介入装置110を追跡する医療撮像システムの他の例100を示し、該医療撮像システム100は、例えば第1カメラ112a及び第2カメラ112bとして示された第1画像取得装置112を有している。更に、第2画像取得装置114が処理ユニット116と共に設けられている。第1画像取得装置112は、介入装置における被検体(例えば、患者)118の外側に位置される第1部分の3D画像情報(又は3D画像データ)を有する第1画像データを取得するように構成されている。介入装置110の上記第1部分は符号120により示されている。第2画像取得装置114は、上記介入装置における上記第1部分の続きであると共に上記被検体の内部に少なくとも部分的に位置される(例えば、挿入された)第2部分の2D画像情報(又は2D画像データ)を有する第2画像データを取得するように構成されている。上記第2部分は符号122により示されている。処理ユニット116(他の構成部品とデータ通信又はデータ接続124状態にある)は、当該介入装置の第1の3Dモデル部分を上記第1画像データに基づいて計算すると共に、該介入装置の第2の3Dモデル部分を上記第2画像データ及び上記第1モデル部分に基づいて計算するように構成される。上述したインターフェースユニットは、これ以上示されないことに注意されたい。
例えば、上記第1画像データは少なくとも2つの光学カメラ112a及び112bにより供給される。対応する画像取得は、カメラ観察ビーム124a及び124bにより、各々、示されている。2つのカメラの代わりに、例えば距離決定手段を備えるステレオカメラを設けることができる。
前記第2画像データは、X線撮像装置126(これ以上は説明されない)により供給することができる。点線ビーム構造128は対応するX線ビームを示す。図2には例えば検出器等の更なる詳細は示されていないことに注意されたい。
他の例(図示されていない)によれば、上記第2画像データは超音波撮像装置により供給される。
処理ユニット116は、上記3D画像データ及び第2画像データを位置合わせ(register)するように構成される。更に、ディスプレイ130が設けられ、該ディスプレイは、上記第1画像データ及び第2画像データを組み合わされた(合成された)画像で、上記第1及び第2モデル部分に基づく当該介入装置のモデル表現と一緒に表示するように構成される。しかしながら、ディスプレイ130は、図2の他のフィーチャと関連して示されているが、斯かる他のフィーチャの実施態様にとり絶対に必要なフィーチャを表すものではないことに注意すべきである。このように、図2に示されたディスプレイ130はオプションとして理解されるべきである。
図3は医療撮像システム100の他の例を示し、該システムはCアーム構造体138の両端上に設けられたX線源134及びX線検出器136を備えるCアームX線撮像装置132を有している。更に、可動支持体140が天井取付システム142と共に図示されている。例えば、被検体144が、例えば患者テーブル146等の可動又は可調整支持体上に支持されて示されている。更に、2つのカメラ148が前記第1画像取得装置として示されている。更に、処理ユニット116が、前景に、マウス、キーボード、タッチパッド又は他の制御パネル等のユーザインターフェース152及びモニタ150を備えて示されている。更に、照明装置154が、一層大きなディスプレイ装置156と一緒に示されている。Cアームの代わりに、他のタイプのX線画像取得部を設けることもできる。
図4は、下記のステップを有する、被検体内に部分的に挿入された介入装置を追跡する方法200を示す。第1ステップ210において、介入装置における被検体の外側に位置される第1部分の第1画像データ212が取得され、この場合において、該第1画像データは3D画像データを有する。第2ステップ214において、当該介入装置における上記第1部分の続きであって当該被検体の内部に位置される第2部分の第2画像データ216が取得され、この場合において、該第2画像データは2D画像データを有する。第3ステップ218において、当該介入装置の第1の3Dモデル部分220が前記第1画像データに基づいて計算される。第4ステップ222において、当該介入装置の第2の3Dモデル部分224が前記第2画像データ及び上記第1モデル部分に基づいて計算される。
第1ステップ210はステップa)とも称され、第2ステップ214はステップb)とも称され、第3ステップ218はステップc)とも称され、第4ステップ222はステップd)とも称される。
前記第2画像データの画像面に対して垂直な介入装置姿勢を、前記第1画像データにより供給される3D情報に基づいて決定することができる。該姿勢に関して、当該装置を見付けることができる限られた領域を決定することができる。前記第1部分は第1フラグメント(第1断片)とも称し、前記第2部分は第2フラグメントとも称する。
第1モデル部分を計算するために、当該介入装置が前記第1画像データにおいて決定され、前記第2モデル部分を計算するために、該介入装置が前記第2画像データにおいて決定される。
第1モデル部分を計算するために、当該介入装置は上記第1画像データにおいて追跡することができ、第2モデル部分を計算するために該介入装置は第2画像データにおいて追跡することができる。
当該介入装置を追跡するために、該介入装置の第1端を追跡することができ、該介入装置が被検体表面に侵入する入口点が決定される。
図5は、当該方法の他の例を示し、該例においてはステップe)とも称する第5ステップ226が設けられる。該ステップe)においては、当該介入装置の3Dモデル228を形成するために、前記第1モデル部分及び第2モデル部分が組み合わされる。
例えば、ステップe)における前記第2モデル部分の計算の場合、これは当該介入装置の所定の長さにも基づくものとする。前述したように、当該介入装置は生検針であり得る。該第5ステップ226はステップe)とも称される。
図6に示されるように、第6ステップ230を設けることができ、該ステップでは当該介入装置が位置される境界空間(bounding space)の決定234を行う。該境界空間の決定は、前記第1モデル部分及び第2モデル部分に基づく;及び/又は当該介入装置の前記モデルに基づくものである。該境界空間は、境界空間領域とも称される。第6ステップ230はステップf)とも称される。
上記ステップf)は、ステップe)と組み合わせて、該ステップe)に続いて、又はステップa)〜d)と組み合わせて、ステップd)に続いて設けることもできることに注意されたい。
例えば、当該介入装置の所定の部分が位置する境界ボックスを決定することができる。
該境界空間領域は、ユーザに対し、当該被検体の画像データと関連させて提示することができる。
他の例(図示略)によれば、当該介入装置に関する装置軌跡は少なくとも前記第1モデル部分に基づいて計算される。例えば、当該介入装置は生検針であり得、上記装置軌跡は針の経路である。
簡単な湾曲幾何学構造へ曲がるように構成された可撓性介入装置の場合、当該針の2つの可能性のある曲がり姿勢が決定され、ユーザに提示される。
例えば、前記第1画像データに関して当該介入装置の曲がりが決定され、該介入装置の当該被検体内での曲がりが、上記第1画像データにおいて決定された曲がりに基づいて予測される。
例えば、当該介入装置の予測位置を示す体積的領域が決定される。当該介入装置の前記第1部分に関して該介入装置の曲がりが決定され、該介入装置の曲がりが該介入装置の第2部分に関して決定される。例えば、第2部分が位置する円錐状の領域が決定される。
他の例(図示略)によれば、第1の3D画像データ及び第2の2D画像データが位置合わせされ、合成画像で表示される。
図7は表示画像の一例を示し、該例において、2つのカメラからの光学画像は計画された針経路及び三次元X線再生と融合されている。左側の画像では、針312を保持するユーザの手310が見えている。小さな円314は、当該針の挿入点、即ち該針が当該患者の内部に侵入する点を示している。更に、被検体(即ち、患者)内における当該針の部分も、符号316により示されている。同様のものが、図7の右半部にも示されている。
図8には、上側左半部に計画された針経路318が示されている。更に、融合されたオーバーレイを伴う生のX線透視画像が、上側の行の中央部分及び右側部分、並びに下側の行の左側及び中央部分に示されている。
他の例によれば、上述した方法は下記のフィーチャを可能にする。即ち、当該針(及び、特には針先端)が恐らく存在し得る境界領域を決定し、医師に対して視覚化することができる。この情報を用いて、重要な解剖学的部分に当たっていないかを決定することができ、このことは、更なる検証が必要とされないので、X線線量及び時間を節約することになる。この情報を用いて、医師は、当該境界領域が極めて重要であると思われる場合、針位置を確認するためにガントリを他の角度まで動かすことを決定することができる。この情報を用いて、医師は、針位置を確かめるために、例えばフィリップス社製XperCTを用いて3D再生を行うことを決定することができる。当該針は単純な湾曲で、単一の凹部のみを可能にするように曲がるとの仮定を用いて、医師に対し、2つの可能性のある姿勢を示すことができる(以下に説明する)。例えば前記光学カメラにより検出される身体の外側での曲がりを用いて、該身体内での曲がりを予測することができる。針が剛性のものである場合、正確な針の先端位置を三次元で決定することができる(即ち、境界ボックスは一点に縮小される)。
図9以下を参照して、幾つかの態様を更に説明する。図9aには、X線源410が示されており、針412が該X線源410とX線検出器414との間に配置されている。検出器414上には、上記針の投影412’が点線により示されている。該X線画像及び、例えば、Cアームガントリの姿勢しか与えられない場合、当該針の正確な位置を知ることは不可能である。破線416、418により示される破線三角形内における可能性のある針の位置の数は無限である。これを克服するために、例えば図10に示されるように、当該針を光学画像で追跡する必要がある。図10は、当該針を表示する第1ライン510を示し、ここで、菱形512は頭部512を示す一方、ボール形状514は皮膚入口点を示す。更に、該光学画像はハンドル部516も示している。他のライン518は当該被検体内の可能性のある位置を示している。
図9bは、2つの異なる視角で(即ち、第1焦点410a及び第2焦点410bから)見た針412を示している。上記第1焦点は第1検出器414aに向かって投射しており、第2焦点410bは検出器414bに向かって投射している。このように、各針投影412’a及び412’bが形成される。前記光学画像からの追跡された針の部分(フラグメント)は、3D空間に再投影することができる。各再投影の交差部は、3D空間における実際の針のフラグメントの位置を示す。図9bは、例えば、前記光学カメラにより供給される画像データに関するものであることに注意すべきである。針412を表すライン及び投影は、ここでも、一端に該針の頭部を表す菱形を、他端には該針の入口点を示すボール形状を伴って示されている。
図9cは剛性の又は真っ直ぐな針に関する第1実施態様を示すものであり、光学カメラ画像(図9b参照)から取得された患者の身体の外側の針の部分の3D位置の合成、及び図9aで説明したX線画像が、正確な3D針位置を供給するために組み合わされる。このようにして、患者の内側に挿入された部分も供給される。点線420は身体の内側に位置される部分を示す一方、直線422は当該針における身体の外側に位置する部分を示している。
第2実施態様では、当該針の長さの先験的知識が、光学カメラからの該針のフラグメントの3D位置と、剛性で真っ直ぐな針に関する患者の身体構造内での正確な位置が分かるように組み合わされる。
第3実施態様では、上述した方法の両方(X線画像を用いる及び針の長さの先験的知識を用いる)を、各結果を検証すると共に、位置の不確かさを示すために組み合わすことができる。
図9dに示された曲がる針に関する他の実施態様においては、光学カメラからの見える針部分を追跡することも非常に有効であり得る。先験的に分かる針の長さを用いて、該針の予測位置に関する体積的領域424を示すことができる。増加する曲がり角は益々起こりそうにないことを考慮に入れることができる。この場合、信頼領域を融合画像内で視覚化することができる。
他の実施態様において、本方法は、隠れた針部分における曲がりを、光学的に見える針部分で見付かる何れかの曲がりを外挿することによって推定することにより更に明確にすることができる。例えば、図9eは他の実施態様に関するもので、該実施態様において、光学カメラからの3Dで観察される針部分は、当該針の長さの先験的知識、X線画像及び当該針の曲がりに関する簡単なモデルと組み合わされて、全ての情報に適合する幾つかの解を見付けることが可能となる。図9eは、前述したような真っ直ぐなライン426により表された当該身体外に位置する針の部分、及び、これと組み合わせて、細い真っ直ぐなライン428で表された予測される針を示している。X線検出器414上には、対応する投影430が示されている。例えば、曲がりモデルとして、二次多項式又はスプラインを、3Dの光学的に見えるフラグメント426及びX線画像(即ち、投影430)と一緒に、実際の3Dの曲がった針部分428を予測するために使用することができる。
図11は図7の線画のグラフィック表示を示し、図12は図8のグラフィック表示を示し、図13は図10のグラフィック表示を示している。
本発明の他の実施態様においては、上記実施態様の1つによる方法のステップを適切なシステム上で実行するように構成されることを特徴とするコンピュータプログラム又はコンピュータプログラム要素が提供される。
従って、上記コンピュータプログラム要素は、本発明の一実施態様の一部でもあり得るコンピュータユニットに記憶される。このコンピュータユニットは、上述した方法のステップを実行し又は実行を生じさせるよう構成することができる。更に、該コンピュータユニットは、前述した装置の構成部品を動作させるように構成することができる。該コンピュータユニットは自動的に動作し及び/又はユーザの指令を実行するように構成することができる。コンピュータプログラムは、データプロセッサのワークメモリにロードすることができる。このように、該データプロセッサは本発明の方法を実行するように装備され得る。
本発明の該実施態様は、最初から本発明を使用するコンピュータプログラム、及び既存のプログラムを更新により本発明を使用するプログラムに変化させるコンピュータプログラムの両方をカバーするものである。
更に、当該コンピュータプログラム要素は、前述した方法の実施態様の手順を満たすための全ての必要なステップを提供することができる。
本発明の他の実施態様によれば、CD−ROM等のコンピュータ読取可能な媒体が提供され、該コンピュータ読取可能な媒体は前段落で説明したコンピュータプログラム要素を記憶している。
コンピュータプログラムは、光記憶媒体又は他のハードウェアと一緒に若しくは斯かるハードウェアの一部として供給される固体媒体により記憶及び/又は分配することができのみならず、インターネット又は他の有線若しくは無線通信システムを介して等のように他の形態で分配することもできる。
しかしながら、当該コンピュータプログラムはワールドワイドウェブ等のネットワーク上に提示することもでき、斯様なネットワークからデータプロセッサのワークメモリにダウンロードすることもできる。本発明の他の実施態様によれば、コンピュータプログラム要素をダウンロード用に利用可能にする媒体も提供され、該コンピュータプログラム要素は本発明の前述した実施態様の1つによる方法を実行するように構成される。
本発明の実施態様が異なる主題に関連して説明されたことに注意されたい。特に、幾つかの実施態様は方法のタイプの請求項に関連して説明され、他の実施態様は装置のタイプの請求項に関連して説明された。しかしながら、当業者であれば、上記及び以降の説明から、特に注記しない限り、1つのタイプの主題に属するフィーチャの任意の組み合わせにも加えて、異なる主題に関するフィーチャの間の組み合わせも本出願により開示されたものと見なされることが分かるであろう。しかしながら、全てのフィーチャは、フィーチャの単なる加算以上の相乗効果を提供するように組み合わせることができる。
以上、本発明を図面及び前記記載において詳細に図示及び説明したが、このような図示及び説明は解説的又は例示的なものであり、限定するものではないと見なされるべきである。本発明は、開示された実施態様に限定されるものではない。当業者であれば、請求項に記載された本発明を実施するに際して図面、本開示内容及び従属請求項の精査から、開示された実施態様の他の変形例を理解し、実施することができる。
尚、請求項において、“有する”なる文言は他の構成要素又はステップを排除するものではなく、単数形は複数を排除するものでもない。また、単一のプロセッサ又は他のユニットは、請求項に記載された幾つかの項目の機能を満たすことができる。また、特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これら手段の組み合わせを有利に使用することができないということを示すものではない。また、請求項における如何なる符号も、当該範囲を限定するものと見なしてはならない。

Claims (15)

  1. 介入装置を追跡する医療撮像システムであって、
    − インターフェースユニットと、
    − 処理ユニットと、
    を有し、
    前記インターフェースユニットは、介入装置における被検体の外側に位置する第1部分の第1画像データを供給し、該第1画像データは3D画像データを有し、
    前記インターフェースユニットは、前記介入装置における前記第1部分の続きであって前記被検体の内側に少なくとも部分的に位置する第2部分の第2画像データを供給し、該第2画像データは2D画像データを有し、
    前記処理ユニットは、前記介入装置の第1の3Dモデル部分を前記第1画像データに基づいて計算すると共に、該介入装置の第2の3Dモデル部分を前記第2画像データ及び前記第1の3Dモデル部分に基づいて計算し、
    前記インターフェースユニットは、前記介入装置のグラフィック表現のデータを前記第1及び第2の3Dモデル部分に基づいて供給する、
    医療撮像システム。
  2. 前記第1及び第2の3Dモデル部分に基づく前記介入装置のグラフィック表現を表示する表示ユニットを有する、請求項1に記載の医療撮像システム。
  3. 第1画像取得装置と、
    第2画像取得装置と、
    を更に有し、
    前記第1画像取得装置は前記第1画像データを取得し、
    前記第2画像取得装置は前記第2画像データを取得する、
    請求項1又は請求項2に記載の医療撮像システム。
  4. 前記第1画像データは少なくとも2つの光学カメラにより供給され、
    前記第2画像データは、
    i)X線撮像装置、及び/又は
    ii)超音波撮像装置
    により供給される、
    請求項1、2又は3に記載の医療撮像システム。
  5. 前記処理ユニットは前記第1画像データの3D画像データ及び前記第2画像データの2D画像データを位置合わせし、
    前記表示ユニットは、前記第1画像データの3D画像データ及び前記第2画像データの2D画像データを、前記第1及び第2の3Dモデル部分に基づく前記介入装置のグラフィック表現と一緒に合成画像で表示する、
    請求項に記載の医療撮像システム。
  6. 前記処理ユニットは、前記第1の3Dモデル部分及び前記第2の3Dモデル部分を組み合わせて前記介入装置の3Dモデルを形成する、請求項1ないし5の何れか一項に記載の医療撮像システム。
  7. 前記処理ユニットは、前記介入装置が位置する境界空間を決定し、
    前記処理ユニットは、前記境界空間を前記第1の3Dモデル部分及び前記第2の3Dモデル部分に基づいて、及び/又は前記介入装置の前記モデルに基づいて決定する、
    請求項1ないし6の何れか一項に記載の医療撮像システム。
  8. 前記処理ユニットは、前記介入装置の所定の部分が位置する境界ボックスを決定する、請求項1ないし7の何れか一項に記載の医療撮像システム。
  9. 前記介入装置は単純な湾曲幾何学形状に曲がる可撓性介入装置であり、
    前記処理ユニットは前記介入装置の2つの可能性のある曲がり姿勢を決定し、前記表示ユニットは該曲がり姿勢をユーザに提示する、
    請求項2又は5に記載の医療撮像システム。
  10. 前記処理ユニットは前記第1画像データに関して前記介入装置の曲がりを決定し、
    前記処理ユニットは前記被検体内の前記介入装置の曲がりを、前記第1画像データにおいて決定された曲がりに基づいて予測する、
    請求項1ないし9の何れか一項に記載の医療撮像システム。
  11. 前記処理ユニットは前記第1画像データの3D画像データ及び前記第2画像データの2D画像データを位置合わせし、
    前記表示ユニットは前記位置合わせされた画像を合成画像で表示する、
    請求項2、5又は9に記載の医療撮像システム。
  12. 被検体の内側に部分的に挿入された介入装置を追跡する方法であって、
    a)介入装置における被検体の外側に位置する第1部分の第1画像データを取得するステップであって、該第1画像データが3D画像データを有するステップと、
    b)前記介入装置における前記第1部分の続きであって前記被検体の内側に位置する第2部分の第2画像データを取得するステップであって、該第2画像データが2D画像データを有するステップと、
    c)前記介入装置の第1の3Dモデル部分を前記第1画像データに基づいて計算するステップと、
    d)前記介入装置の第2の3Dモデル部分を前記第2画像データ及び前記第1の3Dモデル部分に基づいて計算するステップと、
    を有する、方法。
  13. 前記ステップd)における前記第2の3Dモデル部分の計算が、前記介入装置の所定の長さにも基づくものである、請求項12に記載の方法。
  14. 請求項1ないし11の何れか一項に記載のシステムを制御するためのコンピュータプログラムであって、処理ユニットにより実行された場合に請求項12又は13に記載の方法を実行する、コンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムを記憶したコンピュータ読取可能な媒体。
JP2015517880A 2012-06-20 2013-05-29 マルチカメラ装置追跡 Active JP5837261B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12305700.2 2012-06-20
EP12305700 2012-06-20
PCT/IB2013/054424 WO2013190409A2 (en) 2012-06-20 2013-05-29 Multicamera device tracking

Publications (2)

Publication Number Publication Date
JP2015519985A JP2015519985A (ja) 2015-07-16
JP5837261B2 true JP5837261B2 (ja) 2015-12-24

Family

ID=48793334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015517880A Active JP5837261B2 (ja) 2012-06-20 2013-05-29 マルチカメラ装置追跡

Country Status (6)

Country Link
US (1) US10255721B2 (ja)
EP (1) EP2831841B1 (ja)
JP (1) JP5837261B2 (ja)
CN (1) CN104272349B (ja)
RU (1) RU2015101519A (ja)
WO (1) WO2013190409A2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10842461B2 (en) * 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US9833209B2 (en) 2012-08-17 2017-12-05 Koninklijke Philips N.V. Camera-based visual adjustment of a movable X-ray imaging system
GB201304798D0 (en) 2013-03-15 2013-05-01 Univ Dundee Medical apparatus visualisation
JP6157919B2 (ja) * 2013-05-09 2017-07-05 東芝メディカルシステムズ株式会社 X線診断装置
JP6783665B2 (ja) * 2014-06-17 2020-11-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Teeプローブのための誘導デバイス
US20160354049A1 (en) * 2015-06-04 2016-12-08 Biosense Webster (Israel) Ltd. Registration of coronary sinus catheter image
US11007014B2 (en) * 2015-12-18 2021-05-18 Koninklijke Philips N.V. Medical instrument tracking
JP6714097B2 (ja) * 2016-03-16 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マルチモーダルx線撮像における光学カメラ選択
JP6943884B2 (ja) * 2016-05-19 2021-10-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ハイブリッドx線/カメラ介入の動き補償
CN107133028B (zh) * 2017-03-30 2021-07-16 联想(北京)有限公司 一种信息处理方法及电子设备
US20190110685A1 (en) * 2017-10-13 2019-04-18 General Electric Company Systems and methods for guided interventional procedures
CN112261965A (zh) * 2018-06-11 2021-01-22 泰尔茂株式会社 诊断方法、诊断系统及诊断系统的控制方法
EP3703011A1 (en) 2019-02-26 2020-09-02 Koninklijke Philips N.V. Interventional device tracking
EP3824839A1 (en) 2019-11-19 2021-05-26 Koninklijke Philips N.V. Robotic positioning of a device
IL292783A (en) * 2022-05-04 2023-12-01 Vidisco Ltd A system and method for the three-dimensional detection of an object

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4400890A (en) * 1981-10-26 1983-08-30 Sony Corporation Length measuring device
EP0646263B1 (en) 1993-04-20 2000-05-31 General Electric Company Computer graphic and live video system for enhancing visualisation of body structures during surgery
US5765561A (en) 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
CN1261259A (zh) 1997-05-23 2000-07-26 卡罗莱纳心脏研究所 电子成像和治疗系统
US5930329A (en) * 1997-09-22 1999-07-27 Siemens Corporate Research, Inc. Apparatus and method for detection and localization of a biopsy needle or similar surgical tool in a radiographic image
JP2002541947A (ja) * 1999-04-15 2002-12-10 ウルトラガイド・リミテッド 医療行為中の医療用侵襲器具の曲がり具合を検出する装置及びその方法
JP2001061861A (ja) * 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
US6782287B2 (en) 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
JP4828802B2 (ja) * 2004-05-12 2011-11-30 株式会社東芝 穿刺治療のための超音波診断装置
US8126224B2 (en) * 2004-02-03 2012-02-28 Ge Medical Systems Global Technology Company, Llc Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images
US20080020362A1 (en) * 2004-08-10 2008-01-24 Cotin Stephane M Methods and Apparatus for Simulaton of Endovascular and Endoluminal Procedures
EP1830714B1 (en) * 2004-12-15 2012-07-11 Cook Medical Technologies LLC Flexible surgical needle device
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
WO2007113815A2 (en) * 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US8165360B2 (en) 2006-12-06 2012-04-24 Siemens Medical Solutions Usa, Inc. X-ray identification of interventional tools
EP2082686B1 (de) * 2008-01-22 2015-01-21 Brainlab AG Orientierte Wiedergabe von Aufnahmen
US8172753B2 (en) * 2008-07-11 2012-05-08 General Electric Company Systems and methods for visualization of an ultrasound probe relative to an object
BRPI0917591A2 (pt) 2008-12-11 2015-11-17 Koninkl Philips Electronics Nv sistema para gerar uma imagem e método para gerar uma imagem
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
CN102421365B (zh) 2009-05-13 2015-03-25 皇家飞利浦电子股份有限公司 用于在成像程序期间检测整体患者运动的系统
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
US20120156092A1 (en) 2009-09-08 2012-06-21 Koninklijke Philips Electronics N.V. Sterilization coat
US9014780B2 (en) 2009-11-20 2015-04-21 Koninklijke Philips N.V. Image-based biopsy guidance method
WO2011127379A2 (en) * 2010-04-09 2011-10-13 University Of Florida Research Foundation Inc. Interactive mixed reality system and uses thereof
FR2960332B1 (fr) * 2010-05-21 2013-07-05 Gen Electric Procede de traitement d'images radiologiques pour determiner une position 3d d'une aiguille.
JP5486449B2 (ja) * 2010-09-28 2014-05-07 富士フイルム株式会社 超音波画像生成装置及び超音波画像生成装置の作動方法
US9572539B2 (en) * 2011-04-08 2017-02-21 Imactis Device and method for determining the position of an instrument in relation to medical images
US20130211244A1 (en) * 2012-01-25 2013-08-15 Surgix Ltd. Methods, Devices, Systems, Circuits and Associated Computer Executable Code for Detecting and Predicting the Position, Orientation and Trajectory of Surgical Tools

Also Published As

Publication number Publication date
WO2013190409A2 (en) 2013-12-27
RU2015101519A (ru) 2016-08-10
EP2831841A2 (en) 2015-02-04
US10255721B2 (en) 2019-04-09
EP2831841B1 (en) 2016-05-18
US20150164607A1 (en) 2015-06-18
JP2015519985A (ja) 2015-07-16
CN104272349B (zh) 2018-03-02
CN104272349A (zh) 2015-01-07
WO2013190409A3 (en) 2014-03-20

Similar Documents

Publication Publication Date Title
JP5837261B2 (ja) マルチカメラ装置追跡
CN106572829B (zh) 医学成像系统的扫描区域的定位的控制
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
JP6360052B2 (ja) 器具ガイダンスを可能にするイメージングシステム及び方法
US20160163105A1 (en) Method of operating a surgical navigation system and a system using the same
EP2099378B1 (en) Apparatus for determining a position of a first object within a second object
JP6559532B2 (ja) X線透視画像のリアルタイムシミュレーション
US20150371390A1 (en) Three-Dimensional Image Segmentation Based on a Two-Dimensional Image Information
JP2016538066A (ja) 自動アイソセンタリングによる介入x線システム
EP3494548B1 (en) System and method of generating and updating a three dimensional model of a luminal network
JP6806655B2 (ja) 放射線撮像装置、画像データ処理装置及び画像処理プログラム
KR20170057141A (ko) Ct 이미지를 위한 국소 적용 투명성
JP6493877B2 (ja) 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
JP2023116743A (ja) 椎弓根スクリューの固定プランニングシステム及び方法
EP3931799B1 (en) Interventional device tracking
JP7301573B2 (ja) 静的仮想カメラの配置方法
EP4395652A1 (en) Object visualisation in x-ray imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20141226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151104

R150 Certificate of patent or registration of utility model

Ref document number: 5837261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250