JP2017205582A - プランニングシステム及び方法 - Google Patents

プランニングシステム及び方法 Download PDF

Info

Publication number
JP2017205582A
JP2017205582A JP2017150953A JP2017150953A JP2017205582A JP 2017205582 A JP2017205582 A JP 2017205582A JP 2017150953 A JP2017150953 A JP 2017150953A JP 2017150953 A JP2017150953 A JP 2017150953A JP 2017205582 A JP2017205582 A JP 2017205582A
Authority
JP
Japan
Prior art keywords
view
path
point
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017150953A
Other languages
English (en)
Other versions
JP6438545B2 (ja
Inventor
ヴィームカー,ラファエル
Wiemker Rafael
ル,コンクォ
Kongkuo Lu
シュ,シェン
Sheng Xu
クリンダー,トビアス
Klinder Tobias
ベルクトホルト,マルティン
Bergtholdt Martin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2017205582A publication Critical patent/JP2017205582A/ja
Application granted granted Critical
Publication of JP6438545B2 publication Critical patent/JP6438545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Paper (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】グラフィカルインタフェースツールを用いた医療手順のグラフィカルなプランニング及び支援のシステム及び方法を提供する。
【解決手段】
プランニングツール、システム及び方法は、プロセッサ(114)と、プロセッサに結合しプランニングモジュール(144)を記憶したメモリ(116)とを含む。ユーザインタフェース(120)は、プロセッサに結合し、経路システム(148)によりユーザに経路を選択させるように構成されている。プランニングモジュールは、経路がナビゲートされるにつれ、経路中のカーソルポイントの奥行きに従って一以上のスライスが更新されるように、ユーザインタフェースを用いてガイドされたユーザ制御カーソルポイント(108)に対応する画像ボリューム(111)の一以上のスライスをアップロードするように構成される。
【選択図】図5

Description

本開示は、医療機器に関し、より具体的には、グラフィカルインタフェースツールを用いた医療手順のグラフィカルなプランニング及び支援のシステム及び方法に関する。
(関連技術)
経気管支バイオプシーは、バイオプシーのニードルが気管支鏡のワーキングチャネルで送られ、ある点で気管壁を通して進み、肺や縦隔中の腫瘍、リンパ節などの試料を取る一般的な侵襲的手順である。かかる侵襲のプランニング及びリアルタイムガイダンスを支援するため、患者の胸郭のスキャンを行う。コンピュータ断層撮影(CT)スキャンなどのスキャンは、実際の気管支鏡カメラの光学画像と同様に、放射線学Standard Viewsで、及びEndoluminal Viewの仮想レンダリングでユーザ(例えば、呼吸器科医)に表示できる。
Endoluminal−Viewでは、実際の気管支鏡からの光学画像または仮想的レンダリングの場合、ユーザは気管壁の後ろの組織、具体的にはバイオプシーの対象の位置や穴を開けない管の位置を見ることはできない。同様に、Standard Viewでは、ユーザは、ある点がEndoluminal View中にあるか正しくは分からない。
気管支鏡用の半自動経路プランニングには、3次元CT画像ボリューム中の複数の経路ポイントのマニュアル設定が必要である。2次元ディスプレイにおいてこれらの経路ポイントの設定をする場合、ユーザは、現在表示されているビュープレーンの3つの位置パラメータと3つの方向パラメータとを制御する必要がある。これによりワークフローが大幅に遅くなる。特許文献1及び非特許文献1、2を参照。
[特許文献1]国際出願第WO2009/138871号(Trumer et al.)
[非特許文献1]「superDimension’s iLogic Promotional Video」(June 8, 201
0, XP055058866, youtube (URL:http:/www.youtube.com/watch?v=3oCkvD8eaMQ)
[非特許文献2]「superDimension Planning Phase」(January 14, 2009, XP0550
58871, youtube (URL:http:/www.youtube.com/watch?v=r_Zdpfh−Xww)
(例えば、バイオプシーの場合の)周辺ターゲットへの気管支鏡用経路プランニングは、一般的ではあるが困難な医療タスクである。ターゲットと気管との間の全自動経路プランニングは望ましいが、必ずしも最適な結果を与えないことがある。対称的に、半自動化されたマニュアル経路プランニングには、3次元CT画像ボリューム中の複数の経路ポイントの設定が必要である。
本原理によると、プランニングツール、システム及び方法は、プロセッサと、プロセッサに結合しプランニングモジュールを記憶したメモリとを含む。ユーザインタフェースは、プロセッサに結合し、経路システムによりユーザに経路を選択させるように構成されている。プランニングモジュールは、経路がナビゲートされるにつれ、経路中のカーソルポイントの奥行きに従って一以上のスライスが更新されるように、ユーザインタフェースを用いてガイドされたユーザ制御カーソルポイントに対応する画像ボリュームの一以上のスライスをアップロードするように構成される。
動作可能に結合された複数のビューポートを有するシステムは、プロセッサと、前記プロセッサに結合したメモリとを含み、メモリは画像処理モジュールを記憶している。グラフィカルユーザインタフェースは、プロセッサに結合し、経路システムによりユーザに経路を選択させるように構成されている。画像処理モジュールは、経路の腔内ビューと、画像ボリュームの他の一以上のビューと、前記腔内ビューと前記他の一以上のビューとを含む選択されたすべてのビューにおいて空間的基準を提供する仮想ラインと、ユーザ制御カーソルポイントは、腔内ビューをガイドするように構成され、カーソルポイントにおける選択更新に対応して、選択されたすべてのビューにおける更新をさせ、他のビューにおけるカーソルポイントの周りの画像情報がユーザインタフェースにおいて同時に見ることができるようにする仮想ラインとをレンダリングするように構成されている。
手順をプランニングする方法は、経路構造の画像ボリュームにエンドポイントを配置する、前記画像ボリュームは奥行きに沿って、スタックされた複数のスライスを有するステップと、前記経路構造の画像ボリューム中の開始点を選択するステップと、前記経路構造にそって経路を延ばすステップと、前記画像スライスに対応する前記経路構造の奥行きに応じて、前記経路に沿って前記経路構造の画像スライスを更新するステップと、前記経路に沿って前記終了点までナビゲーションするステップと、手順のプランを生成するため、前記経路を記憶するステップとを有する。
複数のビューポートを動作可能に結合する方法は、ユーザが経路システムにより経路を選択できるように構成されたグラフィカルユーザインタフェースにおいて、経路構造の腔内ビューを生成するステップと、画像ボリュームの他の一以上のビューを生成するステップと、前記腔内ビューと前記他の一以上のビューを含む複数のビューに空間的基準を提供する仮想ラインを生成するステップであって、前記仮想ラインは前記腔内ビューをガイドするように構成され、前記仮想ラインのユーザ選択された位置更新に対応する、他のビューにおける更新を可能とする基準を提供するようにし、前記他のビューにおける前記仮想ラインの周りの画像情報は前記ユーザインタフェースで同時にみることができるようにするステップとを含む。
本開示の上記その他の目的、特徴、及び効果は、その実施形態の以下の詳細な説明から明らかとなるであろう。詳細な説明は、添付した図面を参照して読まれたい。
この開示は、以下の図面を参照して、詳細に好ましい実施形態の以下の説明をする。
一実施形態による、手順をプランニングし、同時に異なる視点のリンクされたディスプレイビューを見るシステム/方法を示すブロック/フロー図である。 例示した一実施形態によるマウスで描いたプラントレースの奥行きによる、画像スライスを更新する方法を示すフロー図である。 例示した一実施形態による、カーソル位置(またはマウスポイント)によるカレントビュープレーンを更新するベクトルを示す図である。 他の一実施形態による、腔内構造に描いた経路トレースを有する第1スライスを示す画像である。 図4Aの実施形態による、腔内構造に沿って延在する経路トレースを有する、異なる経路の後続スライスを示す画像である。 本原理による仮想ライン基準位置を用いる、互いに相関した複数の視点またはペイン(panes)を示すディスプレイ画面のイメージである。 例示した一実施形態による、手順をプランニングする方法を示すフロー図である。 例示した一実施形態による、複数の視点を動作可能に結合する方法を示すフロー図である。
本原理では、グラフィカルユーザインタフェースを有し、現在表示されているビュープレーンの奥行き、位置及び方向を自動的に調整し、ユーザが肺の気道などの内部構造の2次元トラッキングを制御すればよいようにするシステムを提供する。ビュープレーンは常に更新できる。一方法により、マウスや類似のポインティングデバイスを用いて、そのマウスの動きを用いて表示されているビュープレーンの位置とその方向を自動的に変化させて、その構造のローカルトレーシングを行う。マウスポイントはその構造(例えば、気道)の中心に配置され、ビュープレーンの方向がその構造の方向に合わせられる。このようにして、ユーザは、ビュープレーンの制御パラメータを調節しなくても、対象(例えば、バイオプシーの対象)から開始位置(例えば、気管)までの経路をマウスドラッグできる。このグラフィカルユーザインタフェースとその土台となっている方法により、ワークフローの解釈がより効率的かつ容易になる。
CTスキャンなどの3次元入力画像ボリュームは、通常、一以上の平面スライス画像の形式だけで表示される。最良の可能性には、x、y、z軸で整列された画像(軸方向、冠状、矢状)、傾斜平面画像、または曲がったリフォーマット画像が含まれる。ユーザは、これらの2次元ビュープレーン内で、経路位置を示し(click into)経路制御ポイントを設定または編集できる。2次元ディスプレイにおいてこれらの経路ポイントのマニュアル設定をする場合、ユーザは、現在表示されているビュープレーンの3つの位置パラメータと3つの方向パラメータとを制御する必要がある。具体的に、ユーザは、複数のスライスにわたりスクロールして(現在表示されているスライスの奥行き位置を調節し)、方向を変化させ(例えば、頭尾体軸(cranio−caudal body axis)の周りの回転)、経路の最もよく見えトレース可能にする。大きなユーザインターラクションが必要であり、これにより制御点を設定するワークフローが大幅に遅延する。
本原理による一実施形態では、グラフィカルユーザインタフェース(GUI)は、現在表示されているビュープレーンの奥行き位置と方向を連続的に自動的に調整(adaptation)する。ユーザが経路内でポインタまたはマウスをドラッグすると、マウスポイントが気道の中心に留まるように、現在表示されているビュープレーンの奥行き位置が自動的に調整される。任意的に、表示されたビュープレーンは、気道の方向(local direction)が表示されたスライスビュープレーンと最適に整列するように、現在のマウスポイントの周りに回転する。
このワークフローは、ユーザがマウスポイントをターゲットに合わせ、他のビュー制御パラメータはまったく調整せずに、経路に沿って開始点(例えば気管)までマウスをドラッグすることを含む。ユーザは、ビュープレーンにおける経路の2次元トラッキングのみを制御し、奥行きと回転は自動的に適合される。これは、基礎をなすアルゴリズムや方法により実現される。これらは新しいマウス位置に対して、そのマウスが現在位置している経路のローカルトレーシングを行う。ローカルな経路の3次元中心点とそのローカルな方向とが決定される。現在表示されている奥行きまたは方向及び推定経路中心及び方向に違いがあれば、ビュープレーンのパラメータは適宜先行され、ディスプレイがリアルタイムで(例えばライブフィードバックで)更新される。
他の一実施形態では、グラフィカルユーザインタフェース(GUI)は、実際の内視鏡からの画像フィードバックに似た仮想的なEndoluminal−Viewにおいて動く複数のビューポートまたはペイン(panes)を含む。Endoluminal−Viewにおける各点について、ビューポートは傾斜したリフォーマットを提供して、画像ペイン中に表示されている経路壁ポイントを通して仮想的な針が進むと、どの組織を横切るか示す。これにより、重要な組織や管を回避しつつターゲット(例えば、目標となる腫瘍やリンパ節)に導く適切なバイオプシー経路が見つかる。
この実施形態では、仮想的及び実際のEndoluminal−Viewがビューポートにインターラクティブに結合される。現在の視点(カメラポイント)から進む針により貫通される組織は、他のビューの実際のまたは仮想的な画像と相関される。仮想的な針またはその他の基準がEndoluminal−Viewにおいて現在のマウス位置により指定され、適切なニードル指向の傾斜Reformat−Viewが自動的に計算されて表示される。Endoluminal−Viewの基礎となる奥行き情報を用いて、気道壁を貫通せずにEndoluminal−Viewにおいてカメラ位置を進める機能も実現できる。
言うまでもなく、本発明は、医療用機器に関して説明されるが、本発明の教示はそれよりも広く、経路ナビゲーションを行うシステムと方法に適用可能である。いくつかの実施形態では、本原理は、複雑な生物学的または機械的なシステムをトラッキングまたは分析するのに利用される。具体的に、本原理は、生物学的システムの内部トラッキング行為に適用可能であり、肺、消化管、排泄器官、血管などの人体のすべてのエリアにおける行為に適用可能である。図面に示した要素は、ハードウェアとソフトウェアの様々な組合せで実施でき、複数の機能を提供でき、これらの機能は、単一の要素または複数の要素に組み合わせできる。
図示した様々な要素の機能は、専用ハードウェアを用いても、ソフトウェアを実行可能なハードウェアと適当なソフトウェアとを組み合わせても提供できる。プロセッサにより提供される場合、機能を単一の専用プロセッサで提供してもよいし、共有された単一のプロセッサで提供してもよいし、一部が共有された複数の個別プロセッサで提供してもよい。さらに、「プロセッサ」または「コントローラ」という用語を明示的に使用した場合、ソフトウェアを実行できるハードウェアのみをいうと解釈してはならず、限定はされないが、デジタルシグナルプロセッサ(DSP)、ソフトウェアを記憶するROM、RAM、不揮発性記憶装置等を黙示的に含んでもよい。
さらに、本発明の原理、態様、実施形態、及びその実施例のすべての記載は、その構成的等価物及び機能的等価物の両方を含むものである。また、かかる均等物は、現在知られている均等物及び将来開発される均等物を含み、すなわち、構成にかかわらず同じ機能を発揮する開発されるすべての要素を含む。このように、例えば、当業者には言うまでもなく、ここに説明したブロック図は本発明の原理を化体するシステムコンポーネント及び/または回路を概念的に示すものである。同様に、言うまでもなく、フローチャート、フロー図等は、様々な方法(processes)を表し、これらの方法をコンピュータ読み取り可能記憶媒体に実質的に表しても、明示的に示していようがいまいがコンピュータやプロセッサで実行してもよい。
さらに、本発明の実施形態は、コンピュータや命令実行システムにより使用されるプログラムコードを提供するコンピュータ利用可能媒体またはコンピュータ読み取り可能媒体からアクセスできるコンピュータプログラム製品の形体を取りうる。本開示の目的では、コンピュータ使用可能またはコンピュータ読み取り可能媒体は、命令実行システム、装置、またはデバイスにより、またはそれらに関して使用される、プログラムを包含、格納、伝達、伝送、搬送できる任意の装置である。 この媒体は、電子的媒体、磁気的媒体、光媒体、光磁気媒体、赤外線媒体、半導体システム(または装置やデバイス)、伝達媒体などである。コンピュータ読み取り可能媒体の例としては、半導体または固体メモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、固定磁気ディスク、光ディスクなどがある。光ディスクの例としては、コンパクトディスク−リードオンリメモリ(CD−ROM)、コンパクトディスク−リード/ライト(CD−R/W)、ブルーレイ(商標)、及びDVDなどがある。
ここで図面を参照する。図中、同様の数字は同一のまたは同様の要素を表す。最初に図1を参照して、一実施形態による、グラフィカル経路プランニング及びデバイストラッキングをするシステム100を例示する。システム100は、医療用ワークステーションの画像ディスプレイモジュールにおいて利用でき、気管支鏡専用ソフトウェアスイート(例えば侵襲コックピット)で、または血管トレーシング(例えば塞栓症と血小板検査)で有用である。他のアプリケーションも想定している。
システム100は、手順を監視及び/または管理するワークステーションまたはコンソール112を含む。ワークステーション112は、好ましくは、一または複数のプロセッサ114と、プログラムとアプリケーションを記憶するメモリ116とを含む。メモリ116は、仮想命令を生成し、複数のビューポートを、実際のカメラからの画像、画像ボリューム(術前の画像)、画像スライス(CTスキャン)などを見るように合わせ、複数ビューにおけるイベントを再生するように構成された画像処理モジュール115を記憶している。画像処理モジュール115は、医療用デバイスまたは機器(または仮想的機器またはデバイス)102及び/またはその周囲の領域の実際のまたは仮想的な経路に沿って、実際の及び仮想的な画像を再構成するように構成されている。医療用デバイス102は、カテーテル、ガイドワイヤ、プローブ、ニードル、内視鏡、ロボット、電極、フィルタデバイス、バルーンデバイス、その他の医療用コンポーネント等、または仮想的モデル、または仮想的モデル、またはかかるデバイスの表現を含み得る。経路システム148の術前画像ボリューム111を最初に生成するデバイス102を利用することもできる。
術前画像化データまたはリアルタイム術中画像化データを収集する画像化システム110を設けてもよい。術前画像化は、他の施設、ロケーションなどで、すべての手順に先立って行われてもよい。これらの画像111は、メモリ116に格納され、(実際のまたは仮想的な)患者または経路システム148の術前3次元画像ボリュームを含んでもいてもよい。
特に有用な一実施形態では、デバイス/仮想デバイス102を利用して、ターゲットを発見または観察する。ターゲットは、病変、腫瘍、けがの部位、オブジェクト、またはその他のターゲットを含み得る。他の一実施形態では、デバイス102はまったく必要ない。実際、仮想的デバイスまたはカーソルを用いて、仮想的または術前の画像(111)を用いて、経路にコースを記すことができる。
画像処理モジュール115は、経路決定モジュールまたはツール144を含む。経路決定モジュール144は、術前画像111中の経路に沿ったナビゲーションをプランニングして侵襲的手順を計画するユーザ機能を提供する。ワークステーション112は、被験者の内部画像を見るためのディスプレイ118を含む。画像は術前画像、リアルタイムカメラ画像、及び/またはリアルタイム術中画像を含み得る。画像化システム110を用いる場合、画像化システム110は、磁気共鳴画像化(MRI)システム、蛍光透視システム、コンピュータ断層撮影(CT)システム、超音波(US)などを含む。また、ディスプレイ118により、ユーザは、ワークステーション112及びそのコンポーネント・機能とインターラクトできる。ディスプレイ118は、好ましくは、グラフィカルユーザインタフェース(GUI)106中の1つ以上のペイン(panes)またはビューポート124を表示するように構成される。ビューポート124は、好ましくは、リアルのまたは仮想的なトリガーイベントに基づき同時に更新されるように、相関している。ディスプレイ118とのユーザインターラクションはインタフェース120によりさらに容易になる。インタフェース120は、キーボード、マウス、ジョイスティック、その他の周辺機器またはコントロールなどのハードウェアデバイスを含み、仮想コントロール、パネル、ディスプレイペインなどのソフトウェアデバイスを、または両者の組み合わせを含み、ポインティングコントロール108のためのワークステーション112とのユーザインターラクションをさせ得る。
一実施形態では、経路決定モジュール144は、インタフェース120用のソフトウェアデバイスを生成及び制御する。インタフェース120のマウスまたはポインタデバイス(108)を用いて、例えば気道から肺までの、適切な経路を、経路システム148によりプランニングする支援をする。ユーザはある位置でマウス108をクリックして、その位置を、侵襲的手順において後で通る(traverse)経路上のポイント位置として特定する。ポイント位置は、CTスキャンなどからの2次元スライス画像中で特定することもできる。プランニングは、最初のマウスポイント位置としてのターゲットサイトで始めてもよい。マウスポイント位置は、マウスまたは類似のデバイスを用いてポイント・アンド・クリックタイプの操作により示された仮想的な画像中の位置として定義される。現在表示されているリフォーマットスライス中の新しい各マウスポイント位置に対して、経路プランニングモジュール144を用いて、その後に行う手順中に通る経路をプランニングする以下のステップを行ってもよい。
図2を参照して、ブロック/フロー図は、経路システムにおける経路をプランニングするステップの例を示す。以下のステップは、プランニングモジュール144により制御または実行される。ブロック202において、両方向(例えばアップストリームとダウンストリーム)で経路の局所的抽出(セグメンテーション)を行う。抽出は、好ましくは、リアルタイムでの計算をできる限られた長さの断片で行い、既知のセグメンテーションアルゴリズム、例えばcentricity−based region growingアルゴリズムやtree segmentation and reconstructionアルゴリズムを用いて行われる。
ブロック204において、局所的経路セグメンテーションがうまくいかない、または現在のマウス位置が経路内に入る信頼性が低い場合、ブロック205において現在のビュープレーンの更新は行わない。そうでなければ、ブロック206において、経路の局所的中心「c」を決定する。ブロック208において、推定された経路中心cと現在のマウスポイントpとの間の差ベクトルd=c−pを決定し、現在表示されているビュープレーンの放線ベクトルnへの射影s=d/nである射影「s」を行う。次に、ビュープレーンの中心をcからc+snに更新する。ブロック210において、経路の局所的方向ベクトルvを決定する。ブロック212において、放線nに平行なvのベクトル成分と、現在表示されているビュープレーンの垂直ベクトルeを減算して、直交化ベクトルvを求める。次に、現在表示されているビュープレーンの水平ベクトルeを、vとアライメント(aligned)するように調整する。これを実現するため、現在のマウスポイントpを通る頭尾方向軸(cranio−caudal axis)の周りに回転する。
ブロック214において、現在表示されているビュープレーンを新しいプレーンパラメータ(例えばベクトル)を用いて更新する。ブロック216において、マウスのドラッグにより生成された経路に沿ってすべての3次元位置をトレースして、半自動経路プランニングの入力として用いるため記憶する。プロセス全体にわたって、経路ポイントを、センタリングと平滑化などのさらに別の処理アルゴリズムにかけてもよい。
図3を参照して、ベクトル図は、図2のワークフロー例による上記のベクトル演算を例示する。カレントビュープレーン220は、局所的にセグメント化された気道224の断面を示す。気道の局所的中心cを決定または推定する。推定された経路中心cと現在のマウスポイントpとの間の差ベクトルd=c−pを決定する。現在表示されているビュープレーン220の放線ベクトルnへの射影s=d・nである射影「s」を行う。次に、よりよい可視化のため、ビュープレーンの中心を(例えばcからc+snに)更新する。経路の局所的方向ベクトルvを決定する。法線nに平行なvのベクトル成分と、現在表示されているビュープレーン220の(頭尾方向軸222に沿った)垂直ベクトルeを減算し、直交化ベクトル(図示せず)を求める。次に、現在表示されているビュープレーン220の水平ベクトルeを、vとアライメント(aligned)するように調整する。これを実現するため、現在のマウスポイントpを通る頭尾方向軸(cranio−caudal axis)222の周りに回転する。
現在表示されているビュープレーン220を新しいプレーンパラメータ(例えばベクトル)を用いて更新する。更新後、中心ポイントcはビュープレーン上にあり、プレーン法線nは方向vに対して直交している。マウスのドラッグにより生成された経路に沿ってすべての3次元位置をトレースして、半自動経路プランニングの入力として用いるため記憶する。経路ポイントに対してさらに別の処理(例えばセンタリングと平滑化)をしてもよい。換言すると、現在のビュー(リフォーマット)プレーン220上のマウス位置pから始めて局所的に経路をセグメント化し、連続的な更新サイクルにおいて、リフォーマットプレーン220をプレーン法線nに沿って前後にシフトして、推定経路中心cがリフォーマットプレーン220中に来て、プレーン220が頭尾方向軸222の周りに回転し、リフォーマットプレーン220を法線nが推定される局所的経路方向に直交するようにする。
再び図1を参照するに、経路プランニングモジュール144は、ユーザにより提供されるマウスドラッグデータを用いて経路計算を支援する。手順まえに撮像した診断立体CT画像などの術前画像111は、その手順の「ロードマップ」として機能し、患者のアナトミーに関する非常に詳細な情報を提供する。これらの画像111をプランニングに利用して、例えば、所望のターゲットに到達する、肺の気道に沿った最適経路を確定する。一実施形態では、画像111も利用して、経路をプランニングする時にディスプレイ118を更新するのに用いるスライスを提供する。スライスは、マウスが経路に沿ってドラッグされると更新される2次元断面である。経路に沿って奥行きが変化すると、プランニングを続けられるように、スライスがより新しいスライスで更新される。スライスは、マウスポイントのセンタリング情報に基づいて更新され、またはユーザによりマニュアルで更新される。
図4Aと図4Bを参照するに、肺306の2つの連続したスライス308と310を例示的に示した。本原理によると、肺306はCTを用いて画像化される。図4Aにおいて、マウスポイントを気道304内で選択し、経路に沿ってドラッグしてマウスドラッグ302を提供する。マウスドラッグ302を伸ばすと、スライス308中の気道の腔内(endoluminal)部分を出てしまう。プラニング経路モジュール(144)は、マウスドラッグ302を再センタリングし、ビューを図4Bのスライス310に切り替える。図4Bのスライス310では、マウスドラッグ302を続けてその行き先ポイントに行ける。スライス310は、スライス308の2次元画像に対応する次のCTスキャンスライスであり、スライス310の奥行きはスライス308と異なる。これにより、気道304の腔内キャビティの追加的位置にアクセスできるようにすることにより、マウスドラッグ302を所望の経路に沿ってさらに伸ばすことができる。また、奥行き(第3次元)は画像処理により更新されるので、ナビゲーションプロセスは、(スライス中の)2次元でよい。これによりプランニング手順が大幅に簡略化される。好ましくは、マウスドラッグ302をターゲット位置で始め、エントリーポイントまたはポートなど(例えば、肺の場合には気管)の最初の開始ポイントに向けて後ろ向きに進む。
図5を参照するに、例示したグラフィカルユーザインタフェース(GUI)400は複数のビューポート402、404、406及び408を含む。GUI400はワークステーション112(図1)において利用できる。これは気管支鏡検査コックピットまたはその他の気管支鏡検査手順をプランニングしてガイドするシステムを含み得る。ビューポート402,404,406及び408は例示的な構成を示し、ビューポートの数はより多くても少なくてもよい。ビューポート402,404,406及び408の構成は、方向が異なっても、異なるサイズのペイン(panes)であってもよい。この例では、ビューポート402にはStandard−View(SV)(軸性)が示されている。ビューポート404には、Endoluminal−View(EV)が示されている。1つ以上の傾いたReformatted−Views(例えば、RV1,RV2,RV3など)がビューポート406と408に示されている。ビューポート404は、術前画像ボリュームまたはコンピュータで生成された画像ボリュームを含む。ビューポート402,404,406及び408はすべてジオメトリカルに結合され、ニードルベクトル410として示した仮想ラインまたはニードルの概念により管理される。言うまでもなく、GUI400は、手順に対するナビゲーションをプランニングするために利用され、または侵襲的手順においてツールとして利用できる。
例示では、Endoluminal−View404におけるマウスの動きにより、現在のマウスポイント412が、バイオプシーニードルが進む気道壁414中のポイントであるとの仮定の下、他のビューポート402、406,408がリアルタイムで更新される。ポイント412は、ビューポート404の仮想的な腔内レンダリングにおけるこのポイントのビューイング方向と、仮想的腔内レンダリングにおけるこのポイント412の奥行き値とにより決定される。この気道壁ポイント座標により、仮想的なニードルベクトルが、気道壁ポイント412と、Endoluminal−View404の現在のカメラ位置との間のベクトルとして計算される。あるいは、カメラ位置の代わりに他の位置を指定してもよい。例えば、(カメラ位置ではなく)気管支鏡のワーキングチャネルのマウス位置を仮想ニードルの開始ポイントとして指定してもよい。仮想的位置を用いることもできる。
(ビューポート404内の)現在の腔内カメラ位置とニードルベクトル410により与えられるプレーンを示す1つの傾いたReformatted−View RV1 406を計算して、表示する。(ビューポート404の)現在の腔内カメラ位置により与えられ、ニードルベクトル410に平行であるが、ビューポート406のRV1に直交する他のReformatted−View RV2(図示せず)を計算してもよい。(ビューポート404の)現在の腔内カメラ位置により与えられニードルベクトル410に直交する(直角な)プレーンの第3のReformatted−View RV3 408を計算する。
仮想的ニードル410はReformatted−Views RV1(及び/または、図示されていればRV2)に引いたラインにより表示される。ニードル410はRV3 408に対して直角であり、RV3 408では1つの点または十字線として示されるだけである。仮想的なニードル410が気道壁を貫通するポイントは、Standard−View402においてマーカ418として示され、Standard−View402の中央座標はこのポイントにリセットされ、ビューをセンタリングし、仮想的なニードル410の軌跡を見えるようにする。
Endoluminal−View404へのマウスクリックを、仮想的な腔内レンダリングにおける腔内キャビティの方向に沿ってカメラ位置を動かす方法として利用できる。カメラ変位ベクトルの長さは、仮想的腔内レンダリングにおけるこのポイントの奥行き値の割合により与えられる。(段階的な長さの割合は、例えば50%に固定してもユーザが調節可能としてもよい。)これにより、ユーザがEndoluminal−View404のどこをクリックしても、次のカメラ位置はまだ気道内にある。すべてのビューポートは、新しいカメラ位置に更新される。
言うまでもなく、上記の例は例示であり、本原理による多くのバリエーションを利用することができる。例えば、Standard−View402は、この例では軸平行である;しかし、軸性、冠状、矢状方向であっても、3つの方向すべてが同時に与えられてもよい。Endoluminal−View404は、直接的ボリュームレンダリングとして、メッシュによるサーフェスレンダリングとして、または閾値ボリューム画像として計算してもよい。Reformatted−View406,408は、シンスライスリフォーマット、スラブリフォーマット(例えば、最大強度または平均強度)、または直接的ボリュームレンダリングスラブを含み得る。他のバリエーションも想定している。
Standard−View(402)におけるマウスクリックを用いて、マウスクリックポイントにおけるEndoluminal−View(404)のレンダリングをトリガーしてもよい。適当な局所的気道抽出アルゴリズムを用いて、このポイントのカメラ方向を自動的に推定する。すべてのビューポートが適宜更新される。言うまでもなく、どのビューポートを更新しても、他のビューの更新がトリガーされる。この更新機能は、必要に応じてすべてのビューに、または一部のビューに、イネーブルされる。例えば、Reformatted−View406または408におけるマウスクリックにより、Standard−View402の中央ポイント及びEndoluminal−View404のカメラポイントが、選択されたポイントにリセットされ、すべてのビューポートが適宜更新され得る。Endoluminal−View404中に見える各気道壁ポイントに対して、Endoluminal−View404のビューイングレンジがReformatted−View(図示せず)中の境界線(boundary contour line)として見えるように、その位置はReformatted−View406、408(例えば、RV1,RV2,RV3など)においてカラー表示(color−coded)されてもよい。Endoluminal−View404において、色づけされたオーバーレイ(図示せず)を利用して、気管支鏡のバイオプシーニードルがカメラアングルから外れても良い最大角度を示しても良い。この機能は、手順をプランニングするためにニードルをアライメントする際に有用である。
特に有用な実施形態では、Endoluminal−View404のマウスホイールの動きを利用して、マウスクリックによりカメラ位置を進めたり下がらせたりする際のステップ長を変更してもよい。現在のステップ長でのマウスクリックによる次の位置を、Reformatted−View406(及び、用いていればRV2)中のマーカとして示す。
Reformatted−View RV3 408は、現在のカメラポイントにより計算されるだけではなく、仮想的ニードル410上のどのポイントに対しても計算して、例えば、ユーザがマウスホイールを用いてかかるポイントを連続的に選択して、仮想的ニードル410に沿って(及びそれと直角に)画像ボリューム中をスクロールできるようにしてもよい。Endoluminal−View404において(マウスクリックではなく)マウスドラッグを用いて、そのマウスドラッグの方向に応じて、カメラのビューイング方向を変え、またはカメラのアップ方向を変えることもできる。
GUI400は、ビュー選択、方向、画像処理などの設定をする仮想的コントロール及びボタン420を含む。コントロール422は、コントロールポインタ/マウスオプション及びコントロールを提供する。他の仮想的コントロール、メニューボックスなどを用いても良い。
図6を参照して、手順をプランニングする方法を説明するブロック図を示す。ブロック502において、経路構成用の術前画像が撮像または提供される。これには、手順前の任意の時間におけるCTスキャン、磁気共鳴画像化(MRI)スキャンが含まれる。ブロック503において、術前画像を処理する。ブロック504において、経路構成を、カーソルの現在位置に対応する断片にセグメント化する。断片はリアルタイム計算ができるように小さくすべきである。ブロック505において、好ましくは、カーソル位置に対して2次元で、経路構成の腔内構造を局所的に抽出する。
ブロック506において、第1のエンドポイントを、経路構造の画像ボリューム中に配置する。画像ボリュームは、好ましくは、奥行きに沿ってスタックされた複数のスライスよりなる。画像ボリュームは肺、血管またはネットワークなどを含み得る。第1のエンドポイントは、腫瘍、病変、傷など、侵襲的手順を及ぼすターゲットを含み得る。ブロック508において、経路構造の画像ボリュームにおいて開始点を選択する。開始点の選択には、マウスをクリックしてマウスドラッグの開始点を選択することを含み得る。ブロック510において、経路構造に沿って経路を延ばす。これには、マウスをドラッグして、画像ボリュームの画像において仮想的にレンダリングされたラインを伸ばすことを含み得る。マウスのクリックとドラッグを説明したが、他の方法と動作を用いても良い。
ブロック512において、経路構造の経路における奥行きの現在位置に対応する画像スライスを表示する。画像スライスに対応する経路構造に沿った奥行きの変化に応じて、奥行きに沿って画像スライスを更新する。一例では、腔内構造に沿って経路を選択する。腔内構造のセンターラインが計算されたら、マウスドラッグをする。ブロック514において、経路中の腔内構造の中心位置を計算し、その中心位置を経路のトレースと比較して、見られているスタックされたスライスを更新すべきか決定する。マウスドラッグが続くにつれ、腔内構造に従ってマウスドラッグの奥行きが変わる。奥行きが変わるにつれて、画像スライスが更新される。
ブロック516において、経路にそってエンドポイントまで経路が(例えば、マウスドラッグを介して)ナビゲートされる。ブロック518において、手順のプランを生成するため、経路を記憶する。ブロック520において、動き相関マルチビューディスプレイツール及び方法(例えば図7を参照)を用いて、経路を分析し、修正してもよい。
図7を参照して、動作可能に複数のビューポートを結合する方法を示す。プランニング手順において複数のビューポートを利用できる。しかし、その他のアプリケーションも利用することが可能である。ブロック604において、ユーザが経路システムにより経路を選択できるように構成されたグラフィカルユーザインタフェースにおいて、経路構造の腔内ビューを生成する。腔内ビューは、術前画像、コンピュータ生成画像、画像メッシュなどを含み得る。ブロック608において、画像ボリュームの他の一以上のビューを生成する。この一以上のビューは、一以上の標準ビュー及びリフォーマットされたビューを含み得る。リフォーマットされたビューは、仮想ラインに平行なビューまたは仮想ラインに直角なビューのうちの一方を含み得る。腔内ビュー及びその他のビューは、ディスプレイデバイス上の複数のペイン(panes)に同時に表示されることが望ましい。
ブロック612において、仮想ラインを生成して、腔内ビューと一以上のその他のビューを含む複数のビューに空間的基準を提供する。仮想的ラインは、腔内ビューをガイドするように構成され、その仮想的ラインのユーザが選択した位置更新に対応するすべてのビューにおいて同時に更新させる基準を提供する。ビュー中の仮想的ラインを囲む画像情報は、ユーザインタフェースにおいて同時に見ることができる。ブロック616において、腔内ビューまたはその他のビューにおいて、ポインティング制御デバイスを前進または後進させることにより、仮想的ラインを前進または後進させる。選択されたすべてのビューが適宜更新される。ブロック620において、一実施形態では、腔内ビューを利用して腔内構造の壁におけるニードル挿入ポイントを決定し、他の少なくとも1つのビューを利用して、腔内ビューでは見えない、壁の向こうの構造を決定する。仮想ラインはバイオプシーニードルまたはその他の機器をモデル化するために利用されてもよい。本原理によって、他のビューや相関したビューポートの使用を提供することもできる。ブロック622において、好ましくは、選択されたすべてのビューに仮想ラインが示される。
ブロック624において、複数のビューのうちの少なくとも1つのビューのカメラアングルを、ポインティング制御デバイスを用いて変更できる。ポインティング制御デバイスは、マウスまたは同等のデバイスを含み得る。カメラ制御はマウスホイールなどにより行われる。
添付した請求項の解釈において、以下のことを理解すべきである:
a)「有する」という用語は、請求項に上げられたもの以外の構成要素やステップの存在を排除するものではない;
b)構成要素に付された「1つの」、「一」という用語は、その構成要素が複数あることを排除するものではない;
c)請求項中の参照符号はその請求項の範囲を限定するものではない;
d)同一のアイテム、ハードウェアまたはソフトウェアにより実施された構造、もしくは機能により、幾つかの「手段」を代表してもよい;
e)特に断らなければ、動作(act)の順序を指定するものではない。
半自動経路プランニングのための自動的奥行きスクローリング及び方向調整の好ましい実施形態(これらは例示であって限定ではない)を説明したが、当業者は上記の教示を考慮して修正や変形をすることができることに留意すべきである。それゆえ、当然のことながら、添付した請求項により規定されるここに開示した実施形態の範囲内における、開示した開示の実施形態を変更することができる。特許法により要求される詳細と具体性をもって説明した。特許証により請求され保護を求めるものは、添付した請求項に記載されている。

Claims (15)

  1. プランニングシステムであって、
    プロセッサと、
    前記プロセッサに結合し、プランニングモジュールを格納したメモリと、
    前記プロセッサに結合し、表示されたカーソルポイントを制御することによって経路システムによりユーザに経路を選択させるように構成されたユーザインタフェースとを有し、
    前記プランニングモジュールは、表示されたカーソルポイントに対応する画像ボリュームの一以上のスライスをアップロードし、奥行き、位置及び方向を自動的に適応させ、前記経路が、表示されたカーソルポイントを制御することによってナビゲートされるにつれ、前記一以上のスライスが、表示されたカーソルポイントの位置に基づき連続的に更新され、前記画像ボリュームのスライスのビュープレーンと方向を自動的を自動的に変更するように構成された、システム。
  2. 前記プランニングモジュールは前記経路を示すトレースラインを生成するように構成された、
    請求項1に記載のシステム。
  3. 表示されたカーソルポイントは腔内構造の奥行き次元内でセンタリングされ、前記プランニングモジュールは画像スライスの奥行きをチェックして、前記画像スライスが更新されるべきか決定する、
    請求項1に記載のシステム。
  4. カーソル位置について2次元で前記経路の腔内構造の局所的抽出を行うように構成された画像処理モジュールをさらに有する、
    請求項1に記載のシステム。
  5. 動作可能に結合された複数のビューポートを有するシステムであって、
    プロセッサと、
    前記プロセッサに結合し、画像処理モジュールを格納したメモリと、
    前記プロセッサに結合し、経路システムによりユーザに経路を選択させるように構成されたグラフィカルユーザインタフェースとを有し、
    前記画像処理モジュールは、
    前記経路の腔内ビューと、
    画像ボリュームの他の一以上のビューと、
    前記腔内ビューと前記他の一以上のビューとを含む選択されたすべてのビューにおいて空間的基準を提供する仮想ラインと、
    前記腔内ビューをガイドするように構成されたユーザ制御カーソルポイントであって、前記ユーザ制御カーソルポイントにおける選択更新に対応して、選択されたすべてのビューを自動的に更新し、他のビューにおける前記ユーザ制御カーソルポイントの周りの画像情報が前記ユーザインタフェースにおいて同時に見ることができるようにする、ユーザ制御カーソルポイントと、をレンダリングするように構成されている、
    システム。
  6. 前記仮想ラインは、ポインティング制御デバイスを前進または後退させることにより、前記腔内ビューにおいて前進または後退する、
    請求項5に記載のシステム。
  7. 前記腔内ビューを利用して、腔内構造の壁におけるニードル挿入ポイントを決定し、他の少なくとも1つのビューを利用して、前記腔内ビューでは見えない、前記壁の向こうの構造を決定する、
    請求項5に記載のシステム。
  8. 前記仮想ラインは前記選択されたすべてのビューに示される、
    請求項5に記載のシステム。
  9. 手順をプランニングする方法であって、
    経路構造の画像ボリュームに終了点を配置する、前記画像ボリュームは奥行きに沿って、スタックされた複数のスライスを有するステップと、
    表示されたカーソルポイントを制御することによって前記経路構造の画像ボリューム中の開始点を選択するステップと、
    前記経路構造に沿って経路を延ばすステップと、
    表示されたカーソルポイントの位置に基づいて、前記経路に沿って前記経路構造の画像スライスを連続的に更新して、前記画像スライスに対応する経路構造の奥行きしたがってビュープレーンと方向とを自動的に変更するステップと、
    前記経路に沿って前記終了点までナビゲーションし、奥行き、位置及び方向を自動的に適応させるステップと、
    手順のプランを生成するため、前記経路を記憶するステップとを有する方法。
  10. 前記経路中の腔内構造の中心位置を計算するステップと、前記中心位置を、前記経路のトレースと比較して、見られているスタックされたスライスを更新すべきか決定するステップとをさらに有する、
    請求項9に記載の方法。
  11. 複数のビューポートを動作可能に結合する方法であって、
    表示されたカーソルポイントを制御することによってユーザが経路システムにより経路を選択できるように構成されたグラフィカルユーザインタフェースにおいて、経路構造の腔内ビューを生成するステップと、
    表示されたカーソルポイントの位置のみを用いて画像ボリュームの他の一以上のビューを連続的に生成し、ビュープレーンと方向を自動的に変更するステップと、
    前記腔内ビューと前記他の一以上のビューを含む複数のビューに空間的基準を提供する仮想ラインを生成するステップであって、前記仮想ラインは前記腔内ビューをガイドするように構成され、前記仮想ラインのユーザ選択された位置更新に対応する、他のビューにおける更新を可能とする基準を提供するようにし、前記他のビューにおける前記仮想ラインの周りの画像情報は前記ユーザインタフェースで同時に見ることができるようにするステップとを含む、方法。
  12. リフォーマットされたビューは、前記仮想ラインに平行なビュー、または前記仮想ラインに直角なビューのうちの一方を含む、
    請求項11に記載の方法。
  13. 前記仮想ラインは、ポインティング制御デバイスを前進または後退させることにより、前記腔内ビューにおいて前進または後退する、
    請求項11に記載の方法。
  14. 前記腔内ビューを利用して、腔内構造の壁におけるニードル挿入ポイントを決定し、他の少なくとも1つのビューを利用して、前記腔内ビューでは見えない、前記壁の向こうの構造を決定する、
    請求項11に記載の方法。
  15. 前記仮想ラインは前記選択されたすべてのビューに示される、
    請求項11に記載の方法。
JP2017150953A 2011-12-03 2017-08-03 プランニングシステム及び方法 Active JP6438545B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161566609P 2011-12-03 2011-12-03
US61/566,609 2011-12-03

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014544014A Division JP6189854B2 (ja) 2011-12-03 2012-11-28 半自動経路プランニングのための自動奥行きスクローリング及びオリエンテーション調整

Publications (2)

Publication Number Publication Date
JP2017205582A true JP2017205582A (ja) 2017-11-24
JP6438545B2 JP6438545B2 (ja) 2018-12-12

Family

ID=47603863

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014544014A Active JP6189854B2 (ja) 2011-12-03 2012-11-28 半自動経路プランニングのための自動奥行きスクローリング及びオリエンテーション調整
JP2017150953A Active JP6438545B2 (ja) 2011-12-03 2017-08-03 プランニングシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014544014A Active JP6189854B2 (ja) 2011-12-03 2012-11-28 半自動経路プランニングのための自動奥行きスクローリング及びオリエンテーション調整

Country Status (8)

Country Link
US (1) US10758212B2 (ja)
EP (1) EP2785270B1 (ja)
JP (2) JP6189854B2 (ja)
CN (1) CN103957834B (ja)
BR (1) BR112014012955A2 (ja)
IN (1) IN2014CN04517A (ja)
RU (1) RU2606453C2 (ja)
WO (1) WO2013080131A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6223189B2 (ja) 2011-01-20 2017-11-01 メドトロニック・バッケン・リサーチ・センター・ベスローテン・フェンノートシャップ 組織内の対象に対する移動の少なくとも1つの適用可能な経路を決定する方法
US9639666B2 (en) 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US9459770B2 (en) 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
WO2015124388A1 (en) * 2014-02-19 2015-08-27 Koninklijke Philips N.V. Motion adaptive visualization in medical 4d imaging
AU2015234609A1 (en) * 2014-03-27 2016-10-13 Alma Mater Studiorum Universita Di Bologna Computer aided surgical navigation and planning in implantology
US11188285B2 (en) 2014-07-02 2021-11-30 Covidien Lp Intelligent display
JP6707036B2 (ja) 2014-07-02 2020-06-10 コヴィディエン リミテッド パートナーシップ アラインメント
US9770216B2 (en) * 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US11227427B2 (en) * 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
US10163262B2 (en) * 2015-06-19 2018-12-25 Covidien Lp Systems and methods for navigating through airways in a virtual bronchoscopy view
JP6871929B2 (ja) * 2015-09-29 2021-05-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット支援低侵襲手術のための器具コントローラ
WO2017149107A1 (en) * 2016-03-03 2017-09-08 Koninklijke Philips N.V. Medical image navigation system
CN105769109B (zh) * 2016-04-28 2017-07-18 深圳市鹏瑞智能图像有限公司 一种内窥镜扫描控制方法及系统
US11266377B2 (en) 2016-05-17 2022-03-08 Canon Medical Systems Corporation Support apparatus and support method
US10238455B2 (en) * 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
US10631933B2 (en) 2016-08-31 2020-04-28 Covidien Lp Pathway planning for use with a navigation planning and procedure system
CN109618553B (zh) * 2016-10-12 2022-04-12 直观外科手术操作公司 外科手术穿刺装置插入系统和相关方法
CN109922753B (zh) * 2016-12-08 2023-04-14 直观外科手术操作公司 用于图像引导医疗程序中导航的系统和方法
US11571262B2 (en) * 2017-04-18 2023-02-07 Intuitive Surgical Operations, Inc. Graphical user interface for planning a procedure
US10881482B2 (en) * 2017-05-09 2021-01-05 Boston Scientific Scimed, Inc. Operating room devices, methods, and systems
US10506991B2 (en) 2017-08-31 2019-12-17 Biosense Webster (Israel) Ltd. Displaying position and optical axis of an endoscope in an anatomical image
US11464576B2 (en) 2018-02-09 2022-10-11 Covidien Lp System and method for displaying an alignment CT
JP7487176B2 (ja) * 2018-08-22 2024-05-20 マジック リープ, インコーポレイテッド 患者視認システム
US11204677B2 (en) * 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
CN109620302A (zh) * 2018-11-26 2019-04-16 苏州朗开医疗技术有限公司 一种肺部活检装置及系统
RU2726473C1 (ru) * 2019-04-24 2020-07-14 Наталья Евгеньевна Хорева Способ определения траектории движения инструмента в хирургии позвоночника на открытой ране
US10884593B1 (en) * 2019-11-26 2021-01-05 GE Precision Healthcare LLC Systems and methods for remote layout control of medical image viewers

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08252217A (ja) * 1994-11-23 1996-10-01 General Electric Co <Ge> 内視鏡を模擬する方法及び被検体の内腔のビューを得るための仮想検査システム
JPH1057370A (ja) * 1996-08-21 1998-03-03 Shimadzu Corp 医用3次元画像表示装置
JP2001250131A (ja) * 2000-03-03 2001-09-14 Hitachi Medical Corp 画像形成装置
JP2002058751A (ja) * 1999-10-29 2002-02-26 Marconi Medical Systems Inc 異物の生体内配置のための最小侵襲性療法の手順計画
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2008054763A (ja) * 2006-08-29 2008-03-13 Hitachi Medical Corp 医療画像診断装置
WO2009138871A2 (en) * 2008-05-15 2009-11-19 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371778A (en) * 1991-11-29 1994-12-06 Picker International, Inc. Concurrent display and adjustment of 3D projection, coronal slice, sagittal slice, and transverse slice images
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
US6643533B2 (en) 2000-11-28 2003-11-04 Ge Medical Systems Global Technology Company, Llc Method and apparatus for displaying images of tubular structures
AU2003218182B2 (en) * 2002-03-14 2008-12-18 Netkisr Inc. System and method for analyzing and displaying computed tomography data
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
US20050033117A1 (en) * 2003-06-02 2005-02-10 Olympus Corporation Object observation system and method of controlling object observation system
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
JP4377646B2 (ja) 2003-10-08 2009-12-02 株式会社東芝 画像診断装置、画像表示装置及び3次元画像表示方法
EP1694208A2 (en) * 2003-11-26 2006-08-30 Viatronix Incorporated Systems and methods for automated segmentation, visualization and analysis of medical images
DE102004008164B3 (de) 2004-02-11 2005-10-13 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums
DE102004039202B3 (de) 2004-08-12 2006-01-19 Erbe Elektromedizin Gmbh Vorrichtung zur Messung einer relativen Position eines chirurgischen Arbeitsinstruments sowie Verwendung hierfür
US7536216B2 (en) * 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
CN101170961A (zh) 2005-03-11 2008-04-30 布拉科成像S.P.A.公司 利用显微镜的用于外科手术导航及可视化的方法及设备
DE102005037000B4 (de) 2005-08-05 2011-06-01 Siemens Ag Vorrichtung zur automatisierten Planung eines Zugangspfades für einen perkutanen, minimalinvasiven Eingriff
EP1991297B1 (en) 2006-03-06 2019-12-04 ResMed Pty Ltd Determination of apnea/hypopnea during cpap treatment
AU2007350982A1 (en) * 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
JP2010510815A (ja) 2006-11-28 2010-04-08 スーパーディメンション, リミテッド 身体の通路または腔を通してカテーテルをナビゲートする適応的ナビゲーション技術
DE602006012342D1 (de) 2006-12-04 2010-04-01 Ethicon Endo Surgery Inc Vorrichtung für das endoluminale oder laparoskopische Erfassen und Ausschneiden einer Gewebeprobe vom Körper eines Patienten
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US8166971B2 (en) 2007-03-15 2012-05-01 Ric Investments, Llc End-tidal gas estimation system and method
US8794235B2 (en) 2007-06-08 2014-08-05 Ric Investments, Llc System and method for treating ventilatory instability
EP2217141B1 (en) 2007-11-13 2021-03-31 Oridion Medical 1987 Ltd. Medical apparatus
EP2249700B1 (en) 2008-02-07 2019-04-24 Koninklijke Philips N.V. Apparatus for measuring and predicting patients' respiratory stability
US8394203B2 (en) 2008-10-02 2013-03-12 Molecular Imprints, Inc. In-situ cleaning of an imprint lithography tool
JP4676021B2 (ja) * 2009-04-16 2011-04-27 富士フイルム株式会社 診断支援装置、診断支援プログラムおよび診断支援方法
CN102448398A (zh) 2009-06-01 2012-05-09 皇家飞利浦电子股份有限公司 基于距离的位置跟踪方法和系统
CN104135924B (zh) 2011-12-23 2017-07-28 皇家飞利浦有限公司 用于监测和控制压力支持设备的方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08252217A (ja) * 1994-11-23 1996-10-01 General Electric Co <Ge> 内視鏡を模擬する方法及び被検体の内腔のビューを得るための仮想検査システム
JPH1057370A (ja) * 1996-08-21 1998-03-03 Shimadzu Corp 医用3次元画像表示装置
JP2002058751A (ja) * 1999-10-29 2002-02-26 Marconi Medical Systems Inc 異物の生体内配置のための最小侵襲性療法の手順計画
JP2001250131A (ja) * 2000-03-03 2001-09-14 Hitachi Medical Corp 画像形成装置
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2008054763A (ja) * 2006-08-29 2008-03-13 Hitachi Medical Corp 医療画像診断装置
WO2009138871A2 (en) * 2008-05-15 2009-11-19 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
US20100008555A1 (en) * 2008-05-15 2010-01-14 Superdimension, Ltd. Automatic Pathway And Waypoint Generation And Navigation Method

Also Published As

Publication number Publication date
EP2785270A1 (en) 2014-10-08
BR112014012955A2 (pt) 2017-06-13
WO2013080131A1 (en) 2013-06-06
CN103957834B (zh) 2017-06-30
JP6438545B2 (ja) 2018-12-12
CN103957834A (zh) 2014-07-30
JP6189854B2 (ja) 2017-08-30
RU2014127127A (ru) 2016-02-10
US20140344742A1 (en) 2014-11-20
JP2015504690A (ja) 2015-02-16
US10758212B2 (en) 2020-09-01
IN2014CN04517A (ja) 2015-09-11
RU2606453C2 (ru) 2017-01-10
EP2785270B1 (en) 2019-05-01

Similar Documents

Publication Publication Date Title
JP6438545B2 (ja) プランニングシステム及び方法
US11172989B2 (en) Dynamic 3D lung map view for tool navigation inside the lung
US11793389B2 (en) Intelligent display
JP6402230B2 (ja) 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
US11382573B2 (en) System and method of providing distance and orientation feedback while navigating in 3D
JP2020124493A (ja) 病変部内のツールの透視確認のためのシステムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181116

R150 Certificate of patent or registration of utility model

Ref document number: 6438545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250