JP6240263B2 - 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法 - Google Patents

仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法 Download PDF

Info

Publication number
JP6240263B2
JP6240263B2 JP2016120830A JP2016120830A JP6240263B2 JP 6240263 B2 JP6240263 B2 JP 6240263B2 JP 2016120830 A JP2016120830 A JP 2016120830A JP 2016120830 A JP2016120830 A JP 2016120830A JP 6240263 B2 JP6240263 B2 JP 6240263B2
Authority
JP
Japan
Prior art keywords
location
vector
determining
view
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016120830A
Other languages
English (en)
Other versions
JP2017006671A (ja
Inventor
メルキン ラハフ
メルキン ラハフ
アベルブッチ ドリアン
アベルブッチ ドリアン
ディー. ラシュマノヴィッチ エラッド
ディー. ラシュマノヴィッチ エラッド
Original Assignee
コヴィディエン リミテッド パートナーシップ
コヴィディエン リミテッド パートナーシップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コヴィディエン リミテッド パートナーシップ, コヴィディエン リミテッド パートナーシップ filed Critical コヴィディエン リミテッド パートナーシップ
Publication of JP2017006671A publication Critical patent/JP2017006671A/ja
Application granted granted Critical
Publication of JP6240263B2 publication Critical patent/JP6240263B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pulmonology (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Robotics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Architecture (AREA)
  • Otolaryngology (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、動的かつ変化する様式で医療画像を表示するためのシステムおよび方法に関する。より具体的には、本開示は、肺の気道を通してナビゲートされている仮想カメラの位置および方向に基づいて、経路計画中の仮想気管支鏡検査における前後移動中に医療画像を動的に表示するためのシステムおよび方法に関する。
経路計画視覚化技法が、種々の医療分野で急速に成長している。視覚化技法は、切開のサイズを最小限にし、手術において患者の疾患を非侵襲的に治療し、標的病変を識別して治療するように患者の内側で非侵襲的にナビゲートすることに役立つ。しかしながら、視覚化は、誤った情報が表示される場合、予期しない危険を及ぼし得る。例えば、肺の気道を通して逆または後退方向に仮想カメラ視野をナビゲートする場合、臨床医に提供される視野は、臨床医が以前に取ったステップを再追跡して以前の場所に戻ることを困難にし得る。さらに、ユーザは、肺の気道の外側でナビゲートする仮想カメラ視野も見出し得る。
一側面では、本開示は、仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示する方法を特徴とする。本方法は、第1の場所および第1の場所における第1の方向を決定することと、第1の場所および第1の方向をメモリに記憶することと、第1の場所に対応する第1の仮想カメラ視野を表示することと、仮想気管支鏡検査の気道を通した移動に対応する第2の場所を決定することと、第2の場所をメモリに記憶することと、第2の場所に対応する第2の仮想カメラ視野を表示することと、第1の場所および第2の場所に基づいて第2の方向を決定することと、第2の方向をメモリに記憶することと、仮想気管支鏡検査を通したさらなる移動に対応する第3の場所を決定することと、さらなる移動が順方向であるか、または逆方向であるかを決定することとを含む。
さらなる移動が順方向であると決定される場合、本方法は、第3の場所に対応する第3の仮想カメラ視野を表示することを含む。移動が逆方向であると決定される場合、本方法は、メモリから記憶された第1の方向および記憶された第2の方向を読み出すことと、記憶された第1の方向および記憶された第2の方向に基づいて平滑化ベクトルを決定することと、平滑化ベクトルに基づいて、平滑化された仮想カメラ視野を得ることと、平滑化された仮想カメラ視野を表示することとを含む。
実施形態では、さらなる移動が順方向であるか、または逆方向であるかを決定することは、仮想気管支鏡検査画面上での次のポインタ場所および現在のポインタ場所を決定することと、次のポインタ場所の座標と次のポインタ場所の座標との間の差を計算することとを含む。計算された差が正である場合、さらなる移動が逆方向であることを決定する。そして計算された差が負である場合、さらなる移動が順方向であることを決定する。
実施形態では、第1の場所、第2の場所、および第3の場所は、仮想カメラ視野を表示している画面上のポインタまたはカーソルの場所に基づいて決定される。さらに別の実施形態では、本方法はさらに、さらなる移動が順方向であると決定される場合、第2の場所および第3の場所に基づいて第3の方向を決定することと、第3の方向をメモリに記憶することとを含む。
実施形態では、平滑化ベクトルを決定することは、第1の場所および第1の方向に基づいて第1のベクトルを決定することと、第1の場所および第2の方向に基づいて第2のベクトルを決定することと、第1のベクトルと第2のベクトルとを平均し、平滑化ベクトルを得ることとを含む。
実施形態では、スプラインは、2次のスプラインまたは4次のスプラインである。実施形態では、本方法はさらに、第1の、第2の、第3の、または平滑化された仮想カメラ視野を変更する入力をユーザから受信することと、変更された第1の、第2の、第3の、または平滑化された仮想カメラ視野を記憶することとを含む。さらなる実施形態では、平滑化ベクトルを決定することは、第1の方向と第2の方向との間の方向を有するベクトルを決定することを含む。
別の側面では、本開示は、仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示するための装置を特徴とする。本装置は、ナビゲーション計器の少なくとも1つの位置センサから位置情報を受信するように構成されているネットワークインターフェースであって、位置情報は、物理的場所を含む、ネットワークインターフェースと、仮想気管支鏡検査の複数の仮想カメラ視野、命令、第1の場所、第1の場所における第1の方向、第2の場所、および第2の場所における第2の方向を記憶しているメモリと、命令を実行するように構成されているプロセッサとを含む。命令は、プロセッサによって実行されると、プロセッサに、仮想気管支鏡検査の気道を通した移動が順方向であるか、または逆方向であるかを決定させる。移動が順方向であると決定される場合、命令はさらに、プロセッサに、仮想気管支鏡検査の気道を通した移動に対応する第3の場所を決定させ、第2の場所および第3の場所に基づいて第3の方向を決定させる。移動が逆方向であると決定される場合、命令はさらに、プロセッサに、メモリから第1の方向および第2の方向を読み出させ、第1の方向および第2の方向に基づいて平滑化ベクトルを決定させる。本装置はさらに、決定された平滑化ベクトルに対応する平滑化された仮想カメラ視野の画像を画面上で動的に表示するように構成されるディスプレイを含む。
本開示の上記の側面および実施形態のうちのいずれかは、本開示の範囲から逸脱することなく組み合わせられ得る。
例えば、本発明は、以下を提供する。
(項目1)
仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示する方法であって、前記方法は、
第1の場所および前記第1の場所における第1の方向を決定することと、
前記第1の場所および前記第1の方向をメモリに記憶することと、
前記第1の場所に対応する第1の仮想カメラ視野を表示することと、
前記仮想気管支鏡検査の前記気道を通した移動に対応する第2の場所を決定することと、
前記第2の場所を前記メモリに記憶することと、
前記第2の場所に対応する第2の仮想カメラ視野を表示することと、
前記第1の場所と前記第2の場所とに基づいて第2の方向を決定することと、
前記第2の方向を前記メモリに記憶することと、
前記仮想気管支鏡検査を通したさらなる移動に対応する第3の場所を決定することと、
前記さらなる移動が順方向であるか、または逆方向であるかを決定することと、
前記さらなる移動が前記順方向であると決定される場合、
前記第3の場所に対応する第3の仮想カメラ視野を表示することと、
移動が前記逆方向であると決定される場合、
前記メモリから前記記憶された第1の方向および前記記憶された第2の方向を読み出すことと、
前記記憶された第1の方向と前記記憶された第2の方向とに基づいて平滑化ベクトルを決定することと、
前記平滑化ベクトルに基づいて、平滑化された仮想カメラ視野を得ることと、
前記平滑化された仮想カメラ視野を表示することと
を含む、方法。
(項目2)
前記さらなる移動が順方向であるか、または逆方向であるかを決定することは、
仮想気管支鏡検査画面上の次のポインタ場所および現在のポインタ場所を決定することと、
前記次のポインタ場所の座標と前記次のポインタ場所の座標との間の差を計算することと、
前記計算された差が正である場合、前記さらなる移動が前記逆方向であることを決定することと、
前記計算された差が負である場合、前記さらなる移動が前記順方向であることを決定することと
を含む、上記項目のいずれか1項に記載の方法。
(項目3)
前記第1の場所、前記第2の場所、および前記第3の場所は、前記仮想カメラ視野を表示している画面上のポインタまたはカーソルの場所に基づいて決定される、上記項目のいずれか1項に記載の方法。
(項目4)
前記さらなる移動が前記順方向であると決定される場合、
前記第2の場所と前記第3の場所とに基づいて第3の方向を決定することと、
前記第3の方向を前記メモリに記憶することと
をさらに含む、上記項目のいずれか1項に記載の方法。
(項目5)
前記平滑化ベクトルを決定することは、
前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
前記第1のベクトルと前記第2のベクトルとを平均し、前記平滑化ベクトルを得ることと
を含む、上記項目のいずれか1項に記載の方法。
(項目6)
前記平滑化ベクトルを決定することは、
前記第1の場所と前記第1の方向とに基づいて第1のベクトルを決定することと、
前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
スプラインまたはランチョスアルゴリズムを前記第1のベクトルと前記第2のベクトルとに適用し、前記平滑化ベクトルを得ることと
を含む、上記項目のいずれか1項に記載の方法。
(項目7)
前記スプラインは、2次のスプラインまたは4次のスプラインである、上記項目のいずれか1項に記載の方法。
(項目8)
前記第1の、第2の、第3の、または平滑化された仮想カメラ視野を変更する入力をユーザから受信することと、
前記変更された第1の、第2の、第3の、または平滑化された仮想カメラ視野を記憶することと
をさらに含む、上記項目のいずれか1項に記載の方法。
(項目9)
前記平滑化ベクトルを決定することは、前記第1の方向と前記第2の方向との間の方向を有するベクトルを決定することを含む、上記項目のいずれか1項に記載の方法。
(項目10)
仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示するための装置であって、
ナビゲーション計器の少なくとも1つの位置センサから前記ナビゲーション計器の位置情報を受信するように構成されているネットワークインターフェースであって、前記位置情報は、物理的場所を含む、ネットワークインターフェースと、
前記仮想気管支鏡検査の複数の仮想カメラ視野、命令、第1の場所、前記第1の場所における第1の方向、第2の場所、および前記第2の場所における第2の方向を記憶しているメモリと、
前記命令を実行するように構成されているプロセッサであって、
前記命令は、前記プロセッサによって実行されると、
前記仮想気管支鏡検査の前記気道を通した移動が順方向であるか、または逆方向であるかを決定することと、
前記移動が前記順方向であると決定される場合、
前記仮想気管支鏡検査の前記気道を通した前記移動に対応する第3の場所を決定することと、
前記第2の場所と前記第3の場所とに基づいて第3の方向を決定することと、
移動が前記逆方向であると決定される場合、
前記メモリから前記第1の方向および前記第2の方向を読み出すことと、
前記第1の方向と前記第2の方向とに基づいて平滑化ベクトルを決定することと
を前記プロセッサに行わせる、プロセッサと、
前記決定された平滑化ベクトルに対応する平滑化された仮想カメラ視野の画像を画面上で動的に表示するように構成されているディスプレイと
を備えている、装置。
(項目11)
前記第1の場所、前記第2の場所、および前記第3の場所は、前記画面上のポインタの場所に基づいて決定される、上記項目のいずれか1項に記載の装置。
(項目12)
前記命令は、前記プロセッサによって実行されると、
前記仮想カメラ視野を表示する前記画面上での第1のポインタ場所および第2のポインタ場所を決定することと、
前記第1のポインタ場所の座標と前記第2のポインタ場所の座標との間の差を計算することと、
前記計算された差が正である場合、前記移動が前記逆方向であることを決定することと、
前記計算された差が負である場合、前記移動が前記順方向であることを決定することと
を前記プロセッサにさらに行わせる、上記項目のいずれか1項に記載の装置。
(項目13)
前記命令は、前記プロセッサによって実行されると、
前記第1の場所と前記第1の方向とに基づいて第1のベクトルを決定することと、
前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
前記第1のベクトルと前記第2のベクトルとを平均し、前記平滑化ベクトルを得ることと
を前記プロセッサにさらに行わせる、上記項目のいずれか1項に記載の装置。
(項目14)
前記命令は、前記プロセッサによって実行されると、前記第1の方向と前記第2の方向との間にある方向を有する前記平滑化ベクトルを前記プロセッサに決定させる、上記項目のいずれか1項に記載の装置。
(項目15)
前記命令は、前記プロセッサによって実行されると、
前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
スプラインを前記第1のベクトルと前記第2のベクトルとに適用し、前記平滑化ベクトルを得ることと
を前記プロセッサに行わせる、上記項目のいずれか1項に記載の装置。
(項目16)
前記スプラインは、2次のスプラインまたは4次のスプラインである、上記項目のいずれか1項に記載の装置。
(項目17)
仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示する方法であって、前記方法は、
第1の場所および前記第1の場所における第1の方向を決定することと、
第1の場所および前記第1の方向をメモリに記憶することと、
前記第1の場所に対応する第1の仮想カメラ視野を表示することと、
前記仮想気管支鏡検査の前記気道を通した移動に対応する第2の場所、および第2の方向を決定することと、
前記記憶された第1の方向および前記第2の方向に基づいて平滑化ベクトルを決定することと、
前記平滑化ベクトルを前記メモリに記憶することと、
前記第2の場所に対応する第2の仮想カメラ視野を表示することと、
前記仮想気管支鏡検査の気道を通したさらなる移動に対応する第3の場所を決定することと、
前記さらなる移動が順方向であるか、または逆方向であるかを決定することと、
前記さらなる移動が前記順方向であると決定される場合、
前記第3の場所に対応する第3の仮想カメラ視野を表示することと、
移動が前記逆方向であると決定される場合、
前記メモリに記憶された前記平滑化ベクトルを読み出すことと、
前記読み出された平滑化ベクトルに基づいて、平滑化された仮想カメラ視野を得ることと、
前記平滑化された仮想カメラ視野を表示することと
を含む、方法。
(項目18)
前記平滑化ベクトルを決定することは、
前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
前記第1のベクトルと前記第2のベクトルとを平均し、前記平滑化ベクトルを得ることと
を含む、上記項目のいずれか1項に記載の方法。
(項目19)
前記平滑化ベクトルを決定することは、
前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
スプラインまたはランチョスアルゴリズムを前記第1のベクトルと前記第2のベクトルとに適用し、前記平滑化ベクトルを得ることと
を含む、上記項目のいずれか1項に記載の方法。
(項目20)
前記スプラインは、2次のスプラインまたは4次のスプラインである、上記項目のいずれか1項に記載の方法。
(摘要)
仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示するためのシステムおよび方法が、開示される。本方法は、第1の場所および第1の場所における第1の方向を決定することと、第1の場所および第1の方向をメモリに記憶することと、第1の場所に対応する第1の仮想カメラ視野を表示することと、仮想気管支鏡検査の気道を通した移動に対応する第2の場所を決定することと、第2の場所をメモリに記憶することと、第2の場所に対応する第2の仮想カメラ視野を表示することと、第1の場所および第2の場所に基づいて第2の方向を決定することと、第2の方向をメモリに記憶することと、仮想気管支鏡検査を通したさらなる移動に対応する第3の場所を決定することと、さらなる移動が順方向であるか、または逆方向であるかを決定することとを含む。
本開示されるシステムおよび方法の目的および特徴は、種々の実施形態の説明が添付図面を参照して読まれたときに当業者に明白となるであろう。
図1は、本開示の実施形態による、経路計画のためのコンピュータデバイスの概略図である。 図2は、本開示による、経路計画の4つの段階を図示する、略図である。 図3は、本開示の実施形態による、肺気道内の前後運動のために仮想カメラ視野を動的に決定して表示する方法を図示する、フローチャートである。 図4は、本開示の実施形態による、肺気道内で順または逆方向を決定する方法を図示する、フローチャートである。 図5および6A−6Cは、本開示の実施形態による、肺気道内でナビゲートしている間の視野の図式的説明図である。 図5および6A−6Cは、本開示の実施形態による、肺気道内でナビゲートしている間の視野の図式的説明図である。 図5および6A−6Cは、本開示の実施形態による、肺気道内でナビゲートしている間の視野の図式的説明図である。 図5および6A−6Cは、本開示の実施形態による、肺気道内でナビゲートしている間の視野の図式的説明図である。 図7は、本開示のいくつかの実施形態による、肺気道を通してナビゲートするために取られるステップの図式的説明図である。
仮想気管支鏡検査(VB)視野は、ユーザが仮想カメラ(またはユーザの視点)と相互作用すること、および肺の気道の内側の仮想カメラ視野の場所および方向の両方を修正することを可能にする。VB視野内の後方への移動は、平面視野(軸方向、冠状、矢状)のうちの1つの上で仮想カメラ(またはユーザ視点)を調節し、次いで、VB視野内で直線に後方に進むことによって、達成されることができる。しかしながら、本方法は、少なくとも2つの視野を伴い得、実際のステップを再追跡し、以前の場所に戻ることは困難であり得る。ユーザは、気道の外側でナビゲートする仮想カメラも見出し得る。
本開示の実施形態によると、旋回を含む前方への移動は、各個々のステップをスタックに記憶することによって記録され、仮想カメラが後方に移動するとき、その後方ステップがスタックから取り出され、したがって、仮想カメラの実際の場所および方向を保持する。前方への移動は、直線で移動することによって行われる。横向きの移動は、VB視野上のある位置においてマウスポインタ等のデータ入力デバイスを操作することによって行われ、VB視野の中心は、より良好なユーザ体験を可能にするように、動画を介してその位置に対して更新する。
画面上のカーソルまたはポインタの移動、および/またはマウスもしくはタッチパッド等のユーザ入力デバイスを操作するユーザによるボタンの選択に応答して前方に移動しながら、仮想カメラ視野が(右または左に)旋回される場合、直線での移動が行われた後に旋回が行われる。ソフトウェアは、前方へのステップまたはいくつかのステップをスタックに保存し、次いで、旋回を伴うステップを保存する。旋回のステップは、円滑な旋回を提供するように単一の動画において行われる。動画は、仮想カメラの現在の場所、現在の方向、新しい回転軸、および視野の2Dのx軸における差分、すなわち、左または右方向の変化に基づいて計算される。
逆方向に移動するときに類似ユーザ体験を提供するために、本開示によるシステムおよび方法は、カーソルまたはポインタが、マウス、タッチパッド、トラックボール、またはタッチスクリーン等のデータ入力デバイスの動作を介して、ユーザによって移動させられた後の、ディスプレイデバイス上のカーソルまたはポインタの場所を記録する。本明細書で議論されるように、ディスプレイデバイス上のカーソルまたはポインタの場所のx座標およびy座標は、スタックに記憶され、仮想カメラの前後移動を決定するために使用される。仮想カメラが後方へ移動するとき、現在の場所および現在の場所における方向が、以前の場所および方向ともに、スタックから取り出される。後方移動の間または前に、平均方向ベクトル、または後方ナビゲーションのために最適化される他の平滑化ベクトルが、スタック内の2つの隣接ステップ(例えば、ステップiおよびi−1)に対して計算される。いくつかの実施形態では、平滑化ベクトルは、第1のベクトルおよび第2のベクトルに適用されているスプラインまたはランチョスアルゴリズムに基づく。後方移動では、計算された平均方向ベクトルまたは他の平滑化ベクトルに対応する仮想カメラ視野が、使用される。これは、後方へ移動しながら旋回を行うときに、より円滑な動画を可能にする。
ここで図1を参照すると、本開示は、概して、手術中に使用するための患者の解剖学的管腔網を通した経路を計画するための経路計画システム10および方法を対象とする。経路計画システム10は、例えば、ラップトップ、デスクトップ、タブレット、または他の類似デバイス等のコンピュータデバイス100を含み得、コンピュータデバイス100は、ディスプレイ102、メモリ104、1つ以上のプロセッサ106、および/またはコンピュータデバイスで典型的に見出されるタイプの他の構成要素を有する。ディスプレイ102は、ディスプレイ102が入力および出力デバイスの両方としての機能を果たすことを可能にする、タッチセンサ式および/または音声起動型であり得る。代替として、キーボード113、マウス114、または他のデータ入力デバイスが、採用され得る。
メモリ104は、プロセッサ106によって実行可能であり、コンピュータデバイス100の動作を制御するデータおよび/またはソフトウェアを記憶するための任意の非一過性のコンピュータ読み取り可能な媒体を含む。実施形態では、メモリ104は、フラッシュメモリチップ等の1つ以上のソリッドステート記憶デバイスを含み得る。代替実施形態では、メモリ104は、大容量記憶コントローラ(図示せず)および通信バス(図示せず)を通してプロセッサ106に接続される大容量記憶デバイスであり得る。
本明細書に含まれるコンピュータ読み取り可能な媒体の説明は、ソリッドステート記憶装置を指すが、コンピュータ読み取り可能な記憶媒体は、プロセッサ106によってアクセスされることができる任意の利用可能な媒体であり得ることが当業者によって理解されるべきである。つまり、コンピュータ読み取り可能な記憶媒体は、コンピュータ読み取り可能な命令、データ構造、プログラムモジュール、または他のデータ等の情報の記憶のための任意の方法または技術で実装される、非一過性、揮発性および不揮発性、取り外し可能および非取り外し可能な媒体を含む。例えば、コンピュータ読み取り可能な記憶媒体は、RAM、ROM、EPROM、EEPROM、フラッシュメモリ、または他のソリッドステートメモリ技術、CD−ROM、DVD、または他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、または他の磁気記憶デバイス、もしくは所望の情報を記憶するために使用されることができ、コンピュータデバイス100によってアクセスされることができる任意の他の媒体を含む。
コンピュータデバイス100はまた、他のソースへのデータへの伝送および他のソースからのデータの受信のための有線または無線接続を介して、分散型ネットワークもしくはインターネットに接続されるネットワークモジュール108を含み得る。例えば、コンピュータデバイス100は、経路計画中に使用するために、サーバ、例えば、病院サーバ、インターネットサーバ、または他の類似サーバから、患者のコンピュータ断層撮影(CT)画像を受信し得る。患者CT画像はまた、取り外し可能なメモリであり得るメモリ104を介して、コンピュータデバイス100に提供され得る。
経路計画モジュール200は、メモリ104に記憶され、コンピュータデバイス100のプロセッサ106によって実行されるソフトウェアプログラムを含む。以下でさらに詳細に説明されるように、経路計画モジュール200は、医療手技中に後の使用のための経路計画を開発するための一連のステップを通して臨床医を誘導する。経路計画モジュール200は、ディスプレイ102上で視覚的双方向特徴を臨床医に表示するための、および臨床医入力を受信するためのユーザインターフェースモジュール202と通信する。
本明細書で使用される場合、「臨床医」という用語は、任意の医療専門家(すなわち、医師、外科医、看護師等)、または本明細書に説明されるシステム、方法、および装置の実施形態の使用を伴う医療手技を計画し、行い、監視し、および/または管理することに関与する、経路計画システム10の他のユーザを指す。
ここで図2を参照すると、実施形態では、経路計画モジュール200を使用する経路計画は、4つの別個の段階で行われ得る。第1の段階S1では、臨床医が、経路計画のために患者を選択する。第2の段階S2では、臨床医が、標的を追加する。第3の段階S3では、臨床医が、標的への経路を作成する。最終的に、第4の段階S4では、臨床医が、計画を再検討して容認し、医療手技で使用するために計画をエクスポートし得る。臨床医は、必要に応じて第2および第3の段階S2ならびにS3のいずれか一方または両方を繰り返し、追加の標的を選択し、および/または特定の患者のための追加の経路を作成し得る。例えば、臨床医は、追加の標的を選択し、各標的への経路を作成し得る。臨床医はまた、または代替として、同一の標的への複数の経路を作成し得る。経路計画が生成されると、仮想気管支鏡検査視野(図6A−6Cで図示される)が表示され得、それは、臨床医が経路計画に基づいて患者の仮想気道内でナビゲートすることを可能にする。
図3は、本開示の実施形態による、仮想カメラの位置および方向情報に基づいて仮想気管支鏡検査視野を動的に表示する方法300を図示するフローチャートである。ステップ305−310では、仮想気管支鏡検査視野内のディスプレイ102上でデータ入力デバイス112によって指し示される場所が、表示される。いくつかの実施形態では、場所は、患者の気管または進入点等の既知の気道の中に設定される。ディスプレイ102上でデータ入力デバイス112によって指し示される場所は、2Dx座標およびy座標として得られる。仮想場所は、ステップ315において、仮想場所で仮想カメラ視野を生成するために利用される。臨床医が仮想気管支鏡検査視野内で患者の気道を通って進行する場合、臨床医は、気道内の種々の場所をクリックまたは選択することにより、前方または後方へ移動する。
(ポインタまたはカーソルを使用することによって等)ディスプレイ102上でデータ入力デバイス112によって指し示される仮想場所が、(図7に関して以下でさらに説明されるように)ステップ310において場所Lに到達すると、視野方向Dが、利用される。場所Lに基づいて、1つ以上のプロセッサ106は、場所Lに対応する視野方向Dを決定する。場所Lは、気道のディスプレイ102上の位置に対してx座標およびy座標を有する2D座標である。
視野方向Dは、規模および角度Θを有する、ベクトル
Figure 0006240263
として表現され得る。角度Θは、図7で図示されるように、現在のベクトル
Figure 0006240263
の角度と前のベクトル
Figure 0006240263
の角度との間の差として定義され得る。例えば、第1の場所Lから第2の場所Lまで延びる第1のベクトル
Figure 0006240263
、および第1のベクトル
Figure 0006240263
に対して直角な方向に第2の場所Lから延びる第2のベクトル
Figure 0006240263
に対して、第2のベクトル
Figure 0006240263
の角度Θは、90°である。
場所Lおよび視野方向Dが決定されると、1つ以上のプロセッサ106は、ステップ315において、場所Lおよび視野方向Dに基づいてメモリ104から仮想カメラ視野Cを得る。仮想カメラ視野Cは、仮想気管支鏡検査窓600(図6A、6B、および6Cに示される)の中で表示される2D仮想画像である。仮想カメラ視野Cは、仮想カメラの先端の視点からの気道の内側の視野である。仮想カメラ視野Cの例が、図6A−6Cに示される。
ステップ320では、1つ以上のプロセッサ106が、例えば、ステップSにおいてスタックまたは参照テーブル内に、第1の場所Lおよび視野方向Dをメモリ104に記憶する。参照テーブル(LUT)の例が、以下に示される。
Figure 0006240263
本明細書で使用される場合、場所という用語は、ディスプレイ102上でポインタまたはカーソルの場所を示す座標値およびデータを指す。視野方向とは、図7でさらに図示されるように、現在の場所からの直線(第1のベクトル)における視野と前の場所からの直線(第2のベクトル)における視野との間の角度差を指す。
ステップ325では、仮想カメラ視野Cが、図6A−6Cに示されるように、仮想気管支鏡検査窓600の中でディスプレイ102上に表示される。いくつかの実施形態では、ユーザは、マウス114上のボタンをクリックすること、またはキーボード113上のキーもしくはキーの組み合わせを押下することによって、仮想カメラ視野Cを変更および更新し得る。例えば、ユーザは、方向を変化させ、それによって、異なる視野方向において新しい仮想カメラ視野を表示し得る。
(前方移動)
図3のステップ330−355は、気道を通した順方向への仮想カメラの移動を例証する。ステップ330では、仮想カメラの次の場所Li+1および次の視野方向Di+1が、ディスプレイ102上のポインタまたはカーソルの場所に基づいて得られる。次の視野方向Di+1は、場所Lから次の場所Li+1まで延びるベクトルの方向を決定することによって、決定され得る。ステップ335では、図4を参照して以下で説明されるように、仮想カメラが順方向に場所Lから次の場所Li+1まで移動したかどうかに関して決定が行われる。
仮想カメラが場所Lから次の場所Li+1まで順方向に移動していることが決定される場合、本方法は、ステップ340へ進む。ステップ340では、次の場所Li+1および視野方向Di+1の両方が決定されると、1つ以上のプロセッサ106は、次の場所Li+1および次の視野方向Di+1に基づいてメモリ104から次の仮想カメラ視野Ci+1を得る。
ステップ345では、1つ以上のプロセッサ106が、次のステップSi+1において次の場所Li+1および次の視野方向Di+1をメモリ104に記憶する。ステップ350では、次の仮想カメラ視野Ci+1が、仮想気管支鏡検査窓600の中でディスプレイ102上に表示される。ステップ355では、1つ以上のプロセッサ106が、ステップ330に戻り、次の場所Li+1を決定する前に、次のステップSi+1における現在の場所Li+1を現在のステップSに設定する。
(後方移動)
いくつかの実施形態では、ステップ335において、仮想カメラが順方向に移動していないことが決定される場合、本方法は、ステップ360へ進む。ステップ360では、仮想カメラが逆方向に移動しているかどうかが決定される。ステップ360は、仮想カメラが逆方向に移動していることを確認するために使用される。逆方向への移動は、以前に訪れた位置またはその付近への移動として定義され得る。ステップ360において、移動が逆方向ではないことが決定される場合、本方法は、仮想カメラの移動が順方向であるかどうかを決定するように、ステップ335に戻る。
ステップ360において、移動が逆方向であることが決定される場合、本方法は、ステップ370へ進む。逆方向である次の場所Li+1に基づいて、1つ以上のプロセッサ106は、メモリ104内の参照テーブルにアクセスし、次の場所Li+1に対応する参照テーブル内の以前の記憶されたステップを決定する。例えば、次の場所Li+1において、座標がxi+1,yi+1である場合、プロセッサは、上記の表1で図示される参照テーブルにアクセスし、前の場所LおよびLi−1が、それぞれ、ステップSおよびSi−1に対応することを決定するであろう。ステップSおよびSi−1が決定されると、1つ以上のプロセッサ106は、ステップ370で、表1からステップSにおける視野方向DおよびステップSi−1における視野方向Di−1を得る。したがって、例えば、仮想カメラの移動が逆方向であり、場所がステップSに対応することが決定される場合、1つ以上のプロセッサ106は、表1で図示される参照テーブルから視野方向Dおよび視野方向Dを得る。
ステップ375では、1つ以上のプロセッサ106が、視野方向Di−1および視野方向Dに基づいて平滑化ベクトルVを計算する。上記の表1に示されるように、視野方向Di−1およびDは、それぞれ、ベクトル角度Θi−1およびΘに対応する。いくつかの実施形態では、平滑化ベクトルは、ベクトル角度Θi−1およびΘを二等分する角度ΘNi+1を有する、新しいベクトルである。したがって、後方運動に対して、平滑化ベクトルを視野方向Dの角度Θに適用することによって、場所Li+1における新しい視野方向が、Θ/2に等しい新しい角度を伴って作成される。
実施形態では、平滑化ベクトルVは、(1)場所Li−1および方向Di−1によって定義される第1または前のベクトルと、(2)場所Lおよび方向Dによって定義される第2または現在のベクトルとに基づき、例えば、カメラ視野が気道から離れず、および/またはカメラ視野の動画が平滑に見えるように、後方ナビゲーションのために最適化されるベクトルである。平滑化ベクトルVは、第1および第2のベクトルの平均または加重平均であるベクトル等の第1および第2のベクトルの間のベクトルであり得る。平滑化ベクトルVは、代替として、スプラインまたはランチョスアルゴリズム等の平滑化アルゴリズムを使用することによって決定され得る。スプラインは、二次スプライン(次数2のスプライン)または三次スプライン(次数4のスプライン)であり得る。
平滑化ベクトルに基づいて、場所Li+1における新しい視野方向DNi+1を決定した後、1つ以上のプロセッサ106は、ステップ380で、場所Li+1における新しい仮想カメラ視野CNi+1を決定する。いくつかの実施形態では、場所Li+1は、場所Li−1または場所Li−1付近の場所であり得る。したがって、場所Li+1における元の仮想カメラ視野Ci+1を使用する代わりに、1つ以上のプロセッサ106は、メモリ104から元の仮想カメラ視野Ci+1を得て、平滑化ベクトルを使用して新しい視野方向Di+1によって仮想カメラ視野Ci+1を変更し、新しい仮想カメラ視野CNi+1を生成する。ステップ385では、新しい仮想カメラ視野CNi+1が、仮想気管支鏡検査窓の中でディスプレイ102上に表示される。ステップ385に続いて、1つ以上のプロセッサ106は、ステップ330に戻り、次の場所Li+1を決定する前に、ステップ390で、ステップSi+1のための現在の場所Li+1をステップSに設定する。
ここで図4を参照すると、図3のステップ335および360の前後運動の決定のための方法400を図示するフローチャートが、さらに詳細に説明される。ディスプレイ102上のポインタまたはカーソルの現在の場所Lおよび前の場所Li−1を使用して、前方および後方のどちらの方向に、仮想カメラが現在の場所Lにおいて移動しているかという決定が行われることができる。
ステップ405では、1つ以上のプロセッサ106が、ディスプレイ102上のポインタの現在の場所Lの2Dx座標およびy座標を得る。次に、ステップ410では、1つ以上のプロセッサ106が、ディスプレイ102上の(データ入力デバイス112のユーザの操作によって場所Lから移動させられる)次の仮想場所Li+1の2Dx座標およびy座標を得る。
ステップ415では、1つ以上のプロセッサ106が、ディスプレイ102上のポインタの次の場所Li+1のy座標値と場所Lのy座標値との間の差がゼロ未満であるかどうかを決定する。ステップ415において、次の場所Li+1のy座標値と場所Lのy座標値との間の差がゼロ未満であることが決定される場合、1つ以上のプロセッサ106は、仮想カメラが順方向に移動していることを決定する。
ステップ415において、ディスプレイ102上のポインタの場所Li+1のy座標値と場所Lのy座標値との間の差がゼロ未満ではないことが決定される場合、方法400は、次の場所Li+1のy座標値と場所Lのy座標値との間の差がゼロを上回ることが決定される、ステップ420へ進む。ステップ415において、次の場所Li+1のy座標値と場所Lのy座標値との間の差がゼロを上回ることが決定される場合には、1つ以上のプロセッサ106は、仮想カメラが逆方向に移動していることを決定する。
ここで図5および6A−6Cを参照すると、仮想気管支鏡検査のための3Dマップ窓500が、表示される。標的が識別され、経路がコンピュータデバイス100によって識別されると、臨床医は、ナビゲーション再検討モードで経路を再検討することを望み得る。図5は、本開示の実施形態による、コンピュータデバイス100がディスプレイ102の画面上に3Dマップ窓500および仮想気管支鏡検査窓600(図6A−6C)を示す、計画段階のナビゲーション再検討モードを図示する。
3Dマップ窓500は、3Dマップを示し、仮想気管支鏡検査窓600は、仮想気管支鏡ビデオ画像を示す。3Dマップ窓500は、標的550への経路505と現在位置インジケータ507とを表示し、重ね合せる。ナビゲーション再検討モードでは、ディスプレイ102は、気管から標的550までのフライスルー視野として仮想気管支鏡検査窓600を示す。
仮想気管支鏡検査窓600はまた、再検討のために標的550に向かった経路660も示す。現在位置インジケータ507は、仮想気管支鏡検査窓600に示される現在の位置に基づいて、かつそれに従って、3Dマップ窓500の中で移動する。一側面では、経路660または505は、臨床医が経路の表示と経路の非表示との間で設定し得る表示オプションに基づいて、表示されないこともある。
仮想気管支鏡検査窓600は、不透明度のためのスライダ670を含む。スライダ670を移動させることによって、仮想気管支鏡ビデオ画像の不透明度は、不透明から透明に変化し得る。しかしながら、仮想気管支鏡検査の不透明度状態は、3Dマップ窓500に示される3Dマップに同期させられない。
図5に示されるように、気道通路501は、3つのそれぞれの場所510、520、および530における3つのカメラ視野を含む。仮想カメラが場所510、520、および530の各々において標的550の方へナビゲートすると、視野方向510a、520a、および530aが、それぞれ、仮想気管支鏡検査窓600内で表示される。各視野方向510a、520a、および530aは、それぞれ、図6A、6B、および6Cに示される仮想気管支鏡ビデオ画像に対応する。仮想カメラが場所510から530まで進行するにつれて、ユーザによって見られる視野は、それぞれ、図6A−6Cに示されるように変更される。
図6Aでは、ユーザは、仮想気管支鏡検査窓600の中で、気道通路501の分岐とともに場所510、520、および530を含む経路660を見ることができる。仮想カメラが場所520に接近するにつれて(図6B)、仮想気管支鏡検査窓600に示される視野は、分岐に接近している。仮想カメラが場所530に到達すると(図6C)、気道通路が場所530において表示される。前方運動中に、ユーザは、マウス、キーボード、またはタッチパッド等の入力デバイスを用いてポインタまたはカーソルを移動させ、場所510、520、および530等の経路660に沿う前方の場所を選択する。したがって、ユーザが分岐に注目すると、ユーザは、場所530等の分岐に進入する経路660に沿った場所を選択することができる。各場所が前方運動中に選択されると、仮想カメラは、その場所に視野の中心を置く。後方運動中、ユーザがポインタまたはカーソルを移動させ、経路660に沿う後方の場所を選択すると、本開示のシステムおよび方法は、その後方場所に中心に置かれた仮想カメラ視野を表示することとは対照的に、後方場所における視野を変更して平滑化し、それによって、ユーザが仮想気管支鏡検査窓600の中で見る視野が気道の外側にあることを防止するカメラ視野をユーザに提供する。例えば、本開示のシステムおよび方法は、図6Cの気道内の後方運動を選択するユーザのために、ユーザが見る視野が、仮想カメラが気道の分岐において気道の外側に位置したかのように表示されることを防止するであろう。
図7は、気道および仮想気管支鏡検査視野の気道内の移動に関連付けられるベクトルの図式的説明図700である。図式的説明図700は、図6の場所510、520、および530等の気道内の種々の場所におけるベクトルおよび平滑化ベクトルを示す。図7に示されるように、気道通路501は、5つの場所L−L(705−740)およびそれぞれの視野方向D−D(705a−740a)を含む。各視野方向705a−740aは、場所705−740から延びるベクトル実線として図示される。
前方運動の場合、仮想カメラが場所Lから場所Lまで進行すると、各場所705−740においてユーザによって見られるような仮想カメラ視野は、それぞれ、視野方向705a−740aに沿った方向に表示される。
例えば、場所740−730−720を横断する後方運動の場合、前の場所において表示される各視野方向、例えば、730aおよび720aは、平滑化ベクトルによって変更される。例えば、現在のベクトルと現在の場所における前のベクトルとの平均である平滑化ベクトルに対して、変更された視野方向730cは、点線によって図示され、730aと730bとの二等分線として示される。変更された視野方向730cは、場所L730の通常視野方向730aと、場所L730から延びる鎖線730bによって図示される前の場所L720の視野方向との二等分線として作成される。
同様に、場所L730から場所L720までの後方運動に関して、変更された視野方向720cが、点線によって図示され、場所L720の通常視野方向720aと、場所L720から延びる鎖線720bとして示される前の場所L710の視野方向との二等分線として示される。
本開示は、具体的な例証的実施形態に関して説明されているが、本開示の精神から逸脱することなく、種々の修正、再配列、および置換が行われ得ることが、当業者に容易に明白となるであろう。例えば、平滑化ベクトルの決定は、仮想カメラの移動中にオンラインで、または動的に行われるものとして上記で例証される。他の実施形態では、平滑化ベクトルは、気道の全体を通した所定の場所において、オフラインで、またはナビゲーションモードの開始に先立って決定され得ることが考慮される。本他方の実施形態は、逆方向に移動するときに仮想カメラ視野を最適化するために平滑化ベクトルまたは他のベクトルを決定するためのより複雑な方法を利用するときに有益であり得る。本開示の範囲は、本明細書に添付される請求項によって定義される。
前述に加えて、本明細書に説明されるシステムに関連する、いくつかある特徴の中で特に、画像処理およびユーザインターフェース更新の特徴を説明する、以下の同一出願人による出願、すなわち、2014年7月2日に出願された、「System And Method For Navigating Within The Lung」と題された米国仮特許出願第62/020,240号、2014年7月2日に出願された、「Real−Time Automatic Registration Feedback」と題された米国仮特許出願第62/020,220号、2014年7月2日に出願された、「Methods for Marking Biopsy Location」と題された米国仮特許出願第62/020,177号、2014年7月2日に出願された、「Unified Coordinate System For Multiple CT Scans Of Patient Lungs」と題された米国仮特許出願第62/020,242号、Kleinらによって2014年7月2日に出願された、「Alignment CT」と題された米国仮特許出願第62/020,245号、2014年7月2日に出願された、「Algorithm for Fluoroscopic Pose Estimation」と題された米国仮特許出願第62/020,250号、2014年7月2日に出願された、「Trachea Marking」と題された米国仮特許出願第62/020,253号、2014年7月2日に出願された、「Lung And Pleura Segmentation」と題された米国仮特許出願第62/020,261号、2014年7月2日に出願された、「Cone View−A Method Of Providing Distance And Orientation Feedback While Navigating In 3D」と題された米国仮特許出願第62/020,258号、2014年7月2日に出願された、「Dynamic 3D Lung Map View for Tool Navigation Inside the Lung」と題された米国仮特許出願第62/020,262号、2014年7月2日に出願された、「System and Method for Segmentation of Lung」と題された米国仮特許出願第62/020,261号、および2014年7月2日に出願された、「Automatic Detection Of Human Lung Trachea」と題された米国仮特許出願第62/020,257号が参照される。これら全ての参考文献は、とりわけ、肺治療計画およびナビゲーションに関する分析、診断、および治療システムの増進した明確性および性能を提供するように、DICOM画像を処理し、気管を検出し、肺内でナビゲートし、DICOM画像および処理画像を表示するという側面を対象とする。全ての上記で参照される出願の内容は、参照することによって本明細書に組み込まれる。

Claims (20)

  1. 仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示する方法であって、前記方法は、
    第1の場所および前記第1の場所における第1の方向を決定することと、
    前記第1の場所および前記第1の方向をメモリに記憶することと、
    前記第1の場所に対応する第1の仮想カメラ視野を表示することと、
    前記仮想気管支鏡検査の前記気道を通した移動に対応する第2の場所を決定することと、
    前記第2の場所を前記メモリに記憶することと、
    前記第2の場所に対応する第2の仮想カメラ視野を表示することと、
    前記第1の場所と前記第2の場所とに基づいて第2の方向を決定することと、
    前記第2の方向を前記メモリに記憶することと、
    前記仮想気管支鏡検査を通したさらなる移動に対応する第3の場所を決定することと、
    前記さらなる移動が順方向であるか、または逆方向であるかを決定することと、
    前記さらなる移動が前記順方向であると決定される場合、
    前記第3の場所に対応する第3の仮想カメラ視野を表示することと、
    移動が前記逆方向であると決定される場合、
    前記メモリから前記記憶された第1の方向および前記記憶された第2の方向を読み出すことと、
    前記記憶された第1の方向と前記記憶された第2の方向とに基づいて平滑化ベクトルを決定することと、
    前記平滑化ベクトルに基づいて、平滑化された仮想カメラ視野を得ることと、
    前記平滑化された仮想カメラ視野を表示することと
    を含む、方法。
  2. 前記さらなる移動が順方向であるか、または逆方向であるかを決定することは、
    仮想気管支鏡検査画面上の次のポインタ場所および現在のポインタ場所を決定することと、
    前記次のポインタ場所の座標と前記現在のポインタ場所の座標との間の差を計算することと、
    前記計算された差が正である場合、前記さらなる移動が前記逆方向であることを決定することと、
    前記計算された差が負である場合、前記さらなる移動が前記順方向であることを決定することと
    を含む、請求項1に記載の方法。
  3. 前記第1の場所、前記第2の場所、および前記第3の場所は、前記仮想カメラ視野を表示している画面上のポインタまたはカーソルの場所に基づいて決定される、請求項1に記載の方法。
  4. 前記さらなる移動が前記順方向であると決定される場合、
    前記第2の場所と前記第3の場所とに基づいて第3の方向を決定することと、
    前記第3の方向を前記メモリに記憶することと
    をさらに含む、請求項1に記載の方法。
  5. 前記平滑化ベクトルを決定することは、
    前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
    前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
    前記第1のベクトルと前記第2のベクトルとを平均し、前記平滑化ベクトルを得ることと
    を含む、請求項1に記載の方法。
  6. 前記平滑化ベクトルを決定することは、
    前記第1の場所と前記第1の方向とに基づいて第1のベクトルを決定することと、
    前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
    スプラインまたはランチョスアルゴリズムを前記第1のベクトルと前記第2のベクトルとに適用し、前記平滑化ベクトルを得ることと
    を含む、請求項1に記載の方法。
  7. 前記スプラインは、2次のスプラインまたは4次のスプラインである、請求項6に記載の方法。
  8. 前記第1の、第2の、第3の、または平滑化された仮想カメラ視野を変更する入力をユーザから受信することと、
    前記変更された第1の、第2の、第3の、または平滑化された仮想カメラ視野を記憶することと
    をさらに含む、請求項1に記載の方法。
  9. 前記平滑化ベクトルを決定することは、前記第1の方向と前記第2の方向との間の方向を有するベクトルを決定することを含む、請求項1に記載の方法。
  10. 仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示するための装置であって、
    ナビゲーション計器の少なくとも1つの位置センサから前記ナビゲーション計器の位置情報を受信するように構成されているネットワークインターフェースであって、前記位置情報は、物理的場所を含む、ネットワークインターフェースと、
    前記仮想気管支鏡検査の複数の仮想カメラ視野、命令、第1の場所、前記第1の場所における第1の方向、第2の場所、および前記第2の場所における第2の方向を記憶しているメモリと、
    前記命令を実行するように構成されているプロセッサであって、
    前記命令は、前記プロセッサによって実行されると、
    前記仮想気管支鏡検査の前記気道を通した移動が順方向であるか、または逆方向であるかを決定することと、
    前記移動が前記順方向であると決定される場合、
    前記仮想気管支鏡検査の前記気道を通した前記移動に対応する第3の場所を決定することと、
    前記第2の場所と前記第3の場所とに基づいて第3の方向を決定することと、
    移動が前記逆方向であると決定される場合、
    前記メモリから前記第1の方向および前記第2の方向を読み出すことと、
    前記第1の方向と前記第2の方向とに基づいて平滑化ベクトルを決定することと
    を前記プロセッサに行わせる、プロセッサと、
    前記決定された平滑化ベクトルに対応する平滑化された仮想カメラ視野の画像を画面上で動的に表示するように構成されているディスプレイと
    を備えている、装置。
  11. 前記第1の場所、前記第2の場所、および前記第3の場所は、前記画面上のポインタの場所に基づいて決定される、請求項10に記載の装置。
  12. 前記命令は、前記プロセッサによって実行されると、
    前記仮想カメラ視野を表示する前記画面上での第1のポインタ場所および第2のポインタ場所を決定することと、
    前記第1のポインタ場所の座標と前記第2のポインタ場所の座標との間の差を計算することと、
    前記計算された差が正である場合、前記移動が前記逆方向であることを決定することと、
    前記計算された差が負である場合、前記移動が前記順方向であることを決定することと
    を前記プロセッサにさらに行わせる、請求項10に記載の装置。
  13. 前記命令は、前記プロセッサによって実行されると、
    前記第1の場所と前記第1の方向とに基づいて第1のベクトルを決定することと、
    前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
    前記第1のベクトルと前記第2のベクトルとを平均し、前記平滑化ベクトルを得ることと
    を前記プロセッサにさらに行わせる、請求項10に記載の装置。
  14. 前記命令は、前記プロセッサによって実行されると、前記第1の方向と前記第2の方向との間にある方向を有する前記平滑化ベクトルを前記プロセッサに決定させる、請求項10に記載の装置。
  15. 前記命令は、前記プロセッサによって実行されると、
    前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
    前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
    スプラインを前記第1のベクトルと前記第2のベクトルとに適用し、前記平滑化ベクトルを得ることと
    を前記プロセッサに行わせる、請求項10に記載の装置。
  16. 前記スプラインは、2次のスプラインまたは4次のスプラインである、請求項15に記載の装置。
  17. 仮想気管支鏡検査の気道を通ってナビゲートしながら仮想気管支鏡検査視野を表示する方法であって、前記方法は、
    第1の場所および前記第1の場所における第1の方向を決定することと、
    第1の場所および前記第1の方向をメモリに記憶することと、
    前記第1の場所に対応する第1の仮想カメラ視野を表示することと、
    前記仮想気管支鏡検査の前記気道を通した移動に対応する第2の場所、および第2の方向を決定することと、
    前記記憶された第1の方向および前記第2の方向に基づいて平滑化ベクトルを決定することと、
    前記平滑化ベクトルを前記メモリに記憶することと、
    前記第2の場所に対応する第2の仮想カメラ視野を表示することと、
    前記仮想気管支鏡検査の気道を通したさらなる移動に対応する第3の場所を決定することと、
    前記さらなる移動が順方向であるか、または逆方向であるかを決定することと、
    前記さらなる移動が前記順方向であると決定される場合、
    前記第3の場所に対応する第3の仮想カメラ視野を表示することと、
    移動が前記逆方向であると決定される場合、
    前記メモリに記憶された前記平滑化ベクトルを読み出すことと、
    前記読み出された平滑化ベクトルに基づいて、平滑化された仮想カメラ視野を得ることと、
    前記平滑化された仮想カメラ視野を表示することと
    を含む、方法。
  18. 前記平滑化ベクトルを決定することは、
    前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
    前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
    前記第1のベクトルと前記第2のベクトルとを平均し、前記平滑化ベクトルを得ることと
    を含む、請求項17に記載の方法。
  19. 前記平滑化ベクトルを決定することは、
    前記第1の場所と第1の方向とに基づいて第1のベクトルを決定することと、
    前記第1の場所と前記第2の方向とに基づいて第2のベクトルを決定することと、
    スプラインまたはランチョスアルゴリズムを前記第1のベクトルと前記第2のベクトルとに適用し、前記平滑化ベクトルを得ることと
    を含む、請求項17に記載の方法。
  20. 前記スプラインは、2次のスプラインまたは4次のスプラインである、請求項19に記載の方法。
JP2016120830A 2015-06-19 2016-06-17 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法 Active JP6240263B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562181824P 2015-06-19 2015-06-19
US62/181,824 2015-06-19
US15/184,057 US10163262B2 (en) 2015-06-19 2016-06-16 Systems and methods for navigating through airways in a virtual bronchoscopy view
US15/184,057 2016-06-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017212569A Division JP6402230B2 (ja) 2015-06-19 2017-11-02 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2017006671A JP2017006671A (ja) 2017-01-12
JP6240263B2 true JP6240263B2 (ja) 2017-11-29

Family

ID=56296497

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016120830A Active JP6240263B2 (ja) 2015-06-19 2016-06-17 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
JP2017212569A Active JP6402230B2 (ja) 2015-06-19 2017-11-02 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
JP2018168861A Active JP6628844B2 (ja) 2015-06-19 2018-09-10 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2017212569A Active JP6402230B2 (ja) 2015-06-19 2017-11-02 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
JP2018168861A Active JP6628844B2 (ja) 2015-06-19 2018-09-10 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法

Country Status (6)

Country Link
US (2) US10163262B2 (ja)
EP (1) EP3106117B1 (ja)
JP (3) JP6240263B2 (ja)
CN (2) CN106256331B (ja)
AU (2) AU2016204103B2 (ja)
CA (1) CA2933503C (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754367B2 (en) * 2014-07-02 2017-09-05 Covidien Lp Trachea marking
US10242488B1 (en) * 2015-03-02 2019-03-26 Kentucky Imaging Technologies, LLC One-sided transparency: a novel visualization for tubular objects
US10163262B2 (en) 2015-06-19 2018-12-25 Covidien Lp Systems and methods for navigating through airways in a virtual bronchoscopy view
WO2018005861A1 (en) 2016-06-30 2018-01-04 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information during an image-guided procedure
WO2018005842A1 (en) * 2016-06-30 2018-01-04 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure
EP3375399B1 (en) 2016-10-05 2022-05-25 NuVasive, Inc. Surgical navigation system
JP2020518326A (ja) 2017-04-18 2020-06-25 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導処置を監視するためのグラフィカル・ユーザインターフェイス
EP3613057A4 (en) * 2017-04-18 2021-04-21 Intuitive Surgical Operations, Inc. GRAPHIC USER INTERFACE FOR PLANNING A PROCEDURE
GB201706497D0 (en) * 2017-04-25 2017-06-07 Kwong Tsong Yun New product
US10712810B2 (en) 2017-12-08 2020-07-14 Telefonaktiebolaget Lm Ericsson (Publ) System and method for interactive 360 video playback based on user location
CN110368089A (zh) * 2019-08-07 2019-10-25 湖南省华芯医疗器械有限公司 一种支气管内窥镜三维导航方法
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
CN111513854A (zh) * 2020-05-11 2020-08-11 绍兴梅奥心磁医疗科技有限公司 导管的操控装置及系统
CN112450960A (zh) * 2020-12-21 2021-03-09 周永 基于vr/ar联合数字肺技术的虚拟内窥镜显示方法
CN114366295B (zh) * 2021-12-31 2023-07-25 杭州脉流科技有限公司 微导管路径生成方法、塑形针的塑形方法、计算机设备、可读存储介质和程序产品
CN114404042B (zh) * 2022-03-31 2022-07-08 珠海维尔康生物科技有限公司 一种手术机器人导航板及导航方法
CN115607284B (zh) * 2022-12-05 2023-03-14 珠海视新医用科技有限公司 内窥镜的术中导航控制装置、设备、存储介质

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4998972A (en) 1988-04-28 1991-03-12 Thomas J. Fogarty Real time angioscopy imaging system
US5699798A (en) 1990-08-10 1997-12-23 University Of Washington Method for optically imaging solid tumor tissue
US5734384A (en) 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
US5359637A (en) 1992-04-28 1994-10-25 Wake Forest University Self-calibrated tomosynthetic, radiographic-imaging system, method, and device
US5987149A (en) 1992-07-08 1999-11-16 Uniscore Incorporated Method for scoring and control of scoring open-ended assessments using scorers in diverse locations
US5381786A (en) 1993-02-11 1995-01-17 Wayne State University Method and apparatus for measurement of luminal dimensions
US5469353A (en) 1993-11-26 1995-11-21 Access Radiology Corp. Radiological image interpretation apparatus and method
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5687259A (en) 1995-03-17 1997-11-11 Virtual Eyes, Incorporated Aesthetic imaging system
WO1997028845A1 (en) 1996-02-09 1997-08-14 Mayo Foundation For Medical Education And Research Radiotherapy treatment using medial access transformation
JP3555912B2 (ja) 1996-07-04 2004-08-18 富士写真フイルム株式会社 画像読取伝送システム
US6343936B1 (en) * 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US5891030A (en) 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
JPH10295639A (ja) 1997-02-27 1998-11-10 Toshiba Corp 画像処理システム
JPH11164833A (ja) 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
US6369812B1 (en) * 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
US6349373B2 (en) 1998-02-20 2002-02-19 Eastman Kodak Company Digital image management system having method for managing images according to image groups
US6289235B1 (en) 1998-03-05 2001-09-11 Wake Forest University Method and system for creating three-dimensional images using tomosynthetic computed tomography
US6212420B1 (en) 1998-03-13 2001-04-03 University Of Iowa Research Foundation Curved cross-section based system and method for gastrointestinal tract unraveling
US6081577A (en) 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
JP4334037B2 (ja) 1998-08-13 2009-09-16 株式会社東芝 医用画像処理装置
US6381557B1 (en) 1998-11-25 2002-04-30 Ge Medical Systems Global Technology Company, Llc Medical imaging system service evaluation method and apparatus
US6381029B1 (en) 1998-12-23 2002-04-30 Etrauma, Llc Systems and methods for remote viewing of patient images
US6510340B1 (en) 2000-01-10 2003-01-21 Jordan Neuroscience, Inc. Method and apparatus for electroencephalography
US20030152897A1 (en) * 2001-12-20 2003-08-14 Bernhard Geiger Automatic navigation for virtual endoscopy
US7640050B2 (en) 2002-03-14 2009-12-29 Netkiser, Inc. System and method for analyzing and displaying computed tomography data
AU2003223085A1 (en) 2002-04-17 2003-10-27 Super Dimension Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2006138504A2 (en) 2005-06-17 2006-12-28 Mayo Foundation For Medical Education And Research Colonoscopy video processing for quality metrics determination
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US20070167714A1 (en) * 2005-12-07 2007-07-19 Siemens Corporate Research, Inc. System and Method For Bronchoscopic Navigational Assistance
US20080074422A1 (en) * 2006-09-22 2008-03-27 Doron Dekel Method, system and computer program product for providing user-customizable standardized anatomical viewing protocols for volumetric data
EP2086399B1 (en) 2006-11-10 2017-08-09 Covidien LP Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7853058B2 (en) 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
WO2009116465A1 (ja) 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
US9026223B2 (en) * 2009-04-30 2015-05-05 Medtronic, Inc. Therapy system including multiple posture sensors
GB0920938D0 (en) * 2009-11-30 2010-01-13 Imp Innovations Ltd Steerable probes
JP5457841B2 (ja) * 2010-01-07 2014-04-02 株式会社東芝 医用画像処理装置、及び医用画像処理プログラム
CN102883651B (zh) * 2010-01-28 2016-04-27 宾夕法尼亚州研究基金会 可应用于支气管镜引导的基于图像的全局配准系统和方法
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
CN103237518A (zh) * 2010-10-28 2013-08-07 菲亚戈股份有限公司 在医学中用于光学仪器的导航附加部和方法
JP5369078B2 (ja) 2010-11-26 2013-12-18 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
CN103370001B (zh) * 2010-12-30 2016-12-21 基文影像公司 基于体内捕捉的图像流自动导航胶囊的系统和方法
US9833213B2 (en) * 2011-01-14 2017-12-05 Koninklijke Philips N.V. Ariadne wall taping for bronchoscopic path planning and guidance
EP2670291A4 (en) 2011-02-04 2015-02-25 Penn State Res Found METHOD AND DEVICE FOR DETERMINING THE LOCATION OF AN ENDOSCOPE
CA2794898C (en) * 2011-11-10 2019-10-29 Victor Yang Method of rendering and manipulating anatomical images on mobile computing device
CN103957834B (zh) * 2011-12-03 2017-06-30 皇家飞利浦有限公司 用于半自动路径规划的自动深度滚动和方向调节
JP5826082B2 (ja) 2012-03-21 2015-12-02 富士フイルム株式会社 医用画像診断支援装置および方法並びにプログラム
ES2387785B1 (es) 2012-05-14 2013-05-08 Universitat Politècnica De Catalunya Procedimiento y sistema de generación de un recorrido para una broncoscopia virtual
JP5947707B2 (ja) 2012-12-27 2016-07-06 富士フイルム株式会社 仮想内視鏡画像表示装置および方法並びにプログラム
CN104797186B (zh) * 2013-03-06 2016-10-12 奥林巴斯株式会社 内窥镜系统
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
US9459770B2 (en) * 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
JP6206869B2 (ja) * 2013-05-28 2017-10-04 国立大学法人名古屋大学 内視鏡観察支援装置
US10163262B2 (en) 2015-06-19 2018-12-25 Covidien Lp Systems and methods for navigating through airways in a virtual bronchoscopy view
CN105231978B (zh) * 2015-09-14 2017-03-22 袁非牛 一种引导式虚拟内窥镜导航方法

Also Published As

Publication number Publication date
US10453257B2 (en) 2019-10-22
AU2016204103A1 (en) 2017-01-12
US10163262B2 (en) 2018-12-25
JP6402230B2 (ja) 2018-10-10
CN106256331B (zh) 2019-06-25
CA2933503C (en) 2019-02-12
CN106256331A (zh) 2016-12-28
JP2019030673A (ja) 2019-02-28
JP6628844B2 (ja) 2020-01-15
CN110151116B (zh) 2021-12-10
US20160371883A1 (en) 2016-12-22
JP2017006671A (ja) 2017-01-12
JP2018047258A (ja) 2018-03-29
AU2017232198B2 (en) 2019-02-21
EP3106117A1 (en) 2016-12-21
US20190122434A1 (en) 2019-04-25
EP3106117B1 (en) 2020-03-25
AU2016204103B2 (en) 2017-06-29
CN110151116A (zh) 2019-08-23
CA2933503A1 (en) 2016-12-19
AU2017232198A1 (en) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6402230B2 (ja) 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
US11793389B2 (en) Intelligent display
JP6438545B2 (ja) プランニングシステム及び方法
US10653485B2 (en) System and method of intraluminal navigation using a 3D model
US9757021B2 (en) Global and semi-global registration for image-based bronchoscopy guidance
CN110301883B (zh) 用于导航管状网络的基于图像的向导
JP7079771B2 (ja) 軟性点特徴部を使用して呼吸周期を予測し、端部位置合わせを改善する方法
Merritt et al. Method for continuous guidance of endoscopy
Khare et al. Image-based global registration system for bronchoscopy guidance

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171102

R150 Certificate of patent or registration of utility model

Ref document number: 6240263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250