JP6174676B2 - Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation - Google Patents
Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation Download PDFInfo
- Publication number
- JP6174676B2 JP6174676B2 JP2015506331A JP2015506331A JP6174676B2 JP 6174676 B2 JP6174676 B2 JP 6174676B2 JP 2015506331 A JP2015506331 A JP 2015506331A JP 2015506331 A JP2015506331 A JP 2015506331A JP 6174676 B2 JP6174676 B2 JP 6174676B2
- Authority
- JP
- Japan
- Prior art keywords
- endoscope
- image set
- module
- interest
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 27
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000007423 decrease Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 4
- 210000004351 coronary vessel Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 208000035478 Interatrial communication Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 208000013914 atrial heart septal defect Diseases 0.000 description 1
- 206010003664 atrial septal defect Diseases 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000007675 cardiac surgery Methods 0.000 description 1
- 235000019994 cava Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 210000002249 digestive system Anatomy 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 238000009802 hysterectomy Methods 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011471 prostatectomy Methods 0.000 description 1
- 230000002685 pulmonary effect Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000000250 revascularization Effects 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/0016—Holding or positioning arrangements using motor drive units
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Robotics (AREA)
- Signal Processing (AREA)
- Gynecology & Obstetrics (AREA)
- Human Computer Interaction (AREA)
- Endoscopes (AREA)
Description
本開示は医療機器及びより具体的には内視鏡を手動操作するためのガイダンスツールに関する。 The present disclosure relates to a medical device and more specifically to a guidance tool for manually operating an endoscope.
冠動脈バイパス移植術(CABG)は閉塞した冠動脈の血行再建のための外科手術である。低侵襲CABGは手術部位からの唯一のフィードバックとして内視鏡を用いて実行される。低侵襲CABG術のための標準的な設定では、助手が内視鏡を保持しながら外科医が両手を使って器具を持つ。内視鏡は典型的には患者の右側から若しくは前後方向から胸腔に挿入される。これは三つの関連する座標系をもたらし得る:内視鏡(例えばカメラ)の座標系、外科医の座標系、及び助手の座標系。これは複数の問題につながり得る。例えば、外科医が前方の画面を見ている間、カメラは側面からの解剖学的構造をあらわしている。加えて、内視鏡の上端にあるカメラが180°回転されるとした場合、画像は画面上で逆転して見えることになる。しかしながら、現在カメラの配向を知る方法はない。さらに、助手は内視鏡の動かし方について外科医からの指示に応えなければならない。"右"などの命令は内視鏡を左及び下に動かすことに対応する場合があり、これは助手にとって非常に反直感的であり、試行錯誤手法につながり得る。これらの問題は長期の手術室滞在時間と、ワークフローにおける非効率性につながり得る。 Coronary artery bypass grafting (CABG) is a surgical procedure for revascularization of a blocked coronary artery. Minimally invasive CABG is performed using an endoscope as the only feedback from the surgical site. In a standard setting for minimally invasive CABG surgery, the surgeon holds the instrument with both hands while the assistant holds the endoscope. An endoscope is typically inserted into the thoracic cavity from the right side of the patient or from the anteroposterior direction. This can result in three related coordinate systems: an endoscope (eg, camera) coordinate system, a surgeon's coordinate system, and an assistant's coordinate system. This can lead to multiple problems. For example, while the surgeon is looking at the front screen, the camera shows the anatomy from the side. In addition, if the camera at the upper end of the endoscope is rotated 180 °, the image will appear reversed on the screen. However, there is currently no way to know the camera orientation. In addition, the assistant must respond to instructions from the surgeon on how to move the endoscope. A command such as “Right” may correspond to moving the endoscope to the left and down, which is very counter-intuitive to the assistant and can lead to a trial and error approach. These problems can lead to long operating room residence times and inefficiencies in the workflow.
本発明の原理によれば、内視鏡を手動操作するためのガイダンスツールにとって新しい解決法が提供される。 In accordance with the principles of the present invention, a new solution is provided for a guidance tool for manually operating an endoscope.
一実施形態において、本発明の原理は術前及び/又は術中画像を内視鏡の画像とレジストレーションすることを含み得る。ユーザが内視鏡を選択された関心領域の方へナビゲートすることを可能にするガイダンスツールとして、視覚的な手掛かりが内視鏡ビュー上にオーバーレイされ得る。内視鏡の動きは視覚的な手掛かりを更新するために画像特徴を用いてリアルタイムに追跡され得る。別の実施形態において、本発明の原理はカメラの座標系がユーザの好適な座標系と対応するように内視鏡のカメラを事前に方向付け得る。内視鏡のカメラは、ユーザの好適な方向に対応するようにカメラを回転させることによって内視鏡を事前に方向付ける作動プラットフォーム上に取り付けられ得る。有利なことに、本発明の原理は内視鏡を手動ナビゲートする効率的な操作を提供する。これは手術室滞在時間の削減とより効率的なワークフローにつながり得る。 In one embodiment, the principles of the present invention may include registering pre-operative and / or intra-operative images with endoscopic images. Visual cues can be overlaid on the endoscopic view as a guidance tool that allows the user to navigate the endoscope toward a selected region of interest. Endoscope movement can be tracked in real time using image features to update visual cues. In another embodiment, the principles of the present invention may pre-orient the endoscope camera such that the camera coordinate system corresponds to the user's preferred coordinate system. The endoscope camera may be mounted on an operating platform that pre-orients the endoscope by rotating the camera to correspond to the user's preferred orientation. Advantageously, the principles of the present invention provide an efficient operation for manually navigating the endoscope. This can lead to reduced operating room residence time and a more efficient workflow.
ガイド下内視鏡ナビゲーションのためのシステムは、プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするように構成されるレジストレーションモジュールを含む。選択モジュールは第1の画像セット上の選択された関心領域を受信し、選択された関心領域を内視鏡座標フレームへ変換するように構成される。ガイダンスモジュールは内視鏡のユーザが選択された関心領域へナビゲートすることを可能にするように第2の画像セット上にガイダンスツールをオーバーレイするように構成される。 A system for guided endoscopic navigation includes a registration module configured to register a first image set of an endoscope with a second image set using a processor. The selection module is configured to receive the selected region of interest on the first set of images and convert the selected region of interest into an endoscopic coordinate frame. The guidance module is configured to overlay a guidance tool on the second set of images to allow an endoscope user to navigate to a selected region of interest.
ガイド下内視鏡ナビゲーションのためのシステムは、プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするように構成されるレジストレーションモジュールを含む。選択モジュールは第1の画像セット上の選択された関心領域を受信し、選択された関心領域を内視鏡座標フレームへ変換するように構成される。ガイダンスモジュールはガイダンスツールを第2の画像セット上にオーバーレイするように構成される。作動モジュールは内視鏡のユーザが選択された関心領域へナビゲートすることを可能にするためにカメラの座標系がユーザの座標系と対応するように内視鏡のカメラを方向付けるように構成される。 A system for guided endoscopic navigation includes a registration module configured to register a first image set of an endoscope with a second image set using a processor. The selection module is configured to receive the selected region of interest on the first set of images and convert the selected region of interest into an endoscopic coordinate frame. The guidance module is configured to overlay the guidance tool on the second set of images. The actuation module is configured to direct the endoscope camera such that the camera coordinate system corresponds to the user coordinate system to allow the endoscope user to navigate to the selected region of interest. Is done.
ガイド下内視鏡ナビゲーションのための方法は、プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするステップを含む。第1の画像セット上で関心領域が選択され、選択された関心領域は内視鏡座標フレームへ変換される。内視鏡のユーザが選択された関心領域へナビゲートすることを可能にするよう、ガイダンスツールが第2の画像セット上にオーバーレイされる。 A method for guided endoscopic navigation includes registering a first image set of an endoscope with a second image set using a processor. A region of interest is selected on the first set of images, and the selected region of interest is converted to an endoscopic coordinate frame. A guidance tool is overlaid on the second set of images to allow the user of the endoscope to navigate to the selected region of interest.
本開示のこれらの及び他の目的、特徴及び利点は、添付の図面に関連して読まれるその実施形態例の以下の詳細な説明から明らかとなる。 These and other objects, features and advantages of the present disclosure will become apparent from the following detailed description of example embodiments thereof read in conjunction with the accompanying drawings.
本開示は以下の図面を参照して以下の好適な実施形態の説明を詳細に提示する。 The present disclosure presents in detail the following description of preferred embodiments with reference to the following drawings.
本発明の原理によれば、システム、装置及び方法のための実施形態は内視鏡を手動操作するためのガイダンスツールを提供する。一実施形態において、術前及び/又は術中画像が内視鏡の画像とレジストレーションされる。ユーザ(例えば外科医助手)が選択された関心領域の方へ内視鏡を操作することを可能にするガイダンスツールとして、視覚的な手掛かりが内視鏡ビュー上にオーバーレイされ得る。内視鏡の動きは視覚的な手掛かりを更新するために画像特徴を用いてリアルタイムに追跡され得る。視覚的な手掛かりは、限定されないが、選択された関心領域への方向を示す方向インジケータ、内視鏡の動きを示す内視鏡トレーサ、選択された関心領域への方向と比較して内視鏡の動きの角度誤差を示す方向誤差インジケータ、選択された関心領域への距離を示す距離誤差インジケータ、及び解剖学的方向を示す解剖学的基準方向を含み得る。他の視覚的な手掛かりが可能であり、本発明の原理の範囲内で考慮されている。 In accordance with the principles of the present invention, embodiments for systems, devices and methods provide guidance tools for manually operating an endoscope. In one embodiment, pre-operative and / or intra-operative images are registered with endoscopic images. Visual cues can be overlaid on the endoscopic view as a guidance tool that allows a user (eg, a surgeon's assistant) to manipulate the endoscope toward a selected region of interest. Endoscope movement can be tracked in real time using image features to update visual cues. Visual cues include, but are not limited to, a directional indicator that indicates the direction to the selected region of interest, an endoscopic tracer that indicates the movement of the endoscope, an endoscope compared to the direction to the selected region of interest A direction error indicator indicating the angular error of the movement, a distance error indicator indicating the distance to the selected region of interest, and an anatomical reference direction indicating the anatomical direction. Other visual cues are possible and are considered within the principles of the present invention.
別の実施形態において、本発明の原理は内視鏡カメラの座標系をユーザの好適な座標系と事前に方向付け得る。カメラを好適な方向に事前に方向付けるために、内視鏡のカメラは作動プラットフォーム上に取り付けられ得る。内視鏡ユーザは例えば画像中の"上向き"方向に対応することを好む物理的方向に内視鏡を動かす。内視鏡の物理的運動と画像中の実際の上向き方向との間の角度が決定され、作動プラットフォームがそれに従ってカメラを回転させて座標フレームを事前に方向付ける。本発明の原理は上向き方向に限定されず、いかなる方向も含み得ることが留意される。 In another embodiment, the principles of the present invention may pre-orient the endoscopic camera coordinate system with the user's preferred coordinate system. In order to pre-orient the camera in a suitable direction, the endoscope camera can be mounted on a working platform. The endoscope user moves the endoscope in a physical direction that prefers to correspond, for example, to the “upward” direction in the image. The angle between the physical movement of the endoscope and the actual upward direction in the image is determined, and the actuation platform rotates the camera accordingly to pre-orient the coordinate frame. It is noted that the principles of the present invention are not limited to the upward direction and can include any direction.
本発明は内視鏡に関して記載されるが、本発明の教示はもっと広く、分岐、湾曲、コイル状、若しくは他の形状のシステムの内部ビューイングに利用されることができるいかなる光学スコープにも適用可能であることが理解されるべきである。一部の実施形態において、本発明の原理は複雑な生物学的若しくは機械的系(例えば消化系、循環系、配管系、通路、鉱山、洞窟など)を追跡若しくは分析するのに利用される。特に、本発明の原理は生体系の内部追跡手順、肺、胃腸管、排泄器官、血管などといった身体の全領域における手順に適用可能である。図面に描かれる要素はハードウェア及びソフトウェアの様々な組み合わせで実現され、単一の要素若しくは複数の要素に組み合され得る機能を提供し得る。本明細書に記載の実施形態は好適にはディスプレイモニタ上のビューのために表示される。こうしたモニタは、限定されないが(例えば携帯情報端末、電話機などの)手持ち式ディスプレイ、コンピュータディスプレイ、テレビ、専用モニタなどを含む任意の適切な表示装置を含み得る。スコープに応じて、ディスプレイはシステムの一部として提供され得るか、又は別のユニット若しくは装置であり得る。 Although the present invention will be described with respect to an endoscope, the teachings of the present invention are broader and apply to any optical scope that can be utilized for internal viewing of bifurcated, curved, coiled, or other shaped systems. It should be understood that this is possible. In some embodiments, the principles of the present invention are utilized to track or analyze complex biological or mechanical systems (eg, digestive systems, circulatory systems, piping systems, passageways, mines, caves, etc.). In particular, the principles of the present invention can be applied to procedures in the entire region of the body such as internal tracking procedures of biological systems, lungs, gastrointestinal tract, excretory organs, blood vessels and the like. The elements depicted in the drawings can be implemented in various combinations of hardware and software and provide functionality that can be combined into a single element or multiple elements. The embodiments described herein are preferably displayed for view on a display monitor. Such monitors may include any suitable display device including, but not limited to, handheld displays (such as personal digital assistants, telephones, etc.), computer displays, televisions, dedicated monitors, and the like. Depending on the scope, the display can be provided as part of the system or can be a separate unit or device.
光学スコープはスコープに接続される若しくは付随する複数の異なる装置を含み得ることも理解されるべきである。こうした装置はライト、切断装置、ブラシ、バキューム、カメラなどを含み得る。これらの構成要素はスコープの遠位端部の先端と一体化して形成され得る。光学スコープはスコープの先端に配置されるカメラを含み得るか、若しくはカメラは先端と反対側の光ケーブルの端部に配置され得る。 It should also be understood that the optical scope may include a plurality of different devices connected to or associated with the scope. Such devices can include lights, cutting devices, brushes, vacuums, cameras, and the like. These components can be integrally formed with the distal tip of the scope. The optical scope can include a camera positioned at the tip of the scope, or the camera can be positioned at the end of the optical cable opposite the tip.
図面に示す様々な要素の機能は専用ハードウェア及び適切なソフトウェアと関連してソフトウェアを実行することができるハードウェアを用いて提供され得る。プロセッサによって提供されるとき、機能は単一の専用プロセッサによって、単一の共有プロセッサによって、若しくはその一部が共有され得る複数の個別プロセッサによって提供され得る。さらに、"プロセッサ"若しくは"コントローラ"という語の明示的な使用は、ソフトウェアを実行することができるハードウェアを排他的にあらわすものと解釈されるべきではなく、限定されることなく、デジタル信号プロセッサ("DSP")ハードウェア、ソフトウェアを保存するためのリードオンリーメモリ("ROM")、ランダムアクセスメモリ("RAM")、不揮発性記憶装置などを非明示的に含み得る。 The functions of the various elements shown in the figures can be provided using dedicated hardware and hardware capable of executing software in conjunction with appropriate software. When provided by a processor, functionality may be provided by a single dedicated processor, by a single shared processor, or by multiple individual processors, some of which may be shared. In addition, the explicit use of the word “processor” or “controller” should not be construed to represent exclusively hardware capable of executing software, but is not limited to digital signal processors. ("DSP") hardware, read only memory ("ROM") for storing software, random access memory ("RAM"), non-volatile storage, etc. may be implicitly included.
さらに、本発明の原理、態様、及び実施形態、並びにその特定の実施例を列挙する本明細書の全記述は、その構造的及び機能的な均等物の両方を包含することが意図される。加えて、こうした均等物は現在既知の均等物並びに将来開発される均等物(すなわち構造にかかわらず同じ機能を実行する開発される任意の要素)の両方を含むことが意図される。従って、例えば、当業者に当然のことながら、本明細書に提示するブロック図は本発明の原理を具体化する例示的なシステムコンポーネント及び/又は回路の概念図をあらわす。同様に、当然のことながら任意のフローチャート、フロー図及び同様のものは、実質的にコンピュータ可読記憶媒体にあらわされ、コンピュータ若しくはプロセッサによって(こうしたコンピュータ若しくはプロセッサが明示されているか否かにかかわらず)そのように実行され得る様々なプロセスをあらわす。 Moreover, all statements herein reciting principles, aspects, and embodiments of the invention, as well as specific examples thereof, are intended to encompass both structural and functional equivalents thereof. In addition, such equivalents are intended to include both presently known equivalents as well as equivalents developed in the future (ie, any element developed that performs the same function regardless of structure). Thus, for example, as will be appreciated by those skilled in the art, the block diagrams presented herein represent conceptual diagrams of exemplary system components and / or circuits that embody the principles of the invention. Similarly, it will be appreciated that any flowcharts, flow diagrams, and the like may be represented substantially on a computer-readable storage medium and by a computer or processor (whether or not such computer or processor is explicitly specified). Represents the various processes that can be performed as such.
さらに、本発明の実施形態はコンピュータ若しくは任意の命令実行システムによって又はそれらと関連して使用するためのプログラムコードを提供するコンピュータ使用可能若しくはコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラム製品の形をとり得る。この記載の目的で、コンピュータ使用可能若しくはコンピュータ可読記憶媒体は、命令実行システム、機器、若しくは装置によって又はそれらと関連して使用するためのプログラムを包含、保存、通信、伝搬、若しくは輸送し得る任意の機器であり得る。媒体は電子、磁気、光学、電磁、赤外線、若しくは半導体システム(又は機器若しくは装置)又は伝搬媒体であり得る。コンピュータ可読媒体の実施例は半導体若しくは固体メモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、固定磁気ディスク及び光ディスクを含む。光ディスクの現在の実施例はコンパクトディスク‐リードオンリーメモリ(CD‐ROM)、コンパクトディスク‐リード/ライト(CD‐R/W)、Blu‐Ray(登録商標)、及びDVD(登録商標)を含む。 Furthermore, embodiments of the present invention take the form of a computer program product accessible from a computer-usable or computer-readable storage medium that provides program code for use by or in connection with a computer or any instruction execution system. obtain. For purposes of this description, a computer usable or computer readable storage medium is any that can contain, store, communicate, propagate, or transport a program for use by or in connection with an instruction execution system, device, or apparatus. Equipment. The medium can be an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system (or apparatus or device) or a propagation medium. Examples of computer readable media include semiconductor or solid state memory, magnetic tape, removable computer diskettes, random access memory (RAM), read only memory (ROM), fixed magnetic disks and optical disks. Current examples of optical disks include compact disk-read only memory (CD-ROM), compact disk-read / write (CD-R / W), Blu-Ray (R), and DVD (R).
図面において類似する数字は同一若しくは同様の要素をあらわし、最初に図1を参照すると、ガイダンスツールを用いて内視鏡を手動操作するためのシステム100が一実施形態に従って例示的に描かれる。システム100はワークステーション若しくはコンソール108を含み、そこから手順(例えば内視鏡検査)が管理され制御される。ワークステーション108は好適には一つ以上のプロセッサ138と、プログラム及びアプリケーションを保存するためのメモリ110を含む。システム100の機能と構成要素は一つ以上のワークステーション若しくはシステムに統合され得ることが理解されるべきである。
In the drawings, like numerals represent the same or similar elements, and referring initially to FIG. 1, a
メモリ110は画像112を保存し得る。画像112は術前画像と術中画像を含み、これは限定されないが磁気共鳴イメージング(MRI)システム、コンピュータ断層撮影(CT)システム、x線システム、3D超音波システムなどを含むシステムから受信され得る。メモリ110はスコープ102から受信されるスコープ画像114も保存し得る。好適な実施形態において、スコープ102はカメラ106から手術部位の術中画像をキャプチャする内視鏡である。スコープ画像114は好適には内視鏡102のカメラ106からのビデオを含み得る。
Memory 110 may store
本発明の原理は内視鏡ガイド下低侵襲外科手術の異なる用途に適用され得る。例えば、本発明の原理は心臓手術(例えば低侵襲冠動脈バイパス移植術、心房中隔欠損縫合、弁修復/置換術など)、腹腔鏡手術(例えば子宮摘出術、前立腺切除術、胆嚢手術など)、自然開口部越経管腔的手術、肺/気管支鏡手術、脳神経外科インターベンション、及びビデオ補助下胸部手術のために使用され得る。しかしながら、本発明の教示はこれよりももっと広く、スコープ102は様々なタイプの用途のためのいかなるタイプのスコープも含み得る。一実施形態例において、本発明の原理は"plumber's snake"を配管を通して手動でナビゲートするために適用され得る。他の用途も考慮される。
The principles of the present invention can be applied to different applications of endoscopic guided minimally invasive surgery. For example, the principles of the present invention include cardiac surgery (eg, minimally invasive coronary artery bypass grafting, atrial septal defect suture, valve repair / replacement, etc.), laparoscopic surgery (eg, hysterectomy, prostatectomy, gallbladder surgery, etc.) It can be used for natural orifice transluminal surgery, pulmonary / bronchoscopic surgery, neurosurgery interventions, and video-assisted chest surgery. However, the teachings of the present invention are much broader and
ワークステーション108は術前及び術中画像112並びに本発明の原理のガイダンス機能を含むスコープ画像114をビューするための一つ以上のディスプレイ134を含み得る。ディスプレイ134はユーザがワークステーション108並びにそのコンポーネント及び機能とインタラクションすることも可能にし得る。これは、ユーザがワークステーション108とインタラクションすることを可能にするキーボード、マウス、ジョイスティック、又は任意の他の周辺機器若しくはコントロールを含み得るユーザインターフェース136によってさらに容易にされる。
The workstation 108 may include one or
コンピュータ実施プログラム116はワークステーション108のメモリ110に保存される。プログラム116は各々が様々な機能を実行するように構成される複数のモジュールを含み得る。モジュールはハードウェアとソフトウェアの様々な組み合わせで実施され得ることが理解されるべきである。
The
プログラム116は画像112(例えば術前画像及び/又は術中画像)とスコープ(例えば内視鏡)画像114間のレジストレーションを実行するように構成されるレジストレーションモジュール118を含み得る。レジストレーションは当技術分野で周知の通り実行される。
The
プログラム116はユーザ(例えば外科医)が術前及び術中画像112(例えばCT若しくはx線)上の関心領域を選択することを可能にするように構成される選択モジュール120も含み得る。例えば、選択された関心領域は冠動脈バイパス移植術における標的バイパス動脈であり得る。選択モジュール120はこの選択を容易にするためにディスプレイ134及びユーザインターフェース136の使用を含み得る。そして選択モジュール120はレジストレーションモジュール118において決定されるレジストレーション変換を用いて選択された関心領域を術前及び/又は術中画像座標フレームから内視鏡座標フレームへ変換する。
プログラム116は内視鏡ビュー内の選択された関心領域を使用して複数のガイダンスインジケータを決定するように構成されるガイダンスモジュール122を含み得る。ガイダンスモジュール122は、限定されないが、方向モジュール124、経路モジュール126、及び距離モジュール128のいずれか若しくは全てを含み得る。他のインジケータもまた考慮されている。
The
方向モジュール124は内視鏡画像の現在の中心から選択された関心領域への方向を決定して、方向インジケータを内視鏡画像上にオーバーレイする。少しの間図2Aを参照すると、オーバーレイされたインジケータ200を含む内視鏡画像が、一実施形態に従って例示的に描かれる。方向インジケータ206は内視鏡画像上にオーバーレイされて内視鏡画像の中心202から選択された関心領域204への方向を示す。
The direction module 124 determines the direction from the current center of the endoscopic image to the selected region of interest and overlays a direction indicator on the endoscopic image. With reference briefly to FIG. 2A, an endoscopic image including an overlaid
図1のガイダンスモジュール122はユーザ(例えば外科医若しくは助手)が内視鏡をナビゲートするのをさらに助ける経路モジュール126を含み得る。少しの間図2Aに戻って参照すると、内視鏡の動きを示す内視鏡トレース208が内視鏡画像上にオーバーレイされる。トレース208は内視鏡画像の中心に位置する一つ以上の解剖学的特徴の位置を追跡し、その位置を内視鏡画像上でマークする矢印をオーバーレイすることによって生成される。各フレーム若しくはフレームの期間において、以前に画像の中心にあった特徴を追跡し続けながら、画像の中心にある現在の特徴が内視鏡画像上に矢印でオーバーレイされる。このプロセスを続けて、ユーザが選択された関心領域204へナビゲートするように内視鏡を操作するのを助ける視覚的な跡が作られ得る。
The
トレース208の方向は視覚的な手掛かりを用いて角度誤差を表示するために標的関心領域204の方向と比較され得る。一実施形態において、それぞれ内視鏡208の動きと選択された関心領域の方向206との間の角度オフセットを示す針212と214を用いてダイヤル210が表示され得る。角度誤差を示す他の視覚的な手掛かりも考慮される。例えば、選択された関心領域206への方向と内視鏡208の動きの間の角度が(例えば度で)表示され得る。
The direction of the
ガイダンスモジュール122は内視鏡画像の中心から標的関心領域への距離を示すように構成される距離モジュール128も含み得る。少しの間図2Bを参照すると、距離誤差インジケータ220がオーバーレイされた内視鏡画像が一実施形態に従って例示的に描かれる。内視鏡画像は内視鏡画像の中心202から標的関心領域204への方向を示す方向インジケータ206も含み得る。一実施形態において、距離222が(例えばピクセルで)画面上に数として示され得る。別の実施形態において、内視鏡画像の中心202と選択された関心領域204の間の線が距離に応じてあらわされ得る。例えば、少しの間図2Cを参照すると、仮想ばねを用いる距離インジケータがオーバーレイされた内視鏡画像240が一実施形態に従って例示的に描かれる。仮想ばね242は内視鏡画像の中心202を選択された関心領域204とつなぐ。仮想ばねは2点間の距離がさらに離れるにつれて伸張され、距離が近くなるにつれて圧縮されて見え得る。他の距離誤差インジケータも考慮されている。例えば、内視鏡画像の中心202と選択された関心領域204の間の線の色が距離によって変化することができ、色を定義する説明文が画面上に表示される。別の実施形態において、距離が変化するにつれて線の太さが修正されることができる。
本発明の原理のさらに別の実施形態において、図1の方向モジュール124は内視鏡画像上に解剖学的基準方向をオーバーレイし得る。術前及び術中画像112がレジストレーションモジュール118によって内視鏡画像114とレジストレーションされると、術前及び術中画像の解剖学的基準方向が決定される。解剖学的基準方向は内視鏡座標系に変換され、内視鏡画像上にオーバーレイされる。解剖学的基準方向は、限定されないが、前/後、右/左、及び頭/足方向を含み得る。他の解剖学的方向も考慮される。
In yet another embodiment of the principles of the present invention, the direction module 124 of FIG. 1 may overlay an anatomical reference direction on the endoscopic image. Once the preoperative and
ガイダンスモジュール122のオーバーレイされたガイダンスインジケータを用いて、ユーザは内視鏡102をナビゲートする。内視鏡102が選択された関心領域に達しているかどうかを決定するために、上述の通り、内視鏡の動きがトレースされる。ガイダンスモジュール122の操作は選択された関心領域に達するまで繰り返される。選択された関心領域に達すると、プロセスは終了する。
Using the overlaid guidance indicator of the
本発明の原理の一実施形態において、図1のプログラム116はユーザが内視鏡102をナビゲートするのをさらに助ける作動モジュール130も含み得る。作動モジュール130はカメラの座標系がユーザの好適な座標系と対応するように作動プラットフォーム104を用いてカメラ106を事前に方向付けるように構成される。作動モジュール130はユーザが例えば上向き方向に対応することを好む方向を受信する。例えば、ユーザは好みの上向き方向に内視鏡を物理的に動かし得る。内視鏡の物理的な動きと内視鏡画像の真の上向き方向の間の角度が計算され、入力として作動プラットフォームへ渡され、作動プラットフォームはそれに従ってカメラを事前に方向付ける。対応する方向は上向き方向に限定されず、むしろいかなる方向も含み得ることが留意される。
In one embodiment of the principles of the present invention, the
ここで図3Aを参照すると、内視鏡カメラの座標系を内視鏡ユーザの座標系300と方向付けるためのシステムが一実施形態に従って例示的に描かれる。カメラ106はスコープ102上の作動プラットフォーム104上に取り付けられる。作動プラットフォーム104は受信した角度に従って回転してそれに従ってカメラを方向付ける。少しの間図3Bを参照すると、方向付けインジケータがオーバーレイされた内視鏡画像の実施例320が一実施形態に従って図示される。ユーザは好みの上向き方向に内視鏡を動かし、画像中心インジケータ202からの内視鏡の動き324をもたらす。内視鏡の動き324と画像の真の上向き方向322の間の角度が計算されて角度326を決定し、これはそれに従ってカメラを方向付けるために作動プラットフォーム104へ渡される。
Referring now to FIG. 3A, a system for orienting an endoscope camera coordinate system with an endoscope user coordinate
ここで図4を参照すると、ガイダンスツールを用いて内視鏡を手動操作するための方法400が一実施形態に従って例示的に描かれる。ブロック402において、スコープ画像が術前及び/又は術中画像とレジストレーションされる。スコープ画像は好適には手術部位の術中画像をキャプチャするカメラを含む内視鏡の画像である。内視鏡画像は好適にはビデオを含み得る。術前及び/又は術中画像は、限定されないが、MRIシステム、CTシステム、x線システム、3D超音波システムなどを含むシステムから受信され得る。レジストレーションは当技術分野で周知の通り実行される。
With reference now to FIG. 4, a
ブロック404において、関心領域が術前及び術中画像上で選択され得る。ブロック406において、選択された関心領域は術前及び術中画像座標フレームから内視鏡画像座標フレームへ変換され得る。これはブロック402において決定されるレジストレーション変換の使用を含み得る。
At
ブロック408において、内視鏡画像の現在の中心から選択された関心領域への方向が内視鏡画像において決定される。この方向を用いて、ブロック410において、ガイダンスインジケータが内視鏡画像上にオーバーレイされる。ガイダンスインジケータは、例えば、限定されないが、方向インジケータ、内視鏡トレーサ、方向誤差インジケータ、距離誤差インジケータ、及び解剖学的基準方向インジケータを含み得る。他のインジケータも考慮される。
At
一実施形態において、ガイダンスインジケータは内視鏡画像の現在の中心から選択された関心領域への方向を示すために内視鏡画像上にオーバーレイされる方向インジケータを含み得る。別の実施形態において、内視鏡の動きを示す内視鏡トレースが内視鏡画像上にオーバーレイされ得る。トレースは内視鏡画像の中心に位置する各解剖学的特徴の位置を追跡し、内視鏡画像上でその位置をマークする矢印をオーバーレイすることによって生成され得る。各フレーム若しくはフレームの期間において、以前に画像の中心にあった特徴を追跡し続けながら、画像の中心における現在の特徴が内視鏡画像上の矢印とオーバーレイされる。このプロセスを続けて、ユーザが内視鏡をナビゲートするのを助け得る視覚的な跡を提供するよう、特徴の各々の位置が内視鏡画像において表示される。 In one embodiment, the guidance indicator may include a direction indicator overlaid on the endoscopic image to indicate the direction from the current center of the endoscopic image to the selected region of interest. In another embodiment, an endoscopic trace indicating the movement of the endoscope may be overlaid on the endoscopic image. The trace can be generated by tracking the position of each anatomical feature located at the center of the endoscopic image and overlaying an arrow marking that position on the endoscopic image. In each frame or frame period, the current feature at the center of the image is overlaid with an arrow on the endoscopic image, keeping track of the features that were previously in the center of the image. Continuing this process, the location of each feature is displayed in the endoscopic image to provide a visual trail that can help the user navigate the endoscope.
さらに別の実施形態において、内視鏡の動きと選択された関心領域への方向との間の角度オフセットをあらわす角度誤差を決定するために、内視鏡トレースが選択された関心領域の方向と比較され得る。角度誤差は視覚的な手掛かりを用いて内視鏡画像上にオーバーレイされ得る。一実施形態において、二つの針を含むダイヤルが内視鏡画像上にオーバーレイされ、各針は内視鏡のトレースと選択された関心領域への方向をそれぞれ示す。別の実施例において、角度誤差は内視鏡画像上に角度を(例えば度で)表示することによって示され得る。 In yet another embodiment, to determine an angular error that represents an angular offset between the movement of the endoscope and the direction to the selected region of interest, the endoscope trace is Can be compared. Angular errors can be overlaid on the endoscopic image using visual cues. In one embodiment, a dial containing two needles is overlaid on the endoscopic image, each needle indicating an endoscope trace and a direction to a selected region of interest, respectively. In another example, the angle error may be indicated by displaying the angle (eg, in degrees) on the endoscopic image.
一実施形態において、ガイダンスインジケータは内視鏡画像上にオーバーレイされる距離誤差インジケータを含み得る。内視鏡が動かされると、内視鏡画像の中心から選択された関心領域への距離が変化する。距離誤差はユーザが内視鏡をナビゲートするのを助けるために内視鏡画像上にオーバーレイされ得る。例えば、距離が(例えばピクセルで)画面の数として示され得る。別の実施例において、内視鏡画像の中心と選択された関心領域をつなぐ線が距離に応じてあらわされ得る。これは距離が大きくなるにつれて伸張され距離が小さくなるにつれて圧縮されて見え得る仮想ばねとして線をあらわすことを含み得る。代替的に、線の色若しくは太さが距離に従って変化し得る。距離誤差の他の表現も考慮される。 In one embodiment, the guidance indicator may include a distance error indicator overlaid on the endoscopic image. When the endoscope is moved, the distance from the center of the endoscopic image to the selected region of interest changes. The distance error can be overlaid on the endoscopic image to help the user navigate the endoscope. For example, distance may be indicated as the number of screens (eg, in pixels). In another embodiment, a line connecting the center of the endoscopic image and the selected region of interest may be represented as a function of distance. This can include representing the line as a virtual spring that can be stretched as the distance increases and compressed as the distance decreases. Alternatively, the color or thickness of the line can change according to the distance. Other representations of distance error are also considered.
別の実施形態において、解剖学的基準方向が内視鏡画像上にオーバーレイされ得る。術前及び術中画像がレジストレーションされると(ブロック402)、術前及び術中画像の解剖学的基準方向が決定され、内視鏡ビューに変換される。解剖学的基準方向は、例えば、前/後、右/左、及び頭/足方向を含み得る。他の解剖学的基準方向も考慮される。 In another embodiment, the anatomical reference direction can be overlaid on the endoscopic image. Once the pre-operative and intra-operative images are registered (block 402), the anatomical reference direction of the pre-operative and intra-operative images is determined and converted to an endoscopic view. Anatomic reference directions may include, for example, anterior / posterior, right / left, and head / foot directions. Other anatomical reference directions are also considered.
ブロック414において、内視鏡画像上にオーバーレイされるガイダンスインジケータを用いて、ユーザはより効率的に内視鏡をナビゲートすることができる。選択関心領域に達するかどうかを決定するために内視鏡の動きが追跡される。ブロック416において、選択された関心領域に達していない場合、ブロック418において選択された関心領域に達するまでステップ408,410,414及び416が繰り返される。有利なことに、本発明の原理はユーザが効率的に内視鏡をナビゲートするのを助け、手術室滞在時間の短縮をもたらす。
At
本発明の一実施形態において、ブロック412において、内視鏡のカメラはカメラの座標系がユーザの好適な座標系と対応するように事前に方向付けられ得る。ユーザは好みの例えば上向き方向を示し得る。これはユーザが好みの上向き方向に内視鏡を物理的に動かすことを含み得る。内視鏡の物理的な動きと内視鏡画像の実際の上向き方向との間の角度が計算され、カメラと内視鏡の間に取り付けられる作動プラットフォームへ入力として渡される。作動プラットフォームはユーザが内視鏡をナビゲートするのを助けるために受信した角度に従ってカメラを回転させる。対応する方向は上向き方向に限定されず、むしろいかなる方向も含み得ることが留意される。
In one embodiment of the present invention, at
添付の請求項において、
a)"有する"という語は所与の請求項に列挙したもの以外の要素若しくは動作の存在を除外しない。
b)ある要素に先行する"a"若しくは"an"という語はかかる要素の複数の存在を除外しない。
c)請求項における任意の参照符号はその範囲を限定しない。
d)複数の"手段"は同じ項目又はハードウェア若しくはソフトウェア実施構造若しくは機能によってあらわされ得る。
e)特に明記しない限り特定の動作順序が要求されることを意図しない。
ことが理解されるべきである。
In the appended claims:
a) the word “comprising” does not exclude the presence of other elements or acts than those listed in a given claim;
b) The word “a” or “an” preceding an element does not exclude the presence of a plurality of such elements.
c) any reference signs in the claims do not limit their scope;
d) Multiple “means” may be represented by the same item or hardware or software implementation structure or function.
e) It is not intended that a specific order of operation is required unless otherwise specified.
It should be understood.
術前及び術中3D画像を用いて内視鏡を手動操作するガイダンスツールのための好適な実施形態を記載したが(例示であって限定ではないことが意図される)、上記教示を考慮して当業者によって修正及び変更がなされ得ることが留意される。従って添付の請求項によって概説される通り本明細書に開示の実施形態の範囲内にある変更が本開示の特定の実施形態においてなされ得ることが理解されるものとする。特許法によって要求される詳細と特異点をこのように記載したが、特許証によって保護されるべき特許請求の範囲は添付の請求項に明記される。 While a preferred embodiment for a guidance tool for manually manipulating an endoscope using pre-operative and intra-operative 3D images has been described (illustrative and not limiting), in view of the above teachings It is noted that modifications and changes can be made by those skilled in the art. Accordingly, it is to be understood that changes may be made in certain embodiments of the disclosure that are within the scope of the embodiments disclosed herein as outlined by the appended claims. Having thus described the details and specificities required by the patent law, the scope of the claims to be protected by the patent certificate is set forth in the appended claims.
Claims (26)
プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするレジストレーションモジュールと、
前記第1の画像セット上の選択された関心領域を受信して、前記選択された関心領域を内視鏡座標フレームへ変換する、選択モジュールと、
前記内視鏡のユーザが前記選択された関心領域へナビゲートすることを可能にするよう、前記第2の画像セット上にガイダンスツールをオーバーレイするガイダンスモジュールと
を有し、前記ガイダンスモジュールは、前記第2の画像セット上に前記内視鏡の現在の動きの経路をオーバーレイする経路モジュールを含む、システム。 A guidance system for endoscopic navigation,
A registration module that registers a first image set of the endoscope with a second image set using a processor;
A selection module that receives a selected region of interest on the first set of images and converts the selected region of interest into an endoscopic coordinate frame;
A guidance module overlaying a guidance tool on the second set of images to allow a user of the endoscope to navigate to the selected region of interest, the guidance module comprising: A system comprising a path module that overlays a path of current movement of the endoscope on a second image set.
プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするレジストレーションモジュールと、
前記第1の画像セット上の選択された関心領域を受信し、前記選択された関心領域を内視鏡座標フレームへ変換する選択モジュールと、
前記第2の画像セット上にガイダンスツールをオーバーレイし、前記第2の画像セット上に前記内視鏡の現在の動きの経路をオーバーレイする経路モジュールを含むガイダンスモジュールと、
前記内視鏡のユーザが前記選択された関心領域へナビゲートすることを可能にするために、前記内視鏡のカメラを、前記カメラの座標系が前記ユーザの座標系と対応するように方向付ける作動モジュールと
を有する、システム。 A guidance system for endoscopic navigation,
A registration module that registers a first image set of the endoscope with a second image set using a processor;
A selection module for receiving a selected region of interest on the first set of images and converting the selected region of interest into an endoscope coordinate frame;
A guidance module including a path module that overlays a guidance tool on the second image set and overlays a path of current movement of the endoscope on the second image set;
In order to allow the user of the endoscope to navigate to the selected region of interest, the endoscope camera is oriented so that the camera coordinate system corresponds to the user coordinate system. A system having an actuating module attached.
プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするステップと、
前記内視鏡のユーザが関心領域へナビゲートすることを可能にするガイダンスツールを前記第2の画像セット上にオーバーレイし、前記関心領域は前記第1の画像セット上で選択可能であり、内視鏡座標フレームへ変換可能である、ステップと
を有する、方法において、
前記オーバーレイするステップは、前記内視鏡の現在の動きの経路を前記第2の画像セット上にオーバーレイするステップを含む、ガイド下内視鏡ナビゲーションのための装置の作動方法。 A method of operating a device for guided endoscope navigation comprising:
Registering a first image set of an endoscope with a second image set using a processor;
Overlaying on the second image set a guidance tool that allows a user of the endoscope to navigate to a region of interest, the region of interest being selectable on the first image set, A method capable of being converted to an endoscopic coordinate frame,
The method of operating an apparatus for guided endoscope navigation, wherein the overlaying step includes overlaying a path of current movement of the endoscope on the second set of images.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261635327P | 2012-04-19 | 2012-04-19 | |
US61/635,327 | 2012-04-19 | ||
PCT/IB2013/052797 WO2013156893A1 (en) | 2012-04-19 | 2013-04-08 | Guidance tools to manually steer endoscope using pre-operative and intra-operative 3d images |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015514492A JP2015514492A (en) | 2015-05-21 |
JP2015514492A5 JP2015514492A5 (en) | 2016-06-02 |
JP6174676B2 true JP6174676B2 (en) | 2017-08-02 |
Family
ID=48539312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506331A Active JP6174676B2 (en) | 2012-04-19 | 2013-04-08 | Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation |
Country Status (6)
Country | Link |
---|---|
US (1) | US11452464B2 (en) |
EP (1) | EP2838412B1 (en) |
JP (1) | JP6174676B2 (en) |
CN (1) | CN104244800B (en) |
RU (1) | RU2668490C2 (en) |
WO (1) | WO2013156893A1 (en) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9510771B1 (en) | 2011-10-28 | 2016-12-06 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
US9295372B2 (en) * | 2013-09-18 | 2016-03-29 | Cerner Innovation, Inc. | Marking and tracking an area of interest during endoscopy |
US9848922B2 (en) | 2013-10-09 | 2017-12-26 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
WO2015054543A1 (en) | 2013-10-09 | 2015-04-16 | Nuvasive, Inc. | Surgical spinal correction |
US20150157197A1 (en) * | 2013-12-09 | 2015-06-11 | Omer Aslam Ilahi | Endoscopic image overlay |
US10772684B2 (en) | 2014-02-11 | 2020-09-15 | Koninklijke Philips N.V. | Spatial visualization of internal mammary artery during minimally invasive bypass surgery |
DE102014203097A1 (en) * | 2014-02-20 | 2015-08-20 | Siemens Aktiengesellschaft | A method of assisting navigation of an endoscopic device |
CN111184577A (en) * | 2014-03-28 | 2020-05-22 | 直观外科手术操作公司 | Quantitative three-dimensional visualization of an instrument in a field of view |
US10368054B2 (en) * | 2014-03-28 | 2019-07-30 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging of surgical scenes |
EP3157425A4 (en) | 2014-06-17 | 2017-11-15 | Nuvasive, Inc. | Systems and methods for planning, performing, and assessing spinal correction during surgery |
JP6663571B2 (en) | 2014-11-06 | 2020-03-13 | ソニー株式会社 | Endoscope image processing apparatus, method of operating endoscope image processing apparatus, and program |
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
US20160262800A1 (en) | 2015-02-13 | 2016-09-15 | Nuvasive, Inc. | Systems and methods for planning, performing, and assessing spinal correction during surgery |
US10406054B1 (en) | 2015-02-18 | 2019-09-10 | Nuvasive, Inc. | Systems and methods for facilitating surgical procedures |
JP6577031B2 (en) * | 2015-07-08 | 2019-09-18 | オリンパス株式会社 | Endoscope device |
WO2017114855A1 (en) * | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, control unit and method for control of a surgical robot |
WO2017122322A1 (en) * | 2016-01-14 | 2017-07-20 | オリンパス株式会社 | Medical manipulator system |
JP6894441B2 (en) | 2016-01-22 | 2021-06-30 | ニューヴェイジヴ,インコーポレイテッド | Systems and methods to facilitate spinal surgery |
BR112018067591B1 (en) | 2016-03-02 | 2023-11-28 | Nuvasive, Inc. | SYSTEM FOR SURGICAL PLANNING AND EVALUATION OF CORRECTION OF SPINAL DEFORMITY IN AN INDIVIDUAL |
JP7041068B6 (en) * | 2016-03-17 | 2022-05-30 | コーニンクレッカ フィリップス エヌ ヴェ | Control units, systems, and methods for controlling hybrid robots with proximal and flexible distal parts. |
WO2018005861A1 (en) | 2016-06-30 | 2018-01-04 | Intuitive Surgical Operations, Inc. | Graphical user interface for displaying guidance information during an image-guided procedure |
KR102420386B1 (en) | 2016-06-30 | 2022-07-13 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | Graphical user interface for displaying guidance information in multiple modes during video-guided procedures |
CN118078431A (en) * | 2017-04-18 | 2024-05-28 | 直观外科手术操作公司 | Graphical user interface for monitoring image-guided procedures |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
JP6990292B2 (en) * | 2018-02-21 | 2022-01-12 | オリンパス株式会社 | Medical system and how to operate the medical system |
US10667875B2 (en) * | 2018-06-27 | 2020-06-02 | Auris Health, Inc. | Systems and techniques for providing multiple perspectives during medical procedures |
US20210290317A1 (en) * | 2018-07-31 | 2021-09-23 | Intuitive Surgical Operations, Inc. | Systems and methods for tracking a position of a robotically-manipulated surgical instrument |
US11229492B2 (en) | 2018-10-04 | 2022-01-25 | Biosense Webster (Israel) Ltd. | Automatic probe reinsertion |
CN110742690A (en) * | 2019-09-12 | 2020-02-04 | 东南大学苏州医疗器械研究院 | Method for configuring endoscope and terminal equipment |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
WO2022044606A1 (en) * | 2020-08-24 | 2022-03-03 | 富士フイルム株式会社 | Medical image processing apparatus, medical image processing method, endoscope system, and medical image processing program |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
US20220202500A1 (en) * | 2020-12-30 | 2022-06-30 | Canon U.S.A., Inc. | Intraluminal navigation using ghost instrument information |
WO2022146996A1 (en) * | 2020-12-30 | 2022-07-07 | Intuitive Surgical Operations, Inc. | Systems for updating a graphical user interface based upon intraoperative imaging |
US20230053189A1 (en) * | 2021-08-11 | 2023-02-16 | Terumo Cardiovascular Systems Corporation | Augmented-reality endoscopic vessel harvesting |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997029709A1 (en) * | 1996-02-15 | 1997-08-21 | Biosense, Inc. | Medical procedures and apparatus using intrabody probes |
US7343195B2 (en) * | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
GR1004180B (en) | 2000-03-28 | 2003-03-11 | ����������� ����� ��������� (����) | Method and system for characterization and mapping of tissue lesions |
WO2002024051A2 (en) * | 2000-09-23 | 2002-03-28 | The Board Of Trustees Of The Leland Stanford Junior University | Endoscopic targeting method and system |
EP2316328B1 (en) * | 2003-09-15 | 2012-05-09 | Super Dimension Ltd. | Wrap-around holding device for use with bronchoscopes |
US20060036162A1 (en) * | 2004-02-02 | 2006-02-16 | Ramin Shahidi | Method and apparatus for guiding a medical instrument to a subsurface target site in a patient |
US7720521B2 (en) | 2004-04-21 | 2010-05-18 | Acclarent, Inc. | Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses |
US8199984B2 (en) * | 2006-05-02 | 2012-06-12 | National University Corporation Nagoya University | System that assists in observing a luminal organ using the structure of the luminal organ |
US20080287783A1 (en) | 2007-05-16 | 2008-11-20 | General Electric Company | System and method of tracking delivery of an imaging probe |
CN101826780B (en) * | 2009-03-07 | 2013-08-21 | 深圳先进技术研究院 | System for driving capsule endoscope |
WO2010111090A1 (en) * | 2009-03-26 | 2010-09-30 | Intuitive Surgical Operations, Inc. | System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation |
JP4810622B2 (en) * | 2009-04-20 | 2011-11-09 | オリンパスメディカルシステムズ株式会社 | In-subject inspection system |
-
2013
- 2013-04-08 JP JP2015506331A patent/JP6174676B2/en active Active
- 2013-04-08 CN CN201380020657.8A patent/CN104244800B/en active Active
- 2013-04-08 US US14/394,611 patent/US11452464B2/en active Active
- 2013-04-08 EP EP13726277.0A patent/EP2838412B1/en active Active
- 2013-04-08 RU RU2014146310A patent/RU2668490C2/en active
- 2013-04-08 WO PCT/IB2013/052797 patent/WO2013156893A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP2838412B1 (en) | 2020-09-09 |
WO2013156893A1 (en) | 2013-10-24 |
US11452464B2 (en) | 2022-09-27 |
RU2014146310A (en) | 2016-06-10 |
CN104244800B (en) | 2017-05-17 |
JP2015514492A (en) | 2015-05-21 |
RU2668490C2 (en) | 2018-10-01 |
US20150073265A1 (en) | 2015-03-12 |
EP2838412A1 (en) | 2015-02-25 |
CN104244800A (en) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6174676B2 (en) | Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation | |
US11413099B2 (en) | System, controller and method using virtual reality device for robotic surgery | |
US10835344B2 (en) | Display of preoperative and intraoperative images | |
JP6382802B2 (en) | Improving blood vessel visualization using a robot-operated endoscope | |
JP6649260B2 (en) | Visualization of blood vessel depth and position and robot-guided visualization of blood vessel cross-section | |
CN106030656B (en) | System and method for visualizing an anatomical target | |
EP2747695B1 (en) | Endoscopic registration of vessel tree images | |
RU2692206C2 (en) | Robotic control of endoscope based on anatomical features | |
CN108472090A (en) | System, control unit and method for controlling surgical operation robot | |
CN107847111B (en) | Endoscopic guidance of interactive planar slices from volumetric images | |
JP2015523133A (en) | Guided incision plan for endoscopic minimally invasive surgery | |
Abdurahiman et al. | Human-computer interfacing for control of angulated scopes in robotic scope assistant systems | |
US20200359994A1 (en) | System and method for guiding ultrasound probe | |
Rassweiler et al. | Augmented reality for percutaneous renal interventions | |
US20230215059A1 (en) | Three-dimensional model reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160405 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170131 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6174676 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |